週一,蘋果分享了其計劃,允許用戶選擇參加設備使用不同的隱私技術培訓,與失敗的CSAM檢測系統非常相似。
差異隱私是蘋果公開接受的概念使用iOS 10。這是將噪聲引入示例數據的數據收集,以防止數據收集器弄清數據的來源。
根據帖子在Apple的機器學習博客上,Apple正在努力實施差異隱私作為收集用戶數據以培訓Apple Intelligence的方法。數據以匿名和無法追溯到單個用戶的方式提供選擇。
這個故事是首先覆蓋經過彭博這解釋了蘋果關於使用對現實世界用戶信息培訓的合成數據的報告。但是,它並不像將用戶數據從一個在服務器農場進行分析。
相反,蘋果將利用一種稱為差異隱私的技術,如果您忘記了,則是一個旨在的系統到數據收集,因此無法將各個數據點追溯到源。 Apple通過在設備上留下用戶數據來進一步邁出一步 - 僅通過投票以進行準確性並從用戶設備中刪除投票結果。
這些方法確保了蘋果在隱私和安全背後的原則得到保留。選擇共享設備分析的用戶將參與此系統,但是他們的數據都不會離開iPhone。
分析沒有標識符的數據
差異隱私是蘋果至少至少2006年以來就依靠和發展的概念,但直到2016年才成為其公共身份的一部分。作為學習人們如何使用表情符號,為本地詞典找到新單詞,為應用程序內的深層鏈接和說明搜索工具的一種方式。
用不同的隱私分析數據。圖像來源:蘋果
蘋果說從,差異隱私將用於分析用戶數據並以Genmoji開頭培訓特定的Apple Intelligence系統。它將能夠識別人們使用的普通提示模式,以便蘋果可以更好地訓練AI並為這些提示獲得更好的結果。
基本上,Apple提供了它認為很受歡迎的人造提示,例如“牛仔帽子戴恐龍”,並在用戶數據分析中尋找模式匹配。由於人為地註射的噪聲和需要數百個碎片匹配的門檻,因此沒有任何方法可以表現出獨特或個人識別的提示。
另外,這些對提示片段的搜索僅導致正投票,因此沒有從分析中得出用戶數據。同樣,無法隔離數據並將其追溯到一個人或標識符。
相同的技術將用於分析圖像操場,圖像棒,記憶創建和寫作工具。這些系統依靠簡短的提示,因此分析可以限於簡單的及時圖案匹配。
蘋果希望通過實施文本生成來進一步採用這些方法。由於電子郵件和其他系統的文本生成會導致更長的提示,而且可能會有更多的私人用戶數據,因此蘋果採取了額外的步驟。
蘋果正在使用最近的研究開發可用於表示真實用戶數據中總趨勢的合成數據。當然,這是在不刪除用戶設備中的任何文本的情況下完成的。
在生成可能代表真實電子郵件的合成電子郵件之後,將它們與已計算為合成嵌入的最新用戶電子郵件的有限樣本進行了比較。在許多設備上最接近樣品的合成嵌入證明了蘋果生成的合成數據最能代表實際人類交流。
一旦發現了跨設備的模式,就可以完善合成數據和模式匹配以跨不同主題起作用。該過程使蘋果能夠培訓Apple Intelligence,以產生更好的摘要和建議。
同樣,Apple Intelligence培訓的差異隱私方法是選擇加入的,並進行了設備。用戶數據永遠不會離開設備,並且收集的輪詢結果引入了噪音,因此,即使不存在用戶數據,單個結果也無法綁架到單個標識符。
這些蘋果智能培訓方法聽起來很熟悉
如果蘋果的方法在這裡響起鈴鐺,那是因為它們看起來與公司的方法相似,但被放棄,用於CSAM檢測。該系統將將用戶照片轉換為哈希相,這些哈希與已知CSAM哈希的數據庫進行了比較。
蘋果的CSAM檢測功能依賴於哈希照片而不違反隱私或破壞加密
但是,這是兩個截然不同的系統,具有不同的目標。新型的蘋果智能訓練系統旨在防止Apple了解有關用戶的任何內容,而CSAM檢測可能會導致Apple發現有關用戶照片的信息。
該分析將發生在照片存儲。蘋果本來可以使用一種稱為私人集交叉路口的方法執行照片哈希匹配,該方法無需查看用戶照片或從iCloud刪除照片。
當單個設備上發生了足夠的CSAM哈希匹配項的潛在積極結果的實例時,它將觸發一個發送的系統,該系統發送受影響的圖像以由人類分析。如果發現的圖像是CSAM,則將通知當局。
CSAM檢測系統,數據加密等等,但它還引入了許多潛在的新攻擊向量,這些攻擊向量可能受到專制政府的濫用。例如,如果可以使用這樣的系統來找到CSAM,那麼人們擔心政府可能會迫使蘋果使用它來找到某些類型的語音或圖像。
蘋果CSAM檢測系統。擁護者有反對蘋果的決定,表明該公司沒有採取任何措施來防止這種內容的傳播。
請注意,儘管CSAM檢測功能與新的Apple Intelligence培訓系統具有多種相似之處,但它們卻建立在不同的技術上。例如,引入數據集的噪聲使用戶數據(這就是使其差異隱私的原因)並不是CSAM檢測功能的一部分。
由於兩個系統都涉及將用戶數據轉換為可比的數據塊,因此很容易看到兩者之間的相似性。但是,這些技術的基礎和目標非常不同。
選擇蘋果情報培訓
儘管該部分的實施似乎相似,但蘋果似乎已經陷入了爭議的較少。即便如此,有些人寧願不提供受保護或不保護隱私的數據來培訓Apple Intelligence。
使用數據分析設置選擇進出
尚未實施,因此不用擔心,仍然有時間確保您被選為退出。蘋果說,它將在iOS 18.5中介紹該功能,測試將以一個。
要檢查您是否選擇參加,請打開設置,向下滾動並選擇隱私與安全,然後選擇分析與改進。如果還沒有,請切換“共享iPhone&Watch Analytics”設置以選擇退出AI培訓。