设备上的苹果情报培训似乎是基于有争议的技术

周一,苹果分享了其计划,允许用户选择参加设备使用不同的隐私技术培训,与失败的CSAM检测系统非常相似。

差异隐私是苹果公开接受的概念使用iOS 10。这是将噪声引入示例数据的数据收集,以防止数据收集器弄清数据的来源。

根据帖子在Apple的机器学习博客上,Apple正在努力实施差异隐私作为收集用户数据以培训Apple Intelligence的方法。数据以匿名和无法追溯到单个用户的方式提供选择。

这个故事是首先覆盖经过彭博这解释了苹果关于使用对现实世界用户信息培训的合成数据的报告。但是,它并不像将用户数据从一个在服务器农场进行分析。

相反,苹果将利用一种称为差异隐私的技术,如果您忘记了,则是一个旨在的系统到数据收集,因此无法将各个数据点追溯到源。 Apple通过在设备上留下用户数据来进一步迈出一步 - 仅通过投票以进行准确性并从用户设备中删除投票结果。

这些方法确保了苹果在隐私和安全背后的原则得到保留。选择共享设备分析的用户将参与此系统,但是他们的数据都不会离开iPhone。

分析没有标识符的数据

差异隐私是苹果至少至少2006年以来就依靠和发展的概念,但直到2016年才成为其公共身份的一部分。作为学习人们如何使用表情符号,为本地词典找到新单词,为应用程序内的深层链接和说明搜索工具的一种方式。

用不同的隐私分析数据。图像来源:苹果

苹果说从,差异隐私将用于分析用户数据并以Genmoji开头培训特定的Apple Intelligence系统。它将能够识别人们使用的普通提示模式,以便苹果可以更好地训练AI并为这些提示获得更好的结果。

基本上,Apple提供了人造提示,它认为很受欢迎,例如“牛仔帽子戴恐龙”,并在用户数据分析中寻找模式匹配。由于人为地注射的噪声和需要数百个碎片匹配的门槛,因此没有任何方法可以表现出独特或个人识别的提示。

另外,这些对提示片段的搜索仅导致正投票,因此没有从分析中得出用户数据。同样,无法隔离数据并将其追溯到一个人或标识符。

相同的技术将用于分析图像操场,图像棒,记忆创建和写作工具。这些系统依靠简短的提示,因此分析可以限于简单的及时图案匹配。

苹果希望通过实施文本生成来进一步采用这些方法。由于电子邮件和其他系统的文本生成会导致更长的提示,而且可能会有更多的私人用户数据,因此苹果采取了额外的步骤。

苹果正在使用最近的研究开发可用于表示真实用户数据中总趋势的合成数据。当然,这是在不删除用户设备中的任何文本的情况下完成的。

在生成可能代表真实电子邮件的合成电子邮件之后,将它们与已计算为合成嵌入的最新用户电子邮件的有限样本进行了比较。在许多设备上最接近样品的合成嵌入证明了苹果生成的合成数据最能代表实际人类交流。

一旦发现了跨设备的模式,就可以完善合成数据和模式匹配以跨不同主题起作用。该过程使苹果能够培训Apple Intelligence,以产生更好的摘要和建议。

同样,Apple Intelligence培训的差异隐私方法是选择加入的,并进行了设备。用户数据永远不会离开设备,并且收集的轮询结果引入了噪音,因此,即使不存在用户数据,单个结果也无法绑架到单个标识符。

这些苹果智能培训方法听起来很熟悉

如果苹果的方法在这里响起铃铛,那是因为它们看起来与公司的方法相似,但被放弃,用于CSAM检测。该系统将将用户照片转换为哈希相,这些哈希与已知CSAM哈希的数据库进行了比较。

苹果的CSAM检测功能依赖于哈希照片而不违反隐私或破坏加密

但是,这是两个截然不同的系统,具有不同的目标。新型的苹果智能训练系统旨在防止Apple了解有关用户的任何内容,而CSAM检测可能会导致Apple发现有关用户照片的信息。

该分析将发生在照片存储。苹果本来可以使用一种称为私人集交叉路口的方法执行照片哈希匹配,该方法无需查看用户照片或从iCloud删除照片。

当单个设备上发生了足够的CSAM哈希匹配项的潜在积极结果的实例时,它将触发一个发送的系统,该系统发送受影响的图像以由人类分析。如果发现的图像是CSAM,则将通知当局。

CSAM检测系统,数据加密等等,但它还引入了许多潜在的新攻击向量,这些攻击向量可能受到专制政府的滥用。例如,如果可以使用这样的系统来找到CSAM,那么人们担心政府可能会迫使苹果使用它来找到某些类型的语音或图像。

苹果CSAM检测系统。拥护者有反对苹果的决定,表明该公司没有采取任何措施来防止这种内容的传播。

请注意,尽管CSAM检测功能与新的Apple Intelligence培训系统具有多种相似之处,但它们却建立在不同的技术上。例如,引入数据集的噪声使用户数据(这就是使其差异隐私的原因)并不是CSAM检测功能的一部分。

由于两个系统都涉及将用户数据转换为可比的数据块,因此很容易看到两者之间的相似性。但是,这些技术的基础和目标非常不同。

选择苹果情报培训

尽管该部分的实施似乎相似,但苹果似乎已经陷入了争议的较少。即便如此,有些人宁愿不提供受保护或不保护隐私的数据来培训Apple Intelligence。

使用数据分析设置选择进出

尚未实施,因此不用担心,仍然有时间确保您被选为退出。苹果说,它将在iOS 18.5中介绍该功能,测试将以一个。

要检查您是否选择参加,请打开设置,向下滚动并选择隐私与安全,然后选择分析与改进。如果还没有,请切换“共享iPhone&Watch Analytics”设置以选择退出AI培训。