Apple 已宣布计划扫描 iPhone 以查找虐待儿童的图像,此举引发了对用户隐私和监视的直接担忧。
Apple 的 iPhone 是否已成为 iSpy?
Apple 表示其系统是自动化的,不扫描实际图像本身,使用某种形式的哈希数据系统来识别已知的儿童性虐待材料 (CSAM) 实例,并表示它有一些故障保险来保护隐私。
隐私倡导者警告说,现在它已经创建了这样一个系统,Apple 正走在一条崎岖不平的道路上,它会不可避免地扩展设备上的内容扫描和报告,这可能 – 而且很可能会 – 被一些国家滥用。
苹果系统在做什么
该系统包含三个主要元素,它们将潜伏在今年晚些时候发布的 iOS 15、iPadOS 15 和 macOS Monterey 中。
扫描图像
Apple 的系统会扫描存储在 iCloud 照片中的所有图像,以查看它们是否与国家失踪与受虐儿童中心 (NCMEC) 持有的 CSAM 数据库相匹配。
使用 NCMEC 和其他儿童安全组织提供的已知 CSAM 图像哈希数据库在设备上扫描图像。 Apple 进一步将此数据库转换为一组不可读的哈希值,并安全地存储在用户的设备上。
当图像存储在 iCloud 照片上时,会发生匹配过程。 如果帐户超过已知 CSAM 内容的多个实例的阈值,Apple 会收到警报。 如果收到警报,将手动审查数据,禁用帐户并通知 NCMEC。
然而,该系统并不完美。 该公司表示,错误标记帐户的可能性不到万亿分之一。 Apple 拥有超过 10 亿用户,这意味着每年有人被错误识别的可能性超过 1/1,000。 觉得自己被错误标记的用户可以提出上诉。
图像在设备上扫描。
扫描您的消息
Apple 的系统使用设备上的机器学习来扫描未成年人发送或接收的 Message 中的图像以查找色情材料,如果识别出此类图像,则会警告父母。 父母可以启用或禁用该系统,孩子收到的任何此类内容都将被模糊处理。
如果孩子试图发送露骨的色情内容,他们将被警告并告知父母。 Apple 表示无法访问在设备上扫描的图像。
查看您搜索的内容
第三部分包括对 Siri 和搜索的更新。 Apple 表示,这些现在将为父母和孩子提供更多信息,并在他们遇到不安全情况时提供帮助。 当人们提出被认为与 CSAM 相关的搜索查询时,Siri 和搜索也会进行干预,并解释对该主题的兴趣是有问题的。
Apple 有益地告诉我们,它的计划是“雄心勃勃的”,并且这些努力将“随着时间的推移而发展和扩大”。
一点技术数据
该公司已经发布了一份详尽的技术白皮书,其中对其系统进行了更多解释。 在这篇论文中,它煞费苦心地向用户保证它不会学习任何与数据库不匹配的图像,
Apple 的技术称为 NeuralHash,可分析已知的 CSAM 图像并将它们转换为特定于每张图像的唯一编号。 只有看起来几乎相同的另一幅图像才能产生相同的数字; 例如,大小或转码质量不同的图像仍将具有相同的 NeuralHash 值。
当图像添加到 iCloud 照片时,它们会与该数据库进行比较以识别匹配项。
如果找到匹配项,则会创建加密安全凭证,据我了解,如果达到此类内容的阈值并需要采取行动,Apple 审阅者也可以解密和访问违规图像。
“只有当帐户的 CSAM 匹配次数超过阈值时,Apple 才能学习相关图像信息,即便如此,也只能针对匹配的图像,”该论文总结道。
Apple 不是独一无二的,但设备上的分析可能是
Apple 并不是唯一一家被要求与当局分享 CSAM 图片的公司。 根据法律规定,任何在其服务器上发现此类材料的美国公司都必须与执法部门合作进行调查。 Facebook、微软和谷歌已经拥有扫描通过电子邮件或消息平台共享的此类材料的技术。
这些系统与这个系统的区别在于,分析是在设备上进行的,而不是在公司服务器上进行的。
Apple 一直声称其消息传递平台是端到端加密的,但如果在加密之前就扫描了一个人设备的内容,这就变成了一个语义声明。
儿童保护当然是最理性的人支持的事情。 但隐私倡导者担心的是,一些政府现在可能会试图迫使苹果公司在人们的设备上搜索其他材料。
例如,取缔同性恋的政府可能会要求此类内容受到监控。 如果在一个禁止非二元性行为的国家,一个十几岁的孩子向 Siri 求助以求出柜,会发生什么? 那么隐蔽的环境聆听设备(例如 HomePods)呢? 目前尚不清楚该系统的搜索相关组件是否部署在那里,但可以想象它是。
目前尚不清楚 Apple 将如何防止任何此类任务偏离。
隐私倡导者非常震惊
大多数隐私权倡导者认为,该计划很可能会导致任务蔓延,这无助于维持人们对 Apple 对用户隐私的承诺的信念。
如果设备本身在监视他们,而他们无法控制如何监视,那么用户怎么会觉得隐私受到保护?
电子前沿基金会 (EFF) 警告称,该计划实际上会创建安全后门。
“扩大苹果正在构建的狭窄后门所需要做的就是扩展机器学习参数以寻找其他类型的内容,或者调整配置标志以扫描,不仅是儿童的,而且是任何人的帐户。 那不是滑坡; 这是一个完全构建的系统,只是在等待外部压力做出最细微的改变。”
“当 Apple 开发出一种能够扫描加密内容的技术时,你不能只是说,‘好吧,我想知道中国政府会用这项技术做什么。’” 这不是理论上的,”约翰霍普金斯大学教授马修格林警告说。
备选论据
还有其他论据。 其中最引人注目的是,ISP 和电子邮件提供商的服务器已经扫描了此类内容,并且 Apple 已经构建了一个系统,可以最大限度地减少人工参与,并且只会在它识别出 CSAM 数据库和 设备上的内容。
毫无疑问,儿童处于危险之中。
在 2020 年向 NCMEC 报告的近 26,500 名离家出走者中,六分之一可能是儿童性交易的受害者。 2020 年,该组织的 CyberTipline(我想 Apple 在这种情况下与之相关)收到了超过 2170 万份与某种形式的 CSAM 相关的报告。
NCMEC 总裁兼首席执行官约翰·克拉克 (John Clark) 表示:“由于有这么多人使用 Apple 产品,这些新的安全措施对于那些在网上被引诱并且在 CSAM 中传播恐怖图片的儿童来说具有挽救生命的潜力。 在国家失踪与受虐儿童中心,我们知道只有坚定不移地致力于保护儿童,才能打击这种犯罪行为。 我们之所以能做到这一点,是因为像 Apple 这样的技术合作伙伴挺身而出,让人们知道了他们的奉献精神。”
其他人则表示,通过创建一个系统来保护儿童免受此类恶劣犯罪的侵害,Apple 正在消除一些人可能用来在更广泛的意义上为设备后门辩护的论点。
我们大多数人都同意儿童应该受到保护,而通过这样做,Apple 削弱了一些专制政府可能用来强制解决问题的论点。 现在,它必须抵制此类政府的任何使命蔓延。
最后一个挑战是最大的问题,因为苹果在推动下将始终遵守其开展业务所在国家/地区政府的法律。
隐私权倡导者爱德华·斯诺登警告说:“无论用意多么好,苹果公司都在以此向全世界展开大规模监控。” 如果他们今天可以扫描 CSAM,“他们明天就可以扫描任何东西。”