苹果正在其平台上发布一套保护在线儿童的功能,包括一个可以检测 iCloud 中虐待儿童材料同时保护用户隐私的系统。 这家库比蒂诺科技巨头宣布了三个领域的新儿童安全功能,称这将有助于保护儿童免受掠侵害,并限制儿童性虐待材料 (CSAM) 的传播。官方公告紧随有报道称苹果将推出某种类型的系统以遏制其平台上的 CSAM。 例如,Apple 将在 Messages 中实施新工具,让父母更了解他们的孩子如何在线交流。该公司还使用一种新系统,该系统利用加密技术来检测存储在 iCloud 照片中的 CSAM 集合,以向执法部门提供信息。Apple 还在 Siri 和搜索中开发新的安全工具。 美国失踪与受虐儿童中心首席执行官兼总裁约翰克拉克说:Apple 扩大对儿童的保护改变了游戏规则。 由于有如此多的人使用 Apple 产品,这些新的安全措施对于在网上被引诱并且其恐怖图片在儿童性虐待材料中传播的儿童来说具有挽救生命的潜力。在国家失踪与受虐儿童中心,我们知道只有坚定不移地致力于保护儿童,才能打击这种犯罪。我们之所以能做到这一点,是因为像 Apple 这样的技术合作伙伴挺身而出,表达了他们的奉献精神。现实情况是,隐私和儿童保护可以共存。我们为 Apple 鼓掌,并期待共同努力,让这个世界成为一个对儿童来说更安全的地方。 这三项功能还针对隐私进行了优化,确保 Apple 可以向有关当局提供有关犯罪活动的信息,而不会威胁到守法用户的隐私信息。 这些新功能将于 2021 年晚些时候在 iOS 15、iPadOS 15、macOS Monterey 和 watchOS 8 的更新中首次亮相。 iCloud 照片中的 CSAM 检测 Apple 计划推出的最重要的新儿童安全功能侧重于检测 iCloud 照片帐户中的 CSAM。 如果 Apple 检测到存储在 iCloud 中的 CSAM 集合,它将标记该帐户并向 NCMEC 提供信息,NCMEC 作为虐待儿童材料的报告中心并与美国各地的执法机构合作 苹果实际上并没有在这里扫描图像。相反,它使用设备上的智能将 CSAM 与 NCMEC 和其他儿童安全组织提供的已知哈希数据库相匹配。该数据库被转换为一组不可读的哈希值,并安全地存储在用户的设备上。 在 iCloud 照片中检测 CSAM 的实际方法很复杂,并且在每一步都使用加密技术来确保准确性,同时维护普通用户的隐私。 Apple 表示,经过人工审核流程后,被标记的帐户将被禁用,以确保它是真实的。帐户被禁用后,库比蒂诺公司将向 NCMEC 发送消息。如果用户觉得自己被错误定位,他们将有机会对帐户终止提出申诉。 该公司再次重申,该功能仅检测存储在 iCloud 照片中的 CSAM——它不适用于严格存储在设备上的照片。此外,Apple 声称该系统每年的错误率不到万亿分之一。 该功能不是基于云的扫描,而是仅报告在 iCloud 中存储了一组已知 CSAM 的用户。单一的滥用材料不足以触发它,这有助于降低误报率。 Apple 再次表示,它只会了解与已知 CSAM 匹配的图像。它不会扫描存储在 iCloud 中的每个图像,也不会获取或查看与已知 CSAM 不匹配的任何图像。 CSAM 检测系统仅适用于美国的 iCloud 帐户启动。苹果表示,未来可能会更大规模地推出该系统。 通讯安全 其中一项新更新侧重于提高儿童使用 Apple iMessage进行在线交流的安全性 例如,当孩子和父母接收或发送色情照片时,iMessage 应用程序现在会向他们显示警告。 如果 17 岁以下的儿童收到敏感图像,它会自动模糊处理,并为儿童提供有用的资源。Apple 还包括一个机制,让 13 岁以下的儿童知道如果他们确实看到了消息,则会向他们的父母发送消息。13 至 17 岁的儿童在打开这些图像时不会收到家长通知,并且无法对 18 岁以上成人使用的帐户启用通信安全。 该系统使用设备上的机器学习来分析图像并确定它是否具有色情内容。它是专门设计的,因此 Apple 不会获得或接收图像的副本。 Siri 和搜索更新 除了 iMessage 安全功能外,Apple 还在 Siri 搜索中提供了有关在线儿童安全的工具和资源。 例如,iPhone和 iPad 用户将能够询问 Siri 他们如何报告 CSAM 或儿童可利用性。然后 Siri 将提供适当的资源和指导。 如果用户对 CSAM 执行搜索或查询,Siri 和搜索也将进行更新。正如 Apple 指出的那样,"这些干预措施将向用户解释,对这个话题感兴趣是有害的和有问题的,并从合作伙伴那里提供资源以获取有关此问题的帮助。" 维护用户隐私 苹果长期以来一直吹捧它不遗余力地保护用户隐私。该公司甚至就用户隐私权与执法部门进行了正面交锋。这就是为什么引入旨在向执法部门提供信息的系统让一些安全专家感到担忧的原因。 然而,苹果公司坚持认为,在开发系统时,对系统的监视和滥用是"首要问题"。它表示,它设计了每项功能,以确保在打击 CSAM 或在线儿童剥削的同时保护隐私。 例如,CSAM 检测系统从一开始就设计为仅检测 CSAM — 它不包含用于分析或检测任何其他类型照片的机制。此外,它仅检测超过特定阈值的 CSAM 集合。 苹果表示,该系统不会为监视打开大门,也不会采取任何措施削弱其加密功能。例如,CSAM 检测系统仅分析未端到端加密的照片。 安全专家仍然担心后果。约翰霍普金斯大学密码学教授马修格林指出,哈希值基于用户无法查看的数据库。更重要的是,散列有可能被滥用——就像一个无害的图像与已知的 CSAM 共享一个散列。 "苹果是一家‘隐私’公司的想法为他们赢得了很多好媒体。但重要的是要记住,这家公司不会加密你的 iCloud 备份,因为 FBI 对他们施加了压力,"格林写道。 . 罗斯·安德森,在剑桥大学安全工程学教授,被称为系统"的绝对是骇人听闻的想法"的采访与 金融时报 。他补充说,这可能导致"对……我们的手机和笔记本电脑的分布式批量监视"。 数字权利组织电子前沿基金会也写了一篇关于该功能的博客文章,称它"为更广泛的滥用打开了大门"。 "扩大 Apple 正在构建的狭窄后门所需要的只是扩展机器学习参数以寻找其他类型的内容,或者调整要扫描的配置标志,不仅是儿童的账户,而是任何人的账户。那不是EFF 的 India McKinney 和 Erica Portnoy 写道。