苹果打算偷看你的照片,这次的理由冠冕堂皇
任何打着"隐私保护"幌子而进行的监测动作,都是在耍流氓。
大家还记得,最近苹果一直在宣传的隐私保护功能吗?
"What happens on your iPhone, stays on your iPhone."这是苹果在iOS系统中宣传的关于隐私保护的广告语。
但事实真的如此吗?
8月5日,苹果美国官网表示,将在iOS15中添加新功能,用于监测存储在本地和icloud照片中的儿童性虐待图片。
苹果这款名为neuralMatch的工具将在图片上传到公司的iCloud之前扫描他们,并将他们和已知儿童虐待图片数据库进行对比。如果发现了高度匹配的图片,苹果员工将手动查看报告图像。若证实该用户存在虐待儿童的行为,则该用户的账户将被禁用,并且苹果将向美国国家失踪和受虐儿童中心报告。
听起来是不是感觉还挺好的,感觉苹果又在为儿童保护做贡献了。但此举却遭到了4000多家组织以及安全隐私专家、密码专家、研究人员、教授、法律专家、苹果用户等的公开反对。
在清楚这个工具的工作原理之后,相信你会发现其实一切并非如此简单。
它的工作原理大概是这样:
首先,苹果具有美国失踪和受虐儿童中心和其他儿童保护组织提供的图像,由这些图像可以提取一组哈希值。
NeuralHash 能够确保相同且视觉上相似的图像具有相同的哈希值,即使图像经过裁剪或者其他颜色处理。
这组哈希值数据库经过加密后存储在iPhone、iPad、Mac等各类苹果设备上,防止用户获取哈希值绕过系统检测。
然后,苹果会对用户在这些设备上接收、保存和发送的图片进行另一组哈希值的提取。在图片上传到iCloud之前,系统会进行这两组哈希值的比对。
如果系统认为照片属于露骨内容,iMessage就会暂时屏蔽这张照片,并再次确认用户是都要浏览或者发送这张照片。
不仅如此,如果用户本身就是儿童,并且设置了家庭账号,iOS系统还会通知家长。
苹果认为,这些保护措施可以防止其儿童不良监测机制被滥用,而不会看到用户的任何信息。而且苹果也给予了用户申诉的机会,如果用户认为自己账户被错误标记可以申诉恢复账号。
但问题是,如果照片对比超过一定阙值,被判定为儿童色情虐待内容,苹果的服务器将可以对照片进行解密,并且交由 人工 进行二次审核。
所以很多安全专家认为,苹果设计的这套打击儿童色情的技术,可能存在严重的安全和隐私风险。
于是,他们在上周六签署公开信,谴责苹果有计划破坏用户隐私和端到端加密机制。
公开信指出,苹果提出的措施可能将每部iPhone变成一台监控设备,不断扫描通过他的所有照片和信息,以便向执法部门报告任何令人反感的内容,这开创了一个先例,我们的个人设备成为一种激进的新入侵监控工具,几乎没有任何监督,以防止最终滥用和不合理地扩大监控范围。
专家们也指出了苹果提出的方法中存在的根本设计缺陷,他们声称苹果可以很容易地为每个用户使用不同的媒体指纹数据集。对一个用户来说,这可能是虐待儿童,对另一个用户来说,这可能是更广泛的类别,从而为目标用户提供了选择性的内容跟踪。
揭露美国大规模监控"棱镜"计划的爱德华·斯诺登也在推特上发声:"不管多么善意,苹果正在用这个对全世界进行大规模监控。如果他们今天能够扫描到儿童色情片,那明天就能扫描到任何东西。"他还在 Twitter 上发布了一张梗图吐槽:
苹果2015年:我们不让 FBI 查看死掉的恐怖分子的手机,只为保护你的隐私。
苹果2021年:我们会用官方黑名单检测你的相册和 iCloud 照片,除了报警之外,还会告诉你家长……
在端到端通讯系统中加入这样的扫描系统,一直以来都是全球各地执法部门的主要需求。
但电子前线基金会(EFF)曾表示,这种所谓的"用户端侧扫描工具",其实是一个伪命题。
它曾表示,从技术上来说,"用户端侧扫描工具"无法将检测范围限制在儿童色情板块。而且所谓的端到端加密,指的是内容的发送端和接收端可以看到,除此外其他任何人都无法看到,也更没有能力解密。
但从苹果迷惑的操作上来看,这很明显是打破了端到端加密的承诺。而且一旦涉及到人工审核,这就意味着进一步扩大了隐私泄露的风险,关键这个人工是苹果公司自己的人员还是外包公司的人员,用户尚未可知。
虽然苹果对外声称这项技术只会用在美国,但全球那么多苹果用户,美国能不对其庞大的数据库虎视眈眈?谁又能保证除了美国之外的苹果手机不被植入这些检测工具?
说起隐私的保护,安卓比苹果更差,可惜就像某人说的好,国人喜欢用隐私交换便利。
大数据时代,如何有效保护自己的隐私,确实是一个值得深思的问题。