|苹果要偷看你手机电脑上的照片了
文章图片
图1/8
欢迎关注“新浪科技”的微信订阅号:techsina
文/杜晨 编辑/Lianzi
来源/硅星人(ID:guixingren123)
大家可能记得 , 苹果最近几年一直在用的 , 宣传 iOS 系统隐私性的广告语:
“What happens on your iPhone, stays on your iPhone.”
Or does it? 事实真的如此吗?
过去的事情暂且不提 。 我们现在可以肯定的是 , 在今年晚些时候发布的 iOS 15 和最新版 Mac 操作系统Monterey上 , 苹果就要堂而皇之地“偷看”你的照片了 。
发生了什么
昨天 , 约翰·霍普金斯大学加密学教授 Matthew Green 在 Twitter 上突然爆出一条大新闻:多名知情人士确认 , 苹果即将发布一项用于扫描检测儿童色情虐待内容 (Child Sexual Abuse Material) 的端侧工具 。
文章图片
图2/8
端侧的意思就是扫描工作在用户设备上完成 。 截图来源:Matthew Green 的 Twitter 账号
今天 , 苹果也在官网正式宣布了这一消息:
文章图片
图3/8
截图来源:苹果官网 https://www.apple.com/child-safety/
这个系统的工作原理大概是这样的:
首先 , 苹果会对用户在 iPhone 等各类苹果设备上接收、保存和发送的照片提取哈希值 。
然后 , 苹果会用这个值和美国“国家失踪和被剥削儿童中心”的数据库进行比对 , 验证涉事照片是否属于儿童色情虐待内容 。 这个数据库将会保存在用户设备的本地 。 比对检测工作也是在本地完成的 。
用户在 iMessage 上收到或者发送照片 。 系统会在后台完成比对检测工作 。 如果系统认为它属于露骨内容 , iMessage 就会暂时屏蔽掉这张照片、询问 , 并再次确认用户是否要浏览或发送这张照片 。
不仅如此 , 如果用户本身是少年儿童 , 并且设置了家庭账号的话 , iOS 系统还会通知家长 。
文章图片
图4/8
图片来源:苹果
如果你以为所有这些真的全部在本地完成的 , 不涉及到苹果公司层面的隐私嗅探行为 , 那你就太小看苹果了 。 苹果也会用类似的哈希算法对用户发送到 iCloud 保存的照片(同样端到端加密)进行检测 , 并且在上传之前给照片文件增加一串保密信息 。
如果涉事照片被判定为儿童色情虐待内容 , 苹果的服务器将可以对照片进行解密 , 并且交由人工进行二次审核 。
文章图片
图5/8
安全专家认为 , 苹果设计的这套打击儿童色情的技术 , 虽然设计目的是好的 , 但可能存在严重的安全和隐私风险 , 并且完全颠覆了“端到端加密”原本存在的意义 。
【|苹果要偷看你手机电脑上的照片了】事件的影响
“最初我的理解是 , 这项技术用于在端侧对云存储的照片进行扫描 。 但是最终 , 它可能会成为在加密通讯系统中增加监控的一个关键因素 。 ”Green 评论道 。 他还表示 , 在端到端通讯系统中加入这样的扫描系统 , 一直以来都是全球各地执法部门的主要需求 。
“棱镜”计划的爆料人爱德华·斯诺登也对苹果此举颇为不满 , 甚至在 Twitter 上发布了一张梗图吐槽:
文章图片
图6/8
左边:苹果2015年:我们不让 FBI 查看死掉的恐怖分子的手机 , 只为保护你的隐私 。
右边:苹果2021年:我们会用官方黑名单检测你的相片册和 iCloud 照片 , 除了报警之外 , 还会告诉你家长……
不管怎样 , 苹果将会在新版操作系统里“偷看”你的照片这件事 , 算是坐实了 。
至于什么"What happens on your iPhone stays on your iPhone" , 只是少数用户一厢情愿的假象了……
需要明确的是 , 苹果并不是第一家、唯一一家在做类似事情的公司 。 包括谷歌(从2008年开始)、微软(2009年)、Facebook(2011年)和 Twitter(2013年)等公司 , 都已经在用哈希算法等相关技术 , 对儿童色情虐待内容进行预防、侦测和打击了 。
知名互联网用户权益机构“电子前线基金会”(EFF) 在2019年曾经撰文指出:这种号称专为打击儿童色情内容而设计的所谓“用户端侧扫描工具” , 是一个伪命题 。
1)从技术上来讲 , 这类工具无法将其检测能力限制在儿童色情这一类内容上 。
具体来说 , 这类检测技术核心原理都是对图片提取哈希值 , 然后和一个“官方”的数据库进行比对 。
但是目前机器学习领域已经有了先进的生成对抗网络技术 , 可以对两个不同的文件 , 比如两张完全不同的照片 , 实现“哈希碰撞”(也即这两张完全不同的照片拥有相同的哈希值):
文章图片
图7/8
图示:右边一列的公司 logo 和中间一列用算法生成的“人脸”图片 , 实现了哈希碰撞 。 图片来源:Nick Locascio
任何拥有官方数据库操作权限的人 , 都可以自己添加新的哈希值条目到数据库 , 从而扩大这个图片检测系统 , 所检测和审查的对象范围 。
EFF 指出 , 在这样的场景下 , “由于数据库只包含哈希值 , 而儿童色情图片的哈希值和其它图片的哈希值(可能)没有区别 , 那么扫描儿童色情内容的系统 , 就无法从技术上只针对儿童色情内容 。 ”
2)EFF 还指出 , 这类所谓的端侧扫描工具 , 实际上打破了端到端加密的承诺 。
端到端加密的普遍定义是:在一个通讯系统中 , 只有内容的发送端和接收端可以看到所发送的内容 , 其他任何人 , 包括其他用户 , 以及通讯系统的运营者(苹果)都无法看到 , 也没有能力对通过加密方式传送的信息进行解密 。
“如果一个系统有直接、有效解密很大一部分信息的能力 , 它就不再是一个端到端加密的系统了 , ”EFF 指出 。
3)前面提到 , 苹果的这个检测系统 , 一旦侦测到可能的儿童色情内容 , 还会引入真人进行二次检验 。 这就进一步扩大了用户隐私泄露的风险 。
目前苹果没有透露究竟谁有权限查看这些照片 , 是苹果自己的员工还是外包机构——希望不是后者 , 毕竟之前苹果的外包维修商 Pegatron 就出过恶意泄露用户隐私照片的严重事故 。
4)这样的检测系统 , 其实很容易通过简单的方法逾越 。
那些传播儿童色情内容的犯罪嫌疑人 , 可以更换其它通讯软件 , 抑或对图片进行简单的修改(比如加上带有微弱遮盖效果的字幕) , 就可以让一张图片的哈希值“面目全非” 。
文章图片
图8/8
图片来源:Jens Segers
综合考虑到前面所有提到的关于这个系统的弊端 , 得出的结论是:它打开的隐私缺口太大 , 制约儿童色情内容传播的实效却无法保证 。 说好听 , 事倍功半;说难听点 , 反而会弄巧成拙 。
你怎么看苹果这次“偷看用户照片”的反儿童色情内容传播系统?你觉得它会起到多大的帮助?你会担心它对端到端加密和用户隐私带来的负面效应吗?欢迎在留言中分享你的看法 。
注:封面图来自于 Chris Velazco 的 Twitter 账号 , 版权属于原作者 。 如果不同意使用 , 请尽快联系我们 , 我们会立即删除 。
(声明:本文仅代表作者观点 , 不代表新浪网立场 。 )
推荐阅读
- 截图|靠抄袭对标苹果?心动黄一孟指责小米新版游戏中心抄袭TapTap
- 手机|【直播纪要】VR/MR会吹响消费电子反攻的号角吗?| 见智研究
- Apple|苹果高管解读AirPods 3代技术细节 暗示蓝牙带宽可能成为瓶颈
- 实力比|小米12对标苹果遭嘲讽?雷军:国产手机的实力比想象中强,有和苹果比较的勇气
- Apple|法官称苹果零售店搜包和解协议虽不完美,但可继续进行
- AirPods|苹果谈论AirPods 3:最大榨取蓝牙技术,希望获得“更多带宽”
- 蛋白|二代新冠疫苗来了!打了一代,还需要它吗?
- 国药|二代新冠疫苗来了!打了一代,还需要它吗?
- 硬件|日本要在十年内量产2nm?
- Apple|苹果希望手机/平板设备能正面为其他设备无线充电