新浪数码|普林斯顿大学学者称苹果CSAM筛查系统存隐患 因为他们做过类似项目
新浪数码讯 8月23日上午消息 , 近期普林斯顿大学的两位学者表示 , 他们认为苹果公司儿童性虐待照片(简称CSAM)筛查系统具有一定危险性 , 因为他们曾构建过一个类似的系统 。
此前 , 苹果公司出于保护儿童免受色情内容侵袭 , 宣布推出三项保护政策 。 包括:机器筛查Messages信息 , 当孩子收到色情图片时 , 图片会变得模糊 , 并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测 , 该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息 , 如果确定有此类图像 , 苹果会向执法部门报告;Siri和搜索功能改进 , 人们可询问Siri如何报告儿童性虐待内容或性剥削 , Siri将告诉用户在哪可以汇报给有关部门 。
普林斯顿大学这两位学者说 , 他们曾经的一个项目工作原理与Apple的方法完全相同 , 但他们很快发现了明显的问题 。
助理教授Jonathan Mayer和研究生研究员Anunay Kulshrestha在《华盛顿邮报》的报道中提到 , 他们与苹果有着同样的善意目标:
“我们的研究项目始于两年前 , 作为一个实验系统 , 用于识别端到端加密在线服务中的CSAM 。 作为安全研究人员 , 我们知道端到端加密的意义 , 它可以保护数据免受第三方访问 。 但我们也对 CSAM在加密平台上激增感到震惊 。 而且我们担心 , 在线服务不愿意在没有额外工具来对抗 CSAM的情况下加密 。
【新浪数码|普林斯顿大学学者称苹果CSAM筛查系统存隐患 因为他们做过类似项目】我们试图探索一种可能的中间立场 , 即在线服务可以识别有害内容 , 同时保留端到端加密 。 这个概念很简单:如果有人分享了与已知有害内容数据库相匹配的内容 , 该服务就会收到警报 。 如果一个人分享了无关的内容 , 该系统就不会筛查到 。 人们无法阅读数据库或了解内容是否匹配 , 因为这些信息可以揭示执法方法并帮助犯罪分子逃避检测 。 ”
在停止项目之前 , 他们已经做出一个工作原型:
经过多次错误的启动 , 我们构建了一个工作原型 。 但是我们遇到了一个明显的问题 。
我们的系统可以很容易地重新用于监视和审查 。 筛查设计不限于特定类别的内容 。 例如 , 外国政府可以强制要求提供服务 , 将那些分享不受欢迎的政治言论的人找出来 。
两人表示 , 他们对苹果公司决定推出这项服务感到困惑 , 因为目前未能妥善解决他们提出的风险:和我们一样 , Apple的动机是保护儿童 。 它的系统在技术上比我们的更高效、更有能力 。 但是我们很发现 , 对于我们提出的难题 , Apple几乎没有答案 。
这也是苹果这些动作引发争议的原因:虽然他们表示不会允许这种滥用 , 但政府可以依法强制公司这样做 。
推荐阅读
- Apple|新专利显示 苹果计划用光学传感器取代手表的数码表冠
- 导论|时隔五年,普林斯顿大学经典书《在线凸优化导论》第二版发表
- 测试|飞利信:东蓝数码事业单位人事管理系统通过华为鲲鹏技术认证
- 信息|解密“逐浪计划”:为了品质内容,新浪新闻的十年磨剑
- 昝红霞|新浪新闻发布“逐浪计划” 七大精品IP工作室正式亮相
- 焕新|年终焕新电脑数码犒劳自己 跟着京东12.12电脑数码年度金榜买就对了
- 新浪科技|消息称腾讯准备以110亿美元估值增持芬兰游戏开发商Supercell股份
- 新浪科技|消息称腾讯准备以110亿美元估值增持Supercell股份
- 新浪科技|商汤科技回应遭美打压:相关指控毫无根据 强烈反对相关指控
- 新浪科技综合|科学大家|奇特“新脑”:意识从物质中产生的几种形式