苹果高管承认扫描iCloud相册等功能引起大众困惑,还保证数据不会被利用
2021-08-16 17:32:18 Author: www.freebuf.com(查看原文) 阅读量:26 收藏

freeBuf

主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

8月13日,苹果公司软件工程高级副总裁Craig Federigh回应了公众对扫描iCloud相册等功能的质疑,他承认苹果发布新功能后的处理很糟糕,也承认这些功能引起了大众的困惑。

Craig Federigh回应的功能是苹果在8月5日公布的儿童安全功能,它包括新版照片甄别系统(Child Sexual Abuse Material,儿童性虐待内容,简称为 "CSAM")、iMessage通信安全功能(通过iMessage通知父母孩子正在浏览的敏感内容)、更新Siri和搜索功能。

过去的两周,公众争议的焦点聚集在CSAM和iMessage通信安全这两项功能。因为CSAM在执行时会扫描用户的iCloud相册,iMessage通信安全功能则涉及对用户聊天图片的检测。

苹果公司软件工程高级副总裁Craig Federigh

Craig Federigh向《华尔街日报》表示,苹果执行CSAM时设定了“多级别的审核”,保护苹果的系统,保证这些数据不会被政府或其他第三方利用。

CSAM会在用户照片上传到iCloud之前,就将其与已知CSAM的散列图像进行匹配。而检测到异常的账户将接受苹果公司的人工审查,并可能向国家失踪和受虐儿童中心(NCMEC)报告。

iMessage通信安全功能则在孩子发送或接收色情图片时发挥作用。如果孩子们通过iMessage发送或接收色情图片,他们将在观看之前收到警告,图片将被模糊处理,他们的父母也可以选择收到警告。

Craig Federigh还透露了围绕该系统保障措施的一些新细节。具体而言,只有当用户相册中与CSAM图片库匹配上的儿童色情图片达到30张时,苹果才会获取用户的账户和这些图片的具体情况。他表示苹果只会获取这些与图片库匹配的图片,不会知道用户的其他图片。

苹果将根据国家失踪和被剥削儿童中心(NCMEC)的名单检查iCloud照片,寻找与已知CSAM图片完全匹配的图片。并且,苹果是直接在用户的设备上扫描图片,不是在iCloud服务器上远程进行。

苹果此前曾表示,CASM系统只在美国推出,它将根据具体情况考虑何时在其他国家推出。苹果还告诉媒体,它将在所有国家的操作系统上发布已知CSAM的哈希数据库,但扫描功能目前只用于美国的设备。《华尔街日报》进一步澄清说,将有一个独立的审计机构来核实所涉及的图像。


文章来源: https://www.freebuf.com/news/284877.html
如有侵权请联系:admin#unsafe.sh