苹果因 2022 年取消 CSAM 检测功能被起诉,原告称其违背了保护受害者的承诺

感谢IT之家网友 华南吴彦祖 的线索投递!

IT之家 12 月 9 日消息,苹果公司因在 2022 年取消原定的儿童性虐待材料(CSAM)检测计划而被起诉。一位童年时期曾遭受性虐待的 27 岁女性以化名起诉苹果,指控其违背了保护受害者的承诺。

苹果在 2021 年末曾宣布计划通过设备端哈希值系统扫描 iCloud 中的图片,以检测和阻止 CSAM 传播,并在用户发送或接收含裸露内容的照片时发出警告。目前,裸露内容检测功能(Communication Safety)仍然存在,但 CSAM 检测功能因隐私专家、儿童安全组织和政府的广泛反对被取消。

起诉者称,她在 CSAM 检测功能仍在时,曾接到执法部门的通知,发现她遭受性虐待的图片通过一台在佛蒙特州查获的 MacBook 被上传至了 iCloud。她在诉讼中表示,苹果停止这一功能的决定使这些材料得以广泛传播,苹果因此向消费者销售了“有缺陷的产品”,对像她这样的用户群体造成了伤害。

据该女子的一名律师称,原告要求苹果改变其做法,并向可能多达 2680 名其他符合条件的受害者提供赔偿,此类受害者有权根据法律获得至少每人 15 万美元的赔偿。如果全部受害者成功获得赔偿,苹果的赔偿金额可能超过 12 亿美元(IT之家备注:当前约 87.28 亿元人民币)。

类似的案件已在北卡罗来纳州发生。一名 9 岁的 CSAM 受害者指控苹果,称她通过 iCloud 链接收到陌生人发送的非法视频,并被鼓励拍摄并上传类似内容。苹果公司提出了一项驳回案件的动议,指出联邦法规第 230 条保护其免于对用户上传到 iCloud 的材料承担责任。但近期法院裁定,这一法律保护仅适用于积极内容审核的情形,可能削弱苹果的抗辩理由。

针对新诉讼,苹果发言人弗雷德・塞恩兹表示:“苹果认为儿童性虐待材料令人发指,我们致力于在不损害用户隐私和安全的前提下积极打击相关犯罪。”他提到苹果扩展了信息应用中的裸露内容检测功能,并允许用户举报有害材料。然而,原告及其律师玛格丽特・马比认为,苹果的措施远远不够。

马比表示,她通过执法报告和相关文件发现了超过 80 起与受害者图像及苹果产品相关的案例,其中一个分享这些图像的人是一名湾区男子,其 iCloud 账户中存储了超过 2,000 张非法图片和视频。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

免责声明:

1、本网站所展示的内容均转载自网络其他平台,主要用于个人学习、研究或者信息传播的目的;所提供的信息仅供参考,并不意味着本站赞同其观点或其内容的真实性已得到证实;阅读者务请自行核实信息的真实性,风险自负。