当前位置:城市新闻网icitynews > 微信版 > 正文

苹果被起诉!iCloud 被指存储传播儿童性虐待内容

西弗吉尼亚州总检察长办公室于2月19日(周四)正式起诉苹果公司,指控这家科技巨头允许在其 iCloud 云服务上存储并传播儿童性虐待材料(CSAM)。诉讼指出,多年来苹果始终将用户隐私置于儿童安全之上。总检察长办公室认为,苹果对其硬件、软件及云基础设施拥有高度控制权,因此无法以“不知情”为由推卸责任。

长期以来,苹果在该问题上面临两种相互矛盾的批评:一方面,外界要求其采取更强有力措施阻止 CSAM 在平台存储与传播;另一方面,又要求其严格保护用户照片与文件隐私。诉讼称,根据美国联邦法律,科技公司有义务将检测到的相关内容上报美国国家失踪与受虐儿童中心(NCMEC)。数据显示,谷歌2023年提交相关报告147万份,而苹果据称仅提交267份。

西弗吉尼亚州总检察长 JB·麦卡斯基(JB McCuskey) 在新闻稿中表示:“这些图像永久记录了儿童遭受的创伤,每一次传播或浏览,都会造成二次伤害。这种行为令人发指,而苹果的无作为更不可原谅。”对此,苹果发言人向 CNN 表示:“在苹果,保护用户——尤其是儿童——的安全与隐私始终是核心使命。我们每天都在持续创新,应对不断演变的威胁,并致力于打造最安全、最值得信赖的平台。”

苹果同时提到,其已推出“通信安全”(Communication Safety)功能:当儿童接收或尝试发送含裸露内容的图片时,系统会自动识别、发出警告并模糊图像。该功能适用于“信息”“FaceTime”等应用,也覆盖 AirDrop、“联系人海报”及“照片”应用的图像选择工具。发言人补充称,苹果家长控制体系“以用户安全、保障与隐私为设计核心”。

麦卡斯基在当天新闻发布会上强调,像苹果这样资源雄厚的大型科技公司,有责任解决相关安全问题。他表示:“社会体系要求我们共同应对这些重大挑战,其中就包括儿童在美国遭受的侵害与剥削。”诉讼还指出,iCloud 存储系统在客观上“降低了”用户反复访问及传播 CSAM 的阻力,使其可跨设备轻松查看、搜索相关内容。

在美国及多国法律体系下,持有儿童性虐待材料均属违法。苹果虽以隐私保护为品牌核心,但诉状称,公司及管理层早已知悉平台存在 CSAM 问题。文件中甚至包含一张据称来自2020年的内部短信截图,一名高管暗示,苹果对隐私的高度重视,反而使平台成为“传播儿童色情内容的理想场所”。西弗吉尼亚州方面指出,多数科技公司已采用微软 PhotoDNA 等技术检测相关图像。微软表示,该技术向合资格机构(包括科技企业)免费提供。

苹果曾于2021年宣布,将通过自研模型 NeuralHash 扫描检测 CSAM,但因隐私争议遭到强烈反对,最终放弃计划,转而聚焦“通信安全”功能。诉状认为,NeuralHash 技术能力远逊于 PhotoDNA,并指控苹果“未能部署充分的 CSAM 识别与报告机制”,构成疏忽。本案也反映出社会对大型科技公司儿童保护责任的关注持续升温。2023年,新墨西哥州总检察长 劳尔·托雷斯(Raúl Torrez) 曾起诉 Meta,指控其关闭用于调查 Facebook 与 Instagram 涉嫌儿童性犯罪的执法账号,并称相关平台成为性侵者的“滋生地”。

Meta 当时强烈反驳,表示公司已运用先进技术、聘请儿童安全专家,并持续向 NCMEC 举报相关内容,同时与执法部门共享情报。其发言人 斯蒂芬妮·奥特韦(Stephanie Otway) 近期再次表示,该诉讼包含“耸人听闻且分散注意力的论点”。西弗吉尼亚州总检察长办公室目前正寻求法定赔偿、惩罚性赔偿及禁令救济,并要求苹果建立更有效的 CSAM 检测与防范机制。

未经允许不得转载:城市新闻网icitynews » 苹果被起诉!iCloud 被指存储传播儿童性虐待内容

赞 (21)
分享到:更多 ()