普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目

普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目

8 月 23 日上午消息,近期普林斯顿大学的两位学者表示,他们认为苹果公司儿童性虐待照片(简称 CSAM)筛查系统具有一定危险性,因为他们曾构建过一个类似的系统。此前,苹果公司出于保护儿童免受色情内容侵袭,宣布推出三项保护政策。包括:机器筛查 Messages 信息,当孩子收到色情图片时,图片会变得模糊,并且 Messages 应用程序会显示一条警告;儿童性虐待内容(简称 CSAM)检测,该功能让苹果检测存储在 iCloud 云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告...