苹果高管再谈 CSAM 系统,从设计之初就想到了防止被干预和滥用

8 月 11 日上午消息,苹果公司的负责隐私的主管 Erik Neuenschwander 近期详细介绍了该公司 CSAM(儿童性虐待图片)扫描系统中内置的一些细节,以减少外界对此功能的疑虑。

上周苹果宣布将推出一系列的防止犯罪功能,其中最有争议的,他们将会扫描用户的云端相册,并将其数据与相关数据库中的关键部分对比,如果符合并且经过人工确认后,会向相关部门报告。

CSAM 检测系统也因此引发争议。作为回应,苹果公司提供了许多如何在不危及用户隐私的情况下扫描 CSAM 的详细信息。

在接受外媒 TechCrunch 采访时,苹果公司隐私负责人 Erik Neuenschwander 表示,该系统从一开始想到了防止政府过度干预和滥用。

一方面,该系统仅适用于美国,第四修正案的保护措施已经防止非法搜查和扣押。另外,他适配 iOS 15 系统,如果没有更新 iOS,也无法进行;第三,它不能针对个人用户提供特定的更新,只是将指纹数据(也就是部分关键特征)与政府或相关部门提供的数据库比对。不在国家失踪和受虐儿童中心提供的数据库中的图像也不会被标记。

苹果公司也有人工审核流程。如果 iCloud 帐户被标记为疑似收集非法 CSAM 材料,苹果公司团队将审查该数据,以确保机器是正确判断的。

“所以这个假设(指的是滥用此功能)需要跳过很多条件,包括让苹果公司改变其内部流程以引用,或者更改 CSAM 数据库,我们不相信人们能够在此基础上在美国提出这个要求”

此外,Neuenschwander 补充说,该系统仅在用户启用了 iCloud 照片时才有效。苹果隐私负责人表示,如果用户不喜欢该系统,“他们可以选择不使用 iCloud 照片,这样系统的任何部分都无法运行”。

在上周,苹果公司也曾明确表示,它将拒绝任何政府组织试图修改或将系统用于 CSAM 以外的用途:“Apple 将拒绝任何这样的要求,我们以前曾面临类似要求,这些会降低用户的隐私,因此坚决拒绝了。我们将来还会继续拒绝他们。这项技术仅限于探测存储在 iCloud 中的相关图片,我们不会同意任何政府扩展它用途的请求。”