

本月早些时候,苹果 宣布 将采取更多措施来限制儿童性虐待材料(CSAM)的传播。但尽管 CSAM 非法,苹果为打击这一祸患所采取的措施却遭到了越来越多的科技专家、倡导者、活动家、学者和律师的谴责。
苹果宣布了什么?
有三项新功能,定于 2021 年的某个时候实施。其中一项功能涉及扫描 iMessage 应用中发送的照片,以检测露骨的性材料。家长可以选择一个系统,如果他们的孩子发送或接收露骨的性材料(如裸照),他们将收到警告。尽管家长无法看到这些材料,但如果孩子决定观看,他们将收到通知。
另一项正在推出的功能是,如果用户的照片库与苹果的云服务同步,苹果将能够检测到用户手机上的 CSAM 材料。上传到 iCloud 的照片和视频将被扫描,与美国失踪和被剥削儿童国家中心(NCMEC)数据库中的照片进行比对。如果比对数量足够多,苹果的审核员将收到通知,并采取下一步措施,例如禁用账户。
最后,Siri 和搜索将为搜索 CSAM 的用户提供干预和资源,并为询问 Siri 如何举报 CSAM 的用户提供指导。
反响如何?
苹果的最新举措得到了计算机科学家 David Forsyth 和密码学家 Mihir Bellare 和 Benny Pinkas 的支持,也赢得了儿童保护组织的赞誉。NCMEC 首席执行官 John Clark 在一份 声明 中说:“苹果公司对儿童的保护措施的扩展是革命性的。”
但超过 7000 人,其中包括许多学术和科技专家以及前苹果员工,签署了一封公开 信,抗议这一举措。信中说:“该提案引入了一个后门,威胁要破坏所有苹果产品用户的基本隐私保护。” 在一份泄露的 内部备忘录 中,一位苹果软件副总裁对公众的反应表示担忧,称“相当多的人担心其影响”。
由于困惑如此之大,苹果不得不发布一份额外的 FAQ 来回应人们的担忧。他们写道:“我们明确表示,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会屈从于任何政府扩大其使用的要求。” 苹果还发布了一份名为《苹果儿童安全功能安全威胁模型审查》的附加文件。
爱德华·斯诺登、Epic 首席执行官 Tim Sweeney 和政界人士 Brianna Wu 也表达了他们的担忧,Open Privacy Research Society、民主与技术中心以及电子前沿基金会也表达了担忧。
WhatsApp 负责人 Will Cathcart 发推文 说:“与其专注于让人们轻松举报与他们分享的内容,不如说苹果构建了可以扫描你手机上所有私人照片的软件。那不是隐私。”
此前,WhatsApp 和 Facebook Messenger 在允许执法部门查看加密消息方面采取了 强硬立场。
担忧是什么?
苹果将自己定位为隐私的先驱,通过广告宣传和广告牌提醒消费者苹果将如何帮助他们保护隐私。他们还称隐私为“人权”。但隐私专家表示,这些新功能将构成公司重大转变。“苹果过去曾表示,我们不负责搜索用户手机内容的业务,”电子前沿基金会(EFF)的资深律师兼公民自由总监 David Greene 说。“重大变化在于,现在确实会发生这种情况。”
Greene 表示,苹果提供了一种搜索手机上的不当材料的方法,这可能会违背用户的意愿(因为适用于上传到 iCloud 的照片),代表着“苹果与 iPhone 用户关系上的重大改变”。他不是唯一一个对苹果最新公告表示失望的人。“自 20 世纪 90 年代以来,我们第一次收回我们的隐私,”约翰霍普金斯大学的密码学家 Matthew Green 发推文。“今天我们走上了另一条道路。”
虽然 Reddit 和 Facebook 等社交媒体网站也使用图像扫描软件来检测裸体,并且法律要求报告在其网站上发现的任何 CSAM,但苹果长期以来一直对扫描人们的手机持谨慎态度。(这些社交媒体公司进行的扫描也检查存储在服务器上的文件,而苹果的新业务则检查存储在人们手机上并上传到 iCloud 的文件。)
过去,苹果曾表示,他们无法在不损害用户隐私的情况下搜索人们手机上的内容。在 法律文件 中,苹果反对 FBI 要求为圣贝纳迪诺恐怖袭击枪击案中嫌犯的 iPhone 创建后门的要求,指出无论要求多么令人信服,政府都会提出另一个要求。
Greene 警告说,这项工具将是一个强大的武器,可以交给民主和非民主政府,它们可能对苹果应在用户手机上检测何种内容有自己的议程。他还指出,如果这些新功能得以实施,现有的国家法律,例如印度要求公司采取技术措施来检测其他类型内容的法律,将被触发,为苹果带来新的责任。
该工具会被滥用吗?
尽管苹果以保护消费者隐私而闻名,但它也曾向外国政府做出过让步,例如,在阿拉伯联合酋长国 不销售带有 Facetime 的 iPhone。
哈佛大学网络法诊所的讲师 Kendra Albert 表示:“一旦你开发了这类技术和工具,政府最多会客气地请求,最坏的情况下会带着搜查令要求你扩大检测计划以涵盖其他类型的内容。” 换句话说,专家们担心苹果的 CSAM 策略可能会导致用户隐私滑向危险的境地。
而且担忧的不仅仅是 CSAM 内容。Albert 指出,出于多种原因,例如研究或分析,某人可能在其设备上拥有与恐怖主义相关的内容。他们说,这可能为“对其他主题进行真正重大的监控”奠定基础。
另一个问题是用于检测 iMessage 照片中裸体内容的机器学习算法的工作方式。历史上,当其他科技公司试图通过算法检测露骨的性内容时,实施起来一直很困难。在 Tumblr 实施禁令后,沙丘的照片被标记,而在 Instagram 上,超重男女的照片 经常 被标记 为 不当。Facebook 的 裸体规定 经常因其不一致性而受到批评。
Albert 提到了 iMessage 功能,他说:“苹果通过构建这个,基本上已经陷入了关于决定什么算作裸体或露骨性材料的巨大问题之中。” 他们还指出,这些发展可能使儿童向父母暴露,或者将同性恋或跨性别青少年置于危险之中,特别是如果他们觉得与父母谈论自己的性取向不安全的话。
他们说:“如果我面前有一个 12 岁的酷儿孩子,我会告诉他们使用 Signal。” 他们指的是因其强大的隐私保护而备受赞誉的加密消息服务。