欧盟强大的《人工智能法》已出台。但为时已晚吗?

技术发展的速度前所未有。人工智能监管者正努力跟上步伐。
该框架禁止从互联网或闭路电视录像中大规模、无针对性地抓取人脸图像以创建生物识别数据库。 DepositPhotos

欧洲官员上周在经历了长达 36 小时的艰苦辩论后,创造了科技政策的历史,最终就一项开创性的、全面的人工智能安全与透明度框架达成一致,该框架被称为《人工智能法案》。该立法的支持者和人工智能安全专家告诉《大众科学》,他们认为新准则在全球同类准则中是最严格的,并可能为其他国家树立榜样。  

这项具有法律约束力的框架为 OpenAI 和其他生成式人工智能开发者设定了关键的新的透明度要求。它还划出了几条红线,禁止了某些最具争议的人工智能使用方式,从实时面部识别扫描和所谓的“情感识别”到预测性警务技术。但潜在的问题可能正在表面之下酝酿。即使该法案获得投票通过,欧洲的人工智能执法机构最早也要到 2025 年才能真正执行这些规定。到那时,谁也无法预测不断发展的人工智能格局会变成什么样。 

什么是欧盟《人工智能法案》? 

欧盟《人工智能法案》将人工智能工具和应用分为四个不同的“风险类别”,处于最高风险类别中的应用将受到最严格的监管审查。被认为高风险的人工智能系统,包括自动驾驶汽车、管理关键基础设施的工具、医疗设备以及生物识别身份识别系统等,将需要进行基本权利影响评估,遵守严格的新透明度要求,并且必须在欧盟公共数据库中进行注册。负责这些系统的公司还将受到监控和记录保存实践的约束,以确保欧盟监管机构认为相关工具不会对安全或基本人权构成威胁。 

在此需要指出的是,欧盟仍需对该法案进行投票,最终文本尚未公布。预计该法案将在 2024 年初进行最终投票。 

“这项法律是否有分量以及它能否防止伤害,在很大程度上将取决于那些看似更具技术性、不那么有趣的方面。”

《人工智能法案》更进一步,直接禁止了其他一些用途。特别是,该框架禁止大规模、无针对性地从互联网或闭路电视录像中抓取人脸图像以创建生物识别数据库。这可能会影响 Clearview AI 和 PimEyes 等知名的面部识别初创公司,据报道,它们会抓取公共互联网上的数十亿张人脸扫描图像。Clearview AI 的总法律顾问 Jack Mulcaire 告诉《大众科学》,该公司不在欧盟开展业务,也不在欧盟提供其产品。PimEyes 未立即回应我们的置评请求。 

情感识别,它有争议地试图利用生物识别扫描来检测个人的感受或精神状态,将在工作场所和学校被禁止。其他“操纵人类行为以规避其自由意志”的人工智能系统也被禁止。基于人工智能的“社会信用评分”系统,例如在中国大陆臭名昭著的系统,也属于被禁止的类别。 

被发现规避这些规则或继续使用被禁止应用的科技公司,可能会面临 1.5% 至 7% 的总收入罚款,具体取决于违规行为和公司规模。这种处罚制度是欧盟《人工智能法案》具有分量的原因,也是其与美国拜登政府近期达成的其他自愿性透明度和道德承诺根本区别所在。拜登政府近期还签署了一项开创性的人工智能行政命令,阐述了他对未来美国人工智能监管的愿景。 

在可预见的未来,像 OpenAI 和 Google 这样运营“通用人工智能系统”的美国大型科技公司将被要求及时向欧盟官员通报其模型的训练方式,并报告其训练模型所使用的数据类型的摘要,同时制定一项承认其将遵守欧盟版权法的政策。被认定构成“系统性风险”的通用模型,据彭博社估计,目前仅包括 OpenAI 的 GPT,将受到更严格的规则约束。这些规则可能包括要求模型制造商报告该工具的能源使用情况和网络安全合规性,以及进行红队演习以识别和潜在缓解系统性风险的迹象。 

能够生成潜在误导性“深度伪造”媒体的生成式人工智能模型,将被要求清晰地标记这些内容为人工智能生成。其他落入《人工智能法案》“不可接受”风险类别的人工智能公司,在立法正式生效时,很可能将无法继续在欧盟运营。 

[ 相关:“白宫应对人工智能的计划如你所料” ]

AI Now 研究所执行主任 Amba Kak 对《人工智能法案》的可执行性表示赞赏,并告诉《大众科学》,这是“在今年充斥着软弱的自愿性提案的背景下,一个至关重要的制衡。” Kak 表示,禁止特别危险的人工智能用途的红线以及新的透明度和勤勉尽责要求,是“朝着正确方向迈出的一步”,令人欣慰。 

尽管欧盟风险评估方法的支持者认为,这有助于避免对更普通的 AI 用途施加过度监管,但一些欧洲隐私专家担心,该结构对基本人权的重视不够,并且与欧盟以往的立法方法(如 2018 年的《通用数据保护条例》(GDPR)和《欧盟基本人权宪章》)背道而驰。 

“基于风险的方法与欧盟其他人权框架存在冲突,”欧洲数字权利高级政策顾问 Ella Jakubowska 在接受《大众科学》电话采访时说道。“从一开始摆在桌面上的整个框架都是有缺陷的。” 

Jakubowska 警告说,《人工智能法案》的风险评估方法可能无法始终全面、清晰地描绘某些看似低风险的人工智能工具未来可能如何被使用。Jakubowska 表示,像她一样的权利倡导者更希望对*所有*人工智能系统的开发者强制执行风险评估。 

“总的来说,这非常令人失望,”她补充道。 

数字权利组织 AccessNow 的高级政策分析师 Daniel Leufer 呼应了对风险评估方法的担忧,他认为该方法的设计部分是为了向科技行业团体和执法部门妥协。Leufer 表示,AccessNow 和其他数字权利组织不得不敦促欧盟成员国同意纳入“不可接受”的风险类别,而一些成员国最初拒绝承认这些类别。AI Now 研究所的执行主任 Kak 补充说,《人工智能法案》本可以在澄清执法和国家安全领域的人工智能应用规定方面做得更多。 

前路不明 

上周达成的框架是欧盟成员国、科技公司和民间社会组织多年来反复辩论的最终成果。《人工智能法案》的初稿可以追溯到 2021 年,也就是 OpenAI 的 ChatGPTDALL-E 生成式人工智能工具风靡全球数百万用户的前几个月。据报道,该立法的框架甚至可以追溯到 2018 年。 

从那时起,很多事情都发生了变化。即使是最有远见的人工智能专家也很难想象,会看到数百名顶尖科技人士和商界领袖匆忙签名支持暂停人工智能技术发展的公开信,以所谓的“保护人类”。同样,很少有人能预料到目前针对生成式人工智能制造商提起的版权诉讼浪潮,质疑其大规模数据抓取技术的合法性,或者充斥网络的、由人工智能生成的点击诱饵内容泛滥。 

同样,无法预测 2025 年人工智能格局会是什么样子,而 2025 年是欧盟最早能够切实执行其重磅新法规的时间。Axios指出,在此期间,欧盟官员将敦促公司在自愿基础上同意遵守这些规定。 

更新 1/4/24 下午 2:13:本报道的早期版本曾说 Amba Kak 对欧盟《人工智能法案》表示赞赏。现已修改为澄清她明确表示赞赏该法案的可执行性。 

 

更多优惠、评测和购买指南

 
Mack DeGeurin Avatar

Mack DeGeurin

撰稿人

Mack DeGeurin 是一名科技记者,多年来一直致力于研究科技与政治的交汇点。他的作品曾刊登于 Gizmodo、Insider、New York Magazine 和 Vice。


© .