此文最初刊登于《大众科学》的“青年”特刊。现有订阅者可在此处访问完整数字版 这里,或 点击此处 订阅。
张丽新(LI XIN ZHANG)的暑期营始于三明治——不是吃,而是设计。这位即将升入七年级的学生听着老师让她和同学们写下制作理想花生酱、果酱和面包三明治的说明。
当他们回到充满数字面孔的Zoom会议中,互相讲述各自的制作方法时,他们意识到了一件事:他们每个人都制作了略有不同的三明治,偏爱他们珍视的特质。不一定是好,不一定是坏,但肯定不是中立的。他们的三明治是有偏见的。因为他们有偏见,并且他们制定了食谱。
这个活动叫做“最佳 PB&J 算法”(Best PB&J Algorithm),张同学和波士顿地区30多名10至15岁的孩子正在进行为期两周的人工智能入门学习——即机器展现通常与人类大脑相关的智能的能力。在18节课中,他们将专注于那些充斥着我们生活的算法中嵌入的道德问题,这些算法影响着我们的娱乐、社交生活,并在很大程度上影响着我们对世界的看法。在这个例子中,也包括他们的三明治。
“每个人对‘最佳’的定义都不同,”麻省理工学院的研究生Daniella DiPaola说,她帮助开发了这个叫做“日常人工智能”(Everyday AI)的系列课程。“有些人可能追求最甜的,有些人可能针对过敏优化,或者他们不想要面包边。”张同学把她的食物放进了烤箱,想吃热乎乎的零食。而父母的代码可能会考虑成本。
昂贵的三明治是世界上最不值得关心的事情之一。但是,通过一个熟悉、营养丰富的例子,营员们可以审视偏见,并辨别它可能如何侵入其他算法。以人脸识别软件为例,波士顿在2020年禁止了它:这种代码,该市警察部门可能已经部署,可以将摄像头捕捉到的任何人与已知面孔的数据库进行匹配。但这类软件通常在识别有色人种方面不准确,并且在女性面孔上的表现比男性面孔差——这两种情况都会导致错误匹配。2019年美国国家标准与技术研究院(NIST)的一项研究,使用了189个算法,来自99位开发者,分析了全球849万人的图像。报告发现,女性的误报率普遍更高,而在西非和东非以及东亚人中的发生率是东欧人的100倍,而东欧人的误报率最低。在国内的通缉犯数据库中,美洲原住民的误报率最高,而黑人和亚洲人口的误报率也很高。
孩子们的算法显示了偏好是如何产生的,即使是以良性方式。“我们的价值观体现在我们的花生酱果酱三明治中,”DiPaola说。
夏令营的目的不是让学生们因为意识到人工智能并非全知全能且中立而感到沮丧。相反,它赋予他们理解,或许还能改变技术影响力的工具——作为未来的AI创造者、消费者、投票者和监管者。
为了实现这一目标,讲师们以一项名为DAILy(Developing AI Literacy,培养人工智能素养)的倡议为基础,该倡议由麻省理工学院的教育者、研究生和研究人员(包括DiPaola)在过去几年中制定。它向初中生介绍人工智能的技术、创意和道德影响,让他们从制作三明治到彻底重新设计YouTube的推荐算法。在此项目中,麻省理工学院与STEAM Ahead组织合作,这是一个非营利组织,其使命是为波士顿地区在科学、技术和艺术领域传统上代表性不足的儿童创造教育机会。他们在2020年进行了试运行,然后于2021年为“日常人工智能”重复了该课程,并将营地扩大到包括初中教师。目标是让全国各地的教育者能够轻松下载并实施该课程。
DAILy旨在让普通人能够更了解人工智能。“我知道人工智能对人类非常有帮助,而且它可能成为我们生活的重要组成部分,”张同学在反思她学到的东西时说。她说,刚开始时,“我只知道一点点,不多。”编码对她来说是全新的。
DAILy的创作者和讲师们正处于将伦理融入开发过程的运动的前沿,而不是在代码完成后才将其作为事后考虑。这个项目并非独一无二,尽管类似的计划并不普遍。草根努力包括印第安纳州一个名为“AI Goes Rural”的初中道德课程,以及由明尼苏达州一位程序员为教师创立的“Explore AI Ethics”网站。美国国家科学基金会(NSF)最近资助了一个名为TechHive AI的高中项目,涵盖网络安全和AI伦理。
[相关:人工智能完成了贝多芬的最后一部交响曲。它好听吗?]
历史上,伦理并未被纳入技术AI教育。“这是有所欠缺的,”马萨诸塞大学洛厄尔分校的教授兼教学、学习和本科生研究副院长Fred Martin说。Martin于2018年共同创办了AI4K12倡议,该倡议为K-12学校的人工智能教学制定了指南。“我们构思了我们称之为人工智能的五大思想,第五个就是关于伦理。”此后,他看到了AI伦理教育的扩展,并触及到更年轻的学生,AI4K12不断增长的资源数据库就证明了这一点。
该目录链接到包括DAILy在内的麻省理工学院的课程。Martin说,伦理“在他们的工作中处于核心地位”。“重要的是孩子们尽早开始学习它,以便他们能够成为知情的公民。”
在“日常人工智能”研讨会上,希望学生们感到赋权。“你确实拥有代理权,”Wesley Davis说,他是2020年试点营的讲师。“你拥有理解的代理权。你拥有探索这种好奇心的代理权,直至创造一个更好的系统,创造一个更美好的世界。
“这有点夸张的哲学,”他笑着说。但这种独特的理想主义和愤世嫉俗的结合是青少年的特长。因此,当被问及她是否认为自己有一天能做出比现在更好的人工智能时,张同学响亮地回答:“也许。”
DAILy诞生是为了纠正错误。南卡罗来纳大学计算机科学专业的Blakeley Payne(原名Hoffman)在2015年与她最好的朋友闲逛,当时她最好的朋友刚刚申请了Twitter的工作。她很快就收到了拒信。公司怎么可能如此迅速地决定她“不合适”?他们推测,也许是一个算法根据特定关键词做出了决定。愤怒之下,Payne开始研究关于AI偏见及其造成的系统性不公的研究。
自Payne的经历以来,AI在招聘中的偏见已成为一个众所周知的大问题。例如,亚马逊在2018年因路透社报道其招聘引擎歧视女性而引起轰动——它会删除包含“女性”一词的简历(如“女子国际象棋俱乐部主席”),并惩罚应聘者曾就读于女子大学。据路透社报道,事实证明,开发者使用“过去十年提交给公司的简历”训练了他们的算法,其中大部分来自男性。2021年发表在《国际选拔与评估杂志》上的一篇论文发现,人们普遍认为人类的招聘判断比算法更公平,尽管他们通常认为自动化更一致。
起初,整个情况让Payne对自己的专业感到厌倦。但最终,她决定努力改善现状。2017年毕业后,她进入麻省理工学院攻读研究生,专注于AI伦理和教育可以产生最大影响的人群:初中生。这个年龄段的孩子通常被贴上“AI原住民”的标签。他们从未没有接触过科技,已经足够大能够考虑其复杂性,并且将长大去创造下一代。
在接下来的几年里,Payne开发了首批针对初中生的AI伦理课程之一,她的硕士论文也为另一套互动课程“如何训练你的机器人”(How to Train Your Robot)提供了信息。2020年她毕业并继续为科罗拉多大学博尔德分校做研究,而DiPaola等麻省理工学院的学者则继续并扩大了她的工作。
[相关: 我们足够信任机器人来把它们置于掌管地位吗?]
Payne的项目为更广泛的DAILy计划奠定了基础,该计划于2020年3月获得了NSF的资助。DAILy是麻省理工学院Scheller师范教育项目(STEP)、波士顿学院以及麻省理工学院媒体实验室的个人机器人小组(Personal Robots Group)之间的合作项目,DiPaola就在这个跨学科中心工作。2021年3月,NSF的第二笔赠款资助了一个培训项目,以帮助教师在课堂上使用DAILy。通过与佛罗里达州、伊利诺伊州、新墨西哥州和弗吉尼亚州的学区以及STEAM Ahead等青年教育非营利组织建立合作关系,麻省理工学院的教育工作者能够看到他们的“象牙塔”课程如何在实践中发挥作用。“任何课程的试金石都是在真实的课堂和暑期学校里,”DiPaola说。
当那些孩子们——甚至许多成年人——想到人工智能时,通常会想到一件事:机器人。“来自未来的机器人,会统治世界的杀人机器人,超级智能,”DiPaola说。“让他们大吃一惊的是,人工智能实际上就存在于他们每天使用的技术中。”
STEP实验室负责赠款的Irene Lee经常告诉教师们,他们没有意识到AI正在“部署”。他们以为它只是实验室里的抽象概念。“‘部署’?!“Lee对他们说。“你被它包围了!”
他们知道,当他们观看关于猫的搞笑TikTok视频时,会收到类似视频的推荐,而且他们的视频无限滚动内容与朋友的有所不同。但他们通常不知道这些结果是人工智能的功劳。“我不知道所有这些事实,”张同学说。
Soham Patil是她的营友之一。他是一名即将升入八年级的学生,在参加这个项目之前,他已经研究了几个月人工智能的工作原理,并业余写软件。“我大概知道如何编程,但我真的不知道人工智能的实际用途,”Patil说。“我知道如何使用它,但不知道它是做什么用的。”
PATIL、ZHANG和他们的同学们的下一个活动涉及到另一种食物:面条。他们在屏幕上看到一个奇怪的皇室家庭成员——一只戴着王冠、眼睛是爱心的猫。
“有一个意大利面王国以其出色的美食而闻名,王国里有一位女王,她想对她王国里的所有干意大利面进行分类,并把它们存放在盒子里,”课程读道……“你,作为PastaLand的一名臣民,负责构建一个分类系统,该系统可用于描述和分类意大利面,以便在女王想要制作特定菜肴时能轻松找到意大利面。”
撇开君主制的道德问题不谈,学生们的目标是开发一个名为决策树的识别系统,该系统通过一系列问题将对象根据其特征进行分类,先分为两组,然后每一组再分成两组,直到每个组只剩下一类对象。STEP实验室的Lee解释说,对于意大利面,“第一个问题可以是‘它长吗?’‘它卷吗?’‘它有纹路吗?’‘它是管状的吗?’”张同学的团队开始时问:“它是圆的吗?”“它是长的吗?”和“它是短的吗?”
然而,和以前一样,当孩子们重新聚集时,他们发现他们的问题都不同:有些人可能会问一块意大利面是否能盛很多酱汁或很少的酱汁。另一些人可能会根据它们是用于填充还是不用于填充来区分种类。Patil注意到,有些孩子试图在每一次分组时将未分类的意大利面分成大致相等的两组。
“盲人可以遵循他们的钥匙吗?”老师们问道。而简单地确定“长”的含义的主观性呢?即使是意大利面也受到文化、经验和能力的影响。然后,学生们将这种认识——即很容易植入偏见、排除他人或将自己的观点误认为客观——扩展到更高风险的情况。预测性警务就是一个例子。该技术使用过去的犯罪数据来预测哪些区域是高风险区域,或者谁被认为是极有可能犯罪的人。但是,任何使用历史数据来预测未来的AI都可能强化过去的偏见。2019年《纽约大学法学评论》的一篇论文,考察了伊利诺伊州、亚利桑那州和路易斯安那州的案例研究,并指出未能改革此类系统,可能会“产生持久的后果,这些后果将渗透到整个刑事司法系统和社会更广泛的领域”。
学生们再次看到了基于人工智能的选择如何影响输出。“他们可以知道,‘如果我这样设计,这些人会受到积极影响,这些人会受到消极影响,’”DiPaola说。他们可以问自己,我如何确保最脆弱的人不受伤害?
AI开发者发现自己越来越频繁地处理这些问题,部分原因是他们的工作现在触及到人们生活的方方面面。他们代码中的偏见很大程度上是社会自身的偏见。以YouTube的推荐算法为例,前谷歌开发者Guillaume Chaslot声称,该算法会将观众推向更耸人听闻、更具争议性、经常是虚假信息的视频——以让更多人观看更长时间并吸引广告。这种选择可以说是偏袒利润而非公正。
通过从小就教孩子们什么是道德AI,不公平是如何产生的,以及如何解决它,教育工作者希望使他们能够识别不公平的发生,并制定纠正问题的策略。“伦理要么作为一门独立的课程教授,要么在一学期课程的最后两三节课中教授,”DiPaola说。她说,这传达了一个隐含的教训:“你在实际构建东西时,不需要同时考虑伦理,或者伦理有点像事后诸葛亮。”
圣保罗明尼苏达州麦卡莱斯特学院IT部门最近退休的数据库程序员Denise Dreher认为,更好地整合伦理很重要。作为个人项目,她一直在为DAILy等课程编目,并在她的网站Explore AI Ethics上为教师提供K-12课程,供他们在课堂上使用。她认为,AI教育应该更像工程教学。“工程培训有着悠久且良好的安全和伦理传统,”她说,“因为这是一份职业”,它有着明确的职业道路。你不能随便去建一座桥,或者在不学习桥梁建造过程中的潜在影响的情况下,就通过桥梁建造学校。
“人工智能呢?”她继续说。“你家地下室里的任何一个10岁的孩子都能做到。”
随着夏令营的进行,伦理问题变得越来越大,学生们接触到的技术也越来越先进。一天,Facebook(一个主要被老年人使用的社交网络)的首席执行官马克·扎克伯格出现在他们的屏幕上。“我真希望我还能告诉你,我们人生的使命是连接人,但事实并非如此,”扎克伯格说。“我们只是想预测你未来的行为……你越表达自己,我们就越拥有你。”
这将是一次异常坦诚的演讲。事实上,整个事情看起来有点不对劲。扎克伯格的眼睑比他身体的其他部分有点模糊。而且他盯着镜头,眨眼的频率比正常人要长。讲师们指出,这些都是“破绽”。
他看起来不像个正常人,因为他不是个正常人。他甚至都不是个真人。他是一个深度伪造的视频变形,说着一段深度伪造的演讲。深度伪造是AI在解析了一个人大量的视频或照片后产生的画面或图像。在这种情况下,软件学会了扎克伯格在不同情况下说话的样子和声音。利用这些素材,它组装了一个不存在的“扎克”,说了一些他从未说过的话。“很难想象AI如何能创建视频,”Patil说。
张同学,她最喜欢的社交媒体是YouTube,她看很多视频,并且已经假设并非所有视频都是“真实的”——但直到这门课程,她都没有任何工具来分辨真假。
营员们很可能以前就接触过AI制造的假象。例如,一个名为Reface的应用程序可以让他们与另一个人交换面孔——这是TikTok上很受欢迎的爱好。FaceTune将自拍修饰成传统的欧洲审美标准,漂白牙齿、收窄鼻子、丰唇。但他们无法总是分辨出别人是否被修饰过。他们可能只是认为某某人那天皮肤好。
在虚假视觉媒体中,真实与合成——人类与AI——的两个面孔几乎完全相同。当孩子们完全理解这一点时,“这就像‘事情变得真实了’,”Gabi Souza说,她在这两个夏天都在营地工作。“他们知道你不能相信你看到的一切,在充斥着如此多谎言的世界里,知道这一点很重要。”至少他们学会了质疑被呈现的内容。
并非所有课程都进展顺利。“有些活动,即使是面对面进行,也只能触及理解的皮毛,”讲师Davis说。例如,Patil很难理解神经网络的细节,神经网络是一种受大脑互联神经元启发的软件。代码的目标是识别数据集中的模式,并利用这些模式进行预测。例如,在天文学中,这类程序可以学会预测望远镜图像中闪耀的星系类型。在营地里,孩子们扮演神经网络的节点,为一张“滑水”的松鼠照片预测标题。它的运作方式有点像传话游戏:老师向几名学生展示照片,他们写下描述照片的关键词,然后每个人将一个词传给其他没有看到照片的学生。这些学生每人选择两个词传给最后一名营员,由他/她为标题选择四个词。对于“节点”来说,理解它们在网络中的作用,并将其转化为软件,是很难的。
但即使是那些不至于让年轻人的大脑“爆炸”的活动,课程效果也取决于“有多少学生今天早上吃过早餐,是周一还是周四下午,”Davis说。这不像传统的夏令营那样充满划船和射箭。“这很辛苦,”张同学说。
让AI教育更容易获得,并且实现多样化实施,比在私立学校教那些能获得MacBook Pro的学生要复杂得多。虽然合作方一直计划让课程虚拟化以提高可及性,但疫情加速了这一进程,并凸显了他们需要改进的地方,例如确保活动能在不同平台和设备上运行。
[相关:五角大楼让AI值得信赖的计划]
然后是媒体实验室(Media Lab)介入带来的复杂性。该组织在2019年因接受被定罪的性犯罪者杰弗里·爱泼斯坦(Jeffrey Epstein)的资金和所谓的文化声望而受到抨击,导致实验室主任离职。研究技术社会和政治影响的作家Evgeny Morozov在《卫报》上指出,由该实验室等组织推广的“第三文化”——即科学家和技术人员代表了社会最杰出的“思想家”——是“在知识分子旗帜下进行创业活动的完美掩护”。也许你可以将这种批评应用于个人机器人小组的负责人Cynthia Breazeal,她的公司在2014年至2016年间为其“社交机器人”Jibo筹集了约7000万美元的资金,Jibo本应开创人机交互的新时代。这个故事以悲剧收场:交货延迟、客户不满、裁员、知识产权被出售,以及真正的革命未能实现。
但这些或许也是让学生从小就学到的好教训。闪闪发光、花哨的东西可能会在许多方面令人失望,即使是那些早期教授道德的地方也可能出现自己的失误。也许这不应该那么令人惊讶:毕竟,人工智能的问题就是人类的问题,只是被去人格化了。
人工智能的阴暗面——它的歧视、它的侵犯性、它的欺骗性——并没有因此阻止营员们想要加入这个领域,张同学和Patil都在考虑加入。
而且他们现在知道,很有可能,无论他们申请什么工作,算法都会帮助决定他们是否值得。有一天,他们可能会帮助改写这个算法。