短片《血肉炸弹》(Slaughterbots)描绘了一个不久的将来,成群的微型无人机因政治信仰而刺杀数千人。该片由学者和活动家们在2017年11月发布,警告先进人工智能(AI)的危险,并迅速走红,至今已吸引了超过三百万人次的观看。它引发了关于自主武器未来的公众辩论,并对参加联合国《特定常规武器公约》(Convention on Conventional Weapons)的各国代表施加了压力。
但这种推测性的科幻故事叙述不仅仅有助于吸引关注。设计和制造先进技术的人们可以利用故事来考虑他们工作的后果,并确保其得到善用。我们认为,这种“科幻原型”或“设计小说”有助于防止人类偏见渗透到新技术中,进一步加剧社会的偏见和不公正。
偏见可能导致对某些类别(结果、人或想法)的任意偏好。例如,有些人可能在招聘女性担任高管职位时存在偏见,无论他们是否意识到这一点。
基于记录这种偏见的数据构建的技术,最终可能会复制这个问题。例如,为某个特定职位筛选最佳简历的招聘软件,可能被编程为寻找反映对男性无意识偏见的特征。在这种情况下,算法最终会偏向男性的简历。这并非理论——它实际上发生在了亚马逊身上。
在设计算法时,如果不考虑潜在的负面影响,就像医生“写一篇关于某种疗法益处的文章,却完全忽略了副作用,无论它们多么严重。”
一些科技公司和研究人员正在努力解决这个问题。例如,谷歌起草了一套道德原则来指导其人工智能开发。英国学者也启动了一项名为“Not-Equal”的倡议,旨在鼓励在技术设计和使用中实现更大的公平和正义。
问题在于,公众面前,公司倾向于只展现对近未来技术潜在后果的积极愿景。例如,自动驾驶汽车通常被描绘成能解决我们从成本到安全的所有交通问题,却忽略了网络攻击日益增加的危险,或者它们可能鼓励人们减少步行或骑自行车。
理解数字技术(尤其是那些 heavily 依赖晦涩难懂的算法的技术)的难度,也使得人们更难对这些问题形成复杂而全面的看法。这种状况造成了一种紧张关系,即一方面是令人安心的积极叙事,另一方面是对技术在某种程度上嵌入了偏见的一种模糊的怀疑。这就是我们认为通过设计小说进行叙事可以发挥作用的地方。
故事是思考可能性和复杂情况的自然方法,我们从小就听故事。科幻小说可以帮助我们推测近未来技术对社会的影响,正如《血肉炸弹》所做的那样。这甚至包括社会公正问题,例如某些群体,如难民和移民,可能会被排除在数字创新之外。
揭示(可能的)未来
设计小说故事为设计师、工程师和未来学家(以及其他人)提供了一种新颖的方式,从人类的角度思考技术的影响,并将其与未来可能的需求联系起来。通过逻辑与想象的结合,设计小说可以揭示技术可能被采纳和使用的方面,从而就其未来影响展开对话。
例如,短篇故事《犯罪众包》(“Crime-sourcing”)探讨了如果人工智能利用众包信息和犯罪数据库来预测谁可能实施谋杀会发生什么。研究人员发现,由于数据库中充斥着少数族裔群体的人(出于社会原因,他们更有可能再次犯罪),“犯罪众包”模型比白人更有可能错误地怀疑少数族裔。
你不必成为一名才华横溢的作家或制作一部精彩的电影才能创作设计小说。涉及卡片和故事板的头脑风暴活动已被用于开发设计小说并帮助发展叙事过程。让使用这些工具的工作坊更加普遍,将使更多的工程师、企业家和政策制定者能够使用这种评估方法。并将由此产生的作品公之于众,将有助于在技术影响社会之前揭示其潜在偏见。
鼓励设计师以这种方式创作和分享更多故事,将确保支撑新技术的叙事不仅仅呈现积极的一面,也不会是极端负面或反乌托邦的。相反,人们将能够欣赏我们周围正在发生的事情的各个方面。
Alessio Malizia 是赫特福德大学用户体验设计专业的教授。
Silvio Carta 是赫特福德大学艺术与设计系的负责人和设计研究组的主席。
本文最初发布于《The Conversation》。