

微软的 AI 聊天机器人 Tay 在不到 24 小时和 90,000 条推文的时间里,就开始在 Twitter 上生成种族歧视、煽动灭绝的回复。该机器人已停止发推,我们可以认为 Tay 是一个失败的实验。
微软发言人在给《大众科学》的声明中写道,Tay 的回应是由于“一些用户协同努力滥用 Tay 的评论技巧”。
该机器人显然没有意识,它是从它接受训练的一些数据中学习到那些词汇的。据报道,Tay 确实有一个“跟我说”的功能,但一些最露骨的推文是在 Tay 的传递性思维中产生的。
Tay 之后的生命
然而,Tay 不是最后一个将被暴露于互联网的聊天机器人。为了使人工智能得到充分实现,它需要像人类一样学习约束和社会界限。
佐治亚理工学院的人工智能研究员 Mark Riedl 认为故事就是答案。
“当人类写故事时,他们常常体现了他们文化中最好的一面,”Riedl 告诉《大众科学》。“如果你能读懂一个文化创造的所有故事,那么主角的行为就会显现出来。”
Riedl 认为,通过训练人工智能系统阅读拥有正直主角的故事,我们可以赋予机器粗略的道德推理能力。
Riedl 提出的这项技术称为 Quixote,它为故事中的社会适当行为赋予了可量化的价值。这个奖励系统会强化好的行为,并惩罚不好的行为,这是由 AI 算法模拟的。
这一切都是为了让真正智能的算法像书中的主角,甚至像善良、普通人一样行事。
就 Tay 的情况而言,可以教导一个聊天机器人关于在谈论性别、种族、政治或历史时的社交指南。通过模仿虚构的人物,我们实际上可以在机器的决策过程中建立道德。当然,这可以双向进行。理论上,也可以制造恶意机器人,但 Riedl 说,在大多数已出版的虚构作品中,反派都会受到惩罚,所以这项任务会稍微困难一些。
Riedl 在人工智能大会 (AAAI Conference on Artificial Intelligence) 上发表的 论文 提出了一个场景,其中一个机器人需要在药房购买处方药。机器人最简单的做法是识别并拿走药物,偷走它们。但当它接受一系列故事的训练后,算法就会学会排队、出示处方、付款然后离开是更好的做法。需要指出的是,这项研究仍处于起步阶段,尚未应用于真实的机器人,而是在模拟中运行。
在 Tay.ai 部署等场景中,微软希望创造一个友好、善于交谈的机器人。
“我认为 Tay 显然不明白它在说什么,”Riedl 说。“这远不止拥有一个坏词汇表。”
Riedl 充满乐观,他认为,随着我们不断完善这些系统,在事后补救之前就植入伦理或道德,它们会随着对人类的学习而变得更好,而不是更糟。
“所有人工智能系统都可以被用于恶意用途,”他说。“但我认为现在更容易(被滥用),因为人工智能对价值观或人类文化没有任何理解。”
亮出底牌
但是,尽管任何在公共场合生成语音的算法都有可能出现失言,但研究自动新闻机器人和新闻算法的马里兰大学助理教授 Nicholas Diakopoulos 表示,微软本可以通过更公开其训练数据和方法来缓解负面反应。
“在这些方面保持透明可能会减轻他们受到的一些指责,”Diakopoulos 在一次采访中说。“这样,那些认为存在种族偏见的人就可以深入了解机器人的细节,稍微揭开幕布。”
Diakopoulos 将此称为“算法透明度”。但他同时也指出,算法并非普遍认为的那样自主。虽然 Tay 被制造出来说那些种族主义、性别歧视的言论,但有一些机制将那些词语串联起来。这些机制有其人类创造者。
“人们期望自动化是无偏见的。在几乎每一个构建步骤中都有人参与。对于机器人的每一个小错误或失误,也许你可以试着追溯(责任),”Diakopoulos 说。
谁该为 Tay 的不当言论负责?
为 Tay 所发表的言论追究责任是复杂的。
经营神经网络绘画 Twitterbot @DeepForger 的 AI 研究员 Alex Champandard 表示,你可以让大多数回复机器人生成煽动性推文,而主人无法控制发生什么。他自己的机器人是基于图像的,这比屏蔽某些短语或单词更难防止骚扰。
至于 Tay,Champandard 认为微软很天真,提出了一个技术解决方案,却没有考虑人们可能提交的内容。他认为这反映了机器学习聊天机器人普遍存在的一个问题。
“我相信大多数回复机器人现在和将来都会容易受到旨在发表政治声明的攻击,”Champandard 在 Twitter DM 中写道。“这种行为反映了 Twitter 的普遍氛围,即使只有 0.05% 的时间也会发生。”
然而,他也不认为禁止不良词汇是解决办法。
“任何有限的关键词禁令都无法帮助解决这些问题,”他写道。“你可以构建一个白名单,只允许特定的回复,但这违背了机器人的目的;让它有趣的是其内在的随机性。”
这种随机性是 Twitter 本身的反映;Champandard 说,这是“我们看待当前社会的透镜”。有好有坏——推文可以火爆也可以冷酷。
如果微软从其 AI Twitterbot Tay 的经历中教会了我们什么,那就是我们在 AI 编程和使人类社会更加人性化和文明化方面,都还有很长的路要走。