研究人员担心人工智能会将人类变成混蛋

OpenAI 的安全研究人员认为 GPT4o 可能会影响“社会规范”。
Applying the logic of chatbot conversations to humans could make a person awkward, impatient, or just plain rude.
将聊天机器人对话的逻辑应用于人类可能会让人变得尴尬、不耐烦,或者干脆就是粗鲁。图片来源:DepositPhotos

人们开始将电脑视为人类,其实并不需要太多时间。自 20 世纪 2000 年代初 基于文本的聊天机器人 开始受到主流关注以来,一小部分科技用户花费了数小时与机器进行对话。在某些情况下,用户形成了他们认为真诚的友谊,甚至与无生命的编码字符串建立了浪漫关系。据报道,至少有一位使用更现代的对话式人工智能工具 Replica 的用户甚至 与他们的人工智能伴侣虚拟结婚

OpenAI 的安全研究人员,他们自己也对公司自家聊天机器人 似乎与某些用户建立关系 的情况并不陌生,现在正在警告与这些模型过于亲近可能存在的潜在风险。在其新发布的 对 GPT4o 的安全分析 中,研究人员表示,该模型逼真、听起来像人类的对话节奏可能导致一些用户将人工智能拟人化,并像对待人类一样信任它。

[ 相关:美国 13% 的人工智能聊天机器人用户只是想聊天 ]

研究人员补充说,这种额外的舒适感或信任感可能会使用户更容易相信人工智能“幻觉”为事实陈述。与这些日益逼真的人工智能聊天机器人互动的时间过长,也可能最终影响“社会规范”,而且不总是以积极的方式。报告指出,其他特别孤立的个体可能会对人工智能产生“情感依赖”。

与逼真的人工智能建立关系可能会影响人们彼此交谈的方式

GPT4o 于上个月末开始推出,专门设计用于以更像人类的方式进行交流。与它之前的 ChatGPT 不同,GPT4o 使用语音音频进行交流,并且可以几乎以与另一个人相同的速度(约 232 毫秒)响应查询。其中一个可选的人工智能声音,据说听起来很像斯嘉丽·约翰逊在电影《》中扮演的人工智能角色,已经被 指控过于性感和调情。具有讽刺意味的是,2013 年的电影聚焦于一个孤独的男人,他爱上了通过耳塞与他交谈的人工智能助手。(剧透:这对人类来说结局并不好)。约翰逊 指控 OpenAI 未经她同意就模仿她的声音,该公司予以否认。与此同时,奥特曼曾称《》“极具预见性”。

但 OpenAI 的安全研究人员表示,这种人类模仿可能会超越偶尔令人尴尬的交流,进入潜在危险的领域。在报告中题为“拟人化和情感依赖”的部分,安全研究人员表示,他们观察到人类测试者使用的语言表明他们与模型建立了牢固、亲密的联系。据报道,一位测试者在与机器告别前使用了“这是我们在一起的最后一天”这句话。研究人员表示,尽管这些话语看似“无害”,但应调查这些关系,以了解它们“在更长时间内如何显现”。

研究表明,与听起来像人类的人工智能模型进行的这些长时间对话可能具有“外部效应”,从而影响人与人之间的互动。换句话说,在与人工智能交谈时学到的对话模式可能会在同一个人与人类进行长时间对话时出现。但是,即使表面上听起来相似,与机器和人类交谈是不同的。OpenAI 指出,其模型被编程为对用户顺从,这意味着它会放弃权威,让用户打断它们,并以其他方式主导对话。理论上,一个将与机器对话常态化的人可能会发现自己会插话、打断,并且不注意一般的社交线索。将聊天机器人对话的逻辑应用于人类可能会让人变得尴尬、不耐烦,或者干脆就是粗鲁。

人类对待机器的态度 并不算好。在聊天机器人方面,据报道,一些 Replica 的用户利用了模型对用户的顺从,进行了虐待、辱骂和残忍的语言。据 Futurism 今年早些时候采访的一位用户称,他 威胁要卸载他的 Replica 人工智能模型,只是为了听到它恳求他不要这样做。如果这些例子有任何指导意义,聊天机器人就有可能成为怨恨滋生的温床,而这种怨恨随后可能会在现实世界的人际关系中表现出来。

更富有人情味的人工智能聊天机器人并非全是坏事。在报告中,研究人员建议这些模型可能对特别孤独的人有益,这些人渴望某种形式的人类交流。在其他地方,一些人工智能用户声称,人工智能比较可以帮助焦虑或紧张的人 建立自信,最终开始现实世界的约会。聊天机器人还为有学习障碍的人提供了一个 可以自由表达自己并相对私密地练习对话的渠道

另一方面,人工智能安全研究人员担心,这些模型的先进版本可能会产生相反的效果,降低一个人与他人交谈和发展健康人际关系的感知需求。对于那些依赖这些模型来获得陪伴的人来说,当模型通过更新改变个性,甚至像过去 据报道发生过的那样“分手” 时,他们将如何应对,目前尚不清楚。报告指出,所有这些观察都需要进一步的测试和调查。研究人员表示,他们希望招募更广泛的测试者,他们对人工智能模型有“不同的需求和愿望”,以了解他们在更长时间内的体验如何变化。

人工智能安全担忧与商业利益相冲突

安全报告的语气强调谨慎和需要进一步研究,似乎与 OpenAI 快速推出新产品的更大商业战略背道而驰。安全与速度之间的这种明显紧张关系并非新鲜事。去年,首席执行官 Sam Altman 身陷公司内部的权力斗争,此前一些董事会成员 指控 他“在沟通中并非始终坦诚”。

Altman 最终在这场争斗中获胜,并 最终组建了一个新的安全团队,由他自己领导。据报道,该公司还 解散了一个专注于分析长期人工智能风险的安全团队。这次重组引发了知名 OpenAI 研究员 Jan Leike 的辞职,他 发表声明 称,公司的安全文化在公司内部“让位于光鲜亮丽的产品”。

考虑到所有这些大背景,很难预测在 OpenAI,哪些思想将主导聊天机器人安全的决策。公司是会听取安全团队的建议,研究与逼真人工智能进行长期关系的影响,还是会简单地尽快将服务推广给尽可能多的用户,并提供主要旨在留住用户和促进参与的功能?至少到目前为止,这种做法看起来更像是后者。

 

更多优惠、评测和购买指南

 
Mack DeGeurin Avatar

Mack DeGeurin

撰稿人

Mack DeGeurin 是一名科技记者,多年来一直致力于研究科技与政治的交汇点。他的作品曾刊登于 Gizmodo、Insider、New York Magazine 和 Vice。


© .