听起来像人工智能聊天机器人可能会损害您的信誉

使用AI辅助的聊天回复可以增加活力,但往往会牺牲原创性和信任。
Cropped close-up of African American woman holding smartphone
AI可以提供更快速、更有活力的对话……只要没人怀疑它们在使用。 Deposit Photos

人际关系关乎信任,一项新研究表明,AI辅助的对话可以帮助建立人与人之间的融洽关系——但前提是没人怀疑对方在使用AI。

根据康奈尔大学研究团队本周发表在《Scientific Reports》上的一项调查,使用AI辅助的回复(即“智能回复”)可以改变对话的语气和人际关系,并提高沟通速度。尽管在这些情况下通常会使用更积极的情感语言,但仅仅怀疑回复受到AI影响的人,往往对他们的对话伙伴更加不信任,无论对方是否真的在使用AI。

[相关:OpenAI 最新的 ChatGPT 更新仍会传播阴谋论。]

在该团队的研究中,研究人员收集了219对参与者,并要求他们在一个模仿Google Allo(法语意为“你好”)的程序上进行合作,这是第一个已停用的智能回复平台。然后,要求这些参与者在三种条件下讨论政策问题:双方都可以使用智能回复,只有一方可以使用,或者双方都不能使用。结果显示,智能回复的使用(约占消息的七分之一)提高了对话的效率、积极的语言以及参与者的积极评价。然而,那些怀疑伴侣使用智能回复的人,往往被评价得更负面。

与此同时,研究表明,为了AI辅助的速度和便利性,你也可能牺牲自己个人的风格。另一项涉及299名随机配对的对话者的实验,要求参与者在四种情景下进行对话:默认的Google智能回复,“积极”的智能回复,“消极”的回复,以及完全没有智能回复。正如预期的那样,积极的智能回复比带有消极智能回复或没有智能回复的对话,带来了更积极的整体语气。

[相关:微软裁掉了整个 AI 伦理团队,同时全力推进 ChatGPT。]

“虽然AI可能可以帮助你写作,但它以你可能意想不到的方式改变你的语言,尤其是让你听起来更积极,”一位博士后研究员兼首席作者Jess Hohenstein在声明中表示。“这表明,通过使用文本生成AI,你正在牺牲一些你自己的个人声音。”

该研究的合著者之一、信息科学副教授Malte Jung补充说,这意味着控制AI辅助技术算法的公司可以轻易影响许多用户的“互动、语言以及他们对彼此的看法”。

随着像微软的ChatGPT驱动的Bing搜索引擎和Google Bard这样的大型语言模型程序不断快速地集成到各自公司的一系列产品中,这可能会引起特别的担忧,也让批评者感到担忧

“科技公司倾向于强调AI工具在更快、更好地完成任务方面的效用,但它们却忽略了社会层面,”Jung说。“我们并非孤立地生活和工作,而我们使用的系统会影响我们与他人的互动。”

 

更多优惠、评测和购买指南

 
© .