一位母亲以为女儿被绑架了——原来只是 AI 模仿了她的声音

克隆你的声音的AI软件越来越便宜,也越来越容易被滥用。
Hands holding and using smartphone in night light
使用AI软件创建语音克隆越来越容易。Deposit Photo

诈骗者越来越多地依赖AI语音克隆技术来模仿潜在受害者的朋友和亲人,以敲诈钱财。在最近的一个例子中,一位亚利桑那州的母亲向当地电视台讲述了她自己经历的这个可怕问题。

“我拿起电话,听到了我女儿的声音,她说:‘妈妈!’她还在哭,”詹妮弗·德斯特法诺本周早些时候告诉斯科茨代尔地区的CBS附属电视台。“我说:‘发生什么事了?’她说:‘妈妈,我搞砸了,’她一边说一边抽泣着哭。”

[相关:美国联邦贸易委员会正密切关注AI诈骗者。]

据德斯特法诺说,接着她听到一个男人命令她的“女儿”把电话给他,然后他用这个电话要求100万美元以换取自由。随后,他将勒索金额降至5万美元,但仍威胁德斯特法诺的女儿,除非收到赎金就对其施加身体伤害。尽管据报道,在她接到这通暴力诈骗电话的五分钟内,她的丈夫就确认了她女儿的下落和安全,但事实是,骗子可以如此轻松地利用AI技术模仿几乎任何人的声音,这让安全专家和潜在受害者都感到恐惧和不安

随着AI的进步日新月异,曾经昂贵且耗时的人工智能语音模仿等壮举现在变得触手可及且价格低廉。亚利桑那州立大学计算机科学教授苏巴拉奥·坎巴姆帕蒂(Subbarao Kambhampati)上个月在接受NPR采访时解释说,“以前,[语音模仿技术]需要复杂的运作。现在小混混也可以用了。”

[相关:为什么美国联邦贸易委员会要成立技术办公室。]

德斯特法诺的痛苦经历的报道发布不到一个月,美国联邦贸易委员会就发出了自己的警告,提醒人们注意这种日益增多的骗子骗局。美国联邦贸易委员会在其消费者警报中表示,“人工智能不再是科幻电影中遥不可及的想法。我们现在就生活在其中,”并补充说,骗子现在只需要一个人的“短音频片段”就能重现其语气和语调。通常,这些源材料很容易通过社交媒体内容获得。据坎巴姆帕蒂说,这段音频可以短至三秒钟,仍然可以产生足够逼真的结果来欺骗毫无戒心的受害者。

为了防范这种日益增长的骚扰和敲诈形式,美国联邦贸易委员会建议首先要对这类说法持怀疑态度。这些骗局通常来自不熟悉的电话号码,因此重要的是在之后立即尝试通过他们自己的真实电话号码或通过亲戚朋友联系他们本人,以核实情况。骗子经常要求通过加密货币、电汇或礼品卡付款,因此要警惕任何包含这些选项作为补救措施的威胁。

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .