如果你留意的话,科技界充斥着不少坏消息。从对黑客攻击和身份盗窃的担忧,到一项2017年来自英国的调查,该调查将Instagram列为在四种其他社交平台中“对年轻人心理健康最差”的平台,这些都足以让你想当个卢德分子。
但问题的另一面或许能让你展颜一笑:科技公司和研究人员正转向人工智能和其他软件,试图解决你能想到的几乎所有问题,从识别虚假新闻,到注意到某人是否摔倒,再到寻找加快MRI扫描时间的方法。
一些公司正在开发软件,帮助你改善思维,甚至通过分析语音来检测抑郁迹象。
例如,Woebot是一款可爱的聊天机器人应用程序,旨在充当随叫随到的情绪助手。
它是免费的,看起来像一个短信应用程序,比如iMessages。这个活泼的“机器人”会问一些问题,比如“有几秒钟的时间反思一下今天让你感到感恩的事情吗?”它还可以随着时间的推移记录你的情绪,或者教用户关于“非黑即白思维”的陈述,例如“没有人喜欢我”。
去年推出的这款聊天机器人显然不是人类治疗师;它的回应是脚本化的,不会欺骗任何人认为它是一个真人。但它的设计目的也不是取代人类治疗师。相反,它的目的是帮助那些可能不需要心理健康临床医生的人,或者那些目前无法获得心理健康服务的人。例如,当人们在深夜遭受恐慌发作时,它就是一个资源。
“它的设计理念是让所有人都能获得心理健康,”其创造者、心理学家兼Woebot Labs创始人Alison Darcy说。“我们真的在努力鼓励一种文化转变,承认每个人都有心理健康,并且每个人都需要每天关注它。”它无意诊断情绪障碍——那是临床医生的职责范围。
“心理健康是人工智能的最佳用例之一,因为我们没有足够的临床医生,”Darcy说。这是一种“任务转移”,即将一部分工作负担从人类转移到一个从不睡觉且不收费的应用程序,如Woebot。
同一类别中的另一个应用程序叫做Talkspace,但它连接的是真人治疗师,而不是聊天机器人。患者通过长文本消息、语音备忘录、视频消息或实时视频对话与专业人士交流。此外,据该公司首席医疗官Neil Leibowitz称,Talkspace还使用该平台自己的匿名、汇总数据来向治疗师提供建议,他们可以选择接受或忽略,例如建议他们在特定时间发送一段录制的视频消息。
检测抑郁
然后有一家名为Cogito的公司,它源于MIT媒体实验室。该公司制造人工智能驱动的软件,专为呼叫中心设计——稍后会详细介绍。虽然这是他们的主要重点,但他们也从事与退伍军人相关的工作。
为此,他们与美国退伍军人事务部在科罗拉多州的一个专注于预防自杀的办公室合作。据Cogito首席行为科学官Skyler Place介绍,在一个涉及“数百名”退伍军人的项目中,退伍军人可以使用一款名为Cogito Companion的应用程序,他们可以在其中对着应用程序说话并录制一条给自己听的消息。“然后,我们的技术会根据退伍军人独白中的语调、能量和停顿,分析其与抑郁相关的情绪。”他表示。临床医生会收到一个从一到一百的评分,反映退伍军人的情绪。
麻省理工学院的其他研究也有类似的重点。计算机科学与电气工程系的博士候选人Tuka Al Hanai专注于通过分析音频文件或语音文本来使用人工智能检测抑郁等问题。
她使用神经网络——一种常用的人工智能技术——来判断说话者是否抑郁。她表示,结合了文本和音频数据的最佳神经网络的准确率为77%。
“主要是,我们认为这种[技术]可以作为医疗专业人员的筛查辅助工具,”她说。“它可能不会取代他们。”
“宏大的愿景是建立一个系统,能够消化自然、真实的对话和互动,并能对一个人的福祉做出一些结论,”她补充道。她说,人们甚至可以学习算法本身所学到的抑郁症迹象。“你作为一个人类,可以学会内化算法所学到的任何东西,这样你就可以成为某人最好的朋友或邻居。”
倾听者
虽然Cogito与退伍军人事务部在心理健康方面开展合作,但他们的主要重点实际上是在一个截然不同的领域:呼叫中心。
他们的人工智能驱动软件会监听呼叫中心(如MetLife或Humana)的座席与来电普通人之间的对话。然后,它会提供指导,帮助座席更好地完成工作。Place表示:“我们会留意停顿、打断、紧张、精力、热情、厌倦。”他们的系统实时分析音频,每16毫秒一次。
这种人工智能分析的结果是为呼叫中心座席提供视觉提示。由于这些员工经常一遍又一遍地处理相同的问题,他们可能会“进入自动驾驶模式,听起来像机器人,并开始用单调低能量的声音说话,”Place说。呼叫中心座席会在屏幕上看到一个咖啡杯通知,提醒他们提高精力。“这是一个非常有趣的例子,说明人工智能如何帮助人类听起来更像人类。”
除了这个咖啡杯,座席还可能会看到一个粉色的心——Place称之为“同理心提示”,提醒座席“暂停并承认客户的情感状态。”人们可能需要人工智能驱动的提示来表现同理心,这是否令人悲哀?这是另一个问题了。