如果病人知道他们的医生将在即将到来的预约中向他们提供错误信息,他们会立即取消预约。然而,像 ChatGPT 这样的生成式人工智能模型经常“产生幻觉”,这是科技行业术语,意思是编造信息。那么,为什么有人会想将人工智能用于医疗目的呢?
乐观的设想是:人工智能工具经过经过审查的医学文献训练,正如一些正在开发的模型所做的那样,但它们还会扫描患者记录和智能手表数据。然后,像其他生成式人工智能一样,它们会生成文本、照片甚至视频——这些内容经过个性化,并且准确到足以提供帮助。而令人担忧的版本是:政府、保险公司和企业家为了降低成本而推广有缺陷的人工智能,导致患者极度渴望获得人类医生的医疗护理。
目前,很容易想象事情会出错,特别是由于人工智能已经被指控在网上散布有害建议。今年春天晚些时候,美国国家饮食失调协会在有用户声称其鼓励不健康的饮食习惯后,暂时禁用了其聊天机器人。但美国人仍然可以下载使用人工智能评估症状的应用程序。一些医生也在尝试利用这项技术,尽管存在根本性问题,以便更富有同情心地与患者沟通。
约翰霍普金斯大学的计算机科学教授Mark Dredze说,ChatGPT 和其他大型语言模型“非常自信,非常能言善辩,而且它们常常是错误的”。简而言之,在人们可以信任其医疗建议之前,人工智能还有很长的路要走。
尽管如此,Dredze 对这项技术的前景持乐观态度。他最近发表的研究发现,ChatGPT 提供的建议已经与 Reddit 论坛上医生提供的建议相当。在医疗保健领域专门从事机器学习的 Hugging Face(一个开源人工智能平台)的机器学习工程师Katie Link表示,未来的生成模型可能会补充而不是完全取代就诊。例如,它们可以更全面地解释就诊后的治疗和病情,或者帮助防止由于语言障碍造成的误解。
哈佛医学院的人工智能和医疗保健研究员Oishi Banerjee设想了一个更乐观的前景,即人工智能系统将整合多种数据源。她表示,通过使用照片、患者记录、可穿戴传感器信息等,它们可以“为任何人、在任何地方提供良好的护理”。手臂上有奇怪的皮疹?她设想了一个皮肤病学应用程序,能够分析照片,并梳理您的近期饮食、位置数据和病史,为您找到正确的治疗方法。
随着医疗人工智能的发展,行业必须确保越来越多的患者数据安全。但麻省理工学院机器学习实验室的负责人Marzyeh Ghassemi表示,监管机构可以为负责任的进步奠定基础。Ghassemi 建议,许多医院已经将匿名患者数据出售给谷歌等科技公司;美国机构可以要求它们将这些信息添加到国家数据集以改进医疗人工智能模型。此外,联邦审计可以审查医院和医疗团体使用的人工智能工具的准确性,并切断对不合格软件的宝贵的 Medicare 和 Medicaid 资金。医生也不应该只是被随意地交给人工智能工具;他们应该接受关于如何使用它们的广泛培训。
人们很容易看到人工智能公司如何诱惑组织和患者注册那些无法保证产生准确结果的服务。立法者、医疗保健提供者、科技巨头和企业家需要谨慎行事。生命取决于此。
了解更多关于人工智能时代的生命的信息:
或者查看我们的所有 PopSci+ 文章。