人工智能认为膝盖 X 光片可以判断您是否喝啤酒和吃豆泥

“它们识别出的并非所有模式都有意义或可靠。”
Three people's hands holding beers at bar
一些人工智能模型会在毫无意义的模式中发现意义。图片来源:Deposit Photos

一些人工智能模型在学习“相关性不等于因果性”这一古老原则上遇到困难。虽然这不是放弃AI工具的理由,但一项最近的研究应该提醒程序员,即使是该技术的可靠版本,仍然容易出现奇怪的现象——比如声称膝关节X光片可以证明某人喝啤酒或吃炸豆子。

人工智能模型的功能远不止生成(偶尔准确)的文本回复和(某种程度)逼真的视频。真正制作精良的工具已经在帮助医学研究人员解析大量数据集,以发现新的突破准确预测天气模式,并评估环境保护措施。但根据发表在《Scientific Reports》杂志上的一项研究,算法的“捷径学习”继续带来一个问题,即产生既高度准确又信息错误的結果。

达特茅斯健康中心的研究人员最近使用美国国立卫生研究院骨关节炎计划提供的超过25,000张膝关节X光片来训练医学AI模型。然后,他们基本上反向操作,任务是让深度学习程序找到预测无稽之谈的共同点,例如哪些膝关节主人明显喝过啤酒或吃过炸豆子——正如研究作者解释的那样,这是极其荒谬的。

“模型并没有在我们膝盖里发现隐藏的关于豆子或啤酒的真相,”他们写道。

但与此同时,研究小组解释说,这些预测并非“纯属偶然”。根本问题在于所谓的算法捷径学习,即深度学习模型通过容易检测到但无关或误导的模式来寻找联系。

“捷径学习使得创建具有惊人准确预测但完全缺乏表面合理性的模型变得轻而易举,”他们警告说。

例如,算法识别出的变量包括不相关的因素,如X光机型号的差异或设备的地理位置。

“这些模型能看到人类看不到的模式,但它们识别出的并非所有模式都有意义或可靠,”达特茅斯健康中心骨科助理教授、该研究的资深作者、骨科医生Peter Schilling在12月9日的一份声明中补充道。“认识到这些风险至关重要,以防止误导性结论并确保科学诚信。”

另一个持续存在的问题是,似乎没有简单的办法可以解决AI的捷径学习。根据周一的公告,试图解决这些偏见“效果甚微”。

“这超越了种族或性别线索带来的偏见,”研究合著者、机器学习科学家Brandon Hill说。“我们发现算法甚至可以学会预测X光片的拍摄年份。这很狡猾;当你阻止它学习其中一个因素时,它就会转而学习它以前忽略的另一个因素。”

Hill认为,这些问题可能会导致人类专家信任AI模型提出的“一些非常可疑的说法”。对于Schilling、Hill和他们的同事来说,这意味着尽管预测性深度学习程序有其用途,但在将其用于医疗研究等场景时,需要更严格的证据标准。Hill将与AI打交道比作与外星生命体打交道,同时试图将其拟人化。

“很容易陷入一个陷阱,即认为模型‘看到’的方式与我们相同,”他说。“最终它不是。它学会了一种解决给定任务的方法,但不一定是人类会采取的方式。它没有我们通常理解的逻辑或推理能力。”

 

更多优惠、评测和购买指南

 
© .