2025-05-06 22:18来源:本站
在解释诊断图像时,人工智能可以成为医疗保健专业人员和研究人员的有用工具。放射科医生可以通过x射线识别骨折和其他异常,而人工智能模型可以看到人类无法看到的模式,从而为扩大医学成像的有效性提供了机会。
但发表在《科学报告》(Scientific Reports)上的一项研究强调了在医学成像研究中使用人工智能的一个隐藏挑战——即被称为“捷径学习”的高度准确但可能具有误导性的结果。
研究人员分析了来自美国国立卫生研究院资助的骨关节炎项目的2.5万多张膝关节x光片,发现人工智能模型可以“预测”不相关和不可信的特征,比如患者是否不吃煎豆或啤酒。虽然这些预测没有医学依据,但这些模型通过利用数据中微妙和意想不到的模式,达到了惊人的准确性。
“虽然人工智能有可能改变医学成像,但我们必须谨慎,”该研究的资深作者彼得·席林博士说,他是达特茅斯健康学院达特茅斯希区柯克医疗中心的整形外科医生,也是达特茅斯盖泽尔医学院的整形外科助理教授。
“这些模型可以看到人类无法看到的模式,但并不是它们识别的所有模式都有意义或可靠,”席林说。“认识到这些风险对于防止误导性结论和确保科学诚信至关重要。”
研究人员研究了人工智能算法如何经常依赖于混杂变量(如x射线设备或临床部位标记的差异)来做出预测,而不是医学上有意义的特征。消除这些偏见的尝试只取得了些许成功——人工智能模型只会“学习”其他隐藏的数据模式。
“这超越了种族或性别线索带来的偏见,”该研究的合著者、达特茅斯希区柯克学院(Dartmouth Hitchcock)机器学习科学家布兰登·希尔(Brandon Hill)说。“我们发现该算法甚至可以学习预测拍摄x射线的年份。这是有害的——当你阻止它学习其中一种元素时,它会转而学习之前忽略的另一种元素。这种危险可能会导致一些非常不可靠的说法,研究人员需要意识到,在使用这种技术时,这种情况是多么容易发生。”
研究结果强调了在基于人工智能的医学研究中需要严格的评估标准。过度依赖标准算法而不进行更深入的审查可能导致错误的临床见解和治疗途径。
希尔说:“当涉及到使用模型来发现医学新模式时,举证责任就会大大增加。”“部分问题在于我们自己的偏见。我们很容易落入假设模型和我们看问题的方式一样的陷阱。最后,它没有。”
希尔继续说道:“人工智能几乎就像与外星智能打交道。“你想说这种模式是‘作弊’,但这让这项技术变得人格化了。它学会了一种解决交给它的任务的方法,但不一定是人类的方法。它没有我们通常理解的逻辑或推理。”
希尔和研究报告的合著者弗朗西斯·科巴克(Frances Koback)是达特茅斯大学盖泽尔学院的一名三年级医学生,他们与佛蒙特州白河枢纽的退伍军人事务医疗中心合作进行了这项研究。