新的研究表明,基于人工智能的深度学习模型可以仅通过 X 射线成像辨识人类的种族——这对于人类医生来说是不可能的。

这些发现对人工智能在医学诊断、评估和治疗中的作用提出了一些令人不安的问题:在研究此类图像时,计算机软件是否会无意中生出种族偏见?

在使用数十万张标有患者种族细节的现有 X 射线图像训练他们的人工智能后,来自美国、加拿大和台湾的一个国际健康研究人员团队在计算机软件没有的 X 射线图像上测试了他们的系统。

人工智能可以在这些图像上以惊人的准确度预测患者报告的种族身份,即使扫描来自同年龄和同性别的人。该系统在某些图像组中达到了 90% 的水平。

研究人员在他们发表的论文中写道:“我们旨在对人工智能从医学图像中识别患者种族身份的能力进行全面评估。我们表明,可以训练标准的 AI 深度学习模型依据具有跨多种成像模式的高性能医学图像来预测的种族,这在外部验证条件下是持续的。”

该研究与之前一项研究的结果相呼应,之前发现人工智能更有可能遗漏黑人的疾病迹象。为了阻止这种情况发生,科学家首先需要了解它为什么会发生。

就其本质而言,人工智能模仿人类思维来快速发现数据中的模式。然而,这也意味着它可能会在不知不觉中屈服于同样的偏见。更糟糕的是,它们的复杂性使得我们很难理清我们编织到其中的偏见。

目前,科学家们不确定为什么人工智能系统如此擅长从不包含此类信息的图像(至少表面上没有)中识别种族。即使提供了有限的信息,例如通过删除有关骨密度的线索或将注意力集中在身体的局部,模型在猜测种族方面仍然表现出色。

该系统可能正在发现黑色素的迹象,黑色素是赋予皮肤颜色的色素。

研究人员写道:“我们发现 AI 可以准确地预测种族,即使是来自损坏、裁剪和噪声的医学图像,通常临床专家无法做到这一点,这给医学成像中的所有模型部署带来了巨大风险。”

这项研究增加了越来越多的证据,表明人工智能系统通常可以反映人类的偏见和偏见,无论是种族主义、性别歧视还是其他。偏斜的训练数据可能导致偏斜的结果,从而使它们的用处大大降低。这需要与人工智能的强大潜力相平衡。

该研究仍有许多未解决的问题,但现在重要的是要意识到人工智能系统中可能出现种族偏见,特别是如果我们将来要赋予它们更多责任的话。

“我们需要暂停一下。”麻省理工学院的研究科学家和医师 Leo Anthony Celi 告诉波士顿环球报。

“在我们确定他们没有做出种族主义决定或性别歧视决定之前,我们不能急于将算法带进医院和诊所。”

该研究已发表在《柳叶刀·数字健康》上。

https://www.sciencealert.com/ai-can-predict-people-s-race-from-medical-images-and-scientists-are-concerned

[ 广告 ]

支付宝打赏 [x]
您的大名: 打赏金额:

赞一个 (8)

PREV :
NEXT :