![现在解决偏见,促进医学可以鼓励公平意识](http://www.alohadebbie.com/sites/default/files/styles/content_large/public/Low-Res_Yi_Paul.jpg.png?itok=qt0ra-LK)
保罗,医学博士
5月3日,2023 -人工智能(人工智能)技术在医学领域有可能自动诊断,减少医生工作量,甚至把专业医疗在农村地区或发展中国家的人。然而,可能是潜在的缺陷。
分析众包的数据用来创建人工智能算法的医学图像,马里兰大学医学院(UMSOM)的研究人员发现,大多数不包括病人的人口统计数据。这项研究发表在4月3日自然医学,研究人员还发现,没有评价的算法固有的偏见。这意味着他们没有办法知道是否这些图像包含代表样本的人口如黑人、亚洲人,和土著美国人。
医学研究人员称,在美国已经充满了偏心对某些种族、性别、年龄、性取向。小偏差在单个数据集可以被放大时大大成百上千的这些数据集在这些算法相结合。
“这些深度学习模型可以诊断医生看不到的东西,比如当一个人可能会死或检测阿尔茨海默病七年前比我们已知的测试——超人的任务,“高级调查员说保罗,医学博士诊断放射学和核医学助理教授UMSOM。他也是马里兰大学医疗主任智能成像(UM2ii)中心。“因为这些人工智能机器学习技术是如此擅长发现海里捞针,他们还可以定义性、性别、年龄,这意味着这些模型可以使用这些功能有偏见的决策。”
大部分的大型研究收集的数据往往是意味着他的人相对容易获得医疗保健。在美国,这意味着数据往往倾向于男性和女性,向白人比其他种族的人。美国倾向于执行比世界其他地区的成像,这些数据被编译成算法有可能倾斜的结果。
在当前的研究中,研究人员选择评价中使用的数据集数据科学竞赛中,计算机科学家和医生共同完成数据来自世界各地和尝试开发最好的,最精确的算法。这些比赛往往排行榜排名每个算法以及提供现金奖励,激发人们创造最好的。具体地说,研究人员研究了医学成像算法,比如那些评价CT扫描诊断脑肿瘤或肺部血栓。23日数据的比赛分析,不包括61%的人口数据,比如年龄、性别或种族。没有比赛的评价对弱势或弱势群体的偏见。
“我们希望通过把意识这个问题在这些数据竞赛——如果应用在一个适当的方式解决这些偏见有巨大的潜力,”作者说肖恩·加林、项目协调员UM2ii中心。
该研究的作者也鼓励未来的比赛要求不仅精度高,而且不同群体之间的公平。
”作为人工智能在医学成像模型变得更加普遍和其他医学领域,重要的是确定并解决潜在的偏见,可能会加剧现有的卫生不公平现象在临床护理-学术医疗机构的基本优先级”UMSOM院长说马克·t·Gladwin MD医学事务副总裁马里兰大学巴尔的摩,约翰·z和作者k·鲍尔斯特聘教授。