![科学家们设计得分AI-generated放射学报告精度的新方法](http://www.alohadebbie.com/sites/default/files/styles/content_large/public/Screen%20Shot%202023-08-04%20at%2010.08.33%20AM.png?itok=kEIaO6F1)
8月7日,2023年AI工具快速、准确地创建详细叙述病人的报告CT扫描或x射线放射科医生可以大大减轻工作量的忙。
而不只是在图像识别异常的存在与否,这些人工智能报告传达复杂的诊断信息,详细描述,微妙的发现,和适当程度的不确定性。简而言之,他们反映人类放射科医生描述他们所看到的扫描。
几种人工智能模型能够生成详细叙述报告已经开始出现在现场。与他们已经自动评分系统,定期评估这些工具来帮助他们发展和增强他们的性能。
所以当前系统如何衡量一个人工智能模型的放射学表现?
答案是好的,但并不大,根据一项新的研究由哈佛大学医学院的研究人员8月3日发表在《华尔街日报》的模式。
确保评分系统是可靠的人工智能是至关重要的工具继续改进和临床医生信任他们,研究人员说,但研究中的指标测试未能准确识别临床人工智能中的错误报告,其中一些重要。这一发现,研究人员说,强调迫切需要改进和设计高保真评分系统的重要性,忠实、准确地监控工具的性能。
团队测试各种评分指标AI-generated叙事报告。研究人员还要求六个人类放射科医生阅读AI-generated报告。
分析表明,与人类的放射科医生相比,自动评分系统更惨的能力评估AI-generated报告。他们误解了,在某些情况下,忽视临床错误由人工智能工具。
“准确地评价人工智能系统是关键的第一步生成放射学报告临床有用的和可信赖的,”研究高级作者说Pranav Rajpurkar助理教授HMS Blavatnik学院生物医学信息学。
提高分数
为了设计出更好的评分指标,研究小组设计的一种新方法(RadGraph F1)人工智能工具自动生成的性能评价放射学在医学图像报道。
他们还设计了一个综合评价工具(RadCliQ),将多个指标组合成一个单一的分数更好的匹配人类放射科医师如何评估一个人工智能模型的性能。
使用这些新的评分工具来评估一些最先进的人工智能模型,研究人员发现一个明显的差距模型的实际得分和顶部可能得分。
“测量进步是必要的发展人工智能在医学上更上一层楼,“co-first作者飞扬“凯西”Yu说Rajpurkar实验室的研究助理。“我们定量分析移动接近人工智能,增强放射科医生提供更好的病人护理。”
长远来看,研究者的愿景是建立通才医学人工智能模型执行一系列复杂的任务,之前从来没有遇到过的,包括解决问题的能力。Rajpurkar说,这样的系统,可以流利的与放射科医生和医生交谈关于医学图像协助诊断和治疗决策。
该小组还致力于开发人工智能助手,能够直接解释和说明影像学表现的患者使用日常普通语言。
“通过与放射科医生更好地调整,我们的新指标将加快发展人工智能无缝地集成到临床工作流程改善病人护理,“Rajpurkar说。
人工智能相关的内容:
在这里找到更多的AiMed23会议报2022年世界杯半区对阵道