欢迎光临GGAMen游戏资讯




AI 也会抄捷径,医学研究发现深度学习算法缺陷

2024-11-05 206


人工智能在现今癌症治疗上,具有相当大的帮助,透过深度学习,系统可以快速分析肿瘤切片影像,提供医生有关癌症类型和治疗建议等重要资讯,但美国芝加哥大学研究团队发现,如果深度学习算法没有适当调整,AI 会做出偏颇的病理分析。

芝加哥大学(University of Chicago)研究团队,在本月的《自然-通讯》(Nature Communication)期刊中发表研究指出,透过医疗影像学习的过程中,若没有对算法进行特别校正,AI 就会以资料上传的地区、医学机构等资讯自行归类,并使用归类资料进行比对分析,产生病理资讯和治疗建议,但以这种方式而不是透过比较严谨的生理和病史资讯进行分析, AI 容易产生偏颇或不正确的分析和治疗建议。

研究团队在实验中,让 AI 系统透过美国国家癌症研究所(National Cancer Institute, NCI)与国家人类基因组研究所(National Human Genome Research Institute, NHGRI),共同合作的“癌症基因组图谱(The Cancer Genome Atlas, TCGA)”数据库内,大量的癌症组织切片影像进行深度学习,发现了 AI 这种透过算法习性,产生偏颇判断的问题。

▲主导研究团队的芝加哥大学医学系 Alexander Pearson 博士。(Source:University of Chicago)

“我们在这项研究中发现了 AI 的盲点,由于需要快速分析,因此算法会合理的认为使用机构和区域分类,可以更有效归类档案,提高学习分析的效率。”芝加哥大学医学系 Alexander Pearson 博士指出,但 AI 用这种归类方式学习大量影像后,却会开始忽略病患个人的生理数据和病史资料,改以上传机构和地区之间的影像互相比对。

如此一来,医疗软硬件条件较好,或比较富裕区域内的病患切片样本,由于通常有比较多治疗选项,治愈概率也较高,因此 AI 容易对这些区域的样本提出比较乐观的病理分析和治疗方式,但是对于条件较差的机构或区域,产生的分析与建议就会比较差,等于将社会医疗资源的不平等反射出来。

AI 在面对大量资料时也会尝试简化归类程序,产生盲点。(Source:BDAN)

研究团队也表示,要避免出现这种盲点,系统开发者在训练 AI 学习时,必须确保各种类型的肿瘤切片影像,是平均来自各个地区与机构上传的资料,或是在学习过程出现判断偏颇时,将影像样本锁定在一个特定条件,避免 AI 自行产生归类和比对分析的习惯,才能产生比较准确的分析结果。

要如何避免 AI 出现“偷吃步”的情形,对于现代医学越来越仰赖 AI 进行分析的状况下,显得格外重要,若是因为 AI 产生不准确的病理分析,导致医生判断失准,原本用来帮助人类健康的科技反而会成为病患生命的一大威胁。

  • Deep Learning Models Take Shortcuts to Make Inaccurate or Biased Predictions for Cancer Patients

(首图来源:Pixabay)

2021-07-28 10:01:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 ggamen ggamen游戏新闻网 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条
0