据外媒 HealthcareItNews 报导,美国时间 10 月 22 日,FDA 召集患者参与咨询委员会(Patient Engagement Advisory Committee)进行了一场公开会议,讨论医疗设备中人工智能和机器学习方面的问题。
2015 年 9 月,主管医疗器械的 FDA 设备和放射健康中心成立了首个患者参与咨询委员会,以确保在医疗设备的审评中反映患者需求。
PEAC 主席、美国肾脏患者协会政策和全球事务主席 Paul Conway 博士说:“使用 AI 和机器学习技术的设备将透过提高患者治疗关键过程的效率来改变医疗服务。”
此外,Conway 和其他人在小组讨论中也指出,人工智能和机器学习系统可能存在算法偏见和缺乏透明度──反过来,这可能会削弱患者对设备的信任。
为了应对新冠肺炎疫情,医疗设备的创新速度不断加快。设备和放射健康中心主任 Jeff Shuren 博士指出,已经有 562 款医疗设备获得了 FDA 的紧急使用授权。Shuren 说,患者的需求必须做为研发过程的一部分来考虑。
“我们继续鼓励医疗系统的所有成员努力理解患者的观点,并积极主动地将他们纳入医疗设备的开发、修改和评估中。患者是我们工作的灵感来源,尽管新冠肺炎这个突发的公卫事件给全球带来了挑战,但是患者的呼声不会停止。如果说有什么不同的话,那就是更有理由让人们听到它。”
然而,飞利浦全球软件标准监管主管 Pat Baird 表示,获得患者信任还意味着,要正视稳定和准确的数据集的重要性。
Baird 表示,“为了帮助患者,我们需要更加熟悉他们,了解他们的医疗条件、需求和愿望,更好地了解那些潜在的因素,这些因素往往在收集的数据中潜藏着一些趋势。”
Baird 解释:“在一个子集上训练的算法可能与另一个子集不相关。”
例如,如果一家医院需要为佛罗里达州退休社区的老年人提供医疗设备,一种辨识缅因州青少年医疗需求的训练算法就不会有效──换言之,不是每个人都有同样的需求。“数据中的这种偏差不是故意的,但是很难辨识,”因此,Baird 鼓励对偏见类型进行分类,并向公众公开,“偏差带来的后果,就是失去患者的信任。我们需要集思广益,开发出更好的人工智能产品。”
让患者数据多样化
CDRH 的首席医务长兼妇女健康主任 Terri Cornelison 上尉指出,人口统计鉴定在医学上具有重要意义,这是因为,人口统计包含了遗传和健康的社会决定因素等。Cornelison 说到,“科学告诉我们,这些不仅是明确的鉴别指标,而且实际上与临床相关。”
她指出,一项不辨识患者性别的临床研究可能会掩盖不同染色体人群的差异化结果。在许多情况下,如果现有的训练数据不能代表不同类型的患者,那么 AI 就会学的越来越“窄”。
“更简单地说,如果数据不包括你,AI 算法可能就不能代表你。AI 正在改变我们的卫生系统和日常生活。尽管取得了这些重大成就,但是大多数人都忽视了性别、年龄等因素对健康和疾病差异的影响。”
委员会还研究了“知情同意”如何在算法训练中发挥作用。
“如果我同意接受 AI 设备的治疗,我就有权知道数据集里是否有像我这样的病人……”健康沟通顾问 Bennet Dunlap 说,“我认为 FDA 不应该接受或批准一种没有病人参与的医疗设备”。
“你需要知道你的数据将被用于什么。我是白人,我可以假设年长的白人包含(数据集)中。这是每个人的出发点,但情况往往不是这样。”
埃默里大学 Goizueta 阿滋海默症研究中心 Dr. Monica Parker 指出,让患者数据多样化,需要社区内可信实体的帮助。“如果人们为了更广泛的多样化而开发这些设备,那么这些设备是在哪里进行测试的,这是不是存在一些问题呢?”
她提出了在美国东、西海岸的学术医疗中心或技术中心进行测试的问题,而不是“从医院收集真实世界的数据,因为这些医院可能在疾病过程中使用一些不同的设备”。
Faces and Voices Recovery 的营运总监 Philip Rutherford 也补充到,在数据集中区分多样性是不够的,负责训练算法的人也必须不是同质的,“如果希望数据多样化,我们就必须让收集数据的人也多样化”。
因此,患者参与咨询委员会呼吁,FDA 在解决人工智能和机器学习中的算法偏见方面发挥强有力的作用。
Conway 在最后总结说,“归根结底,多样性验证和无意识的偏见……如果从一开始就有强有力的领导,所有这些问题都可以得到解决。”
(本文由 雷锋网 授权转载;首图来源:shutterstock)