吉网

使用语音作为诊断的生物标志物

导读 人工智能可能很快就会帮助医生根据患者的声音诊断和治疗疾病,包括癌症和抑郁症,因为包括蒙特利尔大学在内的12家领先研究机构正在努力将声

人工智能可能很快就会帮助医生根据患者的声音诊断和治疗疾病,包括癌症和抑郁症,因为包括蒙特利尔大学在内的12家领先研究机构正在努力将声音建立为用于临床护理的生物标志物。

该项目由美国国立卫生研究院提供14万美元的资金,为期四年,由南佛罗里达大学的Yael Bensoussan博士和纽约市Weil Cornell Medicine的Olivier Elemento以及美国其他六家机构和加拿大的四家机构领导。

这是由新的NIH共同基金计划资助的几个项目之一,该计划名为Bridge to Artificial Intelligence(Bridge2AI)。法裔美国人工智能生物技术初创公司Owkin正在为数据库提供技术。

该项目被称为“声音作为健康的生物标志物”,旨在以合乎道德的方式收集数十万个人类声音,同时确保多样性和患者的隐私。然后,机器学习模型将被训练,以低成本检测人声的变化来发现疾病。

我们请该项目在魁北克的唯一首席研究员Vardit Ravitsky告诉我们更多信息,他是UdeM公共卫生学院的生物伦理学教授,也是哈佛医学院全球健康与社会医学的高级讲师。

首先,这个数据库可以用来检测什么样的疾病?

在这个数据库上进行的研究可以让我们检测出更好的声音障碍,如喉癌或声带麻痹;呼吸系统疾病,如肺炎或慢性肺部疾病;神经系统和神经退行性疾病,如阿尔茨海默氏症、帕金森氏症、中风或 ALS;情绪和精神障碍,如抑郁症、精神分裂症或双相情感障碍;以及儿科语音和言语障碍,如自闭症或言语和语言延迟。

这些疾病都经过单独研究,我们知道已经有科学证据表明声音的变化可能与它们有关。但我们需要在人工智能的协助下进行更多的研究,以了解更多信息。

如何收集声音?

首先,临床医生将通过基于应用程序的软件在专家医疗中心收集数据。但是,在项目的第三年和第四年,我们还计划通过众包在偏远和服务不足的社区收集数据。我们将使用一种称为“联邦学习技术”的新技术,该技术允许在这些语音样本上训练机器学习模型,而无需它们离开其原始位置。这将表明,基于人工智能的研究可以部署在多个研究中心,同时保护敏感语音数据的隐私和安全。

人工智能是否能够发现一个人说话方式的变化并发出危险信号?

该项目的主要目标是创建语音样本数据库,使其准备好由人工智能进行分析。最终,基于这项研究,我们预见到未来人工智能将能够注意到某些疾病特有的声音差异。例如,在帕金森病中,声音变得单调,振幅较低。训练有素的语音专家在听到这些变化时通常会立即怀疑帕金森氏症。但并非所有患者都能获得此类专家的帮助。目标是使AI算法与训练有素的语音专家一样好,以便该诊断工具也可以在资源较少的领域使用。这将改善患者的预后并促进医疗保健的公平性。

该项目与现有的语音数据使用有何不同?

尽管语音数据的初步工作很有希望,但以前的研究存在严重的局限性,因此将语音作为生物标志物整合到临床实践中一直具有挑战性。例如,以前的研究只使用小数据集,对于临床使用,我们需要基于非常大数字的有力证据。此外,过去的研究存在伦理问题,例如谁拥有语音数据,如何保护患者隐私以及缺乏多样性。例如,如果所有样本都来自一个种族或年龄组,或一种性别,则开发的诊断工具可能对其他人效果较差。为了解决这些问题,“声音作为健康的生物标志物”项目正在创建一个大型、高质量、多机构和多样化的语音数据库。我们的数据将无法识别或受身份保护,这意味着语音样本不会与有关患者的其他数据相关联,例如人口统计、医学成像和基因组学。

那么涉及哪些道德问题呢?

我很高兴你问,因为位于UdeM和Simon Fraser大学的加拿大团队 - 由伦理学家Jean-Christophe Belisle-Pipon领导,他是UdeM的兼职教授和SFU的助理教授 - 将专注于这引发的道德,法律和社会问题。我们对这一巨大努力的独特贡献将是发展必要的治理,以确保所有这一切都以负责任的方式完成。

有些问题是新颖的,因为语音还不是临床护理的一部分。目前没有适当的最佳实践、法规和保障措施供其使用。我们的团队将是开发它们的人。例如,由于语音如此容易收集,因此这项技术实际上加剧了隐私问题,这几乎是自相矛盾的。我们需要确保患者数据受到保护,并且不会将其用于医疗目的以外的任何用途。

我们需要用从不同人群收集的样本建立这个数据库,以确保未来临床使用这种生物标志物的公平性。我们需要建立同意机制,以确保患者了解他们被记录的目的是什么,以及未来可以做些什么。

我们还需要澄清与语音数据所有权相关的问题:您的语音可以共享或出售吗?谁能从中受益?医疗保健系统、临床医生和患者拥有的数据是否可以与商业实体共享,以开发人工智能模型?这些只是我们将要解决的复杂道德问题的一些例子。

总而言之,这种新技术的使用有多大的革命性?

非常!如果基础设施发展良好,这可能代表国际合作任务的开始,例如人类基因组计划,其中语音数据将被数千名研究人员使用,然后 - 基于该研究 - 由全球临床医生使用。它可以带来新的重要发现,并增强精准医学为患者提供的东西。

语音对个人来说是独一无二的,可以在资源匮乏的环境中以具有成本效益和非侵入性的方式轻松收集。我们希望创建基础设施,以可访问和合乎道德的方式收集语音数据,以便人们在共享语音和相关医疗数据时感到安全。

想象一下这样一个世界,您可以通过移动设备上的专用应用程序记录自己,并将其作为额外的强大诊断工具发送给您的医生!想想看,与提供血液样本或进行CT等成像测试相比,这要容易得多!这就是我们希望成为这项大型研究工作的最终结果。

另一个伦理挑战:使用人工智能绘制人类细胞地图

Ravitsky教授和Bélisle-Pipon教授是第二个20万美元的美国项目的首席研究员,该项目由同一NIH计划Bridge2AI资助,名为“人工智能细胞图谱”。

该项目旨在绘制人类细胞的结构图,并使用这些图谱更好地了解基因型(患者的DNA)和表型(患者所患疾病)之间的关系。

在基因组学中,机器学习模型通常是“黑匣子”。他们使用基因组信息来预测表型,而不解释这种翻译背后的机制。为了解决这一差距,该项目将使用三种互补的绘图方法,以更好地了解结构与其功能之间的关系。

该项目将刺激“可见”机器学习系统的研究和开发,使研究人员和临床医生能够理解人工智能揭示的关系。Ravitsky和Bélisle-Pipon将探索以道德和值得信赖的方式开发这些系统的方法。

“语音数据和人类细胞图谱研究都是新兴的研究领域,目前,关于这项工作的伦理,法律和社会影响几乎没有指导,”Bélisle-Pipon说。

“在Bridge2AI合作中,Ravitsky教授和我本人将有机会识别,预测,解决并为其他研究人员提供指导,这些研究人员创建将编译用于AI应用程序的数据集。我们的工作将预测并解决道德挑战,如包容性、多样性、隐私、同意、数据所有权和共享、人工智能透明度和潜在的偏见。

Ravitsky补充说:“我们打算通过连续统一体使用伦理调查方法,从数据生成和人工智能研发开始,继续到数据集的临床采用,并扩展到下游患者健康决策和结果。