人工智能在医疗健康领域的应用:我们仍在探索中

文摘   2024-08-30 12:40   新加坡  

在数据密集且复杂的医疗体系中,人工智能作为一种能够减轻负担、理清信息并高效利用昂贵资源的工具,其前景无疑令人振奋。然而,人工智能并非单一的技术,而是多层次、多功能的系统,这种复杂性可能导致误解和潜在的风险。


近期,马萨诸塞大学与医疗AI公司Mendel的一项研究发现,几乎所有由两大语言模型生成的医疗记录摘要都存在“幻觉”现象。研究人员警告称,这些摘要中的不一致性和错误推理可能会导致医疗专业人员在处方等领域犯错。


人工智能对患者的影响


让我们考虑一个潜在的场景来探讨人工智能对患者旅程的影响。


‘Mrs Jones’ 正在接受乳腺癌的怀疑检查。在她的就医旅程开始时,她接受了一次乳腺X光检查,该检查通过人工智能技术来检测可能被技术人员遗漏的异常。她所安排的门诊预约由人工智能组织和监督,从而更有效地利用资源。该技术还用于根据 Mrs Jones 的个人偏好和可达性需求选择最合适的预约时间。


门诊预约过程中使用了环境监听技术,人工智能监听患者与临床医生之间的对话,自动生成笔记、任务、检查和建议处方。


在 Mrs Jones 入院接受手术时,环境监听技术也被用于入院和登记过程。同时,算法规则和人工智能被用来分析观察数据,了解她的状态和恶化风险。技术提供了基于多参数的细致AI概览,超越了床边测得的生命体征。


临床医生还利用人工智能工具生成 Mrs Jones 的住院记录。这些记录进一步通过人工智能进行审查,生成临床编码,并警示临床医生可能存在的风险。


失去的人情味


人工智能工具被推广以提高效率、降低成本并改善患者体验。上述描述的许多功能已经得到验证。


近期对临床团队和NHS员工如何看待人工智能的研究显示,虽然普遍愿意接受这一技术,但仍存在对功能、基础设施和治理的疑虑。健康基金会的一项调查显示,NHS员工对人工智能的使用表示支持,但对其实施方式和监督存在一定的谨慎态度。员工们也担心人工智能工作流的冷漠性质和“人情味”的丧失,尤其是在患者与技术互动时。


2022年,NHS AI Labs和NHS England 确认了推动和引导人工智能的多层次需求:包括国家治理者、人工智能倡导者、创建者、实施者和用户。他们强调需要通过教育来提高对人工智能的理解。


人工智能提供了多种工具来改善护理管理。但临床医生往往不了解管理复杂数据与生成内容的人工智能之间的区别。临床医生的认知偏差可能导致他们不成比例地接受或挑战人工智能生成的指导。


建立教育和理解的文化至关重要,以帮助临床医生最大限度地发挥人工智能的作用,并保护自己和患者免受不适当信息的影响。


治理风险的警示


我们还需注意其他治理风险:ChatGPT和Gemini是常见的、免费使用的人工智能平台,但它们旨在用于一般用途,而非复杂医疗数据的分析和解读。因此,如果临床医生选择使用这些平台生成临床叙述或记录,输出内容应谨慎对待,因为人工智能可能会误解或生成“幻觉”现象。更不用说将潜在敏感的患者数据用于核心电子记录之外的风险,或者将生成的内容从一个平台复制粘贴到另一个平台的风险。


数据质量问题


谈及数字和数据库时,我们都知道“垃圾进,垃圾出”的说法。人工智能在我们要求其完成部分工作的情况下,风险似乎可能会加剧。算法偏见和有效训练算法的问题需要被重视,并应考虑到部署风险中;这在使用离散数据或影像解读(如放射学)时尤为重要。


实施后,我们需要有效的基础设施和长期的人员及服务,以监控并保持这些系统的高效运作。人工智能的使用必须得到教育和培训的支持,包括对技术的影响和潜在风险的理解。


2023年,健康科学学会发布了关于医疗人工智能的立场声明,列出了四个关注领域:提高最终用户的信心和信任,增强医疗采纳能力,明确治理结构,建立适合人工智能采纳的系统。


人工智能的能力应与其他数字医疗功能相提并论,并在部署及如何安全有效使用上得到有效支持。


前路漫漫


在NHS的数字系统部署差异巨大背景下,人工智能的有效应用必然面临相同范围的差异。它确实有巨大的潜力改善临床团队的工作生活和患者及服务用户的体验。而人工智能的到来是不可逆转的。


但同样显而易见的是,我们还有很长的路要走。我们必须继续寻找有效支持和利用这一重要工具的方法。我们有责任让患者和服务用户能够信心十足地使用医疗系统,最大化人工智能的价值。

医健网
医健网,关注医疗健康行业的人和事!
 最新文章