01
Medical artificial intelligence for clinicians: the lost cognitive perspective
◎ 标题:针对临床医生的医疗人工智能:遗失的认知视角
◎ 摘要:基于人工智能(AI)的医疗决策系统的开发和商业化远远超越了我们对其对临床医生价值的理解。尽管在许多医疗领域都有应用,但我们重点关注通过生态边界推理的概念来描述放射科医生的诊断决策,查看临床医生决策和医疗 AI 模型决策之间的差异,并揭示这些差异给将 AI 整合到放射科带来的根本性挑战。我们认为,临床医生是受环境驱动、有智力资源的决策者,而 AI 模型则是脱离环境、基于相关性的决策者,并讨论了由于这种能力不一致而引发的关于临床医生-AI 互动的误解。我们概述了未来关于临床医生-AI 互动的研究如何更好地解决决策过程中的认知因素,并用于提高高风险医疗决策环境中 AI 模型的安全性和可用性。
Figure:Three levels of analysis—behavioural, cognitive, and cognitive model
02
Evolution of Future Medical AI Models — From Task-Specific, Disease-Centric to Universal Health
◎ 标题:未来医疗人工智能模型的演变 — 从特定任务、以疾病为中心到普适健康
◎ 摘要:医疗人工智能(MAI)已经从传统的机器学习发展到深度学习,从监督方法论转向无监督学习范式。最近,焦点已从特定任务转向了通用医疗人工智能(GMAI)模型。这些新的人工智能(AI)模型和算法仍然需要在各种环境中转化为临床应用。本文讨论了从专门的 MAI 模型向更普遍适用模型的可预见过渡。我们引入了两个概念作为新范式:通用医疗人工智能(UMAI)和通用健康人工智能(UHAI)。UMAI 模型将通过其模拟在临床实践中必要的人类智能关键方面的能力来区别于 GMAI,特别是医生的同理心和直觉。UHAI 进一步扩展到超越疾病状态的领域,这是 UMAI 的一个领域,并涵盖健康维护和疾病预防,从仅依赖传统临床数据转向整合更广泛的非临床数据,以便将人工智能纳入对人类健康和疾病起源更全面的理解。在这里概述了从 GMAI 到 UMAI 再到 UHAI 的关键研究重点和未来发展方向,使人工智能能够更加整合、直观,并且更加关注患者、医生和社会的需求。
03
The Future of Intelligent Healthcare: A Systematic Analysis and Discussion on the Integration and Impact of Robots Using Large Language Models for Healthcare
◎ 标题:智能医疗的未来:系统分析和讨论利用大型语言模型在医疗领域中的机器人集成和影响
◎ 摘要:大型语言模型(LLMs)在医疗机器人中的潜在应用可以帮助解决世界范围内医疗系统面临的巨大需求,这主要是由于人口老龄化和医疗专业人员短缺。尽管 LLMs 已经被集成到医疗领域以协助医务人员和患者,但 LLMs 在医疗机器人中的应用还未在临床环境中得到探索。在本文中,我们研究了机器人学和 LLMs 的开创性发展,以独特地确定设计针对医疗的基于 LLMs 的机器人所需的系统要求,包括通过人机交互(HRI)实现多模态交流、语义推理和任务规划。此外,我们还讨论了这一新兴创新领域的伦理问题、开放挑战和潜在的未来研究方向。
◎ 作者:Pashangpour, Souren, et al.
◎ 发表日期:2024-07-23
◎ 发表期刊:Robotics
Figure:LLM-embedded framework architecture for socially assistive robot in design 1.
04
Toward Clinical Generative AI: Conceptual Framewor
◎ 标题:面向临床生成AI的概念框架
◎ 摘要:临床决策是医疗保健的一个关键方面,涉及平衡整合科学证据、临床判断、伦理考量和患者参与。这一过程是动态和多方面的,依赖于临床医生的知识、经验和直觉理解来通过知情、以证据为基础的选择实现最佳患者结果。生成式人工智能(AI)的出现为临床决策提供了革命性的机会。AI 的先进数据分析和模式识别能力可以显著提高疾病诊断和治疗,处理大量医疗数据以识别模式、定制治疗方案、预测疾病进程并协助前瞻性患者管理。然而,将 AI 纳入临床决策过程也引发了对 AI 生成见解的可靠性和准确性的担忧。为了解决这些担忧,本文提出了 11 个"验证范式",每个范式都是一种独特的方法来验证 AI 在临床决策中的循证性。本文还提出了"临床可解释、公平和负责任的、临床医生、专家和患者参与的 AI"的概念。这个模型着眼于确保 AI 的可理解性、协作性和道德基础,倡导 AI 作为一个辅助工具,其决策过程对临床医生和患者来说是透明和可理解的。AI 的集成应该增强而不是取代临床医生的判断,并应基于实际结果以及道德和法律合规性进行持续学习和适应。总之,尽管生成式 AI 在增强临床决策方面前景广阔,但确保其产生循证、可靠和有影响力的知识至关重要。采用概述的范式和方法可以帮助医疗和患者社区利用人工智能的潜力,同时维护高标准的患者护理。
◎ 作者:Nicola Luigi Bragazzi,Sergio Garbarino
◎ 发表日期:2024-07-06
◎ 发表期刊:JMIR AI
◎ 原文链接:https://ai.jmir.org/2024/1/e55957/
Figure:Integrating clinical expertise with artificial intelligence (AI) for enhanced health care outcomes—a schematic representation of the flow and interplay among traditional clinical reasoning, data acquisition, AI-driven predictive analytics, and the continuous learning cycle leading to improved patient care and diagnostics. This figure was created with BioRender.com.
05
Towards Human-AI Collaboration in Healthcare: Guided Deferral Systems with Large Language Models
◎ 标题:在医疗领域实现人工智能协作:大型语言模型指导的延迟系统
◎ 摘要:大型语言模型(LLMs)为医疗保健领域的各种应用提供了有价值的技术,但它们产生幻觉的倾向在关键决策情况下引入了不可接受的不确定性。人机协作(HAIC)可以通过结合人类和人工智能的优势来降低这种不确定性,从而获得更好的结果。本文提出了一种新颖的引导性延迟系统,当人工智能将病例延迟给人类决策者时,该系统提供智能指导。我们利用LLMs的言语化能力和内部状态来构建这个系统,并证明用来自大规模LLMs的数据对小规模LLMs进行精细调整,可以在保持计算效率和数据隐私的同时大幅提高性能。一项试点研究展示了我们提出的延迟系统的有效性。
◎ 作者:Joshua Strong, Qianhui Men, et al
◎ 发表日期:2024-07-03
◎ 发表期刊:arXiv preprint
Figure: Our guided deferral system.