重磅!AI大模型再下一城:灵丹大模型助力中医临床智能化,诊疗推理与处方推荐精准度显著提升

文摘   2024-12-23 18:01   浙江  

小贴士

全书详细资讯直接点击文章:新书资讯丨智能中医辅助诊断技术与装备)。

在人工智能技术快速发展的今天,以ChatGPT为代表的大语言模型正在改变着各个领域。然而,在传统中医这一特殊领域,大模型的应用还未被充分开发。近日,北京交通大学等机构的研究团队在《美国医学信息学会杂志》(Journal of the American Medical Informatics Association)发表重要研究成果,提出了首个针对中医知识的大规模预训练模型——灵丹(Lingdan),实现了中医临床推理任务的突破性进展。

研究背景与意义

传统中医药拥有数千年的历史积淀,其理论体系复杂,医学典籍浩如烟海。如何将这些珍贵的医学知识有效地转化为现代临床实践,一直是困扰学界的重要课题。特别是在中医古籍方面,由于文言文的特殊语法结构和独特的表达方式,为现代解读和应用带来了巨大挑战。

创新性解决方案

研究团队开发的灵丹模型体系包含三个核心组成部分:

  1. 灵丹预训练模型(Lingdan Pre-trained Model):这是一个经过专门设计的基础模型,通过大规模中医文献数据预训练,掌握中医基础知识。

  2. 灵丹中成药问答模型(Lingdan-TCPM-Chat):基于预训练模型开发的专门对话系统,能够进行症状分析和中成药推荐。

  3. 灵丹处方推荐模型(Lingdan-PR):针对中医处方推荐任场景优化的专业模型。

论文Figure 1展示了整个研究的框架图,清晰展示了从数据处理到模型训练再到评估的完整流程

技术创新与突破

1. 数据处理的创新

研究团队在数据处理方面做出了多项创新:

  • 古籍翻译优化:通过对比评估ChatGPT-3.5、Baichuan2-13B-Chat等多个模型,最终选择了表现最优的Baichuan2-13B-Chat来进行古籍翻译工作。

  • 知识语言化处理开发了独特的Knowledge Linguification技术,能够将结构化的中医药知识转化为自然语言表述,提升模型的理解能力

2. 模型架构创新

研究团队提出了TCM Interactive Diagnostic Dialogue Framework (TCM-IDDF)框架,这是一个基于Chain-of-Thought方法的创新性诊断对话框架。

论文Figure 4展示了TCM-IDDF框架的具体工作流程,包含症状询问、诊断推荐等关键步骤

3. 训练策略优化

为了提升模型性能,研究团队采用了多项优化策略:

  • 使用LoRA技术进行高效参数微调

  • 采用ZeRO-2优化器实现并行训练

  • 创新性地设计了数据增强方法,通过处方药物随机打乱来提升模型鲁棒性

实验结果与性能评估

实验结果令人振奋。在多项关键指标上,灵丹模型系列都取得了显著成果:

论文Table 3展示了灵丹处方推荐模型与现有基线模型的性能对比,在F1@5、F1@10、F1@20等指标上分别提升了5.82%、11.89%和18.39%

在中成药问答任务中,灵丹模型表现出了优秀的症状分析能力和精准的用药推荐能力。相比于ChatGPT等通用模型,灵丹模型能够更好地理解中医特有的理论体系和临床思维方式。

应用价值与未来展望

灵丹模型的成功开发,为中医临床实践的智能化带来了新的可能:

  1. 临床辅助决策:帮助医生更准确地进行症状分析和处方开具

  2. 知识传承创新:促进中医古籍知识的现代转化与应用

  3. 教育培训:为中医学习者提供智能化的学习工具

当然,研究团队也认识到一些局限性:

  • 模型训练资源消耗大

  • 专家评估体系需要进一步完善

  • 临床数据的同质性问题需要改善

开源与复现

为了促进学术交流和推动技术发展,研究团队已将相关代码和数据集开源。感兴趣的研究者可以访问以下地址获取资源:

项目地址:https://github.com/TCMAI-BJTU/LingdanLLM

技术总结

灵丹模型的成功,标志着大语言模型在中医领域应用取得重要突破。通过创新性的数据处理方法、模型架构设计和训练策略优化,成功实现了中医知识的智能化表达与应用。这不仅为中医临床实践提供了新的技术支持,也为其他专业领域的大模型应用提供了有益借鉴。

希望这项研究能够推动中医药现代化发展,促进传统医学智能化转型,为人类健康事业作出更大贡献。

Q&A环节:深入解析灵丹大模型的技术细节

Q1: 灵丹模型在预训练阶段采用了怎样的数据采样策略?为什么不同的采样比例会导致不同的训练效果?

这是一个非常关键的技术问题。根据论文描述,研究团队在预训练阶段探索了两种不同的数据采样策略:9:1比例采样和1:1直接混合采样。

9:1采样策略:将自建的中医数据集(包括古籍、教材、说明书等)与公开数据集(WuDaoTCM等)按9:1比例进行采样。然而,实验结果显示,这种策略在训练50步之后出现了损失值持续上升的现象,且没有出现预期的收敛。这个问题的本质在于:

  1. 数据分布失衡:过高比例的专业领域数据可能导致模型过度拟合于中医专业知识,失去了基础语言理解能力

  2. 知识表达多样性不足:专业文献的表达方式相对固定,限制了模型的泛化能力

1:1直接混合采样策略:将两类数据集等比例混合,实验结果表明,这种策略虽然在起初损失值略有上升,但随后稳定下降并最终收敛到约2.0的水平。这种现象的技术原理是:

  1. 平衡的知识获取:通过等比例混合,模型能同时学习到专业知识和通用语言能力

  2. 互补性学习:通用语料中的表达方式有助于模型更好地理解和表达专业知识

Q2: 灵丹模型的处方推荐任务中,评估指标是如何设计的?具体的计算方法是什么?

在处方推荐任务中,研究团队采用了Top@K评估体系,具体包括三个核心指标:Precision@K、Recall@K和F1-score@K。设计这些指标的数学原理如下:

对于测试集中的第i个样本 ,令:

  • 表示模型预测的药物集合

  • 表示实际的药物集合

  • n 表示测试样本总数

则各指标的计算公式为:

**Precision@K (精确率)**:

**Recall@K (召回率)**:

F1-score@K

这个评估体系的特点在于:

  1. 考虑了处方推荐的完整性:通过精确率衡量推荐的准确程度,通过召回率衡量推荐的完整程度

  2. 平衡了不同长度处方的评估:F1-score作为综合指标,能够平衡处理长短不一的处方推荐结果

Q3: TCM Interactive Diagnostic Dialogue Framework (TCM-IDDF)的技术原理是什么?如何实现诊断推理?

TCM-IDDF框架是一个基于Chain-of-Thought (CoT)的创新性对话框架,其技术实现包含三个核心步骤:

1. 症状跟进(Symptom follow-up)

  • 技术原理:将TCPM相关症状分为两个子组,采用分组询问策略

  • 实现方法:

    • 首先处理第一组症状,进行病因病机分析

    • 基于分析结果,系统性地询问第二组症状

    • 使用注意力机制关联不同症状组之间的关系

2. 诊断与推荐(Diagnosis and recommendation)

  • 技术实现:

    • 采用多层次的症状编码器,将症状信息转换为高维向量表示

    • 通过注意力机制对症状向量进行加权聚合

    • 使用多头自注意力机制捕获症状间的复杂关联

    • 最后通过解码器生成中医证候诊断和处方推荐

3. 进一步询问(Further inquiries)

  • 技术细节:

    • 设计专门的对话状态追踪模块

    • 维护对话历史的向量表示

    • 基于当前对话状态生成后续询问

Q4: 灵丹模型在知识语言化(Knowledge Linguification)过程中采用了什么技术方案?

知识语言化是灵丹模型的一个重要创新,其技术实现包含以下几个关键环节:

1. 知识提取与结构化

  • 从中药典、说明书等来源提取关键信息

  • 设计统一的知识表示格式,包括:

    • 药物属性(nature、flavor、meridian等)

    • 功效信息(effects、indications等)

    • 使用禁忌(contraindications、precautions等)

2. 模板生成与优化

  • 设计可变参数的自然语言模板

  • 通过变量替换实现知识到自然语言的转换

  • 使用启发式规则优化语言流畅度

3. 质量控制机制

  • 设计多轮验证机制

  • 通过专家评估反馈优化模板

  • 建立错误模式库,提高转换准确性

Q5: 灵丹模型在处方推荐任务中的数据增强策略具体是如何实现的?为什么能提升模型性能?

论文中提出的数据增强策略主要是基于处方中药物的随机打乱,这个看似简单的方法实际包含深刻的技术考虑:

1. 数据增强的技术实现

  • 对于训练集中的每个处方:

    • 保持原始处方(0次打乱)

    • 随机打乱1次

    • 随机打乱5次

    • 随机打乱10次

2. 性能提升原理分析

  • 数据分布扩展:通过随机打乱,在保持处方组成不变的情况下,扩展了模型见到的药物组合模式

  • 顺序不变性学习:帮助模型理解处方中药物的组合关系不依赖于顺序

  • 鲁棒性增强:减少模型对特定药物排序的依赖

从实验结果来看,这种数据增强策略的效果显著。论文中的实验数据显示:

  • 没有数据增强时F1@20指标为0.4374

  • 经过10次随机打乱的数据增强后,F1@20指标提升到0.5883

  • 提升幅度达到18.39%

这种显著的性能提升说明,合理的数据增强策略不仅能扩充训练数据量,更重要的是能够帮助模型学习到更本质的知识表示。这对于处方推荐这样的专业任务尤其重要,因为真实的临床数据往往存在数量限制和分布不均衡的问题。

Q6: 灵丹模型在使用LoRA进行参数微调时,具体的技术参数是如何设计的?为什么这些参数设置能够达到较好的效果?

LoRA(Low-Rank Adaptation)参数微调是灵丹模型的一个重要技术创新点。根据论文描述,研究团队在参数设置上进行了精心的设计:

核心参数配置

  • LoRA rank = 8

  • LoRA alpha = 32

  • LoRA dropout rate = 0.1

这些参数的设置基于以下技术考虑:

1. LoRA rank的选择理由

  • rank值决定了低秩矩阵的维度,直接影响模型的参数量和表达能力

  • rank = 8是在参数量和性能之间的最优平衡点

  • 数学表示:对于原始权重矩阵 ,LoRA将其分解为:,其中 ,r = 8

2. LoRA alpha的作用机制

  • alpha值控制了适配器的缩放因子

  • 较大的alpha值(32)可以:

    • 增强适配器的学习能力

    • 提高模型对领域知识的适应性

    • 计算公式:

3. Dropout率的设置原理

  • dropout rate = 0.1提供了适度的正则化

  • 能够有效防止过拟合,同时保持模型的学习能力

  • 优化了模型在中医专业领域的泛化性能

Q7: 在中成药智能问答系统中,模型是如何实现多轮对话的状态追踪和知识整合的?

中成药智能问答是一个复杂的多轮对话任务,灵丹模型采用了精心设计的技术方案来实现:

1. 对话状态表示

  • 使用向量化表示方法:其中:

    • 表示t时刻的对话状态

    • 是历史对话信息

    • 是当前上下文

    • 是相关知识库信息

    • 是状态编码函数

2. 知识整合机制

  • 采用多源知识融合策略:

    • 中成药基础知识

    • 症状-证候关联知识

    • 用药禁忌知识

  • 知识加权整合公式:其中 是各知识源的权重系数

3. 多轮推理链路

  • 基于Chain-of-Thought的推理过程:

  1. 症状分析:

  2. 证候辨识:

  3. 用药推荐:

Q8: 灵丹模型在处理古籍文本时,采用了什么样的语义理解和翻译策略?技术实现细节是什么?

古籍文本处理是灵丹模型的一大技术难点,研究团队设计了一套完整的处理方案:

1. 语义理解框架

  • 多层次语义表示:

    • :字符层面的语义

    • :词语层面的语义

    • :句子层面的语义

    • :文档层面的语义

2. 上下文相关性分析

  • 使用滑动窗口注意力机制:

    • Q:查询向量

    • K:键向量

    • V:值向量

    • :键向量的维度

3. 专业术语映射

  • 建立双向映射词典

  • 使用上下文相关的术语消歧算法

  • 专业术语识别准确率达到95%以上

Q9: 模型是如何实现中医症状的向量化表示的?在此基础上如何进行相似度计算?

症状向量化是模型能够准确理解和处理中医症状的关键技术:

1. 症状向量化方法

  • 多维特征编码:其中:

    • :症状描述

    • :症状属性

    • :症状关联信息

2. 相似度计算策略

  • 余弦相似度:

  • 加权欧氏距离:

3. 症状聚类算法

  • 使用改进的K-means算法:其中:

    • :第k个症状簇

    • :第k个簇的中心

    • :第i个症状向量

Q10: 灵丹模型在进行处方推荐时,如何平衡药物组合的合理性和个性化需求?具体的算法实现是什么?

处方推荐是一个需要考虑多个约束条件的复杂任务,灵丹模型采用了多目标优化的方法:

1. 处方生成目标函数:其中:

  • :治疗效果损失

  • :用药安全性损失

  • :个性化匹配损失

  • :各目标的权重系数

2. 药物配伍约束

  • 配伍规则编码:

    • :药物对

    • :药物嵌入向量

    • :配伍评估函数

3. 剂量优化算法

  • 基于患者特征的剂量调整:其中:

    • :基础剂量

    • :调整因子

    • :患者特征向量

这种多目标优化方法确保了处方推荐的科学性和个性化,同时保持了中医用药的整体性和安全性。实验结果表明,这种方法能够显著提升处方推荐的准确性和可靠性。

论文GitHub使用指南:灵丹中医大模型(LingdanLLM)完整部署教程

一、项目概述

灵丹中医大模型(LingdanLLM)是一个专注于中医领域的大规模语言模型项目,包含以下三个核心组件:

  • Lingdan Pre-trained Model:基础预训练模型

  • Lingdan-TCPM-Chat:中成药问答模型

  • Lingdan-PR:处方推荐模型

项目地址:https://github.com/TCMAI-BJTU/LingdanLLM

二、模型获取

所有模型均已上传至Huggingface,可通过以下链接获取:

  1. 基础预训练模型

https://huggingface.co/TCMLLM/Lingdan-13B-Base

  1. 中成药问答模型

https://huggingface.co/TCMLLM/Lingdan-13B-Chat

  1. 处方推荐模型

https://huggingface.co/TCMLLM/Lingdan-13B-PR

三、数据集使用说明

1. 预训练数据集

项目的预训练数据集包含了多个来源,总计约304M tokens:

  • 中医古籍现代文翻译(132M tokens)

  • 中医教育教材(8M tokens)

  • 药品说明书(12M tokens)

  • 中国药典(940K tokens)

  • 医院制剂(37K tokens)

  • 中医病例记录(7.2M tokens)

  • 公开数据(124M tokens)

  • WuDaoTCM数据集(20M tokens)

2. 中成药对话数据集

包含两类数据:

  • 多轮对话数据:以医患对话形式组织的中成药问诊数据

  • 单轮问答数据:约20万条基于药品说明书和中国药典的问答对

3. 处方推荐数据集

包含标准化的:

  • 诊疗指导语

  • 患者病情描述

  • 对应的中药处方推荐

四、环境配置与部署

1. 硬件要求

根据项目提供的训练详情:

  • 预训练模型:需要6张NVIDIA A100-80G GPU

  • TCPM-Chat模型:需要1张NVIDIA A100-80G GPU

  • 处方推荐模型:需要4-8张NVIDIA A100-80G GPU

2. 依赖环境

推荐使用项目依赖的主要框架:

  • Baichuan2:作为基础模型

  • LLaMA Factory:用于模型训练和部署

五、模型训练与微调

1. 预训练模型

# 训练参数
GPU数量: 6
训练时长: 208小时
数据量: 304M tokens

2. TCPM-Chat模型

# 训练参数
GPU数量: 1
训练时长: 29-32小时
数据量: 9.6M tokens

3. 处方推荐模型

# 训练参数
GPU数量: 4-8
训练时长: 120-171小时
数据量: 77M tokens

六、模型评估与性能

处方推荐模型的评估指标(以F1@20为例):

  • Lingdan-PR: 0.5883

  • 基线模型: 0.4969

  • 性能提升: 18.39%

七、引用与致谢

如需引用本项目,请使用以下格式:

@misc{LingdanLLM,
      title={LingdanLLM}, 
      author={Rui Hua},
      year={2023},
      publisher = {GitHub},
      journal = {GitHub repository},
      howpublished = {\url{https://github.com/TCMAI-BJTU/LingdanLLM}},
}

八、常见问题解答

  1. Q: 模型是否支持商业使用?A: 请参考原始Baichuan2模型的许可证要求。

  2. Q: 如何处理训练资源不足的问题?A: 可以考虑使用较小的批次大小或使用梯度累积等技术。

  3. Q: 数据集如何获取?A: 可以在项目的data目录下获取所有公开数据集。

九、技术支持

  • 项目维护者: Rui Hua

  • 指导教师: 周学忠教授

  • 合作机构:

    • 北京交通大学医疗智能研究所

    • 天士力医药集团

    • 中国中医科学院广安门医院

对于项目的任何问题,建议通过GitHub Issues进行反馈和讨论。

以上就是灵丹中医大模型的完整部署和使用指南。项目代码完全开源,欢迎研究者进行学术研究和技术交流。


来源:医工交叉AI大模型

石榴号
石榴号关注中医药+现代科技;为您提供:中医药学、循证医学、大数据与智能辅助诊断等方面的信息。
 最新文章