提出了低秩适应-知识保留(LORA-KR)损失技术,以比例调整混合维护数据,用于微调LLM。这种方法防止了由混合数据引起的知识冲突,提高了模型在特定维护领域的适应性和推理能力。 此外,采用了基于层次任务的Agent和指令级检索增强生成(RAG)技术来优化生成步骤,并减轻模型无法访问上下文信息时引起的幻觉现象。
提取维护数据(Extraction of maintenance data):
从设备的维护过程中提取相关的维护数据,包括历史维护记录、维护程序文档和其他相关技术信息。
这些数据为模型的训练和优化提供了丰富而准确的数据集。
组织数据格式(Organization of data format):
将收集到的维护数据系统地组织,以满足LLM的数据输入格式要求。
包括数据清洗和转换为标准化、机器可读的格式。
划分训练和测试集(Division of training and test sets):
将整理好的数据分为训练集和测试集。
训练集用于模型训练,测试集用于评估模型性能。
确保数据在划分时具有代表性,以便模型能够充分学习各种维护对象和方案之间的语义和逻辑关系。
基础模型(Base model):
选择一个基础LLM进行进一步的训练和微调。
选择时考虑维护领域特定需求和数据特征,包括语言支持、覆盖范围和预训练数据集的架构。
训练模型(Training model):
使用LORA-KR损失的监督微调技术,结合层次任务基础智能体和指令级RAG技术,对预训练的Transformer模型进行微调。
LoRA优化低秩适应层,通过最小化损失函数调整部分权重,以适应特定领域。
层次任务基础智能体使用LLM作为“大脑”分解维护任务,并使用指令级RAG技术整合外部信息。
测试和评估(Test and evaluation):
使用测试数据对模型进行测试,并使用公式、语言模型和手动评估进行全面评估,确保在实际维护场景中的适用性。
测试数据包括已知和未知的维护对象/场景,以全面评估LLM-R在正常和小数据输入下的泛化能力。
整个过程的目标是使用LLMs分析复杂维护任务,并准确检索相应的维护方案。这种方法优化了传统IETMs中存在的机械输入问题,显著提高了维护人员处理复杂任务的效率。
指令级RAG(Instruction-level RAG):
指令级RAG技术作为智能体的核心工具,用于提高检索特定维护对象方案的效率和准确性。
用户或智能体识别维护任务的关键词后,这些关键词被输入到RAG工具中,转换为模型可以处理的向量格式,并与数据库中向量化的数据匹配,以找到最相似的项。
RAG在检索阶段使用BERT编码器进行最大内积搜索(MIPS),以选择相关的文本块用于生成输出。
LORA-KR损失(Supervised Fine-Tuning of LORA-KR loss):
LORA-KR损失是一种新的正则化方法,结合了特定任务损失和领域独立知识正则化,以在微调模型时保持预训练知识领域的一致性。
包括任务特定损失(ℒCE)和领域独立正则化损失(ℒKL),通过动态调整权重(w)来平衡这两种损失。
LORA-KR损失通过结合任务特定交叉熵损失和领域独立KL散度正则化损失,在LoRA梯度更新中保持模型对原始预训练领域知识的记忆力,同时适应新任务领域。
层次化任务基础智能体(Hierarchical Task-Based Agent):
为了克服LLM在处理未知或高度复杂需求时可能出现的幻觉现象,采用了层次化任务基础Agent技术。
LLM作为“中央大脑”组织和总结信息,而智能体作为“助手”提供额外的具体信息支持。
设计了三个具有不同功能的智能体,都使用微调后的ChatGLM3模型作为基础,分别负责解析用户输入、提供定制解决方案和将解决方案返回给基础LLM进行进一步优化。
为了验证所提出方法在维护任务中的有效性,使用不同领域的对象构建了一个维护方案数据集。实验结果表明,所提出方法生成的维护方案的准确率达到了91.59%,这表明了其在提高维护方案的智能性和引入设备维护的新技术方法方面的改进。
https://arxiv.org/abs/2411.04476
LLM-R: A Framework for Domain-Adaptive Maintenance Scheme Generation Combining Hierarchical Agents and RAG
来源 | PaperAgent