一文彻底搞懂多模态 - 大语言模型推理

文摘   科技   2024-10-11 22:39   湖北  
大语言模型推理
大语言模型推理(Large Language Model Reasoning)是一种利用大型语言模型进行的分析、判断和得出结论的过程,这通常涉及到对语言的理解、逻辑关系的把握以及知识的应用等多个方面。在大语言模型推理中,模型能够处理复杂的自然语言输入,理解其含义,并根据这些信息进行推理,最终生成有意义的输出
接下来分三部分:指令调优、上下文学习、思维链一起来深入了解多模态基础:大语言模型推理
大语言模型推理

一、指令调优

什么是指令调优Instruction Tuning指令调优是通过在一组以指令格式组织的数据集上微调预训练的LLM,以实现对未见任务的泛化能力提升。多模态指令调优则是将这种方法扩展到多模态领域。
研究人员通常通过改编现有基准数据集或进行自我指导来获取适用于多模态指令调优的数据集。在模型方面,一种常见的方法是将外部模态信息注入到LLM中,并将其作为强大的推理器。
什么是多模态指令(Multimodal Instruction)?多模态指令数据的基本形式可以概括为(指令,多模态输入,回答)三元组。
一种直观的获得这种数据的方式是改造基准(Benchmark)数据集。例如,图像描述(Image Captioning)数据集,原本包括一张图片和一段文字描述(Ground Truth),这种数据自然构成了指令数据的多模态输入和回答部分,指令部分则为相应任务的描述,一般由人工编写或者调用GPT生成。

二、上下文学习

什么是上下文学习(In-contxt Learning)?上下文学习是LLM的一项重要且新兴的能力,它允许模型通过少量示例和可选指令进行学习,并能够在新问题上进行推广,以实现少样本学习并解决复杂且未见过的任务

在推理阶段,上下文学习(ICL)可以通过在原始样本中添加一个演示集(即一组上下文样本)来实现。这种方法特别适用于解决各种视觉推理任务,以及教导LLM使用外部工具

在GPT-3中,In-context learning可以分为以下三种情况:

  • Zero-shot Learning:不给GPT任何样例,仅通过自然语言指令来指导模型完成任务。

  • One-shot Learning:给GPT一个任务示例,模型根据这个示例来理解任务并生成输出。

  • Few-shot Learning:给GPT多个任务示例,模型通过这些示例来更好地理解任务并生成输出。

三、Chain-of-Thought(思维链)

什么是Chain-of-Thought?Chain-of-Thought(思维链,简称CoT)是一种改进的提示技术,旨在提升大型语言模型(LLMs)在复杂推理任务上的表现。

Chain-of-Thought要求模型在输出最终答案之前,先展示一系列有逻辑关系的思考步骤或想法,这些步骤相互连接,形成了一个完整的思考过程。

Chain-of-Thought可以通过两种主要方式实现:Zero-Shot CoT和Few-Shot CoT。

  • Zero-Shot CoT:在没有示例的情况下,仅仅在指令中添加一行经典的“Let’s think step by step”,就可以激发大模型的推理能力,生成一个回答问题的思维链。

  • Few-Shot CoT:通过提供几个包含问题、推理过程与答案的示例,让模型学会如何逐步分解问题并进行推理。这种方式需要少量的示例来引导模型,但通常能够获得更好的效果。

将单模态的CoT扩展到多模态CoT,需要填补模态差距。这通涉及将不同模态的信息进行有效对齐和融合,以便模型能够同时理解和处理来自不同模态的数据


架构师带你玩转AI
分享人工智能,让所有人玩转AI
 最新文章