一、指令调优
二、上下文学习
什么是上下文学习(In-contxt Learning)?上下文学习是LLM的一项重要且新兴的能力,它允许模型通过少量示例和可选指令进行学习,并能够在新问题上进行推广,以实现少样本学习并解决复杂且未见过的任务。
在推理阶段,上下文学习(ICL)可以通过在原始样本中添加一个演示集(即一组上下文样本)来实现。这种方法特别适用于解决各种视觉推理任务,以及教导LLM使用外部工具。
在GPT-3中,In-context learning可以分为以下三种情况:
Zero-shot Learning:不给GPT任何样例,仅通过自然语言指令来指导模型完成任务。
One-shot Learning:给GPT一个任务示例,模型根据这个示例来理解任务并生成输出。
Few-shot Learning:给GPT多个任务示例,模型通过这些示例来更好地理解任务并生成输出。
三、Chain-of-Thought(思维链)
什么是Chain-of-Thought?Chain-of-Thought(思维链,简称CoT)是一种改进的提示技术,旨在提升大型语言模型(LLMs)在复杂推理任务上的表现。
Chain-of-Thought要求模型在输出最终答案之前,先展示一系列有逻辑关系的思考步骤或想法,这些步骤相互连接,形成了一个完整的思考过程。
Zero-Shot CoT:在没有示例的情况下,仅仅在指令中添加一行经典的“Let’s think step by step”,就可以激发大模型的推理能力,生成一个回答问题的思维链。
Few-Shot CoT:通过提供几个包含问题、推理过程与答案的示例,让模型学会如何逐步分解问题并进行推理。这种方式需要少量的示例来引导模型,但通常能够获得更好的效果。
将单模态的CoT扩展到多模态CoT,需要填补模态差距。这通常涉及将不同模态的信息进行有效对齐和融合,以便模型能够同时理解和处理来自不同模态的数据。