你所需要的是提示工程!Prompting is all you need

文摘   科技   2023-12-06 07:38   广东  

最近一篇《The Unlocking Spell on Base LLMS: Rethinking Alignment via In-Context Learning》 释放基础大语言模型的潜力:通过上下文学习重新思考对齐问题》论文证明一件有趣的事情,论文中的研究者们发现指令微调(Instruct fine-tuning )并不是必要的,你所需要的就是提示工程!

论文通过有力的证据表明用于将大型语言模型“align对齐”成为给力的AI助手的“微调 fine-tuning ”可能大多数时候并不是必要的手段。

随着ChatGPT等大语言模型的巨大成功,研究者们一直致力于如何使LLMs大语言模型更好地适应特定的任务和用户指令,即“对齐”问题。传统的对齐方法依赖于监督式微调(SFT)和基于人类反馈的强化学习(RLHF),但这些方法耗费资源且成本高昂。针对这一挑战,这篇论文提出了一种新颖的解决方案。

论文探讨和验证了一种称为URIAL(未调整LLMs与重样式化上下文对齐)的对齐方法。该方法不依赖于传统的模型微调技术,而是通过在上下文学习中使用精心设计的提示prompting来实现"对齐"。作者通过对比分析显示,即使在没有经过SFT或RLHF处理的情况下,基于URIAL的LLMs也能在许多任务中表现出色。

URIAL的全新简化对齐方法,它完全不使用参数调整。通过仔细选择一些示范性例子和提示,以建立所需的响应结构和语调,URIAL甚至可以在推断时对最大的LLM进行对齐。结果令人震惊——URIAL在有用性、清晰度、准确性、深度和安全性方面与或甚至超越了使用大量数据集进行微调的对齐LLM。

从本质上说,LLMs大语言模型在任何“对齐”之前已经具有了丰富深厚的知识了。微调本身只是教会它们更好地表达。通过提示工程Prompt Engineering的加持来引出知识,可以大幅削减计算成本且释放出同样能力,而无需进行任何权重更新式的微调。这对大模型领域产生的影响是巨大的——无论是在高效评估和比较LLMs大语言模型,还是在以最小的“对齐”努力部署极其高效的AI方面。

总之,复杂的微调可能很好,但优秀的提示Prompting实际上已经就能让我们走得很远了。

论文中URIAL实证结果摘要:

在有用性、清晰度、事实性、深度、参与度和安全性等指标上超过零次提示、基础ICL和检索ICL与基础ICL相比,性能差距尤为显著,与基于调整的对齐的比较

在基础LLM Llama-2-7b上,URIAL达到了SFT调整的Vicuna-7b-v1.5和RLHF调整的Llama-2-7b-chat的性能水平

在强大的基础模型上的URIAL

在Mistral-7b和Llama-2-70b上,URIAL显著优于SFT调整的模型URIAL在Llama-2-70b上达到的综合得分为4.74,与ChatGPT(4.75)和GPT-4(4.80)相当

不同上下文长度的表现

在Llama-2-70b上仅使用1个示例(K=1)即可获得良好的总体表现在3个示例(K=3)时达到性能峰值,超过此数量性能回报递减

总结而言,实证结果显示了URIAL在无需调整的对齐方面的有效性,支持了论文提出的“表面对齐假设”。

参考网址https://allenai.github.io/re-align/index.html

论文网址:https://arxiv.org/abs/2312.01552

光哥说AI
站在数字化战略与工程实践交汇路口的探索者
 最新文章