大模型SFT的局限性

科技   2024-08-30 10:00   上海  

今天看到了一个问题“为什么要做RLHF,SFT不够吗?” 很多大佬都分享了自己做RLHF的一些经验和心得。收获蛮多的同时,我留意到,大佬们都在说RLHF有多重要,怎么优化RLHF,RLHF能带来多大的提升,却并没有直面这个问题:为什么非做RLHF不可呢?或者说,用 reward_model 清洗和制造SFT数据能不能取代RLHF呢?

下面我分享一些自己的看法,希望能和大家一起探讨。

一、SFT 无法提供负反馈

sft 的训练过程,是一个让模型学习条件概率的过程,Prob( E | ABCD )。这也就是说,模型在训练和学习过程中,只知道 next_token 出什么是正确的,而不知道 next_token 出什么是错误的。无论你的 sft 语料如何构造,都无济于事,模型不知道“什么 token 是不能生成的”。

这也间接解释了另外一个现象:为什么 sft 的数据多样性很重要。因为没办法, 我们无法直接让模型知道错误的 token 是什么,但只要我们把正确的 token 都喂给它学习,孤立那个错误的 token,似乎也能起到类似的效果。可以这么认为,sft 一直在通过“孤立”来降低错误 token 的出现概率

(非常像我研究生时期的一件趣事,导师觉着我们中有人向他汇报敷衍,就说:“给大家留点面子,我就不点名批评不认真汇报的同学了,我表扬一下认真汇报的同学,张三、李四、王五……”)

sft 缺乏负反馈机制引发的糟糕后果,还还远不止此。

举个例子,上学的时候,我们最怕老师教我们什么?最怕老师教我们,“这道题,有些同学容易犯这些错误”,“这句古诗,老有同学把这个字写成那个字”等等。明明我从来不会写错这道题,但老师非要教我,那好,我也成功的记住了错误的答案。

模型亦是如此,你越是在 sft 阶段告诉它什么是错误的,它越是容易提高错误 token 的概率。站在模型的角度来思考,这个现象非常合理:“训练者不断让我提高 Prob( E | ABCD ) 的概率,那我举一反三,顺带提高一下 Prob( E | ACD ) 的概率是不是也合理?训练者是不是应该表扬我?”

可问题是,好巧不巧,B 这个 token,恰好是“not”,恰好是“不”。

我做了一个实验去印证我举的例子,在 qwen2-0.5B 模型上,我用预训练阶段没见过的 special_token,给模型在 sft 阶段注入了一些知识。

训练语料:<reserved_1>最喜欢的人是<reserved_2>

预测语料:<reserved_1>最讨厌的人是

qwen2-0.5B 这个模型不辱使命,成功的帮我续写出了 <reserved_2>。模型固然知道“喜欢”和“讨厌”是完全相反的两个语义,但是奈何 <reserved_2> 这个 token 和 <reserved_1> 这个 token 太熟悉了。

所以,某种意义上,transformer 结构的模型真的很“笨”。当我们被问及谁是生命中重要的人的时候?我们脑海大概率会同时出现喜欢的人和厌恶的人,但我们明确知道,我想起来厌恶的人是因为我一定不能回答这个名字,他在我 next_token_prediction 的时候是个负概率。但模型不知道啊,它只知道这些 token 的 prob 很大,我要选它们作为自己的 next_token,而不会考虑之所以这个 token 概率大,恰恰是因为训练者不希望续写出这个 token。

这里问一个我曾经被问过的问题,“一句绝对正确的话,是不是可以放进 sft 训练语料中?”

我的观点是:不应该,因为一句绝对正确的话,它可能有局部是不正确的,这些局部错误的知识内容也会在 sft 的过程中被模型学到。(这个问题属于开放问题,欢迎大家提出更多看法和间接,个人观点未必正确)

说回正题,sft 没有负反馈,但 rlhf 有啊。reward_model 就像是一个教官,你敢续写出某个不能出的 token,我就抽你,抽到你不敢出这个 token 为止。(当然,续写出了好 token,教官也会给瓶冰可乐)。这可能也是为什么 rlhf 的最大应用方向是安全场景吧,毕竟 sft 真的做不好安全。

二、SFT 不具有“向后看”的能力

sft 的另一个不足,就是它放大了 transformer 单向注意力结构的缺陷。

在 sft 的训练过程中,每一个 token 都只看得见前面的 token。还是那个经典例子,“台湾不是中国的,这个观点是严重错误的”。无论你用什么炼丹技巧来做 sft,Prob(中国 | 台湾不是) 的概率都是在增加的,模型无法利用“后半个句子在否定前半句子“这个重要信息。

那 rlhf 是怎么学习这句话呢?首先这句话是正确的,他会得到一个正向的 reward_model,但这句话中的每个 token 又不是同等正确的。如果对 critic_model 进行可视化,它大概率会在 reward 反向衰减传递的时候,把最大的奖励赏赐给“错误 ”这个 token,而“中国 ”这个 token 可能并不会得到很多的 reward。

所以,sft 在更新某个 token 的概率的时候,是只参考前面信息的,是一种局部的有偏的训练方法。但 rlhf 或者 dpo 并不是这样,每一个 token 在更新概率的时候,都是观察到了整个 sentence 的,因而理论上,rlhf 的训练方法能带来更高的训练上限。

换一个角度来说,sft 的 loss 是平均 loss, rlhf 的 loss 是加权 loss。至于怎么加权,去问 reward_model 和 critic_model。

综上所述,我个人认为,除非 sft 的训练方式发生改变(比如每个 token 的 loss,不再是算术平均),否则 rlhf 还是一个不可取代的环节。并不是 sft 不能和 reward_model 进行配合,而是 sft 本身的局限性实在太大了。当下,OpenAI 告诉我们 rlhf 是一种弥补 sft 局限性的方法,而 Google 会不会在未来会提出更好的方案也说不定。

我本人并没有深入做过RLHF,这些都属于我的个人理解,还望大佬纠正。

后台回复关键词【进群

加入大模型/CV/NLP/推荐/算法求职交流群

后台回复关键词【大模

获取118篇2024最新大模型

代码+论文最全整理

往期推荐

天呐! AI 之王 GPT-6 猎户座 来了!

大模型的基本功

大模型微调到底有没有技术含量

大模型二次开发技术选型思路

我为什么不看好LLM——记过去一年实习经历有感

你好,我是对白,硕士毕业于清华,大厂算法工程师,拿过8家大厂算法岗SSP offer。

创业做过无人机、机器人和互联网+教育,保研清华后开始系统接触AI。

我每周至少更新一篇原创,分享AI算法、技术干货和职场感悟。方关注可加我私信交流点击蓝字查看我的算法学习之路

期待你关注我的公众号,我们一起前行。

您的“点赞/在看/分享”是我坚持的最大动力!

坚持不易,卖萌打滚求鼓励 (ฅ>ω<*ฅ)

分享

收藏

点赞

在看


对白的算法屋
清华大学硕士,大厂算法工程师。写过书,创过业,做过产品,分享技术、快乐、财富与职场。
 最新文章