今天看到了一个问题“为什么要做RLHF,SFT不够吗?” 很多大佬都分享了自己做RLHF的一些经验和心得。收获蛮多的同时,我留意到,大佬们都在说RLHF有多重要,怎么优化RLHF,RLHF能带来多大的提升,却并没有直面这个问题:为什么非做RLHF不可呢?或者说,用 reward_model 清洗和制造SFT数据能不能取代RLHF呢?
下面我分享一些自己的看法,希望能和大家一起探讨。
一、SFT 无法提供负反馈
sft 的训练过程,是一个让模型学习条件概率的过程,Prob( E | ABCD )。这也就是说,模型在训练和学习过程中,只知道 next_token 出什么是正确的,而不知道 next_token 出什么是错误的。无论你的 sft 语料如何构造,都无济于事,模型不知道“什么 token 是不能生成的”。
这也间接解释了另外一个现象:为什么 sft 的数据多样性很重要。因为没办法, 我们无法直接让模型知道错误的 token 是什么,但只要我们把正确的 token 都喂给它学习,孤立那个错误的 token,似乎也能起到类似的效果。可以这么认为,sft 一直在通过“孤立”来降低错误 token 的出现概率。
(非常像我研究生时期的一件趣事,导师觉着我们中有人向他汇报敷衍,就说:“给大家留点面子,我就不点名批评不认真汇报的同学了,我表扬一下认真汇报的同学,张三、李四、王五……”)
sft 缺乏负反馈机制引发的糟糕后果,还还远不止此。
举个例子,上学的时候,我们最怕老师教我们什么?最怕老师教我们,“这道题,有些同学容易犯这些错误”,“这句古诗,老有同学把这个字写成那个字”等等。明明我从来不会写错这道题,但老师非要教我,那好,我也成功的记住了错误的答案。
模型亦是如此,你越是在 sft 阶段告诉它什么是错误的,它越是容易提高错误 token 的概率。站在模型的角度来思考,这个现象非常合理:“训练者不断让我提高 Prob( E | ABCD ) 的概率,那我举一反三,顺带提高一下 Prob( E | ACD ) 的概率是不是也合理?训练者是不是应该表扬我?”
可问题是,好巧不巧,B 这个 token,恰好是“not”,恰好是“不”。
我做了一个实验去印证我举的例子,在 qwen2-0.5B 模型上,我用预训练阶段没见过的 special_token,给模型在 sft 阶段注入了一些知识。
训练语料:<reserved_1>最喜欢的人是<reserved_2>
预测语料:<reserved_1>最讨厌的人是
qwen2-0.5B 这个模型不辱使命,成功的帮我续写出了 <reserved_2>。模型固然知道“喜欢”和“讨厌”是完全相反的两个语义,但是奈何 <reserved_2> 这个 token 和 <reserved_1> 这个 token 太熟悉了。
所以,某种意义上,transformer 结构的模型真的很“笨”。当我们被问及谁是生命中重要的人的时候?我们脑海大概率会同时出现喜欢的人和厌恶的人,但我们明确知道,我想起来厌恶的人是因为我一定不能回答这个名字,他在我 next_token_prediction 的时候是个负概率。但模型不知道啊,它只知道这些 token 的 prob 很大,我要选它们作为自己的 next_token,而不会考虑之所以这个 token 概率大,恰恰是因为训练者不希望续写出这个 token。
这里问一个我曾经被问过的问题,“一句绝对正确的话,是不是可以放进 sft 训练语料中?”
我的观点是:不应该,因为一句绝对正确的话,它可能有局部是不正确的,这些局部错误的知识内容也会在 sft 的过程中被模型学到。(这个问题属于开放问题,欢迎大家提出更多看法和间接,个人观点未必正确)
说回正题,sft 没有负反馈,但 rlhf 有啊。reward_model 就像是一个教官,你敢续写出某个不能出的 token,我就抽你,抽到你不敢出这个 token 为止。(当然,续写出了好 token,教官也会给瓶冰可乐)。这可能也是为什么 rlhf 的最大应用方向是安全场景吧,毕竟 sft 真的做不好安全。
二、SFT 不具有“向后看”的能力
sft 的另一个不足,就是它放大了 transformer 单向注意力结构的缺陷。
在 sft 的训练过程中,每一个 token 都只看得见前面的 token。还是那个经典例子,“台湾不是中国的,这个观点是严重错误的”。无论你用什么炼丹技巧来做 sft,Prob(中国 | 台湾不是) 的概率都是在增加的,模型无法利用“后半个句子在否定前半句子“这个重要信息。
那 rlhf 是怎么学习这句话呢?首先这句话是正确的,他会得到一个正向的 reward_model,但这句话中的每个 token 又不是同等正确的。如果对 critic_model 进行可视化,它大概率会在 reward 反向衰减传递的时候,把最大的奖励赏赐给“错误 ”这个 token,而“中国 ”这个 token 可能并不会得到很多的 reward。
所以,sft 在更新某个 token 的概率的时候,是只参考前面信息的,是一种局部的有偏的训练方法。但 rlhf 或者 dpo 并不是这样,每一个 token 在更新概率的时候,都是观察到了整个 sentence 的,因而理论上,rlhf 的训练方法能带来更高的训练上限。
换一个角度来说,sft 的 loss 是平均 loss, rlhf 的 loss 是加权 loss。至于怎么加权,去问 reward_model 和 critic_model。
综上所述,我个人认为,除非 sft 的训练方式发生改变(比如每个 token 的 loss,不再是算术平均),否则 rlhf 还是一个不可取代的环节。并不是 sft 不能和 reward_model 进行配合,而是 sft 本身的局限性实在太大了。当下,OpenAI 告诉我们 rlhf 是一种弥补 sft 局限性的方法,而 Google 会不会在未来会提出更好的方案也说不定。
我本人并没有深入做过RLHF,这些都属于我的个人理解,还望大佬纠正。
后台回复关键词【进群】
加入大模型/CV/NLP/推荐/算法求职交流群
后台回复关键词【大模型】
代码+论文最全整理!
往期推荐
天呐! AI 之王 GPT-6 猎户座 来了!
大模型的基本功
大模型微调到底有没有技术含量
大模型二次开发技术选型思路
你好,我是对白,硕士毕业于清华,大厂算法工程师,拿过8家大厂算法岗SSP offer。
创业做过无人机、机器人和互联网+教育,保研清华后开始系统接触AI。
我每周至少更新一篇原创,分享AI算法、技术干货和职场感悟。下方关注可加我私信交流,点击蓝字查看我的算法学习之路。
您的“点赞/在看/分享”是我坚持的最大动力!
坚持不易,卖萌打滚求鼓励 (ฅ>ω<*ฅ)
分享
收藏
点赞
在看