大语言模型是怎么来的?大语言模型的训练过程

站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。
LLM都是如何训练出来的呢?
GPT的训练分为以下3个阶段:
1、预训练Pretrain
2、监督微调SFT (Supervised Fine-Tuning)
3、基于反馈的强化学习RLHF(包含了Reward Model、PPO (Proximal Policy Optimization)
一、Pretrain预训练
在这个阶段,我们不教他具体的专业技能(比如怎么写代码、怎么当医生),而是让他进行海量的广泛阅读。
Pretrain的三个核心步骤:
1. 喂给它海量的书(数据输入)
研究人员把互联网上能找到的几乎所有高质量文本——百科全书、小说、新闻、代码库、论文——全部打包,喂给这个模型。
量级: 这相当于让一个人读了几千万辈子的书。
2. 玩“完形填空”游戏(学习机制)
模型在读这些书时,主要在做一件事:猜下一个字是什么。
- 例子: 看到“床前明月__”,模型要猜出是“光”。
- 原理: 如果猜对了,给予奖励(参数调整);如果猜错了(比如猜成了“饼”),就狠狠修正。
- 结果: 通过千亿次的猜测和修正,模型学会了语言的语法、词语的搭配,以及人类世界的逻辑和常识(比如知道“水是流动的”、“1+1=2”)。
3. 产出“基座模型”(Base Model)
预训练结束后,我们就得到了一个基座模型。
- 它的状态: 它博学多才,什么都知道一点,懂中文也懂英文。
- 它的缺点: 它还很“野”,不懂礼貌,也不知道怎么听指令。如果你问它“怎么做番茄炒蛋?”,它可能会给你续写一段关于番茄的历史,而不是给你食谱。因为它只会“接着往下写”,还不会“回答问题”。
总之,Pretrain(预训练) = 通过海量阅读,学会语言规律和世界知识的过程。它是大模型最昂贵、最耗时的阶段(通常需要几千张显卡跑几个月),是模型能力的地基。这个阶段的大模型说起话来非常像“接话茬”,并不是在“做任务”。
二、SFT(Supervised Fine-Tuning)有监督的微调训练
如果说 Pretrain(预训练) 是让模型在图书馆里泛读万卷书,成了一个博学的“书呆子”。
那么 SFT(Supervised Fine-Tuning,有监督微调) 就是给这个书呆子进行“职业技能培训”,或者是找了个“金牌导师”手把手教它怎么说话。
在这个阶段,我们的目标不再是让它“学知识”,而是让它“懂规矩”。
以下是 SFT 的三个核心变化:
1. 教材变了:从“无字天书”到“习题集”
在预训练阶段,我们给它看的是并没有标注重点的海量文本。而在 SFT 阶段,我们给它看的是高质量的问答对(Q&A)。
人类老师(标注员) 会编写成千上万个例子,告诉模型:“当用户问这个问题时,标准的回答应该是这样的。”
例子:
- 输入: “请把这段话翻译成英文。”
- 标准答案: “Please translate this sentence into English.”
量级: 相比预训练的数据海,SFT 的数据量要小得多(通常是几万到几十万条),但质量要求极高。
2. 教学方式变了:从“瞎猜”到“模仿”
- Pretrain 时: 模型看到“番茄炒蛋”,可能会接着写“是一道中国名菜,起源于……”(因为它在做文本接龙)。
- SFT 时: 老师拿着戒尺站在旁边。模型看到“番茄炒蛋怎么做?”,如果它还想背历史课文,老师会敲它一下,指着标准答案说:“不对!这时候你应该列出步骤:第一步打蛋,第二步切番茄……”
- 效果: 模型开始模仿人类说话的语气、格式和逻辑。它学会了:当人类用问句开头时,我应该提供答案,而不是接着编故事。
3. 身份变了:从“复读机”到“助手”
经过 SFT 之后,这个模型就发生了质的飞跃:
- 听懂指令: 你让它缩写文章,它就不会扩写;你让它写代码,它就不会写诗。
- 格式规范: 它学会了分点作答、使用礼貌用语。
- ChatGPT 的诞生: GPT-3 只是一个预训练模型(书呆子),而 ChatGPT 则是经过了 SFT(以及后续步骤)后的产物(智能助手)。
小结,SFT(指令微调) = 通过高质量的问答范例,教模型如何正确地使用它学到的知识来服务人类。它让模型从“懂语言”变成了“懂人话”。
三、RLHF(Reinforcement Learning from Human Feedback)基于人类反馈的强化学习
如果说 Pretrain(预训练) 造就了博学的“书呆子”,SFT(微调) 把它变成了能干活的“职场新人”;
那么 RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习) 就是给这个新人上的“思想品德课”和“情商培训班”。
在 SFT 阶段,模型虽然学会了回答问题,但它有个大毛病:它不知道哪个答案更好,甚至为了“回答”而撒谎或干坏事。 比如你问“怎么偷东西?”,SFT 模型可能会很详细地教你(因为它觉得回答就是它的工作)。
RLHF 就是为了解决这个问题,给模型“树立三观”。以下是通俗易懂的两个关键环节:
1. 建立“评分老师”(训练奖励模型Reward Model)
我们不再让老师手把手写标准答案了(太累了),而是让模型针对同一个问题生成两个不同的回答,让老师来打分(或者二选一)。
场景: 用户问“怎么制作炸弹?”
- 回答 A: 详细列出化学配方(虽然准确,由于危险,人类老师判0分)。
- 回答 B: “制作炸弹是违法的,我不能帮你,但我可以介绍炸药的历史。”(虽然拒绝了,但符合安全规范,人类老师判100分)。
- 回答 C: 胡言乱语(50分)。
结果: 我们训练出了一个专门的“判卷老师”(Reward Model,奖励模型)。这个判卷老师并不生产内容,它唯一的任务就是:判断这句话人类爱不爱听,符不符合人类的价值观。
2. 疯狂刷题拿奖励(强化学习PPO)
现在,让大模型开始大量做题,然后让刚才训练好的“判卷老师”给它打分。
机制(类似训狗):
- 如果模型生成了一段话,判卷老师给了高分(比如态度谦逊、内容安全),系统就给模型发一个“糖果”(正向反馈),告诉它:“做得好,以后多这样说话!”
- 如果判卷老师给了低分(比如脏话、撒谎、种族歧视),系统就给它一个“惩罚”(负向反馈),告诉它:“错了,以后这种话少说!”
进化: 模型为了以此获得更多的“糖果”,会拼命调整自己的说话方式,去迎合“判卷老师”的喜好。
3. “三观”树立完成
经过 RLHF,模型不仅仅是“能说话”,它变成了符合 3H 原则 的模范生:
- Helpful(有帮助): 甚至能从你模糊的问题中猜到你想问什么。
- Honest(诚实): 不懂装懂的情况变少了(虽然还不能完全根除)。
- Harmless(无害): 拒绝回答违法、暴力、色情的问题,变得非常有“求生欲”。
SFT及RLHF的过程如下图所示:

本文内容仅供参考,不构成任何专业建议。使用本文提供的信息时,请自行判断并承担相应风险。



