本文详细介绍了从零构建大语言模型的四个阶段:预训练(通过海量语料教授基础知识)、指令微调(使模型遵循指令)、偏好微调(利用人类偏好数据通过RLHF对齐价值观)和推理微调(激发模型推理能力)。从随机初始化开始,通过这四个阶段逐步优化模型,使其从"词语接龙"转变为能够对话、回答问题、总结内容、编写代码等复杂任务的高性能大模型。
导读
本文将介绍从零开始构建大语言模型并使其适用于现实世界应用场景的四个阶段。涵盖:1. 预训练, 2. 指令微调, 3. 偏好微调, 4. 推理微调。
阶段0 :随机初始化的LLM
此阶段,模型的参数是随机或基于某种分布随机初始化的,也就是说此时模型是一无所知的。你问它“什么是LLM?”,会得到一串胡言乱语的回复,也就是next token是随机,随机的“词语接龙”。因为此时它尚未见过任何训练数据,只拥有随机的权重。
此阶段你需要知道的是(训练)一个decoder-only架构的大语言模型由哪些部分组成:
- Tokenizer:分词器;
- Embedding Block: 文本/多模态嵌入;
- Positional embedding:位置嵌入/RoPE;
- Attention Block:注意力模块,MHA/MQA/GQA/MLA;
- Masked Attention:掩码注意力机制(训练阶段),Causal Masking;
- MLP/MOE;
- Engram:Conditional Memory;
- RMSNorm与残差连接;
- AdamW …
阶段1 :预训练
此阶段通过在海量语料库上训练模型预测下一个token(令牌/词元),来教授 LLM 语言基础知识。通过这种方式,它吸收了语法、世界知识等。
由于训练方法的原因导致它不善于对话,它只是在你输入的prompt之后接续生成文本,也就是词语接龙。
在阶段0你了解了一个大语言模型构成,到达此阶段你需要了解的是训练框架的选择以及准备预训练语料库。当然预训练一个大语言模型涉及到AI infra,计算集群、通信与存储、分布式训练等等,这是一个大工程。
阶段2 :指令微调
为了让模型能够对话,我们可以使用指令-响应对进行指令微调。这有助于大模型学习如何遵循提示并格式化回复。
现在它可以:
- 回答问题
- 总结内容
- 编写代码,等等。
此阶段你可能需要了解的是参数微调的一些高效方式(PEFT),比如LoRA及其变体,基于Prompt的微调,比如Prefix-Tuning、P-Tuning等,还有一类是Adapter Tuning,通过插入适配器的方式。
这时候一些微调框架是你所需要的,比如Peft、Lamma-factory、unsloth等。
你可能还需要注意的是不同的开源模型使用的微调数据集的组织形式有所不同,比如ChatML、ShareGPT等,Qwen系列模型送入模型训练的格式就是使用的类似ChatML的格式。
微调仅仅是微调,因此你只需要几个epochs就可以了,小心造成大模型的灾难性遗忘问题。
至此,我们可能已经利用了整个原始互联网存档知识,投入了预算用于人工标注指令-响应数据。那么,我们能做些什么来进一步改进模型呢?我们进入了强化学习的领域。
阶段3 :偏好微调
你一定在 ChatGPT 上见过这个界面,它问:你更喜欢哪个回答?
回复 1
感谢您提供详细的错误信息和最新代码。这个错误似乎与“collate_fn”函数内部如何处理数据有关。让我们通过修正“collate_fn”以正确处理来自xxx的数据格式来解决此问题。
- 更新“collate_fn”函数:该函数应直接处理从“GPT2Dataset”接收到的张量列表,而无需像处理字典格式数据那样尝试提取“input_ids”和“attention_mask”。
- 移除诊断打印语句:“collate_fn”中的诊断打印语句不再必要,可以移除以清理函数。
以下是更新后的“collate_fn”:
代码略…
请务必将脚本中现有的“collate_fn”函数替换为此更新版本。用“pad_sequence”函数确保一个批次中的所有序列具有相同长度,并且创建的“attention_mask” 与 “input_ids”形状相同,所有元素设为1(因为所有词元都是…
回复 2
感谢您提供详细信息和当前代码状态。问题似乎出在“collate_fn”函数中。具体来说,是“input_ids”和“attention_mask”被提取和处理的方式。
在您的xxx类中,“samples”列表中的每一项都是一个表示分词后输入ID的张量。“collate_fn”函数应正确处理这些张量。以下是修改后的“collate_fn”及其集成方式:
更新“collate_fn”函数:
由于“data”中的每一项都是张量(而非字典),我们直接处理这些张量。
我们使用“pad_sequence”将所有张量填充到相同长度。
对于注意力掩码,我们创建一个与“input_ids”形状相同,并在“input_ids”非填充位置设为1的掩码。
确保在您的“DataLoader”中使用此“collate_fn”:
代码略…
这不仅仅是为了反馈,更是宝贵的人类偏好数据。OpenAI 利用这些数据通过偏好微调来微调他们的模型。
在偏好微调中:
用户在两个回答之间进行选择,以产生人类偏好数据。
然后训练一个奖励模型来预测人类偏好,并使用强化学习来更新 LLM。
上述过程称为RLHF,而用于更新模型权重的算法称为PPO。
它教会 LLM 即使在没有“正确”答案时也能与人类价值观对齐。
此阶段你需要有一些强化学习的知识,需要厘清一些强化学习的概念。比如PPO所需要的四个模型,奖励模型、价值模型、参考模型和策略模型,以及4个模型之间的协作方式,On-policy以及Off-policy。除了PPO之外,还有一些PPO算法的演进算法,比如TRPO,deepseek用的GRPO,Qwen用的GSPO等。当然最简单的DPO算法也许也会有一些作用。
偏好微调的框架比如Hugging Face的开源库trl、OpenRLHF等。
阶段4 :推理微调
在推理任务(数学、逻辑等)中,通常只有一个正确的回答和一系列确定的步骤来获得答案。所以我们不需要人类的偏好,我们可以用正确性作为信号。这叫做推理微调。
当然,大模型本身具有推理能力,只是这种能力没有直接形成文本生成出来,我们要解决的是激发它的这种推理能力,使其显式的生成正确推理内容。
推理微调步骤:
- 模型对输入的Prompt生成答案。
- 将答案与已知正确答案进行比较。
- 根据正确性分配奖励。
这被称为带可验证奖励的强化学习。DeepSeek 的 GRPO 是这方面的一种流行技术。
使模型显式输出推理除了推理微调之外,通过提示器工程来激发是一种trainning free的方法,不过要保证推理的准确性就需要微调了。
以上就是训练 LLM 的四个阶段。
从一个随机初始化的模型开始。在大规模语料库上进行预训练。使用指令微调使其遵循指令。使用偏好和推理微调来优化回答。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。