大模型原理学习笔记
一、理解大模型要先抓住哪条主线
大模型原理最容易学乱,因为术语很多:Transformer、预训练、SFT、RLHF、DPO、蒸馏、MoE……
如果只背名词,很快就会混。
更好的理解顺序是:
- 先理解 Transformer 为什么能建模长文本
- 再理解预训练为什么能让模型“会说话”
- 再理解微调和对齐为什么能让模型“更听话”
- 最后理解推理、部署与优化为什么影响真实体验
二、Transformer 是什么
大语言模型的核心架构大多来自 Transformer。
它相较于传统 RNN/LSTM 的关键突破是:
- 更容易并行训练
- 更擅长处理长距离依赖
- 更适合大规模数据和大参数量扩展
2.1 Attention 的直觉理解
Attention 可以理解成:
模型在生成当前词时,会去看输入序列中哪些位置最相关
比如句子:
小明把球给了小红,因为她要去上课。
模型在理解“她”指代谁时,就需要关注上下文中的人物关系。
Attention 的作用,就是动态决定“看哪里更重要”。
2.2 Self-Attention 的作用
Self-Attention 指的是:
- 序列中的每个 token
- 都可以和同一序列里其他 token 建立关联
它的结果是:
- 模型更容易建模上下文关系
- 更适合自然语言这种强上下文任务
三、为什么预训练能让模型变强
预训练本质上是在做一件事:
用海量文本让模型学习语言分布
在训练时,模型并不是“背答案”,而是不断学习:
- 哪些词更可能一起出现
- 什么样的句式更自然
- 哪些知识在语料里更常见
3.1 预训练阶段模型学到了什么
- 语言模式
- 常识知识
- 写作结构
- 指令跟随的基础能力
但要注意:
预训练后的模型并不一定“擅长完成任务”,它更像一个会续写文本的强大语言引擎。
3.2 为什么预训练最烧钱
因为它通常具备这些特征:
- 数据量最大
- 训练时间最长
- 计算资源消耗最高
所以在工业实践里,预训练往往是成本最高的一步。
四、为什么还需要微调
光靠预训练,模型虽然“会说”,但不一定“会按要求做”。
于是就有了后续的微调与对齐训练。
4.1 SFT(监督微调)
SFT 即 Supervised Fine-Tuning。
可以理解为:
- 给模型输入“问题”
- 同时提供“高质量示范答案”
- 让模型学会在任务场景下输出更符合要求的结果
适用目标:
- 学会问答格式
- 学会写总结、翻译、代码解释等任务输出
- 提升任务可控性
4.2 奖励模型与对齐
模型不只是要“像人类那样回答”,还要:
- 更安全
- 更有帮助
- 更符合偏好
因此会有偏好数据和奖励模型,用来评估“哪个回答更好”。
五、RLHF 与 DPO 怎么理解
5.1 RLHF(基于人类反馈的强化学习)
RLHF 的大致流程是:
- 模型先输出多个候选回答
- 人类对这些回答做偏好排序
- 训练奖励模型学习人类偏好
- 再通过强化学习优化主模型
目的不是让模型“更会背知识”,而是让它:
- 更符合人类偏好
- 更少出现危险输出
- 更擅长遵循任务意图
5.2 DPO(直接偏好优化)
DPO 可以看成是对 RLHF 流程的一种简化。
它的特点是:
- 不再显式训练复杂的强化学习环节
- 直接用偏好样本优化模型
优势在于:
- 训练流程更简单
- 工程实现更直接
- 在很多场景下效果足够好
六、现代大模型训练范式可以怎么记
你可以把一条典型训练链路记成:
- Transformer 架构
- 预训练(学语言与知识分布)
- SFT(学任务格式)
- 偏好对齐(RLHF / DPO)
- 推理优化与部署
这条主线比单独记术语更容易掌握。
七、推理阶段为什么也很重要
很多人只盯训练,但真实体验往往取决于推理阶段。
推理时常见关注点包括:
- 首 token 延迟
- 吞吐量
- 上下文长度
- 显存占用
- 输出稳定性
7.1 为什么同一个模型体验差异很大
因为最终体验不仅由模型参数决定,还受这些因素影响:
- 推理框架
- 量化方式
- 缓存机制
- GPU / CPU 性能
- 系统提示词与采样参数
八、开源模型与闭源模型的核心差异
8.1 开源模型优势
- 可私有化部署
- 可微调
- 可控性更强
- 成本更可预测
8.2 闭源模型优势
- 整体能力通常更强
- 对齐质量更成熟
- 工程体验更完整
实际项目里常见思路不是“只选一种”,而是:
- 通用复杂任务用闭源
- 高隐私、低成本、可定制任务用开源
九、学习大模型原理时最容易踩的坑
9.1 只背缩写,不理解目的
比如:
- 只记住 SFT、RLHF、DPO 名字
- 但不知道它们分别解决什么问题
更好的问法应该是:
- 这一步是为了学语言?
- 还是为了学任务?
- 还是为了学偏好?
9.2 只盯参数量,不看系统能力
参数量大不等于一定更好。
真实效果还和:
- 训练数据质量
- 对齐质量
- 工程实现
- 工具调用能力
密切相关。
十、总结
理解大模型原理,最有效的方式不是一上来扎进公式,而是先抓住这条主线:
Transformer 负责建模
预训练负责学语言
SFT 负责学任务
对齐训练负责学偏好
推理优化负责真实体验
只要这条线理顺,后面的术语和训练方法就不会再乱。
延伸阅读
- Attention Is All You Need: https://arxiv.org/abs/1706.03762
- Direct Preference Optimization: https://arxiv.org/abs/2305.18290

