一、理解大模型要先抓住哪条主线

大模型原理最容易学乱,因为术语很多:Transformer、预训练、SFT、RLHF、DPO、蒸馏、MoE……

如果只背名词,很快就会混。

更好的理解顺序是:

  1. 先理解 Transformer 为什么能建模长文本
  2. 再理解预训练为什么能让模型“会说话”
  3. 再理解微调和对齐为什么能让模型“更听话”
  4. 最后理解推理、部署与优化为什么影响真实体验

二、Transformer 是什么

大语言模型的核心架构大多来自 Transformer。

它相较于传统 RNN/LSTM 的关键突破是:

  • 更容易并行训练
  • 更擅长处理长距离依赖
  • 更适合大规模数据和大参数量扩展

2.1 Attention 的直觉理解

Attention 可以理解成:

模型在生成当前词时,会去看输入序列中哪些位置最相关

比如句子:

小明把球给了小红,因为她要去上课。

模型在理解“她”指代谁时,就需要关注上下文中的人物关系。
Attention 的作用,就是动态决定“看哪里更重要”。

2.2 Self-Attention 的作用

Self-Attention 指的是:

  • 序列中的每个 token
  • 都可以和同一序列里其他 token 建立关联

它的结果是:

  • 模型更容易建模上下文关系
  • 更适合自然语言这种强上下文任务

三、为什么预训练能让模型变强

预训练本质上是在做一件事:

用海量文本让模型学习语言分布

在训练时,模型并不是“背答案”,而是不断学习:

  • 哪些词更可能一起出现
  • 什么样的句式更自然
  • 哪些知识在语料里更常见

3.1 预训练阶段模型学到了什么

  • 语言模式
  • 常识知识
  • 写作结构
  • 指令跟随的基础能力

但要注意:

预训练后的模型并不一定“擅长完成任务”,它更像一个会续写文本的强大语言引擎

3.2 为什么预训练最烧钱

因为它通常具备这些特征:

  • 数据量最大
  • 训练时间最长
  • 计算资源消耗最高

所以在工业实践里,预训练往往是成本最高的一步。

四、为什么还需要微调

光靠预训练,模型虽然“会说”,但不一定“会按要求做”。

于是就有了后续的微调与对齐训练。

4.1 SFT(监督微调)

SFT 即 Supervised Fine-Tuning。

可以理解为:

  • 给模型输入“问题”
  • 同时提供“高质量示范答案”
  • 让模型学会在任务场景下输出更符合要求的结果

适用目标:

  • 学会问答格式
  • 学会写总结、翻译、代码解释等任务输出
  • 提升任务可控性

4.2 奖励模型与对齐

模型不只是要“像人类那样回答”,还要:

  • 更安全
  • 更有帮助
  • 更符合偏好

因此会有偏好数据和奖励模型,用来评估“哪个回答更好”。

五、RLHF 与 DPO 怎么理解

5.1 RLHF(基于人类反馈的强化学习)

RLHF 的大致流程是:

  1. 模型先输出多个候选回答
  2. 人类对这些回答做偏好排序
  3. 训练奖励模型学习人类偏好
  4. 再通过强化学习优化主模型

目的不是让模型“更会背知识”,而是让它:

  • 更符合人类偏好
  • 更少出现危险输出
  • 更擅长遵循任务意图

5.2 DPO(直接偏好优化)

DPO 可以看成是对 RLHF 流程的一种简化。

它的特点是:

  • 不再显式训练复杂的强化学习环节
  • 直接用偏好样本优化模型

优势在于:

  • 训练流程更简单
  • 工程实现更直接
  • 在很多场景下效果足够好

六、现代大模型训练范式可以怎么记

你可以把一条典型训练链路记成:

  1. Transformer 架构
  2. 预训练(学语言与知识分布)
  3. SFT(学任务格式)
  4. 偏好对齐(RLHF / DPO)
  5. 推理优化与部署

这条主线比单独记术语更容易掌握。

七、推理阶段为什么也很重要

很多人只盯训练,但真实体验往往取决于推理阶段。

推理时常见关注点包括:

  • 首 token 延迟
  • 吞吐量
  • 上下文长度
  • 显存占用
  • 输出稳定性

7.1 为什么同一个模型体验差异很大

因为最终体验不仅由模型参数决定,还受这些因素影响:

  • 推理框架
  • 量化方式
  • 缓存机制
  • GPU / CPU 性能
  • 系统提示词与采样参数

八、开源模型与闭源模型的核心差异

8.1 开源模型优势

  • 可私有化部署
  • 可微调
  • 可控性更强
  • 成本更可预测

8.2 闭源模型优势

  • 整体能力通常更强
  • 对齐质量更成熟
  • 工程体验更完整

实际项目里常见思路不是“只选一种”,而是:

  • 通用复杂任务用闭源
  • 高隐私、低成本、可定制任务用开源

九、学习大模型原理时最容易踩的坑

9.1 只背缩写,不理解目的

比如:

  • 只记住 SFT、RLHF、DPO 名字
  • 但不知道它们分别解决什么问题

更好的问法应该是:

  • 这一步是为了学语言?
  • 还是为了学任务?
  • 还是为了学偏好?

9.2 只盯参数量,不看系统能力

参数量大不等于一定更好。

真实效果还和:

  • 训练数据质量
  • 对齐质量
  • 工程实现
  • 工具调用能力

密切相关。

十、总结

理解大模型原理,最有效的方式不是一上来扎进公式,而是先抓住这条主线:

Transformer 负责建模
预训练负责学语言
SFT 负责学任务
对齐训练负责学偏好
推理优化负责真实体验

只要这条线理顺,后面的术语和训练方法就不会再乱。

延伸阅读