跳转至
Then Language Generates By Computer

机器于此理解语言

一个AI炼丹师的大模型学习笔记。 从语言模型的底层结构,到训练、微调、RAG、Agent 与部署实践, 把抽象理论压进可运行的实验、项目与长期写作里。

AI Alchemist Transformer Pretraining Finetuning RAG Agent LLMOps
写作定位

面向希望真正理解语言模型内部机制,而不只停留在工具调用层的学习者。

学习目标

把 LLM 的训练链路、应用链路与工程链路串成一条能复现、能解释、能展示的主线。

主线参考

以 from-scratch 视角组织 CS336、Hugging Face LLM Course 与真实项目实践。

开始阅读

如果你是初学者

先把训练闭环、损失函数、梯度、优化器这些地基补稳,再进入大模型主线。

学习主线

机器学习基础
-> 深度学习基础
-> NLP 与语言模型
-> Attention 与 Transformer
-> GPT / LLM from scratch
-> Tokenizer 与预训练
-> SFT / LoRA / RLHF / DPO
-> Embedding / RAG / Agent
-> LLMOps / 部署 / 面试

章节地图

Part 0 · 学习路线与岗位定位

第 0 章:大模型岗位地图与学习路线

Part 1 · 基础补齐

第 1 章:机器学习与深度学习最小必要基础

第 2 章:PyTorch 与训练循环

Part 2 · NLP 与语言模型基础

第 3 章:NLP 基础与文本表示

第 4 章:从 n-gram 到神经语言模型

Part 3 · Transformer 核心

第 5 章:Attention 机制

第 6 章:Transformer 架构

第 7 章:从零实现一个 Mini-GPT

Part 4 · 现代 LLM 训练流程

第 8 章:Tokenizer 与数据处理

第 9 章:预训练 Pretraining

第 10 章:Scaling Law 与大模型为什么变大

第 11 章:LLM 评估

Part 5 · 后训练与微调

第 12 章:SFT

第 13 章:LoRA / QLoRA / PEFT

第 14 章:RLHF / DPO / RLAIF

Part 6 · LLM 应用工程

第 15 章:Embedding、向量数据库与语义检索

第 16 章:RAG 从原理到项目

第 17 章:Agent 与 Tool Calling

第 18 章:LLMOps、部署与生产化

Part 7 · 综合项目与求职准备

附录 A:推荐项目路线

附录 B:每章统一写作模板

附录 C:推荐学习顺序

项目路线

项目 1 · Mini-GPT from Scratch

从零实现 decoder-only GPT,沉淀模型结构图、训练曲线、生成样例和实验分析。

项目 2 · LoRA Fine-tuning 中文任务

使用 Transformers、Datasets、PEFT 完成一个可展示的参数高效微调项目。

项目 3 · Course Notes RAG Assistant

做出一个可运行、可评估、可展示引用来源的课程资料问答系统。

项目 4 · LLM Evaluation Benchmark

自己设计 evaluation set、对比报告和 bad case analysis,补齐评估能力。

推荐先读

适合怎么读

建议阅读方式

推荐按 Part 顺序推进。每学完一个阶段,就同步整理代码实验、笔记、README 和一轮复盘,这样知识才会真正沉淀。

当前说明

  • 当前内容将按新版 18 章主线持续展开。
  • 当前优先会先打磨 Transformer 和 Mini-GPT 相关内容,作为全书样板章。
  • 完整章节提纲、写作模板和推荐顺序见 全书提纲与学习路线

最后更新:2026年4月29日