第 0 章:大模型岗位地图与学习路线¶
本章定位¶
很多人学大模型时,最容易遇到的问题不是不够努力,而是路线不清晰:
- 不知道应该先补基础,还是直接做项目
- 不知道自己更适合算法、应用还是平台工程
- 不知道学到什么程度,才算具备求职竞争力
这一章的作用,就是先把方向、路径和产出这三件事讲清楚。
它不是技术细节章节,而是整套笔记的导航页。这一章负责回答三个问题:
- LLM 方向到底有哪些岗位
- 不同岗位分别要求什么能力
- 这套笔记应该怎么学、学到什么程度够求职
你会得到什么¶
- 一张 LLM 岗位地图
- 一份按阶段推进的学习路线
- 一套和项目产出绑定的求职节奏
LLM 方向常见岗位地图¶
从求职视角看,大模型相关岗位大致可以分成四类。
1. LLM 算法 / 训练方向¶
这类岗位关注模型本身怎么训练、怎么优化、怎么评估。
典型关键词:
- 预训练
- SFT
- RLHF / DPO
- Scaling Law
- Evaluation
- 数据配比与训练策略
更看重的能力:
- Transformer 和语言模型原理
- PyTorch 训练能力
- 论文阅读与复现
- 实验设计与结果分析
2. LLM 应用 / Agent / RAG 方向¶
这类岗位关注如何把模型接到真实业务里,做出可用系统。
典型关键词:
- Prompt Engineering
- RAG
- Embedding Retrieval
- Agent
- Tool Calling
- 工作流编排
更看重的能力:
- LLM 应用架构设计
- 检索、召回、重排、生成链路理解
- API 和工程整合能力
- Demo、产品化和效果评估
3. LLM 平台 / Infra / 推理部署方向¶
这类岗位关注模型如何稳定、高效、低成本地运行。
典型关键词:
- Serving
- vLLM
- 推理加速
- 显存优化
- 部署监控
- GPU / 分布式训练
更看重的能力:
- 系统能力
- CUDA / GPU 基础
- 模型部署和性能优化
- 工程稳定性与可观测性
4. 通用 AI 工程方向¶
这类岗位通常介于算法和应用之间,要求既能理解模型,也能完成业务落地。
典型关键词:
- 模型接入
- 数据处理
- 微调
- RAG
- 评测
- 后端服务开发
更看重的能力:
- 一定的原理理解
- 一定的训练经验
- 较完整的工程实现能力
- 能独立完成项目闭环
不同岗位分别需要学到什么程度¶
可以粗略理解成三层能力。
第一层:能解释¶
你知道一个模块是什么、为什么存在、解决什么问题。
例如:
- Attention 为什么比传统序列模型更适合长距离依赖
- SFT、RAG、Agent 分别解决什么问题
- LoRA 为什么能降低微调成本
第二层:能实现¶
你能把它写出来、跑起来、调通。
例如:
- 用 PyTorch 写训练循环
- 从零实现一个 Mini-GPT
- 搭一个可运行的 RAG 系统
- 做一次 LoRA 微调并完成评估
第三层:能分析和展示¶
你不只是做过,还能说明设计选择、实验结果和失败案例。
例如:
- 为什么选择这个 tokenizer、数据集和评估指标
- 为什么模型效果不好
- bad case 来自检索、生成还是数据问题
- 如何把项目整理成 README、图表和简历表述
求职时,真正拉开差距的通常是第三层能力。
这套笔记应该怎么学¶
这套笔记推荐按下面的顺序推进。
Part 1:基础补齐¶
先补齐最小必要基础:
- 机器学习与深度学习核心概念
- PyTorch
- 训练循环
- 反向传播、loss、优化器
Part 2:语言模型基础¶
建立语言模型发展的上下文:
- NLP 基础
- 文本表示
- n-gram
- 神经语言模型
Part 3:Transformer 核心¶
这一部分是LLM领域最重要的主干(暂时):
- Attention 机制
- Transformer 架构
- 从零实现一个 Mini-GPT
如果这一部分能真正吃透,后面的预训练、微调、RAG、Agent 会顺很多。
Part 4:现代 LLM 训练流程¶
在理解结构之后,再进入完整训练链路:
- Tokenizer 与数据处理
- 预训练
- Scaling Law
- LLM 评估
Part 5:后训练与微调¶
这一部分连接研究与应用:
- SFT
- LoRA / QLoRA / PEFT
- RLHF / DPO / RLAIF
Part 6:LLM 应用工程¶
最后进入真实项目落地:
- Embedding 与检索
- RAG
- Agent 与 Tool Calling
- LLMOps / 部署 / 生产化
学到什么程度才够求职¶
一个更实际的标准不是我是不是全懂了,而是你是否已经具备下面这些可展示产出:
- 一个 from-scratch Mini-GPT 项目
- 一个微调项目
- 一个 RAG 或 Agent 项目
- 一套实验记录和评估分析
- 一份清晰的 README 和项目说明
也就是说,目标不是学过很多概念,而是:
- 能讲清原理
- 能写出代码
- 能复现实验
- 能整理成作品集
推荐的学习-项目绑定方式¶
建议每学完一个阶段,就同步产出一个可以展示的成果:
- 学完 Transformer:做
Mini-GPT from Scratch - 学完微调:做
LoRA Fine-tuning - 学完检索与生成:做
Course Notes RAG Assistant - 学完评估:做
LLM Evaluation Benchmark
这样整套学习过程会自然沉淀成求职材料,而不是学完就散掉。
这一章之后怎么读¶
如果你已经有机器学习基础,建议直接进入:
- 第 1 章:机器学习与深度学习最小必要基础
- 第 2 章:PyTorch 与训练循环
- 第 3 章:NLP 基础与文本表示
如果你已经会 PyTorch,可以把重点放在:
- Part 3:Transformer 核心
- Part 4:现代 LLM 训练流程
- Part 6:LLM 应用工程
本章小结¶
这一章不解决技术细节,而是解决学习路径问题:
- 先看清岗位地图
- 再理解能力要求
- 然后按主线推进学习
- 最后把学习沉淀成项目和求职材料
后续整套笔记都会围绕同一件事展开:
不只知道大模型是什么,而是能把它从原理一路走到工程与求职表达。