跳转至

第 0 章:大模型岗位地图与学习路线

本章定位

很多人学大模型时,最容易遇到的问题不是不够努力,而是路线不清晰:

  • 不知道应该先补基础,还是直接做项目
  • 不知道自己更适合算法、应用还是平台工程
  • 不知道学到什么程度,才算具备求职竞争力

这一章的作用,就是先把方向、路径和产出这三件事讲清楚。

它不是技术细节章节,而是整套笔记的导航页。这一章负责回答三个问题:

  • LLM 方向到底有哪些岗位
  • 不同岗位分别要求什么能力
  • 这套笔记应该怎么学、学到什么程度够求职

你会得到什么

  • 一张 LLM 岗位地图
  • 一份按阶段推进的学习路线
  • 一套和项目产出绑定的求职节奏

LLM 方向常见岗位地图

从求职视角看,大模型相关岗位大致可以分成四类。

1. LLM 算法 / 训练方向

这类岗位关注模型本身怎么训练、怎么优化、怎么评估。

典型关键词:

  • 预训练
  • SFT
  • RLHF / DPO
  • Scaling Law
  • Evaluation
  • 数据配比与训练策略

更看重的能力:

  • Transformer 和语言模型原理
  • PyTorch 训练能力
  • 论文阅读与复现
  • 实验设计与结果分析

2. LLM 应用 / Agent / RAG 方向

这类岗位关注如何把模型接到真实业务里,做出可用系统。

典型关键词:

  • Prompt Engineering
  • RAG
  • Embedding Retrieval
  • Agent
  • Tool Calling
  • 工作流编排

更看重的能力:

  • LLM 应用架构设计
  • 检索、召回、重排、生成链路理解
  • API 和工程整合能力
  • Demo、产品化和效果评估

3. LLM 平台 / Infra / 推理部署方向

这类岗位关注模型如何稳定、高效、低成本地运行。

典型关键词:

  • Serving
  • vLLM
  • 推理加速
  • 显存优化
  • 部署监控
  • GPU / 分布式训练

更看重的能力:

  • 系统能力
  • CUDA / GPU 基础
  • 模型部署和性能优化
  • 工程稳定性与可观测性

4. 通用 AI 工程方向

这类岗位通常介于算法和应用之间,要求既能理解模型,也能完成业务落地。

典型关键词:

  • 模型接入
  • 数据处理
  • 微调
  • RAG
  • 评测
  • 后端服务开发

更看重的能力:

  • 一定的原理理解
  • 一定的训练经验
  • 较完整的工程实现能力
  • 能独立完成项目闭环

不同岗位分别需要学到什么程度

可以粗略理解成三层能力。

第一层:能解释

你知道一个模块是什么、为什么存在、解决什么问题。

例如:

  • Attention 为什么比传统序列模型更适合长距离依赖
  • SFT、RAG、Agent 分别解决什么问题
  • LoRA 为什么能降低微调成本

第二层:能实现

你能把它写出来、跑起来、调通。

例如:

  • 用 PyTorch 写训练循环
  • 从零实现一个 Mini-GPT
  • 搭一个可运行的 RAG 系统
  • 做一次 LoRA 微调并完成评估

第三层:能分析和展示

你不只是做过,还能说明设计选择、实验结果和失败案例。

例如:

  • 为什么选择这个 tokenizer、数据集和评估指标
  • 为什么模型效果不好
  • bad case 来自检索、生成还是数据问题
  • 如何把项目整理成 README、图表和简历表述

求职时,真正拉开差距的通常是第三层能力。

这套笔记应该怎么学

这套笔记推荐按下面的顺序推进。

Part 1:基础补齐

先补齐最小必要基础:

  • 机器学习与深度学习核心概念
  • PyTorch
  • 训练循环
  • 反向传播、loss、优化器

Part 2:语言模型基础

建立语言模型发展的上下文:

  • NLP 基础
  • 文本表示
  • n-gram
  • 神经语言模型

Part 3:Transformer 核心

这一部分是LLM领域最重要的主干(暂时):

  • Attention 机制
  • Transformer 架构
  • 从零实现一个 Mini-GPT

如果这一部分能真正吃透,后面的预训练、微调、RAG、Agent 会顺很多。

Part 4:现代 LLM 训练流程

在理解结构之后,再进入完整训练链路:

  • Tokenizer 与数据处理
  • 预训练
  • Scaling Law
  • LLM 评估

Part 5:后训练与微调

这一部分连接研究与应用:

  • SFT
  • LoRA / QLoRA / PEFT
  • RLHF / DPO / RLAIF

Part 6:LLM 应用工程

最后进入真实项目落地:

  • Embedding 与检索
  • RAG
  • Agent 与 Tool Calling
  • LLMOps / 部署 / 生产化

学到什么程度才够求职

一个更实际的标准不是我是不是全懂了,而是你是否已经具备下面这些可展示产出:

  • 一个 from-scratch Mini-GPT 项目
  • 一个微调项目
  • 一个 RAG 或 Agent 项目
  • 一套实验记录和评估分析
  • 一份清晰的 README 和项目说明

也就是说,目标不是学过很多概念,而是:

  • 能讲清原理
  • 能写出代码
  • 能复现实验
  • 能整理成作品集

推荐的学习-项目绑定方式

建议每学完一个阶段,就同步产出一个可以展示的成果:

  • 学完 Transformer:做 Mini-GPT from Scratch
  • 学完微调:做 LoRA Fine-tuning
  • 学完检索与生成:做 Course Notes RAG Assistant
  • 学完评估:做 LLM Evaluation Benchmark

这样整套学习过程会自然沉淀成求职材料,而不是学完就散掉。

这一章之后怎么读

如果你已经有机器学习基础,建议直接进入:

  • 第 1 章:机器学习与深度学习最小必要基础
  • 第 2 章:PyTorch 与训练循环
  • 第 3 章:NLP 基础与文本表示

如果你已经会 PyTorch,可以把重点放在:

  • Part 3:Transformer 核心
  • Part 4:现代 LLM 训练流程
  • Part 6:LLM 应用工程

本章小结

这一章不解决技术细节,而是解决学习路径问题:

  • 先看清岗位地图
  • 再理解能力要求
  • 然后按主线推进学习
  • 最后把学习沉淀成项目和求职材料

后续整套笔记都会围绕同一件事展开:

不只知道大模型是什么,而是能把它从原理一路走到工程与求职表达。