课程名称:LLM大模型工程师入门实战

课程简介

本课程是一门系统化、从零到一的大语言模型(LLM)实战教程。从LLM基础概念讲起,涵盖开发环境搭建、HuggingFace训练GPT-2、提示词工程、Python/深度学习基础、Transformer架构解析、从零实现迷你GPT、模型微调、知识蒸馏、RAG检索增强生成、Agent与MCP等核心技术。课程包含大量代码实战,适合想系统学习大模型原理与应用的学员。



课程内容详情(共19章)

第1章 LLM大模型工程师入门实战 - 课程导学


编号课程标题时长
1-1LLM开发工程师入门实战-课程导学.mp406:47

第2章 千里之行,始于足下:初识大语言模型


编号课程标题时长
2-1开启你的AI智慧之旅-本章导学.mp403:08
2-2开启你的AI智慧之旅-初识大语言模型.mp404:37
2-3开启你的AI智慧之旅-大语言模型擅长的事儿.mp405:28
2-4开启你的AI智慧之旅-大语言模型的诞生过程.mp405:32
2-5开启你的AI智慧之旅-从0到1构建大语言模型的意义.mp404:12
2-6开启你的AI智慧之旅-大语言模型的局限性与挑战.mp406:38
2-7开启你的AI智慧之旅-大语言模型的未来展望.mp402:50

第3章 工欲善其事,必先利其器:开发环境的搭建


编号课程标题时长
3-1开发环境搭建-导学.mp404:43
3-2开发环境搭建-MiniConda安装与使用.mp410:08
3-3开发环境搭建-使用pip命令安装依赖包.mp411:08
3-4开发环境搭建-VsCode的配置.mp407:47
3-5开发环境搭建-手攒超级计算机-硬件.mp410:43
3-6Linux下Nvidia驱动的安装.mp405:57
3-7Windows下Nvidia驱动的安装.mp406:28
3-8使用Docker搭建环境(一).mp408:17
3-9使用Docker搭建环境(二).mp408:26
3-10申请阿里云的免费GPU和CPU资源.mp411:23
3-11申请Kaggle的免费GPU和CPU资源.mp406:48
3-12申请Google的免费GPU和CPU资源.mp404:40

第4章 牛刀小试:使用HuggingFace训练GPT-2


编号课程标题时长
4-1使用HuggingFace训练GPT2-导学.mp402:48
4-2HuggingFace简介.mp404:48
4-3使用HuggingFace训练GPT2-基本步骤.mp412:06
4-4使用HuggingFace训练GPT2-全流程体验.mp413:24
4-5详解group_text的实现.mp412:45
4-6详解generate_text的实现.mp409:09

第5章 提高学习效率:驾驭LLM的对话艺术与工具(初学AI者选看)


编号课程标题时长
5-1提高工作效率-导学.mp404:16
5-2通义灵码与小浣熊.mp410:39
5-3Copilot.mp408:04
5-4Kimi.mp405:53
5-5NewBing.mp408:35
5-6Gemini.mp406:49
5-7Poe.mp408:50
5-8~5-12大语言模型提示词(一~五).mp4共约40分钟
5-13本章小结.mp404:26

第6章 必知必会的基础知识:Python语言基础(没有Python基础者选看)


编号课程标题时长
6-1Python语言基础知识-导学.mp403:46
6-2变量的定义与使用.mp410:30
6-3逻辑判断与优先级.mp415:02
6-4循环.mp411:50
6-5函数的定义与使用.mp406:36
6-6类与对象.mp411:44
6-7四种复合类型.mp415:56
6-8可变变量与不可变变量.mp405:42
6-9特有技术切片.mp410:58
6-10其它特有技术.mp407:34
6-11NumPy库的使用.mp416:02
6-12MatPlotLib库的使用.mp412:45
6-13本章小结.mp402:23

第7章 深度学习核心入门:洞悉AI的学习之道(无深度学习经验者选看)


编号课程标题时长
7-1深度学习核心入门-导学.mp402:04
7-2人工智能、机器学习与深度学习的关系.mp405:05
7-3神经元与神经网络.mp410:49
7-4监督学习与无监督学习.mp409:25
7-5数据集的划分.mp405:03
7-6过拟合、欠拟合与代价函数.mp410:15
7-7代价函数的意义.mp411:15
7-8梯度下降.mp411:20
7-9线性回归代价函数的导数.mp406:08
7-10学习率.mp406:07
7-11逻辑回归.mp408:05
7-12sigmoid激活函数.mp403:46
7-13逻辑回归的代价函数.mp410:36
7-14逻辑回归的梯度下降.mp405:15
7-15逻辑回归代价函数偏导公式证明.mp411:57
7-16深度神经网络与前向传播.mp413:13
7-17多种激活函数.mp409:35
7-18反向传播与计算图.mp407:54
7-19前向传播与反向传播的完整过程.mp405:26

第8章 掌握“炼丹术”:优化深度学习训练参数(无深度学习经验者选看)


编号课程标题时长
8-1优化深度学习训练参数-导学.mp404:48
8-2向量化与矩阵化.mp411:30
8-3L2正则化.mp413:30
8-4Dropout.mp404:14
8-5数据归一化处理.mp406:49
8-6初始化权重参数.mp404:46
8-7全批量梯度下降.mp405:01
8-8随机梯度下降与小批量梯度下降.mp404:42
8-9梯度参数调优.mp407:39
8-10BatchNormalization.mp409:45

第9章 【实战】手写字识别:第一个AI模型诞生记(无深度学习经验者选看)


编号课程标题时长
9-1~9-10手写字识别完整实战(10小节)共约60分钟

第10章 【实战】数据爬取与清洗:为大模型“备粮草”


编号课程标题时长
10-1~10-10网络爬虫实现与数据清洗(10小节)共约70分钟

第11章 让机器读懂文本:文本与分词艺术


编号课程标题时长
11-1~11-12文本向量化、分词、Tokenizer、GPT-tiktoken、Embedding(12小节)共约80分钟

第12章 画龙点睛:注意力机制的奥秘


编号课程标题时长
12-1~12-9注意力机制、QKV、自注意力、注意力分数、代码实现(9小节)共约65分钟

第13章 石破天惊:Transformer架构的革命


编号课程标题时长
13-1~13-7Transformer结构、位置编码、多头注意力、残差网络、掩码注意力(7小节)共约60分钟

第14章 麻雀虽小,五脏俱全:实现“迷你”版大语言模型


编号课程标题时长
14-1~14-27从零实现GPT模型(27小节)共约300分钟

第15章 模型微调与文本分类:让通用模型变身专家


编号课程标题时长
15-1~15-14指令微调、LoRA微调(14小节)共约150分钟

第16章 知识蒸馏:智慧的浓缩与传承


编号课程标题时长
16-1~16-6思维链蒸馏、黑盒/白盒知识蒸馏(6小节)共约90分钟

第17章 减少模型幻觉:为LLM插上RAG的“记忆”之翼


编号课程标题时长
17-1~17-4RAG技术原理与实现(4小节)共约40分钟

第18章 Agent与MCP:从语言到行动的终极进化


编号课程标题时长
18-1~18-8Agent工作原理、模式、工具调用、记忆工程、实现Agent(8小节)共约75分钟

第19章 LLM大模型工程师入门实战 - 课程总结


编号课程标题时长
19-1课程总结.mp406:38


课程统计


统计项数据
总章节数19章
总视频数约180节
预估总时长约25-30小时


学习建议


基础建议路线
零基础第1→2→3→5→6→7→8→9→10→11→12→13→14→15→17→18→19
有Python基础跳过第6章
有深度学习基础跳过第7-9章
有Transformer基础跳过第12-13章


课程特点

  • ✅ 从零到一:无需复杂前置知识,循序渐进
  • ✅ 理论+实战:每个知识点都配有代码实现
  • ✅ 手写Transformer:从零实现迷你GPT模型
  • ✅ 全栈覆盖:爬虫→分词→注意力→Transformer→微调→RAG→Agent
  • ✅ 选看章节:明确标注选看内容,灵活学习