课程名称:LLM大模型工程师入门实战
课程简介
本课程是一门系统化、从零到一的大语言模型(LLM)实战教程。从LLM基础概念讲起,涵盖开发环境搭建、HuggingFace训练GPT-2、提示词工程、Python/深度学习基础、Transformer架构解析、从零实现迷你GPT、模型微调、知识蒸馏、RAG检索增强生成、Agent与MCP等核心技术。课程包含大量代码实战,适合想系统学习大模型原理与应用的学员。
课程内容详情(共19章)
第1章 LLM大模型工程师入门实战 - 课程导学
| 编号 | 课程标题 | 时长 |
|---|
| 1-1 | LLM开发工程师入门实战-课程导学.mp4 | 06:47 |
第2章 千里之行,始于足下:初识大语言模型
| 编号 | 课程标题 | 时长 |
|---|
| 2-1 | 开启你的AI智慧之旅-本章导学.mp4 | 03:08 |
| 2-2 | 开启你的AI智慧之旅-初识大语言模型.mp4 | 04:37 |
| 2-3 | 开启你的AI智慧之旅-大语言模型擅长的事儿.mp4 | 05:28 |
| 2-4 | 开启你的AI智慧之旅-大语言模型的诞生过程.mp4 | 05:32 |
| 2-5 | 开启你的AI智慧之旅-从0到1构建大语言模型的意义.mp4 | 04:12 |
| 2-6 | 开启你的AI智慧之旅-大语言模型的局限性与挑战.mp4 | 06:38 |
| 2-7 | 开启你的AI智慧之旅-大语言模型的未来展望.mp4 | 02:50 |
第3章 工欲善其事,必先利其器:开发环境的搭建
| 编号 | 课程标题 | 时长 |
|---|
| 3-1 | 开发环境搭建-导学.mp4 | 04:43 |
| 3-2 | 开发环境搭建-MiniConda安装与使用.mp4 | 10:08 |
| 3-3 | 开发环境搭建-使用pip命令安装依赖包.mp4 | 11:08 |
| 3-4 | 开发环境搭建-VsCode的配置.mp4 | 07:47 |
| 3-5 | 开发环境搭建-手攒超级计算机-硬件.mp4 | 10:43 |
| 3-6 | Linux下Nvidia驱动的安装.mp4 | 05:57 |
| 3-7 | Windows下Nvidia驱动的安装.mp4 | 06:28 |
| 3-8 | 使用Docker搭建环境(一).mp4 | 08:17 |
| 3-9 | 使用Docker搭建环境(二).mp4 | 08:26 |
| 3-10 | 申请阿里云的免费GPU和CPU资源.mp4 | 11:23 |
| 3-11 | 申请Kaggle的免费GPU和CPU资源.mp4 | 06:48 |
| 3-12 | 申请Google的免费GPU和CPU资源.mp4 | 04:40 |
第4章 牛刀小试:使用HuggingFace训练GPT-2
| 编号 | 课程标题 | 时长 |
|---|
| 4-1 | 使用HuggingFace训练GPT2-导学.mp4 | 02:48 |
| 4-2 | HuggingFace简介.mp4 | 04:48 |
| 4-3 | 使用HuggingFace训练GPT2-基本步骤.mp4 | 12:06 |
| 4-4 | 使用HuggingFace训练GPT2-全流程体验.mp4 | 13:24 |
| 4-5 | 详解group_text的实现.mp4 | 12:45 |
| 4-6 | 详解generate_text的实现.mp4 | 09:09 |
第5章 提高学习效率:驾驭LLM的对话艺术与工具(初学AI者选看)
| 编号 | 课程标题 | 时长 |
|---|
| 5-1 | 提高工作效率-导学.mp4 | 04:16 |
| 5-2 | 通义灵码与小浣熊.mp4 | 10:39 |
| 5-3 | Copilot.mp4 | 08:04 |
| 5-4 | Kimi.mp4 | 05:53 |
| 5-5 | NewBing.mp4 | 08:35 |
| 5-6 | Gemini.mp4 | 06:49 |
| 5-7 | Poe.mp4 | 08:50 |
| 5-8~5-12 | 大语言模型提示词(一~五).mp4 | 共约40分钟 |
| 5-13 | 本章小结.mp4 | 04:26 |
第6章 必知必会的基础知识:Python语言基础(没有Python基础者选看)
| 编号 | 课程标题 | 时长 |
|---|
| 6-1 | Python语言基础知识-导学.mp4 | 03:46 |
| 6-2 | 变量的定义与使用.mp4 | 10:30 |
| 6-3 | 逻辑判断与优先级.mp4 | 15:02 |
| 6-4 | 循环.mp4 | 11:50 |
| 6-5 | 函数的定义与使用.mp4 | 06:36 |
| 6-6 | 类与对象.mp4 | 11:44 |
| 6-7 | 四种复合类型.mp4 | 15:56 |
| 6-8 | 可变变量与不可变变量.mp4 | 05:42 |
| 6-9 | 特有技术切片.mp4 | 10:58 |
| 6-10 | 其它特有技术.mp4 | 07:34 |
| 6-11 | NumPy库的使用.mp4 | 16:02 |
| 6-12 | MatPlotLib库的使用.mp4 | 12:45 |
| 6-13 | 本章小结.mp4 | 02:23 |
第7章 深度学习核心入门:洞悉AI的学习之道(无深度学习经验者选看)
| 编号 | 课程标题 | 时长 |
|---|
| 7-1 | 深度学习核心入门-导学.mp4 | 02:04 |
| 7-2 | 人工智能、机器学习与深度学习的关系.mp4 | 05:05 |
| 7-3 | 神经元与神经网络.mp4 | 10:49 |
| 7-4 | 监督学习与无监督学习.mp4 | 09:25 |
| 7-5 | 数据集的划分.mp4 | 05:03 |
| 7-6 | 过拟合、欠拟合与代价函数.mp4 | 10:15 |
| 7-7 | 代价函数的意义.mp4 | 11:15 |
| 7-8 | 梯度下降.mp4 | 11:20 |
| 7-9 | 线性回归代价函数的导数.mp4 | 06:08 |
| 7-10 | 学习率.mp4 | 06:07 |
| 7-11 | 逻辑回归.mp4 | 08:05 |
| 7-12 | sigmoid激活函数.mp4 | 03:46 |
| 7-13 | 逻辑回归的代价函数.mp4 | 10:36 |
| 7-14 | 逻辑回归的梯度下降.mp4 | 05:15 |
| 7-15 | 逻辑回归代价函数偏导公式证明.mp4 | 11:57 |
| 7-16 | 深度神经网络与前向传播.mp4 | 13:13 |
| 7-17 | 多种激活函数.mp4 | 09:35 |
| 7-18 | 反向传播与计算图.mp4 | 07:54 |
| 7-19 | 前向传播与反向传播的完整过程.mp4 | 05:26 |
第8章 掌握“炼丹术”:优化深度学习训练参数(无深度学习经验者选看)
| 编号 | 课程标题 | 时长 |
|---|
| 8-1 | 优化深度学习训练参数-导学.mp4 | 04:48 |
| 8-2 | 向量化与矩阵化.mp4 | 11:30 |
| 8-3 | L2正则化.mp4 | 13:30 |
| 8-4 | Dropout.mp4 | 04:14 |
| 8-5 | 数据归一化处理.mp4 | 06:49 |
| 8-6 | 初始化权重参数.mp4 | 04:46 |
| 8-7 | 全批量梯度下降.mp4 | 05:01 |
| 8-8 | 随机梯度下降与小批量梯度下降.mp4 | 04:42 |
| 8-9 | 梯度参数调优.mp4 | 07:39 |
| 8-10 | BatchNormalization.mp4 | 09:45 |
第9章 【实战】手写字识别:第一个AI模型诞生记(无深度学习经验者选看)
| 编号 | 课程标题 | 时长 |
|---|
| 9-1~9-10 | 手写字识别完整实战(10小节) | 共约60分钟 |
第10章 【实战】数据爬取与清洗:为大模型“备粮草”
| 编号 | 课程标题 | 时长 |
|---|
| 10-1~10-10 | 网络爬虫实现与数据清洗(10小节) | 共约70分钟 |
第11章 让机器读懂文本:文本与分词艺术
| 编号 | 课程标题 | 时长 |
|---|
| 11-1~11-12 | 文本向量化、分词、Tokenizer、GPT-tiktoken、Embedding(12小节) | 共约80分钟 |
第12章 画龙点睛:注意力机制的奥秘
| 编号 | 课程标题 | 时长 |
|---|
| 12-1~12-9 | 注意力机制、QKV、自注意力、注意力分数、代码实现(9小节) | 共约65分钟 |
第13章 石破天惊:Transformer架构的革命
| 编号 | 课程标题 | 时长 |
|---|
| 13-1~13-7 | Transformer结构、位置编码、多头注意力、残差网络、掩码注意力(7小节) | 共约60分钟 |
第14章 麻雀虽小,五脏俱全:实现“迷你”版大语言模型
| 编号 | 课程标题 | 时长 |
|---|
| 14-1~14-27 | 从零实现GPT模型(27小节) | 共约300分钟 |
第15章 模型微调与文本分类:让通用模型变身专家
| 编号 | 课程标题 | 时长 |
|---|
| 15-1~15-14 | 指令微调、LoRA微调(14小节) | 共约150分钟 |
第16章 知识蒸馏:智慧的浓缩与传承
| 编号 | 课程标题 | 时长 |
|---|
| 16-1~16-6 | 思维链蒸馏、黑盒/白盒知识蒸馏(6小节) | 共约90分钟 |
第17章 减少模型幻觉:为LLM插上RAG的“记忆”之翼
| 编号 | 课程标题 | 时长 |
|---|
| 17-1~17-4 | RAG技术原理与实现(4小节) | 共约40分钟 |
第18章 Agent与MCP:从语言到行动的终极进化
| 编号 | 课程标题 | 时长 |
|---|
| 18-1~18-8 | Agent工作原理、模式、工具调用、记忆工程、实现Agent(8小节) | 共约75分钟 |
第19章 LLM大模型工程师入门实战 - 课程总结
| 编号 | 课程标题 | 时长 |
|---|
| 19-1 | 课程总结.mp4 | 06:38 |
课程统计
| 统计项 | 数据 |
|---|
| 总章节数 | 19章 |
| 总视频数 | 约180节 |
| 预估总时长 | 约25-30小时 |
学习建议
| 基础 | 建议路线 |
|---|
| 零基础 | 第1→2→3→5→6→7→8→9→10→11→12→13→14→15→17→18→19 |
| 有Python基础 | 跳过第6章 |
| 有深度学习基础 | 跳过第7-9章 |
| 有Transformer基础 | 跳过第12-13章 |
课程特点
- ✅ 从零到一:无需复杂前置知识,循序渐进
- ✅ 理论+实战:每个知识点都配有代码实现
- ✅ 手写Transformer:从零实现迷你GPT模型
- ✅ 全栈覆盖:爬虫→分词→注意力→Transformer→微调→RAG→Agent
- ✅ 选看章节:明确标注选看内容,灵活学习