以下是包含所有视频文件名的详细目录结构:
* **00 直播回放**
* 01 第一次直播答疑回放
* 02 直播梳理LLM原理01
* 03 直播-LLM原理02
* 04 直播-LLM原理-03
* 05 重学langchain01
* 06 重学langchain02
* 07 1.19看看行情
* 08 1.19看看行情
* 09 1.27回放 什么是Skills
* 10 2.9 面试辅导01
* 11 2.9 面试辅导02
* 12 2.9面试辅导03
* 13 3.2 评测集解析
* 14 3.2 面试题解读
* 15 3.4 如何用Ai写自己定制化业务的简历01
* 16 3.4 如何用Ai写定制化的业务简历 02
* 17 3.8 字节面试题赏析
* 18 3.8 xixi同学模拟面试
* 19 3.16 鸭哥26k真题解析 01
* 20 3.16 鸭哥26k真题解析 02
* **01 课程导学**
* 01 Ai的十年我们如何快速成长起来?.mp4
* 02 课程导学(前端赠送视频不包含在本课程内,本课程是AI架构课内容).mp4
* 03 如何交作业?.mp4
* 04 0基础同学看01.mp4
* 05 0基础同学看02.mp4
* **02 Python从入门到精通(新版)**
* 01 课程导学.mp4
* 02 python环境管理与选型.mp4
* 03 安装conda环境.mp4
* 04 使用conda安装python312.mp4
* 05 python环境激活.mp4
* 06 hello world.mp4
* 07 如何理解变量?.mp4
* 08 变量命名规范.mp4
* 09 python中的整数和浮点数运算.mp4
* 10 python中的布尔类型.mp4
* 11 python中的字符串操作.mp4
* 12 python中的一些字符串方法.mp4
* 13 什么是None?.mp4
* 14 类型转换与检查.mp4
* 15 python中的运算符.mp4
* 16 is和==的区别?.mp4
* 17 位运算符(1).mp4
* 17 位运算符.mp4
* 18 列表.mp4
* 19 对列表进行增删改查.mp4
* 20 列表切片与排序(1).mp4
* 20 列表切片与排序.mp4
* 21 深拷贝和浅拷贝的区别.mp4
* 22 元组(1).mp4
* 22 元组.mp4
* 23 字典.mp4
* 24 字典的各种遍历方法.mp4
* 25 什么是json?.mp4
* 26 集合.mp4
* 27 推导式.mp4
* 28 条件判断.mp4
* 29 三元表达式.mp4
* 30 for循环和range.mp4
* 31 while循环01.mp4
* 32 while循环02.mp4
* 33 break continue.mp4
* 34 match case匹配.mp4
* 35 嵌套for循环.mp4
* 36 函数的定义与Ai场景.mp4
* 37 函数的参数.mp4
* 38 可变参数.mp4
* 39 函数的多个返回值.mp4
* 40 LEGB作用域规则.mp4
* 41 作用域与闭包.mp4
* 42 匿名函数.mp4
* 43 模块导入方式.mp4
* 44 自定义模块.mp4
* 45 模块中的name与main.mp4
* 46 __init__ py的作用.mp4
* 47 相对路径和绝对路径包导入.mp4
* 48 __all__的作用.mp4
* 49 为何做Ai应用开发不推荐使用Conda.mp4
* 50 conda包管理.mp4
* 51 pip包管理.mp4
* 52 UV包管理方式.mp4
* 53 在编辑器中切换uv环境.mp4
* 54 什么是Venv.mp4
* **02 Python入门到精通(Ai定制版)**
* 01 conda环境安装.mp4
* 02 conda和python venv虚拟环境的区别?.mp4
* 03 conda的一些常用命令.mp4
* 04 trae编辑器配置.mp4
* 05 遇到conda初始化报错的问题解决.mp4
* 06 python和js有什么本质区别?.mp4
* 07 python为什么不做JIT性能优化?.mp4
* 08 python迎来新的反转加入JIT.mp4
* 09 Pyhton和JS JIT运行机制的区别?.mp4
* 10 Python的前两行恶心的代码在干啥?.mp4
* 11 python基本数据类型.mp4
* 12 python蛋疼的小整数问题.mp4
* 13 浮点数为什么计算不精准?.mp4
* 14 python中字符串的一些常用方法.mp4
* 15 列表和元组的使用.mp4
* 16 字典的使用.mp4
* 17 字典的items操作.mp4
* 18 set的用法.mp4
* 19 流程控制.mp4
* 20 python中的遍历.mp4
* 21 python中恶心的推导式.mp4
* 22 python中的try except错误处理.mp4
* 23 python常用的内置包.mp4
* 24 python第三方包安装与导入.mp4
* 25 python Class初探.mp4
* 26 Class的私有属性.mp4
* 27 继承多态与鸭子类型.mp4
* 28 __slot__限制实例 的属性.mp4
* 29 property装饰器和只读属性.mp4
* 30 python中的多重继承.mp4
* 31 python的文件读写.mp4
* 32 python的异步文件读写.mp4
* 33 使用多线程进行并发请求.mp4
* 34 使用多进程cpu密集计算优化性能.mp4
* 35 环境变量管理.mp4
* 36 日志管理.mp4
* 37 装饰器的使用.mp4
* 38 生成器的使用与应用场景.mp4
* 39 迭代器和生成器的核心区别.mp4
* 40 Iterator的案例演示.mp4
* **03 0基础到Ai衔接部分**
* 01 0基础为什么自己学不会Ai?.mp4
* 02 前端和后台到底是啥玩意?.mp4
* 03 html、css、js分别作用是啥?.mp4
* 04 如何系统性学习前端.mp4
* 05 后台是什么,如何和前端通信的?.mp4
* 06 后台如何系统学习?.mp4
* 07 什么是Ai应用?.mp4
* **04 Ai Agent技术栈概览**
* 01 到底什么是Ai应用?
* 02 Ai应用目前的主流形态
* 03 Ai购买机票业务流程梳理
* 04 我们Ai应用学习的重点
* 05 Rag到底是什么?
* 06 LLM选型与对比
* 07 LLM在Ai应用中目前充当什么角色?
* 08 prompt提示词的5大要素
* 09 什么是MCP?
* 10 LangChian的作用?
* **05 深入理解LLM原理**
* 01 LLM原理学习思路
* 02 神经网络如何用向量解决语义问题?
* 03 神经网络的参数与权重设计
* 04 什么是反向传播?
* 05 如何解决过拟合的问题?
* 06 数据标注是反向传播吗?
* 07 什么梯度下降?解决了什么问题
* 08 神经网络调参的目的到底是什么?
* 09 LLM模型训练的核心流程
* 10 LLM的参数越多越聪明吗?
* 11 LLM参数到底作用于学习还是回答阶段?
* 12 LLM如何回答床前明月光下一句?
* 13 什么是蒸馏模型?
* 14 700亿参数的LLM大概需要什么配置的机器跑?
* 15 为什么LLM需要大量GPU运算?
* 16 什么前馈神经网络?解决什么问题
* 17 transformer架构中的残差连接
* 18 transformer中的问责机制
* 19 GPT为什么是纯解码器方案?
* 20 解码器+编码器的混合架构为什么不是主流?
* 21 LLM中的自回归
* 22 无监督学习的两种常见方案
* 23 为什么主流大模型都用NTP方案?
* 24 指令微调解决的核心问题
* 25 奖励打分机制和强化学习的核心区别?
* 26 700亿模型训练大概需要花多少成本?
* 27 Rag属于强化学习范畴吗?
* 28 大模型的安全与合规性
* 29 LLM神奇的涌现
* 30 如何理解LLM上下文窗口?
* 31 当问答太多,上下文不够咋办?
* 32 LLM为什么对话轮数变多了会变蠢?
* 33 LLM是如何配合Rag工作的?
* 34 LLM是如何识别图像的?学习和训练过程
* 35 transformer进行VIT图像处理的核心流程
* 36 LLM是如何学习和训练音频的?
* 37 LLM是如何理解和学习视频的?
* **06 LLM API系统设计**
* 01 LLM Api目前主流技术方案
* 02 LLM Api购买
* 03 安装SDK环境与技术选型
* 04 图片识别的应用场景
* 05 数据的结构化处理
* 06 使用系统提示词进行结构化输出
* 07 系统提示词和用户提示词的区别?
* 08 大模型如何保持历史会话?
* 09 如何追加assistant历史回复?
* 10 真实后端业务场景中提问追加如何设计?
* 11 LLM对回复进行stream流式输出
* 12 LLM调用工具方法逐行解读
* 13 为什么非深度思考会产生幻觉?
* 14 如何看到LLM的深度思考过程
* 15 一些常见优化建议
* 16 调节思考长度
* 17 回答长度和思维链长度限制
* 18 续写模式的应用场景
* 19 对JSON进行续写
* 20 对续写模式的残缺json进行修复
* 21 如果回复达到限制如何进行续写?
* 22 如果输入和输出都超过长度限制如何处理?
* 23 使用json schema进行格式化输出
* 24 使用json object模型格式化输出
* 25 Respense Api和Chat Api的区别?
* 26 本地图片解析与错误排查技巧
* 27 使用Files Api解析图片
* 28 在线图片url解析
* 29 图片的多种解析方式以及图片消耗token计算
* 30 使用流式输出查看图片解析消耗的token
* 30 使用流式输出查看图片解析消耗的token(1)
* 31 多模态中视频的解析与原理
* 32 标注图片的位置
* 32 标注图片的位置(1)
* 33 Reponse Api缓存机制
* 34 session缓存和前缀缓存的区别?
* 35 LLM联网搜索
* 36 联网搜索实现边想边搜功能
* 37 开通新的模型提供image工具调用能力
* 38 使用image工具数草莓
* 39 提示词prompt优化思路
* **07 Rag检索增强架构设计**
* 01 到底什么Rag检索增强?
* 02 市面主流Ai应用架构设计解析
* 03 为什么现在云服务是主流趋势?
* **08 向量数据库原理解析**
* 01 到底什么是向量?
* 02 点乘查询机制
* 03 向量数据库的索引机制
* 04 数据最终变成向量的产物与特征
* 05 数据转化向量的核心算法
* 06 向量查询点乘算法机制
* 07 向量维度是越多越好吗?
* 08 一本10w字的书是如何进行向量化的?
* 09 返回的内容太长了怎么办?
* 10 面试的核心是吹解决方案
* 11 大量短句如何向量化?
* **09(2.0新版)深入浅出LangChain**
* 01 环境准备
* 02 用一段代码来看langchain的全貌
* 03 LangChain是什么?
* 04 agent返回的response包含哪些内容?
* 05 agent返回的response数据类型到底是什么?
* 06 中间件中的request到底长啥样?
* 07 利用中间件动态选择LLM
* 08 提示词进行结构化输出和toolStrategy的区别
* 09 stream流式输出
* 10 stream的几种不同模式
* 11 我控制台的chunk打字机效果是如何实现的?
* 12 利用tools去查询今天的天气
* 13 使用value模式对tools调用进行流式输出
* 14 使用update模式对tools调用进行流式输出
* 15 message格式定义与建议
* 16 查看message内部结构到底长啥样?
* 17 llm Invoke和agent invoke有啥区别?
* 18 tools状态传递的三种方式
* 19 tools合并优化性能监控
* 20 tools调用性能优化从28s到9s
* 21 max token的核心作用
* 22 看LLM的决策推理和调用tools的过程
* 23 短期记忆state的metadata解析
* 24 短期记忆state全量数据解析
* 25 内置工具解读01
* 26 内置工具解读02
* 27 agent调用的生命周期
* 28 wrap tools和model的生命周期
* 29 动态提示词生命周期钩子
* 30 生命周期钩子的各种应用场景
* 31 定义个最小化的mcp服务
* 32 到底什么是MCP?
* 33 在langchain中调用天气查询mcp服务
* 34 mcp改成http服务
* **10 从原理学习LangChain使用(旧版)**
* 01 LangChain学习思路
* 02 接入豆包模型
* 03 1.0版本中的LCEL管道语法
* 04 销售应用进行结构化输出
* 05 temperature参数的作用
* 06 理解代码即提示词
* 07 tool_choice开启特权通道
* 08 借助langChain Ai助手优化代码
* 09 优化1.0新版本代码思路
* 10 langChain历史记录回话管理
* 11 如何定义agent?
* 12 使用可视化界面调试Agent
* 13 开启关闭深度思考性能测试
* 14 为什么关闭深度思考调用tools反而更慢?
* 15 对agent调用过程进行性能优化
* 16 为什么max token影响性能?
* 17 再次优化agent调用性能
* 18 从35s到10s的agent调用优化我们如何吹半个小时?
* 19 多agent订单与查询、人工介入案例
* **10 全面解读LangChain(旧版)**
* 01 全面理解Langchain最好的学习思路
* 02 给tools运行时注入额外装状态
* 03 对LLM进行结构化输出约束
* 04 中间件动态选择模型
* 05 把prompt放到系统提示词提高准确率
* 06 结构化输出与流式输出
* 07 模型的一些常用方法
* 08 消息模块
* 09 工具tools解读
* 10 短期记忆与上下文注入
* 11 stream流式输出
* 12 结构化输出与错误处理
* 13 内置中间件
* 14 model和agent的生命周期
* 15 自定义中间件
* 16 高级用法-守卫
* 17 高级用法-runtime
* 18 高级用法-上下文
* 19 context和store维护上下文的区别?
* 20 高级功能-人工介入
* 21 高级功能-多agent
* 22 高级功能-多agent-subAgent
* 23 高级功能-handoffs
* 24 总结
* **10(2.0新版)LangGraph深入浅出**
* 01 LangGraph你好
* 02 LangGraph条件判断
* 03 逐行解读LangGraph入门案例
* 04 checkpointer属性解读
* 05 查看LLM、tools调用之后的checkpointer
* 06 中断流程业务与思路梳理
* 07 用graph实现一个完整的中断恢复案例01
* 08 用graph实现一个完整的中断恢复案例02
* 09 用graph实现一个完整的中断恢复案例03
* 10 用graph实现一个完整的中断恢复案例04
* 11 用graph实现一个完整的中断恢复案例05
* 12 InMemoryStore和InMemorySaver的区别?
* 13 SubGraph是什么以及应用场景
* **11 LangGraph全解析(旧版)**
* 01 node和edge核心概念
* 02 流程条件判断
* 03 langGraph意图识别回复邮件案例
* 04 讲笑话流程案例
* 05 并行讲故事、合并案例
* 06 用路由决定讲故事案例
* 07 工作流程-剩余内容
* 08 持久化-存档点位信息
* 09 持久化-命名空间
* 10 持久化-对store进行向量存储
* 11 持久化工作流
* 12 graph中的stream
* 13 中断实际场景中3方的配合
* 14 中断在Ai应用中前端、后台、Ai是如何配合的?
* 15 关于中断有几点要特别注意的
* 16 利用时间旅行恢复节点运行
* 17 graph中子图的作用
* **12 LangChain实战案例(旧版)**
* 01 跑通豆包embedding模型api
* 02 利用豆包进行store向量化模糊搜索
* 03 ChromaDB向量数据库-补充
* 04 向量数据库的训练过程
* 05 向量数据库的存储和查询过程
* 06 ChromaDB最简案例
* 07 向量数据库中的距离表示
* 08 为什么笔记本屏幕不错和笔记本毫不相关?
* 09 如何提升向量数据库的检索精度?
* 10 改成cosine方式优化文本检索精度
* 11 ChromaDB中的查询操作符
* 12 ChromaDB查询、删除操作
* 13 长文本切片存储与向量查询
* 14 为什么我用ChromaDB查询原文都查不到?
* 15 解决ChromaDB查询中文不精准问题
* 16 为什么distance最小的结果反而不准?
* 17 ChromaDB查询之后给到什么数据LLM?
* 18 向量存储的ID设计
* 19 ChromaDB实现文搜图
* 20 如何理解机器学习中的张量?
* 21 ChromaDB实现图搜图
* 22 观察图片处理之后实际存储到向量数据库中的大小
* **13 LangSmith链路追踪监控**
* 01 开通langSmith账户
* 02 用LangSmith对火山引擎的数据进行监控
* 03 改写LangChain底层的Embbeding类兼容火山引擎
* 04 traceable中支持的run_type类型
* 05 改进之后的trace追踪
* 06 逐行断点解读trace业务代码
* 07 Rag检索增强架构改造
* 08 查看Smith检索LLM数据
* **14 项目1:一阶段 Ai实时语音对话-智能客服**
* 01 项目规划
* 02 项目架构设计与梳理
* 03 Ai应用开发前端、后台、Ai是如何配合工作的?
* 04 复杂的Ai应用开发到底应该做什么?
* 05 我们的项目结构设计
* 06 环境安装,运行前端、后台项目
* 07 项目底座介绍
* 08 使用Trae和Cursor改写Nodejs服务为Python版本
* 09 使用Gemini3 Por生成Python版本服务
* 10 优化Gemini3生成版本
* 11 api密钥与服务开通
* 12 逐行解读python main流程1
* 13 逐行解读python main流程2
* 14 RTC业务逻辑梳理1
* 15 Rtc业务架构设计2
* 16 RTC业务流程梳理3
* 17 RTC业务流程梳理4
* 18 RTC业务流程梳理5
* 19 RTC业务梳理6
* 20 RTC业务流程梳理7
* 21 RTC业务流程梳理8
* 22 RTC业务流程梳理9
* 23 RTC业务流程梳理10
* 24 RTC业务流程梳理10
* **15 项目1:二阶段 LLM RAG架构**
* 01 项目架构设计核心思路
* 02 将LLM部分独立出来
* 03 Rtc给第三方LLM推流架构解析
* 04 uv和ngrok环境准备
* 05 LLM的欢迎语是哪里来的?
* 06 项目改造的核心第一步
* 07 getScenes接口逻辑梳理
* 08 配置密钥环境
* 09 远程启动、停止agent接口服务实现
* 10 指挥ai生成符合sse协议llm回复
* 11 callback生成sse协议stream流
* 12 什么是sse协议?
* 13 梳理前端数据交互逻辑1
* 14 梳理前端数据交互逻辑2
* 15 客户端接收rtc推送的二进制message消息
* 16 安装浏览器插件查看状态变化
* **16 项目1:阶段三 LLM改造**
* 01 利用swagger搭建LLM调试环境
* 02 定制LLM系统提示词与欢迎语
* 03 设置temperature对回复的影响
* 04 优化提示词格式
* 05 创建知识库环境
* 06 rag知识库技术选型思路
* 07 对LLM的调用时长进行时间监控
* 08 Ai帮我参考知识库文档生成可运行业务代码
* 09 添加知识库service服务
* 10 知识库检索返回的原始信息
* 11 跑通Rag服务并兼容多条数据返回
* 12 将Rag服务接入到测试Api
* 13 修复Rag接入实时对话bug1
* 14 修复Rag接入实时对话bug2
* 15 修复Rag接入实时对话bug3
* 16 修复Rag接入实时对话bug4
* 17 Ai应用开发工程师的核心职能和在企业的工作流程
* **17 项目1:阶段四 难点亮点与优化**
* 01 利用prompt pilot优化提示词
* 02 LLM中的Temperature和Top P参数的区别?
* 03 temperature参数为何可以设置0-2
* 04 利用pilot的测试集去优化prompt提示词提示词
* 05 利用Pilot自动对回复进行评分
* 06 如何将pilot提示词优化写进简历
* 07 知识库检索优化的思路与方向
* 08 稠密向量和稀疏向量的区别
* 09 知识库检索支持的字段与解读
* 10 知识库文档切片优化与辩证思维
* 11 知识库index索引优化
* 12 知识库指定索引算法优化
* 13 知识库检索参数极致优化
* 14 ReRank重排开启和关闭带来的性能影响
* 15 Ai应用项目的性能优化核心思想方针
* 16 在简历中写上项目经历2、3
* 17 python热更新速度优化
* 18 使用Swagger UI构Ai业务调试环境
* 19 从15s到2s极致深度优化LLM推理 01
* 20 从15s到2s极致深度优化LLM推理 02
* 20 从15s到2s极致深度优化LLM推理 02(1)
* 21 利用LLM批量推理构建评测集
* 22 LLM flash、lite、标准版区别
* 23 LLM4种思考模式区别minimal、low、medium、high
* 24 从15s到2s极致深度优化LLM推理 03
* 25 从15s到2s极致深度优化LLM推理 04
* 26 从15s到2s极致深度优化LLM推理 05
* 27 从15s到2s极致深度优化LLM推理 06
* 28 从15s到2s极致深度优化LLM推理 07
* 29 KV缓存和前缀缓存的核心区别
* 30 利用前缀缓存优化LLM性能
* 31 Chat Api和Response Api的区别?
* 32 补充简历经历4、5条
* 33 豆包1.8版本LLM参数解析
* 34 max token调整的意义与作用
* 35 Ai实时对话的Max token设置多少合适?
* 36 Asr双向流优化版带来的性能影响
* 37 Asr情绪检测、敏感词、热词优化
* 38 Asr上层参数调节
* 39 TTS业务参数调节
* 40 TTS上层业务参数解析
* 41 TTS1.0 和 2.0端到端版本的区别
* 42 声音复刻服务开通与配置
* 43 接入声音复刻功能
* 44 火山引擎veRTC服务特点与亮点
* 45 实时语音Agent服务业务优化设计
* 46 补充简历6、7条
* **18 项目2:自媒体运营Agent**
* 01 项目介绍
* 02 项目方案架构设计
* 03 让Gemini生成喂给Claude4.5的提示词
* 04 cursor实现业务功能01
* 05 cursor实现业务功能02
* 06 cursor实现业务功能03
* 07 cursor实现业务功能04
* 08 Main.py生命周期管理
* 09 workflow入口逻辑解读
* 10 graph业务流程图梳理
* 11 逐行解读start接口调用流程与状态流转01
* 12 逐行解读start接口调用流程与状态流转02
* 13 逐行解读resume中断恢复流程与状态流转
* 14 逐行解读审核通过流程结束
* 15 逐行解读审核拒绝流程
* 16 项目版本切换学习方法
* 17 接入LLM Api版本01
* 18 接入LLM Api版本02
* 19 接入LLM Api版本03
* 20 接入LLM Api版本04
* 21 接入LLM Api版本05
* 22 接入LLM Api版本06
* 23 接入LLM Api版本07
* 24 Claude生成vue3.0前端界面
* 25 前端完整流程功能演示
* 26 使用PostgreSQL持久化graph状态01
* 27 postgresql数据库安装
* 28 使用PostgreSQL持久化graph状态02
* 29 使用PostgreSQL持久化graph状态03
* 30 AsyncConnectionPool数据库连接池的作用
* 31 PostgreSQL同步Checkpointer数据核心4个步骤
* 32 postgre中的4张表到底存的啥?01
* 33 postgre中的4张表到底存的啥?02
* 34 新增graph历史记录功能
* 35 新增graph历史记录功能02
* 36 新增graph历史记录功能03
* 37 项目重点梳理与学习重点
* **19 项目2:难点亮点与优化**
* 01 难点亮点梳理
* 02 难点亮点梳理
* 03 LLM耗时统计与token使用量核心逻辑梳理
* 04 SubGraph子图设计模式解析
* 05 将选题流程抽象为subgraph
* 06 将图片生成改为并行模式
* 07 新增流式输出功能
* 08 流式输出核心思路解析与踩坑
* 09 多模型路由策略针对性优化链路性能
* 10 流式输出和非流式输出影响checkpointer存储的结果吗?
* 11 graph流式输出逐行解读
* 12 LLM结构化输出优化
* 13 LLM结构化输出功能验证
* 14 Rag检索增强优化
* 15 数据库连接池参数调整与优化
* 16 全链路状态追踪LangSmith接入
* 17 B端C端业务指标埋点
* 18 业务日志收集与服务
* 19 内容安全审查与用户数据脱敏
* 20 JWT认证授权机制
* 21 JWT补充内容
* 22 SSO单点登录与Auth2.0
* 23 关于项目面试技巧的思考
* 24 配置管理与灰度AB测试
* 25 不同业务的模板扩展
* 26 MCP服务划分与设计
* 27 健康检查与优雅关闭
* 28 Api版本控制
* 29 Api限流与熔断真实企业的四层架构
* 30 用户反馈闭环建立评测集
* 31 错误处理降级和熔断的区别?
* 32 项目中__init__py的作用?
* 33 图片生成失败与敏感信息处理
* 34 Graph流程节点性能优化
* 35 图片大模型升级到顶级Nano Banan模型
* **20 项目2:逐行解读项目代码**
* 01 入口文件解读
* 02 日志系统 ContextVar管理requestid
* 03 逐行解读日志系统
* 04 graph主流程源码解析
* 05 thread接口解析
* 06 流式输出代码解析
* 07 文章生成是如何进行六十输出的?
* 08 图片生成逻辑解读
* 09 系统日志与LLM脱敏设计
* 10 整体项目的架构设计
* 11 登录逻辑解读 01
* 12 登录逻辑解读 02
* 13 登录逻辑解读 03
* 14 登录逻辑解读 04
* 15 为什么现在流行JWT?
* **21 数据标注平台搭建与Label Studio实战**
* 01 什么是数据标注
* 02 标注出来的数据到底是做什么用的?
* 03 Label Studio环境安装
* 04 案例1: 电商评论情绪识别
* 05 案例2:图片标注案例
* 06 案例3:用选择题训练模型
* **22 模型微调与主流方案解析**
* 01 SFT和DPO的区别?
* 02 SFT的两种主流训练数据格式
* 03 SFT中的数据清洗与数据质量
* 04 模型训练Lora方案解读
* 05 Lora的4个核心调节参数解析
* 05 偏好对齐Dto的数据格式要求
* 06 DPO方案的局限与未来展望
* **23 项目3:LLaMA-Factory+Lora模型微调实战**
* 01 环境安装
* 02 lora环境搭建
* 03 Cuda环境问题解决与显卡驱动
* 04 Lora训练结果解析
* 05 案例1 电商评论情感分析
* 06 案例1 开始训练Qwen模型
* 07 案例1 真实企业场景对数据量的要求?
* 08 案例1 学习率参数应该如何调整?
* 09 案例1 训练轮数参数调节
* 10 案例1 模型参数的选择
* 11 案例1 模型训练完的效果
* 12 案例1 模型第二次训练效果2
* 13 案例1 模型第3、4次训练与优化
* 14 案例1 Warmup Ratio参数在哪?
* **24 Agent集群架构与部署**
* 01 项目部署方案解读
* 02 集群模式下的Ai服务部署方案
* 03 集群模式下的ai服务部署方案
* **25 项目1:线上企业版**
* 01 环境配置
* 02 环境配置02
* **26 实战面试回放**
* 2.25 武汉18k 教授
* 2.25 武汉25k 电商头部 - Trim
* 2.26 武汉边缘面试官18k
* 2.26 深信服18k (重点看)
* 3.9 创业无限画布深圳30k(重点看)-裁切.mp3
* 3.9 字节外包-裁切.mp3
* 3.9 重庆50k-裁切.mp3
* 3.16 深圳30k 两轮已经过了.mp3



