以下是包含所有视频文件名的详细目录结构:

*   **00 直播回放**

   *   01 第一次直播答疑回放

   *   02 直播梳理LLM原理01

   *   03 直播-LLM原理02

   *   04 直播-LLM原理-03

   *   05 重学langchain01

   *   06 重学langchain02

   *   07 1.19看看行情

   *   08 1.19看看行情

   *   09 1.27回放 什么是Skills

   *   10 2.9 面试辅导01

   *   11 2.9 面试辅导02

   *   12 2.9面试辅导03

   *   13 3.2 评测集解析

   *   14 3.2 面试题解读

   *   15 3.4 如何用Ai写自己定制化业务的简历01

   *   16 3.4 如何用Ai写定制化的业务简历 02

   *   17 3.8 字节面试题赏析

   *   18 3.8 xixi同学模拟面试

   *   19 3.16 鸭哥26k真题解析 01

   *   20 3.16 鸭哥26k真题解析 02


*   **01 课程导学**

   *   01 Ai的十年我们如何快速成长起来?.mp4

   *   02 课程导学(前端赠送视频不包含在本课程内,本课程是AI架构课内容).mp4

   *   03 如何交作业?.mp4

   *   04 0基础同学看01.mp4

   *   05 0基础同学看02.mp4


*   **02 Python从入门到精通(新版)**

   *   01 课程导学.mp4

   *   02 python环境管理与选型.mp4

   *   03 安装conda环境.mp4

   *   04 使用conda安装python312.mp4

   *   05 python环境激活.mp4

   *   06 hello world.mp4

   *   07 如何理解变量?.mp4

   *   08 变量命名规范.mp4

   *   09 python中的整数和浮点数运算.mp4

   *   10 python中的布尔类型.mp4

   *   11 python中的字符串操作.mp4

   *   12 python中的一些字符串方法.mp4

   *   13 什么是None?.mp4

   *   14 类型转换与检查.mp4

   *   15 python中的运算符.mp4

   *   16 is和==的区别?.mp4

   *   17 位运算符(1).mp4

   *   17 位运算符.mp4

   *   18 列表.mp4

   *   19 对列表进行增删改查.mp4

   *   20 列表切片与排序(1).mp4

   *   20 列表切片与排序.mp4

   *   21 深拷贝和浅拷贝的区别.mp4

   *   22 元组(1).mp4

   *   22 元组.mp4

   *   23 字典.mp4

   *   24 字典的各种遍历方法.mp4

   *   25 什么是json?.mp4

   *   26 集合.mp4

   *   27 推导式.mp4

   *   28 条件判断.mp4

   *   29 三元表达式.mp4

   *   30 for循环和range.mp4

   *   31 while循环01.mp4

   *   32 while循环02.mp4

   *   33 break continue.mp4

   *   34 match case匹配.mp4

   *   35 嵌套for循环.mp4

   *   36 函数的定义与Ai场景.mp4

   *   37 函数的参数.mp4

   *   38 可变参数.mp4

   *   39 函数的多个返回值.mp4

   *   40 LEGB作用域规则.mp4

   *   41 作用域与闭包.mp4

   *   42 匿名函数.mp4

   *   43 模块导入方式.mp4

   *   44 自定义模块.mp4

   *   45 模块中的name与main.mp4

   *   46 __init__ py的作用.mp4

   *   47 相对路径和绝对路径包导入.mp4

   *   48 __all__的作用.mp4

   *   49 为何做Ai应用开发不推荐使用Conda.mp4

   *   50 conda包管理.mp4

   *   51 pip包管理.mp4

   *   52 UV包管理方式.mp4

   *   53 在编辑器中切换uv环境.mp4

   *   54 什么是Venv.mp4


*   **02 Python入门到精通(Ai定制版)**

   *   01 conda环境安装.mp4

   *   02 conda和python venv虚拟环境的区别?.mp4

   *   03 conda的一些常用命令.mp4

   *   04 trae编辑器配置.mp4

   *   05 遇到conda初始化报错的问题解决.mp4

   *   06 python和js有什么本质区别?.mp4

   *   07 python为什么不做JIT性能优化?.mp4

   *   08 python迎来新的反转加入JIT.mp4

   *   09 Pyhton和JS JIT运行机制的区别?.mp4

   *   10 Python的前两行恶心的代码在干啥?.mp4

   *   11 python基本数据类型.mp4

   *   12 python蛋疼的小整数问题.mp4

   *   13 浮点数为什么计算不精准?.mp4

   *   14 python中字符串的一些常用方法.mp4

   *   15 列表和元组的使用.mp4

   *   16 字典的使用.mp4

   *   17 字典的items操作.mp4

   *   18 set的用法.mp4

   *   19 流程控制.mp4

   *   20 python中的遍历.mp4

   *   21 python中恶心的推导式.mp4

   *   22 python中的try except错误处理.mp4

   *   23 python常用的内置包.mp4

   *   24 python第三方包安装与导入.mp4

   *   25 python Class初探.mp4

   *   26 Class的私有属性.mp4

   *   27 继承多态与鸭子类型.mp4

   *   28 __slot__限制实例 的属性.mp4

   *   29 property装饰器和只读属性.mp4

   *   30 python中的多重继承.mp4

   *   31 python的文件读写.mp4

   *   32 python的异步文件读写.mp4

   *   33 使用多线程进行并发请求.mp4

   *   34 使用多进程cpu密集计算优化性能.mp4

   *   35 环境变量管理.mp4

   *   36 日志管理.mp4

   *   37 装饰器的使用.mp4

   *   38 生成器的使用与应用场景.mp4

   *   39 迭代器和生成器的核心区别.mp4

   *   40 Iterator的案例演示.mp4


*   **03 0基础到Ai衔接部分**

   *   01 0基础为什么自己学不会Ai?.mp4

   *   02 前端和后台到底是啥玩意?.mp4

   *   03 html、css、js分别作用是啥?.mp4

   *   04 如何系统性学习前端.mp4

   *   05 后台是什么,如何和前端通信的?.mp4

   *   06 后台如何系统学习?.mp4

   *   07 什么是Ai应用?.mp4


*   **04 Ai Agent技术栈概览**

   *   01 到底什么是Ai应用?

   *   02 Ai应用目前的主流形态

   *   03 Ai购买机票业务流程梳理

   *   04 我们Ai应用学习的重点

   *   05 Rag到底是什么?

   *   06 LLM选型与对比

   *   07 LLM在Ai应用中目前充当什么角色?

   *   08 prompt提示词的5大要素

   *   09 什么是MCP?

   *   10 LangChian的作用?


*   **05 深入理解LLM原理**

   *   01 LLM原理学习思路

   *   02 神经网络如何用向量解决语义问题?

   *   03 神经网络的参数与权重设计

   *   04 什么是反向传播?

   *   05 如何解决过拟合的问题?

   *   06 数据标注是反向传播吗?

   *   07 什么梯度下降?解决了什么问题

   *   08 神经网络调参的目的到底是什么?

   *   09 LLM模型训练的核心流程

   *   10 LLM的参数越多越聪明吗?

   *   11 LLM参数到底作用于学习还是回答阶段?

   *   12 LLM如何回答床前明月光下一句?

   *   13 什么是蒸馏模型?

   *   14 700亿参数的LLM大概需要什么配置的机器跑?

   *   15 为什么LLM需要大量GPU运算?

   *   16 什么前馈神经网络?解决什么问题

   *   17 transformer架构中的残差连接

   *   18 transformer中的问责机制

   *   19 GPT为什么是纯解码器方案?

   *   20 解码器+编码器的混合架构为什么不是主流?

   *   21 LLM中的自回归

   *   22 无监督学习的两种常见方案

   *   23 为什么主流大模型都用NTP方案?

   *   24 指令微调解决的核心问题

   *   25 奖励打分机制和强化学习的核心区别?

   *   26 700亿模型训练大概需要花多少成本?

   *   27 Rag属于强化学习范畴吗?

   *   28 大模型的安全与合规性

   *   29 LLM神奇的涌现

   *   30 如何理解LLM上下文窗口?

   *   31 当问答太多,上下文不够咋办?

   *   32 LLM为什么对话轮数变多了会变蠢?

   *   33 LLM是如何配合Rag工作的?

   *   34 LLM是如何识别图像的?学习和训练过程

   *   35 transformer进行VIT图像处理的核心流程

   *   36 LLM是如何学习和训练音频的?

   *   37 LLM是如何理解和学习视频的?


*   **06 LLM API系统设计**

   *   01 LLM Api目前主流技术方案

   *   02 LLM Api购买

   *   03 安装SDK环境与技术选型

   *   04 图片识别的应用场景

   *   05 数据的结构化处理

   *   06 使用系统提示词进行结构化输出

   *   07 系统提示词和用户提示词的区别?

   *   08 大模型如何保持历史会话?

   *   09 如何追加assistant历史回复?

   *   10 真实后端业务场景中提问追加如何设计?

   *   11 LLM对回复进行stream流式输出

   *   12 LLM调用工具方法逐行解读

   *   13 为什么非深度思考会产生幻觉?

   *   14 如何看到LLM的深度思考过程

   *   15 一些常见优化建议

   *   16 调节思考长度

   *   17 回答长度和思维链长度限制

   *   18 续写模式的应用场景

   *   19 对JSON进行续写

   *   20 对续写模式的残缺json进行修复

   *   21 如果回复达到限制如何进行续写?

   *   22 如果输入和输出都超过长度限制如何处理?

   *   23 使用json schema进行格式化输出

   *   24 使用json object模型格式化输出

   *   25 Respense Api和Chat Api的区别?

   *   26 本地图片解析与错误排查技巧

   *   27 使用Files Api解析图片

   *   28 在线图片url解析

   *   29 图片的多种解析方式以及图片消耗token计算

   *   30 使用流式输出查看图片解析消耗的token

   *   30 使用流式输出查看图片解析消耗的token(1)

   *   31 多模态中视频的解析与原理

   *   32 标注图片的位置

   *   32 标注图片的位置(1)

   *   33 Reponse Api缓存机制

   *   34 session缓存和前缀缓存的区别?

   *   35 LLM联网搜索

   *   36 联网搜索实现边想边搜功能

   *   37 开通新的模型提供image工具调用能力

   *   38 使用image工具数草莓

   *   39 提示词prompt优化思路


*   **07 Rag检索增强架构设计**

   *   01 到底什么Rag检索增强?

   *   02 市面主流Ai应用架构设计解析

   *   03 为什么现在云服务是主流趋势?


*   **08 向量数据库原理解析**

   *   01 到底什么是向量?

   *   02 点乘查询机制

   *   03 向量数据库的索引机制

   *   04 数据最终变成向量的产物与特征

   *   05 数据转化向量的核心算法

   *   06 向量查询点乘算法机制

   *   07 向量维度是越多越好吗?

   *   08 一本10w字的书是如何进行向量化的?

   *   09 返回的内容太长了怎么办?

   *   10 面试的核心是吹解决方案

   *   11 大量短句如何向量化?


*   **09(2.0新版)深入浅出LangChain**

   *   01 环境准备

   *   02 用一段代码来看langchain的全貌

   *   03 LangChain是什么?

   *   04 agent返回的response包含哪些内容?

   *   05 agent返回的response数据类型到底是什么?

   *   06 中间件中的request到底长啥样?

   *   07 利用中间件动态选择LLM

   *   08 提示词进行结构化输出和toolStrategy的区别

   *   09 stream流式输出

   *   10 stream的几种不同模式

   *   11 我控制台的chunk打字机效果是如何实现的?

   *   12 利用tools去查询今天的天气

   *   13 使用value模式对tools调用进行流式输出

   *   14 使用update模式对tools调用进行流式输出

   *   15 message格式定义与建议

   *   16 查看message内部结构到底长啥样?

   *   17 llm Invoke和agent invoke有啥区别?

   *   18 tools状态传递的三种方式

   *   19 tools合并优化性能监控

   *   20 tools调用性能优化从28s到9s

   *   21 max token的核心作用

   *   22 看LLM的决策推理和调用tools的过程

   *   23 短期记忆state的metadata解析

   *   24 短期记忆state全量数据解析

   *   25 内置工具解读01

   *   26 内置工具解读02

   *   27 agent调用的生命周期

   *   28 wrap tools和model的生命周期

   *   29 动态提示词生命周期钩子

   *   30 生命周期钩子的各种应用场景

   *   31 定义个最小化的mcp服务

   *   32 到底什么是MCP?

   *   33 在langchain中调用天气查询mcp服务

   *   34 mcp改成http服务


*   **10 从原理学习LangChain使用(旧版)**

   *   01 LangChain学习思路

   *   02 接入豆包模型

   *   03 1.0版本中的LCEL管道语法

   *   04 销售应用进行结构化输出

   *   05 temperature参数的作用

   *   06 理解代码即提示词

   *   07 tool_choice开启特权通道

   *   08 借助langChain Ai助手优化代码

   *   09 优化1.0新版本代码思路

   *   10 langChain历史记录回话管理

   *   11 如何定义agent?

   *   12 使用可视化界面调试Agent

   *   13 开启关闭深度思考性能测试

   *   14 为什么关闭深度思考调用tools反而更慢?

   *   15 对agent调用过程进行性能优化

   *   16 为什么max token影响性能?

   *   17 再次优化agent调用性能

   *   18 从35s到10s的agent调用优化我们如何吹半个小时?

   *   19 多agent订单与查询、人工介入案例


*   **10 全面解读LangChain(旧版)**

   *   01 全面理解Langchain最好的学习思路

   *   02 给tools运行时注入额外装状态

   *   03 对LLM进行结构化输出约束

   *   04 中间件动态选择模型

   *   05 把prompt放到系统提示词提高准确率

   *   06 结构化输出与流式输出

   *   07 模型的一些常用方法

   *   08 消息模块

   *   09 工具tools解读

   *   10 短期记忆与上下文注入

   *   11 stream流式输出

   *   12 结构化输出与错误处理

   *   13 内置中间件

   *   14 model和agent的生命周期

   *   15 自定义中间件

   *   16 高级用法-守卫

   *   17 高级用法-runtime

   *   18 高级用法-上下文

   *   19 context和store维护上下文的区别?

   *   20 高级功能-人工介入

   *   21 高级功能-多agent

   *   22 高级功能-多agent-subAgent

   *   23 高级功能-handoffs

   *   24 总结


*   **10(2.0新版)LangGraph深入浅出**

   *   01 LangGraph你好

   *   02 LangGraph条件判断

   *   03 逐行解读LangGraph入门案例

   *   04 checkpointer属性解读

   *   05 查看LLM、tools调用之后的checkpointer

   *   06 中断流程业务与思路梳理

   *   07 用graph实现一个完整的中断恢复案例01

   *   08 用graph实现一个完整的中断恢复案例02

   *   09 用graph实现一个完整的中断恢复案例03

   *   10 用graph实现一个完整的中断恢复案例04

   *   11 用graph实现一个完整的中断恢复案例05

   *   12 InMemoryStore和InMemorySaver的区别?

   *   13 SubGraph是什么以及应用场景


*   **11 LangGraph全解析(旧版)**

   *   01 node和edge核心概念

   *   02 流程条件判断

   *   03 langGraph意图识别回复邮件案例

   *   04 讲笑话流程案例

   *   05 并行讲故事、合并案例

   *   06 用路由决定讲故事案例

   *   07 工作流程-剩余内容

   *   08 持久化-存档点位信息

   *   09 持久化-命名空间

   *   10 持久化-对store进行向量存储

   *   11 持久化工作流

   *   12 graph中的stream

   *   13 中断实际场景中3方的配合

   *   14 中断在Ai应用中前端、后台、Ai是如何配合的?

   *   15 关于中断有几点要特别注意的

   *   16 利用时间旅行恢复节点运行

   *   17 graph中子图的作用


*   **12 LangChain实战案例(旧版)**

   *   01 跑通豆包embedding模型api

   *   02 利用豆包进行store向量化模糊搜索

   *   03 ChromaDB向量数据库-补充

   *   04 向量数据库的训练过程

   *   05 向量数据库的存储和查询过程

   *   06 ChromaDB最简案例

   *   07 向量数据库中的距离表示

   *   08 为什么笔记本屏幕不错和笔记本毫不相关?

   *   09 如何提升向量数据库的检索精度?

   *   10 改成cosine方式优化文本检索精度

   *   11 ChromaDB中的查询操作符

   *   12 ChromaDB查询、删除操作

   *   13 长文本切片存储与向量查询

   *   14 为什么我用ChromaDB查询原文都查不到?

   *   15 解决ChromaDB查询中文不精准问题

   *   16 为什么distance最小的结果反而不准?

   *   17 ChromaDB查询之后给到什么数据LLM?

   *   18 向量存储的ID设计

   *   19 ChromaDB实现文搜图

   *   20 如何理解机器学习中的张量?

   *   21 ChromaDB实现图搜图

   *   22 观察图片处理之后实际存储到向量数据库中的大小


*   **13 LangSmith链路追踪监控**

   *   01 开通langSmith账户

   *   02 用LangSmith对火山引擎的数据进行监控

   *   03 改写LangChain底层的Embbeding类兼容火山引擎

   *   04 traceable中支持的run_type类型

   *   05 改进之后的trace追踪

   *   06 逐行断点解读trace业务代码

   *   07 Rag检索增强架构改造

   *   08 查看Smith检索LLM数据


*   **14 项目1:一阶段 Ai实时语音对话-智能客服**

   *   01 项目规划

   *   02 项目架构设计与梳理

   *   03 Ai应用开发前端、后台、Ai是如何配合工作的?

   *   04 复杂的Ai应用开发到底应该做什么?

   *   05 我们的项目结构设计

   *   06 环境安装,运行前端、后台项目

   *   07 项目底座介绍

   *   08 使用Trae和Cursor改写Nodejs服务为Python版本

   *   09 使用Gemini3 Por生成Python版本服务

   *   10 优化Gemini3生成版本

   *   11 api密钥与服务开通

   *   12 逐行解读python main流程1

   *   13 逐行解读python main流程2

   *   14 RTC业务逻辑梳理1

   *   15 Rtc业务架构设计2

   *   16 RTC业务流程梳理3

   *   17 RTC业务流程梳理4

   *   18 RTC业务流程梳理5

   *   19 RTC业务梳理6

   *   20 RTC业务流程梳理7

   *   21 RTC业务流程梳理8

   *   22 RTC业务流程梳理9

   *   23 RTC业务流程梳理10

   *   24 RTC业务流程梳理10


*   **15 项目1:二阶段 LLM RAG架构**

   *   01 项目架构设计核心思路

   *   02 将LLM部分独立出来

   *   03 Rtc给第三方LLM推流架构解析

   *   04 uv和ngrok环境准备

   *   05 LLM的欢迎语是哪里来的?

   *   06 项目改造的核心第一步

   *   07 getScenes接口逻辑梳理

   *   08 配置密钥环境

   *   09 远程启动、停止agent接口服务实现

   *   10 指挥ai生成符合sse协议llm回复

   *   11 callback生成sse协议stream流

   *   12 什么是sse协议?

   *   13 梳理前端数据交互逻辑1

   *   14 梳理前端数据交互逻辑2

   *   15 客户端接收rtc推送的二进制message消息

   *   16 安装浏览器插件查看状态变化


*   **16 项目1:阶段三 LLM改造**

   *   01 利用swagger搭建LLM调试环境

   *   02 定制LLM系统提示词与欢迎语

   *   03 设置temperature对回复的影响

   *   04 优化提示词格式

   *   05 创建知识库环境

   *   06 rag知识库技术选型思路

   *   07 对LLM的调用时长进行时间监控

   *   08 Ai帮我参考知识库文档生成可运行业务代码

   *   09 添加知识库service服务

   *   10 知识库检索返回的原始信息

   *   11 跑通Rag服务并兼容多条数据返回

   *   12 将Rag服务接入到测试Api

   *   13 修复Rag接入实时对话bug1

   *   14 修复Rag接入实时对话bug2

   *   15 修复Rag接入实时对话bug3

   *   16 修复Rag接入实时对话bug4

   *   17 Ai应用开发工程师的核心职能和在企业的工作流程


*   **17 项目1:阶段四 难点亮点与优化**

   *   01 利用prompt pilot优化提示词

   *   02 LLM中的Temperature和Top P参数的区别?

   *   03 temperature参数为何可以设置0-2

   *   04 利用pilot的测试集去优化prompt提示词提示词

   *   05 利用Pilot自动对回复进行评分

   *   06 如何将pilot提示词优化写进简历

   *   07 知识库检索优化的思路与方向

   *   08 稠密向量和稀疏向量的区别

   *   09 知识库检索支持的字段与解读

   *   10 知识库文档切片优化与辩证思维

   *   11 知识库index索引优化

   *   12 知识库指定索引算法优化

   *   13 知识库检索参数极致优化

   *   14 ReRank重排开启和关闭带来的性能影响

   *   15 Ai应用项目的性能优化核心思想方针

   *   16 在简历中写上项目经历2、3

   *   17 python热更新速度优化

   *   18 使用Swagger UI构Ai业务调试环境

   *   19 从15s到2s极致深度优化LLM推理 01

   *   20 从15s到2s极致深度优化LLM推理 02

   *   20 从15s到2s极致深度优化LLM推理 02(1)

   *   21 利用LLM批量推理构建评测集

   *   22 LLM  flash、lite、标准版区别

   *   23 LLM4种思考模式区别minimal、low、medium、high

   *   24 从15s到2s极致深度优化LLM推理 03

   *   25 从15s到2s极致深度优化LLM推理 04

   *   26 从15s到2s极致深度优化LLM推理 05

   *   27 从15s到2s极致深度优化LLM推理 06

   *   28 从15s到2s极致深度优化LLM推理 07

   *   29 KV缓存和前缀缓存的核心区别

   *   30 利用前缀缓存优化LLM性能

   *   31 Chat Api和Response Api的区别?

   *   32 补充简历经历4、5条

   *   33 豆包1.8版本LLM参数解析

   *   34 max token调整的意义与作用

   *   35 Ai实时对话的Max token设置多少合适?

   *   36 Asr双向流优化版带来的性能影响

   *   37 Asr情绪检测、敏感词、热词优化

   *   38 Asr上层参数调节

   *   39 TTS业务参数调节

   *   40 TTS上层业务参数解析

   *   41 TTS1.0 和 2.0端到端版本的区别

   *   42 声音复刻服务开通与配置

   *   43 接入声音复刻功能

   *   44 火山引擎veRTC服务特点与亮点

   *   45 实时语音Agent服务业务优化设计

   *   46 补充简历6、7条


*   **18 项目2:自媒体运营Agent**

   *   01 项目介绍

   *   02 项目方案架构设计

   *   03 让Gemini生成喂给Claude4.5的提示词

   *   04 cursor实现业务功能01

   *   05 cursor实现业务功能02

   *   06 cursor实现业务功能03

   *   07 cursor实现业务功能04

   *   08 Main.py生命周期管理

   *   09 workflow入口逻辑解读

   *   10 graph业务流程图梳理

   *   11 逐行解读start接口调用流程与状态流转01

   *   12 逐行解读start接口调用流程与状态流转02

   *   13 逐行解读resume中断恢复流程与状态流转

   *   14 逐行解读审核通过流程结束

   *   15 逐行解读审核拒绝流程

   *   16 项目版本切换学习方法

   *   17 接入LLM Api版本01

   *   18 接入LLM Api版本02

   *   19 接入LLM Api版本03

   *   20 接入LLM Api版本04

   *   21 接入LLM Api版本05

   *   22 接入LLM Api版本06

   *   23 接入LLM Api版本07

   *   24 Claude生成vue3.0前端界面

   *   25 前端完整流程功能演示

   *   26 使用PostgreSQL持久化graph状态01

   *   27 postgresql数据库安装

   *   28 使用PostgreSQL持久化graph状态02

   *   29 使用PostgreSQL持久化graph状态03

   *   30 AsyncConnectionPool数据库连接池的作用

   *   31 PostgreSQL同步Checkpointer数据核心4个步骤

   *   32 postgre中的4张表到底存的啥?01

   *   33 postgre中的4张表到底存的啥?02

   *   34 新增graph历史记录功能

   *   35 新增graph历史记录功能02

   *   36 新增graph历史记录功能03

   *   37 项目重点梳理与学习重点


*   **19 项目2:难点亮点与优化**

   *   01 难点亮点梳理

   *   02 难点亮点梳理

   *   03 LLM耗时统计与token使用量核心逻辑梳理

   *   04 SubGraph子图设计模式解析

   *   05 将选题流程抽象为subgraph

   *   06 将图片生成改为并行模式

   *   07 新增流式输出功能

   *   08 流式输出核心思路解析与踩坑

   *   09 多模型路由策略针对性优化链路性能

   *   10 流式输出和非流式输出影响checkpointer存储的结果吗?

   *   11 graph流式输出逐行解读

   *   12 LLM结构化输出优化

   *   13 LLM结构化输出功能验证

   *   14 Rag检索增强优化

   *   15 数据库连接池参数调整与优化

   *   16 全链路状态追踪LangSmith接入

   *   17 B端C端业务指标埋点

   *   18 业务日志收集与服务

   *   19 内容安全审查与用户数据脱敏

   *   20 JWT认证授权机制

   *   21 JWT补充内容

   *   22 SSO单点登录与Auth2.0

   *   23 关于项目面试技巧的思考

   *   24 配置管理与灰度AB测试

   *   25 不同业务的模板扩展

   *   26 MCP服务划分与设计

   *   27 健康检查与优雅关闭

   *   28 Api版本控制

   *   29 Api限流与熔断真实企业的四层架构

   *   30 用户反馈闭环建立评测集

   *   31 错误处理降级和熔断的区别?

   *   32 项目中__init__py的作用?

   *   33 图片生成失败与敏感信息处理

   *   34 Graph流程节点性能优化

   *   35 图片大模型升级到顶级Nano Banan模型


*   **20 项目2:逐行解读项目代码**

   *   01 入口文件解读

   *   02 日志系统 ContextVar管理requestid

   *   03 逐行解读日志系统

   *   04 graph主流程源码解析

   *   05 thread接口解析

   *   06 流式输出代码解析

   *   07 文章生成是如何进行六十输出的?

   *   08 图片生成逻辑解读

   *   09 系统日志与LLM脱敏设计

   *   10 整体项目的架构设计

   *   11 登录逻辑解读 01

   *   12 登录逻辑解读 02

   *   13 登录逻辑解读 03

   *   14 登录逻辑解读 04

   *   15 为什么现在流行JWT?


*   **21 数据标注平台搭建与Label Studio实战**

   *   01 什么是数据标注

   *   02 标注出来的数据到底是做什么用的?

   *   03 Label Studio环境安装

   *   04 案例1: 电商评论情绪识别

   *   05 案例2:图片标注案例

   *   06 案例3:用选择题训练模型


*   **22 模型微调与主流方案解析**

   *   01 SFT和DPO的区别?

   *   02 SFT的两种主流训练数据格式

   *   03 SFT中的数据清洗与数据质量

   *   04 模型训练Lora方案解读

   *   05 Lora的4个核心调节参数解析

   *   05 偏好对齐Dto的数据格式要求

   *   06 DPO方案的局限与未来展望


*   **23 项目3:LLaMA-Factory+Lora模型微调实战**

   *   01 环境安装

   *   02 lora环境搭建

   *   03 Cuda环境问题解决与显卡驱动

   *   04 Lora训练结果解析

   *   05 案例1 电商评论情感分析

   *   06 案例1 开始训练Qwen模型

   *   07 案例1 真实企业场景对数据量的要求?

   *   08 案例1 学习率参数应该如何调整?

   *   09 案例1 训练轮数参数调节

   *   10 案例1 模型参数的选择

   *   11 案例1 模型训练完的效果

   *   12 案例1 模型第二次训练效果2

   *   13 案例1 模型第3、4次训练与优化

   *   14 案例1 Warmup Ratio参数在哪?


*   **24 Agent集群架构与部署**

   *   01 项目部署方案解读

   *   02 集群模式下的Ai服务部署方案

   *   03 集群模式下的ai服务部署方案


*   **25 项目1:线上企业版**

   *   01 环境配置

   *   02 环境配置02


*   **26 实战面试回放**

   *   2.25 武汉18k 教授

   *   2.25 武汉25k 电商头部 - Trim

   *   2.26 武汉边缘面试官18k

   *   2.26 深信服18k (重点看)

   *   3.9 创业无限画布深圳30k(重点看)-裁切.mp3

   *   3.9 字节外包-裁切.mp3

   *   3.9 重庆50k-裁切.mp3

   *   3.16 深圳30k 两轮已经过了.mp3