```
01 构建AI大模型运行的k8s集群
├── 01 分享内容介绍.mp4 (5.59 MB, 03:33)
├── 02 带GPU主机获取方法-本地主机.mp4 (18.09 MB, 07:12)
├── 03 带GPU主机获取方法-公有云主机.mp4 (65.56 MB, 23:12)
├── 04 Nvidia Drive与CUDA Toolkit关系说明.mp4 (36.93 MB, 16:13)
├── 05 k8s集群主机准备.mp4 (19.34 MB, 06:36)
├── 06 容器管理工具准备.mp4 (42.11 MB, 09:44)
├── 07 安装NVIDIA容器工具包及使用.mp4 (64.63 MB, 18:06)
├── 08 k8s集群部署过程.mp4 (53.56 MB, 17:20)
└── 09 部署NVIDIA Device Plugin及GPU使用测试.mp4 (27.76 MB, 10:40)
02 k8s集群部署ollama使用deepseek大模型
├── 01 分享内容介绍.mp4 (4.56 MB, 02:51)
├── 02 k8s集群主机准备.mp4 (29.37 MB, 10:25)
├── 03 k8s集群容器管理工具准备.mp4 (36.92 MB, 09:37)
├── 04 k8s集群初始化及可用性验证.mp4 (60.28 MB, 17:56)
├── 05 k8s集群负载均衡器准备.mp4 (12.61 MB, 04:54)
├── 06 k8s集群服务代理Gateway API准备.mp4 (28.09 MB, 10:07)
├── 07 k8s集群后端存储准备.mp4 (49.54 MB, 17:07)
└── 08 使用ollama运行deepseek并验证可用性.mp4 (85.96 MB, 32:37)
03 本地化部署vLLM及运行大模型
├── 01 分享内容介绍.mp4 (5.97 MB, 03:56)
├── 02 vLLM简单介绍.mp4 (10.61 MB, 04:54)
├── 03 带GPU主机获取方式.mp4 (16.53 MB, 06:40)
├── 04 安装miniconda虚拟环境工具.mp4 (62.66 MB, 17:23)
├── 05 安装nvidia gpu驱动.mp4 (89.68 MB, 27:41)
├── 06 安装cuda-toolkit工具套件.mp4 (45.36 MB, 13:20)
├── 07 安装pytorch基础设施.mp4 (32.71 MB, 09:43)
├── 08 安装vLLM推理框架.mp4 (46.23 MB, 09:47)
├── 09 获取大模型文件.mp4 (20.24 MB, 06:55)
├── 10 运行vllm api服务.mp4 (71.66 MB, 17:37)
└── 11 使用测试案例验证可用性.mp4 (43.63 MB, 06:43)
04 容器化部署和使用vLLM
├── 01 分享内容介绍.mp4 (3.48 MB, 02:15)
├── 02 带GPU主机获取及驱动安装.mp4 (102.00 MB, 30:32)
├── 03 安装Docker容器管理工具.mp4 (28.76 MB, 10:12)
├── 04 安装NVIDIA Container Toolkit.mp4 (36.52 MB, 10:03)
├── 05 使用容器运行vLLM及可用性验证.mp4 (81.92 MB, 20:36)
└── 06 使用docker-compose运行vllm及open webui.mp4 (84.87 MB, 24:38)
05 k8s集群部署及使用vLLM运行大模型
├── 01 分享内容介绍.mp4 (5.12 MB, 03:01)
├── 02 k8s集群主机准备.mp4 (129.73 MB, 41:53)
├── 03 k8s集群节点容器管理工具准备.mp4 (63.09 MB, 20:49)
├── 04 NVIDIA容器工具包准备.mp4 (48.67 MB, 13:20)
├── 05 k8s集群初始化全过程.mp4 (58.80 MB, 16:59)
├── 06 k8s集群网络插件部署及可用性验证.mp4 (32.79 MB, 10:41)
├── 07 NVIDIA设备插件实现GPU注册.mp4 (18.07 MB, 06:18)
├── 08 k8s集群后端持久存储准备.mp4 (27.60 MB, 09:16)
├── 09 k8s集群部署vLLM及访问测试.mp4 (110.87 MB, 24:02)
├── 10 k8s集群部署open webui及使用测试.mp4 (38.74 MB, 10:54)
├── 11 部署Prometheus监控系统前期准备.mp4 (27.54 MB, 08:34)
├── 12 部署Prometheus监控系统.mp4 (64.00 MB, 20:02)
├── 13 部署GPU监控组件及查看vLLM监控指标.mp4 (26.10 MB, 06:29)
├── 14 添加GPU及vLLM监控规则.mp4 (32.67 MB, 09:15)
└── 15 添加GPU及vLLM监控仪表盘.mp4 (63.21 MB, 19:43)
06 本地部署SGLang及运行大模型
├── 01 分享内容说明.mp4 (1.78 MB, 01:09)
├── 02 SGLang介绍.mp4 (17.21 MB, 05:59)
├── 03 SGLang运行环境准备.mp4 (10.16 MB, 02:35)
├── 04 带GPU主机获取方式.mp4 (16.16 MB, 06:23)
├── 05 虚拟环境工具Conda准备.mp4 (57.44 MB, 15:35)
├── 06 NVIDIA GPU驱动安装.mp4 (89.83 MB, 27:22)
├── 07 SGLang安装.mp4 (33.30 MB, 08:13)
├── 08 SGLang运行.mp4 (52.29 MB, 11:43)
├── 09 SGLang使用测试.mp4 (84.03 MB, 18:16)
└── 10 SGLang运行时GPU基本运行维护.mp4 (15.43 MB, 03:40)
07 docker运行SGLang及运行大模型
├── 01 分享内容说明.mp4 (2.23 MB, 01:27)
├── 02 SGLang运行环境准备.mp4 (6.71 MB, 01:41)
├── 03 带GPU主机获取及GPU驱动安装.mp4 (102.14 MB, 30:27)
├── 04 容器管理工具Docker安装.mp4 (28.21 MB, 09:47)
├── 05 NVIDIA容器工具安装及使用.mp4 (36.71 MB, 10:03)
├── 06 使用docker容器运行SGLang.mp4 (135.90 MB, 34:52)
├── 07 使用docker-compose运行SGLang.mp4 (49.17 MB, 11:30)
└── 08 容器运行SGLang实现负载均衡.mp4 (63.47 MB, 15:48)
08 使用k8s部署SGLang运行大模型
├── 01 分享内容说明.mp4 (4.71 MB, 02:44)
├── 02 k8s集群节点准备.mp4 (129.91 MB, 41:45)
├── 03 k8s集群节点容器管理工具准备.mp4 (62.86 MB, 20:38)
├── 04 NVIDIA容器工具包准备及配置Docker.mp4 (48.64 MB, 13:20)
├── 05 k8s集群初始化全过程.mp4 (59.61 MB, 16:59)
├── 06 k8s集群网络插件部署.mp4 (33.26 MB, 10:41)
├── 07 NVIDIA设备插件部署实现GPU注册.mp4 (18.23 MB, 06:15)
├── 08 k8s集群后端存储.mp4 (27.40 MB, 08:50)
├── 09 k8s部署sglang及open webui.mp4 (126.72 MB, 33:22)
├── 10 Prometheus监控系统安装.mp4 (37.46 MB, 13:08)
├── 11 部署GPU监控组件及暴露sglang监控指标.mp4 (85.77 MB, 20:21)
└── 12 监控与数据仪表盘及告警规则.mp4 (107.84 MB, 29:29)
```



