




1-1 RAG架构的DeepSeek大模型本地知识库课程概览 [06:14]
2-1 python开发环境准备之下载并安装Anaconda [02:56]
2-2 python开发环境准备之搭建Anaconda虚拟环境 [04:41]
2-3 python开发环境准备之下载并安装Pycharm [03:26]
2-4 安装Xinference分布式推理框架 [06:01]
2-5 本地运行Xinference分布式推理框架的实例 [02:18]
3-1 大模型应用层面三项技术 [07:26]
3-2 本地部署Embedding模型 [09:48]
3-3 本地的Embedding 文本嵌入模型使用 [09:24]
3-4 Embedding模型在语义相似度检索应用 [05:05]
4-1 大语言模型场景应用 [02:41]
4-2 大语言模型本地化部署 [03:36]
4-3 文本生成模型介绍 [01:55]
4-4 部署文本生成模型 [01:55]
4-5 文本生成模型-cURL文本生成 [02:25]
4-6 文本生成模型-Xinference Client文本生成 [01:44]
4-7 文本生成模型-OpenAI Client文本生成 [05:50]
4-8 聊天对话大模型介绍 [04:29]
4-9 对话模型部署和接口开发 [04:10]
4-10 对话大模型单轮对话-cURL聊天小助手 [04:33]
4-11 对话大模型单轮对话-Xinference Client [03:22]
4-12 对话大模型单轮对话-OpenAI Client 聊天 [02:44]
4-13 对话大模型多轮对话-cURL模拟多轮聊天 [04:56]
4-14 对话大模型多轮对话-代码开发实现多轮对话 [07:03]
4-15 对话大模型多轮对话-使用Gradio搭建多轮对话聊天 [03:48]
5-1 重排序模型学什么 [00:57]
5-2 重排序模型使用场景 [03:29]
5-3 检索和重排序模型融合方案 [02:43]
5-4 使用重排序模型原因 [05:05]
5-5 重排模型原理与技术细节 [05:23]
5-6 重排模型案例实战 [05:25]
6-1 为什么用Dify [03:34]
6-2 Dify的核心功能 [07:50]
6-3 不同LLM应用平台 vs Dify功能对比 [03:01]
6-4 Dify 用到的关键技术 [04:05]
6-5 平台部署与配置-本地机器安装Docker [02:22]
6-6 平台部署与配置-使用Docker快速部署 Dify [02:42]
6-7 DeepSeek大模型应用开发流程 [00:58]
6-8 【官方API】在Dify 集成满血版本的DeepSeek [05:35]
6-9 【官方API】DeepSeek满血版模型搭建聊天助手 [04:38]
6-10 【硅基流动】DeepSeek满血版大模型 应用开发 [05:34]
6-11 【硅基流动】Dify+DeepSeek满血版大模型应用 [01:59]
6-12 【本地大模型】启动xinference 服务+本地部署模型 [02:34]
6-13 【本地大模型】Dify+Xinference 搭建DeepSeek [01:45]
6-14 【本地大模型】Xinference + DeepSeek本地模型应用 [03:41]
7-1 【项目实训】DeepSeek打造本地知识库学习内容 [00:55]
7-2 【项目实训】DeepSeek打造本地知识库项目背景 [07:40]
7-3 【项目实训】DeepSeek打造本地知识库的解决方案 [03:48]
7-4 【项目实训】DeepSeek打造本地知识库项目流程 [02:51]
7-5 【项目实训】向量/排序/DeepSeek的模型部署 [05:42]
7-6 【项目实训】打造DeepSeek本地知识库-Dify配置 [02:21]
7-7 【项目实训】Dify大模型应用开发平台部署模型【DeepSeek集成】 [06:29]
7-8 【项目实训】本地知识库向量化离线数据存储【文本向量化处理】 [06:30]
7-9 【项目实训】搭建基于RAG的LLM对话机器人【DeepSeek+RAG实战】 [06:16]