大模型与Agent开发实战课件
Agent开发实战-课件
01_大模型应用发展及Agent前沿技术趋势.ipynb (44.5 KB)
02_AI Agent应用类型及Function Calling开发实战.ipynb (137.6 KB)
03_ReAct Agent 基础理论与项目实战
03_ReAct Agent 基础理论与项目实战.ipynb (66.0 KB)
ReAct_AI_Agent.zip (9.8 MB)
04_OpenAI Assistant API 基本理论与入门实战.ipynb (199.5 KB)
05_OpenAI Assistant API 进阶应用.zip (61.1 MB)
06_OpenAI Assistant API 高阶应用 – 流式输出_20241010_175342
06_OpenAI Assistant API 高阶应用 – 流式输出.ipynb (521.4 KB)
AssistantStreaming.zip (113.8 MB)
07_LangGraph底层原理解析与基础应用入门.ipynb (60.6 KB)
08_LangGraph中State状态模式与LangSmith基础使用入门(1).ipynb (117.7 KB)
09_单代理架构在 LangGraph 中构建复杂图的应用.ipynb (217.7 KB)
10_LangGraph 实现自治循环代理(ReAct)及事件流的应用.ipynb (182.4 KB)
11_LangGrah 长短期记忆实现机制及检查点的使用.ipynb (175.0 KB)
12_LangGraph 中 Human-in-the-loop 应用实战.ipynb (164.1 KB)
13_LangGraph Multi-Agent Systems 开发实战.ipynb (235.8 KB)
14_LangGraph 多代理与 GraphRAG 综合应用实战
Ch.14 LangGraph Supervisor 多代理架构与 GrapRAG 综合应用实战.ipynb (290.5 KB)
company.txt (4.8 KB)
15_MicroSoft AutoGen 开发框架基础入门
autogen.zip (49.8 MB)
Ch 15_MicroSoft AutoGen 基础入门.ipynb (248.2 KB)
16_MicroSoft AutoGen 代理对话与人机交互源码解析.ipynb (293.7 KB)
项目开发实战一:从零搭建多功能智能体 MateGen Pro(第一部分)
mategen_pro-main.zip (7.5 MB)
项目开发实战一:MateGen Pro.ipynb (91.8 KB)
大模型微调-课件
CH 1 论文.zip (14.1 MB)
Ch 1. 大模型微调.ipynb (52.2 KB)
Ch 2. LLama_Factory+LORA大模型微调.ipynb (72.0 KB)
Ch 3. LLama_factory&Lora微调Qwen2.5做NL2sql.ipynb (75.9 KB)
Ch 4. Window微调Qlora.ipynb (72.8 KB)
Ch 5. PPO微调LLama-3.2.ipynb (79.5 KB)
Ch 6. RHLF微调Qwen2.5.ipynb (86.3 KB)
Ch 7. DPO微调Qwen2.5.ipynb (85.3 KB)
Ch 8 PEFT&医疗领域模型微调实践.ipynb (123.1 KB)
开源大模型部署与调用-课件
01_ChatGLM3-6B
【ChatGLM3-6B】Part1_Ubuntu双系统安装教程.ipynb (48.2 KB)
【ChatGLM3-6B】Part2_Ubuntu环境ChatGLM3-6B安装办法.ipynb (46.9 KB)
【ChatGLM3-6B】Part3.1_服务器场景下ChatGLM3-6B部署与多种启动方式.ipynb (46.3 KB)
【ChatGLM3-6B】Part3.2_在AutoDL中快速部署ChatGLM3-6B模型.pdf (2.1 MB)
【ChatGLM3-6B】Part4_以ChatGLM3为例实现本地大模型更新.ipynb (40.9 KB)
【ChatGLM3-6B】Part5_单机多卡启动大模型办法.ipynb (24.7 KB)
【ChatGLM3-6B】Part6_LORA微调原理&实战.ipynb (41.7 KB)
【ChatGLM3-6B】Part7_PEFT主流高效微调方法介绍&实战.ipynb (69.7 KB)
【ChatGLM3-6B】Part8_Langchain体系详解与v0.3安装部署.ipynb (53.9 KB)
02_【GLM4-9B-Chat】GLM4-9b部署&vLLM推理.ipynb (101.8 KB)
03_【Llama3.1】Llama 3.1介绍与部署流程.ipynb (122.4 KB)
04_【Llama3.2】Llama3.2介绍与部署流程.ipynb (51.6 KB)
05_【Qwen2.5】Qwen2.5介绍与部署流程.ipynb (79.0 KB)
06_【Qwen2.5】Qwen2.5-Coder&Math介绍部署.ipynb (115.1 KB)
08_【Ollama】最新版本从入门到进阶攻略.ipynb (64.6 KB)
09_【Marco-01】推理大模型参数介绍与本地部署.ipynb (74.5 KB)
10_【GLM-Edge-V】端侧多模态模型参数介绍与部署流程.ipynb (19.6 KB)
11_【Qwen2VL】多模态视觉识别模型参数介绍与部署.ipynb (33.2 KB)
12_【Llama.cpp】开源推理框架量化模型使用指南.ipynb (46.2 KB)
13_【GLM4-Voice】语音模型参数介绍与部署.ipynb (89.8 KB)
14_【Cursor】以调用QWQ推理大模型为例实现辅助编程.ipynb (35.5 KB)
在线大模型部署与调用-课件
【Claude 3.5 系列】
【Claude3.5】part1-Claude介绍及注册流程与API领取.pdf (6.2 MB)
【Claude3.5】part2-API从入门到精通.zip (12.7 MB)
【Claude3.5】part3_tool_use工具调用全流程与2参数详解.ipynb (169.2 KB)
【Claude3.5】part4_prompt cache 提示缓存与streaming流式输出.ipynb (234.5 KB)
【Dspy】
【DSPy】part1_核心理念DSPy的核心理念(配置LM、签名、构建模块).ipynb (151.0 KB)
【DSPy】part2_DSPy的评估体系(Example数据、Metric度量指标、评估).ipynb (44.2 KB)
【DsPy】part3_实战优化_评估GSM8K数据集下模块的表现(优化篇).ipynb (232.4 KB)
【DsPy】part4_推文生成与优化实战.ipynb (879.2 KB)
【Gemini 系列】
【Gemini】part1_Gemini生态之最新模型、免费策略、注册指南、网页端微调实战一网打尽.md (16.9 KB)
【Gemini】part1_甄嬛Gemini微调语料500条.xlsx (101.3 KB)
【Gemini】part2_ API文本生成调用入门到构建多轮对话机器人.ipynb (118.3 KB)
【Gemini】part3_API精细化控制生成参数与长文档实战与生成结构化.ipynb (216.7 KB)
【GLM 系列】
【GLM】part0_智谱清言GLM账号注册及APIKEY领取.md (2.6 KB)
【GLM】part1_GLM-4文本对话大模型API调用指南.ipynb (83.8 KB)
【GLM】part2_Streaming流式响应调用API全解.ipynb (152.7 KB)
【GLM】part3_GLM_函数调用讲解与实战.ipynb (42.4 KB)
【GLM】part4_智谱CogVideoX 文生视频.ipynb (25.3 KB)
【OpenAI GPT 4o 系列】
【GPT 4o】part1_文本生成API调用入门与精细化控制.ipynb (116.7 KB)
【GPT 4o】part2_文本生成API的多模态调用.zip (2.2 MB)
【GPT 4o】part3_tool_use工具调用与实战.ipynb (504.9 KB)
【GPT 4o】part4_生成结构化输出.ipynb (16.8 KB)
【GPT 4o】part5_首token时延与提示缓存.ipynb (42.4 KB)
【GPT 4o】part6_Streaming流式响应调用API全解.ipynb (424.4 KB)
【GPT 4o】part7_微调实战初窥之写作风格.zip (81.8 KB)
【GPT 4o】part8_微调实战进阶之tool use微调.zip (45.6 KB)
【OpenAI GPT o1 系列】
【GPT o1】part1_o1大模型与推理token简介.md (6.0 KB)
【GPT o1】part2_o1的API调用与总结.ipynb (33.3 KB)
【GPT o1】part3_通过COT制作4o-mini版本的o1模型与其局限性.ipynb (22.9 KB)
【GPT o1】part4_使用o1模型生成诺贝尔奖得主的JSON格式数据分析.zip (75.5 KB)
【GPT o1】part5_o1蒸馏4o-mini模型实战.zip (18.4 KB)
【OpenAI 账号注册与环境配置】
【GPT】Part 1. OpenAI的账号注册速通.md (20.4 KB)
【GPT】Part 2. OpenAI官网及开发者平台使用指南.md (18.3 KB)
【GPT】Part 3. 开通虚拟信用卡与Plus会员订阅与API账户的充值与领取API_KEY.md (18.5 KB)
【GPT】Part 4. 在Jupyter中首次调用OpenAI API.ipynb (12.8 KB)
【提示工程】
使用 FastAPI 构建后端的 API 服务.pdf (303.2 KB)
【提示工程】part1_提示工程指南(上).md (9.4 KB)
【提示工程】part2_提示工程指南(下).ipynb (98.7 KB)
大模型与Agent开发实战【新课】
1-在线大模型部署调用
DSPy优化器优化LLM程序.ts (1.1 GB)
DSPy:斯坦福20k+星标项目 – 革命性的LLM优化框架,从评估到自动优化你的LLM系统(如RAG系统).ts (1.1 GB)
GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts (669.3 MB)
GLM Assistant API集成与FastAPI服务复刻实战指南.ts (927.3 MB)
GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南.ts (545.6 MB)
提示工程全解指南.ts (775.0 MB)
【Claude】01_了解Claude的所有特质.MP4 (145.1 MB)
【Claude】02_Claude的注册流程.ts (70.2 MB)
【Claude】03_API_KEY领取及调用.ts (83.9 MB)
【Claude】04_API必须参数揭秘,多轮对话机器人速成指南_x264.ts (205.2 MB)
【Claude】05_API多模态的最佳实践.ts (88.4 MB)
【Claude】06_API生成定制化与提示工程实战长文档.mp4 (136.1 MB)
【Claude】07_tool use全流程讲解与wiki搜索实战.ts (245.4 MB)
【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts (197.2 MB)
【Claude】09_揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts (124.1 MB)
【Claude】10_stream函数及生成器本质讲解.ts (112.7 MB)
【Claude】11_stream流式概念与使用方法讲解.ts (163.2 MB)
【Claude】12_异步的使用原因与基本语法.ts (120.9 MB)
【Claude】13_异步的API调用的讲解与实践.ts (172.0 MB)
【Gemini】01_Gemini注册指南-最新模型免费API调用.ts (109.7 MB)
【Gemini】02_生态体验攻略与微调实战.ts (95.4 MB)
【Gemini】03_解锁 Gemini API-开启文本生成之旅.ts (116.9 MB)
【Gemini】04_掌握原生generate_content函数多轮对话技巧.ts (64.6 MB)
【Gemini】05_API内置简化多轮对话的start_chat函数与ChatSessi.ts (136.1 MB)
【Gemini】06_API精细化控制生成之System Instruction.ts (62.2 MB)
【Gemini】07_API精细化控制生成之generation_config与max_t.ts (97.3 MB)
【Gemini】08_API精细化控制生成之Temperature与Stop Sequen.ts (103.0 MB)
【Gemini】09_提示工程之长文档实战.ts (107.5 MB)
【Gemini】10_API精细化控制生成结构化与Json参数.ts (120.5 MB)
【GLMAssistantAPI】01_调用assistantAPI流程与效果.ts (117.0 MB)
【GLMAssistantAPI】02_多个assistant演示解析使用.ts (45.8 MB)
【GLMAssistantAPI】03_将智能体集成Agent类使用.ts (69.4 MB)
【GLMAssistantAPI】04_构建fastapi的Web项目.ts (106.3 MB)
【GLMAssistantAPI】05_复刻AssistantAPI.ts (46.8 MB)
【GLM】01_GLM大模型API调用介绍与领取APIKEY.ts (22.2 MB)
【GLM】02_GLM模型API初次调用与响应解析.ts (62.5 MB)
【GLM】03_大模型API调用的消息和构建多轮对话机器人.ts (104.3 MB)
【GLM】04_十分钟速通GLM的可选参数.ts (39.1 MB)
【GLM】05_GLM的stream流式响应讲解.ts (70.0 MB)
【GLM】06_tooluse上-一次api调用的tooluse.ts (99.1 MB)
【GLM】07_tooluse下-两次api调用的tooluse.ts (89.3 MB)
【GLM】08_tooluse接入维基百科搜索实战.ts (73.4 MB)
【GLM】09_CogVideoX视频生成大模型.ts (111.4 MB)
【GPT4o】01_4o文本生成API基本讲解与调用.ts (101.3 MB)
【GPT4o】02_2个核心必需参数详解与对话消息本质剖析.ts (118.3 MB)
【GPT4o】03_多轮对话历史及面向对象多轮对话机器人实战.ts (120.3 MB)
【GPT4o】04_精细控制生成可选参数系列讲解.ts (140.2 MB)
【GPT4o】05_4o多模态图片的文本生成API调用详解.ts (144.3 MB)
【GPT4o】06_3步的 tool use基础讲解与【实战】社交媒体情绪数据分析.ts (129.0 MB)
【GPT4o】07_5步的 tool use完整的调用流程与汇总.ts (85.8 MB)
【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts (120.2 MB)
【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts (113.2 MB)
【GPT4o】10_输出生成结构化的3种方式(JSON结构化).ts (143.4 MB)
【GPT4o】11_首token时延与提示缓存原理与最佳实践.ts (101.1 MB)
【GPT4o】12_Streaming流式响应详解.ts (196.6 MB)
【GPT4o】13_函数调用中的Streaming流式响应.ts (114.3 MB)
【GPT4o】14_风格微调(上)创建数据集与微调作业.ts (199.2 MB)
【GPT4o】15_风格微调(下)微调作业运行与应用评估.ts (109.8 MB)
【GPTo1】01_o1大模型原理介绍 从4o到o1实际上发生了什么.ts (88.2 MB)
【GPTo1】02_o1模型的API调用详解与总结.ts (133.0 MB)
【GPTo1】03_通过COT制作4o-mini版本的o1模型【实战】.ts (102.8 MB)
【GPTo1】04_2种加载模型o1没有的Json结构功能与【实战】.ts (84.0 MB)
【GPTo1】05_用o1蒸馏模型实战(上).ts (117.8 MB)
【GPTo1】06_用o1蒸馏模型实战(下).ts (104.7 MB)
【GPT】01_OPENAI的账号注册速通.ts (147.0 MB)
【GPT】02_OPEN AI官网及开发者平台使用指南.ts (182.4 MB)
【GPT】03_虚拟信用卡开通与升级GPT_Plus会员.ts (111.4 MB)
【GPT】04_API账户充值及领取API_KEY及首次调用API.ts (147.8 MB)
2-开源大模型部署调用
Cursor&Coder高效低代码开发办法.ts (90.1 MB)
Glm-Edge-v-5B模型介绍与本地部署.ts (35.6 MB)
Marco-o1模型介绍与本地部署.ts (224.8 MB)
Ollama最新版本保姆级指南.ts (185.8 MB)
Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts (128.5 MB)
Qwen2–5Coder本地部署使用全流程.ts (178.0 MB)
Qwen2–5Coder:32B基本介绍和测试.ts (196.8 MB)
Qwen2VL多模态模型参数介绍&部署使用全流程.ts (96.1 MB)
在Windows环境下使用Ollama启动多模态模型llama3.2Vision全流程.ts (50.3 MB)
【ChatGLM3-6B】01_Ubuntu双系统安装.MP4 (199.7 MB)
【ChatGLM3-6B】02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4 (182.7 MB)
【ChatGLM3-6B】03_服务器环境下部署ChatGLM3-6b.ts (163.2 MB)
【ChatGLM3-6B】04_ChatGLM3-6b的多种启动方法.ts (99.7 MB)
【ChatGLM3-6B】05_AutoDL快速部署ChatGLM3-6b办法.ts (64.5 MB)
【ChatGLM3-6B】06_Git方法简洁下载ChatGLM3-6b.ts (62.1 MB)
【ChatGLM3-6B】07_以ChatGLM3-6b为例的大模型更新办法.ts (50.2 MB)
【ChatGLM3-6B】08_单机多卡启动大模型办法.ts (110.1 MB)
【ChatGLM3-6B】09_LoRA原理浅析.ts (160.7 MB)
【ChatGLM3-6B】10_LoRA微调实战训练.ts (142.2 MB)
【ChatGLM3-6B】11_DeepSpeed原理浅析.ts (141.7 MB)
【ChatGLM3-6B】12_PEFT高效微调原理浅析.ts (259.6 MB)
【ChatGLM3-6B】13_P-Tuning V2微调实战.ts (95.1 MB)
【ChatGLM3-6B】14_LangChian体系详解.ts (188.2 MB)
【ChatGLM3-6B】15_LangChain0.3安装部署与调用方法.ts (157.5 MB)
【Cursor】调用QWQ实现辅助编程–调用本地模型全流程.ts (70.1 MB)
【Cursor】在Windows环境下调用QWQ线上API实现辅助编程方法.ts (31.6 MB)
【GLM4-9B】01_模型基本介绍.ts (53.5 MB)
【GLM4-9B】02_安装部署流程展示.ts (87.7 MB)
【GLM4-9B】03_多种启动方式流程展示.ts (115.5 MB)
【GLM4-9B】04_vLLM介绍和部署应用.ts (167.3 MB)
【GLM4-9B】05_WSL部署流程.ts (55.5 MB)
【GLM4-Voice】01_模型基本介绍.ts (105.8 MB)
【GLM4-Voice】02_多模态与AGI技术展望.ts (75.4 MB)
【GLM4-Voice】03_本地化部署流程.ts (108.2 MB)
【GLM4-Voice】04_线上部署流程.ts (100.8 MB)
【GLM4-Voice】05_开源大模型比拼-排行榜介绍.ts (121.6 MB)
【Llama.cpp】以Qwen2.5为例实现量化模型启动与API调用.ts (99.8 MB)
【Llama.cpp】以Qwen2VL为例实现GGUF模型量化与调用办法.ts (44.2 MB)
【Llama3.1】01_Llama家族系列模型生态介绍.ts (125.4 MB)
【Llama3.1】02_线上体验办法.ts (42.9 MB)
【Llama3.1】03_技术论文解读.ts (167.3 MB)
【Llama3.1】04_官网以及Ollama部署流程.ts (160.8 MB)
【Llama3.1】05_ModelScope线上部署.ts (92.3 MB)
【Llama3.1】06_ModelScope本地部署.ts (63.1 MB)
【Llama3.1】07_LlamaFactory中文能力微调实例.ts (172.4 MB)
【Llama3.2】01_基本介绍与线上测试办法.ts (64.7 MB)
【Llama3.2】02_官网下载流程.ts (62.3 MB)
【Llama3.2】03_Ollama在Linux和Windows部署方法.ts (49.0 MB)
【Qwen2.5Coder&Math】01_Coder介绍.ts (96.6 MB)
【Qwen2.5Coder&Math】02_Math介绍.ts (35.8 MB)
【Qwen2.5Coder&Math】03_Coder技术文章分析.ts (82.6 MB)
【Qwen2.5Coder&Math】04_Math技术文章分析.ts (22.7 MB)
【Qwen2.5Coder&Math】05_Math线上体验.ts (27.6 MB)
【Qwen2.5Coder&Math】06_Coder本地部署推理流程.ts (91.0 MB)
【Qwen2.5Coder&Math】07_vLLM推理Coder流程.ts (41.4 MB)
【Qwen2.5Coder&Math】08_Ollama推理Coder流程.ts (32.1 MB)
【Qwen2.5Coder&Math】09_线上部署推理Coder流程.ts (92.4 MB)
【Qwen2.5Coder&Math】10_Math部署流程.ts (13.9 MB)
【Qwen2.5】01_基本介绍与线上体验办法.ts (98.7 MB)
【Qwen2.5】02_ModelScope本地化部署流程.ts (82.6 MB)
【Qwen2.5】03_ModelScope线上部署办法.ts (41.2 MB)
【Qwen2.5】04_Ollama框架部署流程.ts (43.7 MB)
【Qwen2.5】05_在Windows系统中使用Ollama框架部署流程.ts (26.3 MB)
【Qwen2.5】06_vLLM部署与调用流程.ts (124.3 MB)
3-大模型微调实战
Ch 1.1 通用模型发展与微调前景.ts (141.2 MB)
Ch 1.2 微调与其他技术的区别和关联.ts (102.1 MB)
Ch 1.3 微调步骤及技术栈.ts (89.9 MB)
Ch 1.4 高效微调及范围.ts (205.6 MB)
Ch 1.5 强化学习RHLF介绍.ts (80.9 MB)
Ch 1.6 主流微调框架.ts (81.7 MB)
Ch 2.1 Lora原理详解.ts (173.8 MB)
Ch 2.2 LLama_factory 介绍.ts (103.4 MB)
Ch 2.3 LLama_factory 安装部署及验证.ts (93.8 MB)
Ch 2.4 实战Qwen2.5微调.ts (141.4 MB)
Ch 2.5 配置TensorBoard.ts (85.3 MB)
Ch 3.1 如何获取数据源及使用解析.ts (170.9 MB)
Ch 3.2 llamafactory中如何使用和注册数据集.ts (215.2 MB)
Ch 3.3 模型微调及参数详解.ts (153.8 MB)
Ch 3.4 数据验证&deepspeed微调.ts (122.1 MB)
Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts (79.0 MB)
Ch 4.2 Qlora核心概念.ts (106.0 MB)
Ch 4.3如何在windows配置环境.ts (129.3 MB)
Ch 4.4 Qlor微调实战与验证.ts (153.2 MB)
Ch 5.1PPO&llama3.2_什么是PPO算法.ts (78.5 MB)
Ch 5.2 如何理解PPO.ts (113.8 MB)
Ch 5.3 各个模型PPO算法的协作关系.ts (98.9 MB)
Ch 5.4 PPO模型与数据的选择.ts (122.7 MB)
Ch 5.5 PPO微调实操.ts (111.7 MB)
Ch 5.6 PPO源码解读.ts (113.7 MB)
Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts (93.2 MB)
Ch 6.2 RLHF流程拆解与核心.ts (169.4 MB)
Ch 6.3 奖励模型原理.ts (59.1 MB)
Ch 6.4 奖励模型训练流程.ts (137.4 MB)
Ch 6.5 RLHF全流程微调.ts (45.6 MB)
Ch 6.6 RLHF挑战与改进方向.ts (83.1 MB)
DPO微调Qwen2.5.ts (988.2 MB)
LLama_factory&Lora微调Qwen2.5做NL2sql.ts (2.5 GB)
LLama_Factory+LORA大模型微调.ts (2.4 GB)
PPO微调Llama-3.2.ts (2.6 GB)
window系统微调QLORA.ts (1.9 GB)
4-大模型Agent开发实战
Ch 1.1 大模型应用发展与Agent前沿技术趋势.ts (162.8 MB)
Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts (136.1 MB)
Ch 1.3 AI Agent爆发的根本原因.ts (133.1 MB)
Ch 1.4 AI Agent 经典核心架构与 AgentExcuter.ts (200.4 MB)
Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts (73.1 MB)
Ch 2.2 AI Agent三种应用类型及Python实现可交互的聊天机器人.ts (192.0 MB)
Ch 2.3 Funcation Calling 完整生命周期细节复现.ts (222.8 MB)
Ch 2.4 实现具备Funcation Calling的智能电商客服.ts (88.2 MB)
Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts (129.6 MB)
Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts (43.6 MB)
Ch 3.1 Funcation Calling 与 AI Agent的本质区别.ts (63.3 MB)
Ch 3.2 提示工程到代理工程的平滑过度.ts (113.1 MB)
Ch 3.3 ReAct Agent框架的基础理论.ts (90.4 MB)
Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts (297.5 MB)
Ch 3.5 项目:基于ReAct Agent构建电商智能客服_batch.ts (218.5 MB)
Ch 4.1 Assistant API 框架的整体介绍.ts (114.3 MB)
Ch 4.2 Assistant对象的创建方法.ts (198.8 MB)
Ch 4.3 Thread、Messges及Run应用方法.ts (72.5 MB)
Ch 4.4 Run运行时的状态转移机制.ts (119.5 MB)
Ch 4.5 实现Run状态的轮询方法,并实现Assistant API完整链路.ts (177.4 MB)
Ch 5.1 Assistant API 进阶应用方法介绍.ts (56.6 MB)
Ch 5.2 File Search内置工具说明及文件管理.ts (172.5 MB)
Ch 5.3 基于 Assistant API 创建在线私有知识库.ts (142.1 MB)
Ch 5.4 在Assistant和Thread定义File Search工具的四种策略.ts (178.4 MB)
Ch 5.5 如何处理Assistant API输出响应中的注释.ts (62.6 MB)
Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts (86.7 MB)
Ch 5.7 基于Funcation Calling实现本地代码解释器.ts (207.4 MB)
Ch 6.1 为什么企业级应用必须接入流式输出.ts (140.6 MB)
Ch 6.2 Assistant API中流式输出的开启方法.ts (104.2 MB)
Ch 6.3 Assistant API 流式传输中的事件流原理细节.ts (121.6 MB)
Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts (175.8 MB)
Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码.ts (89.2 MB)
Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts (156.0 MB)
Ch 7.1 LangChain的AI Agent开发框架架构设计.ts (87.9 MB)
Ch 7.2 LangGraph 的底层构建原理.ts (201.6 MB)
Ch 7.3 Langgraph底层源码解析.ts (138.2 MB)
Ch 7.4 LangGraph中如何接入大模型做问答流程.ts (163.9 MB)
Ch 8.1 LangGraph中State的定义模式.ts (123.2 MB)
Ch 8.2 使用字典类型定义状态的方法与优劣势.ts (196.7 MB)
Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts (141.6 MB)
Ch 8.4 MessageGraph源码功能解析.ts (223.7 MB)
Ch 8.5 LangSmith基本原理与使用入门.ts (112.9 MB)
Ch 9.1 LangGraph代理架构及Router Agent介绍.ts (185.1 MB)
Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts (144.1 MB)
Ch 9.3 结合结构化输出构建Router Agent(数据库).ts (194.9 MB)
Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts (163.7 MB)
Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts (207.6 MB)
Ch 10.1 LangGraph中ReAct的构建原理.ts (157.6 MB)
Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理.ts (279.1 MB)
Ch 10.3 LangGraph中如何使用流式输出.ts (211.0 MB)
Ch 10.4 LangGraph中的事件流.ts (101.0 MB)
Ch 11.1 Agent长短期记忆认知.ts (123.0 MB)
Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts (183.4 MB)
Ch 11.3 检查点的特定实现类型-MemorySaver.ts (153.1 MB)
Ch 11.4 检查点的特定实现类型-SqliteSaver.ts (172.7 MB)
Ch 11.5 长期记忆和Store(仓库).ts (102.5 MB)
Ch 12.1 LangGraph知识点概述总结.ts (106.3 MB)
Ch 12.2 LangGraph中的HIL实现思路.ts (157.0 MB)
Ch 12.3 标准图结构中如何添加断点.ts (348.8 MB)
Ch 12.4 复杂代理架构中如何添加动态断点.ts (163.2 MB)
Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts (346.3 MB)
Ch 13.1 Single-Agent 存在的局限.ts (181.7 MB)
Ch 13.2 Multi-Agent 架构分类及子图的通信模式 – 副本.ts (239.3 MB)
Ch 13.3 父、子图状态中无共同键的通信方式.ts (92.4 MB)
Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts (163.1 MB)
Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts (168.2 MB)
Ch 14.1 Supervisor 架构介绍与基本构建原理.ts (317.2 MB)
Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts (170.5 MB)
Ch 14.3 GraphRAG 基本介绍与核心架构.ts (179.1 MB)
Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts (329.1 MB)
大模型应用发展及Agent前沿技术趋势.MP4 (1.5 GB)
LangGraph 多代理与 GraphRAG 综合应用实战.ts (3.1 GB)
项目开发实战一:从零搭建多功能智能体 MateGen Pro(第二部分).ts (3.4 GB)
【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts (66.7 MB)
【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts (155.3 MB)
【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts (73.3 MB)
【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts (198.7 MB)
【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts (55.7 MB)
【MateGenPro】Ch 6 API_Key接口初始化与校验.ts (138.9 MB)
【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts (356.4 MB)
【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts (205.4 MB)
5-RAG项目实战企业篇
week_1_1_part_1_课程说明及大模型问答功能复现.mp4 (135.8 MB)
week_1_1_part_2_本地私有化部署glm4-9b-chat模型.mp4 (140.6 MB)
week_1_1_part_3_调用本地启动的glm4模型的方法.mp4 (109.0 MB)
week_1_2_part_1_GLM在线API调用方法.mp4 (222.7 MB)
week_1_2_part_2_Langchain应用框架整体介绍.mp4 (229.0 MB)
week_1_2_part_3_FastAPI项目介绍.mp4 (50.1 MB)
week_2_1_part_1_本周开发任务说明.mp4 (31.4 MB)
week_2_1_part_2_Naive RAG介绍及借助LangChain实现RAG流.mp4 (292.8 MB)
week_2_1_part_3_RAG集成历史对话信息及SqlalChemy持久化存储的使.mp4 (229.2 MB)
week_2_2_part_1_通用问答流程整体流程介绍及参数说明.mp4 (221.9 MB)
week_2_2_part_2_FastChat项目说明及Python多进程.mp4 (170.4 MB)
week_2_2_part_3_项目启动文件详细说明及流程复现.mp4 (175.2 MB)
week_3_1_part_1_企业级RAG的构建架构和思路.mp4 (92.5 MB)
week_3_1_part_2_结合Faiss向量数据的RAG Indexing构建流程.mp4 (175.9 MB)
week_3_1_part_3_百万量级的wiki公有语料构建方法实践.mp4 (122.3 MB)
week_3_1_part_4_yolox + orc 识别私有PDF语料的方案实践.mp4 (158.6 MB)
week_3_2_part_1_本地RAG知识库问答功能链路详解与复现.mp4 (127.3 MB)
week_3_2_part_2_RAG评估框架-TruLens实践.mp4 (164.8 MB)
week_3_2_part_3_RAG评估框架-Ragas的使用及借助GLM4生成评估数据.mp4 (244.3 MB)
week_4_1_part_1_自定义RAG评估Pipeline-构建统一的数据集格式.mp4 (134.0 MB)
week_4_1_part_2_自定义RAG评估Pipeline-构建统一的提示模板.mp4 (30.2 MB)
week_4_1_part_3_自定义RAG评估Pipeline-整体逻辑实现及细节说明.mp4 (149.7 MB)
week_4_1_part_4_自定义RAG评估Pipeline-评估指标及评估流程实现.mp4 (94.2 MB)
week_4_1_part_5_自定义RAG评估Pipeline-ReRanker原理及实.mp4 (85.3 MB)
week_4_2_part_1_Serper API联网检索数据预处理过程拆解.mp4 (167.0 MB)
week_4_2_part_2_基于Serper实现系统架构下的联网实时检索功能.mp4 (279.0 MB)
week_5_part_1_大模型融入推荐系统一种思路_1.MP4 (54.4 MB)
week_5_part_2_大模型用于特征工程及实现推荐系统的整体逻辑代码.MP4 (411.4 MB)
week_5_part_3_基于Langchain实现基于ReAct的代码实践及TOT提示.MP4 (415.4 MB)
week_5_part_4_项目整体框架下实现基于Agent的问答流程代码实践.ts (93.1 MB)
week_5_part_5_Docker介绍及借助Docker打包部署完整项目的流程.mp4 (142.9 MB)
6-直播回放篇
加餐-前沿技术追更
【加餐】01 Computer Use API 详解(1)准备工作.ts (46.8 MB)
【加餐】02 Computer Use API 详解(2)对话函数上.ts (73.9 MB)
【加餐】03 Computer Use API 详解(3)对话函数下.ts (53.8 MB)
【加餐】04 Computer Use API 详解(4)多轮对话及tool use.ts (84.1 MB)
【加餐】05 Computer Use API 详解(5)全组件总结.ts (43.1 MB)
【加餐】06 Computer use实战初窥.ts (67.1 MB)
【加餐】07 Computer Use docker安装部署全流程.ts (63.2 MB)
【加餐】08 Computer Use项目启动&实战案例.ts (39.2 MB)
【加餐】09 Computer Use源码详解.ts (25.3 MB)
直播回放
ChatGPT的注册与ChatGPT API充值.ts (1.0 GB)
GLM-4-Video-9b 介绍与部署流程.ts (1.1 GB)
GPT4o的API基本调用、精细生成控制与多模态实操.ts (1.2 GB)
GPT4o的函数调用实战与结构化生成回答与提示缓存原理.ts (1.2 GB)
LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts (3.1 GB)
LangGraph 中 Human-in-the-loop 应用实战.ts (3.7 GB)
LangGraph 长短期记忆实现机制及检查点的使用.ts (3.7 GB)
LangGraph中State状态模式与LangSmith基础使用入门.ts (3.0 GB)
Llama 3.1&2部署微调.ts (1.2 GB)
Llama 3.1介绍与部署流程.ts (1.1 GB)
o1模型详解与模型蒸馏实战.ts (1.2 GB)
OPENAI的Streaming流式响应与API微调双实战,Claude computer use接入自己的电脑.ts (1.4 GB)
Qwen2.5-Coder&Math介绍与部署.ts (1.0 GB)
Qwen2.5介绍与部署流程.ts (923.8 MB)
PART4:DeepSeekV3 (5小节)
【DeepSeekv3】1 整体架构与分布式基础概念.mp4 (145.3 MB)
【DeepSeekv3】2 分布式嵌入层与投影层.mp4 (154.6 MB)
【DeepSeekv3】3 MLA潜在注意力 (1) 从自回归掩码看KV缓存机制.mp4 (99.3 MB)
【DeepSeekv3】4 MLA潜在注意力 (2) 针对KV缓存的改进.mp4 (94.2 MB)
【DeepSeekv3】5 DeepSeekMOE的MOE架构与创新.mp4 (165.8 MB)

]

声明:本站所有文章及其他内容均来自互联网收集,如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。