-
木羽老师
木羽老师是知名的人工智能研究者和教育者,专注于深度学习和大模型的应用。在AI领域,有着超过十年的实战经验,曾参与多个大型项目,涉及自然语言处理和计算机视觉等多个方向。木羽老师不仅具有扎实的理论基础,还在项目开发中积累了丰富的实践经验,通过案例分享的方式,帮助学员理解复杂的技术原理。 -
九天老师
九天老师在大模型与智能体开发方面有深厚的专业背景,是多项成功AI产品开发的关键人物。他的教学风格生动,注重实用性,擅长将最新的AI技术转化为可操作的知识,帮助学员在短时间内掌握重要技能。九天老师对于Agent的设计与优化有独到见解,能够帮助学生在这一领域取得突破性进展。 -
菊安酱老师
菊安酱老师是一位活跃的AI技术传播者和实践者,致力于将复杂的AI概念以简单易懂的方式传递给学员。在她的指导下,学员将学习到前沿的技术动态与应用案例,了解大模型和智能体在实际场景中的应用。菊安酱老师的教学注重互动与实操,鼓励学生积极参与讨论,培养他们的创新思维。
迈入大模型与Agent开发的实践之路
在人工智能飞速发展的今天,大模型与智能体(Agent)技术已成为推动创新的核心力量。你是否想了解如何将这些强大的技术应用于现实问题?想要学习如何设计和开发智能体,提升业务智能化?
《大模型与Agent开发实战》课程重磅上线!
本课程利用木羽老师、九天老师和菊安酱老师的丰富经验,为希望深入探索AI领域的学员提供全面的教育体验。内容包括理论知识和实战技能,帮助你在AI行业中脱颖而出。课程将涵盖以下几个重要方面:
-
大模型基础与应用:深入理解GPT、BERT等大模型的架构与机制,探讨它们在各个领域中的实际应用。
-
Agent开发实践:学习如何设计智能体,包括自然语言处理、决策制定和环境交互等,掌握Agent的工作原理。
-
实战项目演练:通过实际案例,指导学员从构思到实现的整个开发过程,帮助你获得宝贵的实践经验。
-
优化方法与最佳实践:分享在开发大模型与Agent过程中遇到的挑战与解决方案,提升项目的成功率。
适合人群:
- 对AI技术有兴趣的开发者与研究者。
- 数据科学专业人员,希望扩展大模型与Agent的应用技能。
- 学术人员和学生,寻求深入了解AI与智能体的机会。
- 企业的技术团队,希望将AI和智能体技术应用于产品开发。
通过本课程的学习,
- 扎实掌握大模型与Agent技术的基础理论和应用技能。
- 独立开展项目,积累丰富的实践经验。
- 掌握最新的技术动态,增强在人工智能领域的竞争力。
课程目录:
RAG项目实战企业篇
- week 1 1 part 1 课程说明及大模型问答功能复现,mp4
- week 1 1_part 2 本地私有化部署glm4-9b-chat模型,mp4
- week 1 1_part 3 调用本地启动的glm4模型的方法.mp4
- week 1 2_part 1 GLM在线API调用方法.mp4
- week 1 2_part 2 Langchain应用框架整体介绍.mp4
- week_1 2_part 3 FastAP|项目介绍,mp4
- week 2 1 part 1本周开发任务说明,mp4
- week 2 1_part 2 Naive RAG介绍及借助LangChain实现RAG流.mp4
- week 2 1 part 3 RAG集成历史对话信息及SglalChemy持久化存储的使,mp4
- week 2 2 part 1 通用问答流程整体流程介绍及参数说明,mp4
- week 2 2 part 2 Fastchat项目说明及Python多进程,mp4
- week 2 2_part 3 项目启动文件详细说明及流程复现,mp4
- week_3_1_part_1_企业级RAG的构建架构和思路.mp4
- week 3 1 part 2 结合Faiss向量数据的RAG Indexing构建流程.mp4
- week 3 1 part 3 百万量级的wiki公有语料构建方法实践,mp4
- week 3 1_part 4_yolox+ orc 识别私有PDF语料的方案实践.mp4
- week 3 2 part 1本地RAG知识库问答功能链路详解与复现.mp4
- week 3 2 part 2 RAG评估框架-TruLens实践,mp4
- week 3 2_part 3_RAG评估框架-Ragas的使用及借助GLM4生成评估数据.mp4
- week 4 1 part 1 自定义RAG评估Pipeline-构建统一的数据集格式.mp4
- week_4 1_part 2_自定义RAG评估Pipeline-构建统一的提示模板,mp4
- week_4_1_part _3 _自定义RAG评估Pipeline-整体逻辑实现及细节说明,mp4
- week 4 1_part 4 自定义RAG评估Pipeline-评估指标及评估流程实现,mp4
- week4 1 part 5 自定义RAG评估Pipeline-ReRanker原理及实,mp4
- week_4_2_part_1 Serper APl联网检索数据预处理过程拆解,mp4
- week 4 2_part 2 基于Serper实现系统架构下的联网实时检索功能,mp4
- week 5 part 1 大模型融入推荐系统一种思路 1.MP4
- week 5 part 2 大模型用于特征工程及实现推荐系统的整体逻辑代码,MP4
- week 5 part 3 基于Langchain实现基于ReAct的代码实践及TOT提示,MP4
- week 5 part 4 项目整体框架下实现基于Agent的问答流程代码实践.ts
- week 5 part 5 Docker介绍及借助Docker打包部署完整项目的流程.mp4
大模型Agent开发实战
- 【MateGenPro】Ch 1.MateGen Pro 项目整体架构介绍,ts
- [MateGenPro】Ch2.本地运行MateGen Pro项目流程,ts
- [MateGenPro】Ch 3. MateGen Pro 后端AP|核心模块设计.ts
- [MateGenPro】Ch 4.SQLAlchemy原理与项目接入.ts
- [MateGenPro】Ch5.MateGen 数据库初始化逻辑,ts
- [MateGenPro】Ch 6 AP| Key接囗初始化与校验,ts
- [MateGenPro】Ch7缓存池与系统初始化逻辑.ts
- [MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts
- Ch 1.1大模型应用发展与Agent前沿技术趋势.ts
- Ch 1.2 大模型应用的本地知识库问答核心技术-RAG,ts
- Ch 1.3 Al Agent爆发的根本原因,ts
- Ch 1.4 Al Agent 经典核心架构与 AgentExcuter.ts
- Ch 2.1 AI Agent与LLMS + RAG的本质区别.ts
- Ch 2.2 Al Agent三种应用类型及Python实现可交互的聊天机器人.ts
- Ch 2.3 Funcation Calling 完整生命周期细节复现.ts
- Ch 2.4 实现具备Funcation Calling的智能电商客服,ts
- Ch 2.5 Function Calling并行调用和多医数调用的应用方法.ts
- Ch 2.6 加餐:OpenAl最新推出的结构化输出功能介绍,ts
- Ch 3.1 Funcation Calling 与 Al Agent的本质区别.ts
- Ch 3.2 提示工程到代理工程的平滑过度.ts
- Ch 3.3 ReAct Agent框架的基础理论,ts
- Ch 3.4 案例:从零复现ReAct Agent的完整流程,ts
- Ch 3.5 项目:基于ReAct Agent构建电商智能客服 batch.ts
- Ch 4.1 Assistant AP| 框架的整体介绍.ts
- Ch 4.2 Assistant对象的创建方法,ts
- Ch 4.3 Thread、Messges及Run应用方法.ts
- Ch 4.4 Run运行时的状态转移机制,ts
- Ch 4.5 实现Run状态的轮询方法,并实现Assistant APl完整链路.ts
- Ch 5.1 Assistant APl 进阶应用方法介绍,ts
- Ch 5.2 File Search内置工具说明及文件管理,ts
- Ch 5.3 基于 Assistant AP| 创建在线私有知识库,ts
- Ch 5.4 在Assistant和Thread走义File Search工具的四种策略,ts
- Ch 5.5 如何处理Assistant APl输出响应中的注释,ts
- Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts
- Ch 5.7 基于Funcation Calling实现本地代码解释器,ts
- Ch 6.1为什么企业级应用必须接入流式输出.ts
- Ch 6.2 Assistant APl中流式输出的开启方法.ts
- Ch 6.3 Assistant APl流式传输中的事件流原理细节.ts
- Ch 6.4 如何在 Assistant AP|流式传输中接入外部图数,ts
- Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码,ts
- Ch6.6 应用秦例(2):集成外部函数方法及项目完整功能介绍.ts
- Ch 7.1 LangChain的Al Agent开发框架架构设计.ts
- Ch 7.2 LangGraph 的底层构建原理,ts
- Ch 7.3 Langgraph底层源码解析.ts
- Ch 7.4 LangGraph中如何接入大模型做问答流程.ts
- Ch 8.1 LangGraph中State的定义模式.ts
- Ch 8.2 使用字典类型定义状态的方法与优劣势.ts
- Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts
- Ch 8.4 MessageGraph源码功能解析.ts
- Ch 8.5 Langsmith基本原理与使用入门.ts
- Ch 9.1 LangGraph代理架构及Router Agent介绍.ts
- Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts
- Ch 9.3 结合结构化输出构建Router Agent(数据库),ts
- Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts
- Ch 9,5 Tool Calling Agent的完整实现案例:实时搜素与数据库集成,ts
- Ch 10.1 LangGraph中ReAct的构建原理,ts
- Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理,ts
- Ch 10.3 LangGraph中如何使用流式输出.ts
- Ch 10.4 LangGraph中的事件流.ts
- Ch 11.1 Agent长短期记忆认知.ts
- Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts
- Ch 11,3 检查点的特定实现类型-MemorySaverts
- Ch 11.4 检查点的特定实现类型-SqliteSaver.ts
- Ch 11.5 长期记忆和Store(仓库).ts
- Ch 12.1 LangGraph知识点概述总结.ts
- Ch 12.2 LangGraph中的HIL实现思路.ts
- Ch 12.3 标准图结构中如何添加断点.ts
- Ch 12.4 复杂代理架构中如何添加动态断点.ts
- Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts
- Ch 13.1 Single-Agent 存在的局限.ts
- Ch 13.2 Multi-Agent 架构分类及子图的通信模式-副本.ts
- Ch 13.3 父、子图状态中无共同键的通信方式.ts
- Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts
- Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts
- Ch 14.1 Supervisor 架构介绍与基本构建原理.ts
- Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts
- Ch 14.3 GraphRAG 基本介绍与核心架构.ts
- Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts
- LangGraph 多代理与 GraphRAG 综合应用实战,ts
- 大模型应用发展及Agent前沿技术趋势,MP4
- 关于课件和代码,docx
- 项目开发实战-:从零搭建多功能智能体 MateGen Pro(第二部分).ts
大模型微调实战
- Ch 1.1 通用模型发展与微调前景.ts
- Ch 1.2 微调与其他技术的区别和关联.ts
- Ch 1.3 微调步骡及技术栈.ts
- Ch 1.4 高效微调及范围.ts
- Ch 1.5 强化学习RHLF介绍.ts
- Ch 1.6 主流微调框架.ts
- Ch 2.1 Lora原理详解.ts
- Ch 2.2 LLama factory 介绍.ts
- Ch 2.3 LLama factory 安装部善及验证.ts
- Ch 2.4 实战Qwen2.5微调,ts
- Ch 2.5 配置TensorBoard.ts
- Ch 3.1 如何获取数据源及使用解析,ts
- Ch 3.2 lamafactory中如何使用和注册数据集,ts
- Ch 3.3 模型微调及参数详解,ts
- Ch 3,4 数据验证&deepspeed微调.ts
- Ch 4.1 win&Qlora&gwen2.5 Qlora能节约多少内存,ts
- Ch 4.2 Qlora核心概念.ts
- Ch 4.3如何在windows配置环境.ts
- Ch 4.4 Qlor微调实战与验证,ts
- Ch 5.1PPO&llama3.2 什么是PPO算法.ts
- Ch 5.2 如何理解PPO.ts
- Ch 5.3 各个模型PPO算法的协作关系,ts
- Ch 5.4 PPO模型与数据的选择,ts
- Ch 5.5 PPO微调实操,ts
- Ch 5.6 PPO源码解读.ts
- Ch 6.1 RLHF&Qwen2.5,RLHF背最与意义.ts
- Ch 6.2 RLHF流程拆解与核心.ts
- Ch 6.3 奖励模型原理.ts
- Ch 6.4 奖励模型训练流程.ts
- Ch 6.5 RLHF全流程微调.ts
- Ch 6.6 RLHF挑战与改进方向.ts
- DPO微调Qwen2.5.ts
- LLama factory&Lora微调Qwen2.5做NL2sgl.ts
- LLama Factory+LORA大模型微调,ts
- PPO微调Lama-3.2.ts
- window系统微调QLORA.ts
开源大模型部署调用
- [ChatGLM3-6B】01 Ubuntu双系统安装,MP4
- [ChatGLM3-6B】02 Ubuntu环境下ChatGLM3-6b命令行安装办法,MP4
- [ChatGLM3-6B】03 服务器环境下部署ChatGLM3-6b.ts
- [ChatGLM3-6B】04 ChatGLM3-6b的多种启动方法.ts
- ChatGLM3-6B】05 AutoDL快速部署ChatGLM3-6b办法,ts
- [ChatGLM3-6B】06 Git方法简洁下载ChatGLM3-6b.ts
- [ChatGLM3-6B】07 以ChatGLM3-6b为例的大模型更新办法.ts
- [ChatGLM3-6B】08 单机多卡启动大模型办法.ts
- [ChatGLM3-6B】09 LORA原理浅析,ts
- ChatGLM3-6B】10 LORA微调实战训练,ts
- [ChatGLM3-6B】11 DeepSpeed原理浅析.ts
- [ChatGLM3-6B】12 PEFT高效微调原理浅析,ts
- ChatGLM3-6B】13 P-Tuning V2微调实战.ts
- [ChatGLM3-6B】14 LangChian体系详解,ts
- [ChatGLM3-6B】15 LangChain0,3安装部署与调用方法.ts
- 【GLM4-9B】01 模型基本介绍.ts
- [GLM4-9B】02 安装部署流程展示,ts
- 【GLM4-9B】03 多种启动方式流程展示.ts
- 【GLM4-9B】04 VLLM介绍和部署应用.ts
- [GLM4-9B】05 WSL部善流程.ts
- 【GLM4-Voice】01 模型基本介绍.ts
- [GLM4-Voice】02 多模态与AGl技术展望,ts
- [GLM4-Voice】03 本地化部善流程.ts
- 【GLM4-Voice】04 线上部善流程,ts
- 【GLM4-Voice】05 开源大模型比拼-排行榜介绍,ts
- [Llama3.1】01 Llama家族系列模型生态介绍.ts
- 【Llama3.1】02 线上体验办法.ts
- [Llama3.1】03 技术论文解读.ts
- 【Llama3,1】04 官网以及Ollama部署流程,ts
- [Llama3.1】05 ModelScope线上部署.ts
- [Llama3.1】06 Modelscope本地部善.ts
- [Llama3.1】07 LlamaFactory中文能力微调实例.ts
- [Llama3.2】01 基本介绍与线上测试办法,ts
- 【Llama3,2】02 官网下载流程.ts
- [Llama3.2】03 0llama在Linux和Windows部署方法.ts
- 【Qwen2.5】01 基本介绍与线上体验办法,ts
- [Qwen2.5】02 ModelScope本地化部署流程,ts
- 【Qwen2.5】03 ModelScope线上部署办法,ts
- 【Qwen2.5】04 0lama框架部署流程,ts
- [Qwen2.5】05 在Windows系统中使用Ollama框架部吾流程.ts
- 【Qwen2.5】06 LLM部署与调用流程.ts
- [Qwen2.5Coder&Math】01 Coder介绍.ts
- [Qwen2.5Coder&Math】02 Math介绍.ts
- [Qwen2.5Coder&Math】03 Coder技术文章分析,ts
- 【Qwen2.5Coder&Math】04 Math技术文章分析.ts
- [Qwen2.5Coder&Math】05 Math线上体验.ts
- [Qwen2.5Coder&Math】06 Coder本地部署推理流程,ts
- [Qwen2.5Coder&:Math】07 vLLM推理Coder流程.ts
- 【Qwen2.5Coder&Math】08 0lama推理Coder流程.ts
- [Qwen2.5Coder&Math】09 线上部善推理Coder流程,ts
- [Qwen2.5Coder&Math】10 Math部善流程,ts
- Cursor&Coder高效低代码开发办法.ts
- Glm-Edge-v-5B模型介绍与本地部善.ts
- Marco-o1模型介绍与本地部善.ts
- Ollama最新版本保姆级指南.ts
- Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
- Qwen2–5Coder:32B基本介绍和测试.ts
- Qwen2–5Coder本地部署使用全流程.ts
- Qwen2VL多模态模型参数介绍&部善便用全流程.ts
- 在Windows环境下使用Ollama启动多模态模型llama3,2Vision全流程,ts
在线大模型部署调用
- 【Claude】01 了解Claude的所有特质,MP4
- [Claude】02 Claude的注册流程.ts
- [Claude】03 APIKEY领取及调用.ts
- 【Claude】04 API必须参数揭秘,多轮对话机器人速成指南 x264.ts
- [Claude】05 API多模态的最佳实践.ts
- [Claude】06 API生成定制化与提示工程实战长文档.mp4
- 【[Claude】07 tool use全流程讲解与wiki搜索实战,ts
- [Claude】08 tool choice与定制Json输出及tool use大实战,ts
- 【Claude】09 揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts
- 【Claude】10 stream匪数及生成器本质讲解.ts
- 【Claude】11 stream流式概念与使用方法讲解,ts
- [Claude】12 异步的使用原因与基本语法.ts
- [Claude】13 异步的API调用的讲解与实践.ts
- 【Gemini】01 Gemini注册指南-最新模型免费API调用.ts
- 【Gemini】02 生态体验攻略与微调实战.ts
- 【Gemini】03 解锁 Gemini APl-开启文本生成之旅.ts
- 【Gemini】04 学握原生generate content图数多轮对话技巧5.ts
- 【Gemini】05 AP|内置简化多轮对话的start chat函数与ChatSessi.ts
- [Gemini】06 API精细化控制生成之System Instruction.ts
- 【Gemini】07 APl精细化控制生成之generation config与max t.ts
- [Gemini】08 AP|精细化控制生成之Temperature与Stop Sequen.ts
- 【Gemini】09 提示工程之长文档实战.ts
- 【Gemini】10 API精细化控制生成结构化与Json参数,ts
- 【GLM】01 GLM大模型API调用介绍与领取APIKEYts
- 【GLM】02 GLM模型API初次调用与响应解析.ts
- 【GLM】03 大模型API调用的消息和构建多轮对话机器人.ts
- 【GLM】04_十分钟速通GLM的可选参数.ts
- 【GLM】05 GLM的stream流式响应讲解,ts
- [GLM】06 tooluse上–次api调用的tooluse.ts
- 【GLM】07 tooluse下-两次api调用的tooluse.ts
- 【GLM】08 tooluse接入维基百科搜索实战.ts
- 【GLM】09 CogVideoX视频生成大模型,ts
- 【GPT】01 OPENAI的账号注册速通,ts
- 【GPT】02 OPEN AI官网及开发者平台使用指南.ts
- 【GPT】03 虚拟信用卡开通与升级GPT Plus会员.ts
- 【GPT】04 API账户充值及领取APIKEY及首次调用APl.ts
- 【GPT4o】01 4o文本生成API基本讲解与调用.ts
- 【GPT4o】02 2个核心必需参数详解与对话消息本质剖析.ts
- [GPT40】03 多轮对话历史及面向对象多轮对话机器人实战.ts
- 【GPT4o】04 精细控制生成可选参数系列讲解.ts
- 【GPT40】05 4o多模态图片的文本生成API调用详解.ts
- 【GPT4o】06 3步的 tool use基础讲解与【实战】社交媒体情绪数据分析.ts
- 【GPT4o】07 5步的 tool use完整的调用流程与汇总,ts
- [GPT4o】08 tool use 维基百科实时写作助手【实战】.ts
- 【GPT4o】09 并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts
- 【GPT40】10 输出生成结构化的3种方式(JSON结构化).ts
- 【GPT4o】11 首token时延与提示缓存原理与最佳实践,ts
- 【GPT40】12 Streaming流式响应详解.ts
- 【GPT4o】13 函数调用中的Streaming流式响应.ts
- 【GPT4o】14 风格微调(上)创建数据集与微调作业.ts
- 【GPT4o】15 风格微调(下)微调作业运行与应用评估.ts
- 【GPTo1】01 01大模型原理介绍 从4o到o1实际上发生了什么.ts
- 【GPTo1】02 01模型的API调用详解与总结.ts
- [GPTo1】03 通讨COT制作40-mini版本的o1模型【实战】.ts
- 【GPTo1】04 2种加载模型o1没有的Json结构功能与【实战】.ts
- 【GPTo1】05 用o1蒸馏模型实战(上).ts
- 【[GPTo1】06 用o1蒸馏模型实战(下).ts
- DSPy:斯坦福20k+星标项目-革命性的LLM优化框架,从评估到自动优化你的LLM系统(如RAG系统).ts
- DSPy优化器优化LLM程序.ts
- GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts
- GLM Assistant APl集成与FastAPI服务复刻实战指率.ts
- GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南,ts
- 提示工程全解指南.ts
直播回放篇
- Qwen2.5介绍与部吾流程,ts
- Qwen2.5-Coder&Math介绍与部署,ts
- OPENAl的Streaming流式响应与API微调双实战,Claude comput…
- o1模型详解与模型蒸馏实战ts
- Llama 3.1介绍与部署流程,ts
- Llama 3.1&2部署微调,ts
- LangGraph中State状态模式与LangSmith基础使用入门.ts
- LangGraph 中 Human-in-the-loop 应用实战.ts
- LangGraph 长短期记忆实现机制及检查点的使用.ts
- LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts
- GPT4o的函数调用实战与结构化生成回答与提示缓存原理,ts
- GPT4o的API基本调用、精细生成控制与多模态实,ts
- GLM-4-Video-9b 介绍与部署流程,ts
- ChatGPT的注册与ChatGPT API充值.ts
- 【加餐】09 Computer Use源码详解.ts
- 【加餐】08 Computer Use项目启动&实战案例,ts
- 【加餐】07 Computer Use docker安装部署全流程,ts
- 【加餐】06 Computer use实战初窥,ts
- 【加餐】05 Computer Use API详解(5)全组件总结,ts
- 【加餐】04 Computer Use AP|详解(4)多轮对话及tool use.ts
- 【加餐】03 Computer Use API 详解(3)对话函数下,ts
- 【加餐】02 Computer Use AP|详解(2)对话函数上.ts
- 【加餐】01 Computer Use AP| 详解(1)准备工作,ts
————下载必看————
2、如无特殊说明,解压密码为:yudouyudou
3、部分压缩为part1、part2类型的,需要全部下载到电脑才能解压
4、解压工具推荐:电脑端推荐使用Bandizip(最新版),苹果电脑端用RAR解压王。
5、关于下载速度:下载速度慢的,请开通百度网盘超级VIP会员下载。
6、关于付费:所有付费行为均为支持本站日常运作。
7、版权归作者或出版社方所有,本站不对涉及的版权问题负法律责任。若版权方认为本站侵权,请联系客服或发送邮件处理。
资源失效请添加客服微信 “ s45246130 ”,发送资源名称,我们会及时重新补发
评论(0)