手机创建网站免费注册,网页设计培训训,网站建设思路设计,东莞seo建站排名市场今年刚看到Manus这种Agent的时候很兴奋#xff0c;所以他们为什么这么兴奋#xff1f;
Agent这东西又为什么会出现#xff0c;他到底解决了哪一部分问题#xff1f;其次#xff0c;他到底能不能解决这些问题#xff0c;在解决的过程中的困难与卡点是什么、又要如何解…市场今年刚看到Manus这种Agent的时候很兴奋所以他们为什么这么兴奋Agent这东西又为什么会出现他到底解决了哪一部分问题其次他到底能不能解决这些问题在解决的过程中的困难与卡点是什么、又要如何解决带着上述问题进入今天的学习为什么需要Agent一、为什么Agent会出现模型当前虽然很强大但他是天生缺陷的他本身只包含了训练后的内置数据这里就产生了第一个矛盾点当前社会信息爆炸太严重一个星期就可以发生很多事模型首先不可能跟得上这个节奏其次他也不会去跟这些节奏因为互联网上多数数据是垃圾模型不可能去吃这些垃圾垃圾吃多了会影响智商的除了市面上的信息各个企业还有很多自己私有的数据这些数据全部需要跟模型交互否则在公司场景下模型的意义就不大了所以Agent出现的第一个原因是他至少需要与外部世界进行信息交流尤其是一些垂直领域如果数据不足模型很容易胡言乱语的。其实在这里很多同学是有疑问的如果仅仅是这个原因那直接采用Workflow的模式就好了嘛这也是最标准的RAG逻辑嘛但就简单的信息检索这个需求也是随时递增的他现在拿的是公网数据后续一会要拿A公司数据、一会要拿B公司数据这种数据源变多了后怎么办呢谁去判断他应该去哪拿数据呢这种让RAG系统处理起来就会很麻烦比如以下问题什么是组织结构你们公司的组织结构是怎么样的A公司是怎么样的B公司又是怎么样的?他们为什么要这么设计?直接使用RAG也能做流程是用模型判断到底有哪些问题做下问题重写分拆后再到各个信息渠道去获取信息一套复杂的Workflow类RAG就能搞定。这里关于Agent最深的冲突也就出现了Agent能做的事情Workflow都能做那么Agent存在的意义是什么毕竟Workflow 可以做循环、可以做重试、可以做复杂策略只不过这些循环与策略必须由人显式编码。当环境复杂度上升Workflow 的成本曲线会很难看在企业真实场景里复杂度增长通常来自三类“不可穷举”**工具/系统不可穷举**今天查公网明天查 A 公司的知识库、后天查 B 的 CRM、再后天接入 CDE……**意图组合不可穷举**一个问题里同时包含“解释概念 对比多家公司 要求给出原因 产出结构化表格”。**异常与边界不可穷举**权限不足、字段缺失、数据冲突、召回为空、网页结构变化、接口限流…当然可以把这些都写进 Workflow但会变成典型的分支爆炸 维护爆炸每加一个系统不只是“多一个工具配置”还包括字段映射、降级策略、评测集更新等。更关键是你要为“工具之间如何组合、何时重试、何时换路、何时追问补槽、何时拒答”写越来越多的显式编排逻辑。这时候Agent架构的优势就出来了如果多了CDE有可能增加3个工具配置有可能什么都不做搜索工具自己就兼容了。最重要的是判断用户意图和怎么调用工具工具调用后的数据对不对这些繁琐的事情全部丢给模型了当然循环肯定会多很多次、效率肯定要低点、Token肯定要高点毕竟本身Agent就是一套 时间/成本 换架构简洁度的架构。这里再加一句Agent解决的不是怎么回答的问题而是给出了一套将问题编译为可执行计划的框架甚至于你把Agent这套架构本身理解为一套Workflow也是可以的这个是一套现阶段验证出来很不错的范式。最后再总结一下相较于WorkflowAgent 架构是一种工程架构层面的优化它的核心不是“更聪明”而是把一部分原本由工程师在开发期显式写死的控制流if/else、编排、异常处理迁移到运行时由模型来决定路由、工具选择、多轮尝试、失败重试、补槽追问、结果校验。Agent是用更多的成本多轮推理 多次工具调用 更高延迟/Token换开发与维护成本的下降分支更少、扩展更快、长尾更适配在这个基础之下我们再来看看整个Agent的发展史这有助于我们进一步抓住其脉络。二、Agent的发展史当前最经典的Agent架构是ReAct他大约是在2022年提出论文《ReAct: Synergizing Reasoning and Acting in Language Models》。那时候并不支持Function Calling这种最基本工具调用的能力所以需要我们自己做实现这里可以用提示词做识别并输出、也可以做微调但成本要高点。其中Function Calling整体流程大概这样做的第一我们会定义Agent会调用的所有工具这是一个JSON对象里面最核心的是description第二模型会根据用户问题和预设的工具集去做对比看看这次要调用哪些工具当然最主要的还是根据描述判断第三如果这次判断是有工具调用的话模型会返回工具的名称然后结束这次流程第四我们拿着工具信息去各种调用拿到数据然后组装最终的提示词连着用户的问题去做模型调用只不过上述动作毕竟太繁琐于是在23年6月OpenAI提出了Function Calling将他作为ChatGPT 产品的正式能力后续逐渐成为事实上的标准各个基座模型都有对应实现有了这个基础后Agent的出现就变得更加顺滑了。而后的事情大家就很清楚了。国内Agent概念的火热从年初的Manus开始但如果真要追溯早期、又出圈的Agent的话可以是2023年3月的开源项目Auto-GPT只不过就算今年的Manus在早期因为基座能力不足都表现不佳遑论更早期的Auto-GPT了呢从Manus发布后2025 AI应用元年逐渐转移成2025 AI Agent元年模型也取得了长足的发展包括整体的推理能力、上下文长度得到了极大的加强而且我相信各个基座模型一定在工具调用这块做了大量微调训练其直接的结果是下半年的工具调用能力有明显的加强。在这个阶段因为基座模型大家发现Agent对工具的需求量极大并且一定会产生很多类似的工具。所以MCP的概念火了起来一方面要解决之前Function Calling留下的工程维护问题另一方面也想让人少开发工具直接用社区的MCP也几乎变成了事实上的标准然后Agent发展进入了一个疯涨的阶段而后模型的稳定性调用能力有不小的加强但在工具多了后依旧会有找不到、乱调用的问题。于是Claude开始收集了大量Tools调优经验在25年10月正式提出了Skills技术可以认为他是在对整体Function Calling进行补足当然Skills除了提升工具识别能力之外还做了很多其他工作。总之现阶段使用Skills Function Calling 上下文工程已经可以将准确率做得很不错了比如我们就能折腾到90%这在之前是很难的在工程上要做很多动作。以上是我从技术层面看到的近三年Agent发展的情况也就是说在今年之前想要做出个好的Agent几乎不可能在今年下半年开始整体难度会小非常多最后这里的推测是之前对于Agent的很多质疑乃至产品体验差的问题在2026年应该会得到很大的缓解。所以要说Agent直接依赖于模型能力的变迁这句话还真的没问题你怎么优化都可能比不上模型一次能力升级。了解了Agent为什么会出现发展脉络是什么也知道了几个关键点接下来我们就来具体聊聊这几个关键点Function Calling、MCP和Skills三、Function Calling根据前面的描述FC是干什么的大家已经很清晰了单说FC其实就是用一套工程架构把之前模型判断如何用工具的工作流给替代掉具体的交互逻辑为在对话中LLM根据用户的问题今天北京的天气如何判断是否需要调用函数。如果需要它会输出一个结构化的JSON请求其中包含了要调用的函数名和参数然后再调用我们的程序整个官方的案例非常清晰具体的流程直接看GPT官方的定义即可# 这是给模型看的工具定义不是真正的代码tools [{type: function,name: get_weather,description: Retrieves current weather for the given location.,parameters: { type: object, properties: { location: { type: string, description: City and country e.g. Bogotá, Colombia }, ...... }, }}]每次调用API时都需要传递tools参数这里直接调用GPT接口发起请求# 每次调用API时都需要传递tools参数调用GPT接口发起请求response client.responses.create( modelgpt-5, messages[...], toolstools # ← 这个每次都要带)这里也可以看出来模型具有哪些工具调用能力全部是我们预定义好的模型会根据用户输入选择使用哪个工具# 用户输入user_query 今天北京天气怎么样# 模型会分析# - 用户问的是天气 → 匹配到 get_weather 的 description# - 提到了北京 → 对应 location 参数# - 决定调用 get_weather 函数只不过模型事实上并不会直接调用工具他只会返回结构化的调用指令这里返回这个东西是模型专门任务训练的结果{ function_call: { name: get_weather, arguments: {\location\: \北京\, \unit\: \celsius\} }}真正根据返回JSON数据调用脚本的是我们后台程序并且这里需要将调用结果给到模型# 把天气结果返回给模型# result是返回的结果final_response llm.chat( modelgpt-5, messages[ {role: user, content: 今天北京天气怎么样}, {role: assistant, function_call: model_response[function_call]}, {role: function, name: get_weather, content: json.dumps(result)} ])逻辑很清晰如果意图识别没有工具函数调用则直接调用大模型返回给用户如果判断有工具调用那么就拿着首次模型返回的参数拿到结果后二次调用模型再将最终结果返回给用户。这里有几个点要特别注意如果你的工具接口挂了容错做得不好的话那么模型就不会回答用户了。另外还有几个问题理解后几乎就能了解Fuction Calling的本质乃至为什么他用得不太频繁的原因第一如果Tools工具过多数组过多这个也是要占用上下文长度的所以真实使用会做很多小处理第二Fuction Calling 使用好坏非常依赖于模型本身对意图识别的能力模型判断要不要调用一个函数主要是根据description参数来的。这里看上去风险挺大的因为一定会出现模型调用出问题的情况只不过模型容错能力强多拿了数据也未必会影响回答在这个基础下我们再来说MCP和Skills先说MCP四、MCP那么MCP为什么会出现呢这东西出现的意义是什么要回答还得回归Function Calling…关于Function Calling为什么会出现我们已经很清楚了他解决的是单个模型怎么“按你定义的 JSON 协议”去调你自己的API的问题。但一旦工具变多后会有很多痛点维护起来爆炸了MCP就是为了解决这个问题而生的比较夸张的说法就是MCP是帮Function Calling “擦屁股”的…这里大家可能不太理解给个案例企业中有10个AI AgentN需要接入20个数据源/工具M。如果每个应用都为每个工具编写专用适配代码就需要200个集成点。这里面维护成本是较高的任何工具API变更都会很烦。并且要注意的是生产上的Agent不会只调用一个模型他可能同时调用ChatGPT、Gemini还有DeepSeek而他们每个Tools调用接口都不一样这个维护起来就更麻烦了。在这个基础下MCP出现了他引入“客户端-服务器”架构标准化。你只需编写一次MCP客户端就能接入所有符合MCP协议的服务器。而工具提供者只需实现一个MCP服务器就能被所有MCP客户端使用集成点从N×M骤降到NM。案例说明大家可能读起来有点迷糊这里给个案例这里有两个工具Tool A get_weather(location) —— 查天气Tool B get_stock_price(ticker) —— 查股价用户的问题是“帮我查北京天气再给我 腾讯 的股价最后总结一下。”传统的FC流程分四步一、预定义工具每次调用模型或每个会话都要把 tools 定义带进去tools [ { type: function, name: get_weather, description: Get weather by location, parameters: {type:object,properties:{location:{type:string}},required:[location]} }, { type: function, name: get_stock_price, description: Get stock price by ticker, parameters: {type:object,properties:{ticker:{type:string}},required:[ticker]} }]二、模型返回“工具调用指令”结构化 JSON{ tool_calls: [ {name: get_weather, arguments: {location: Beijing}}, {name: get_stock_price, arguments: {ticker: AAPL}} ]}三、我们自己后台程序做工具调用def get_weather(location): return weather_api.query(location)def get_stock_price(ticker): return market_api.query(ticker)四、拿到工具结果组装提示词最终调用模型生成回答tool_results [ {name:get_weather, content: ...}, {name:get_stock_price, content: ...}]final llm_call(messages tool_results)如果这个工具只服务了一个Agent那没问题但如果服务了2个就会麻烦一点比如在工具参数变了的时候他就要改2个Agent的配置了如果应用变成20个的话就很麻烦了因为我们大概率也记不清楚谁在调用工具了…如果有MCP后就简单很多了他用工程的方式把一些复杂的维护封装了把 Tool A/Tool B 的接入从“应用内部代码”搬到“独立的 MCP Server”里。AI 应用不再直连 Weather API / Market API而是只连 MCP Server。这里其实逻辑很简单甲乙双方之前口头约定参数然后两边写下游发现老是被坑就说你他妈别约定了参数是什么你一起传给我算了Agent也不直接连接工具AI了只连接MCP Server可以把 MCP 当成一个“工具总线”MCP Server工具提供者暴露工具列表 接受调用 返回结果MCP Client / HostAI 应用连接 server、发现工具、转发调用、回传结果给模型方便大家理解这里依然走个流程一、MCP Server 暴露工具Weather API / Market API 的鉴权、重试、字段映射都封装在 server 里外界只看到“标准化工具”名字、参数 schema、描述、调用结果# mcp_server.pytool(get_weather, input_schema{location:string})def get_weather(location): return weather_api.query(location)tool(get_stock_price, input_schema{ticker:string})def get_stock_price(ticker): return market_api.query(ticker)run_mcp_server(transportstdio) # 或 HTTP/SSE 等二、Host连接MCP Server并发现工具client MCPClient(connectstdio:python mcp_server.py)tools client.list_tools()# tools - [{name, description, input_schema, ...}, ...]三、把发现到的工具“翻译/映射”给当前使用的模型平台如果你用 OpenAI就把它们组装成 OpenAI 的 tools 数组如果你用 Claude/Gemini就组装成各自需要的声明格式注意这一步仍然需要做“向上适配模型”但这是一层通用适配不会因为 Tool A/Tool B 的内部细节而变化。四、模型基于工具合同做决策返回 tool_callname arguments{ tool_calls: [ {name: get_weather, arguments: {location: Beijing}}, {name: get_stock_price, arguments: {ticker: 0700.HK}} ]}五、Host 不再直连外部 API而是把调用转发给 MCP Serverfor call in tool_calls: result client.call_tool(call[name], call[arguments]) tool_results.append({name: call[name], content: result})至此基本结束了其实大家也看出来了Agent这东西黑盒是真的多啊…遗留问题虽然MCP确实可以解决工具过多的维护问题但他并不能解决工具多了乱调用、错调用的问题而且还会有工具过多时候的爆炸问题工具如何组织的问题。当然在比较差的架构下团队能力不行FC要求开发者在每次API调用时预先声明所有可用工具。但这个是可以被优化的也就是每次用户问题要过一次模型判断这次到底要用哪些工具要用才加载只不过可能会有错漏。因为这个机制也能做到动态添加/移除工具。但这一切依旧不太优雅工具调用还是老是出问题所以在MCP之后又有擦屁股的工程能力诞生了他的名字叫五、Skills我们前面说了用户无限的意图需要用有限的工具来收敛。只不过工具多了后排列组合也多收敛不收敛不知道Agent最大诟病就是工具调用不准、Agent整体响应慢倒是真的为了解决这一切又叠加了一个新的工具Anthropic 对Skill的定义是一个文件夹里面装着说明文档、脚本和资源Claude 在执行任务时会先扫一圈所有 Skills觉得哪个对当前任务有用就把完整内容拉进上下文来用。翻译翻译是Skill 一份可反复调用的专业SOP说明书由模型自己按需加载结合之前我们说Skills的诞生原因其实就是将工具调用不准的问题搬到了Skills里面不需要模型自己去语义理解自己做工具组合了Skills里面写得很清楚该用什么工具、怎么用这样就会缓解之前的工具错误。当然除此之外Skills还有其他意义总结下来Skills诞生的原因有一、提高工具调用稳定性绝大多数团队都会面临一旦Tools多了后就会束手无策他们会被“乱调用/漏调用/参数错/顺序不稳/失败不重试”折磨直接导致体验差、不可交付。Skills 的核心价值之一就是把“怎么用工具把事做对”的套路选择条件、步骤、校验、兜底沉淀成可复用模块从而显著降低随机性。其实这个之前是做到ReAct工程架构里的现在有Skills可以有效降低工程难度只不过要特别注意Skills也不能彻底解决Tools调用错误问题还得有其他工程手段。二、长提示词与硬编码流程的维护问题关于这点很有点之前MCP出来的重要原因都是项目大了会导致的烦躁工程维护问题。维护提示词多的同学会有感受现在提示词正在往伪代码的方向发展为了让模型稳定输出需要往里面不断加东西比如一个数据分析的案例业务规则指标口径、过滤条件、时间粒度数据规则字段映射、缺失值处理、异常检测工具规则SQL 工具怎么用、什么时候用、失败怎么重试输出规则必须给表格、必须给结论、必须给风险提示合规规则脱敏、禁用词、免责声明还塞一堆示例few-shot结果上下文常驻每次对话都带着一大坨“未必用得上”的规则成本高、干扰大版本不可控某个字段改名了、口径变了你改 Prompt影响全局回滚困难复制漂移A 项目 copy 一份B 项目再 copy 一份三个月后都不一致排障困难出错了不知道是“规则写错”“规则太长模型没读到”“示例冲突”还是“工具返回异常”Skills的解题思路就跟之前MCP很类似了把所有的这类配置信息全部写到统一的地方需要用到时候再拿出来。另一个角度既然提示词现在越来越像代码工程了那么对应的版本管理的概念就会出现包括追求的灰度和回滚等问题而Skills正是处理提示词工程管理复杂而诞生的。这里给个案例做为什么需要Skills的说明案例对比帮我查一下技术部张三上周的差旅报销总额然后按项目拆分一下这里直接使用FC的话[ { name: get_employee_info, description: 获取员工基本信息, parameters: { employee_name: string } }, { name: get_department_info, description: 获取部门信息, parameters: { department_name: string } }, { name: query_reimbursements, description: 查询报销记录, parameters: { employee_id: string, start_date: string, end_date: string } }, { name: query_projects, description: 查询项目信息, parameters: { department_id: string } }, { name: analyze_reimbursement_data, description: 分析报销数据, parameters: { reimbursement_data: array, group_by: string } }]在ReAct架构中需要自己去实现正确的调用逻辑先调 get_employee_info(“张三”) 拿到员工ID调 get_department_info(“技术部”) 拿到部门ID调 query_reimbursements(employee_id, 上周起止日期) 拿到报销列表调 query_projects(department_id) 拿到项目列表调 analyze_reimbursement_data(…) 进行分析这里常见问题就产生了**乱序调用**先查项目结果没部门ID参数**参数错误**时间格式不对“上周” vs “2025-12-08”**漏调工具**忘记调analyze直接返回原始数据**无限循环**某个工具失败后不会自动重试或换方案能不能解决呢也是可以的但会加大工程复杂度可能加大循环次数最终响应速度和成本都会有影响。而使用Skills后相当于认为的为这个需要加了一套强的工作流或者CoT用户: 张三上周差旅报销模型: 检测到报销关键词 → 加载报销查询Skill按Skill流程执行:1. 自动调用get_employee_info(张三) → 拿到ID: 1232. 自动调用时间解析(上周) → 得到: 2025-12-08 ~ 2025-12-14 3. 调用query_reimbursements(employee_id123, start_date..., end_date...)4. 发现用户没提项目 → 跳过项目拆分步骤5. 调用标准化报告模板生成结果直接返回: 张三上周差旅报销总额5,200元共3笔...用户体验: ✅ 好 - 一次搞定CoT都出来了稳定性肯定高啊这里再说下维护性问题如果财务的差旅标准变了之前所有涉及提示词部分的数据需要改但用Skills就只需要改一个地方很清晰的。其他案例在一个老板 BI Agent里配置了一批 Tools/MCP 工具get_sales_reportget_marketing_spendget_cashflow_status两个 Skillsboss_bi_dashboard_cn教模型如何用上面几个工具按老板视角解释数字、写结论里面有详细的 KPI 口径、话术、注意事项excel_analysis_skill教模型如何用 code execution 对上传的 Excel 做分析这时候触发条件来了帮我看看今年 Q3 的营收和投放简单说说是不是该收一收预算这里具体的流程是一、先走Skill检索模型首先会理解这是一个老板视角的财务分析 决策建议接下来模型会遍历Skills里所有的meta发现 boss_bi_dashboard_cn 的描述里有类似用于解读公司经营指标、营收、成本、预算输出老板视角决策建议所以它会激活这个 Skill读取 instructions.md把这份“说明书 SOP”拉进当前上下文。此时Tools/MCP 还没被调用模型完成了从很多工具定义 一堆 Skills里选出一个最合适的技能包。二、Skill里面决定工具调用boss_bi_dashboard_cn 的 instructions.md 可能会写类似这样的话如果用户问的是某个时间段的“营收 投放”先调用 get_sales_report 拿营收数据再调用 get_marketing_spend 拿投放数据然后根据「同比 / 环比 / ROAS」给出老板能看懂的判断输出结论时要用以下结构一句话结论2–3 个关键数字建议动作风险提示Claude 读了这份说明后就知道下一步应该先查 KPI → 需要工具然后就是具体工具调用get_sales_report({period: 2024-Q3})get_marketing_spend({period: 2024-Q3})到这里Function Calling / MCP 出场了。三、数据处理 SOP这里走Function Calling的逻辑拿到最终反馈数据即可这里不展开{ sales: 12345678, growth_rate: 0.12, gross_margin: 0.31}然后就是数据使用这个instructions.md里面已经说得很清楚了输出结构怎么写哪些数字要重点强调语气要偏老板视角少讲实现多讲结论和动作有哪些“常见坑”要避开# 输出案例结论Q3 的营收仍在增长但投放效率明显走低建议适度收缩预算、把钱放到 ROAS 更高的渠道上。......后面是建议 风险......以上就是Skills相信大家搞懂了最后说下Agent架构的核心ReAct。六、ReAct框架了解了Agent的最原子能力依赖后我们就要进入其真正的编排层核心ReAct了编排层是智能体系统的核心控制单元负责组织信息流和执行推理循环。它模拟人类在做复杂任务时的认知过程先获取信息、然后制定计划、执行行动、再根据反馈调整计划不断循环直到完成目标。一个常见的比喻是**“厨师准备复杂菜品”**厨师会根据顾客需求获取食材信息思考烹饪步骤然后实际烹饪过程中可能根据味道反馈不断调整方法。类似的Agent的编排层会按照设定的推理框架反复迭代驱动模型生成“思考”并做出“行动”决策。常见的推理框架大同小异这里一定需要了解的是两个东西ReAct与CoT除此之外可以延伸到ToTReAct在前面我们做了基础介绍该框架强调模型在回答前进行连续的内省和行动选择有助于提高答案的准确度和可追溯性**CoT思维链**引导模型通过生成中间推理步骤来分解问题促使其在最终答案前先列举思考过程这种框架可以增强模型解决复杂问题时的准确性幻觉问题。**ToT思维树**是在 CoT 的基础上允许模型在多个备选思路间做比较适用于需要探索多种方案的策略性任务目的依旧是提升对复杂问题的解决能力。篇幅有限我们只讨论ReAct和CoT的配合即可其他的都类似ReAct和CoT首先ReAct与CoT都是推理策略框架也就是Agent四大组件核心的编排层具象化实现他们都描述的是如何组织模型的推理过程、生成步骤、提示词结构。换句话说ReAct是代码的核心是AI工程的核心他会决定如何去与记忆系统、工具系统做配合。然后ReAct逻辑上与CoT是同级别的但现在更多的是在组合使用显得CoT是ReAct的一个过程产物其实并不是的逻辑上CoT也可以调用工具只不过现在从流行范式的角度来说ReAct被用作主框架的时间会多一点并且过程中会包含很多CoT的部分这里的结果是ReAct 是容器CoT 是内容。ReAct 是最“Agent”化的、CoT 是最基础的。ReAct 规定了先思考Thought→ 行动Action→ 等待结果Observation→ 再思考…而这个“Thought”怎么写通常就是一个 Chain of Thought 推理块。举个简单例子让 Agent 回答“某公司员工请假流程”的问题Agent 需要读取用户的问题从知识库中检索文档分析内容结构输出清晰步骤这块的简要流程是User: 请问我们公司请假流程是什么Step 1:Thought: 先查找关于“请假流程”的文档。Action: search_docs(请假流程)Observation: 找到文档《员工手册》第4章列出了流程步骤。Step 2:Thought:首先读取这部分内容理解流程的顺序。- 第一步是员工提交请假申请- 第二步是直属上级审批- 第三步是HR备案因此我可以组织一份清晰的回答。Action: NoneFinal Answer: 请假流程如下1提交申请2主管审批3HR备案。这个 “Step 2” 的 Thought 部分就是一个简单的 CoT模型在没有行动前分步思考、提取、组织信息这是典型的思维链。为什么这么用也很简单Agent架构中也不可能每一步都调用工具很多时候只是在“组织思维/语言”CoT可以有效降低幻觉率。总而言之ReAct 框架里可以有很多 CoT 内容穿插其中这种组合也是最常见、最稳的做法大家记住这点就行这就是Agent的编排层。七、结语然后就是记忆系统了这个其实才是整个Agent项目里面最恼火、最烦躁的部分因为太过于复杂我们今天就不继续了后面有专门的课题。最后总结一下市场之所以为 Manus 这类 Agent 兴奋不是因为它“更聪明”而是因为它把原本需要工程师在 Workflow 里写死的路由、工具选择、重试等控制流迁移到运行时由模型来决定从而在“工具多、意图组合多、异常多”的企业场景里显著降低开发与维护成本。过去三年的脉络也很清晰ReAct 提供推理行动的循环框架Function Calling 让工具调用标准化MCP 缓解工具爆炸带来的集成维护成本Skills 把“怎么把工具用对”的 SOP 沉淀下来提升稳定性。25年工具调用这块模型已经取得了长足进步但记忆模块依旧是老大难问题我认为2026年底层模型一定会在这块做出突破那种本地部署的模型高阶向量数据库是可能诞生的让我们拭目以待吧…如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】