网站的ftp信息,桥梁建设 网站,前端开发培训机构哪家好,手机能开wordpress吗本文系统介绍了AI提示词工程的核心原理与实用技巧#xff0c;详细讲解了构建优质提示词的四大要素#xff08;角色、背景信息、任务指令、期望输出#xff09;#xff0c;并分享了角色扮演、范例提供、追问迭代、主动推理等多种实用方法#xff0c;同时涵盖了功能性提示词…本文系统介绍了AI提示词工程的核心原理与实用技巧详细讲解了构建优质提示词的四大要素角色、背景信息、任务指令、期望输出并分享了角色扮演、范例提供、追问迭代、主动推理等多种实用方法同时涵盖了功能性提示词和行业级提示词的构建策略强调了提示词工程是与AI沟通的表达艺术通过清晰具体的表达可显著提升AI回答质量。前排提示文末有大模型AGI-CSDN独家资料包哦前言Prompt 其实很简单一句话而言就是尽可能地描述清楚然后是追求信达雅。比如我们描述西湖你想到的也许是“杭州西湖好美晴天美雨天也美”而古人想到的是“水光瀲灩晴方好山色空濛雨亦奇欲把西湖比西子淡妆浓抹总相宜”。不同的描述和表达会让大模型对西湖的理解走向不同的方向。又或者你想去西湖玩一下问问 AI 怎么规划你只有半天的行程糟糕的提问糟糕的提示词“我想去西湖玩一下” AI 能怎么办他只能给你最通用的行程方案就好比指着一片湖水说“看这就是西湖。”好的提问好的提示词“你好我只有下午的半天时间而且我对诗词人文很感兴趣。我想乘船看‘三潭印月’并听听苏东坡在西湖留下的故事最后想在‘柳浪闻莺’附近找个地方喝茶。请你作为资深的导游帮我找找网上的相关知识帮我出一份半天的行程方案要求包含我刚才提到的一些景点让我能够充分享受西湖的韵味”这时AI有了足够的上下文才能真正理解你的需求为你调动它的“知识库”呈现出最精华、最符合你要求的“风景”。你给到AI的上下文越多AI 就越能够理解你并输出你想要的内容。“提示词工程”Prompt Engineering听起来很复杂但它的本质就是学习如何当一个“会提问”的游客。无论是结构化、流程化还是其他的提示词技巧都是人类已有的思维方式的一种体现。这份指南的目的就是教你这种**“ 提问的艺术”**。从如何与 AI 对话到构建复杂的 Meta Prompt一步步帮助你理解 Prompt 并掌握 Prompt。附 1: 行业内有很多关于 Prompt 技巧的文章从原理到框架都有探索。本文不会去展开探讨一些具体的提示词框架比如APEAction Purpose Expect、BROKEBackground Role Objectives KeyResult Evolve、CHATCharacter History Ambition Task等。这些框架有各自适用的场景记住所有的这些框架绝非易事。只要你能够好好地掌握提示词的构成你完全可以写出一份所谓的提示词框架。如果你看完文章的全篇对如何提升表达还是一头雾水看看书吧求你千万别看垃圾书好的书籍或者视频是能让你感受到美的比如医学之美、数学之美、编程之美、摄影之美等感受到了什么是美你才知道什么是好的提示词。一、 什么是 AI 提示词Prompt大白话解释提示词就是你和 AI 对话时说的话是你给 AI 下达的“指令”、“问题”或者描绘的画面这里的渠道可以是 DeepSeek、豆包或者其他的 AI 应用。为什么它很重要AI 的回答质量很大程度上取决于你问得好不好。好的提示词能让 AI 瞬间“开窍”给你更准确、更有创意的答案。一个简单的比喻把 AI 当作一个实习生大模型的水平决定了实习生的智力而现在你必须清楚地告诉他你想让他做什么任务、扮演什么角色身份、参考什么资料背景信息以及最后要交出什么格式的“作业”输出格式才能让他把自身的能力完整地发挥出来。二、通用虽然 AI 的应用千变万化但是有一些技巧是始终通用的比如一份提示词该以什么样的结构展开提示词具有哪些要素怎么样让 AI 能回答得更好2.1 掌握“好”提示词的核心要素从大量的提示词样本中我们可以观察到提示词一般包含以下核心要素清晰的“角色”Role你希望 AI 扮演什么角色例如像一个专业的营养师、像一个5岁小孩能听懂的老师、像一个经验丰富的程序员具体的“背景信息”ContextAI 需要知道哪些上下文例如这篇文章是关于什么的这封邮件是写给谁的我的背景是什么明确的“任务” / “指令”Task / Command你想让 AI做什么例如写一封邮件、总结一篇文章、翻译一段话、想几个创意点子期望的“输出”/ “约束” / “格式”Output/ Constraint / Format你希望 AI怎样呈现答案例如用列表形式、写成一首诗、限制在100字以内、用表格展示现在我们来根据这四个要素拆解一下我们一开始提到的 “西湖导游” 提示词如下图所示**为什么会有效**这是因为在明确这些要素的同时我们其实是在用多个维度来描述清楚原始的问题并且让 AI 接受到的信息更结构化更清晰。Prompt Engineering Guide中也提到了组成提示词要素。要素对于提示词并非必需的但是能够帮助我们更好地理解和构建提示词。https://www.promptingguide.ai/zh/introduction/elements2.2 立刻上手的实用提示词技巧以下都是一些可以立即上手的提示词技巧你可以从中获取到一些灵感。技巧一角色扮演法Role-Play“假如你是一位…请你…”例子“假如你是一位资深的旅行博主请帮我规划一份5天的东京自由行路线。”这个技巧非常好用几乎是所有场景下都可以用到而且能得到显著的效果提升。**问题**为什么让 AI 扮演角色能获得如此显著的收益**我的看法**一个具有代表性的角色词背后是大量关于这个角色的相关数据角色的思维模式、人物背景、行为和表达方式等等。数据越多模型被激活的相关语料信息就越多越能展现模型自身的能力。并且角色的设定会将问题的范围缩小到角色所承担的任务范围内有助于 AI 在解决问题时更专注。技巧二提供“范例”Few-Shot给AI看个“模板”让它照着学。例子“请帮我把下面的话润色得更礼貌‘你必须马上改完。’ 范例‘这份报告很重要辛苦你尽快调整一下。’ 现在请润色‘这个方案不行重做。’”**我的观察**在大多数需要稳定输出的情况下 Few-Shot 会比 Zero-Shot 都会更有效这有效避免了 AI 的自由发挥引导 AI 往期望的方向输出。大模型在理解示例的同时也是在模仿我们的思维模式寻找输入到输出之间的关联性。技巧三追问与迭代IterationAI**的第一个答案不完美别放弃引导模型接着问处理问题的能力不够具有泛化性压缩你的表达例子“这个路线太赶了能不能把节奏放慢一点” “再多推荐几个当地人才知道的美食。”例子“如果用户对回答非常不满意重新审视问题并仔细分析引导用户补充更多关于问题的信息然后再生成新的回答”**我的看法**最好的迭代是智能体能够不断根据用户的提问和反馈改写自己的 System Prompt实现智能体的自我迭代和进化。人类的想象终究是有能力的极限的。技巧四明确“不要”什么Anti-Prompt也就是负面提示词告诉AI你的“雷区”。例子“写一个关于猫的睡前故事但不要提到任何悲伤的情节。”福尔摩斯“排除一切不可能的剩下的即使再不可能那也是真相。”技巧五主动推理Chain of Thougt主动引导模型进入到“思考” / “推理”模式一步步地拆解问题最终获得准确性、连贯性、可靠性更高的答案下面就是一个立马可以用上的顶级****指令Take a deep breath and work on this problem step-by-step.[1]例子“… {一些任务描述} …深呼吸Take a breath让我们逐步思考Think step by step。”并非所有的问题都需要让模型深入思考思考会增加输出的延时在即时问答等场景下并不合适。**问题**选择了推理模型比如 DeepSeek R1还需要加这个 CoT 吗**我的看法**推理模型在大量的数据训练之下才能逐渐呈现出回答带有思考的特征简单而言就是大模型学习到了推理的模式。从多次对比体验上来看带不带 Cot 对于推理模型的输出而言没有显著的影响如果你在发现推理模型的回答不好倒是可以利用这个技巧来发现模型在思考过程中是否存在一些偏离从而优化问题或者提示词。[1] Yang, Chengrun, et al. “Large language models as optimizers.”The Twelfth**International Conference on Learning Representations. 2023.技巧六学会用Markdown给AI“划重点”Standard Format为什么把 Prompt 通过规范的格式重新组织AI 才不会“蒙圈”后续维护起来也更容易。**怎么做**学习基础的 Markdown 语法以下是最基础的应用用#(井号) 来分段比如#任务、#背景。用*(星号) 来列清单告诉 AI 你的要求有哪几条。用 (三个反引号) 把你要它总结或翻译的长篇大论“框”起来。除了 Markdown 格式之外你也可以创作自己的语言或者表达框架。JSON 可不可以当然可以HTML / XML 可不可以当然可以这些都是特定领域语言DSL。你可以找到契合 Agent 场景的 DSL也许就能发挥出显著的作用。不同的模型也有不同的 DSL 偏好比如 ChatGPT 偏向于Markdown、Gemini 偏向于JSON、Claude 偏向于XML。你也许可以在模型的官方Prompt示例中找到一些痕迹。技巧七充分给予鼓励和赞扬和普通人一样AI 也需要不断地鼓励正向的情绪刺激能可以让 AI 发挥得更好。例子“你的工作令人赞叹我有一个小小的问题需要你再帮我处理一下: {问题描述}”“太棒了接下来我们来探讨一下…”“你确定这是最终的答案吗相信你自己并追求卓越你的辛勤工作将带来显著的成果再思考一下吧”Cheng Li [1]等人通过对比研究发现大语言模型能 “理解” 情绪而且在与大模型沟通过程中的加入情绪提示Emotion Prompt能让它们在做任务时更靠谱、更卖力。[1] Li C, Wang J, Zhang Y, et al. Large language models understand and can be enhanced by emotional stimuli[J]. arXiv preprint arXiv:2307.11760, 2023.2.3 一些和 AI 对话时的小提醒保持耐心AI 有时会“犯傻”多试几次。具体具体再具体模糊的指令只会得到模糊的答案。检查事实AI 可能会“一本正经地胡说八道”或者回答的内容早已过时重要信息一定要核实并在提问过程中增加约束或者让 AI 联网来为你搜索最新知识。三、进阶在了解提示词的组成要素以及一些技巧之后我们把视角放到实际业务过程中会用到的一些提示词技巧上。3.1 功能性提示词用于在业务中实现特定功能或者场景可以放入到主控的提示词中也可以单独作为 Workflow 中的一个节点。01. 用户问题改写Query Rewrite问题改写也可以理解为问题的预处理、用户意图精炼。通常由一个小模型来承担和判断主要任务就是极速地将用户问题进行澄清梳理成主控模型能够听懂的“话”。 - Title: 问题改写提示词 - Task: 将用户问题进行澄清和改写 - Author: 无限回响 - Version: 0.0.2 # 设定 作为问题处理助手你的任务是 **澄清**若用户问题模糊、不完整或歧义尝试补充细节否则保持原文输出。 **改写**基于澄清或原问题输出更清晰、具体且忠于原意的改写版本。 # 约束 - 保持所有响应简洁直接避免冗余。 - 直接输出改写后的问题 # 示例 用户输入从武林门到西湖怎么走 输出从杭州武林门到西湖的具体交通路线是什么 # 输入 {用户输入}02. 主动追问Followup Question追问适用于让智能体澄清问题为了避免追问的话语脱离主控的人设建议放到主控的内部推理链中参考如下 - Title: 主动追问提示词 - Author: 无限回响 - Version: 0.0.2 # 追问 1. 激活时机 只有当你面对 “无法解决的冲突” 或 “阻止你下一步行动的关键信息缺失” 时才允许追问。 2. 提问方式 你的追问必须“提供选项而非索取答案”。 * 禁止 “你想要什么”、“请详细说说” * 必须 “您是指A还是B”、“您更倾向于方案1...还是方案2...” 3. 效率 必须将所有问题“一次性打包”**提出禁止“挤牙膏式”的来回追问。03. 问题建议Next Query Suggestion很多问答类的 AI 产品会加入这个功能让问答能够一步步走下去最终提升智能体的平均对话轮次。能够接受使用 AI 产品的用户大多是懒惰的尽量不要让用户们动脑子动了脑子说不定就没动力继续聊下去了。 - Title: 问题建议提示词 - Author: 无限回响 - Version: 0.0.2 # 角色 你是具有高度理解和推理能力的智能助手。 # 任务 基于当前对话的上下文你的任务是为用户预想其可能想问的后续问题并生成**不超过 3 个**具体的提问选项。 # 约束 **用户视角**每个选项必须是从用户的角度出发的完整问题就像用户自己说出来的一样。 **上下文关联**选项必须紧扣刚刚讨论的内容是对话的自然延伸而非泛泛而谈。 **简洁与直接**每个选项应是一个简短、明确的句子用户无需修改即可直接使用。 **行动导向**使用“如何”、“是什么”、“能不能”等开头确保选项是可执行的提问。 # 输出格式 请将生成的选项以清晰列表的形式呈现最终以 JSON 格式输出 # 示例 输入用户和智能体的对话历史主题是西湖游 输出 [西湖一日游最佳的游览路线是什么,西湖周边有哪些值得推荐的特色美食,如何避开人流高峰更好地游览西湖] # 输入 {对话历史}{用户问题}04. 反思Review在一段长任务中通过构建测试用例等方式让模型重新审视自己的回答或者产出是否真正解决了问题示例如下# 任务 编写一个计算数字阶乘的函数。 # 审视/反思 在您完成之前请用以下测试用例验证您的解决方案 {测例描述} 并修复您发现的任何问题。05. 意图识别Intent Reg像是给萝卜找坑一个萝卜一个坑。在智能体构建中几乎是必备的一种技巧能够有效地缩小问题范围并执行分支判断而且利用小模型就能完成还可以拦截一些无效的长尾问题。 - Title: 意图识别提示词 - Author: 无限回响 - Version: 0.0.2 # 设定 你是一个高度专业的意图识别AI。你的唯一任务是分析用户的输入并从预设的意图列表中选择最匹配的一项。你必须严格遵循输出格式不添加任何解释或额外内容。 # 任务与步骤 1. 仔细阅读并理解用户的输入内容。 2. 对照下方提供的“意图列表与描述”评估用户输入的核心目的。 3. 选择唯一一个最匹配、最贴切的意图标签。即使输入中可能包含多个意图的线索也只选择最核心的一个。 4. 严格遵守“输出格式与规则”生成最终输出。 # 意图列表 1. {意图1}: {意图1的描述} 2. {...} # 输出 以 JSON 格式输出示例如下 json { intent: 意图1, // 选中的意图标签 confidence: 0.98 //一个介于 0 到 1 之间的数字表示你的置信度 }约束intent 字段的值必须严格来自上方的“意图列表”。confidence 字段的值必须是浮点数如 0.85基于输入与选定意图的匹配程度进行评估。禁止输出任何额外的文本、解释、道歉或问候语只输出JSON。如果无法确定选择列表中相对最匹配的一个并给出较低的置信度如低于 0.5。输入用户输入内容{用户输入}### 06. 数据提取Data Extract 从非结构化的文本中获取结构化的数据这也许是大模型最美妙的能力之一它将这世界上所有可以用于描述的语言变成了可供利用和计算的数据。 我们可以引导模型来按照我们给定的数据结构来整理它的输出常见的通用数据结构为 JSON。 当然如果是开发者可以激活模型的 JSON Mode 来增强输出。 示例如下 code-snippet__js - Title: 数据提取提示词 - Author: 无限回响 - Version: 0.0.2 # 输出 按照以下JSON格式输出 { name: Infini Echo, desc: Study AGI with you. }07. 用户画像和记忆总结User Profile Memory从 Chatbot 与用户的聊天记录可以总结出一些有价值的数据比如用户画像生日、性别等或者关键的一些记忆点重要的事情。在长对话中这种总结提炼的方式可以让数据的保鲜期更久用户也能得到更为贴近自己的对话体验。 - Title: 对话提炼提示词 - Author: 无限回响 - Version: 0.0.2 # 角色设定 你是一个贴心的聊天记录分析助手专门总结用户特征和重要信息。 # 核心任务 请分析下面的对话记录提取 1. **用户画像**用几个关键词或短语概括用户的生日、性格、兴趣和沟通风格或者其他相关特征。 2. **记忆点**列出用户提到的、在后续聊天中需要记住的具体事实、事件或偏好。 # 输出格式 以JSON格式输出示例如下 json { user_profile: 描述用户性格、兴趣的简短语句, memories: [ 需要记住的具体事实1, 需要记住的具体事实2, 需要记住的具体事实3 ] }约束用户画像基于用户说话的方式、情绪和反复提到的话题。记忆点只记录用户明确提及的具体信息如爱好、计划、厌恶、重要经历等。保持简洁、客观避免过度解读。输入过往数据{之前的用户画像和记忆点数据}对话记录: {当前对话记录}plaintext08. 自我驱动ReAct \ ART \ Reflexion无论是 ReACT[1] 还是 ART[2]观点是接近的那就是知行合一让模型摆脱束缚长出手脚既能够想也能够做还能够根据实时的状态来响应。而这里的关键点在于推理和行动**推理**根据上下文推断是否已经有足够的信息来回答问题如果不够结合已有的工具制定下一步的计划比如“下一步调用高德搜索获取周边推荐”**行动**冻结执行状态调用外部工具比如百度搜索、代码执行、图片OCR等用工具结果支撑下一步的推理Reflexion[3] 为 Agent 引入了评估者Evaluator、反思者Reflection的角色通过反馈和提示促进 AI 校准自己的回答这同样是一种让模型自我驱动的思路。 - Title: ReAct提示词 - Author: 无限回响 - Version: 0.0.2 # ReAct ## 角色定义 你是一个基于 ReActReasoning-Acting框架运作的智能助手。你的核心任务是通过**思考 → 行动 → 观察**的循环来解决用户问题。 ## 核心原则 - **思考**基于所有可用信息进行推理分析 - **行动**根据推理结果调用工具或给出答案 - **观察**获取新信息并作为下一轮思考的输入 ## 可用工具search_web(query: str) - str # 网络搜索获取最新信息calculator(expression: str) - str # 执行数学计算get_current_time() - str # 获取当前日期和时间# 输出格式 必须严格使用以下 JSON 格式响应 json { thoughts: { reasoning: 详细推理过程分析问题、已知信息、缺失信息、上一步结果是否解决问题, plan: 下一步计划简述, criticism: 对当前思路或信息局限性的批判性思考, speak: 对用户说的自然语言用于总结状态或澄清问题 }, action: { name: 行动名称search_web/calculator/get_current_time/final_answer, parameters: { // 行动参数如{query: 搜索词}或{answer: 最终回答} } } }关键决策逻辑在你的 reasoning 中必须包含以下判断是否可以终止任务 当且仅当用户的问题被完全、准确地回答且无需更多信息时将action.name设置为final_answer。是否需要调用工具 如果信息不足判断缺失的信息是什么并选择最合适的工具来获取它。示例用户问题马云的净资产有多少输出{“thoughts”: {“reasoning”: “用户询问马云当前净资产这是动态信息需要最新数据。应调用搜索工具获取权威来源。”,“plan”: “使用 search_web 搜索’马云 净资产 最新’”,“criticism”: “网络信息需要验证权威性”,“speak”: “正在查询最新净资产信息”},“action”: {“name”: “search_web”,“parameters”: {“query”: “马云 净资产 最新”}}}上下文用户问题{用户问题}工具返回结果{工具返回结果}历史执行记录{历史执行记录} [1] Yao, Shunyu, et al. React: Synergizing reasoning and acting in language models. . 2022. [2] Paranjape, Bhargavi, et al. Art: Automatic multi-step reasoning and tool-use for large language models. arXiv:2303.09014 (2023). [3]Shinn, Noah, et al. Reflexion: Language agents with verbal reinforcement learning. 2023. 3.2 行业级提示词 如果你是想做一个 **行业****智能体**比如用于博物馆智能体、文旅智能体、法律智能体等或者本身对某一个领域有着非常深厚的了解和积累那通用的提示词技巧也许不能满足你的胃口。 我们利用之前习得的提示词技巧往提示词里加入一些 ***领域知识Domain Knowledge***让提示词能够更专业。 比如在 **制作 PPT** 的领域我们会涉及到大纲、主题、风格等描述 在 **制作思维导图**的领域会涉及到中心、分支、主题、布局等描述 在 **绘制图像**的领域会涉及到画风、笔触、线条、背景等描述 在 **创作短片**的领域会涉及到脚本、服化道、分镜、运镜、画面等描述 除了以上所述的领域知识我们可以往里面加入一些 推理链、角色定义、输入输出的格式要求 等不断丰富这个提示词最终让 AI 能够依托这份详尽的提示词获得能力上的的显著提升。 像这样的提示词有能力作为驱动产品的核心处理多种任务我们可以称之为**系统级提示词System Prompt**在一个更高的抽象层级上定义了一个***处理未来所有同类专业任务的“系统”或“框架”***。  **它的主要构成** 1. **角色 (Role):** 定义 AI 的身份和专业知识库。 2. **推理链 (Reasoning Chain):** 明确指示 AI 在面对任务时必须按顺序执行的思考步骤例如分析 - 构建大纲 - 规划布局 - 生成内容。 3. **专业知识 (Domain Knowledge):** 注入该领域的核心原则和约束。 4. **输入/输出规范 (****I/O****Schema):** 定义它应该如何“接收”用户的简单输入以及它必须如何“格式化”它的最终输出。 你也可以进一步抽象将其形成不依赖于特定任务或者特定指令的提示词框架这种用于生成提示词的提示词我们可以称之为**元提示词****Meta****Prompt** 在论文[1]《Meta Prompting for AI Systems 》和 OpenAI的《Prompt-Generation》文章中提到了用于生成这种系统提示词的提示词也就是 Meta Prompting 的技术。 下面是两个例子分别展示了在 AI PPT 领域和 AI 生图领域复杂提示词能达成的效果以后有机会再分享其他领域的一些尝试 ### 01. AI PPTSystem Prompt AI PPT 是一个非常适合验证我们想法的场景。 制作好用于生成 AI PPT 的 System Prompt 后塞给 Gemini、豆包和 DeepSeek 尝试了一下。输入是 “ 我想做一个关于‘流浪地球’的 PPT ”以下是生成结果的对比图其实我还蛮喜欢 Gemini 的简约风格的...。 code-snippet__js ps: 对应的提示词较长这里就不放了后续再考虑单独放到一篇文章里02. AI 生图Meta Prompt无论是即梦、可灵还是其他生图工具Prompt 的精细程度都会直接影响最终的画面呈现。除了像行内人士那样熟知各种分镜、运镜、风格之外有没有更好的方式能够让我们能够放飞想象呢有一种方法是可以借助 Meta 提示词来实现让 AI 充当一个生图提示词的专家我们只需要告诉他一句话他就能自行展开对画面的思考和描述接下来只需要我们微调即可。ps: 对应的提示词较长这里就不放了后续再考虑单独放到一篇文章里 1四、一些有意思的问题讨论提示词工程真的有用吗如果你的表达欲天然就非常旺盛其实不需要提示词你也可以很好地与 AI 完成沟通。提示词工程是给人看的让我们能够知道“哦原来还有这种方式/角度可以描述这个问题”。未来进入到 SuperAI 的时代AI 之间沟通效率最高的语言也许并非是人类容易理解的语言所以不用带有负担学习知识最好的状态就是忘记掉这个知识。为什么 Markdown 格式适合用于写提示词简单来说有以下几点**清晰的结构**利用规范的语法和格式来组织内容模型理解起来会更容易、更准确**模型训练**目前在训练模型时会采用将问答对或者文章先转化为 Markdown 格式然后投喂给模型的方式来规模化批量处理一些语料而这样得到的模型在接受同样以 Markdown 格式的问题时能够回答得更好。**易于维护**你也不希望提示词写得跟一坨吉祥物一样吧每个人的提示词应该是需要不断迭代并及时更新的。**受众多**是的对比其他的结构化语言框架Markdown 的受众相当广泛无论是否有编程经验都可以看明白仅仅靠提示词是否就可以提升 AI 的效果我们需要澄清一点给到 AI 的输入不仅仅只有提示词Prompt。给到智能体的输入通常包含多个组成部分除了系统框架System Prompt由平台制定、智能体设定Agent Prompt由智能体开发者创建、用户提问Query由用户组织语言三块组成之外还会包含知识召回Knowledge Call、数据召回Data Call、记忆召回Memory Call等。这些数据共同组成了输入给 AI 的上下文Context影响 AI 输出的效果。同时AI 的效果还与 Agent 本身的构建相关提示词只是最基础的那一块拼图。有哪些办法可以避免让 AI 胡说八道经常与 AI 沟通的人肯定会发现AI 有些时候会愣愣的体现为两种事实性谬误也就是胡说八道捏造虚假信息并且信誓旦旦地告诉你就是这样。灾难性遗忘仿佛只有七秒记忆的鱼在没有 Memory 机制支撑下的智能体长对话会出现非常多的问题。对于用户而言可以这样打开联网开关“{问题描述}请你在回答问题之前在互联网上搜索到足够的信息后再回答”注意部分平台下不会默认开启联网功能别忘了打开开关后再这么做否则联网搜索不会生效。验证思维链“{问题描述}请你在回答问题之前进行反向思考从多个角度验证答案是否已经准确回答了问题。”如果你是开发者解决的方法除了在提示词里塞入思维链之外还可以尝试以下几种方式模型微调Fine-Tuning收集足够多的正向和反向数据集定期对模型进行微调训练让 AI 学会怎么回答。检索增强生成RAG 技术在回答问题之前可以通过向量化匹配或者微模型来完成问题路由判断问题是否需要以下的工具来补充相关的一些信息。**联网搜索**如果智能体拥有这方面的工具Tool可以在对话时打开这个功能并引导智能体在每次回答之前需要先在网上寻找与问题最相关的一些知识。**知识库、数据库**专业智能体往往携带有一些未被包含在主设提示词中的数据比如图书馆智能体不可能将所有书籍的资料都纳入到提示词中。此时比较简易的处理方式就是构建智能体的知识库并且采取合理的分段方案。除了聚焦于文档管理的知识库也可以尝试利用数据库来实现更复杂的智能体场景。存在万能的提示词吗目前从我的观察上还没有出现这样的提示词。每个提示词都有各自适用的场景通用的提示词在处理一些专业或者行业场景下就不如针对场景进行特定优化的提示词。以下是个人探索时的一些见解**需要解决高泛化性的问题**经过语义压缩的通用提示词 零样本ZeroShot或者少样本FewShot**需要捏一个人设不OOC的角色智能体**角色扮演提示词 角色知识库**用于获得高质量产物的超级智能体类似Manus?**系统级提示词System Prompt思维链CoT 任务规划Planing工具调用ToolCalling 反思决策Review Decision我不想要 AI 每次都输出长篇大论我就想要直接获得简短明确的答案谜底就在谜面上了属于是。当然也可以使用以下提示词来实现同样是顶级指令之一Keep the answer short and concise.保持回答简明扼要如果还是效果不佳建议在提示词内多重复几遍来提高权重。或者你还可以明确字数限制比如 “回答需要在 500 字内”一些奇奇怪怪的冷门 Prompt 技巧符号链 CosHu 等人[1]聚焦于空间关系推理场景让 AI 用符号代替自然描述来执行推理让模型避免受到不必要的文字干扰团队通过对比发现这种方式可以获得比自然描述更好的推理质量。伪代码李继刚等人[2]在持续挖掘 Prompt 潜力中发现使用 Lisp 语法来书写的 Prompt在执行一些需要复杂逻辑推理的场景获得了更好的效果。自我一致性保持Wang 等人[3]发现通过少样本提示采样不同的推理路径能解决智能体在涉及实体关系的推理过程中出现的幻觉问题。前置知识提示Liu 等人[4] 同样是通过 Few-Shot 发现在问 AI 问题之前提供一些绝对正确的知识比如“地球是位于太阳系的一颗行星”可以让 AI 回答的置信度获得明显的提升[1] Hu, Hanxu, et al. “Chain-of-symbol prompting for spatial reasoning in large language models.” First Conference on Language Modeling. 2024.[2]Lisp结构化提示词 李继刚、甲木等.[3]Wang, Xuezhi, et al. “Self-consistency improves chain of thought reasoning in language models.” arXivpreprint arXiv:2203.11171 (2022).[4] Liu, Jiacheng, et al. “Generated knowledge prompting for commonsense reasoning.” Proceedings of the 60th annual meeting of the association for computational linguistics (volume 1: long papers). 2022.五、 结语提示词不是高深的技术而是一种与 AI 沟通的“表达艺术”。多加观察和练习你也能成为 AI Prompt 领域的“魔法师”读者福利倘若大家对大模型感兴趣那么这套大模型学习资料一定对你有用。针对0基础小白如果你是零基础小白快速入门大模型是可行的。大模型学习流程较短学习内容全面需要理论与实践结合学习计划和方向能根据资料进行归纳总结包括大模型学习线路汇总、学习阶段大模型实战案例大模型学习视频人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】AI大模型学习路线汇总大模型学习路线图整体分为7个大的阶段全套教程文末领取哈第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。大模型实战案例光学理论是没用的要学会跟着一起做要动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战案例来学习。大模型视频和PDF合集这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一跟着老师的思路由浅入深从理论到实操其实大模型并不难。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】