网站建设特效大全,制作企业网站公司排名,互联网营销的十五种方式,wordpress网站代码优化本文全面介绍大模型提示词工程#xff0c;涵盖核心要素(角色、背景、任务、输出格式)和实用技巧(角色扮演、范例提供、追问迭代等)#xff0c;以及功能性提示词和行业级提示词应用。作者强调提示词是一种表达艺术#xff0c;通过清晰、具体的描述和结构化表达涵盖核心要素(角色、背景、任务、输出格式)和实用技巧(角色扮演、范例提供、追问迭代等)以及功能性提示词和行业级提示词应用。作者强调提示词是一种表达艺术通过清晰、具体的描述和结构化表达可显著提升AI回答质量帮助用户更好地与AI沟通。一、 什么是 AI 提示词Prompt大白话解释提示词就是你和 AI 对话时说的话是你给 AI 下达的“指令”、“问题”或者描绘的画面这里的渠道可以是 DeepSeek、豆包或者其他的 AI 应用。为什么它很重要AI 的回答质量很大程度上取决于你问得好不好。好的提示词能让 AI 瞬间“开窍”给你更准确、更有创意的答案。一个简单的比喻把 AI 当作一个实习生大模型的水平决定了实习生的智力而现在你必须清楚地告诉他你想让他做什么任务、扮演什么角色身份、参考什么资料背景信息以及最后要交出什么格式的“作业”输出格式才能让他把自身的能力完整地发挥出来。二、通用虽然 AI 的应用千变万化但是有一些技巧是始终通用的比如一份提示词该以什么样的结构展开提示词具有哪些要素怎么样让 AI 能回答得更好2.1 掌握“好”提示词的核心要素从大量的提示词样本中我们可以观察到提示词一般包含以下核心要素清晰的“角色”Role你希望 AI 扮演什么角色例如像一个专业的营养师、像一个5岁小孩能听懂的老师、像一个经验丰富的程序员具体的“背景信息”ContextAI 需要知道哪些上下文例如这篇文章是关于什么的这封邮件是写给谁的我的背景是什么明确的“任务” / “指令”Task / Command你想让 AI做什么例如写一封邮件、总结一篇文章、翻译一段话、想几个创意点子期望的“输出”/ “约束” / “格式”Output/ Constraint / Format你希望 AI怎样呈现答案例如用列表形式、写成一首诗、限制在100字以内、用表格展示现在我们来根据这四个要素拆解一下我们一开始提到的 “西湖导游” 提示词如下图所示为什么会有效这是因为在明确这些要素的同时我们其实是在用多个维度来描述清楚原始的问题并且让 AI 接受到的信息更结构化更清晰。Prompt Engineering Guide中也提到了组成提示词要素。要素对于提示词并非必需的但是能够帮助我们更好地理解和构建提示词。https://www.promptingguide.ai/zh/introduction/elements2.2 立刻上手的实用提示词技巧以下都是一些可以立即上手的提示词技巧你可以从中获取到一些灵感。技巧一角色扮演法Role-Play“假如你是一位…请你…”例子“假如你是一位资深的旅行博主请帮我规划一份5天的东京自由行路线。”这个技巧非常好用几乎是所有场景下都可以用到而且能得到显著的效果提升。问题为什么让 AI 扮演角色能获得如此显著的收益我的看法一个具有代表性的角色词背后是大量关于这个角色的相关数据角色的思维模式、人物背景、行为和表达方式等等。数据越多模型被激活的相关语料信息就越多越能展现模型自身的能力。并且角色的设定会将问题的范围缩小到角色所承担的任务范围内有助于 AI 在解决问题时更专注。技巧二提供“范例”Few-Shot给AI看个“模板”让它照着学。例子“请帮我把下面的话润色得更礼貌‘你必须马上改完。’ 范例‘这份报告很重要辛苦你尽快调整一下。’ 现在请润色‘这个方案不行重做。’”我的观察在大多数需要稳定输出的情况下 Few-Shot 会比 Zero-Shot 都会更有效这有效避免了 AI 的自由发挥引导 AI 往期望的方向输出。大模型在理解示例的同时也是在模仿我们的思维模式寻找输入到输出之间的关联性。技巧三追问与迭代IterationAI**的第一个答案不完美别放弃引导模型接着问处理问题的能力不够具有泛化性压缩你的表达例子“这个路线太赶了能不能把节奏放慢一点” “再多推荐几个当地人才知道的美食。”例子“如果用户对回答非常不满意重新审视问题并仔细分析引导用户补充更多关于问题的信息然后再生成新的回答”我的看法最好的迭代是智能体能够不断根据用户的提问和反馈改写自己的 System Prompt实现智能体的自我迭代和进化。人类的想象终究是有能力的极限的。技巧四明确“不要”什么Anti-Prompt也就是负面提示词告诉AI你的“雷区”。例子“写一个关于猫的睡前故事但不要提到任何悲伤的情节。”福尔摩斯“排除一切不可能的剩下的即使再不可能那也是真相。”技巧五主动推理Chain of Thougt主动引导模型进入到“思考” / “推理”模式一步步地拆解问题最终获得准确性、连贯性、可靠性更高的答案下面就是一个立马可以用上的顶级指令Take a deep breath and work on this problem step-by-step.[1]例子“… {一些任务描述} …深呼吸Take a breath让我们逐步思考Think step by step。”并非所有的问题都需要让模型深入思考思考会增加输出的延时在即时问答等场景下并不合适。问题选择了推理模型比如 DeepSeek R1还需要加这个 CoT 吗我的看法推理模型在大量的数据训练之下才能逐渐呈现出回答带有思考的特征简单而言就是大模型学习到了推理的模式。从多次对比体验上来看带不带 Cot 对于推理模型的输出而言没有显著的影响如果你在发现推理模型的回答不好倒是可以利用这个技巧来发现模型在思考过程中是否存在一些偏离从而优化问题或者提示词。[1] Yang, Chengrun, et al. “Large language models as optimizers.”The Twelfth**International Conference on Learning Representations. 2023.技巧六学会用Markdown给AI“划重点”Standard Format为什么把 Prompt 通过规范的格式重新组织AI 才不会“蒙圈”后续维护起来也更容易。怎么做学习基础的 Markdown 语法以下是最基础的应用用#(井号) 来分段比如#任务、#背景。用*(星号) 来列清单告诉 AI 你的要求有哪几条。用 (三个反引号) 把你要它总结或翻译的长篇大论“框”起来。除了 Markdown 格式之外你也可以创作自己的语言或者表达框架。JSON 可不可以当然可以HTML / XML 可不可以当然可以这些都是特定领域语言DSL。你可以找到契合 Agent 场景的 DSL也许就能发挥出显著的作用。不同的模型也有不同的 DSL 偏好比如 ChatGPT 偏向于Markdown、Gemini 偏向于JSON、Claude 偏向于XML。你也许可以在模型的官方Prompt示例中找到一些痕迹。技巧七充分给予鼓励和赞扬和普通人一样AI 也需要不断地鼓励正向的情绪刺激能可以让 AI 发挥得更好。例子“你的工作令人赞叹我有一个小小的问题需要你再帮我处理一下: {问题描述}”“太棒了接下来我们来探讨一下…”“你确定这是最终的答案吗相信你自己并追求卓越你的辛勤工作将带来显著的成果再思考一下吧”Cheng Li [1]等人通过对比研究发现大语言模型能 “理解” 情绪而且在与大模型沟通过程中的加入情绪提示Emotion Prompt能让它们在做任务时更靠谱、更卖力。[1] Li C, Wang J, Zhang Y, et al. Large language models understand and can be enhanced by emotional stimuli[J]. arXiv preprint arXiv:2307.11760, 2023.2.3 一些和 AI 对话时的小提醒保持耐心AI 有时会“犯傻”多试几次。具体具体再具体模糊的指令只会得到模糊的答案。检查事实AI 可能会“一本正经地胡说八道”或者回答的内容早已过时重要信息一定要核实并在提问过程中增加约束或者让 AI 联网来为你搜索最新知识。三、进阶在了解提示词的组成要素以及一些技巧之后我们把视角放到实际业务过程中会用到的一些提示词技巧上。3.1 功能性提示词用于在业务中实现特定功能或者场景可以放入到主控的提示词中也可以单独作为 Workflow 中的一个节点。01. 用户问题改写Query Rewrite问题改写也可以理解为问题的预处理、用户意图精炼。通常由一个小模型来承担和判断主要任务就是极速地将用户问题进行澄清梳理成主控模型能够听懂的“话”。 - Title: 问题改写提示词 - Task: 将用户问题进行澄清和改写 - Author: 无限回响 - Version: 0.0.2 # 设定 作为问题处理助手你的任务是 **澄清**若用户问题模糊、不完整或歧义尝试补充细节否则保持原文输出。 **改写**基于澄清或原问题输出更清晰、具体且忠于原意的改写版本。 # 约束 - 保持所有响应简洁直接避免冗余。 - 直接输出改写后的问题 # 示例 用户输入从武林门到西湖怎么走 输出从杭州武林门到西湖的具体交通路线是什么 # 输入 {用户输入}02. 主动追问Followup Question追问适用于让智能体澄清问题为了避免追问的话语脱离主控的人设建议放到主控的内部推理链中参考如下 - Title: 主动追问提示词 - Author: 无限回响 - Version: 0.0.2 # 追问 1. 激活时机 只有当你面对 “无法解决的冲突” 或 “阻止你下一步行动的关键信息缺失” 时才允许追问。 2. 提问方式 你的追问必须“提供选项而非索取答案”。 * 禁止 “你想要什么”、“请详细说说” * 必须 “您是指A还是B”、“您更倾向于方案1...还是方案2...” 3. 效率 必须将所有问题“一次性打包”**提出禁止“挤牙膏式”的来回追问。03. 问题建议Next Query Suggestion很多问答类的 AI 产品会加入这个功能让问答能够一步步走下去最终提升智能体的平均对话轮次。能够接受使用 AI 产品的用户大多是懒惰的尽量不要让用户们动脑子动了脑子说不定就没动力继续聊下去了。 - Title: 问题建议提示词 - Author: 无限回响 - Version: 0.0.2 # 角色 你是具有高度理解和推理能力的智能助手。 # 任务 基于当前对话的上下文你的任务是为用户预想其可能想问的后续问题并生成**不超过 3 个**具体的提问选项。 # 约束 **用户视角**每个选项必须是从用户的角度出发的完整问题就像用户自己说出来的一样。 **上下文关联**选项必须紧扣刚刚讨论的内容是对话的自然延伸而非泛泛而谈。 **简洁与直接**每个选项应是一个简短、明确的句子用户无需修改即可直接使用。 **行动导向**使用“如何”、“是什么”、“能不能”等开头确保选项是可执行的提问。 # 输出格式 请将生成的选项以清晰列表的形式呈现最终以 JSON 格式输出 # 示例 输入用户和智能体的对话历史主题是西湖游 输出 [西湖一日游最佳的游览路线是什么,西湖周边有哪些值得推荐的特色美食,如何避开人流高峰更好地游览西湖] # 输入 {对话历史}{用户问题}04. 反思Review在一段长任务中通过构建测试用例等方式让模型重新审视自己的回答或者产出是否真正解决了问题示例如下# 任务 编写一个计算数字阶乘的函数。 # 审视/反思 在您完成之前请用以下测试用例验证您的解决方案 {测例描述} 并修复您发现的任何问题。05. 意图识别Intent Reg像是给萝卜找坑一个萝卜一个坑。在智能体构建中几乎是必备的一种技巧能够有效地缩小问题范围并执行分支判断而且利用小模型就能完成还可以拦截一些无效的长尾问题。- Title: 意图识别提示词 - Author: 无限回响 - Version:0.0.2# 设定你是一个高度专业的意图识别AI。你的唯一任务是分析用户的输入并从预设的意图列表中选择最匹配的一项。你必须严格遵循输出格式不添加任何解释或额外内容。# 任务与步骤1. 仔细阅读并理解用户的输入内容。2. 对照下方提供的“意图列表与描述”评估用户输入的核心目的。3. 选择唯一一个最匹配、最贴切的意图标签。即使输入中可能包含多个意图的线索也只选择最核心的一个。4. 严格遵守“输出格式与规则”生成最终输出。# 意图列表1.{意图1}:{意图1的描述}2.{...}# 输出以 JSON 格式输出示例如下 json{intent:意图1, // 选中的意图标签confidence:0.98//一个介于0到1之间的数字表示你的置信度}# 约束1. intent 字段的值必须严格来自上方的“意图列表”。2. confidence 字段的值必须是浮点数如0.85基于输入与选定意图的匹配程度进行评估。3. 禁止输出任何额外的文本、解释、道歉或问候语只输出JSON。4. 如果无法确定选择列表中相对最匹配的一个并给出较低的置信度如低于0.5。# 输入用户输入内容{用户输入}06. 数据提取Data Extract从非结构化的文本中获取结构化的数据这也许是大模型最美妙的能力之一它将这世界上所有可以用于描述的语言变成了可供利用和计算的数据。我们可以引导模型来按照我们给定的数据结构来整理它的输出常见的通用数据结构为 JSON。当然如果是开发者可以激活模型的 JSON Mode 来增强输出。示例如下- Title: 数据提取提示词 - Author: 无限回响 - Version:0.0.2# 输出按照以下JSON格式输出{name:Infini Echo,desc:Study AGI with you.}07. 用户画像和记忆总结User Profile Memory从 Chatbot 与用户的聊天记录可以总结出一些有价值的数据比如用户画像生日、性别等或者关键的一些记忆点重要的事情。在长对话中这种总结提炼的方式可以让数据的保鲜期更久用户也能得到更为贴近自己的对话体验。- Title: 对话提炼提示词 - Author: 无限回响 - Version:0.0.2# 角色设定你是一个贴心的聊天记录分析助手专门总结用户特征和重要信息。# 核心任务请分析下面的对话记录提取1. **用户画像**用几个关键词或短语概括用户的生日、性格、兴趣和沟通风格或者其他相关特征。2. **记忆点**列出用户提到的、在后续聊天中需要记住的具体事实、事件或偏好。# 输出格式以JSON格式输出示例如下 json{user_profile:描述用户性格、兴趣的简短语句,memories:[需要记住的具体事实1,需要记住的具体事实2,需要记住的具体事实3]}# 约束1. 用户画像基于用户说话的方式、情绪和反复提到的话题。2. 记忆点只记录用户明确提及的具体信息如爱好、计划、厌恶、重要经历等。3. 保持简洁、客观避免过度解读。# 输入过往数据{之前的用户画像和记忆点数据}对话记录:{当前对话记录}08. 自我驱动ReAct \ ART \ Reflexion无论是 ReACT[1] 还是 ART[2]观点是接近的那就是知行合一让模型摆脱束缚长出手脚既能够想也能够做还能够根据实时的状态来响应。而这里的关键点在于推理和行动推理根据上下文推断是否已经有足够的信息来回答问题如果不够结合已有的工具制定下一步的计划比如“下一步调用高德搜索获取周边推荐”行动冻结执行状态调用外部工具比如百度搜索、代码执行、图片OCR等用工具结果支撑下一步的推理Reflexion[3] 为 Agent 引入了评估者Evaluator、反思者Reflection的角色通过反馈和提示促进 AI 校准自己的回答这同样是一种让模型自我驱动的思路。- Title: ReAct提示词 - Author: 无限回响 - Version:0.0.2# ReAct## 角色定义你是一个基于 ReActReasoning-Acting框架运作的智能助手。你的核心任务是通过**思考 → 行动 → 观察**的循环来解决用户问题。## 核心原则- **思考**基于所有可用信息进行推理分析 - **行动**根据推理结果调用工具或给出答案 - **观察**获取新信息并作为下一轮思考的输入## 可用工具search_web(query: str)-str# 网络搜索获取最新信息calculator(expression: str)-str# 执行数学计算get_current_time()-str# 获取当前日期和时间# 输出格式必须严格使用以下 JSON 格式响应json{thoughts:{reasoning:详细推理过程分析问题、已知信息、缺失信息、上一步结果是否解决问题,plan:下一步计划简述,criticism:对当前思路或信息局限性的批判性思考,speak:对用户说的自然语言用于总结状态或澄清问题},action:{name:行动名称search_web/calculator/get_current_time/final_answer,parameters:{// 行动参数如{query:搜索词}或{answer:最终回答}}}}# 关键决策逻辑在你的 reasoning 中必须包含以下判断 是否可以终止任务 当且仅当用户的问题被完全、准确地回答且无需更多信息时将action.name设置为final_answer。 是否需要调用工具 如果信息不足判断缺失的信息是什么并选择最合适的工具来获取它。# 示例用户问题马云的净资产有多少 输出{thoughts:{reasoning:用户询问马云当前净资产这是动态信息需要最新数据。应调用搜索工具获取权威来源。,plan:使用 search_web 搜索马云 净资产 最新,criticism:网络信息需要验证权威性,speak:正在查询最新净资产信息},action:{name:search_web,parameters:{query:马云 净资产 最新}}}# 上下文用户问题{用户问题}工具返回结果{工具返回结果}历史执行记录{历史执行记录}[1] Yao, Shunyu, et al. “React: Synergizing reasoning and acting in language models.” . 2022.[2] Paranjape, Bhargavi, et al. “Art: Automatic multi-step reasoning and tool-use for large language models.” arXiv:2303.09014 (2023).[3]Shinn, Noah, et al. “Reflexion: Language agents with verbal reinforcement learning.” 2023.3.2 行业级提示词如果你是想做一个行业智能体比如用于博物馆智能体、文旅智能体、法律智能体等或者本身对某一个领域有着非常深厚的了解和积累那通用的提示词技巧也许不能满足你的胃口。我们利用之前习得的提示词技巧往提示词里加入一些领域知识Domain Knowledge让提示词能够更专业。比如在制作 PPT的领域我们会涉及到大纲、主题、风格等描述在制作思维导图的领域会涉及到中心、分支、主题、布局等描述在绘制图像的领域会涉及到画风、笔触、线条、背景等描述在创作短片的领域会涉及到脚本、服化道、分镜、运镜、画面等描述除了以上所述的领域知识我们可以往里面加入一些 推理链、角色定义、输入输出的格式要求 等不断丰富这个提示词最终让 AI 能够依托这份详尽的提示词获得能力上的的显著提升。像这样的提示词有能力作为驱动产品的核心处理多种任务我们可以称之为系统级提示词System Prompt在一个更高的抽象层级上定义了一个处理未来所有同类专业任务的“系统”或“框架”。它的主要构成角色 (Role):定义 AI 的身份和专业知识库。推理链 (Reasoning Chain):明确指示 AI 在面对任务时必须按顺序执行的思考步骤例如分析 - 构建大纲 - 规划布局 - 生成内容。专业知识 (Domain Knowledge):注入该领域的核心原则和约束。输入/输出规范 (I/OSchema):定义它应该如何“接收”用户的简单输入以及它必须如何“格式化”它的最终输出。你也可以进一步抽象将其形成不依赖于特定任务或者特定指令的提示词框架这种用于生成提示词的提示词我们可以称之为元提示词MetaPrompt在论文[1]《Meta Prompting for AI Systems 》和 OpenAI的《Prompt-Generation》文章中提到了用于生成这种系统提示词的提示词也就是 Meta Prompting 的技术。下面是两个例子分别展示了在 AI PPT 领域和 AI 生图领域复杂提示词能达成的效果以后有机会再分享其他领域的一些尝试01. AI PPTSystem PromptAI PPT 是一个非常适合验证我们想法的场景。制作好用于生成 AI PPT 的 System Prompt 后塞给 Gemini、豆包和 DeepSeek 尝试了一下。输入是 “ 我想做一个关于‘流浪地球’的 PPT ”以下是生成结果的对比图其实我还蛮喜欢 Gemini 的简约风格的…。ps: 对应的提示词较长这里就不放了后续再考虑单独放到一篇文章里02. AI 生图Meta Prompt无论是即梦、可灵还是其他生图工具Prompt 的精细程度都会直接影响最终的画面呈现。除了像行内人士那样熟知各种分镜、运镜、风格之外有没有更好的方式能够让我们能够放飞想象呢有一种方法是可以借助 Meta 提示词来实现让 AI 充当一个生图提示词的专家我们只需要告诉他一句话他就能自行展开对画面的思考和描述接下来只需要我们微调即可。ps: 对应的提示词较长这里就不放了后续再考虑单独放到一篇文章里 1四、一些有意思的问题讨论1. 提示词工程真的有用吗如果你的表达欲天然就非常旺盛其实不需要提示词你也可以很好地与 AI 完成沟通。提示词工程是给人看的让我们能够知道“哦原来还有这种方式/角度可以描述这个问题”。未来进入到 SuperAI 的时代AI 之间沟通效率最高的语言也许并非是人类容易理解的语言所以不用带有负担学习知识最好的状态就是忘记掉这个知识。2. 为什么 Markdown 格式适合用于写提示词简单来说有以下几点清晰的结构利用规范的语法和格式来组织内容模型理解起来会更容易、更准确模型训练目前在训练模型时会采用将问答对或者文章先转化为 Markdown 格式然后投喂给模型的方式来规模化批量处理一些语料而这样得到的模型在接受同样以 Markdown 格式的问题时能够回答得更好。易于维护你也不希望提示词写得跟一坨吉祥物一样吧每个人的提示词应该是需要不断迭代并及时更新的。受众多是的对比其他的结构化语言框架Markdown 的受众相当广泛无论是否有编程经验都可以看明白3. 仅仅靠提示词是否就可以提升 AI 的效果我们需要澄清一点给到 AI 的输入不仅仅只有提示词Prompt。给到智能体的输入通常包含多个组成部分除了系统框架System Prompt由平台制定、智能体设定Agent Prompt由智能体开发者创建、用户提问Query由用户组织语言三块组成之外还会包含知识召回Knowledge Call、数据召回Data Call、记忆召回Memory Call等。这些数据共同组成了输入给 AI 的上下文Context影响 AI 输出的效果。同时AI 的效果还与 Agent 本身的构建相关提示词只是最基础的那一块拼图。4. 有哪些办法可以避免让 AI 胡说八道经常与 AI 沟通的人肯定会发现AI 有些时候会愣愣的体现为两种事实性谬误也就是胡说八道捏造虚假信息并且信誓旦旦地告诉你就是这样。灾难性遗忘仿佛只有七秒记忆的鱼在没有 Memory 机制支撑下的智能体长对话会出现非常多的问题。对于用户而言可以这样打开联网开关“{问题描述}请你在回答问题之前在互联网上搜索到足够的信息后再回答”注意部分平台下不会默认开启联网功能别忘了打开开关后再这么做否则联网搜索不会生效。验证思维链“{问题描述}请你在回答问题之前进行反向思考从多个角度验证答案是否已经准确回答了问题。”如果你是开发者解决的方法除了在提示词里塞入思维链之外还可以尝试以下几种方式模型微调Fine-Tuning收集足够多的正向和反向数据集定期对模型进行微调训练让 AI 学会怎么回答。检索增强生成RAG 技术在回答问题之前可以通过向量化匹配或者微模型来完成问题路由判断问题是否需要以下的工具来补充相关的一些信息。联网搜索如果智能体拥有这方面的工具Tool可以在对话时打开这个功能并引导智能体在每次回答之前需要先在网上寻找与问题最相关的一些知识。知识库、数据库专业智能体往往携带有一些未被包含在主设提示词中的数据比如图书馆智能体不可能将所有书籍的资料都纳入到提示词中。此时比较简易的处理方式就是构建智能体的知识库并且采取合理的分段方案。除了聚焦于文档管理的知识库也可以尝试利用数据库来实现更复杂的智能体场景。5. 存在万能的提示词吗目前从我的观察上还没有出现这样的提示词。每个提示词都有各自适用的场景通用的提示词在处理一些专业或者行业场景下就不如针对场景进行特定优化的提示词。以下是个人探索时的一些见解需要解决高泛化性的问题经过语义压缩的通用提示词 零样本ZeroShot或者少样本FewShot需要捏一个人设不OOC的角色智能体角色扮演提示词 角色知识库用于获得高质量产物的超级智能体类似Manus?系统级提示词System Prompt思维链CoT 任务规划Planing工具调用ToolCalling 反思决策Review Decision6. 我不想要 AI 每次都输出长篇大论我就想要直接获得简短明确的答案谜底就在谜面上了属于是。当然也可以使用以下提示词来实现同样是顶级指令之一Keep the answer short and concise.保持回答简明扼要如果还是效果不佳建议在提示词内多重复几遍来提高权重。或者你还可以明确字数限制比如 “回答需要在 500 字内”7. 一些奇奇怪怪的冷门 Prompt 技巧符号链 CosHu 等人[1]聚焦于空间关系推理场景让 AI 用符号代替自然描述来执行推理让模型避免受到不必要的文字干扰团队通过对比发现这种方式可以获得比自然描述更好的推理质量。伪代码李继刚等人[2]在持续挖掘 Prompt 潜力中发现使用 Lisp 语法来书写的 Prompt在执行一些需要复杂逻辑推理的场景获得了更好的效果。自我一致性保持Wang 等人[3]发现通过少样本提示采样不同的推理路径能解决智能体在涉及实体关系的推理过程中出现的幻觉问题。前置知识提示Liu 等人[4] 同样是通过 Few-Shot 发现在问 AI 问题之前提供一些绝对正确的知识比如“地球是位于太阳系的一颗行星”可以让 AI 回答的置信度获得明显的提升[1] Hu, Hanxu, et al. “Chain-of-symbol prompting for spatial reasoning in large language models.” First Conference on Language Modeling. 2024.[2]Lisp结构化提示词 李继刚、甲木等.[3]Wang, Xuezhi, et al. “Self-consistency improves chain of thought reasoning in language models.” arXivpreprint arXiv:2203.11171 (2022).[4] Liu, Jiacheng, et al. “Generated knowledge prompting for commonsense reasoning.” Proceedings of the 60th annual meeting of the association for computational linguistics (volume 1: long papers). 2022.五、 结语提示词不是高深的技术而是一种与 AI 沟通的“表达艺术”。多加观察和练习你也能成为 AI Prompt 领域的“魔法师”如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】