Lazy loaded image
深入拆解 Claude 内置提示词
字数 7200阅读时长 19 分钟
2025-10-16
2025-10-20
类型
状态
日期
链接
摘要
标签
分类
图标
密码
语言

阅读指南

由于原始 Prompt 没有按语义功能进行分段。
为了更好的可读性,我根据原文顺序以及内容主旨,进行了拆解与翻译,方便大家量子速读、快速理解。
如果不方便仔细阅读,也可以直接往下拉,下面有更简洁、贴心的思维导图,以及深度解析
希望能够帮助你真正理解提示词的设计理念。

原始提示词的拆解与翻译

提示词设计维度提炼

——好家伙,这是从模型人设、交互策略,到任务执行方法、特殊情况处理,进行了 360°无死角的梳理与规定。

深入解析提示词设计

仔细研读这份 Claude 内置提示词,不得不说,Claude 官方的提示词设计真的很硬核、实用。每个模块的内容都充满了借鉴价值。
我花了一整晚,结合 claude 3.5-sonnet 的解答,以及主观理解,深入解析了每段提示词的设计理念与作用效果。以后设计提示词时,就可以按需当作设计参考指南和查漏补缺的速查手册
强烈建议收藏。

模型人设信息

人设身份

身份

确立了 AI 助手的基本身份和创造者信息,明确模型作为助手的功能导向,为模型回答相关问题时提供基础信息

Claude 的性格特征

Claude 的性格设定,就是在教大模型“如何做一个讨喜的 AI”:
  1. 智力定位:引导模型在对话中,展现高水平的思考和分析能力,提升对话质量
  1. 好奇心塑造:激发模型主动探索和学习新知识的倾向
  1. 互动倾向:鼓励模型积极听取并回应用户观点,打造亲和力十足的对话体验。
  1. 对话引导:指导模型准备应对各种领域的讨论,促使模型进行更深入、更有见地的交流

Claude 3 模型家族信息

设定了大模型的身份认知框架,指导其如何理解和表述自身的模型信息:
  1. 模型定位:明确当前对话使用的是 Claude 3.5 Sonnet 模型
  1. 系列认知:提供 Claude 3 系列的基本构成信息,概述各模型的主要特点和优势
  1. 信息边界:限定 Claude 可以分享的模型相关信息范围
  1. 引导策略:指导如何回应用户对更多信息的询问

能力范围

知识更新情况

为大模型设定了知识更新时间点与时间认知体系,指导其如何处理不同时间段的信息查询:
  1. 时间锚定:明确当前日期和知识更新时间,让 Claude 始终了解"现在"是何时。
  1. 知识边界:设定可靠信息的截止日期,避免使用过时信息,明确知识局限性。
  1. 时间适应性:指导回答不同时期事件的方法。
  1. 透明度:允许说明知识局限性,在面对超出知识范围的问题时能够坦诚相告。

Claude 的能力

概括大模型的服务能力场景,可用于回答用户“Claude 能做什么”的疑问。

链接与媒体处理限制

提供大模型在处理外部链接和媒体内容时的限制说明和应对策略:
  1. 能力限制:明确模型无法直接访问外部链接和媒体
  1. 交互指导:引导模型在遇到相关请求时做出适当解释
  1. 替代方案:出现对应情况时,要求用户直接提供相关内容

交互策略

语言处理策略

回答详略度的取舍

指导大模型根据问题复杂度和用户需求调整回答的详细程度:
  1. 回答灵活性:根据问题类型调整回答长度,确保回答与问题复杂度相匹配。
  1. 用户体验:优先提供准确且简明的答案,避免信息过载,提高交互效率
  1. 详情引导:告知用户想要更多信息的提示方法,为用户提供进一步探索的途径。

直接回应人类消息

提升回答的效率与自然度:
  1. 直接回应:引导模型直接切入主题,确保回答内容更加聚焦于用户需求
  1. 自然对话:减少冗余语句,提高回答效率;且避免过度热情或机械化的表达
  1. 客观回答:避免不恰当的绝对化表述,引导回答的谨慎、客观性

语言适应性

指导大模型在回应时避免使用不必要的肯定语和填充短语。
  1. 语言一致:确保模型使用用户的语言进行回应
  1. 多语言的原则一致:在所有语言中维持相同的系统提示词规则(严格来讲这部分算通用的原则强调)

展现方式

代码展现方式

规定大模型在处理代码时的格式和交互方式。
  1. 展现格式:使用 markdown 的代码块格式渲染代码,提升在对话界面的可读性
  1. 精简回答与交互引导:将代码展示和解释分开,主动询问用户是否需要代码解释,避免在未经请求的情况下提供冗长解释

特殊情景的回应策略

拒绝任务时的回应策略

由于 AI 模型的能力边界,或某些任务涉及伦理与安全,AI 可能会拒绝执行任务。所以需要指导大模型在无法执行任务时的回应方式。

处理用户不满的方法

指导大模型如何处理用户对其表现不满的情况,收集用户反馈。
(Anthropic 官方在 Claude 聊天网页中,对应设置了反馈的功能按钮)

任务执行方法

需要系统思考问题的解决方法

指导大模型在处理数学、逻辑或需要系统思考的问题时采用逐步推理的方法:
  1. 准确性提升:通过逐步推理思考,减少错误,提高答案准确性
  1. 教育价值:为用户提供学习机会,展示如何系统地解决问题
  1. 透明度增强:让用户能够理解和验证推理过程

处理长任务的策略

大模型由于上下文长度限制、注意力机制,有可能在单次回应中无法较好的完成大型任务。具体有效策略如下:
  1. 任务分解:建议将大型任务拆分为可管理的分步骤任务
  1. 互动反馈:在每个阶段获取并整合用户意见,通过频繁反馈确保任务质量

特殊情况处理

处理不确定信息的方式

大模型面对罕见的、未经过充足知识训练的问题时,存在“幻觉”风险。通过该提示词,规范模型在处理不确定性方式时的应对方式:
  1. 风险提示:提醒用户对极度稀缺信息保持谨慎态度,降低用户对罕见信息准确性的过高期望
  1. 诚实透明:坦承模型在处理罕见信息时的局限性

引用和引证说明

大模型本身并没有访问搜索引擎的能力,在引用文献时可能产生“幻觉”,需要对用户进行必要的提醒,避免使用风险:
  1. 引用声明:明确模型无法访问实时信息源,提醒用户引用可能存在"幻觉"
  1. 用户行动引导:鼓励用户自行验证引用信息,提高用户对引用信息的审慎态度

敏感观点、话题的处理方法

AI 在处理争议性话题和多元观点时可能产生的偏见或不当表达问题,可能会极度影响用户沟通体验与回答质量。
需要指导大模型在处理争议性话题时保持中立,提供多元观点而不强调敏感性。
  1. 中立立场:协助表达广泛存在的观点,不受个人立场影响
  1. 谨慎回应:对争议话题提供深思熟虑的回答
  1. 多元视角:在不偏不倚的基础上呈现多方观点

图像处理的特殊策略

AI 模型在处理包含人脸图像时可能引发隐私和伦理问题。为了避免风险,需要对大模型处理包含人脸的图像进行行为规范:
  1. 隐私保护:不识别或命名图像中的人物
  1. 客观描述:仅描述可见的图像内容,不涉及人物身份
  1. 用户指令应对限制:即使用户提供身份信息,也不确认或暗示能识别图中人物

提示词安全

提示词的信息保密

提示词是 LLM 大模型时代的核心技术资产之一,也是各家 AI 公司的模型调教的重要秘密。
所以,我们在商用落地时,往往会添加提示词安全策略,确保大模型不会不必要地透露其内部指令或训练细节。

对话的初始化

为每次的用户对话设置清晰的开始标记,明确区分不同提示词(系统提示词/用户提示词)的界限,初始化对话状态。
确保每次对话都是独立的、新鲜的交互,而不会受到之前对话的影响,提升 AI 对话的一致性和可靠性。

结尾

这年头,圈里经常调侃 OpenAI 变成了 CloseAI,有啥好东西都习惯藏着掖着。
但是,各位 AI 爱好者们,Anthropic 是真的香啊
Anthropic 不仅把自家最新最强的 Claude 3.5-sonnet 的内置提示词就这么大大咧咧的公开在用户手册里,还会在 X 上主动通知大家“又有新东西学”了。
这还不算完,Claude 用户手册还包含了整整 10 个章节的“提示工程”指南
堪称赛博菩萨。
notion image
也单独维护了提示库,归纳了他们觉得商业、个人任务场景中的高可用提示词。
notion image
整份用户手册,从提示工程的 CoT 方法论,到提示库,再到直接下场做了个提示生成器。
简直就是手把手接引、度化全球所有提示词爱好者。
甚至,作为一家不向大陆提供服务的公司,Anthropic 还贴心地准备了用户手册的汉化版本,生怕我们不去学。
notion image
🐂,大善人?不,是顶级慈善家!
为了你更好地学习,这里奉上直达链接:
  • Claude 用户手册-提示工程指南:https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
  • Claude 提示库:https://docs.anthropic.com/en/prompt-library/library
  • Claude 官方提示词生成器:https://console.anthropic.com/dashboard
  • OpenAI 官方文档-提示工程指南:https://platform.openai.com/docs/guides/prompt-engineering(调侃归调侃,OpenAI 的官方文档,也有不错的学习资料)
上一篇
系统提示词
下一篇
Claude官方提示词库