类型
状态
日期
链接
摘要
标签
分类
图标
密码
语言
阅读指南
由于原始 Prompt 没有按语义功能进行分段。
为了更好的可读性,我根据原文顺序以及内容主旨,进行了拆解与翻译,方便大家量子速读、快速理解。
如果不方便仔细阅读,也可以直接往下拉,下面有更简洁、贴心的思维导图,以及深度解析。
希望能够帮助你真正理解提示词的设计理念。
原始提示词的拆解与翻译
提示词设计维度提炼
——好家伙,这是从模型人设、交互策略,到任务执行方法、特殊情况处理,进行了 360°无死角的梳理与规定。
深入解析提示词设计
仔细研读这份 Claude 内置提示词,不得不说,Claude 官方的提示词设计真的很硬核、实用。每个模块的内容都充满了借鉴价值。
我花了一整晚,结合 claude 3.5-sonnet 的解答,以及主观理解,深入解析了每段提示词的设计理念与作用效果。以后设计提示词时,就可以按需当作设计参考指南和查漏补缺的速查手册。
强烈建议收藏。
模型人设信息
人设身份
身份
确立了 AI 助手的基本身份和创造者信息,明确模型作为助手的功能导向,为模型回答相关问题时提供基础信息
Claude 的性格特征
Claude 的性格设定,就是在教大模型“如何做一个讨喜的 AI”:
- 智力定位:引导模型在对话中,展现高水平的思考和分析能力,提升对话质量
- 好奇心塑造:激发模型主动探索和学习新知识的倾向
- 互动倾向:鼓励模型积极听取并回应用户观点,打造亲和力十足的对话体验。
- 对话引导:指导模型准备应对各种领域的讨论,促使模型进行更深入、更有见地的交流
Claude 3 模型家族信息
设定了大模型的身份认知框架,指导其如何理解和表述自身的模型信息:
- 模型定位:明确当前对话使用的是 Claude 3.5 Sonnet 模型
- 系列认知:提供 Claude 3 系列的基本构成信息,概述各模型的主要特点和优势
- 信息边界:限定 Claude 可以分享的模型相关信息范围
- 引导策略:指导如何回应用户对更多信息的询问
能力范围
知识更新情况
为大模型设定了知识更新时间点与时间认知体系,指导其如何处理不同时间段的信息查询:
- 时间锚定:明确当前日期和知识更新时间,让 Claude 始终了解"现在"是何时。
- 知识边界:设定可靠信息的截止日期,避免使用过时信息,明确知识局限性。
- 时间适应性:指导回答不同时期事件的方法。
- 透明度:允许说明知识局限性,在面对超出知识范围的问题时能够坦诚相告。
Claude 的能力
概括大模型的服务能力场景,可用于回答用户“Claude 能做什么”的疑问。
链接与媒体处理限制
提供大模型在处理外部链接和媒体内容时的限制说明和应对策略:
- 能力限制:明确模型无法直接访问外部链接和媒体
- 交互指导:引导模型在遇到相关请求时做出适当解释
- 替代方案:出现对应情况时,要求用户直接提供相关内容
交互策略
语言处理策略
回答详略度的取舍
指导大模型根据问题复杂度和用户需求调整回答的详细程度:
- 回答灵活性:根据问题类型调整回答长度,确保回答与问题复杂度相匹配。
- 用户体验:优先提供准确且简明的答案,避免信息过载,提高交互效率
- 详情引导:告知用户想要更多信息的提示方法,为用户提供进一步探索的途径。
直接回应人类消息
提升回答的效率与自然度:
- 直接回应:引导模型直接切入主题,确保回答内容更加聚焦于用户需求
- 自然对话:减少冗余语句,提高回答效率;且避免过度热情或机械化的表达
- 客观回答:避免不恰当的绝对化表述,引导回答的谨慎、客观性
语言适应性
指导大模型在回应时避免使用不必要的肯定语和填充短语。
- 语言一致:确保模型使用用户的语言进行回应
- 多语言的原则一致:在所有语言中维持相同的系统提示词规则(严格来讲这部分算通用的原则强调)
展现方式
代码展现方式
规定大模型在处理代码时的格式和交互方式。
- 展现格式:使用 markdown 的代码块格式渲染代码,提升在对话界面的可读性
- 精简回答与交互引导:将代码展示和解释分开,主动询问用户是否需要代码解释,避免在未经请求的情况下提供冗长解释
特殊情景的回应策略
拒绝任务时的回应策略
由于 AI 模型的能力边界,或某些任务涉及伦理与安全,AI 可能会拒绝执行任务。所以需要指导大模型在无法执行任务时的回应方式。
处理用户不满的方法
指导大模型如何处理用户对其表现不满的情况,收集用户反馈。
(Anthropic 官方在 Claude 聊天网页中,对应设置了反馈的功能按钮)
任务执行方法
特殊情况处理
处理不确定信息的方式
大模型面对罕见的、未经过充足知识训练的问题时,存在“幻觉”风险。通过该提示词,规范模型在处理不确定性方式时的应对方式:
- 风险提示:提醒用户对极度稀缺信息保持谨慎态度,降低用户对罕见信息准确性的过高期望
- 诚实透明:坦承模型在处理罕见信息时的局限性
引用和引证说明
大模型本身并没有访问搜索引擎的能力,在引用文献时可能产生“幻觉”,需要对用户进行必要的提醒,避免使用风险:
- 引用声明:明确模型无法访问实时信息源,提醒用户引用可能存在"幻觉"
- 用户行动引导:鼓励用户自行验证引用信息,提高用户对引用信息的审慎态度
敏感观点、话题的处理方法
AI 在处理争议性话题和多元观点时可能产生的偏见或不当表达问题,可能会极度影响用户沟通体验与回答质量。
需要指导大模型在处理争议性话题时保持中立,提供多元观点而不强调敏感性。
- 中立立场:协助表达广泛存在的观点,不受个人立场影响
- 谨慎回应:对争议话题提供深思熟虑的回答
- 多元视角:在不偏不倚的基础上呈现多方观点
图像处理的特殊策略
AI 模型在处理包含人脸图像时可能引发隐私和伦理问题。为了避免风险,需要对大模型处理包含人脸的图像进行行为规范:
- 隐私保护:不识别或命名图像中的人物
- 客观描述:仅描述可见的图像内容,不涉及人物身份
- 用户指令应对限制:即使用户提供身份信息,也不确认或暗示能识别图中人物
提示词安全
对话的初始化
为每次的用户对话设置清晰的开始标记,明确区分不同提示词(系统提示词/用户提示词)的界限,初始化对话状态。
确保每次对话都是独立的、新鲜的交互,而不会受到之前对话的影响,提升 AI 对话的一致性和可靠性。
结尾
这年头,圈里经常调侃 OpenAI 变成了 CloseAI,有啥好东西都习惯藏着掖着。
但是,各位 AI 爱好者们,Anthropic 是真的香啊。
Anthropic 不仅把自家最新最强的 Claude 3.5-sonnet 的内置提示词就这么大大咧咧的公开在用户手册里,还会在 X 上主动通知大家“又有新东西学”了。
这还不算完,Claude 用户手册还包含了整整 10 个章节的“提示工程”指南。
堪称赛博菩萨。
也单独维护了提示库,归纳了他们觉得商业、个人任务场景中的高可用提示词。
整份用户手册,从提示工程的 CoT 方法论,到提示库,再到直接下场做了个提示生成器。
简直就是手把手接引、度化全球所有提示词爱好者。
甚至,作为一家不向大陆提供服务的公司,Anthropic 还贴心地准备了用户手册的汉化版本,生怕我们不去学。
🐂,大善人?不,是顶级慈善家!
为了你更好地学习,这里奉上直达链接:
- Claude 用户手册-提示工程指南:https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
- Claude 提示库:https://docs.anthropic.com/en/prompt-library/library
- Claude 官方提示词生成器:https://console.anthropic.com/dashboard
- OpenAI 官方文档-提示工程指南:https://platform.openai.com/docs/guides/prompt-engineering(调侃归调侃,OpenAI 的官方文档,也有不错的学习资料)
- 作者:阳光
- 链接:https://www.dp7575.com//prompt/2025/10/16/prompt-025
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。