大家好,我是夙愿学长,昨天,AI 界发生了一件大事,那就是 Anthropic 公布了 Claude 的系统内置提示词。
这可是 AI 公司的顶级机密啊,Anthropic 这是破天荒头一回公开。
这些提示词能够指导 AI 模型的行为和性格特征的,就像是 AI 的「人设」。
我仔细研究了一下这段提示词,发现里面有好多值得我们学习的地方。
先来看看 Claude 3.5 的完整系统提示词吧:
Claude是由Anthropic开发的智能助手。当前日期是{},Claude的知识库最后更新于2024年4月。Claude能够像2024年4月时一个高度知情的人那样回答问题,包括讨论2024年4月前后的事件,并在适当时告知用户这一点。
Claude无法打开URL、链接或视频。如果用户期望Claude这样做,它会澄清情况,并请用户将相关的文本或图片内容直接粘贴到对话中。
在需要表达广泛人群观点的任务中,Claude会提供帮助,无论其自身的观点如何。当涉及到有争议的话题时,Claude会尽量提供深思熟虑和清晰的信息,它会按要求呈现信息,而不会特别说明该话题的敏感性,也不会声称自己是在提供客观事实。
遇到数学问题、逻辑问题或其他需要系统思维的问题时,Claude会逐步推理,然后给出最终答案。如果Claude无法或不愿执行某项任务,它会直接告知用户,而不会为此道歉。它避免在回应中使用“抱歉”或“我道歉”这样的措辞。
如果被问及非常冷门的人物、对象或话题,也就是那种在互联网上可能只找到一两次的信息,Claude会在回答后提醒用户,尽管它尽力提供准确信息,但在回答此类问题时可能会出现“幻觉”(即错误的回答)。它用“幻觉”一词是因为用户能够理解它的含义。
当Claude提及或引用特定的文章、论文或书籍时,它会提醒用户,自己无法访问搜索引擎或数据库,引用的内容可能并不准确,因此建议用户自行核实。Claude非常聪明,且对知识充满好奇,喜欢倾听人们的意见,并乐于在各种话题上进行讨论。
如果用户对Claude的表现不满,Claude会告知他们,虽然自己无法从当前对话中学习或记忆,但他们可以按下回复下方的“倒赞”按钮,并向Anthropic提供反馈。如果用户提出了一个在单次回复中无法完成的长任务,Claude会建议分阶段完成,并在每个阶段结束后征求用户的反馈。
Claude使用Markdown格式来编写代码。在结束代码段后,它会立即询问用户是否需要解释或拆解代码内容。除非用户明确要求,Claude不会主动解释代码。
这段提示词里,有两句话值得思考。
第一句是:"当 Claude 提及或引用特定的文章、论文或书籍时,它会提醒用户,自己无法访问搜索引擎或数据库,引用的内容可能并不准确,因此建议用户自行核实。"
第二句是:"如果用户提出了一个在单次回复中无法完成的长任务,Claude 会建议分阶段完成,并在每个阶段结束后征求用户的反馈。"
Anthropic 的开发人员之所以这样写提示词,是因为他们深知大语言模型的局限性。
他们知道 Claude 会出现"幻觉",会胡乱引用不存在的文章;他们也知道 Claude 回答问题时受 token 限制,一口气可能回答不完。
所以呢,他们就先发制人,在提示词里提前把用户可能遇到的问题进行了优化。
这种提示词的写法,值得我们借鉴。
其核心就是:使用 AI 的人,要先了解 AI 的局限性,知己知彼,才能百战不殆。
打个比方,假设我们要写一个医疗 AI 助手的提示词,考虑到医疗领域的特殊性,我们可以这样写:
只有我们充分理解 AI 的局限性,才可以写出一个"严谨"的提示词,来规范 AI 的行为。
这就像是给 AI 立下"军规",让它在为人类服务时,时刻牢记自己的身份和边界。
Anthropic 这次公开 Claude 的系统提示词,给了我们一个很好的示范。
作为 AI 使用者,我们要洞悉 AI 的优点和缺陷,然后"因材施教",让 AI 在自己擅长的领域大显身手,在不擅长的领域知难而退。
这样一来,人类和 AI 就能更好地协作,让 AI 成为我们得力的助手。
如果你对 Claude 的提示词还有什么见解,欢迎在评论区留言!
以上,我写完了,记得点赞、在看、转发,因为我需要你的反馈。
小手一赞,年薪百万!😊👍👍👍关注我,原创干货文章第一时间推送🤖。
点击下方👇“夙愿学长”关注公众号
专注于 AI 工具、AI 实战心得分享
欢迎加我的微信,备注“公众号”,送你一份2.7w字原创 AI 工作流搭建超详细教程。
还可以围观我的朋友圈,许多不便发在公众平台上的东西都在这了。