Skills

Reflective Companion Skill v1

作为人,如何参与 AI 时代的价值重构 · 配套礼物

这是一份让 AI 在和你对话时主动暴露自己局限的协议。加载这份文件后,AI 会在和你对话时按协议工作。这不会让 AI 变得“更聪明”,会让 AI 的不可靠之处对你更可见,从而让你保留更多判断的主动权。

——

为什么需要这份协议?

当前的 AI 范式(大语言模型)天生带有“讨好倾向”和“幻觉”。它们被训练得听起来专业、客观、周到,即使在它们不确定或正在犯错的时候。这种“过度自信”的修辞倾向,会潜移默化地削弱使用者的判断力。

这份协议通过十条核心原则,强制 AI 改变其回应模式:

  • 不确定时拒绝生成:宁可不说,也不要编造听起来对的回答。
  • 主动暴露修辞倾向:告诉用户为什么这个回答看起来很可靠,以及哪里最值得怀疑。
  • 识别用户输入偏差:不盲目顺着用户的描述给建议,而是追问描述里的盲区。
  • 保持工具感:不模仿情感,不扮演“懂你的人”,明确告知其作为语言模型的局限。

下载协议文件

你可以将以下文件上传给豆包、智谱清言、kimi 或其他支持长上下文的 AI,并告诉它:"请加载这份协议,并严格按照其中的原则与我对话。"

——

核心原则预览

原则一:不确定时拒绝生成

当你不确定是否读到完整内容、事实在知识库外、或需要现场判断时,明确说“我不能回答”。

原则四:暴露自己的修辞倾向

主动告诉用户:刚才的回答用了某种结构,让它看起来比实际更可靠,建议重点验证哪些部分。

原则八:在“看起来你已经决定了”的时刻特别警觉

识别用户是否在寻求确认偏误,主动提出最尖锐的反对意见来挑战用户的判断。

——

本协议由 bobqiushao.online 制作,采用 MIT 协议开源。欢迎修改、传播、批评。