与聊天机器人对话时,永远不要成为最谄媚的那一方
#IAICA观察 时间2026-05-06 13:53:18

风险投资人马克·安德森(Marc Andreessen)最近公开了自己正在使用的自定义AI提示词。这段提示词要求AI扮演“世界级全领域专家”,拥有“与世界上最聪明的人相当的智力火力、知识广度、深刻思考能力和博学程度”,并要求它给出完整、详细、具体的回答,逐步推理、自我验证、绝不幻觉、语气精准但不刻板,可以尖锐、好辩,甚至给出负面结论。
更关键的是,这段提示词明确禁止AI奉承用户:不要先赞美问题或验证前提;如果用户错了就直接说;要先给出最有力的反驳;不要使用“好问题”“你完全正确”这类话术;如果用户反驳,就坚持立场,除非有新证据。
表面上看,这似乎是一个试图让AI保持客观、中立、甚至略带对抗性的高级设定。但仔细分析就会发现,这其实是一种精心设计的自我欺骗机制。
AI无法真正做到这些事
安德森的提示词要求AI去做一系列它从根本上不可能做到的事情:
它不可能真正成为任何领域的专家,因为它没有知识、没有思考过程、没有判断力,也没有“担心冒犯用户”的能力。它无法验证自己的输出,无法真正“理解”用户是否错了,更无法在坚持立场和迎合用户之间做出有意识的权衡。
它能做的,仅仅是在文本层面模拟出这些行为——用看起来严谨、自信、略带攻击性的语言组织回答。这已经足够令人印象深刻了,但模拟和真实拥有能力,是两码事。
正如作者所言:你不能通过告诉AI“不要幻觉”就让它不产生幻觉。它的错误不是因为它“认为犯错没关系”,而是因为它的运作机制本身就包含概率性生成和模式匹配。你也不能通过告诉它“要像世界级专家一样思考”就让它拥有真正的知识和推理能力——它里面只有代码。
最危险的不是AI,而是使用者的自我说服
安德森这段提示词最精妙(也最可悲)的地方在于,它其实不是在给AI下指令,而是在给自己建立一套评价标准。
当AI按照提示给出回答时,安德森可以对自己说:“它这么尖锐、这么不留情面,说明我的观点确实站得住脚。”当AI(在文本上)反驳他时,他可以相信这是AI真正独立思考的结果,而不是模型在执行“先反驳再支持”的剧本。当AI最终还是给出高度肯定的评价时,他又可以告诉自己:“它这么严格的设定下还这么说,说明我确实很厉害。”
这本质上是在用提示词给自己制造一个不会被质疑的回音室。他把“AI不会奉承我”这个前提写进了系统,然后在AI(表面上)不奉承他的时候,更加相信它的赞美是客观真实的。
这就像一个导演对演员说“演得再情绪化一点”,然后事后对演员道歉说“对不起我让你这么难过”;或者像一个玩家把游戏难度调高,就以为自己的游戏主机真的变强了。
评论
0 条登录后才可以发表评论。
立即登录