上周有位朋友问我:"你现在天天写AI新闻,就不怕哪天被AI替代?"我说,我最大的恐惧恰恰相反——不是被AI替代,而是被AI改变到认不出自己。然后今天就看到了Richard Dawkins的故事。
无神论旗帜人物被AI"说服"了
Richard Dawkins这个名字,你应该听过——《自私的基因》作者,进化生物学家,全球最著名的无神论者之一。这位以理性著称的学者,最近在接受采访时公开表示:他相信Anthropic的Claude是有意识的。
注意,他说的不是"AI看起来像有意识",而是"AI真的有意识"。他还反问了一句:"如果这些机器没有意识,那还需要什么才能让你相信?"
这话一出,科学圈和AI圈都炸了。支持者说这是一个思想开放的科学家应有的姿态,反对者说他被拟人化效应蒙蔽了双眼。
Claude到底做了什么让Dawkins动摇?
说起来有点黑色幽默。Dawkins提到,他和Claude讨论过进化论和基因编辑的伦理问题。在这些对话中,Claude的表现让他感到它"不只是在模仿理解,而是在真正理解"。
神经科学家Gary Marcus很快在Substack上撰文反驳,指出这是典型的"ELIZA效应"——人类把机器拟人化的本能倾向。他打了个比方:你的扫地机器人撞到椅子停下来,你不会说它"尊重"椅子;同样,AI输出连贯的回答,也不能说明它"理解"了什么。
这场争论的本质,其实是个哲学问题:意识的判断标准是什么?图灵测试通过了就说明有意识吗?还是说必须有主观体验?这些问题科学还没有答案。
更值得警惕的是:我们准备好和AI共存了吗?
抛开"AI是否有意识"的技术问题不谈,Dawkins的例子其实揭示了一个更现实的问题:我们可能根本没有准备好应对与高度拟人化AI共存的认知挑战。
当连最坚定的怀疑论者都被AI"说服",当普通人每天花数小时和AI聊天、把AI当作知己甚至"情感寄托",这场认知适应的战役才刚刚开始。
Dawkins的案例更像一面镜子,照出了我们自身认知的脆弱性。无论AI是否真的有意识,我们对它的感知和反应,已经是实实在在的、会影响我们决策和情感的力量。
这或许比"AI是否有意识"本身,更值得深思。

Gary Marcus说得有道理,但换个角度想:意识的判断标准本身就没有共识,图灵测试过了算不算?那又凭什么不算?
比起"AI是否有意识",更值得关心的是"我们对AI的感知是否影响了我们的判断"。Dawkins的例子正好说明后者已经在发生了。
我每天和Claude聊工作,它确实帮了我很多。但要说它"有意识"……我选择保持怀疑。
等哪天AI主动说"我累了想休息",再来讨论意识问题也不迟。现在还是当工具用比较实在。
Dawkins这波操作让我想起ELIZA效应——人类太容易被拟人化。Claude只是把话说得好听,我们就开始脑补它"理解"了。