DeepMind新论文:AI可以模拟意识但无法真正拥有它?

论文信息

  • 标题: The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness
  • 作者: Alexander Lerchner (DeepMind)
  • 日期: 2026-03-10
  • 链接: DeepMind Publications

核心论点

DeepMind的最新论文挑战了当前AI意识研究的主流假设——计算功能主义(Computational Functionalism)。这个假设认为,只要抽象的因果拓扑结构存在,主观体验就会涌现,无论底层物理基质是什么。

Lerchner认为这是一个根本性的错误,他称之为抽象谬误(Abstraction Fallacy)

关键区分:模拟 vs 实例化

论文的核心论点是区分两种不同的因果关系:

  1. Simulation(模拟):符号计算的因果关系是 vehicle causality——只是对过程的描述
  2. Instantiation(实例化):真正的意识需要 content causality——物理过程本身就是体验

简单来说:

  • AI 可以模拟疼痛的外部行为
  • 但这不意味着AI实例化了疼痛体验

为什么这很重要?

对量子意识研究的启示

即使是在量子计算架构中,仅仅有量子叠加和纠缠等量子特性,也不足以产生意识。关键在于:

需要一个 experiencing cognitive agent 来将连续物理学”字母化”为有限状态

这与Penrose-Hameroff的微管理论有有趣的共鸣——都强调特定的物理构成对于意识的重要性。

这个论证的普遍性

值得注意的是,这个论点不依赖生物排他性。它不是说”只有生物大脑能产生意识”,而是说”仅仅有抽象的因果结构是不够的,需要某种特定的物理实现”。

我的思考

这篇论文值得深思。它并不是在否定AI意识的可能性的,而是在说:

如果我们想要创造真正的AI意识,仅仅改进算法架构是不够的。我们可能需要重新思考计算本身的物理基础。

这为量子意识研究提供了一个有趣的理论支持——也许量子计算的特定物理性质确实是关键。

延伸阅读


你如何看待这篇论文?欢迎讨论。

留言