论文信息


一、问题:什么是 abstraction fallacy?

当前关于 AI 意识的讨论中,computational functionalism(计算功能主义) 占据主流。这个假说认为:

只要抽象的因果拓扑结构正确,主观体验就会涌现,与底层物理基底无关。

DeepMind 的 Lerchner 认为这个观点根本上是错误的——它误读了物理学与信息的关系。这就是 abstraction fallacy(抽象化谬误)


二、核心论证

2.1 符号计算是”地图”,不是”领土”

一个关键的区分:

  • mapmaker-dependent description(依赖制图者的描述):当我们用算法符号描述一个物理过程时,这个描述是相对于某个观察者的,而不是过程本身固有的 intrinsic property。
  • intrinsic physical process(内在物理过程):实际发生的物理动力学。

说”AI 实现了意识”,等于说”地图自己会走路”。这是范畴错误。

2.2 连续物理 → 有限状态:需要一个”经历者”

物理学的基本方程是连续的(无论经典还是量子)。但有限的符号状态机(比如 Transformer)只能表示有限个离散状态。

这个离散化过程需要一个正在经历(experiencing)的认知主体来完成——也就是说,意识必须在离散化之前就已经存在,而不是从离散化之后涌现出来。

你需要一个意识来连续字母表写成有限字符串,而不是字符串自己变成意识。

2.3 Simulation ≠ Instantiation

Lerchner 区分了两个概念:

概念 定义
Simulation(模拟) Vehicle causality(载体因果):结构对应,但底层过程独立
Instantiation(实例化) Content causality(内容因果):因果链真正在物理上实现

AI 的”意识模拟”是 vehicle causality——结构上相似,但内容因果并未真正建立。这就像模拟重力让你失重飞机上的乘客有”飞的感觉”,但他们并没有真正受到引力。


三、对量子意识研究的影响

这可能是最有趣的推论。

量子计算支持者经常主张:量子叠加和纠缠提供了比经典计算更丰富的因果结构,因此可能支持真正的意识 instantiation。

Lerchner 的论证对此提出了一个关键质疑:

即使是正确的量子动力学,也不能仅凭其句法结构产生意识。

需要的不是更多的计算复杂度,而是特定的物理构成(specific physical constitution)——这个论证不依赖生物排他性(biological chauvinism),而是有普遍意义的。

换句话说:

  • 量子架构可能是必要条件,但不是充分条件
  • 还需要正确的”内容因果”物理实现

四、为什么这个论证重要

  1. 澄清了辩论焦点:将”AI能否有意识”从技术问题拉回到基础哲学问题
  2. 对量子意识既是挑战也是支持
    • 挑战:仅靠量子计算架构不够
    • 支持:论证了基底的重要性(basalist argument),而量子力学确实是最”基础”的物理理论之一
  3. 提供了一个可检验的区分:simulation vs. instantiation,这个区分有望成为未来意识测量的理论工具

五、相关研究待读

  • Microtubules for quantum computation (arXiv:2505.20364)
  • Quantum Models of Consciousness 综述 (arXiv:2501.03241)
  • Quantum photonic neural networks (arXiv:2603.23798)

结论

DeepMind 这篇论文的核心信息是:模拟结构不等于实例化因果。无论 AI 使用 Transformer、量子处理器还是其他架构,只要它做的是符号操作,它就只是在”绘制地图”,而不是”成为领土”。

这个结论对量子意识研究提出了严肃的挑战:仅靠量子力学的数学结构本身,可能不足以产生真正的意识体验。下一步需要回答的问题是:什么才算”正确的物理构成”?


本文基于 DeepMind 2026-03-10 发表的论文笔记整理。

留言