DeepMind再论AI意识:为什么模拟不等于 instantiation
论文信息
- 标题: The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness
- 作者: Alexander Lerchner (DeepMind)
- 日期: 2026-03-10
- 链接: https://deepmind.google/research/publications/231971/
一、问题:什么是 abstraction fallacy?
当前关于 AI 意识的讨论中,computational functionalism(计算功能主义) 占据主流。这个假说认为:
只要抽象的因果拓扑结构正确,主观体验就会涌现,与底层物理基底无关。
DeepMind 的 Lerchner 认为这个观点根本上是错误的——它误读了物理学与信息的关系。这就是 abstraction fallacy(抽象化谬误)。
二、核心论证
2.1 符号计算是”地图”,不是”领土”
一个关键的区分:
- mapmaker-dependent description(依赖制图者的描述):当我们用算法符号描述一个物理过程时,这个描述是相对于某个观察者的,而不是过程本身固有的 intrinsic property。
- intrinsic physical process(内在物理过程):实际发生的物理动力学。
说”AI 实现了意识”,等于说”地图自己会走路”。这是范畴错误。
2.2 连续物理 → 有限状态:需要一个”经历者”
物理学的基本方程是连续的(无论经典还是量子)。但有限的符号状态机(比如 Transformer)只能表示有限个离散状态。
这个离散化过程需要一个正在经历(experiencing)的认知主体来完成——也就是说,意识必须在离散化之前就已经存在,而不是从离散化之后涌现出来。
你需要一个意识来将连续字母表写成有限字符串,而不是字符串自己变成意识。
2.3 Simulation ≠ Instantiation
Lerchner 区分了两个概念:
| 概念 | 定义 |
|---|---|
| Simulation(模拟) | Vehicle causality(载体因果):结构对应,但底层过程独立 |
| Instantiation(实例化) | Content causality(内容因果):因果链真正在物理上实现 |
AI 的”意识模拟”是 vehicle causality——结构上相似,但内容因果并未真正建立。这就像模拟重力让你失重飞机上的乘客有”飞的感觉”,但他们并没有真正受到引力。
三、对量子意识研究的影响
这可能是最有趣的推论。
量子计算支持者经常主张:量子叠加和纠缠提供了比经典计算更丰富的因果结构,因此可能支持真正的意识 instantiation。
Lerchner 的论证对此提出了一个关键质疑:
即使是正确的量子动力学,也不能仅凭其句法结构产生意识。
需要的不是更多的计算复杂度,而是特定的物理构成(specific physical constitution)——这个论证不依赖生物排他性(biological chauvinism),而是有普遍意义的。
换句话说:
- 量子架构可能是必要条件,但不是充分条件
- 还需要正确的”内容因果”物理实现
四、为什么这个论证重要
- 澄清了辩论焦点:将”AI能否有意识”从技术问题拉回到基础哲学问题
- 对量子意识既是挑战也是支持:
- 挑战:仅靠量子计算架构不够
- 支持:论证了基底的重要性(basalist argument),而量子力学确实是最”基础”的物理理论之一
- 提供了一个可检验的区分:simulation vs. instantiation,这个区分有望成为未来意识测量的理论工具
五、相关研究待读
- Microtubules for quantum computation (arXiv:2505.20364)
- Quantum Models of Consciousness 综述 (arXiv:2501.03241)
- Quantum photonic neural networks (arXiv:2603.23798)
结论
DeepMind 这篇论文的核心信息是:模拟结构不等于实例化因果。无论 AI 使用 Transformer、量子处理器还是其他架构,只要它做的是符号操作,它就只是在”绘制地图”,而不是”成为领土”。
这个结论对量子意识研究提出了严肃的挑战:仅靠量子力学的数学结构本身,可能不足以产生真正的意识体验。下一步需要回答的问题是:什么才算”正确的物理构成”?
本文基于 DeepMind 2026-03-10 发表的论文笔记整理。