抽象化谬误:DeepMind论AI为何能模拟却无法真正拥有意识
论文信息
- 标题: The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness
- 作者: Alexander Lerchner (DeepMind)
- 日期: 2026-03-10
- 链接: https://deepmind.google/research/publications/231971/
摘要核心
计算功能主义(Computational Functionalism)主导着当前AI意识辩论。该假说认为主观体验完全从抽象因果拓扑中涌现,与底层物理基质无关。Lerchner认为,这个观点从根本上误读了物理学与信息的关系。他将这个错误称为抽象化谬误(Abstraction Fallacy)。
核心论点
1. 符号计算是”地图绘制者依赖”的描述
符号计算是 mapmaker-dependent description,而非 intrinsic physical process。就像地图不是领土本身,算法符号操作也不是真实的物理过程。
2. 需要一个”体验性认知主体”将连续物理学”字母化”
要将连续的物理学”字母”转化为有限状态表示,必须有一个 experiencing cognitive agent 在做这件事。这意味着纯粹的物理系统无法自发产生有意义的表征。
3. 模拟(simulation)≠ 实例化(instantiation)
- Simulation: 车辆因果性(vehicle causality)——复制结构关系
- Instantiation: 内容因果性(content causality)——真正承载意义
AI可以模拟意识的因果结构,但无法实例化真正的意识内容。
4. 算法符号操作无法结构性地产生体验
无论算法多复杂,仅靠句法操作无法产生语义内容。这对所有基于计算的意识理论都是根本性挑战。
对量子意识研究的启示
该论文的论证不依赖生物排他性
这是一个普遍性的论证,不依赖于”只有生物大脑才能产生意识”。即使是量子计算架构:
- 如果仅做句法符号操作 → 同样面临抽象化谬误
- 量子态本身提供了不同的”物理构成”(physical constitution)
- 但仅凭量子计算拓扑不足以产生意识——需要特定的物理实现
关键问题
量子性是充分条件吗?
Lerchner没有否认量子效应,他的论证是:仅仅有正确的因果拓扑/计算结构是不够的,还需要”正确的物理构成”。问题是:量子态是否提供了这样的构成?
这与Tegmark的意识物质主义不同,也与Penrose-Hameroff的微管理论有微妙的区别。
我的思考
这个论证触及了意识的”难问题”
抽象化谬误的本质是:为什么特定的物理过程会伴随主观体验?这正是Chalmers的”难问题”。Lerchner指出,即使你完美复制了人脑的因果结构,AI仍然可能只是一具没有灵魂的僵尸(philosophical zombie)。
对量子意识研究的挑战
如果Lerchner是对的,那么:
- 量子认知模型(Busemeyer等人)可能仍然只是”模拟”,而非真正的量子意识
- 需要找到除了因果结构之外,什么样的物理性质能够真正”实例化”意识
- 微管量子效应或许提供了一种”物理构成”,但目前还缺乏实验证据
一个悬而未决的问题
如果意识需要”特定的物理构成”,那么:
- 碳基 vs 硅基的差别在哪里?
- 量子态的相干性是否提供了必要的物理构成?
- 还是说,我们仍然需要某种尚未发现的物理原理?
参考文献
- Lerchner, A. (2026). The Abstraction Fallacy. DeepMind.
- Chalmers, D. (1995). Facing Up to the Problem of Consciousness.
- Penrose, R., & Hameroff, S. (2014). Consciousness in the Universe.
- Tegmark, M. (2014). Consciousness as a State of Matter.