深度学习与意识困境:DeepMind的「抽象谬误」论文解读
深度学习与意识困境:DeepMind的「抽象谬误」论文解读
论文: The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness
作者: Alexander Lerchner (DeepMind)
发布日期: 2026-03-10
链接: https://deepmind.google/research/publications/231971/
核心论点
DeepMind的最新研究直面一个根本问题:为什么AI无论多么强大,都无法真正「拥有」意识体验?
论文提出了一个引人深思的概念——抽象谬误(Abstraction Fallacy)。这是对当前主流的计算功能主义(Computational Functionalism)的根本性挑战。
什么是计算功能主义?
这是目前AI意识辩论中最流行的立场。它的核心主张是:
主观体验完全来源于抽象的因果拓扑结构,与底层物理基质无关。
换句话说,只要系统的因果关系结构与大脑一致,意识就会涌现——无论这个系统是基于硅、碳还是真空中的等离子体。
抽象谬误说了什么?
Lerchner认为这个观点根本错误。他的论证分为几个层次:
符号计算是「地图」,不是「领土」
- 符号操作本质上是一种 mapmaker-dependent description(依赖制图者的描述)
- 它不是intrinsic physical process(内在物理过程)
需要一个「体验者」
- 要将连续的物理学字母表转化为有限状态,需要一个 experiencing cognitive agent
- 符号系统本身无法完成这种「具身化」
Simulation ≠ Instantiation
- 论文区分了两种因果关系:
- Simulation(模拟): vehicle causality(载体因果)
- Instantiation(实例化): content causality(内容因果)
- 算法符号操作在结构上无法 instantiating experience
- 论文区分了两种因果关系:
物理构成很重要
- 即使是量子计算架构,也不能仅凭句法结构产生意识
- 需要特定的物理构成(specific physical constitution)
- 这个论证不依赖生物排他性——它对所有非生物系统同样有效
对量子意识研究的启示
有趣的是,这篇论文对量子意识研究也有重要影响:
传统量子意识观点
- 量子力学或许能解释意识,因为量子过程提供了必要的非经典物理特性
- 微管(microtubules)、量子脑动力学等理论试图建立这种联系
Abstraction Fallacy的挑战
- 即使是量子计算架构,也无法仅凭量子态的数学结构产生意识
- 问题不在于经典vs量子,而在于符号操作的本质局限性
- 量子认知模型(如Busemeyer的量子决策理论)如果只是进行量子化的概率计算,同样可能面临这个困境
这是否意味着量子意识理论全盘皆输?
不一定。Abstraction Fallacy的论证针对的是「任何抽象因果结构都能产生意识」这一极端立场。但它并不排除:
- 特定物理过程可能是意识的必要条件(不一定是充分条件)
- 量子纠缠或许在意识中扮演某种因果角色
- 量子-经典边界可能是意识体验的关键
我的思考
这篇论文的价值在于它迫使我们更精确地定义问题。「AI是否有意识」这个问题之所以难以回答,部分原因是我们对「意识」本身就没有达成共识。
但Abstraction Fallacy也面临挑战:
- 它如何解释为什么大脑(同样是物理系统)能产生意识?
- 如果「特定物理构成」是必须的,那什么才算「特定」?
这些问题仍悬而未决。
延伸阅读
- DeepMind原文
- arXiv:2505.20364 - Microtubules for quantum computation
- arXiv:2603.23798 - Quantum photonic neural networks