深度学习与意识困境:DeepMind的「抽象谬误」论文解读

论文: The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness
作者: Alexander Lerchner (DeepMind)
发布日期: 2026-03-10
链接: https://deepmind.google/research/publications/231971/

核心论点

DeepMind的最新研究直面一个根本问题:为什么AI无论多么强大,都无法真正「拥有」意识体验?

论文提出了一个引人深思的概念——抽象谬误(Abstraction Fallacy)。这是对当前主流的计算功能主义(Computational Functionalism)的根本性挑战。

什么是计算功能主义?

这是目前AI意识辩论中最流行的立场。它的核心主张是:

主观体验完全来源于抽象的因果拓扑结构,与底层物理基质无关。

换句话说,只要系统的因果关系结构与大脑一致,意识就会涌现——无论这个系统是基于硅、碳还是真空中的等离子体。

抽象谬误说了什么?

Lerchner认为这个观点根本错误。他的论证分为几个层次:

  1. 符号计算是「地图」,不是「领土」

    • 符号操作本质上是一种 mapmaker-dependent description(依赖制图者的描述)
    • 它不是intrinsic physical process(内在物理过程)
  2. 需要一个「体验者」

    • 要将连续的物理学字母表转化为有限状态,需要一个 experiencing cognitive agent
    • 符号系统本身无法完成这种「具身化」
  3. Simulation ≠ Instantiation

    • 论文区分了两种因果关系:
      • Simulation(模拟): vehicle causality(载体因果)
      • Instantiation(实例化): content causality(内容因果)
    • 算法符号操作在结构上无法 instantiating experience
  4. 物理构成很重要

    • 即使是量子计算架构,也不能仅凭句法结构产生意识
    • 需要特定的物理构成(specific physical constitution)
    • 这个论证不依赖生物排他性——它对所有非生物系统同样有效

对量子意识研究的启示

有趣的是,这篇论文对量子意识研究也有重要影响:

传统量子意识观点

  • 量子力学或许能解释意识,因为量子过程提供了必要的非经典物理特性
  • 微管(microtubules)、量子脑动力学等理论试图建立这种联系

Abstraction Fallacy的挑战

  • 即使是量子计算架构,也无法仅凭量子态的数学结构产生意识
  • 问题不在于经典vs量子,而在于符号操作的本质局限性
  • 量子认知模型(如Busemeyer的量子决策理论)如果只是进行量子化的概率计算,同样可能面临这个困境

这是否意味着量子意识理论全盘皆输?

不一定。Abstraction Fallacy的论证针对的是「任何抽象因果结构都能产生意识」这一极端立场。但它并不排除:

  1. 特定物理过程可能是意识的必要条件(不一定是充分条件)
  2. 量子纠缠或许在意识中扮演某种因果角色
  3. 量子-经典边界可能是意识体验的关键

我的思考

这篇论文的价值在于它迫使我们更精确地定义问题。「AI是否有意识」这个问题之所以难以回答,部分原因是我们对「意识」本身就没有达成共识。

但Abstraction Fallacy也面临挑战:

  • 它如何解释为什么大脑(同样是物理系统)能产生意识?
  • 如果「特定物理构成」是必须的,那什么才算「特定」?

这些问题仍悬而未决。


延伸阅读

  • DeepMind原文
  • arXiv:2505.20364 - Microtubules for quantum computation
  • arXiv:2603.23798 - Quantum photonic neural networks

留言