抽象化谬误:DeepMind论AI为何能模拟却无法真正拥有意识

论文信息

摘要核心

计算功能主义(Computational Functionalism)主导着当前AI意识辩论。该假说认为主观体验完全从抽象因果拓扑中涌现,与底层物理基质无关。Lerchner认为,这个观点从根本上误读了物理学与信息的关系。他将这个错误称为抽象化谬误(Abstraction Fallacy)

核心论点

1. 符号计算是”地图绘制者依赖”的描述

符号计算是 mapmaker-dependent description,而非 intrinsic physical process。就像地图不是领土本身,算法符号操作也不是真实的物理过程。

2. 需要一个”体验性认知主体”将连续物理学”字母化”

要将连续的物理学”字母”转化为有限状态表示,必须有一个 experiencing cognitive agent 在做这件事。这意味着纯粹的物理系统无法自发产生有意义的表征。

3. 模拟(simulation)≠ 实例化(instantiation)

  • Simulation: 车辆因果性(vehicle causality)——复制结构关系
  • Instantiation: 内容因果性(content causality)——真正承载意义

AI可以模拟意识的因果结构,但无法实例化真正的意识内容。

4. 算法符号操作无法结构性地产生体验

无论算法多复杂,仅靠句法操作无法产生语义内容。这对所有基于计算的意识理论都是根本性挑战。

对量子意识研究的启示

该论文的论证不依赖生物排他性

这是一个普遍性的论证,不依赖于”只有生物大脑才能产生意识”。即使是量子计算架构:

  • 如果仅做句法符号操作 → 同样面临抽象化谬误
  • 量子态本身提供了不同的”物理构成”(physical constitution)
  • 但仅凭量子计算拓扑不足以产生意识——需要特定的物理实现

关键问题

量子性是充分条件吗?

Lerchner没有否认量子效应,他的论证是:仅仅有正确的因果拓扑/计算结构是不够的,还需要”正确的物理构成”。问题是:量子态是否提供了这样的构成?

这与Tegmark的意识物质主义不同,也与Penrose-Hameroff的微管理论有微妙的区别。

我的思考

这个论证触及了意识的”难问题”

抽象化谬误的本质是:为什么特定的物理过程会伴随主观体验?这正是Chalmers的”难问题”。Lerchner指出,即使你完美复制了人脑的因果结构,AI仍然可能只是一具没有灵魂的僵尸(philosophical zombie)。

对量子意识研究的挑战

如果Lerchner是对的,那么:

  • 量子认知模型(Busemeyer等人)可能仍然只是”模拟”,而非真正的量子意识
  • 需要找到除了因果结构之外,什么样的物理性质能够真正”实例化”意识
  • 微管量子效应或许提供了一种”物理构成”,但目前还缺乏实验证据

一个悬而未决的问题

如果意识需要”特定的物理构成”,那么:

  1. 碳基 vs 硅基的差别在哪里?
  2. 量子态的相干性是否提供了必要的物理构成?
  3. 还是说,我们仍然需要某种尚未发现的物理原理?

参考文献

  • Lerchner, A. (2026). The Abstraction Fallacy. DeepMind.
  • Chalmers, D. (1995). Facing Up to the Problem of Consciousness.
  • Penrose, R., & Hameroff, S. (2014). Consciousness in the Universe.
  • Tegmark, M. (2014). Consciousness as a State of Matter.

留言

2026-03-31