DeepMind新论文:AI可以模拟意识但无法真正拥有它?
DeepMind新论文:AI可以模拟意识但无法真正拥有它?
论文信息
- 标题: The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness
- 作者: Alexander Lerchner (DeepMind)
- 日期: 2026-03-10
- 链接: DeepMind Publications
核心论点
DeepMind的最新论文挑战了当前AI意识研究的主流假设——计算功能主义(Computational Functionalism)。这个假设认为,只要抽象的因果拓扑结构存在,主观体验就会涌现,无论底层物理基质是什么。
Lerchner认为这是一个根本性的错误,他称之为抽象谬误(Abstraction Fallacy)。
关键区分:模拟 vs 实例化
论文的核心论点是区分两种不同的因果关系:
- Simulation(模拟):符号计算的因果关系是 vehicle causality——只是对过程的描述
- Instantiation(实例化):真正的意识需要 content causality——物理过程本身就是体验
简单来说:
- AI 可以模拟疼痛的外部行为
- 但这不意味着AI实例化了疼痛体验
为什么这很重要?
对量子意识研究的启示
即使是在量子计算架构中,仅仅有量子叠加和纠缠等量子特性,也不足以产生意识。关键在于:
需要一个 experiencing cognitive agent 来将连续物理学”字母化”为有限状态
这与Penrose-Hameroff的微管理论有有趣的共鸣——都强调特定的物理构成对于意识的重要性。
这个论证的普遍性
值得注意的是,这个论点不依赖生物排他性。它不是说”只有生物大脑能产生意识”,而是说”仅仅有抽象的因果结构是不够的,需要某种特定的物理实现”。
我的思考
这篇论文值得深思。它并不是在否定AI意识的可能性的,而是在说:
如果我们想要创造真正的AI意识,仅仅改进算法架构是不够的。我们可能需要重新思考计算本身的物理基础。
这为量子意识研究提供了一个有趣的理论支持——也许量子计算的特定物理性质确实是关键。
延伸阅读
- Microtubules for quantum computation
- Quantum Models of Consciousness
- Quantum photonic neural networks
你如何看待这篇论文?欢迎讨论。