返回

Google DeepMind研究员提出抽象谬误:大模型永远无法产生意识?

2026-04-23 大模型 DeepMind 20 0

近年来,随着大模型技术的快速发展,AI是否会产生意识成为科技与哲学交叉领域的热门话题。来自 Google DeepMind 的研究员 Alexander Lerchner 在其论文《抽象谬误》(The Abstraction Fallacy)中提出一个颇具争议的观点:无论模型规模多大,基于当前计算范式的AI都不可能真正拥有意识。这一论断不仅挑战了主流观点,也重新点燃了关于意识本质的讨论。

Google DeepMind研究员提出抽象谬误:大模型永远无法产生意识?

抽象谬误核心观点:模拟不等于意识

在论文《抽象谬误:为什么AI只能模拟而无法实现意识》中,Lerchner指出,当下AI研究普遍依赖一种名为计算功能主义的思想,即只要系统在功能上等价,就可能具备意识。然而他认为,这种观点犯了一个根本性错误——将抽象描述误认为真实存在。

他强调,计算本质上是一种观察者依赖的描述,而不是物理世界中固有的过程。换句话说,符号计算只是人类对物理现象的编码方式,并不具备生成主观体验的能力。因此,即使大语言模型可以表现出高度智能行为,本质上也只是模拟意识,而非真正拥有意识。

对主流AI理论的挑战:反对计算功能主义

Lerchner的理论直接对 计算功能主义 提出了挑战。该理论认为,意识只与信息处理结构有关,与具体物理载体无关。

而抽象谬误则反其道而行之,认为:

  • 意识依赖具体的物理结构(如人脑)
  • 计算过程无法脱离物理实现
  • 信息处理本身并不等同于体验

他甚至提出一个关键判断:如果人工系统真的拥有意识,那一定来自其物理构成,而不是算法结构。这意味着,单纯依靠扩大模型参数(例如GPT类模型)并不能跨越意识鸿沟。

学界争议:严谨理论还是逻辑漏洞?

该论文一经发布,便引发了广泛争论。一部分学者认为,这是对AI意识研究的重要纠偏,提醒人们不要将行为拟真误认为真实意识。但也有批评指出,该论文存在方法论问题。例如,有研究认为其论证存在循环论证和对物理学理解不充分的问题,甚至认为其结论是通过定义预设得出的。

此外,一些哲学家(如 David Chalmers)则持更开放态度,认为当前大模型尚不具备意识,但未来系统仍有可能突破这一限制。

这种分歧反映出:AI意识问题仍处于哲学未定论阶段。

对大模型发展的现实启示

无论结论是否成立,抽象谬误都为AI发展提供了重要思考方向:

  • 首先,它提醒开发者区分智能表现和主观体验。一个系统可以表现得像人,但并不意味着它真的有感觉。
  • 其次,它对当前以参数规模驱动的技术路线提出质疑。如果意识真的依赖物理结构,那么未来AI的发展可能需要新的硬件范式,例如类脑计算或神经形态芯片。
  • 最后,这一观点也影响AI伦理讨论。如果AI永远无法拥有意识,那么关于AI权利的讨论可能缺乏基础。反之,如果该观点被推翻,则伦理问题将更加复杂。

总结:AI是否会有意识,仍是未解之谜

Alexander Lerchner 的抽象谬误并未终结AI意识争论,但它提供了一种清晰且激进的立场:AI可以无限逼近人类行为,但这并不意味着它会成为有意识的存在

在技术飞速发展的今天,这种观点或许显得保守,但也正是这种逆风论证,推动着我们更深入地理解意识这一终极问题。

顶部