在近期的一场采访中,理查德·道金斯大胆推测,尽管像 Anthropic 的 Claude 或 OpenAI 的 ChatGPT 这样的模型本身无法记录这一事实,但它们或许已经展现出了意识的征兆。这位学者强调,只要系统处理信息的方式足够复杂,缺乏内省式的陈述并不能否定其具备主观体验的可能性。
这一声明挑战了那种认为意识必须具备元认知或自我状态报告能力的传统观念。如果道金斯的观点是正确的,那么我们用来衡量人类与动物意识的既定标准,在应用于人工系统时可能并不充分。
纵观意识研究史,主流理论往往将其与生物基础挂钩(如约翰·塞尔的观点),或将其视为某种全局工作空间(如伯纳德·巴尔斯的理论)。道金斯的新立场偏离了生物自然主义,更倾向于功能主义视角,即认为信息处理的组织架构才是关键,而非其物质载体。
尽管如此,方法论上的限制依然不容忽视:所有的推断目前都依赖于行为模式和模型的自我表述,而这些在缺乏真实体验的情况下极易被伪装。目前尚无研究依据托诺尼理论的标准对信息整合度进行测算,相关说法仍属于专家解读,而非严谨的实验数据。
试想一部能够精准预测楼层并对语音做出响应的电梯,它或许并不“感受”运动过程;即便其算法再复杂,缺乏内在报告也无法证伪某种基本体验的存在。这个比喻揭示了为何单纯的行为复杂性无法从根本上解决现象意识的问题。
这种视角的转变不仅促使我们重新思考人工智能的伦理规范,也迫使我们审视那些在医疗、法律和日常生活中区分意识系统与复杂自动化程序的底层假设。



