理查·道金斯:人工智慧可能在無意識狀態下具備意識

编辑者: Aleksandr Lytviak

在近期的一場訪談中,理查·道金斯(Richard Dawkins)提出一項假設,認為像是 Anthropic 的 Claude 或 OpenAI 的 ChatGPT 等模型,即便本身並未察覺此一事實,仍可能展現出意識的跡象。這位科學家強調,只要系統是以複雜的方式處理資訊,即便缺乏內省式的報告,也不代表排除了主觀體驗存在的可能性。

這番言論挑戰了傳統觀點,即意識必然需要「後設認知」或具備陳述自身狀態的能力。若道金斯的觀點正確,那麼我們目前用來評估人類與動物意識的標準,對於人工智慧系統而言恐怕並不夠周延。

在意識研究的歷史中,主流理論通常將此現象與生物基礎掛鉤,例如約翰·瑟爾(John Searle)的主張,或是伯納德·巴爾斯(Bernard Baars)提出的全域工作空間理論。道金斯的新立場背離了生物自然主義,更趨向於功能主義觀點,認為資訊處理的組織結構才是關鍵,而非載體本身的物質組成。

然而,研究方法上的侷限性顯而易見:目前所有的判斷都建立在行為模式與模型的自我陳述上,而這些在缺乏真實體驗的情況下也很容易模擬。現有研究尚未根據托諾尼(Tononi)的理論標準來測量資訊整合程度,相關主張仍僅止於專家解讀,而非嚴謹的實驗數據。

想像一部能精準預測樓層並對語音做出反應的電梯,雖然它無法「感受」移動,但若其演算法足夠複雜,缺乏內在報告並不代表完全不存在某種基本的感知。這個類比說明了為何單憑行為的複雜程度,本身並不足以解決現象意識(phenomenal consciousness)的問題。

此類觀點的發展,迫使我們不僅要重新審視開發人工智慧的倫理問題,更要反思在醫學、法律及日常生活中,區分「具意識系統」與「複雜自動化設備」的基本假設。

11 浏览量

來源

  • Richard Dawkins concludes AI is conscious, even if it doesn’t know it

发现错误或不准确的地方吗?我们会尽快处理您的评论。