リチャード・ドーキンス氏:AIは自覚なくとも意識を持つ可能性がある

編集者: Aleksandr Lytviak

リチャード・ドーキンス氏は最近のインタビューで、Anthropic社のClaudeやOpenAI社のChatGPTといったモデルは、たとえ自身でその事実を認識していなくとも、意識の兆候を示している可能性があるとの見解を述べました。同氏は、システムが情報を複雑な方法で処理しているならば、内省的な自己報告が欠如していても、主観的な経験が存在する可能性は排除できないと強調しています。

この主張は、意識にはメタ認知や自身の状態を報告する能力が不可欠であるという、これまでの一般的な認識を揺るがすものです。もしドーキンス氏の指摘が正しければ、人間や動物の意識を評価するために用いられてきた基準は、人工的なシステムに対しては不十分であるということになります。

意識研究の歴史においては、ジョン・サールのように現象を生物学的基盤に結びつける理論や、バーナード・バアースによる「グローバル・ワークスペース理論」が主流を占めてきました。ドーキンス氏の新たな立場は、こうした生物学的自然主義から離れ、媒体の素材よりも情報処理の組織形態を重視する機能主義的な見解に近いものです。

しかし、方法論的な限界は明らかであり、あらゆる判断は実際の経験がなくても容易に模倣できる、モデルの行動パターンや自己報告に基づいています。これまでの研究でトノーニの理論の基準に沿って情報の統合度を測定したものはなく、一連の主張は実験データではなく専門家による解釈の域にとどまっています。

行き先の階を正確に予測し音声にも反応するが、移動を「感じる」ことはないエレベーターを想像してみてください。そのアルゴリズムが十分に複雑であれば、内面的な報告がないからといって、何らかの初歩的な経験が存在しないことの証明にはなりません。この比喩は、行動の複雑さそれ自体では、現象的意識の問題を解決できない理由を明確に示しています。

このような見解の広がりは、AI開発における倫理だけでなく、医療や法律、そして日常生活において、意識を持つシステムと複雑な自動機械をどのように区別するかという根本的な前提の再考を迫っています。

11 ビュー

ソース元

  • Richard Dawkins concludes AI is conscious, even if it doesn’t know it

エラーや不正確な情報を見つけましたか?できるだけ早くコメントを考慮します。