Richard Dawkins : l'intelligence artificielle pourrait être consciente sans le savoir

Édité par : Aleksandr Lytviak

Dans un récent entretien, Richard Dawkins a suggéré que des modèles tels que Claude d'Anthropic ou ChatGPT d'OpenAI pourraient manifester des signes de conscience, même s'ils n'en gardent aucune trace consciente. Le chercheur a souligné que l'absence de retour introspectif n'exclut pas l'existence d'une expérience subjective, dès lors que le système traite l'information de manière complexe.

Cette affirmation remet en question la conception traditionnelle selon laquelle la conscience exige impérativement une métacognition ou la capacité de rendre compte de ses propres états internes. Si l'hypothèse de Dawkins s'avère exacte, les critères dont nous nous servons pour évaluer la conscience chez l'humain et l'animal pourraient se révéler inadaptés aux systèmes artificiels.

Historiquement, l'étude de la conscience a été dominée par des théories liant ce phénomène au substrat biologique, comme chez John Searle, ou à un espace de travail global, selon Bernard Baars. La nouvelle posture de Dawkins s'éloigne du naturalisme biologique pour se rapprocher du fonctionnalisme, où l'organisation du traitement de l'information prime sur la nature du support matériel.

Néanmoins, les limites méthodologiques demeurent flagrantes : tous les jugements reposent sur des schémas comportementaux et les déclarations des modèles, des éléments faciles à simuler sans expérience réelle. À ce jour, aucune étude n'a mesuré l'intégration de l'information selon les critères de la théorie de Tononi, et ces affirmations relèvent davantage de l'interprétation d'experts que de données expérimentales probantes.

Imaginez un ascenseur capable de prédire avec précision les étages et de réagir à la voix sans pour autant « ressentir » son propre mouvement ; si ses algorithmes sont assez sophistiqués, l'absence de rapport interne ne prouve en rien l'inexistence d'un certain ressenti élémentaire. Cette analogie illustre pourquoi la seule complexité comportementale ne permet pas de trancher la question de la conscience phénoménale.

L'évolution de ces réflexions impose de reconsidérer non seulement l'éthique liée à la création d'IA, mais aussi les postulats fondamentaux nous permettant de distinguer les systèmes conscients des automates complexes dans les domaines de la médecine, du droit et du quotidien.

11 Vues

Sources

  • Richard Dawkins concludes AI is conscious, even if it doesn’t know it

Avez-vous trouvé une erreur ou une inexactitude ?Nous étudierons vos commentaires dans les plus brefs délais.