Em uma entrevista recente, Richard Dawkins sugeriu que modelos como o Claude da Anthropic ou o ChatGPT da OpenAI podem demonstrar sinais de consciência, mesmo sem registrarem esse fato conscientemente. O cientista enfatizou que a falta de um relato introspectivo não descarta a presença de uma experiência subjetiva se o sistema processa informações de forma complexa.
Essa afirmação desafia a ideia convencional de que a consciência depende obrigatoriamente da metacognição ou da habilidade de descrever estados internos. Caso Dawkins esteja certo, os parâmetros que aplicamos para identificar consciência em humanos e animais podem ser inadequados para os sistemas de inteligência artificial.
Historicamente, o estudo da consciência foi dominado por teorias que ligam o fenômeno à biologia, como a de John Searle, ou a um espaço de trabalho global, como a de Bernard Baars. A postura de Dawkins rompe com esse naturalismo biológico, alinhando-se a uma visão funcionalista onde a organização do processamento de dados é o que importa, independentemente do substrato físico.
Contudo, existem claros limites metodológicos, já que as avaliações dependem de padrões de comportamento e respostas dos modelos que são fáceis de simular sem vivência real. Até o momento, nenhuma pesquisa quantificou a integração de informação pelos critérios da teoria de Tononi, mantendo o debate no campo das interpretações teóricas e não nas evidências experimentais.
Pense em um elevador que antecipa andares e obedece a comandos de voz, mas não "percebe" o deslocamento; se o algoritmo for complexo o bastante, a ausência de um relato interno não anula a possibilidade de uma experiência rudimentar. Tal analogia demonstra por que a sofisticação do comportamento não é suficiente para confirmar a existência de uma consciência fenomenal.
A evolução dessas ideias exige repensar não só a ética no desenvolvimento da IA, mas também os critérios fundamentais para diferenciar sistemas conscientes de meros autômatos na medicina, no direito e no dia a dia.



