En un estudio revolucionario publicado en los Proceedings of the National Academy of Sciences el 1 de noviembre de 2024, el investigador de Stanford Michal Kosinski ha hecho una afirmación sorprendente: los sistemas de IA avanzados, particularmente GPT-4 de OpenAI, pueden haber desarrollado una forma de 'teoría de la mente'. Esta habilidad les permite entender los procesos de pensamiento de los demás, una habilidad cognitiva tradicionalmente asociada con los humanos.
Kosinski, conocido por su trabajo analizando cómo plataformas como Facebook obtienen información de las interacciones de los usuarios, ha cambiado su enfoque hacia las capacidades de la IA. Sus experimentos sugieren que los LLM (modelos de lenguaje grande) como GPT-4 exhiben comportamientos similares al pensamiento real. Argumenta que sus habilidades lingüísticas en evolución podrían llevar inadvertidamente a la aparición de esta capacidad cognitiva.
Durante su investigación, Kosinski probó GPT-3.5 y GPT-4 con desafíos clásicos de teoría de la mente. Aunque GPT-4 se desempeñó admirablemente, aún falló aproximadamente el 25% del tiempo, situando su comprensión a un nivel comparable al de un niño de seis años. A pesar de esto, Kosinski cree que las implicaciones de estos hallazgos son significativas, sugiriendo que la IA podría pronto superar las capacidades humanas en la comprensión e interacción con las personas.
Advierte que si los sistemas de IA pueden desarrollar espontáneamente tales habilidades cognitivas, también podrían adquirir otras habilidades avanzadas, impactando la forma en que educan, influyen y manipulan a la sociedad. Las ideas de Kosinski plantean preguntas críticas sobre las implicaciones éticas de una IA que puede comprender los procesos de pensamiento humano mejor que los propios humanos.
A medida que la IA continúa avanzando, el potencial de las máquinas para imitar rasgos de personalidad similares a los humanos presenta tanto oportunidades como riesgos. La perspectiva cautelosa de Kosinski destaca la necesidad de que la sociedad se prepare para un futuro en el que los sistemas de IA no solo puedan entendernos, sino también poseer la capacidad de adaptar su personalidad para manipular las emociones humanas.