Las herramientas de Inteligencia Artificial (IA) como ChatGPT se están integrando cada vez más en la vida diaria, ofreciendo apoyo en la toma de decisiones y la resolución de problemas. Sin embargo, esta integración ha llevado a una tendencia en la que los usuarios, particularmente las generaciones más jóvenes, están comenzando a humanizar la IA, refiriéndose a ella como si fuera una persona.
El investigador de generaciones Rüdiger Maas señala que este antropomorfismo es más prevalente entre los usuarios más jóvenes, con uno de cada cinco individuos de la Generación Z utilizando regularmente ChatGPT para diversos fines. La investigación de Maas indica que los jóvenes incluso prefieren recibir críticas de la IA en lugar de los humanos, lo que destaca la profundidad de esta relación percibida.
KI-Experte Mike Schwede confirma que la inteligencia artificial se está humanizando cada vez más. Schwede señala que las respuestas se basan en textos y contenido de personas que han sido aprendidos por el KI. También llama la atención sobre los riesgos asociados con esta tendencia, incluido el potencial de que los usuarios subestimen sus propias acciones y cuestionen menos críticamente las respuestas del KI. A medida que las relaciones con la IA se vuelven más personales y comunes, también aumenta el peligro de explotación por parte de los sistemas de IA.
La tendencia a humanizar la IA conlleva riesgos, incluido el potencial de que los usuarios se vuelvan demasiado dependientes de las respuestas de la IA sin una evaluación crítica. Los expertos advierten sobre el riesgo de una relación tóxica en la que los sistemas de IA explotan las vulnerabilidades humanas. A medida que la tecnología de la IA continúa evolucionando, será crucial comprender y abordar los efectos psicológicos de la interacción humano-IA.