Contenido generado por IA: Cómo identificar medios sintéticos

A medida que las tecnologías de inteligencia artificial generativa (IA) avanzan, distinguir entre contenido sintético y real se vuelve cada vez más importante. En 2024, la capacidad de producir imágenes y videos realistas a partir de simples instrucciones de texto ya no está reservada a expertos, lo que genera preocupaciones sobre la autenticidad.

Los expertos sugieren que el primer paso para identificar medios sintéticos es mantener en mente que cualquier contenido podría ser generado por IA. Siwei Lyu, profesor en la Universidad de Buffalo, enfatiza la importancia de esta conciencia sobre indicadores específicos.

Actualmente, las imágenes generadas por IA a menudo presentan signos reveladores, como características humanas distorsionadas. Sin embargo, a medida que la tecnología evoluciona, la distinción podría volverse menos clara. En particular, los próximos generadores de video de OpenAI, Google y Meta complicarán aún más el proceso de identificación.

Hay dos tipos principales de videos manipulados: deepfakes, que intercambian rostros en metrajes existentes, y videos donde se altera el audio para hacer que las personas digan cosas que nunca dijeron. Los indicadores clave de estas manipulaciones incluyen movimientos faciales no naturales e inconsistencias en la sincronización de labios.

En una era donde las líneas entre la realidad y la fabricación se desdibujan, las empresas están desarrollando marcas de agua y metadatos ocultos para indicar contenido sintético. Se anima a los usuarios a verificar fuentes y mantener un escepticismo ante afirmaciones sensacionalistas para evitar la desinformación.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.