Aumentan las estafas por deepfake impulsadas por IA, apuntando a inversores

Las estafas por deepfake están aumentando en EE. UU., con tecnología de IA que permite a los estafadores crear impersonaciones convincentes de figuras públicas como Elon Musk. Un caso reciente involucró a una trabajadora de la salud que perdió más de 10,000 dólares tras ser engañada por un anuncio deepfake sobre una inversión en criptomonedas.

Según Deloitte, las estafas generadas por IA contribuyeron a más de 12 mil millones de dólares en pérdidas por fraude el año pasado, con proyecciones que sugieren que podrían alcanzar los 40 mil millones de dólares para 2027. La Comisión Federal de Comercio ha emitido advertencias sobre el aumento de estas estafas, especialmente aquellas que explotan celebridades debido a su visibilidad.

Los expertos señalan que crear deepfakes se ha vuelto más fácil, requiriendo solo una imagen y un clip de video. A pesar de que algunos deepfakes son detectables debido a movimientos poco naturales, los avances tecnológicos están haciendo que sea cada vez más difícil identificarlos.

En un contexto más amplio, la IA generativa está transformando el panorama para los estafadores. Un informe de GASA y Feedzai destacó que el fraude bancario causó pérdidas globales de 1 billón de dólares. Los estafadores ahora pueden crear identidades falsas y utilizar contenido generado por IA para aumentar su credibilidad, complicando el proceso de detección para los bancos.

Se insta a las instituciones financieras a adoptar sistemas avanzados de detección de fraude impulsados por IA para analizar datos de transacciones en tiempo real, permitiéndoles descubrir patrones ocultos y responder más eficazmente a posibles fraudes. También se enfatiza la colaboración entre bancos y fintechs para fortalecer las defensas contra el fraude transfronterizo.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.