Bogotá, Colombia - La IA está siendo utilizada por ciberdelincuentes para clonar voces con fines de estafa. Esto fue revelado en un reciente episodio del videopodcast Hiperdata.
El podcast destacó cómo la IA puede clonar voces, incluso de figuras públicas, para fines maliciosos. Cualquier voz puede ser replicada usando IA con solo segundos de audio.
Los estafadores están utilizando voces clonadas para hacerse pasar por personas. También están creando voces femeninas seductoras para atraer a las víctimas a compartir información personal o instalar malware.
Los expertos recomiendan verificar las identidades a través de canales alternativos y ser cautelosos con las llamadas no solicitadas. También se aconseja asegurar las cuentas de redes sociales y evitar enlaces sospechosos para prevenir las estafas de clonación de voz con IA.