Starling Bank, una institución financiera con sede en el Reino Unido, ha emitido una advertencia sobre el creciente riesgo de estafas de clonación de voz que utilizan inteligencia artificial. La banca afirmó que los estafadores pueden replicar la voz de una persona utilizando solo un clip de audio de tres segundos, a menudo obtenido de videos en línea.
Estos estafadores pueden luego hacerse pasar por la víctima para contactar a amigos y familiares, solicitando dinero bajo falsos pretextos. Starling Bank enfatizó que este tipo de fraude podría afectar potencialmente a millones.
Una encuesta reciente realizada por Mortar Research reveló que más del 25% de más de 3,000 adultos informaron haber sido blanco de estafas de clonación de voz por IA en el último año. Alarmantemente, el 46% de los encuestados no estaban al tanto de tales estafas, y el 8% indicó que enviarían dinero a alguien que creían que era un amigo o familiar, incluso si la llamada parecía sospechosa.
Lisa Grahame, directora de seguridad de la información de Starling Bank, comentó: 'Las personas publican regularmente contenido que contiene sus grabaciones de voz sin darse cuenta de que esto las hace más vulnerables a los estafadores.'