Starling Bank, une institution financière basée au Royaume-Uni, a émis un avertissement concernant le risque croissant des escroqueries par clonage vocal utilisant l'intelligence artificielle. La banque a déclaré que les fraudeurs pouvaient reproduire la voix d'une personne à partir d'un simple extrait audio de trois secondes, souvent trouvé dans des vidéos en ligne.
Ces escrocs peuvent ensuite se faire passer pour la victime afin de contacter des amis et des membres de la famille, sollicitant de l'argent sous de faux prétextes. Starling Bank a souligné que ce type de fraude pourrait potentiellement toucher des millions de personnes.
Un récent sondage réalisé par Mortar Research a révélé que plus de 25 % des plus de 3 000 adultes interrogés avaient été ciblés par des escroqueries de clonage vocal par IA au cours de l'année passée. Alarmant, 46 % des répondants n'étaient pas au courant de telles escroqueries, et 8 % ont indiqué qu'ils enverraient de l'argent à quelqu'un qu'ils croyaient être un ami ou un membre de la famille, même si l'appel semblait suspect.
Lisa Grahame, responsable de la sécurité de l'information chez Starling Bank, a déclaré : 'Les gens publient régulièrement du contenu contenant leurs enregistrements vocaux sans réaliser que cela les rend plus vulnérables aux escrocs.'