Die Starling Bank, eine britische Finanzinstitution, hat eine Warnung vor dem wachsenden Risiko von Betrügereien durch Stimmklonierung mittels künstlicher Intelligenz herausgegeben. Die Bank erklärte, dass Betrüger die Stimme einer Person mit nur einem drei Sekunden langen Audioausschnitt, der oft aus Online-Videos stammt, nachahmen können.
Diese Betrüger können sich dann als das Opfer ausgeben, um Freunde und Familie zu kontaktieren und unter falschen Vorwänden Geld zu erbitten. Die Starling Bank betonte, dass diese Art von Betrug potenziell Millionen von Menschen betreffen könnte.
Eine aktuelle Umfrage von Mortar Research ergab, dass über 25 % der mehr als 3.000 befragten Erwachsenen im vergangenen Jahr von Betrügereien durch KI-Stimmklonierung betroffen waren. Alarmierend ist, dass 46 % der Befragten sich solcher Betrügereien nicht bewusst waren und 8 % angaben, dass sie Geld an jemanden senden würden, von dem sie dachten, dass es sich um einen Freund oder ein Familienmitglied handelt, selbst wenn der Anruf verdächtig erschien.
Lisa Grahame, Chief Information Security Officer von Starling Bank, bemerkte: 'Die Menschen laden regelmäßig Inhalte hoch, die ihre Sprachaufnahmen enthalten, ohne zu realisieren, dass dies sie anfälliger für Betrüger macht.'