Bogota, Kolumbien - KI wird jetzt von Cyberkriminellen verwendet, um Stimmen für Betrugsmaschen zu klonen. Dies wurde in einer kürzlich erschienenen Folge des Hiperdata-Videopodcasts enthüllt.
Der Podcast hob hervor, wie KI Stimmen, sogar von Persönlichkeiten des öffentlichen Lebens, für böswillige Zwecke klonen kann. Jede Stimme kann mit KI mit nur wenigen Sekunden Audiomaterial repliziert werden.
Betrüger verwenden geklonte Stimmen, um sich als Personen auszugeben. Sie erstellen auch verführerische weibliche Stimmen, um Opfer dazu zu verleiten, persönliche Informationen preiszugeben oder Malware zu installieren.
Experten empfehlen, Identitäten über alternative Kanäle zu überprüfen und bei unerwünschten Anrufen vorsichtig zu sein. Es wird auch empfohlen, Social-Media-Konten zu sichern und verdächtige Links zu vermeiden, um KI-Stimmklon-Betrug zu verhindern.