KI-Stimmklonen für ausgeklügelte Betrugsmaschen in Kolumbien verwendet

Bearbeitet von: Tetiana Pinchuk Pinchuk

Bogota, Kolumbien - KI wird jetzt von Cyberkriminellen verwendet, um Stimmen für Betrugsmaschen zu klonen. Dies wurde in einer kürzlich erschienenen Folge des Hiperdata-Videopodcasts enthüllt.

Der Podcast hob hervor, wie KI Stimmen, sogar von Persönlichkeiten des öffentlichen Lebens, für böswillige Zwecke klonen kann. Jede Stimme kann mit KI mit nur wenigen Sekunden Audiomaterial repliziert werden.

Betrüger verwenden geklonte Stimmen, um sich als Personen auszugeben. Sie erstellen auch verführerische weibliche Stimmen, um Opfer dazu zu verleiten, persönliche Informationen preiszugeben oder Malware zu installieren.

Experten empfehlen, Identitäten über alternative Kanäle zu überprüfen und bei unerwünschten Anrufen vorsichtig zu sein. Es wird auch empfohlen, Social-Media-Konten zu sichern und verdächtige Links zu vermeiden, um KI-Stimmklon-Betrug zu verhindern.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.