KI-Stimmenklonierung fördert neue Betrugsmasche gegen Eltern

Betrüger nutzen zunehmend KI-Technologie, um Kinderstimmen zu imitieren, und schaffen damit einen neuen Telefonbetrug, der die Emotionen der Eltern ausnutzt. Dieser alarmierende Trend umfasst Kriminelle, die Anrufe tätigen oder Nachrichten hinterlassen, die genau wie die Stimme eines Kindes klingen und behaupten, in Gefahr zu sein und dringend Geld zu benötigen.

Laut Quellen des Innenministeriums genügen drei Sekunden Sprache eines Kindes von sozialen Medien wie TikTok oder Instagram, um einen überzeugenden Stimmklon zu erzeugen. Diese Entwicklung stellt eine bedeutende Evolution des berüchtigten 'Hallo Mama'-Betrugs dar, der bereits Millionen im Vereinigten Königreich betrogen hat.

In dieser neuesten Variante erhalten Eltern besorgniserregende Nachrichten oder Anrufe, in denen oft Szenarien beschrieben werden, in denen ihr Kind behauptet, sein Telefon verloren zu haben oder in einer finanziellen Notlage zu sein, die sofortige Mittel zur Lösung des Problems erfordert. Der Betrugsminister Lord Hanson hat die Familien aufgefordert, 'sichere Phrasen' zu vereinbaren, die Kinder in Notfällen verwenden können, um ihre Identität zu überprüfen und zu vermeiden, Opfer dieser Betrügereien zu werden.

Der Aufstieg von KI-generierten Betrügereien stellt eine einzigartige Herausforderung dar, da er es Betrügern ermöglicht, in Zwiegesprächen mit den Opfern zu interagieren, was die Erkennung von Täuschung noch schwieriger macht. Experten warnen, dass diese Technologie Betrügern ermöglichen könnte, realistische Videoanrufe zu erstellen, was die Landschaft des Online-Betrugs weiter kompliziert.

Da Online-Betrügereien weiterhin zunehmen, wobei amerikanische Verbraucher im vergangenen Jahr 12,5 Milliarden Dollar verloren haben, ist es entscheidend, dass Familien wachsam bleiben und proaktiv gegen diese zunehmend raffinierten Taktiken schützen.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.