W Kolumbii wyrafinowane oszustwa wykorzystują klonowanie głosu AI

Edytowane przez: Tetiana Pinchuk Pinchuk

Bogota, Kolumbia - Cyberprzestępcy wykorzystują teraz sztuczną inteligencję do klonowania głosów w celu przeprowadzania oszustw. Zostało to ujawnione w niedawnym odcinku wideopodcastu Hiperdata.

Podcast podkreślił, w jaki sposób sztuczna inteligencja może klonować głosy, nawet osób publicznych, w celach przestępczych. Każdy głos można skopiować za pomocą sztucznej inteligencji, mając zaledwie kilka sekund nagrania audio.

Oszuści wykorzystują sklonowane głosy do podszywania się pod ludzi. Tworzą również uwodzicielskie kobiece głosy, aby zwabić ofiary do udostępniania danych osobowych lub instalowania złośliwego oprogramowania.

Eksperci zalecają weryfikację tożsamości za pomocą alternatywnych kanałów i zachowanie ostrożności w przypadku niechcianych połączeń. Zaleca się również zabezpieczenie kont w mediach społecznościowych i unikanie podejrzanych linków, aby zapobiec oszustwom związanym z klonowaniem głosu AI.

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.