Клонирование голоса с помощью ИИ используется в сложных мошеннических схемах в Колумбии

Отредактировано: Tetiana Pinchuk Pinchuk

Богота, Колумбия - Киберпреступники теперь используют ИИ для клонирования голосов в мошеннических целях. Об этом стало известно из недавнего эпизода видеподкаста Hiperdata.

В подкасте было подчеркнуто, как ИИ может клонировать голоса, даже голоса публичных лиц, в злонамеренных целях. Любой голос можно воспроизвести с помощью ИИ, используя всего несколько секунд аудио.

Мошенники используют клонированные голоса, чтобы выдавать себя за других людей. Они также создают соблазнительные женские голоса, чтобы заманить жертв к передаче личной информации или установке вредоносного ПО.

Эксперты рекомендуют проверять личность через альтернативные каналы и проявлять осторожность в отношении нежелательных звонков. Также рекомендуется защитить учетные записи в социальных сетях и избегать подозрительных ссылок, чтобы предотвратить мошенничество с клонированием голоса с помощью ИИ.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.