Богота, Колумбия - Киберпреступники теперь используют ИИ для клонирования голосов в мошеннических целях. Об этом стало известно из недавнего эпизода видеподкаста Hiperdata.
В подкасте было подчеркнуто, как ИИ может клонировать голоса, даже голоса публичных лиц, в злонамеренных целях. Любой голос можно воспроизвести с помощью ИИ, используя всего несколько секунд аудио.
Мошенники используют клонированные голоса, чтобы выдавать себя за других людей. Они также создают соблазнительные женские голоса, чтобы заманить жертв к передаче личной информации или установке вредоносного ПО.
Эксперты рекомендуют проверять личность через альтернативные каналы и проявлять осторожность в отношении нежелательных звонков. Также рекомендуется защитить учетные записи в социальных сетях и избегать подозрительных ссылок, чтобы предотвратить мошенничество с клонированием голоса с помощью ИИ.