Клонирование голоса с помощью ИИ представляет собой серьезный риск мошенничества, предупреждает Starling Bank

Starling Bank, британское финансовое учреждение, выпустило предупреждение о растущем риске мошенничества с клонированием голоса с использованием искусственного интеллекта. Банк заявил, что мошенники могут воспроизводить голос человека, используя всего лишь трехсекундный аудиофрагмент, часто полученный из онлайн-видео.

Эти мошенники могут затем выдавать себя за жертву, чтобы связаться с друзьями и семьей, запрашивая деньги под ложными предлогами. Starling Bank подчеркнул, что этот тип мошенничества может потенциально затронуть миллионы.

Недавний опрос, проведенный Mortar Research, показал, что более 25% из более чем 3,000 опрошенных взрослых сообщили о том, что стали жертвами мошенничества с клонированием голоса с помощью ИИ за последний год. Ужасающая статистика: 46% респондентов не были осведомлены о таких мошенничествах, и 8% указали, что отправили бы деньги тому, кого они считали другом или членом семьи, даже если звонок казался подозрительным.

Лиза Грэйм, директор по информационной безопасности Starling Bank, отметила: 'Люди регулярно загружают контент, содержащий их голосовые записи, не осознавая, что это делает их более уязвимыми для мошенников.'

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.