Starling Bank, британское финансовое учреждение, выпустило предупреждение о растущем риске мошенничества с клонированием голоса с использованием искусственного интеллекта. Банк заявил, что мошенники могут воспроизводить голос человека, используя всего лишь трехсекундный аудиофрагмент, часто полученный из онлайн-видео.
Эти мошенники могут затем выдавать себя за жертву, чтобы связаться с друзьями и семьей, запрашивая деньги под ложными предлогами. Starling Bank подчеркнул, что этот тип мошенничества может потенциально затронуть миллионы.
Недавний опрос, проведенный Mortar Research, показал, что более 25% из более чем 3,000 опрошенных взрослых сообщили о том, что стали жертвами мошенничества с клонированием голоса с помощью ИИ за последний год. Ужасающая статистика: 46% респондентов не были осведомлены о таких мошенничествах, и 8% указали, что отправили бы деньги тому, кого они считали другом или членом семьи, даже если звонок казался подозрительным.
Лиза Грэйм, директор по информационной безопасности Starling Bank, отметила: 'Люди регулярно загружают контент, содержащий их голосовые записи, не осознавая, что это делает их более уязвимыми для мошенников.'