ボゴタ、コロンビア - サイバー犯罪者は現在、詐欺のために音声をクローンするためにAIを使用しています。これは、最近のHiperdataビデオポッドキャストのエピソードで明らかにされました。
ポッドキャストでは、AIが公共の人物の声でさえ、悪意のある目的で音声をクローンできる方法が強調されました。わずか数秒の音声で、AIを使用してあらゆる音声を複製できます。
詐欺師は、クローンされた音声を使用して人になりすましています。また、被害者を誘惑して個人情報を共有させたり、マルウェアをインストールさせたりするために、魅力的な女性の声を作成しています。
専門家は、代替チャネルを通じて身元を確認し、迷惑な電話に注意することを推奨しています。 AI音声クローン詐欺を防ぐために、ソーシャルメディアアカウントを保護し、疑わしいリンクを避けることも推奨されています。