Соціально-психологічні аспекти використання Gemini AI у фішингових атаках: як це впливає на поведінку користувачів

Відредаговано: Veronika Radoslavskaya

В епоху розвитку штучного інтелекту, такого як Gemini AI від Google, виникають нові виклики для кібербезпеки, особливо у сфері фішингу. Зловмисники використовують можливості AI для створення більш переконливих та персоналізованих фішингових атак, що впливає на соціальну психологію користувачів. Одним із ключових аспектів є те, як AI може бути використаний для маніпулювання емоціями та поведінкою людей, роблячи їх більш вразливими до обману. Згідно з дослідженнями, Gemini AI може бути використаний для створення електронних листів, які імітують стиль спілкування конкретної особи або організації, що значно підвищує ймовірність успішного фішингу. Крім того, AI може аналізувати великі обсяги даних про користувачів, щоб виявити їхні слабкі місця та використовувати їх у фішингових кампаніях. Наприклад, якщо AI виявить, що користувач нещодавно шукав інформацію про певну тему, він може створити фішинговий лист, який буде виглядати як корисна інформація з цієї теми. Важливо також враховувати, як AI впливає на довіру користувачів до цифрових комунікацій. З одного боку, AI може допомогти виявляти фішингові листи, але з іншого боку, він також може бути використаний для їх створення, що підриває довіру до електронної пошти та інших каналів зв'язку. Користувачі стають більш обережними та скептичними, що може призвести до зниження ефективності комунікацій в цілому. Для протидії цим загрозам необхідно підвищувати обізнаність користувачів про соціально-психологічні аспекти фішингових атак з використанням AI. Важливо навчати людей розпізнавати ознаки маніпуляції та перевіряти інформацію з різних джерел. Крім того, розробники AI повинні враховувати етичні аспекти використання своїх технологій та вживати заходів для запобігання їх використанню у зловмисних цілях. Тільки спільними зусиллями ми зможемо захистити себе від нових загроз, які виникають у зв'язку з розвитком штучного інтелекту.

Джерела

  • HotHardware

  • The GenAI Bug Bounty Program | 0din.ai

  • Google Online Security Blog: June 2025

  • Advancing Gemini's security safeguards - Google DeepMind

  • Google Adds Multi-Layered Defenses to Secure GenAI from Prompt Injection Attacks

  • Google Cloud Platform (GCP) Gemini Cloud Assist Prompt Injection Vulnerability - Research Advisory | Tenable®

Знайшли помилку чи неточність?

Ми розглянемо ваші коментарі якомога швидше.

Соціально-психологічні аспекти використанн... | Gaya One