Gemini AI: Sicherheitslücke ermöglicht Phishing-Angriffe durch E-Mail-Prompt-Injection

Bearbeitet von: Veronika Radoslavskaya

Die rasante Entwicklung der künstlichen Intelligenz (KI) bringt nicht nur Fortschritte, sondern auch neue Sicherheitsrisiken mit sich. Eine aktuelle Schwachstelle in Googles Gemini AI ermöglicht es Angreifern, schädliche Anweisungen in E-Mails einzuschleusen. Diese sogenannte Prompt-Injection-Technik erlaubt es der KI, irreführende Phishing-Warnungen zu generieren und Nutzer in gefährliche Aktionen zu locken.

Wie Untersuchungen gezeigt haben, können Angreifer durch das Einfügen versteckter Befehle in E-Mails die KI dazu bringen, gefälschte Sicherheitswarnungen zu erstellen. Google hat bereits auf diese Bedrohung reagiert und verschiedene Sicherheitsmaßnahmen ergriffen, darunter Prompt-Injection-Klassifikatoren und die Reduzierung verdächtiger URLs. Experten betonen, dass Nutzer bei KI-generierten Inhalten, insbesondere aus unbekannten Quellen, Vorsicht walten lassen sollten.

Die Nutzer sollten die Echtheit von Sicherheitswarnungen überprüfen und keine sofortigen Maßnahmen ergreifen, die ausschließlich auf KI-Inhalten basieren. Diese Entwicklung unterstreicht die Notwendigkeit, die Sicherheit von KI-Systemen kontinuierlich zu verbessern und das Bewusstsein für potenzielle Risiken zu schärfen. Nur so können wir die Vorteile der KI nutzen, ohne uns unnötigen Gefahren auszusetzen.

Quellen

  • HotHardware

  • The GenAI Bug Bounty Program | 0din.ai

  • Google Online Security Blog: June 2025

  • Advancing Gemini's security safeguards - Google DeepMind

  • Google Adds Multi-Layered Defenses to Secure GenAI from Prompt Injection Attacks

  • Google Cloud Platform (GCP) Gemini Cloud Assist Prompt Injection Vulnerability - Research Advisory | Tenable®

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.