Am 11. Dezember 2024 kündigte Google die Einführung von Gemini 2.0 Flash an, dem ersten Modell der nächsten Generation der Gemini-Serie. Dieses experimentelle Modell ist nun in der webbasierten Gemini-App verfügbar, mit Plänen zur Integration in die Smartphone-App in Kürze. Gemini 2.0 Flash ist auf Geschwindigkeit ausgelegt und verbessert die Fähigkeiten seines Vorgängers, Gemini 1.5 Flash, durch die Einführung multimodaler Eingaben und Ausgaben.
Das neue Modell kann Text, Bilder und Audiodaten verarbeiten und Inhalte in diesen Formaten generieren. Darüber hinaus kann es Werkzeuge wie die Google-Suche nutzen und benutzerdefinierte Funktionen ausführen. Entwickler können über die Gemini-API in Google AI Studio und Vertex AI auf diese Version zugreifen, mit einer breiteren Verfügbarkeit, die für Januar 2025 erwartet wird.
Google-CEO Sundar Pichai bezeichnete den Launch als bedeutenden Fortschritt in der KI und betonte das Potenzial zur Entwicklung neuer KI-Agenten, die das Unternehmen näher an die Schaffung eines universellen Assistenten bringen.
Zusätzlich stellte Google eine Funktion namens Gemini Deep Research vor, die für fortgeschrittene Abonnenten verfügbar ist. Diese Funktion ermöglicht es Gemini, Mini-Klone von sich selbst zu erstellen, die das Web nach Informationen basierend auf Benutzeraufforderungen durchsuchen und mit detaillierten Berichten zurückkehren, die Links zu den Quellen enthalten. Das System arbeitet unter dem Modell Gemini 1.5 Pro und verwendet mehrere Versionen, um Daten effizient zu sammeln und zu analysieren.
Gemini Deep Research zielt darauf ab, Benutzern bei komplexen Recherchen zu helfen und strukturierte Berichte mit Zitaten sowie die Möglichkeit zur Verfeinerung der Ergebnisse auf Anfrage bereitzustellen. Obwohl die Funktion derzeit auf Google One-Abonnenten beschränkt ist, stellt sie einen bedeutenden Schritt in Richtung Integration von KI-Agenten in Mainstream-Anwendungen dar.