Le 11 décembre 2024, Google a annoncé le lancement de Gemini 2.0 Flash, le premier modèle de sa série Gemini de nouvelle génération. Ce modèle expérimental est désormais disponible dans l'application Gemini basée sur le web, avec des plans d'intégration dans l'application pour smartphone prochainement. Gemini 2.0 Flash est conçu pour la vitesse et améliore les capacités de son prédécesseur, Gemini 1.5 Flash, en introduisant des entrées et sorties multimodales.
Le nouveau modèle peut traiter du texte, des images et de l'audio, générant du contenu dans ces formats. De plus, il peut utiliser des outils comme Google Search et exécuter des fonctions définies par l'utilisateur. Les développeurs peuvent accéder à cette version via l'API Gemini dans Google AI Studio et Vertex AI, avec un accès plus large prévu pour janvier 2025.
Le PDG de Google, Sundar Pichai, a décrit le lancement comme une avancée significative en IA, soulignant le potentiel de développement de nouveaux agents IA qui rapprochent l'entreprise de la création d'un assistant universel.
En outre, Google a introduit une fonctionnalité appelée Gemini Deep Research, disponible pour les abonnés avancés. Cette fonctionnalité permet à Gemini de créer des mini clones de lui-même qui parcourent le web à la recherche d'informations basées sur des invites d'utilisateur, revenant avec des rapports détaillés comprenant des liens vers les sources. Le système fonctionne sous le modèle Gemini 1.5 Pro, utilisant plusieurs versions pour rassembler et analyser les données efficacement.
Gemini Deep Research vise à aider les utilisateurs dans des tâches de recherche complexes, fournissant des rapports structurés complets avec des citations et la possibilité de peaufiner les résultats sur demande. Bien que la fonctionnalité soit actuellement limitée aux abonnés de Google One, elle représente une avancée significative vers l'intégration des agents IA dans les applications grand public.