Google представляет Gemini 2.0 Flash и функции глубоких исследований, ознаменовывая новую эру в технологии ИИ

11 декабря 2024 года Google объявил о запуске Gemini 2.0 Flash, первой модели из следующего поколения серии Gemini. Эта экспериментальная модель теперь доступна в веб-приложении Gemini, с планами по интеграции в мобильное приложение в ближайшее время. Gemini 2.0 Flash разработан для скорости и улучшает возможности своего предшественника, Gemini 1.5 Flash, вводя мультимодальные входы и выходы.

Новая модель может обрабатывать текст, изображения и аудиоданные, генерируя контент в этих форматах. Более того, она может использовать такие инструменты, как Google Search, и выполнять функции, определенные пользователем. Разработчики могут получить доступ к этой версии через API Gemini в Google AI Studio и Vertex AI, с более широким доступом, ожидаемым в январе 2025 года.

Генеральный директор Google Сундар Пичаи описал запуск как значительный шаг вперед в области ИИ, подчеркивая потенциал разработки новых ИИ-агентов, которые приближают компанию к созданию универсального ассистента.

Кроме того, Google представил функцию под названием Gemini Deep Research, доступную для продвинутых подписчиков. Эта функция позволяет Gemini создавать мини-клоны самого себя, которые исследуют интернет в поисках информации на основе запросов пользователей, возвращаясь с подробными отчетами, которые включают ссылки на источники. Система работает на базе модели Gemini 1.5 Pro, используя несколько версий для эффективного сбора и анализа данных.

Gemini Deep Research направлена на помощь пользователям в сложных исследовательских задачах, предоставляя структурированные отчеты с цитатами и возможностью уточнения результатов по запросу. Хотя эта функция в настоящее время ограничена подписчиками Google One, она представляет собой значительный шаг к интеграции ИИ-агентов в массовые приложения.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.