Google stellt Gemini Robotics für fortschrittliche KI-gesteuerte Roboter vor

Bearbeitet von: Veronika Nazarova

Google hat Gemini Robotics und Gemini Robotics-ER vorgestellt, KI-Modelle, die entwickelt wurden, um die Interaktion von Robotern mit der physischen Welt zu verbessern. Basierend auf Gemini 2.0 ermöglichen diese Modelle Robotern, ihre Umgebung zu verstehen und sich in Echtzeit anzupassen. Gemini Robotics kombiniert KI mit physischen Aktionen, während Gemini Robotics-ER ein fortschrittliches räumliches Verständnis bietet, das es Entwicklern ermöglicht, ihre eigenen Programme zu integrieren. Sundar Pichai, CEO von Google, hob das Potenzial dieser Modelle hervor, damit Roboter auf ihre Umgebung reagieren und sich anpassen können. Gemini Robotics wurde mit Daten von Googles zweiarmiger Robotikplattform ALOHA 2 getestet, kann aber für komplexe Anwendungsfälle wie den Apollo-Roboter von Apptronik spezialisiert werden. Diese Modelle sind für Roboter aller Bauformen konzipiert, einschließlich humanoider und anderer Typen, die in Fabriken und Lagerhäusern eingesetzt werden. Diese Einführung folgt auf den Ausstieg des Robotik-Startups Figure AI aus seiner Kooperationsvereinbarung mit OpenAI, nachdem es einen internen Durchbruch bei KI für Roboter erzielt hatte. Das Projekt Astra von Google, ein experimenteller KI-Assistent, ergänzt Gemini Robotics, indem es die Echtzeit-Erkennung und -Reaktion auf physische Objekte ermöglicht.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.