Google przedstawił Gemini Robotics i Gemini Robotics-ER, modele AI zaprojektowane w celu poprawy interakcji robotów ze światem fizycznym. Oparte na Gemini 2.0, modele te umożliwiają robotom rozumienie otoczenia i adaptację w czasie rzeczywistym. Gemini Robotics łączy sztuczną inteligencję z działaniami fizycznymi, podczas gdy Gemini Robotics-ER oferuje zaawansowane rozumienie przestrzenne, umożliwiając programistom integrację własnych programów. Dyrektor generalny Google, Sundar Pichai, podkreślił potencjał tych modeli dla robotów, aby reagować i dostosowywać się do otoczenia. Gemini Robotics został przetestowany na danych z dwuramiennej platformy robotycznej Google, ALOHA 2, ale można go wyspecjalizować do złożonych przypadków użycia, takich jak robot Apollo firmy Apptronik. Modele te są przeznaczone dla robotów wszystkich kształtów, w tym humanoidów i innych typów używanych w fabrykach i magazynach. Premiera ta następuje po wycofaniu się startupu robotycznego Figure AI z umowy o współpracy z OpenAI po dokonaniu wewnętrznego przełomu w dziedzinie sztucznej inteligencji dla robotów. Projekt Astra Google, eksperymentalny asystent AI, uzupełnia Gemini Robotics, umożliwiając rozpoznawanie i reagowanie w czasie rzeczywistym na obiekty fizyczne.
Google prezentuje Gemini Robotics dla zaawansowanych robotów napędzanych sztuczną inteligencją
Edytowane przez: Veronika Nazarova
Przeczytaj więcej wiadomości na ten temat:
Czy znalazłeś błąd lub niedokładność?
Rozważymy Twoje uwagi tak szybko, jak to możliwe.