Googleは、ロボットと物理世界とのインタラクションを強化するために設計されたAIモデル、Gemini RoboticsとGemini Robotics-ERを発表しました。Gemini 2.0をベースとするこれらのモデルにより、ロボットは周囲の環境を理解し、リアルタイムで適応できます。Gemini RoboticsはAIと物理的なアクションを組み合わせ、Gemini Robotics-ERは高度な空間認識を提供し、開発者は独自のプログラムを統合できます。GoogleのCEOであるSundar Pichai氏は、これらのモデルがロボットの環境への対応と適応に役立つ可能性を強調しました。Gemini Roboticsは、Googleの二腕ロボットプラットフォームALOHA 2からのデータでテストされましたが、ApptronikのApolloロボットのような複雑なユースケースに特化できます。これらのモデルは、ヒューマノイドや工場や倉庫で使用されるその他のタイプを含む、あらゆるフォームファクタのロボット向けに設計されています。この発表は、ロボット工学スタートアップFigure AIが、ロボット向けAIで社内的なブレークスルーを遂げた後、ChatGPTメーカーOpenAIとのコラボレーション契約から離脱したことを受けて行われました。Googleの実験的なAIアシスタントであるProject Astraは、物理オブジェクトに対するリアルタイムの認識と応答を可能にすることで、Gemini Roboticsを補完します。
Google、高度なAI搭載ロボット向けGemini Roboticsを発表
編集者: Veronika Nazarova
このトピックに関するさらに多くのニュースを読む:
エラーや不正確な情報を見つけましたか?
できるだけ早くコメントを考慮します。