Google DeepMind prezentuje nowy model AI dla robotów, działający lokalnie

itreseller.com.pl 2 dni temu

Google DeepMind wprowadza Gemini Robotics On-Device – model AI, który pozwala robotom działać lokalnie, a więc bez połączenia z internetem. To nowy etap w rozwoju autonomii i bezpieczeństwa robotyki.

Google DeepMind zaprezentował nowy model sztucznej inteligencji Gemini Robotics On-Device, który umożliwia robotom wykonywanie złożonych zadań całkowicie lokalnie, bez potrzeby łączenia się z chmurą czy internetem. To odpowiedź na wyzwania związane z opóźnieniami, prywatnością i bezpieczeństwem w środowiskach, gdzie szybka reakcja i niezależność od sieci są najważniejsze – jak fabryki, magazyny czy placówki o ograniczonym dostępie do internetu.

Model Gemini Robotics On-Device pozwala sterować ruchami maszyn, rozumieć polecenia w języku naturalnym i uczyć się nowych zadań już po 50–100 demonstracjach. W testach roboty z tym modelem na pokładzie samodzielnie rozpakowywały torby, składały ubrania czy wykonywały montaż na taśmie produkcyjnej – choćby w sytuacjach, których wcześniej nie widziały.

Nowy model bazuje na architekturze vision-language-action (VLA), łącząc rozumienie obrazu, tekstu i działania. Początkowo trenowany na robotach ALOHA, został z powodzeniem zaadaptowany do pracy na dwuramiennych robotach Franka FR3 i humanoidalnym Apollo firmy Apptronik. Wydajność Gemini Robotics On-Device jest zbliżona do wersji chmurowej, a w wielu testach przewyższa inne modele działające lokalnie.

Konkurencja jednak (jak zawsze) nie śpi – przykładowo NVIDIA także rozwija własne platformy foundation models dla robotów, a Hugging Face stawia na otwarte modele i narzędzia dla społeczności robotycznej. Jednak to Google DeepMind jako pierwszy udostępnia tak zaawansowany, lokalnie działający model AI dla robotyki.

Idź do oryginalnego materiału