Andrej Karpathy, współzałożyciel OpenAI, studzi entuzjazm wobec agentów AI: „Nie są wystarczająco inteligentne ani multimodalne”

itreseller.com.pl 2 dni temu

Współzałożyciel OpenAI Andrej Karpathy studzi nastroje wokół tzw. agentów AI. W rozmowie z Dwarkesh Podcast stwierdził, iż wbrew branżowemu entuzjazmowi te systemy wciąż są dalekie od funkcjonalności, jakiej oczekują inwestorzy. Jego zdaniem potrzeba jeszcze około dekady, by agenty naprawdę zaczęły działać.

„Nie działają, są poznawczo ułomne”

Andrej Karpathy, współtwórca OpenAI i jeden z najbardziej rozpoznawalnych inżynierów epoki uczenia maszynowego, znany z pracy nad modelami językowymi i tzw. vibe codingiem, nie ma złudzeń co do obecnego stanu agentów sztucznej inteligencji. W rozmowie z prowadzącym Dwarkesh Podcast powiedział wprost:

„One po prostu nie działają. Nie są wystarczająco inteligentne, nie są multimodalne, nie potrafią korzystać z komputera, nie uczą się w sposób ciągły”.

Karpathy wyjaśnił, iż mimo dynamicznego rozwoju modeli generatywnych, najważniejsze problemy wciąż nie zostały rozwiązane. Obecne systemy nie potrafią utrwalać informacji w sposób trwały, nie mają pamięci długoterminowej, a ich zdolności poznawcze nie dorównują ludzkim.

„Nie można im po prostu czegoś powiedzieć i oczekiwać, iż to zapamiętają” – podkreślił.

Według Karpathy’ego dopiero w perspektywie około dziesięciu lat możliwe będzie opracowanie naprawdę użytecznych agentów, zdolnych do samodzielnego planowania, działania i adaptacji. Wskazał przy tym, iż tempo rozwoju technologii bywa przeceniane, a oczekiwania inwestorów i mediów wyprzedzają realne możliwości inżynierów.

Hype kontra rzeczywistość

Rok 2025 został przez wielu analityków okrzyknięty „rokiem agentów AI”. Firmy technologiczne, od OpenAI i Anthropic po Microsoft i Google, prześcigają się w zapowiedziach systemów zdolnych do autonomicznego działania. W teorii mają one samodzielnie rozwiązywać złożone problemy, wykonywać zadania krok po kroku i współpracować z ludźmi bez potrzeby stałych poleceń.

Karpathy ostrzega jednak, iż branża zbyt gwałtownie przesuwa granice oczekiwań. Na platformie X (dawniej Twitter) doprecyzował swoje stanowisko, pisząc:

„Krytykuję branżę za to, iż żyje w przyszłości, w której w pełni autonomiczne byty piszą cały kod, a ludzie stają się zbędni”.

Inżynier nie postuluje całkowitej automatyzacji. Wręcz przeciwnie, jego wizja zakłada współpracę ludzi i maszyn.

„Chcę, żeby system pokazywał, jak użył API, żeby sprawdzał poprawność i pytał mnie, gdy nie jest pewny. Chcę uczyć się wraz z nim, a nie tylko dostawać góry kodu, które rzekomo działają” – napisał.

Tego rodzaju podejście wpisuje się w nurt tzw. human-in-the-loop, w którym sztuczna inteligencja pełni rolę partnera, a nie zastępcy człowieka. Karpathy przestrzega, iż dążenie do pełnej autonomii może prowadzić do zalewu niskiej jakości treści, określanych mianem „AI slop”, generowanych masowo, bez kontroli i bez wartości poznawczej.

Statystyka kontra oczekiwania

Sceptycyzm wobec dzisiejszych agentów AI nie jest odosobniony. Quintin Au (ScaleAI), zwrócił uwagę, iż ryzyko błędu rośnie wraz z liczbą działań, jakie agent musi wykonać.

„Za każdym razem, gdy AI wykonuje akcję, istnieje około 20% szansy na błąd. jeżeli agent ma zrealizować pięć kroków, prawdopodobieństwo sukcesu wynosi tylko 32%” – napisał na LinkedIn.

Takie dane pokazują, iż choć technologia czyni ogromne postępy, droga do pełnej niezawodności jest długa. Karpathy nie jest jednak pesymistą. Jak zaznaczył, jego przewidywania są „5–10 razy bardziej ostrożne” niż te popularne wśród entuzjastów z Doliny Krzemowej, ale wciąż pozostają optymistyczne w porównaniu z poglądami sceptyków negujących rozwój sztucznej inteligencji.

Idź do oryginalnego materiału