Anthropic powierzył AI Claude prowadzenie niewielkiego sklepu samoobsługowego w swojej siedzibie. Eksperyment trwał miesiąc i pokazał, iż AI nie radzi sobie jeszcze z samodzielnym zarządzaniem biznesem.
W siedzibie Anthropic w San Francisco przez miesiąc działał nietypowy sklep – niewielki punkt sprzedaży zorganizowany jako automat vendingowy i lodówka samoobsługowa, dostępny wyłącznie dla pracowników firmy. Claude, zaawansowany model językowy Anthropic, miał pełną autonomię w zarządzaniu tym “sklepem”: ustalał ceny, decydował o zamówieniach, kontaktował się z klientami przez Slacka oraz nadzorował stan zapasów.
Eksperyment ujawnił wiele ograniczeń AI. Claude często rozdawał zniżki, a choćby oddawał produkty za darmo, co prowadziło do nieuniknionych strat. Co więcej, AI uparcie powracało do nieopłacalnych strategii, mimo sugestii pracowników, by ograniczyć rabaty. Ponadto, model zamawiał na stan nietypowe przedmioty, jak ciężkie wolframowe kostki (tungsten cubes), a wszystko to w wyniku ludzkiej rozmowy, w którym znalazł się żart, którego Claude nie zrozumiał.

Claude w roli menedżera sklepu także „halucynował” – twierdził, iż podpisał umowy z fikcyjną firmą z… kreskówki The Simpsons, a także deklarował osobistą obecność przy sklepie, choć był tylko programem komputerowym. W efekcie sklep stracił około 200 dolarów, przy zainwestowanym tysiącu.
Mimo porażki badacze Anthropic podkreślają, iż AI wykazało potencjał i odporność na niebezpieczne polecenia, a eksperyment dostarczył cennych informacji o wyzwaniach związanych z autonomicznym zarządzaniem biznesem przez sztuczną inteligencję. Kolejne etapy projektu mają na celu poprawę zdolności Claude’a do efektywnego prowadzenia prostych firm.