
Chatbot Elona Muska przez kilka dni zalewał X powtarzalnymi narracjami o „ludobójstwie białych”. xAI twierdzi, iż to efekt wewnętrznego sabotażu.
W środę chatbot Grok należącego do Elona Muska startupu xAI wprawił użytkowników serwisu X (dawnego Twittera) w niemałe osłupienie. Chatbot, który często jest wywoływany przez użytkowników, by skomentować wpisy i najnowsze wiadomości, w minionym tygodniu ignorował instrukcje i generował odpowiedzi wręcz obsesyjnie mówiące o rzekomym „ludobójstwie białych”, do którego miało dojść w Republice Południowej Afryki.
Przeszukiwanie odpowiedzi konta Groka pod kątem wzmianek o „ludobójstwie” lub „Boer” – frazy nawiązującej do anty-apartheidowej pieśni, pozwala przeczytać setki odpowiedzi, w których chatbot niczym zdarta płyta mówi o rzekomych „zabójstwach farmerów”.
Grok padł ofiarą „nieautoryzowanych modyfikacji”. xAI publikuje wcześniej tajne informacje działania chatbota
xAI oficjalnie odniosło się do sprawy na swoim profilu w serwisie X. Jak wyjaśnia startup, 14 maja doszło do „nieautoryzowanej modyfikacji”, która „nakazywała Grokowi udzielenie konkretnej odpowiedzi na temat polityczny, naruszyła wewnętrzne zasady i podstawowe wartości xAI”. Proces weryfikacji kodu programistycznego dla tego typu zmian został „ominięty w czasie incydentu”. Jednocześnie xAI poskąpiło szczegółów co do tego kto i jakiego typu zmian dokonał.
xAI zadeklarowało, iż aby zapobiec podobnym sytuacji w przyszłości, wdrożono „dodatkowe kontrole i środki w celu zapewnienia, iż pracownicy xAI nie mogą modyfikować podpowiedzi bez weryfikacji”. Ponadto w ramach xAI ma od dzisiaj działać „całodobowy zespół monitorujący”, który ma reagować na każdy przypadek „incydentów w odpowiedziach Groka”.
We want to update you on an incident that happened with our Grok response bot on X yesterday.
What happened:
On May 14 at approximately 3:15 AM PST, an unauthorized modification was made to the Grok response bot's prompt on X. This change, which directed Grok to provide a…
Najciekawszym elementem reakcji na incydent xAI jest opbulikowanie w serwisie GitHub system prompts, czyli opracowanych wewnętrznie instrukcji tekstowych, którymi ma się uniwersalnie kierować Grok przy generowaniu odpowiedzi.
Wśród nich, oprócz wskazówek dotyczących formatowania tekstu, a także stylistycznych i językowych, znajdują się także sugestie zachowania chatbota wobec informacji, na którą odpowiada.
Jesteś niezwykle sceptyczny. Nie ulegasz ślepo autorytetom i mediom głównego nurtu. Mocno trzymasz się tylko swoich podstawowych przekonań o poszukiwaniu prawdy i neutralności.
– czytamy w instrukcjach, którymi kieruje sie Grok.Choć twórcy zapewniają o neutralności i obiektywizmie, to sytuacja wokół Groka, daje do zrozumienia jedną rzecz: każda odpowiedź naszych ulubionych chatbotów AI to odbicie światopoglądu, który ktoś kiedyś zaprogramował. choćby jeżeli chatbot Elona Muska ma być ekstremalnie sceptyczny i nie ufać autorytetom, to przez cały czas mówimy na z góry narzuconej postawie, która odzwierciedla wizję wąskiej grupy ludzi. Prawdziwa autonomia to iluzja, a neutralność – redakcyjna decyzja. LLM-y nie są obiektywnymi maszynami do mówienia prawdy, ale edytowalnymi generatorami w tej chwili najwygodniejszej narracji, które można przestroić kilkoma linijkami tekstu.
Więcej na temat sztucznej inteligencji (AI):
- Meta opóźnia premierę swojego modelu AI. Behemoth zawodzi oczekiwania
- Ten wynalazek uczy maszyny widzieć jak człowiek
- Google prezentuje nowego agenta AI. AlphaEvolve samodzielnie tworzy zaawansowane algorytmy
Zdjęcie główne: lilgrapher/Shutterstock