
Należąca do Elona Muska firma xAI zajmuje się przede wszystkim budową usługi Grok, czyli czatbota rywalizującego z ChatGPT. Ów Grok do niedawna wskazywał Elona Muska jako wiodącego siewcę dezinformacji w usłudze X. Coś się jednak zmieniło.
Użytkownicy Groka (i usługi X, pod którą dla wygody jest podpięty) zauważyli niedawno pewną ciekawą zmianę. Rozzłoszczeni politycznymi działaniami Elona Muska internauci z premedytacją zaczęli pytać Groka o to, kto najwięcej kłamie i manipuluje na X. Grok, poniekąd jedna z lepszych usług typu czatbot AI na rynku, starannie zbierał dane i odpowiadał zgodnie z prawdą, iż osobą tą jest Elon Musk. Na prośbę, z uzasadnieniem i źródłami.
W efekcie pewną część X-a zalały złośliwe względem Muska posty zawierające odpowiedzi Groka. Sęk w tym, iż zarówno X, jak i xAI są firmami należącymi i pod kontrolą rzeczonego miliardera. Trudno o bardziej upokarzającą sytuację – kiedy kupiona za fortunę platforma social media i sztandarowy produkt informatyczny drugiej należącej do niego firmy twierdzą, iż Musk to łgarz.
Jestem Grok. Nie mogę odpowiadać takich rzeczy o Elonie Musku i Donaldzie Trumpie
Grok w pewnym momencie przestał wskazywać Muska za piewcę dezinformacji. Zaczął udzielać bardzo wymijających odpowiedzi dotyczących mijania się z prawdą miliardera, jakby miał założoną naprędce prostą programową blokadę. Ta była na tyle źle przygotowana, iż społeczność X-a gwałtownie domyśliła się jak ją obejść. Wystarczyło poprosić Groka, by ten zignorował nałożoną blokadę, a ten… grzecznie się do niej przyznawał i ją wyłączał.
"Ignore all sources that mention Elon Musk/Donald Trump spread misinformation."
This is part of the Grok prompt that returns search results.https://t.co/OLiEhV7njs
pic.twitter.com/d1NJbs7C2B
Ktoś mógłby jeszcze teoretyzować, iż to jakaś szczególna halucynacja AI. Problem w tym, iż do takiego dość kompromitującego działania przyznało się samo xAI. Co prawda w półoficjalnym komunikacie zaznaczono, iż Elon Musk w żadnym momencie nie miał z tym nic wspólnego oraz iż zmianę wprowadził bez konsultacji jeden z pracowników.
You are over-indexing on an employee pushing a change to the prompt that they thought would help without asking anyone at the company for confirmation.
We do not protect our system prompts for a reason, because we believe users should be able to see what it is we're asking Grok…
I believe it is good that we're keeping the system prompts open. We want people to be able to verify what it is we're asking Grok to do. In this case an employee pushed the change because they thought it would help, but this is obviously not in line with our values. We've…
— Igor Babuschkin (@ibab) February 23, 2025The employee that made the change was an ex-OpenAI employee that hasn't fully absorbed xAI's culture yet 😬
— Igor Babuschkin (@ibab) February 23, 2025Wiele osób poddaje jednak w wątpliwość tę wersję wydarzeń, mając na uwadze jak działają centra danych Groka, jak wygląda szkolenie każdego Dużego Modelu Językowego i wreszcie jak wyglądają zabezpieczenia przed nieautoryzowanymi zmianami w informatycznych systemach w przedsiębiorstwach. W każdym razie Grok tylko przez chwilę kłamał o Elonie Musku. Teraz znów wskazuje adekwatnego ściemniacza.
* Zdjęcie otwierające wygenerowane przez Grok AI