Kazali uczyć się ChataGPT, by nie stracił pracy. Kłamali

konto.spidersweb.pl 8 godzin temu

Zachęcali go, by korzystał z AI, chwalili za wyniki i kreatywność. A potem wyrzucili go z pracy – razem z jego kolegami – bo model językowy robił to samo, tylko „taniej i szybciej”.

Przeglądając ogłoszenia o pracę tu i ówdzie można natknąć się na wzmianki o umiejętności obsługi narzędzi AI. Ale żaden z potencjalnych pracodawców nie precyzuje, czy ta umiejętność będzie używana w pracy, czy jedynie do szkolenia bota, który cię zastąpi.

Zwolniony po 17 latach, bo AI pisała taniej i szybciej. Ta sama AI, która była jego „asystentem”

Tego właśnie doświadczył Kevin Cantera z Las Cruces w stanie Nowy Meksyk – badacz i historyk, który przez 17 lat pracował dla firmy z branży edukacyjno-technologicznej. Jak opisuje The Washington Post, mężczyzna był jednym z tych pracowników, którzy „chętnie powitali AI w pracy”, kiedy jego przełożeni zachęcali zespół do używania ChatGPT i Microsoft Copilot, by przyspieszyć tworzenie treści i badań.

Dla Cantery nie była to przykrość, a wręcz fascynacja.

AI była dla mnie niesamowitym narzędziem jako dla pisarza. Traktowałem model językowy jako współpracownika. Moja produktywność była poza skalą

– powierdział Cantera.

Mężczyzna gwałtownie opanował sztukę konstruowania precyzyjnych promptów – instrukcji tekstowych dla czatbota, które pozwalały uniknąć błędów czy tzw. halucynacji. Historyk zawsze własnoręcznie sprawdzał oraz redagował wyniki pracy sztucznej inteligencji.

Wszystko szło dobrze – aż do momentu, gdy jego „współpracownik” okazał się nowym pracownikiem.

Latem tego roku, mimo wcześniejszych zapewnień przełożonego, iż „AI nie zastąpi ludzi”, Cantera wraz z kilkudziesięcioma innymi twórcami treści został zwolniony. Na ich miejsce firma postanowiła wdrożyć duży model językowy, czyli dokładnie to narzędzie, którego przez miesiące uczyli się obsługiwać

Jestem pewien, iż próbują weryfikować to, co generuje AI, ale wiem też, iż zwolnili wielu ekspertów merytorycznych. To absolutnie przerażające myśleć, iż mogą polegać na wynikach pracy modelu bez jakiejkolwiek kontroli jakości czy fachowego nadzoru

– stwierdził Cantera w rozmowie z Washington Post.

Jeden z wielu chybionych pomysłów współczesnej myśli zarządzających firmami

Przypadek Kevina Cantery to tylko jeden z wielu przykładów, jak gwałtownie firmy na całym świecie zamieniają ludzkie doświadczenie na teoretyczną algorytmiczną efektywność. Teoretyczną ostatnich miesiącach coraz więcej menedżerów chwali się w sieci, iż zredukowali swoje zespoły, „zastępując ludzi AI” – ale już nie chwali się marginalnymi zyskami z tego tytułu.

Badania MIT wskazują, iż aż 95 procent firm wdrażających AI nie zauważyło żadnego realnego wzrostu przychodów. Często wręcz przeciwnie – automatyzacja spowalnia procesy, zmniejsza zaufanie i wymusza kosztowne poprawki.

95 proc. wskaźnik niepowodzeń rozwiązań AI dla przedsiębiorstw stanowi najwyraźniejszy przejaw przepaści Generatywnej AI. Organizacje, które utknęły po złej stronie, przez cały czas inwestują w statyczne narzędzia, które nie potrafią dostosować się do ich procesów roboczych, podczas gdy te, które przekroczyły przepaść, skupiają się na systemach zdolnych do uczenia się. […] Stopień adaptacji jest wysoki, ale transformacja jest rzadkością.

Czytamy w „The GenAI Divide: State of AI in Business 2025

Cantera, który po niemal dwóch dekadach lojalnej pracy stracił posadę, przyznaje, iż jego historia jest przestrogą. – Nie wiem, kto teraz sprawdza to, co generuje AI. Ale wiem, iż nie ma już ludzi, którzy naprawdę znali temat – mówi z żalem.

I choć jego los brzmi jak przestroga z dystopijnej produkcji Netflixa, to w 2025 roku trudno uznać go za wyjątek. choćby jeżeli nauczysz się pracować z AI, nie oznacza to, iż AI nie nauczy się pracować bez ciebie.

Więcej na temat wesołej RzeczywistościGPT:

Idź do oryginalnego materiału