Absolwenci college’ów w USA zbyt zależni od ChataGPT. Rodzi to problemy na stanowiskach pracy

itreseller.com.pl 4 dni temu

W Stanach Zjednoczonych rośnie problem nadmiernego zaufania do narzędzi sztucznej inteligencji, takich jak ChatGPT. Historia młodego prawnika, który stracił pracę przez błędy w dokumentach wygenerowanych przez AI, to tylko wierzchołek góry lodowej. Jakie zagrożenia niesie brak krytycznego podejścia do tej technologii?

W USA coraz częściej mówi się o niebezpieczeństwach związanych z uzależnieniem studentów i absolwentów od sztucznej inteligencji. Przykładem, który obiegł media, jest przypadek młodego prawnika, który został zwolniony z pracy po tym, jak nie sprawdził dokumentów sądowych przygotowanych z pomocą ChataGPT. W tekście znalazły się przez to poważne błędy, w tym nieprawidłowe cytowania oraz sprawy, których nie udało się odnaleźć w żadnych oficjalnych bazach danych. To zdarzenie stało się przestrogą dla wielu – brak krytycznego podejścia do nowych technologii może mieć kosztowne konsekwencje.

Do takich sytuacji dochodzi coraz częściej, a nadmierna wiara w AI prowadzi do poważnych problemów zawodowych. Kancelaria, w której pracował wspomniany absolwent, podkreśliła, iż nie miał on jeszcze uprawnień adwokackich i nie poinformował nikogo o korzystaniu z AI. W momencie incydentu firma nie miała też ustalonych zasad dotyczących używania takich narzędzi, ale po tym wydarzeniu gwałtownie wprowadziła odpowiednie regulacje. Ostatecznie pracownik stracił posadę.

Ten przypadek rzuca światło na szerszy problem, jakim jest brak jednolitych zasad korzystania z AI w amerykańskich szkołach i na uczelniach. Niektórzy nauczyciele kategorycznie zakazują używania takich narzędzi, podczas gdy inni widzą w nich szansę na wspieranie kreatywności uczniów. Tymczasem giganci technologiczni, jak. Google czy Microsoft, coraz śmielej promują swoje rozwiązania AI w edukacji, co tylko pogłębia całe zamieszanie.

Badania naukowe nie pozostawiają jednak złudzeń – nadmierne poleganie na AI może mieć negatywny wpływ na rozwój młodych ludzi. Według analiz przeprowadzonych przez Abd-Alrazaq i in., Koos i Wachsmanna oraz Duhaylungsod i Chavez (2023), zbyt częste korzystanie z takich narzędzi osłabia krytyczne myślenie i samodzielność uczniów. Zjawisko to określane jest jako „cognitive offloading”, czyli przenoszenie wysiłku intelektualnego na technologię. Podobne wnioski płyną z badań Uniwersytetu Pensylwanii z 2024 roku, które wykazały, iż uczniowie korzystający z ChataGPT co prawda rozwiązują więcej zadań, ale przyswajają znacznie mniej wiedzy.

Nie tylko edukacja walczy z tym problemem. W innych branżach również widać zagrożenia wynikające z bezkrytycznego zaufania do AI. W medycynie błędy algorytmów mogą prowadzić do niebezpiecznych terapii lub przeoczenia poważnych chorób. W sektorze finansowym niewłaściwe decyzje AI dotyczące kredytów czy inwestycji skutkują ogromnymi stratami i utratą zaufania klientów. Te przykłady jasno pokazują, iż bez odpowiedniej kontroli i świadomości automatyzacja może przynieść więcej szkód niż pożytku – zarówno dla jednostek, jak i całych organizacji.

Idź do oryginalnego materiału