To ja już wolę ludzką głupotę od tej całej sztucznej inteligencji

konto.spidersweb.pl 12 godzin temu

Ostatnio poczułem się tak, jakbym wrócił do szkoły. Nie zazdroszczę dzieciakom, które chciałyby uczyć się lub ściągać z pomocą ChataGPT. Korzystanie z AI do nauki nie ma sensu.

Ostatnio brałem udział w spotkaniu, na którym korzystałem ze zdobyczy nowoczesnej technologii tak, jak mogliby robić to współcześni uczniowie. Wziąłem udział w kilku zaaranżowanych „lekcjach”, których zadaniem było pokazać nam, jakie możliwości daje sprzęt w kontekście różnego typu zajęć szkolnych. Dało mi to sporo do myślenia w kontekście sztucznej inteligencji i zagrożeń, jakie za sobą niesie.

Czytaj inne nasze teksty poświęcone SI w szkole:

Pierwsza z tych „lekcji” polegała na graniu w kalambury, a my na zmianę rysowaliśmy z użyciem stylusa na tablecie, podczas gdy pozostali członkowie naszej grupy Żuczków musieli zgadnąć, o co chodzi. Mi akurat wylosowały się hasła „Forrest Gump” oraz przysłowie „hulaj dusza, piekła nie ma”, więc łatwo nie było, no ale to zadanie zaliczyliśmy na piątkę. I to z plusem.

Nieźle poszło nam też korzystanie z rysika podczas pisania dyktanda oraz podczas samodzielnego rysowania chińskich znaczków; bawiliśmy się też w organicznego Shazama, próbując rozpoznać, co nuci druga osoba z puszczoną z tabletu na słuchawkach muzyką. Problemem okazał się jednak test z wiedzy ogólnej rozwiązywany z uruchomionym ChatemGPT w ramach trybu split-screen.

ChatGPT nie nadaje się ani do nauki, ani do ściągania

Test dawał nam po 60 sekund na udzielenie odpowiedzi na naprawdę trudne pytania z najróżniejszych zagadnień – od fizyki, przez geografię, na polityce skończywszy. Na tablecie, oprócz głównego okna do zaznaczenia odpowiedzi A/B/C/D, mieliśmy dostęp w panelu po prawej do ChataGPT w tej podstawowej wersji, z pomocą którego mogliśmy za przyzwoleniem organizatora ordynarnie ściągać.

Pytania oczywiście zostały dobrane tak, żeby zagiąć choćby ekspertów w danej dziedzinie. Sam znałem odpowiedź jedynie na dwa z nich, więc siłą rzeczy skorzystałem z narzędzia, które miałem akurat pod ręką. Efekt? Na kolejne osiem zagadnień AI w połowie przypadków dało, mówiąc kolokwialnie, ciała. A ja byłem zdziwiony tym, iż jako ściąga się nie sprawdził, tak, jak śniegiem w zimę.

A dlaczego ChatGPT sobie nie poradził? Rzecz w tym, iż narzędzia określane mianem SI z inteligencją nie mają nic wspólnego. Ich zadaniem jest generowanie ciągu znaków na podstawie naszego zapytania – takiego ciągu, który algorytmom wydaje się najbardziej prawdopodobną odpowiedzią. Problem w tym, iż to wszystko opiera się właśnie na prawdopodobieństwach. A to prosta droga do halucynacji.

pic.twitter.com/bhqVf3lFDX

— 0x146.gfy (@The0xReport) March 25, 2025

Dla pokolenia wychowanego na zerach i jedynkach jest to nie do pomyślenia.

Trafiłem ostatnio na mema, iż znajomość komputerów wśród zoomerów wychowanych ze telefonem w dłoni jest na podobnym poziomie, co u boomerów i coś w tym jest. Młodzi ludzie nie muszą dziś co rusz grzebać w rejestrze systemu, nie wymieniają samodzielnie RAM-u, bo ten jest przylutowany do płyty głównej i raczej nie gotują sobie ROM-ów na telefony z Androidem ani nie jailbreakują iPhone’ów.

Dla mnie i moich rówieśników te rzeczy to był zaś chleb powszedni! A po co w ogóle ta dygresja? Ano po to, żeby zaznaczyć, iż na komputerach zjadłem zęby, ale kontekście AI i tak jestem boomerem. Oczywiście od kiedy tylko rozpoczął się na nie nomen omen boom, próbuję używać co jakiś czas w pracy, ale tylko utwierdzam się w przekonaniu, iż robot za mnie roboty nie odfajkuje.

No, a na pewno AI nie wykona za mnie pracy, która polega w dużej mierze na redagowaniu treści i przygotowywania autorskich materiałów wideo, w sposób porządny i staranny – nie na tyle, żebym potem mógł podpisać się pod tym imieniem i nazwiskiem. Przyzwyczajony jestem do tego, iż na bajt składa się osiem bitów, a dwa plus dwa to cztery, a od komputerów oczekuję powtarzalności.

Sztuczna inteligencja co do zasady daje inne odpowiedzi na to samo pytanie.

Związane jest to ze sposobem działania LLM-ów (co jest skrótem od Large Language Models). Za każdym razem, gdy tylko wpiszemy swoje polecenie, poza tym, iż spłonie pół lasu w Amazonii, algorytmy na serwerach przemielą je, próbując dopasować odpowiedź do kontekstu. W przypadku prostych pytań daje to nam iluzję rozmowy z mądrym, oczytanym bytem, ale to wszystko dym i lustra.

Jeśli piszę, dajmy na to, tekst o najlepszych filmach z Batmanem, to mogę poprosić AI o wylistowanie mi ich wszystkich – czasem tę listę dostanę, ale czasem się zdarzy, iż na wygenerowanej liście pojawi się taki, który nigdy nie został nakręcony. Sztuczna inteligencja może też zmyślić specyfikację telefonu, o której przytoczenie jej poproszę, bo np. pomyli go z podobnym modelem.

O ile jednak poruszam się w obrębie wspomnianych zagadnień, na których się znam, to jestem w stanie wyłapać te fikcyjne filmy lub błędnie podany model procesora – no ale po co mam w ogóle korzystać z AI do szukania rzeczy, które wiem? Z kolei jeżeli chodzi o zagadnienia, na których się nie znam, to za każdym razem musiałbym i tak weryfikować udzielone odpowiedzi. No przecież to bez sensu.

The 4 new versions of ChatGPT have a factual error rate of between 48% and 90.5%.
That's hallucinations & mal-information.

(According to Open AI study – see comments).

Why would any company, govt agency or news provider want to intruduce that margin of error into their work? pic.twitter.com/LupLi019Us

— Ewan Morrison (@MrEwanMorrison) July 5, 2025

Niestety masa ludzi traktuje dzisiaj ChatGPT jak wyrocznię.

Ze zgrozą patrzę na ludzi, którzy traktują AI jako terapeutę lub książkę kucharską, na podstawie udzielonych przez niego odpowiedzi planują wakacje itd. Wielokrotnie przekonałem się o tym, iż odpowiedzi na nasze pytania wydają się naprawdę wiarygodne, ale często wyłapiemy błędy i nieścisłości, gdy dane zagadnienie zgłębimy i zaczniemy bota fact-checkować.

Wracając zaś do kwestii edukacji, to nie jestem zdziwiony, iż ChatGPT wyłożył się na pytaniu o to, który kraj jako pierwszy wprowadził pełne prawa wyborcze kobiet. Odpowiedź brzmiała „Nowa Zelandia” prawdopodobnie dlatego, iż często nazwa tego kraju w internecie przewija się w tym kontekście – ale problem w tym, iż AI zgubiło niuans, iż pełne oznacza zarówno czynne, jak i bierne…

No a skoro nie można generatywnej SI ufać, to jaki jest sens z niej korzystać w pracy i w nauce, skoro i tak trzeba potem sprawdzać, czy te odpowiedzi faktycznie mają sens? Obawiam się, iż ChatGPT et consortesmogą zrobić całemu młodemu pokoleniu ogromną krzywdę, skoro bez kozery potrafi przedstawiać głupoty w wiarygodny sposób jako fakty, a młodzi ludzie uczą się im ufać.

A i bez AI mierzyliśmy się z ogromną falą dezinformacji w internecie,

Niestety, jak wynika z badań, dzieciaki zwykle nie mają na tyle wiedzy i świadomości, by rozumieć, iż boty mogą gadać bzdury. Nie dziwię się przy tym oczywiście młodym ludziom, iż chcą iść na łatwiznę i np. odrabiać prace domowe z użyciem ChataGPT, żeby szybciej móc pograć w piłkę lub w innego Fortnite’a, ale te narzędzia naprawdę mogą nas ogłupiać bardziej niż TikTok.

Tak jak ściąganie samo w sobie jest oczywiście złe, tak przygotowując ściągi na podstawie swoich notatek jakąś część wiedzy i tak wciągamy przez osmozę. W przypadku korzystania z ChataGPT podczas odrabiania lekcji lub, co gorsza, na egzaminie nie tylko wiedzy w żaden nie utrwalamy – do głowy mogą wejść nam na stałe halucynacje, które będziemy potem brali jako pewnik.

No ale oczywiście to nie jest tak, iż jestem za tym, żeby sztuczną inteligencję zaorać* w zarodku – i to mimo iż jest ona realnym zagrożeniem dla całego mojego zawodu (a powtarzany często żart, iż AI zastąpi ludzi, gdy ich klienci i przełożeni będą w stanie wyartykułować, czego chcą, to taki śmiech przez łzy). Są oczywiście obszary, w których AI sprawdza się świetnie.

When ChatGPT and friends launched, my main worry was around accuracy and hallucinations.

Now, my main worry is about the way AI will utterly demolish our intellectual capacity to think, learn, persevere and create. It is anathema to the great enterprise that is education.

>

— Adam Boxer (@adamboxer1) July 22, 2025

Związane są one jednak głównie z kreatywnością oraz fikcją, a nie nauką.

Sam generuję z użyciem narzędzi takich jak ChatGPT, Grok czy Firefly materiały tekstowe oraz grafiki na potrzebny sesji RPG, ale w tym przypadku mówimy o fikcji, gdzie akurat halucynacje mogą okazać się… zaletą. Wszędzie jednak tam, gdzie zależy nam na precyzji, sztuczna inteligencja w obecnej formie to w najlepszym wypadku ślepa uliczka, a w gorszym – prawdziwa pułapka.

Tyle dobrego, iż coraz szerzej mówi się o zagrożeniach, jakie niesie za sobą AI, a tacy twórcy ChataGPT przynajmniej próbują coś robić w tym zakresie. Mam tylko nadzieję, iż te wszystkie ruchy nie służą jedynie temu, by gasić pożary oraz nie zaczęły być wykonywane zbyt późno ludzkoś, nie obudzi się z ręką w cyfrowym nocniku. Bo w Cyberpunku a la Black Mirror to już żyjemy.

PS Zaorane natomiast powinny być te wszystkie cholerne boty na infoliniach, a twórcom tego typu rozwiązań życzę stanięcia nocą bosą stopą na klocku Lego. Za każdym razem, gdy na takowego trafiam, to skacze mi ciśnienie, bo skoro już wziąłem do ręki telefon, to dlatego, iż komputery mnie zawiodły i poszukuję pomocy u żywego człowieka, a nie bezdusznej maszyny.

Idź do oryginalnego materiału