"Halucynacje AI: rodząca się świadomość czy globalny wstyd? Artykuł skopiowany i wklejony z ChatGPT podnosi kwestie dotyczące roli fact-checkerów w tradycyjnych mediach"

grazynarebeca5.blogspot.com 1 tydzień temu

Autor: dr Mathew Maavak, który zajmuje się badaniami nad nauką o systemach, ryzykami globalnymi, geopolityką, przewidywaniem strategicznym, zarządzaniem i sztuczną inteligencją

© Getty Images / agsandrew
W farsowym, ale wymownym błędzie, wiele dużych gazet, w tym Chicago Sun-Times i Philadelphia Inquirer, niedawno opublikowało listę lektur na lato pełną nieistniejących książek, które zostały „wyimaginowane” przez ChatGPT, a wiele z nich fałszywie przypisanych prawdziwym autorom.
Artykuł syndykowany, dystrybuowany przez Hearst's King Features, sprzedawał zmyślone tytuły oparte na tematach przebudzenia, obnażając zarówno nadmierne poleganie mediów na tanich treściach AI, jak i nieuleczalną zgniliznę tradycyjnego dziennikarstwa.

Fakt, iż ta parodia umknęła redaktorom w podupadających punktach sprzedaży (Sun-Times właśnie zwolnił 20% swojego personelu), podkreśla mroczniejszą prawdę:

gdy desperacja i nieprofesjonalizm spotykają się z niesprawdzonymi algorytmami, rozdarta granica między tradycyjnymi mediami a bzdurą po prostu znika.

Ten trend wydaje się złowieszczy.

AI jest teraz przytłoczona przez bufet fałszywych wiadomości, fałszywych danych, fałszywej nauki i bezwzględnego kłamstwa, które zamieniają ustaloną logikę, fakty i zdrowy rozsądek w cuchnącą papkę zgnilizny poznawczej.

Ale czym adekwatnie jest halucynacja AI? Halucynacja AI występuje, gdy generatywny model AI (taki jak ChatGPT, DeepSeek, Gemini lub DALL·E) generuje fałszywe, bezsensowne lub sfabrykowane informacje z dużą pewnością.

W przeciwieństwie do błędów ludzkich, te błędy wynikają ze sposobu, w jaki modele AI generują odpowiedzi, przewidując prawdopodobne wzorce, zamiast syntetyzować ustalone fakty. Dlaczego AI „halucynuje”?

Istnieje kilka powodów, dla których AI generuje całkowicie nieprawdziwe informacje.

Nie ma to nic wspólnego z trwającym straszeniem, iż AI osiągnie świadomość lub choćby nabędzie duszę. Szkolenie na niedoskonałych danych:

AI uczy się z ogromnych zestawów danych pełnych uprzedzeń, błędów i niespójności.

Długotrwałe szkolenie na tych materiałach może skutkować tworzeniem mitów, nieaktualnych faktów lub sprzecznych źródeł. Nadmierna optymalizacja pod kątem wiarygodności:

Wbrew temu, co twierdzą niektórzy eksperci, AI nie jest choćby blisko osiągnięcia „świadomości”, a zatem nie potrafi dostrzec „prawdy”.

GPT to w szczególności gigantyczne ogólnoświatowe encyklopedie neuronowe, które analizują dane i syntetyzują najbardziej istotne informacje na podstawie wcześniej istniejących wzorców.

Gdy istnieją luki, wypełnia je statystycznie prawdopodobnymi (ale prawdopodobnie błędnymi) odpowiedziami.

Nie dotyczyło to jednak fiaska Sun-Times. Brak oparcia w rzeczywistości:

W przeciwieństwie do ludzi, AI nie ma bezpośredniego doświadczenia świata.

Nie może weryfikować faktów, ponieważ może jedynie naśladować struktury językowe.

Na przykład, gdy zostanie zapytana „Jaki jest najbezpieczniejszy samochód w 2025 roku?”, może wymyślić model, który nie istnieje, ponieważ wypełnia lukę w postaci idealnego samochodu o pożądanych cechach — zgodnie z ustaleniami masy „ekspertów” — a nie prawdziwego. Niejednoznaczność podpowiedzi:

Wielu użytkowników GPT jest leniwych i może nie wiedzieć, jak przedstawić adekwatną podpowiedź.

Niejasne lub sprzeczne podpowiedzi również zwiększają ryzyko halucynacji.

Absurdalne prośby, takie jak „Podsumuj badanie dotyczące kotów i teorii płci”, mogą skutkować fałszywym badaniem sfabrykowanym przez sztuczną inteligencję, które na pierwszy rzut oka może wydawać się bardzo akademickie.

Kreatywne generowanie kontra faktyczne przywoływanie:

modele AI, takie jak ChatGPT, stawiają płynność ponad dokładność.

Gdy nie są pewni, improwizują, zamiast przyznawać się do niewiedzy.

Czy kiedykolwiek spotkałeś się z odpowiedzią GPT, która brzmi tak:

„Przepraszam.

To wykracza poza zakres mojego szkolenia?” Wzmacnianie fałszywych wiadomości i wzorców:

GPT może identyfikować konkretnych użytkowników na podstawie loginów (oczywiste), adresów IP, osobliwości semantycznych i składniowych oraz skłonności personelu.

Następnie wzmacnia je.

Gdy ktoś stale używa GPT do rozpowszechniania fałszywych wiadomości lub propagandowych artykułów, AI może rozpoznawać takie wzorce i generować treści, które są częściowo lub całkowicie fikcyjne.

To klasyczny przypadek algorytmicznej podaży i popytu. Pamiętaj, iż GPT nie tylko trenują na ogromnych zbiorach danych, ale mogą również trenować na Twoim zbiorze danych. Wzmacnianie uprzedzeń i cenzury Big Tech:

praktycznie każda firma Big Tech stojąca za wdrożeniami GPT jest również zaangażowana w cenzurę na skalę przemysłową i algorytmiczne blokowanie.

Dotyczy to zarówno jednostek, jak i alternatywnych platform medialnych i stanowi współczesne, cyfrowo wyselekcjonowane damnatio memoriae.

Wyszukiwarka Google w szczególności ma skłonność do podnoszenia rangi wyników seryjnego plagiatora zamiast oryginalnego artykułu. Utrwalanie tego systemowego oszustwa może pewnego dnia przerodzić się w jawny globalny skandal.

Wyobraź sobie, iż budzisz się pewnego ranka i czytasz, iż twoje ulubione cytaty lub prace są produktami starannie skalibrowanej kampanii algorytmicznego przerzucania kosztem pierwotnych pomysłodawców lub autorów.

Jest to nieunikniona konsekwencja monetyzacji cenzury przy jednoczesnym zlecaniu „wiedzy” sztucznej inteligencji ograniczonej przez parametry ideologiczne. Eksperymenty nad ludzką łatwowiernością:

niedawno podniosłem hipotetyczną możliwość wyszkolenia sztucznej inteligencji do badania ludzkiej łatwowierności w sposób koncepcyjnie podobny do Eksperymentu Milgrama, Eksperymentów Ascha i ich iteracji, Sytuacji Crutchfielda.

Ludzie są zarówno łatwowierni, jak i bojaźliwi, a zdecydowana większość z nich ma tendencję do dostosowywania się do tłumu ludzi lub, w przypadku AI, „tłumu danych”. To nieuchronnie będzie miało realne konsekwencje, ponieważ AI jest coraz częściej osadzana w krytycznych, czasowo wrażliwych operacjach – od kokpitów pilotów i elektrowni jądrowych po laboratoria broni biologicznej i rozległe zakłady chemiczne.

Teraz wyobraź sobie podejmowanie brzemiennej w skutki decyzji w tak ryzykownych środowiskach, w oparciu o wadliwe dane wejściowe AI.

Właśnie dlatego „planiści przyszłości” muszą rozumieć zarówno odsetek, jak i typy osobowości wykwalifikowanych specjalistów, którzy są skłonni ufać błędnym rekomendacjom generowanym przez maszyny.

Weryfikatorzy faktów nie sprawdzali faktów?

Kiedy sztuczna inteligencja generuje artykuł w czyimś imieniu, każdy dziennikarz szanujący się powinien uznać go za napisany przez inną stronę, a zatem podlegający sprawdzeniu faktów i improwizacji.

Dopóki produkt końcowy jest sprawdzony pod kątem faktów, a do oryginalnego szkicu dodawane są istotne wartości, treści i poprawki, nie widzę żadnego konfliktu interesów ani naruszenia etyki w tym procesie. GPT mogą działać jako katalizator, redaktor lub „adwokat diabła”, aby wprawić skrybę w ruch. To, co wydarzyło się w tej sadze, polegało na tym, iż pisarz, Marco Buscaglia, najwyraźniej całkowicie wyciął i wkleił dzieło ChatGPT i podał je jako swoje własne.

(Od czasu ujawnienia tego żenującego epizodu jego strona internetowa stała się pusta i prywatna).

Nadmiar bzdur o tematyce przebudzonej generowanych przez ChatGPT powinien wzbudzić podejrzenia Buscaglii, ale podejrzewam, iż sam może być skłonny do rozpowszechniania tego typu rzeczy. Jednakże całe potępienie skierowane w tej chwili w stronę Buscaglii powinno być również skierowane do redaktorów King Features Syndicate i różnych serwisów informacyjnych, którzy nie sprawdzali faktów w treściach, choćby gdy pozowali na bastiony prawdy, całej prawdy i niczego poza prawdą.

Różne poziomy strażników po prostu nie wykonały swojej pracy.

To zbiorowe zaniedbanie obowiązków przez media, które swobodnie reklamują swoje usługi dla wysokich i potężnych, podczas gdy pouczają o etyce, uczciwości i wartościach zwykłych śmiertelników. Myślę, iż przyzwyczailiśmy się już do takich podwójnych standardów.

Ale oto przerażająca część:

jestem pewien, iż wadliwe dane i błędne dane wejściowe już płyną z systemów AI do platform handlowych i finansowych, kontroli lotniczych, reaktorów jądrowych, laboratoriów broni biologicznej i wrażliwych zakładów chemicznych – choćby teraz, gdy to piszę.

Strażnicy po prostu nie mają kwalifikacji do tak złożonych zadań, poza tym, iż są na papierze. To są konsekwencje świata „zaprojektowanego przez klaunów i nadzorowanego przez małpy”. Zakończę uwagą podkreślającą ironię ironii:

wszyscy redaktorzy, których to dotyczy, mogliby użyć ChatGPT, aby poddać artykuł Buscaglii sprawdzeniu pod kątem merytorycznym.

Zajęłoby to tylko 30 sekund!

Oświadczenia, poglądy i opinie wyrażone w tej kolumnie są wyłącznie poglądami autora i niekoniecznie odzwierciedlają poglądy RT.



Przetlumaczono przez translator Google

zrodlo:https://www.rt.com/news/618100-ai-hallucination-global-embarrassment/

Idź do oryginalnego materiału