Oto nowy sposób na przegranie kłótni w Internecie: odwołanie się do sztucznej inteligencji

cyberfeed.pl 1 dzień temu


W ciągu ostatnich 20 lat spędzonych jako dziennikarz widziałem i pisałem o wielu rzeczach, które nieodwołalnie zmieniły mój pogląd na ludzkość. Ale dopiero niedawno coś, co spowodowało u mnie zwarcie.

Mówię o zjawisku, które mogłeś również zauważyć: atrakcyjności AI.

Istnieje duża szansa, iż ​​widziałeś, jak ktoś korzysta z odwołania do sztucznej inteligencji w Internecie, a choćby słyszałeś to na głos. To błąd logiczny, który można podsumować trzema słowami: „Zapytałem ChatGPT”.

  • Zapytałem ChatGPT pomóż mi rozwikłać tajemniczą chorobę.
  • Zapytałem ChatGPT aby dać mi trudne rady dotyczące miłości, uważają, iż najbardziej potrzebuję ich, aby rozwijać się jako osoba.
  • Użyłem ChatGPT aby stworzyć niestandardową rutynę dla skóry.
  • ChatGPT przedstawił argument iż relacyjne wyobcowanie od Boga (tj. potępienie) jest koniecznie możliwe, w oparciu o abstrakcyjne zasady logiczne i metafizyczne, tj. Wykluczony Środek, bez odwoływania się do natury relacji, prawdziwej miłości, wolnej woli czy szacunku.
  • Istnieje tak wiele agencji rządowych, iż choćby rząd nie wie, ile ich jest! [based entirely on an answer from Grok, which is screenshotted]

Nie we wszystkich przykładach zastosowano to dokładne sformułowanie, chociaż jest to najprostszy sposób podsumowania zjawiska. Ludzie mogą korzystać z Google Gemini, Microsoft Copilot lub ich dziewczyna z chatbotem, na przykład. Jednak wspólnym elementem jest odruchowe, nieuzasadnione zaufanie do systemu technicznego, który nie jest zaprojektowany do robienia tego, o co go prosisz, a następnie oczekiwanie, iż inni ludzie też to kupią.

Gdybym przez cały czas komentował na forach, to bym to skrytykował

I za każdym razem, gdy widzę ten apel do AI, moja pierwsza myśl jest taka sama: Jesteś kurwa głupi czy co? Od pewnego czasu samo „zapytałem ChatGPT” wystarczyło, żebym to włączył – nie interesowało mnie już, co ta osoba ma do powiedzenia. Zestawiłem to w myślach z błędami logicznymi, znasz te: słomiany, ad hominem, galop Gisha i nieprawdziwy Szkot. Gdybym przez cały czas komentował na forach, to bym to skrytykował. Ale odwołanie do sztucznej inteligencji zaczyna zdarzać się tak często, iż zamierzam zacisnąć zęby i spróbować to zrozumieć.

Zacznę od najprostszego: przykład Muska – ten ostatni – to człowiek reklamujący swój produkt i jednocześnie uprawiający propagandę. Inne są bardziej złożone.

Zacznijmy od tego, iż te przykłady wydają mi się smutne. W przypadku tajemniczej choroby autor zwraca się do ChatGPT po uwagę – i odpowiedzi – których nie mógł uzyskać od lekarza. W przypadku rady „twarda miłość” kwerent mówi, iż jest „zszokowany i zaskoczony trafnością odpowiedzi”, mimo iż wszystkie odpowiedzi są typową paplaniną, którą można usłyszeć w dowolnym audycji radiowej, aż do samego początku do „aplikacje randkowe nie są problemem, jest nim twój strach przed bezbronnością”. jeżeli chodzi o pielęgnację skóry, autorka równie dobrze mogłaby zaczerpnąć ją z magazynu dla kobiet – nie ma w niej nic specjalnego.

A co do argumentu o potępieniu: piekło jest realne, a ja już tu jestem.

Tekst ChatGPT brzmi pewnie, a odpowiedzi są szczegółowe. To nie to samo, co mieć rację, ale ma znaczące posiadania racji

Systemy takie jak ChatGPT, jak wie każdy, kto zna duże modele językowe, przewidują prawdopodobne odpowiedzi na podpowiedzi, generując sekwencje słów w oparciu o wzorce z biblioteki danych szkoleniowych. W Internecie znajduje się ogromna ilość informacji stworzonych przez człowieka, dlatego te odpowiedzi są często prawidłowe: zapytaj na przykład „jaka jest stolica Kalifornii”, a odpowie Sacramento i jeszcze jedno niepotrzebne zdanie. (Wśród moich drobnych zastrzeżeń do ChatGPT: jego odpowiedzi brzmią jak odpowiedzi szóstoklasisty próbującego osiągnąć minimalną liczbę słów.) choćby w przypadku bardziej otwartych zapytań, takich jak te powyżej, ChatGPT może skonstruować wiarygodnie brzmiącą odpowiedź w oparciu o dane szkoleniowe. Rady dotyczące miłości i skóry są ogólne, ponieważ niezliczona liczba autorów w Internecie udzielała właśnie takich porad.

Problem w tym, iż ChatGPT nim nie jest godny zaufania. Tekst ChatGPT brzmi pewnie, a odpowiedzi są szczegółowe. To nie to samo, co mieć rację, ale ma znaczące posiadania racji. Nie zawsze jest to oczywiście błędne, zwłaszcza jeżeli chodzi o odpowiedzi – jak w przypadku rad miłosnych – w których pytający może z łatwością się domyślić. Błąd potwierdzenia jest prawdziwy i prawdziwy, mój przyjacielu. mam pisano już o rodzajach problemów z którymi spotykają się ludzie, gdy ufają systemowi autopredykcji w przypadku złożonych pytań opartych na faktach. Jednak pomimo tego, jak często pojawiają się te problemy, ludzie przez cały czas tak właśnie robią.

Sposób budowania zaufania jest drażliwym pytaniem. Jako dziennikarz lubię pokazywać swoją twórczość — mówię, kto i kiedy mi powiedział, albo pokazuję, co zrobiłem, żeby potwierdzić, iż coś jest prawdą. Dzięki fałszywym ułaskawieniom prezydenta pokazałem ci, z jakich głównych źródeł korzystałem, abyś mógł samodzielnie przeprowadzić zapytanie.

Ale zaufanie to także heurystyka, którą można łatwo nadużyć. Na przykład w przypadku oszustw finansowych obecność konkretnego funduszu venture capital w rundzie może sugerować innym funduszom venture capital, iż ktoś przeprowadził już wymaganą należytą staranność, co może spowodować, iż pominą one samodzielne przeprowadzanie intensywnego procesu. Odwoływanie się do władzy opiera się na zaufaniu jako heurystyce — jest to praktyczny, choć czasami błędny środek, który może zaoszczędzić pracy.

Jak długo słuchamy, jak kapitanowie branży mówią, iż sztuczna inteligencja niedługo będzie zdolna do myślenia?

Osoba pytająca o tajemniczą chorobę odwołuje się do sztucznej inteligencji, ponieważ ludzie nie mają odpowiedzi i są zdesperowani. Pielęgnacja skóry wydaje się czystym lenistwem. Kiedy osoba prosi o radę dotyczącą miłości, zastanawiam się, jak doszła do takiego momentu w swoim życiu, iż nie miała nikogo, kogo mogłaby zapytać – jak to się stało, iż nie miała przyjaciela, który widziałby, jak wchodzą w interakcje z innymi ludźmi. W kwestii piekła pojawia się posmak „maszyna uznała, iż ​​potępienie jest cholernie logiczne”, co jest po prostu kurwa żenujący.

Atrakcyjność AI różni się od historii typu „Zapytałem ChatGPT” na przykład o: nauczenie go liczyć „r” w słowie „truskawka” — nie jest testowanie możliwości chatbota lub zaangażuj się w nie w inny świadomy sposób. Można to rozumieć na dwa sposoby. Pierwsza brzmi: „Zapytałem magiczną skrzynkę odpowiedzi i ona mi odpowiedziała”, w większości tonem „no cóż, Oracle w Delphi powiedziała…”. Druga brzmi: „Zapytałem ChatGPT i nie mogę ponosić odpowiedzialności, jeżeli jest źle .”

Drugi jest leniwy. Pierwsze jest niepokojące.

Za odwołanie się do sztucznej inteligencji ponoszą między innymi Sam Altman i Elon Musk. Jak długo słuchamy, jak kapitanowie branży mówią, iż sztuczna inteligencja niedługo będzie zdolna do myślenia? Że przewyższy ludzi i zabierze nam pracę? Zachodzi tu swego rodzaju bydlęca logika: Elon Musk i Sam Altman są bardzo bogaci, więc muszą być bardzo mądrzy – są bogatsi od ciebie, a zatem są mądrzejsi od ciebie. I mówią ci, iż sztuczna inteligencja potrafi myśleć. Dlaczego miałbyś im nie wierzyć? A poza tym, czy świat nie jest dużo fajniejszy, jeżeli mają rację?

Na nieszczęście dla Google ChatGPT to lepiej wyglądająca kryształowa kula

Istnieje również duża nagroda za uwagę za odwołanie się do historii sztucznej inteligencji; Kevina Roose’a Dobrym przykładem jest głupia historia chatbota Bing. Jasne, to naiwne i fałszywe – ale obserwując, jak eksperci nie zdają testu lustra ma tendencję do przyciągania uwagi ludzi. (W rzeczywistości do tego stopnia, iż ​​Roose napisał później drugą historię, w której zapytał chatboty o co myśleli o nim.) W mediach społecznościowych istnieje zachęta do umieszczenia odwołania do sztucznej inteligencji w centrum zaangażowania; istnieje cały kult dziwaków mających wpływ na sztuczną inteligencję, którzy są więcej niż szczęśliwi, mogąc ulepszyć te rzeczy. jeżeli zapewnisz nagrody społeczne za głupie zachowanie, ludzie będą się angażować w głupie zachowanie. Tak właśnie działają mody.

Jest jeszcze jedna rzecz i jest to Google. Wyszukiwarka Google na początku była niezwykle dobrym katalogiem internetowym, ale przez lata Google zachęcała, aby postrzegać go jako kryształową kulę dostarczającą jedna prawdziwa odpowiedź na polecenie. Taki był cel Snippets przed pojawieniem się generatywnej sztucznej inteligencji, a teraz integracja odpowiedzi AI posunęła się o kilka kroków dalej.

Na nieszczęście dla Google ChatGPT to lepiej wyglądająca kryształowa kula. Załóżmy, iż chcę wymienić gumę w wycieraczkach przedniej szyby. Zwrot w wyszukiwarce Google dotyczący hasła „wymień gumową wycieraczkę” pokazuje mi szeroką gamę śmieci, zaczynając od przeglądu sztucznej inteligencji. Obok znajduje się film z YouTube. jeżeli przewinę dalej, pojawi się fragment; obok jest zdjęcie. Poniżej znajdują się sugerowane wyszukiwania, następnie więcej sugestii wideo, a następnie odpowiedzi na forum Reddit. Jest tłoczno i ​​bałagan.

Przejdźmy teraz do ChatGPT. Pytanie „Jak wymienić gumową wycieraczkę szyby przedniej?” daje mi czystszy układ: odpowiedź z podnagłówkami i krokami. Nie mam żadnego bezpośredniego linku do źródeł ani sposobu, aby ocenić, czy otrzymuję dobrą radę — ale mam jasną, autorytatywnie brzmiącą odpowiedź w przejrzystym interfejsie. jeżeli nie wiesz lub nie interesuje Cię, jak wszystko działa, ChatGPT wydaje się lepszy.

Okazuje się, iż przyszłość była od początku przepowiadana przez Jeana Baudrillarda

Odwołanie się do sztucznej inteligencji jest doskonałym przykładem prawa Arthura Clarke’a: „Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii”. Technologia stojąca za LLM jest wystarczająco zaawansowana, ponieważ ludzie z niej korzystający nie zadali sobie trudu jej zrozumienia. W rezultacie powstał zupełnie nowy, przygnębiający gatunek wiadomości: ludzie polegają na generatywnej sztucznej inteligencji tylko po to, aby uzyskać zmyślone wyniki. Uważam również za przygnębiające, iż niezależnie od tego, ile ich jest – niezależnie od tego, czy są fałszywe ułaskawienia prezydenta, fałszywe cytaty, utworzone orzecznictwoLub sfabrykowane cytaty z filmów – wydają się nie mieć żadnego wpływu. Do diabła, choćby klej do pizzy nie przestał „Zapytałem ChatGPT.”

Że to maszyna do robienia bzdur — w sensie filozoficznym – nie wydaje się przeszkadzać wielu pytającym. LLM ze swej natury nie jest w stanie określić, czy to, co mówi, jest prawdą, czy fałszem. (Przynajmniej kłamca wie, jaka jest prawda.) Nie ma dostępu do świata rzeczywistego, a jedynie do pisanych reprezentacji świata, który „widzi” poprzez symbole.

A zatem apel do AI jest apelem do znaczące władzy. ChatGPT brzmi pewnie, choćby jeżeli nie powinno, a jego odpowiedzi są szczegółowe, choćby jeżeli są błędne. Interfejs jest czysty. Nie musisz podejmować decyzji, który link kliknąć. Kilku bogatych facetów mówiło ci, iż niedługo będzie mądrzejszy od ciebie. A New York Timesa reporter robi dokładnie to samo. Po co więc w ogóle o tym myśleć, skoro komputer może to zrobić za Ciebie?

Nie potrafię powiedzieć, ile w tym jest beztroskiego zaufania, a ile czystego luksusowego nihilizmu. W pewnym sensie „robot powie mi prawdę” i „nikt nigdy niczego nie naprawi, a Google i tak się myli, więc dlaczego nie zaufać robotowi” sprowadzają się do tego samego: braku wiary w ludzkie wysiłki, pogardy dla ludzkiej wiedzy i niemożności zaufania sobie. Nie mogę oprzeć się wrażeniu, iż to zmierza w bardzo mroczne miejsce. Rozmawiają ważni ludzie zakazu szczepionki przeciwko polio. Mieszkańcy New Jersey są wskazujące lasery na samoloty w najbardziej ruchliwym okresie podróżniczym w roku. Całe wybory prezydenckie były zalany teoriami spiskowymi. Poza tym, czy nie jest fajniej, jeżeli kosmici istnieją prawdziwi, światem rządzi tajna klika, a sztuczna inteligencja jest rzeczywiście inteligentna?

W tym kontekście może łatwo uwierzyć, iż w komputerze znajduje się magiczna skrzynka odpowiedzi, która jest całkowicie autorytatywna, podobnie jak nasza stara przyjaciółka, Sybilla z Delf. jeżeli wierzysz, iż komputer ma nieomylną wiedzę, jesteś gotowy uwierzyć we wszystko. Okazuje się, iż przyszłość była od początku przepowiadana przez Jeana Baudrillarda: po co nam rzeczywistość, skoro mamy elementy znaczące? W każdym razie, co rzeczywistość dla mnie zrobiła?



Source link

Idź do oryginalnego materiału