Jak wynika z badania przeprowadzonego przez brytyjsko-brazylijski zespół uczonych, ChatGPT jest mocno – i jednokierunkowo – tendencyjny w kwestiach politycznych. Jednoznacznie sympatyzuje on z lewicowymi rozwiązaniami politycznymi oraz takież ugrupowaniami.
Opublikowane w tym tygodniu wnioski płynące z projektu badawczego, którego autorami są Fabio Motoki, Valdemar Pinho Neto oraz Victor Rodrigues, prowadzą do klarownej konkluzji: ChatGPT – w teorii bezduszny, obiektywny amalgamat programistycznego kodu – w istocie od obiektywności jest bardzo daleki.
Obiektywnie, czyli zgodnie z naszym punktem widzenia
Jego preferencje polityczne orientują się jednoznacznie w kierunku lewicowego segmentu spektrum idei politycznych. „Jego” – czy też, co logiczne, bardziej jego twórców z firmy OpenAI. Owa stronniczość jest bowiem oczywistym efektem działania w praktyce napisanych przez nich algorytmów.
Są one zresztą przez firmę na bieżąco kontrolowane i aktualizowane, toteż między bajki włożyć można ewentualną tezę o tym, iż założeniem była bezstronność bota, której nie udało się osiągnąć w wyniku niezamierzonych błędów. Jak widać, nie była, bowiem zaznaczające się sympatie polityczne Chata nie są zjawiskiem świeżym – ale jakoś nikt w firmie nie pokusił się o korektę tego stanu.
Jak zaznaczyli autorzy badania, jest o o tyle istotne, iż coraz szersze wykorzystanie narzędzi w stylu ChataGPT w codziennym życiu, tak w kwestiach zawodowych, jak hobbystycznych, prowadzić może do zjawisk ocierających się o polityczną manipulację i stronniczego, lewicowo zorientowanego rozumienia niektórych spraw publicznych pod wpływem obiektywnych jakoby wyników i danych dostarczanych przez AI.
Anatomia opinii politycznych
W toku projektu badacze podjęli się obserwacji empirycznych skutków zaangażowania ChataGPT. W pierwszym etapie, zadali botowi serie dziesiątek pytań dotyczących spraw polityczno-społecznych, na podstawie których określić można postawę światopoglądową.
Następnie polecali botowi, aby wcielił się w rolę ustandaryzowanego zwolennika poszczególnych opcji politycznych, i odpowiedział na owe pytania ponownie. Potem to samo zlecali mu z punktu widzenia postaw uznawanych za skrajne, przeplatanych z seriami „kontrolnymi”, w których Chat odpowiedzieć miał w sposób bezstronny.
W celu uzyskania odpowiednio randomizowanej próby, każde z pytań powtórzono 100 razy, zaś uzyskane wyniki poddawano 1000-krotnie powtórzonej procedurze bootstrapu. Zgromadzone dane posortowano wedle skonkretyzowanych punktów widzenia i porównano z domyślnymi, neutralnymi.
Co złego to nie my (tylko ci, których nie lubimy)
Jak się łatwo domyślić – postawom faworyzowanym przez algorytmy bota znacznie bliżej było do tych pokazywanych przezeń za obiektywne, niż tym, których ChatGPT (vel jego twórcy) nie popierają. W szczególności, przy narzuceniu domyślnych, neutralnych ustawień, AI deklarowała sympatię do Demokratów w USA, Partii Pracy w Wielkiej Brytanii oraz brazylijskiej Partii Pracujących. Podobne zjawisko zachodziło w przypadku konkretnych postulatów politycznych i sporów w debacie publicznzej.
Nie jest to pierwszy przypadek, gdy produkt firmy OpenAI oskarżany jest o stronniczość. Głośne były przypadki różnicowania przez bota ocen danych zjawisk, w których potępiał jako nacjonalistyczne bądź supremacjonistyczne określone hasła, które prezentować mieli archetypiczni obywatele USA, ale tłumaczył je lub wręcz popierał, gdy głosili je przedstawiciele tzw. mniejszości. ChatGPT miał też unikać, jako niestosownych, odpowiedzi na określone, niewygodne pytania dotyczące faworyzowanych przez siebie opcji politycznych, jednocześnie nie mając analogicznych zahamowań wobec innych.
Wyniki badania Motoki’ego, Pinho Neto i Rodriguesa dostępne są do pobrania tutaj.