Gdzie się nie obrócić, można przeczytać artykuł ostrzegający przed nowym, nadciągającym zagrożeniem: dezinformacja generowana przez sztuczną inteligencję może wpłynąć na wyniki wyborów. To ryzyko jest jednak czysto hipotetyczne, a tu i teraz AI generuje całkowicie realne, konkretne szkody.
Gdzieś na zapleczu naszych państw działają algorytmiczne systemy, które podejmują coraz więcej decyzji o naszym życiu. Systemy te wykonują swoje zadanie zastraszająco źle – a najgorsze, iż samo ich istnienie zdejmuje wszelką odpowiedzialność z tych, którzy je zbudowali i wdrożyli. Dowód z czystej empirii: jeżeli komputer coś twierdzi, to pewno tak jest. Matematyka nie może przecież być rasistowska, prawda? Prawda?
AI zabiera wolność, mieszkanie, życie
Niemal tysiąc naczelników poczt w Wielkiej Brytanii niesłusznie skazano za defraudację pieniędzy. Wyroki zapadały na podstawie informacji pochodzących z wadliwego systemu Horizon, który brytyjska Royal Mail kupiła w firmie Fujitsu, a który miał takie nadużycia wykrywać. Sztuczna inteligencja dosłownie zrujnowała tym ludziom życie. Wielu z nich trafiło do więzienia, a cztery fałszywie oskarżone osoby popełniły samobójstwo.
Lokatorzy w całej Ameryce patrzyli z przerażeniem, jak rosną im czynsze za sprawą opracowanego przez firmę Realpage algorytmu, który podbijał ceny i w praktyce robił to, co nazywa się zmową cenową i jest całkowicie nielegalne. Firma wybrała tradycyjną linię obrony: „to nie przestępstwo, jeżeli robi to apka”.
Mieszkanie, jak prawdopodobnie pamiętacie, należy do zupełnie fundamentalnych ludzkich potrzeb. Utrata domu – albo konieczność wybierania między opłaceniem czynszu a kupieniem jedzenia, paliwa do samochodu albo ubrania dla dzieci – nie jest jakimś potencjalnym problemem przyszłości, a całkowicie realnym, powszechnym i pilnym dramatem życiowym, którego przyczyną bywa sztuczna inteligencja.
Co dalej? Prognozowanie przestępczości: wiele miast w USA i innych krajach świata kupiło systemy, które w założeniu mają podpowiadać policji, gdzie najprawdopodobniej ludzie łamią prawo. Systemy te są oczywiście szkolone na danych zaczerpniętych z policyjnych kartotek, a algorytm ma niwelować fałszujący rzeczywistość efekt uprzedzeń rasowych i gwarantować „obiektywność”. Do takiego systemu wprowadza się dane o miejscach, gdzie w ubiegłych latach policja wykryła przestępstwa, a algorytm przewiduje, gdzie dojdzie do nich w przyszłości.
Ale przestępstwa znajduje się tam, gdzie się ich szuka. jeżeli do losowych „obszukań” policja wybiera wyłącznie czarnych (i innych niebiałych) młodych ludzi, jeżeli drogówka zatrzymuje wyłącznie czarnych (i innych niebiałych) kierowców, wówczas każdy znaleziony w kieszeni lub bagażniku samochodu nóż, woreczek z narkotykami albo posiadany bez zezwolenia pistolet będzie należał do osoby czarnej (lub innej niebiałej). Algorytm prognozowania przestępczości naiwnie łyka te dane i z pełnym przekonaniem oznajmia: aby zapobiec przestępstwom, które się jeszcze nie wydarzyły, policja powinna zatrzymywać do kontroli niebiałych obywateli i im właśnie przetrząsać kieszenie i przeszukiwać pojazdy.
To oczywiście kończy się źle dla niebiałych mieszkańców ubogich dzielnic, dla których codzienne ryzyko, iż w przypadkowym zetknięciu policja zastosuje wobec nich przemoc, choćby śmiertelną, i tak jest już bardzo wysokie. Stosowanie takich systemów to również problem dla dobrze sytuowanych mieszkańców bogatszych dzielnic – tam z kolei policji będzie teraz za mało. Tak działają w praktyce algorytmiczne uprzedzenia. Przykład: wiadomo, iż w kartotekach przestępczości dane o przemocy domowej w wolnostojących domach jednorodzinnych są systematycznie zaniżone, ponieważ o przemocy domowej zwykle alarmują policję sąsiedzi, którzy przez wspólną ścianę słyszą, co się dzieje u sąsiadów.
Komputer nie kłamie
Większość algorytmicznych krzywd uderza jednak zawsze w ludzi biednych, niebiałych, z klasy robotniczej. Ktoś, kogo nie wytypował stronniczy algorytm do przepowiadania występków, przez cały czas może wpaść w policyjne sidła, kiedy algorytm rozpoznawania twarzy niesłusznie oskarży go o popełnienie przestępstwa. I nie pomoże wykazanie, iż tego dnia o tej porze było się daleko od miejsca zbrodni – policjanci i tak aresztują delikwenta, bo przecież komputer nie kłamie.
Szukasz niskopłatnej pracy w usługach? Szykuj się na prowadzone przez AI wielogodzinne, absurdalne „testy osobowości”, przy których nawet scjentolodzy zaczynają wyglądać na inżynierów NASA.
Harmonogramy pracy w handlu i usługach są na łasce algorytmów „alokujących zasoby”. Systemy te przydzielają pracownikom godziny w taki sposób, by zawsze pracowali nieco krócej, niż trzeba, by zdobyć prawo do płatnych zwolnień lekarskich i innych benefitów. Te same algorytmy wtłaczają ludzi w tryb pracy, który nazwano „zatwieraniem” (clopening): ta sama osoba zamyka sklep dobrze po północy i otwiera go przed godziną piątą rano. Gdyby komuś przyszło do głowy założyć związek zawodowy, wtedy inny algorytm – ten, który szpieguje całą załogę w mediach społecznościowych – zastosuje odpowiednie kary służbowe, a zbuntowany sklep przeznaczy do zamknięcia.
Jeśli rozwozisz paczki vanem Amazona, algorytm obserwuje twoje gałki oczne, a kiedy spostrzeże coś, co mu się nie spodoba, powiadamia szefa, iż nie nadajesz się na kierowcę. o ile zaś pracujesz w należącym do Amazona magazynie, inny algorytm sprawdza, czy nie wychodzisz zbyt często do toalety – a jeżeli uzna, iż tak jest, automatycznie zwalnia cię z pracy.
Nie tylko spiski, ale również fakty
Może to wszystko cię wkurza i chcesz dać temu wyraz w najbliższych wyborach, głosując na ludzi, którzy zajmą się wreszcie twoimi problemami? Wtedy też algorytm stanie ci na drodze. Używane w USA narzędzia AI do „weryfikacji” spisów wyborców znów uderzają szczególnie w osoby niebiałe. Zakładają na przykład, iż dwóch „Juanów Gomezów” z tą samą datą urodzenia jest tą samą osobą, choćby jeżeli mieszkają w dwóch różnych stanach. W takim wypadku algorytm skreśla jedną z tych osób (albo obie) ze spisu wyborców, odbierając im prawo do głosowania.
Może myślisz, iż unikniesz nadzorowanej przez AI, prekaryjnej i niskopłatnej roboty, jak tylko zdobędziesz solidne wykształcenie? Uwaga, niespodzianka: system technologii edukacji roi się od algorytmów. Istnieje już cały szemrany przemysł zdalnej inwigilacji, który przez kamerę internetową obserwuje, jak wypełniasz formularz egzaminacyjny, i oskarża cię o oszukiwanie, kiedy twoja mimika twarzy nie mieści się we frenologicznych normach, jakie w swojej mądrości zdefiniował algorytm.
To nie są hipotetyczne, potencjalne zagrożenia ze strony sztucznej inteligencji. Wszystko to dzieje się już teraz. Przemysł AI nauczył się sprawnie przekierowywać naszą uwagę z faktycznie istniejących, rzeczywistych szkód na szkody hipotetyczne – na przykład „ryzyko”, iż funkcja automatycznego uzupełniania wyrazów w esemesach któregoś dnia zyska samoświadomość, zapanuje nad światem i przerobi nas wszystkich w spinacze.
Gdy bossowie branży AI opowiadają, z jak wielką powagą pochylają się nad jakimś hipotetycznym zagrożeniem, od razu sprawdź, co już zrobili dla przeciwdziałania problemom, które od dawna istnieją.
Jest coś niestosownego, perwersyjnego wręcz, w przejmowaniu się ryzykiem, iż AI może nam wypaczyć wynik wyborów. Podbija to opowieść, która wybiła się w 2016 roku: iż jeżeli wyborcy stawiają na jawnie niekompetentnych kandydatów, którzy w kampanii wyborczej bezczelnie kłamali, to dlatego, iż ludzie są naiwni i łatwo wywieść ich na manowce.
Jest przecież inne wyjaśnienie: ludzie są gotowi wierzyć w spiskowe teorie o działaniu instytucji państwa dlatego, iż te właśnie instytucje, które mają strzec naszych praw i naszego dobra, są doszczętnie przeżarte korupcją i zostały przechwycone przez prawdziwe spiski.
Instytucje nie są godne naszego zaufania
Według oficjalnie obowiązującej linii wszystkie te instytucje działają wprost znakomicie. Tak przecież odpowiadano antyszczepionkowcom, kiedy twierdzili, iż szefowie wielkich koncernów farmaceutycznych to socjopaci z krwią na rękach, którzy do spółki z urzędami regulacyjnymi próbują nas wszystkich wykończyć, byle dorzucić jeszcze parę dolców do swoich miliardowych fortun. „Nic podobnego – mówiono wtedy – firmy farmaceutyczne działają świetnie i podlegają dogłębnym regulacjom”.
W społeczeństwie zaawansowanych technologii instytucje odgrywają niezmiernie istotną rolę. Nikt nie jest w stanie samodzielnie podejmować wszystkich decyzji, od których codziennie zależy nasze życie: czy ufać oprogramowaniu sterującemu hamulcami w naszym samochodzie, czy strukturalne elementy konstrukcji wieżowca, w którym pracujemy, wykonano z odpowiednio wytrzymałych stopów albo czy przygotowując nam posiłek, restauracja dochowała odpowiednich standardów higieny. Nie mamy wyboru – musimy polegać na ekspertach i urzędach regulacyjnych, które dokonują tej oceny za nas. Gdy jednak te instytucje zawodzą, popadamy w poznawczy chaos. Musimy podejmować decyzje o tym, czy będziemy ufać wszystkim tym systemom i technologiom, ale nie mamy dostatecznej wiedzy, by móc to robić. Wiemy za to jedno: te instytucje nie są godne naszego zaufania.
Jak na ironię, długa lista codziennych ludzkich krzywd, za jakie odpowiada sztuczna inteligencja, jest najsilniejszym paliwem dla dezinformacji. jeżeli te krzywdy wydają się potwierdzać prawdziwość spiskowych teorii o działaniu świata, to dlatego, iż każda z nich przynosi kolejny dowód: temu systemowi nie można ufać. Obecny w mediach niepokój wobec potencjalnego wpływu dezinformacji na kampanie wyborcze skupia się na tym, iż ludziom serwowane są kłamstwa, całkowicie pomija za to inną kwestię: dlaczego te kłamstwa wydają się wiarygodne.
Dyskurs o wyborczej dezinformacji zawiera bowiem podtekst: wyborcy są łatwowierni i jak stado baranów tylko czekają, by ich wkręcić. Z góry odmawiając przyjrzenia się poważnym błędom w działaniu instytucji, można z pełnym samozadowoleniem obarczyć winą osoby publicznie szafujące kłamstwami i dumnie paradować w patriarchalnych szatach obrońców durnowatego elektoratu.
Koniec końców jest jedna grupa ludzi, o których z całą pewnością można powiedzieć, iż dali się nabrać magikom od AI: to ci, którzy za astronomiczne pieniądze kupują wadliwe systemy sztucznej inteligencji i wprowadzają je do użycia mimo ich oczywistych mankamentów.
Daleko nam jeszcze do momentu, kiedy byle bot ukradnie człowiekowi pracę, ale z pewnością żyjemy już w czasach, kiedy każdy naiwny szef może człowieka zwolnić i zastąpić botem, który absolutnie nie będzie w stanie wykonać jego pracy.
Najbardziej widocznymi ofiarami dezinformacji związanej z AI są ludzie, którzy wdrażają systemy oparte na sztucznej inteligencji i powierzają im podejmowanie decyzji, od których zależą życiowe sprawy nas wszystkich. Zajmijmy się najpierw tą właśnie dezinformacją i szkodami, jakie ona powoduje. Wtedy opowieści foliarzy o skorumpowanych instytucjach państwa staną się nagle o wiele mniej wiarygodne.
**
Cory Doctorow – jeden z najbardziej poczytnych pisarzy science fiction, krytyk nowych technologii, autor wielu książek i esejów. W polskim przekładzie ukazała się m.in. jego powieść Mały Brat i zbiór esejów Kontekst. Eseje o wydajności, kreatywności, rodzicielstwie i polityce w XXI wieku.
Artykuł opublikowany na stronie Pluralistic.net na licencji Creative Commons CC BY. Z angielskiego przełożył Marek Jedliński.