Masowy dostęp do programów sztucznej inteligencji generujących skomplikowane teksty i obrazy bardzo gwałtownie zmienia nie tylko Internet, ale i świat rzeczywisty. Chodzi oczywiście przede wszystkim o ChatGPT, ale też DALL-E oraz Midjourney, jak i wiele innych. W sieci istnieje sporo sprzecznych informacji na ich temat, toczy się też mnóstwo dyskusji. Warto znać kilka kluczowych faktów o sztucznej inteligencji, tak aby nie przecenić oraz nie nie doszacować jej możliwości, a także by zmniejszyć ryzyko nabrania się na coraz częstsze oszustwa, przy których wykorzystano taką technologię.
Artykuł napisałem dzięki wsparciu moich Patronów i Patronek. To dzięki nim blog ten może istnieć i się rozwijać, a publikowane tutaj teksty i artykuły są niezależne. jeżeli chcesz wesprzeć moją działalność, możesz to zrobić na moim profilu Patronite.
Sztuczna inteligencja nie jest jedna
Nazwa „sztuczna inteligencja” jest bardzo myląca. Przede wszystkim dlatego, iż nie jest to jeden „byt” czy program, ale ogólna nazwa na rodzaj systemu zdolnego do „samouczenia się” oraz tworzenia skomplikowanych treści na podstawie wyrafinowanej statystyki. To tak, jak z „grami komputerowymi” – mówimy tak generalnie na rozmaite programy komputerowe służące do grania.
Po drugie, sztuczna inteligencja nie jest istotą czy bytem ani nie jest inteligentna. To, co tworzy, wydaje się wymagać inteligencji, i m. in. dlatego tak się ją nazywa, ale tak naprawdę aktualne algorytmy tego typu dokonują rozmaitych obliczeń i działań statystycznych na podstawie masy danych, dzięki czemu są w stanie wydać coś sensownego i skomplikowanego. Są jak kalkulatory, tylko zdolne do przetwarzania także tekstu, obrazu i dźwięku, w sposób niezwykle złożony. Na marginesie, potrzebują na to ogromnej ilości prądu elektrycznego.
Sztuczna inteligencja nie ma świadomości (i być może nigdy nie będzie mieć)
Z rozmaitych badań oraz rozważań naukowych i filozoficznych (polecam choćby „Historię naszej świadomości”) wynika, iż dla zaistnienia świadomości niezbędne jest posiadanie ciała – aby w ogóle było czego być świadomym, wobec czego, w czym i poza czym. choćby najbardziej skomplikowany program komputerowy w „najlepszym” razie byłby prawdopodobnie jak mieszanka bytu z rozmaitymi zaburzeniami percepcyjnymi, intelektualnymi i „emocjonalnymi”. Byłby przypuszczalnie jak „ktoś” ze schizofrenią, autyzmem, borderline, narcyzmem, bardzo wysokim i bardzo niskim ilorazem inteligencji w jednej „osobie” – byłby to chaotyczny, nieustrukturyzowany „psychicznie” i „mentalnie” „byt”. Być może da się stworzyć świadomy byt cyfrowy po zainstalowaniu go do mechanicznego „ciała” (taki scenariusz wydaje się przedstawiać np. powieść „Klara i Słońce”), ale na dzień dzisiejszy wydaje się to mało prawdopodobne. Co nie znaczy, iż niemożliwe.
Sztuczna inteligencja nie ma emocji (i prawdopodobnie nie będzie ich miała)
Błędem poznawczym jest zakładanie, iż emocje są czymś odrębnym od ciała, iż są jakąś psychiczną abstrakcją, oderwaną od organizmu duszą lub ponadczasową energią. Emocje wywoływane są przez określone czynności fizjologiczne. Szybsze bicie serca czy wyrzut adrenaliny powoduje uczucie lęku, oksytocyna czy dopamina, wraz ze specyficzną siecią powstałych wcześniej synaps i wspomnień daje uczucie przywiązania i miłości, niższe tętno i napięcie mięśniowe dają efekt relaksu itd.
Wrażenia psychiczne oddziałują zwrotnie oraz pierwotnie na ciało, ale nie występują same z siebie, bez cielesności. Chociaż każdy zdrowy człowiek wie, co znaczy odczuwanie lęku, relaksu, miłości, empatii, gniewu, wstydu, podniecenia lub radości, to zarazem nikt nie jest w stanie matematycznie tego uchwycić, a tym bardziej zapisać. Przeniesienie takich stanów – nie wspominając o bardziej szczegółowych emocjach i uczuciach, takich jak np. poczucie wyrzutów sumienia albo rozochocenie – do świata wirtualnego wydaje się być w tej chwili niemożliwe. Programy sztucznej inteligencji nie posiadają żadnych emocji i prawdopodobnie nigdy nie będą ich odczuwały. Odpowiedzi czy zachowania (gdyby umieścić oprogramowanie w robotach) będą bazowały na statystycznym uchwyceniu prawdopodobieństwa dla danej reakcji i interakcji, bez całej fenomenologii (życia wewnętrznego, myśli, uczuć, emocji, motywacji, wspomnień, marzeń i świadomości tego wszystkiego) dostępnej człowiekowi (i być może niektórym innym, wysoko rozwiniętym ewolucyjnie zwierzętom).
Sztuczna inteligencja bazuje na skopiowanych treściach stworzonych przez prawdziwych ludzi
Sztuczna inteligencja sama niczego nie tworzy. Jest „karmiona” niemal niezliczonymi ilościami danych (tekstów, obrazów, dźwięków). Potem zestawia je statystycznie i kompiluje, generując teksty czy obrazy będące miksem wielu treści, które wcześniej stworzył człowiek: czy to zawodowy malarz, rysownik, pisarz, dziennikarz, czy przypadkowy użytkownik Facebooka, komentujący rozmaite posty. Dlatego w tej chwili w wielu krajach toczą się batalie sądowe o kradzież własności intelektualnej – oprogramowanie AI zostało, zwykle bez zgody i wynagrodzenia dla autorów i twórców, „nakarmione” określonymi treściami (w tym książkami, artykułami, obrazami, piosenkami), a potem wygenerowany przez AI utwór nie był podpisany nazwiskami rzeczywistych twórców. W kontekście prawnym, filozoficznym czy potocznym to, co generuje oprogramowanie sztucznej inteligencji, jest więc niejednokrotnie jakąś formą kradzieży.
Ponieważ dane pochodzące z niemal wszystkich naszych klików na komputerach czy telefonach są wykorzystywane do tworzenia programów sztucznej inteligencji i spieniężane, coraz częściej fakt, iż nie otrzymujemy za to wynagrodzenia, a jedynie dostęp do danego serwisu internetowego, nazywa się „cyfrowym feudalizmem” – tak jak niegdyś chłopi za wytwarzanie żywności dostawali tylko jedzenie i dach nad głową, bez konkretnego wynagrodzenia, tak my za produkcję danych otrzymujemy jedynie dostęp do jakiejś platformy, która z tychże danych otrzymuje niebotyczne zyski – te gigantyczne budżety firm technologicznych (przewyższające nieraz pieniądze poszczególnych ministerstw największych państw europejskich) nie biorą się znikąd. Nie chcę przez to powiedzieć, iż taka eksploatacja jest analogiczna do fizycznej, niemal niewolniczej pracy na roli, bo różnica jest ewidentna. Mechanizm wyzysku pozostaje jednak taki sam i co więcej, każda duża firma technologiczna ma specjalny dział neuromarketingowy, służący do usprawniania swojej strony tak, aby jak najsilniej uzależniała behawioralnie i zmuszała do spędzania całych godzin na skrolowaniu jej itp. Czego skutkiem są zaburzenia koncentracji oraz zaburzenia psychiczne.
Sztuczna inteligencja może być niebezpieczna. Jeśli…
Czy sztuczna inteligencja może być niebezpieczna? W zasadzie już jest. Wykorzystuje się ją do bezzałogowych maszyn służących do niszczenia i zabijania. Jak napisałem wyżej, algorytmy nie mają ani emocji, ani uczuć, ani świadomości. Są amoralne. Nie ma w nich bezpieczników, które istnieją w ludziach: współczucia, empatii, rozsądku, inteligentnej analizy, świadomości konsekwencji planowanych czynów. Inne niebezpieczeństwo związane ze sztuczną inteligencją dotyczy wspomnianej inwigilacji. Zbieranie osobistych danych i wyciąganie z nich wniosków nigdy nie było tak proste, dzięki programom sztucznej inteligencji. Póki co wykorzystuje się to głównie do reklam, ale coraz częściej także do tworzenia niebezpiecznych dla rynku monopoli oraz do nieuczciwego zwalczania konkurencji. Okres, kiedy Facebook, Google, Netflix, Uber czy Apple kojarzą się jako przyjazne ludziom firmy odszedł na zawsze – w tej chwili są to tak samo drapieżne korporacje, jak z wszelkich innych branż.
Bądź na biężaco!
Zapisz się na newsletter, aby otrzymywać informacje o nowych treściach na stronie totylkoteoria.pl
Wizja z „Roku 1984” mogłaby stać się wielokrotnie bardziej upiorna, gdyby dodano do niej sztuczną inteligencję pomagającą w inwigilacji. W Chinach programy sztucznej inteligencji są używane do rozpoznawania twarzy i identyfikacji ludzi – zarówno personalnie, jak i etnicznie czy rasowo. Gdyby naziści mieli takie narzędzie w swoich rękach, jak wyglądałby dziś świat? Być może poznamy podobny scenariusz w bieżącym stuleciu. Natomiast na dzień dzisiejszy stosunkowo mało prawdopodobne wydaje się być zagrożenie polegające na tym, iż sztuczna inteligencja przejmie władzę nad światem albo go zniszczy. Musiałaby stać się w jakimś stopniu świadoma, w pewnej części emocjonalna, potrzebowałaby też znacznie większych zasobów energii, niż to możliwe. A aby „zniszczyć ludzkość”, musiałaby odciąć jej dostęp do elektryczności, której niewątpliwie sama by potrzebowała.
Wielu ekspertów zgadza się z tym, iż snucie apokaliptycznych wizji o sztucznej, samoświadomej superinteligencji służy raczej odwróceniu uwagi od bieżących problemów dotyczących inwigilacji, kradzieży własności intelektualnej, bezpieczeństwa cyfrowego i hakerstwa. Nic dziwnego, iż przedstawiciele korporacji technologicznych unikają tych tematów – są w końcu jak koncerny tytoniowe twierdzące, iż papierosy nie powodują raka płuc, albo paliwowe, przekonujące iż spalanie paliw kopalnych nie ma nic wspólnego z globalnym ociepleniem.
Sztuczna inteligencja odbiera ludziom pracę
Faktem jest, iż sztuczna inteligencja odbiera i będzie odbierać ludziom pracę. W kapitalizmie liczy się pieniądz, a wydajność maszyn jest znacznie wyższa, niż człowieka. Maszyna czy algorytm nie muszą jeść, iść do toalety, zająć się rodziną i życiem społecznym. Nie chorują, nie proszą o podwyżkę, o urlop ani o ludzkie traktowanie. Nie wspominając o tym, iż maszyna nie potrzebuje 18-25 lat na wyrośnięcie, dojrzenie psychiczne i edukację, aby wykonywać pracę. Człowiek owszem. Dlatego w obecnym systemie jeżeli robot czy program komputerowy jest w stanie podmienić pracownika ludzkiego, tak się prawdopodobnie stanie. Utrata miejsc pracy jest więc nieunikniona.
Nie oznacza to, iż różne zawody całkowicie znikną, bo choćby do nadzorowania maszyn i algorytmów potrzebni będą ludzie. Jednak zapotrzebowanie na pracowników w danym zawodzie będzie mniejsze. Ciężej też będzie wejść do danej branży nowym, młodym ludziom. Oczywiście powstaną nowe zawody, ale niemal na pewno nie zrekompensuje to utraty dotychczasowych miejsc pracy. Ponadto te nowe często będą bardzo wyrafinowane. Tymczasem nie da się stworzyć społeczeństwa z samych specjalistów czy managerów.
Sztuczną inteligencję można użyć do wyrafinowanych oszustw
Jednym z naglących problemów jest stosowanie sztucznej inteligencji do oszukiwania ludzi. Na wyciągnięcie ręki jest generowanie głosu kogoś bliskiego (np. na podstawie opublikowanych filmików albo wykradzionych plików z nagranymi wiadomościami głosowymi), a potem „mówienie” spreparowanym głosem, celem uzyskania haseł czy dostępów do kont. Starych ludzi będzie jeszcze łatwiej nabrać „na wnuczka”, niż dziś. Na skalę społeczną bardzo groźne jest polaryzowanie opinii publicznej fałszywymi zdjęciami i nagraniami (uczyniono tak już w ostatniej kampanii wyborczej do sejmu, pomimo skandaliczności takich poczynań). Tak, jak dotychczas znaliśmy proceder podpisywania prawdziwego zdjęcia z jakiegoś starego wydarzenia i przypisywania go bieżącej sytuacji (np. zdjęcia ofiar katastrofy naturalnej sprzed kilku lat podpisywane jako dowody na zabijanie ludzi przez Izraelczyków w 2023 roku), tak w przyszłości będzie można z łatwością generować fałszywe obrazy i nagrania do podpuszczania ludzi i szczucia jednych na drugich. Przez taką technologię łatwo będzie również oskarżyć kogoś uczciwego, kto publikuje prawdziwe zdjęcia, o to, iż rzekomo opublikował te fejkowe – skoro wszędzie ich pełno, to każdy stanie się bardzo podejrzliwy.
Bez silnych regulacji oraz utworzenia wysoce uprawomocnionych instytucji działających na rzecz przestrzegania ich, społeczeństwo może podupaść. Proces ten po części zaszedł w ostatnich 20 latach z powodu nieuregulowania na czas mediów społecznościowych. Dopiero teraz politycy i urzędnicy zabrali się za ten problem, uchwalając Akt o Usługach Cyfrowych i Akt o Rynkach Cyfrowych. Oby nie spóźnili się z tematem sztucznej inteligencji.
Jeżeli podoba Ci się mój artykuł, jak i szerzej moja działalność pronaukowa, dziennikarska i analityczna, zachęcam do dołączenia do grona moich Patronów. Dzięki ich wsparciu mogę utrzymywać i rozwijać tego bloga.