Sztuczna inteligencja wymyka się spod kontroli. Oto nieoczekiwane skutki rozwoju AI

bithub.pl 1 rok temu

Ludzie popełnili niemal wszystkie z możliwych błędów w zakresie rozwijania sztucznej inteligencji. Dopuszczenie AI do internetu oraz udostępnienie jej warunków umożliwiających interakcję i 'uczenie się’ ludzi. To tylko dwa z nich, przed którymi pierwotnie przestrzegano. Coraz częściej wybrzmiewają jednak głosy, iż to nie sama AI będzie zagrożeniem. Zagrożeniem będzie to, co zrobią z jej pomocą korporacje. Niemal na samym początku 'boomu’, potężne narzędzie zostało rzucone publiczności – pozornie darmowo. Moga to być jednak tylko pozory. Brak regulacji może oznaczać środowisko 'Dzikiego Zachodu’ – w tym przypadku wysoce niebezpieczne. Niekoniecznie dla korporacji.

Sztuczna inteligencja wciąż daleka jest od tzw. poziomu AGI. Wciąż wiele dzieli ją od bycia wysoce wysublimowaną, choć zaskakująco gwałtownie się uczy. Dopóki to wciąż ludzie (być może złudnie) panują nad jej ukierunkowaniem, skutkiem może być skokowy wzrost maniupulacyjnych praktyk. Umożliwią one kierowanie kampanii, 'skrojonych na miarę’. Opartych o wartości, zainteresowania, pochodzenie i historię. Oraz głębokie poznanie natury człowieka przez sztuczne systemy SI. Docelowo choćby reakcje biologiczne jak tętno czy reakcje oka. Wszystko by wzmocnić siłę perswazji. Ludzkość wpadnie w pułapkę?

Konsekwencje dla rynku

Zwiastuje to uderzenie w rynek pracy. Analitycy finansowi, programiści, fotografowie czy graficy mogą niebawem opuścić rynek. Lub przekształcić swoje role. Jednak nie wszyscy będą do tego zdolni.Nowe badanie przeprowadzone przez Open AI, OpenResearch i University of Pennsylvania zbadało wpływ AI na rynek pracy w USA. Porównało możliwości GPT-4 z wymaganiami zawodowymi. Efekty porażają.

Szacunki mówią, iż 20% Amerykanów straci co najmniej 50% swoich zadań pod wpływem GPT-4. Zawody o wyższych dochodach spotkają większe konsekwencje. Badanie szacuje, iż 15% wszystkich zadań pracowników w USA mogłoby być wykonywanych szybciej, taniej i z taką samą jakością przy użyciu dzisiejszej technologii GPT-4.

To tylko jeden z problemów. Treści generowane przez AI mogą wyglądać i być odbierane jako prawdziwe. Mimo błędów merytorycznych czy przekłamań. Nie istnieją wciąż normy dokładności ani organy, które pomogłyby zagwarantować, iż systemy, które staną się główną częścią globalnej siły roboczej – nie będą propagować błędów – od małych pomyłek po wielkie błędy.

Apel z Doliny Krzemowej

Nie wszystkie firmy chcą, by rozwój AI rozwijał się w szalonym tempie. Część przeciwników chce mieć więcej czasu by dorównać konkurencji. Inni naprawdę troszczą się o losy planety. Coraz częściej pojawiają się apele z prośbą o pauze ze środowiska akademickiego. jeżeli nowe technologie, których wciąż w pełnie nie rozumiemy nie zostaną uregulowane, będą wykorzystywane do stosowania agresywnych działań. Na przykłąd do sprzedaży, propagandy, czy dezinformacji. jeżeli nie będą kontrolowane, rozmowy sterowane przez AI mogą stać się najpotężniejszą formą ukierunkowanej perswazji, jaką kiedykolwiek stworzyli ludzie. Świat potrzebuje zatem czasu, aby wprowadzić regulacje. Potencjalne zakazanie lub mocne ograniczenie rozmów prowadzonych przez SI. Pytanie, czy świat się ich doczeka? Branża stojąca za boomem AI niekoniecznie ochoczo zgodzi się na 6 miesięczną przerwę. Niektóre firmy poczuły się w przestrzeni już tak mocne, iż niekoniecznie chciałyby przerywać szaloną passę. Prawdopodobnie będą chciały kontynuować 'wyścig zbrojeń’.

Przypadek szalonego dyktatora

Pogląd mówiący, iż AI może stać się niebezpieczna dopiero gdy rozwinie własną wolę lub uzna ludzkość za zbędny twór wydaje się niekompletny. Pomija fakt, iż sztuczna inteligencja może być wciąż zarządzana i ukierunkowywana przez niewłaściwe osoby, firmy lub organizacje. Może być na masową skalę wykorzystywana do wywierania dowolnego wpływu na odbiorców. Ucząc się ludzi w niezliczonych ilościach konwersacji i nagrań AI może zdobyć nad nimi przewagę. W ich własnej grze. Tak samo jak zrobiła to w pokerze czy szachach. Apel przedsiebiorców z Kalifornii wskazuje, iż zagrożenie jest zupełnie nowe. A ludzkość nie jest gotowa by sobie z nim poradzić. W ich ocenie wejście AI będzie czymś porównywalnie wielkim do rewolucji PC, internetu czy telefonów komórkowych. Ledwo wystartowaliśmy z bloczków. Jest jednak coś, co ją od nich odróżnia. Jest to tempo zachodzenia zmian. Poprzednie trwały przez dekady lub lata. Obecna odegrała się w ciągu miesięcy.

ChatGPT

ChatGPT to wciąż najpopularniejszy najpopularniejszy upubliczniony Large Language Model (LLM). Osiągnął 100 milionów użytkowników w ciągu zaledwie dwóch miesięcy. Dla porównania, Twitter potrzebował pięciu lat, aby osiągnąć ten kamień milowy. Tempo znacznie przerasta branżę komputerową zatem nikt nie jest i nie może być na nie przygotowany. Tym bardziej rządy. Niektórzy naukowcy i badacze AI dzielą w tej chwili zagrożenia na dwie kategorie:

  • Ryzyko związane z generatywną AI, która może tworzyć zaawansowane treści na poziomie człowieka i uderzyć w rynek pracy.
  • Zagrożenia związane z konwersacyjną AI, która może umożliwić prowadzenie dialogów na poziomie człowieka i niedługo będzie prowadzić z użytkownikami rozmowy. Nie będzie możliwe odróżnienie ich od autentycznych.

Jakie są zagrożenia?

Generatywna AI to zdolności LLM do tworzenia oryginalnych, zaawansowanych treści. Oczywiście w odpowiedzi na prośby czy zapytania. Odpowiedzi generowane przez AI to m.in. obrazy, filmy, 'zdjęcia’, filmy, muzyka, artykuły naukowe, oprogramowanie oraz poezja i eseje. Nie liczmy oczywiście krótkich odpowiedzi na pytania. Już w przeszłości treści generowane przez SI były imponujące, ale nie dorównywały zdolnościom ludzi. Wszystko zmieniło się w ciągu ostatnich kilkunastu miesięcy. W czasie ich trwania, dzięki intensywnej pracy systemów uczenia maszynowego, AI stała się zdolniejsza. Tworzy treści, które z łatwością mogą oszukać. Może sprawić, iż film czy zdjęcie zostanie wzięte za prawdziwe. Pisać wiersze i zdawać zaawansowane egzaminy, sprawdzane następnie przez specjalistów. Lub podszywać sie pod artystę lub reportera. Zdolności te są w tej chwili wdrażane na szeroką skalę. I testowane na żywym organiźmie.

Sztuczna muzyka

Narzędzia sztucznej inteligencji jak Dall-E, Midjourney i Stable Diffusion, zyskały popularność, zanim pojawiły się chatboty jak ChatGPT. Zatem wórcy graficzni – fotografowie, ilustratorzy i artyści – byli pierwszymi, którzy zostali dotknięci. Teraz także muzycy stoją w obliczu podobnego 'znaku zapytania’. Kultura masowa sprawia, iż stworzone przez AI treści spotykają się z większym zainteresowaniem od uzdolnionych muzyków.

Ale choćby 'mainstreamowy’ twórcy napotykają na mnożące się, tworzone przez SI remixy ich dzieł. Przykład? Popularny w zeszłym tygodniu, w USA feat. rapera Drake’a i The Weeknd. O wdzięcznym tytule ’Heart on My Sleeve’. Ostatecznie oczywiście nigdy nie miał miejsca. Stworzyło go AI. A jednak się wydarzył. W alternatywnej, wirtualnej rzeczywistości. Co z prawami autorskimi? Tego również prawo regulacyjne nie precyzuje.

Źródło: https://www.standard.co.uk/culture/music/drake-the-weeknd-ai-music-industry-viral-b1073441.html

Wadliwe oprogramowanie

Kolejnym dużym zagrożeniem jest możliwość celowego tworzenia przez niedopowiednie podmioty, nieodpowiednich treści. Mogą one celowo zawierać błędy lub przekłamania w ramach generowanych przez SI. Niecelowe błędy merytoryczne także stanowią zagrożenie ponieważ efekt sieciowy może sprzyjać ich powielaniu. Systemy, które rozpowszechniają propagandę, dezinformację i jawne kłamstwa w interesujący sposób mogą uzupełnić goebbelsowską wizję prawdy. Według niej kłamstwo powtarzane 100 razy takową się staje. Nieuczciwi uczestnicy rynku AI mogą de facto już to robić, ale generatywna SI umożliwi robienie tego na niespotykaną skalę. To przez fakt, jak wielu uczestników zaczyna korzystać z tych systemów. I jak wiele prywatnych firm już to robi. To oznacza, iż AI może dosłownie zalać świat treściami, które tylko pozorują na wiarygodne.

Dotyczy to również tzw. deepfake’ów, w ramach których osoby publiczne mogą być poddane manipulacji. Mogą być zmuszane do robienia lub mówienia czegokolwiek na realistycznych zdjęciach i filmach. Dochodzimy zatem do wniosku, iż historia może zmieniać się na naszych oczach lub na oczach przyszłych generacji. Wraz z rosnącą SI, społeczeństwo nie będzie miało możliwości odróżnienia prawdziwych informacji i faktów od syntetyków. Tutaj także regulacje wciąż nic nie mogą. Już przed boomem AI, Wikipedia uznana była za powszechne źródło wiedzy, posiadające 'autorytet’. Mimo wielu informacji kwestionujących zawarte w niej informacje, ujawniajacych korupcje i przekłamania. Kto pyta Chat GPT o dokładne źródło wiedzy? Przecież odpowiedzi są już przygotowane.

Konwersacyjna AI

Przechodząc do konwersacyjnej AI – ta może angażować użytkowników w dialog, w czasie rzeczywistym. Zarówno poprzez czat tekstowy jak i głosowy. Systemy te są już dość zaawansowane by AI mogła prowadzić spójną rozmowę z ludźmi, na dowolny temat. Jednocześnie śledząc przepływ konwersacji i jej kontekst w czasie. Technologia ta wprowadza zupełnie nową formę ukierunkowanego wpływu, na którą regulatorzy także nie są przygotowani. Każdy sprzedawca wie, iż metodą na przekonanie kogoś do kupna jest zaangażowanie go w rozmowę.

Wówczas można obserwować jego reakcje, dostosować swoją taktykę do oporu lub obaw. Ale ludzie nie są w tym wystarczająco dobrzy. AI może okazać się lepsza i bardziej wydajna od jakiegokolwiek sprzedawcy. Chat GPT-4 pokazał, iż systemy AI będą mogły angażować użytkowników w autentyczne rozmowy. To oznacza, iż strony trzecie korzystające z API lub wtyczek będą wprowadzać ukryte cele do pozornie naturalnych rozmów. Wówczas niczego nie podejrzewający użytkownicy będą manipulowani w celu nabywania produktów, których nie chcą. Mogą zapisywać się na usługi, których nie potrzebują. Odpowiednie syntezatory głosowe są już dostępne. Pamiętacie głos IVONA? To przeszłość.

AI jest mądra – skąd czerpie wiedzę?

Oczywiście, chciałoby się powiedzieć od nas. AI analizuje internet. Badanie Washington Post sprawdził jeden z publicznie dostępnych modeli używanych do szkolenia AI. Z analizy wynika, iż AI bazuje na publikacjach artykułów w internecie – z ostatnich niemal 30 lat. Wszystko by uczyć 'sieci neuronowe’. De facto, wszystko co ludzie stworzyli w internecie mówi o nich bardzo wiele. Prawdopodobnie dość wiele, by bardzo dobrze ich poznać.

Jest to tym bardziej możliwe, jeżeli weźmiemy pod uwagę moc obliczeniową. Jednym słowem – środowisko do treningu zostało zapewnione. Analitycy Washington Post poszli krok dalej i umożliwili sprawdzenie, która z domen w jakim stopniu przyczyniła się do trenigu AI. Niestety baza wykorzystana przez OpenAI do ChatGPT wciąż pozostaje tajemnicą. OpenAI nie ujawniło źródeł treningowych. Chciałoby się powiedzieć, iż to dobrze – AI ma się na czym uczyć. Ale czy na pewno?

Zagrożenie

Washington Post stwierdził, iż zestaw danych w analizowanym LLM zawierał m.in. ponad pół miliona osobistych blogów. Oczywiście posty na prywatnych platformach mediów społecznościowych, takich jak Facebook, Instagram i Twitter, nie były źródłem informacji. Firmy te zachowały dostęp do danych dla siebie. Inaczej może sprawa wyglądać z firmą Zuckerberga. Wydaje się, iż dzięki dostępowi do danych z Facebooka i Instagrama, firma posiada wystarczającą bazę by tworzyć ultra-skuteczne konwersacyjne narzędzia AI.

Wróćmy jednak 'do źródła’. Bazy danych szkoleń AI są ogromne, ale… Analiza wskazała, iż niektóre kultury, grupy i podmioty są nadmiernie reprezentowane. Podczas gdy wiele innych jest niesprawiedliwie pomijanych. Wszystkie uprzedzenia, ograniczenia i toksyczne aspekty maswoej kultury internetu pojawiają się w danych dla AI.

Pokoleniowy romans

W 1995 roku całe pokolenie zakochało się w World Wide Web. Na początku lat 2010-tych początki rewolucji związanej z uczeniem maszynowym zaczęły niepokoić ekspertów. Ale trzeba było bardzo długiego i szerokiego horyzontu, aby wyczuć wówczas, iż internet może niedługo zamienić się w materiał treningowy dla AI. Dziś znalazło się to w centrum uwagi. Wstęp do Sci-Fi, na żywo? Zdecydowanie.

Wszystko, co robimy teraz z AI i dla AI, będzie kształtować przyszłość w sposób, którego nie jesteśmy w stanie przewidzieć. Pamiętajmy jednak, iż ludzkość obserwuje narodziny czegoś, czego nie w pełni rozumie. Powołana do cyfrowego życia sztuczna inteligencja prawdopodobnie niejednokrotnie zaskoczy nas w ciągu najbliższej dekady. Czy tylko pozytywnie?

Źródło: DenofGeek
Idź do oryginalnego materiału