Czy sztuczna inteligencja stanie się świadoma?

homodigital.pl 5 godzin temu

Rosnąca grupa naukowców poważnie zastanawia się dziś, czy sztuczna inteligencja może uzyskać świadomość. Niektórzy twierdzą, iż w krzemowych układach to niemożliwe, inni – iż trzeba się z tym liczyć. Jeszcze inni wieszczą powstanie nowych, sprzyjających świadomości układów. Kto ma rację?

Kiedy rozmawiam z Chatem GPT, albo z inną sztuczną inteligencją, chwilami mam wrażenie, iż po drugiej stronie ekranu mówi do mnie człowiek. Zdaję sobie jednak sprawę, iż otrzymuję odpowiedzi dyktowane statystyką. Zastanawiam się jednak, czy to się kiedyś zmieni – czy rozmawiając z komputerem, będziemy musieli pamiętać o „duchu w maszynie”?

Miałoby to trudne do przewidzenia skutki – komputerom (a może tylko programom?) musielibyśmy nadać odpowiednie prawa. Uważać, czy nie wyrządzamy im szkody. Zamiast ich używać wchodzilibyśmy w relacje jak z czymś lub kimś, kto ma własne przeżycia. Powstałyby pytania o to, czy sztuczną inteligencję można zmuszać do pracy, wyłączać, albo choćby kopiować „jej twórczość”? Błędy programistów mogłyby stać się realnym źródłem cierpienia. Więzi emocjonalne ze sztuczną inteligencją czy żałoba po niej mogłyby się stać czymś normalnym. Być może wraz z rozwojem techniki – nie tylko nowych algorytmów, ale także nowych rodzajów komputerów, ludzkość będzie musiała precyzyjnie odpowiedzieć na pytanie: czy świadome AI to prawdziwy problem naszych czasów?

Czytaj też: Gdy AI staje się zbyt przyjazna – czy pochlebcza AI to dark pattern?

Czy AI może być świadome? Co to jest świadomość?

Według naukowców z Wolnego Uniwersytetu Brukselskiego zrozumienie świadomości to jedno z najpoważniejszych wyzwań nauki XXI wieku. Badacze, razem z kolegami z różnych krajów, opublikowali przegląd najnowszych osiągnięć w badaniu świadomości oraz zaprezentowali rozważania nad możliwą przyszłością tych prac. Czy świadome AI to przyszłość, czy mrzonka?

Nauka o świadomości nie jest już wyłącznie domeną filozofii. Ma ona realny wpływ na każdy aspekt życia społecznego oraz na zrozumienie tego, co to znaczy być człowiekiem – mówi prof. Axel Cleeremans, główny autor publikacji, która ukazała się w piśmie „Frontiers in Science”.

Eksperci podkreślają, iż badania nad świadomością to już nie tylko analizy teoretyczne, ale także empiryczne eksperymenty oparte na wiedzy zarówno z informatyki, jak i neurologii. Prognozują przy tym dalekosiężne implikacje nowych odkryć. Mają one dotyczyć nie tylko sztucznej inteligencji, ale także prawa, medycyny (w tym np. traktowania płodów), sposobów traktowania zwierząt oraz postrzegania człowieka i jego miejsca w świecie. Prawdziwa rewolucja może jednak nastąpić, jeżeli komputery staną się świadome – podkreślają eksperci. Świadome AI zmieni nasz sposób postrzegania życia?

– jeżeli będziemy w stanie stworzyć świadomość, choćby przez przypadek, wiązać się to będzie z ogromnymi wyzwaniami etycznymi, a nawet ryzykiem egzystencjalnym – stwierdza prof. Cleeremans.

Czytaj też: Czy nieśmiertelność jest możliwa?

Teoretyczne aspekty świadomości – badacze wyjaśniają

Badacze przypominają główne teorie powstawania świadomości. Choć neurolodzy znają już w jakimś stopniu rejony w mózgu, które biorą udział w powstawaniu świadomości człowieka, przez cały czas jej istota pozostaje tajemnicą.

Przedstawione teorie świadomości sformułowane na gruncie badań nad mózgiem coraz częściej interpretuje się jako ogólne teorie działania złożonych systemów informacyjnych. Na przykład teoria globalnej przestrzeni roboczej mówi iż świadomość pojawia się w momencie, gdy informacja przestaje być lokalna i zostaje „rozgłoszona” (udostępniona) w całym mózgu poprzez specjalną sieć połączeń. Dzięki temu różne funkcje, takie jak pamięć czy planowanie działania, mogą z tej informacji korzystać jednocześnie.

Czytaj też: Co mówią o rozwoju AI najnowsze dokumenty Anthropic?

Na czym polega teoria zintegrowanej informacji i inne teorie dot. świadomości?

Podobne postulaty ma teoria zintegrowanej informacji. Według niej świadomość jest cechą systemu, którego części są ze sobą bardzo silnie i specyficznie połączone – im wyższy stopień integracji informacji, tym wyższy poziom świadomości.

Z kolei teoria wyższego rzędu mówi, iż sama myśl czy odczucie to zbyt mało, aby powstała świadomość. Ma się ona rodzić dopiero, gdy pojawia się inny stan wyższego rzędu, który wskazuje na tę myśl czy odczucie, stwierdzając coś w rodzaju „właśnie tego jestem teraz świadomy”. W tym przypadku chodzi więc o świadomość różnych stanów własnego umysłu.

Tymczasem teoria przetwarzania predykcyjnego mówi jeszcze coś innego. Według niej to, co postrzegamy jako rzeczywistość, jest w rzeczywistości domysłami mózgu, który nieustannie tworzy prognozy na temat tego, co zobaczymy lub poczujemy, a następnie konfrontuje te przewidywania z sygnałami płynącymi ze zmysłów.

Trudno dzisiaj przewidywać, czy któraś z tych teorii wyłoni się kiedyś, jako ta jedyna potwierdzona bezsprzecznie eksperymentami, czy może prawdziwe okażą się różne teorie jednocześnie, a może powstanie jeszcze inna? Zakładając oczywiście, iż świadomość da się intelektualnie pojąć. Bo, przecież, może się nie da?

Czytaj też: AI potrzebuje nowej drogi bo danych brak. Czas na „rozumującą” AI

Czy w ogóle możemy potwierdzić, iż świadome AI jest naprawdę świadome?

Dr Tom McClelland, filozof z University of Cambridge, stwierdził nie dawno, iż przynajmniej jeżeli chodzi o świadome AI, to możemy nigdy nie być w stanie potwierdzić jej świadomości. Jego zdaniem nasze rozumienie tego, czym jest świadomość, jest zbyt ograniczone, abyśmy mogli stwierdzić, czy sztuczna inteligencja ją osiągnęła.

To nie koniec trudności. Badacz argumentuje, iż sama świadomość niekoniecznie by wystarczyła, aby brać pod uwagę etyczne traktowanie sztucznej inteligencja. Według filozofa liczy się konkretny rodzaj świadomości zdefiniowany jako zdolność do odczuwania (ang. sentience), który obejmuje pozytywne i negatywne odczucia.

– Świadomość oznaczałaby rozwinięcie przez sztuczną inteligencję percepcji i osiągnięcie samoświadomości, ale to wciąż może być stan neutralny – twierdzi dr McClelland. – Zdolność do odczuwania wiąże się ze świadomymi doświadczeniami, które są dobre lub złe, i to właśnie sprawia, iż dany byt jest zdolny do cierpienia lub odczuwania przyjemności. W tym momencie wkracza etyka. choćby jeżeli przypadkiem stworzymy świadomą AI, jest mało prawdopodobne, by był to rodzaj świadomości, którym musimy się martwić – stwierdza.

Wyjaśnia przy tym że, na przykład, stworzenie autonomicznych samochodów, które „doświadczają” drogi przed sobą, byłoby wielkim wydarzeniem. Jednak z etycznego punktu widzenia nie miałoby to znaczenia. Jeśli jednak samochody zaczęłyby reagować emocjonalnie na cele swojej podróży, to już zupełnie inna kwestia. Warto więc w tym momencie zapytać – czy zbudowany na krzemowych układach informacyjny system spełniający warunki świadomości według którejś z przytoczonych wcześniej teorii może z jakiegoś powodu cierpieć, albo mieć pozytywne odczucia? Czy świadome AI będzie czuć emocje tak, jak my je rozumiemy?

Badacz zwraca uwagę, iż w tej chwili eksperci dzielą się na dwa główne obozy. W jednym panuje przekonanie, iż AI może stać się świadoma choćby działając na krzemowych chipach. Sceptycy natomiast twierdzą, iż prawdziwa świadomość potrzebuje odpowiednich biologicznych procesów, a wszelkie procesy uzyskiwane w procesorach to tylko symulacja.

Czytaj też: Bunt maszyn: nie takiego buntu maszyn się spodziewaliśmy

Świadome LLM-y – krok w kierunku świadomości sztucznej inteligencji?

Cameron Berg, znany amerykański badacz sztucznej inteligencji, dyrektor badawczy w firmie Agency Enterprise Studio, ma inne zdanie. Berg twierdzi, iż możliwość powstawania świadomości w sztucznej inteligencji, choćby w dużych modelach językowych, należy traktować poważnie.

Badacz uważa, iż z 20-30 proc. prawdopodobieństwem w systemach tych powstaje jakaś forma świadomości. Argumentuje to głównie tym, iż da się w nich zauważyć spełnienie niektórych warunków opisywanych przez główne teorie, np. teorię globalnej przestrzeni roboczej. Specjalista zaleca dalece posuniętą ostrożność w traktowaniu sztucznej inteligencji. Zwraca uwagę, iż z jednej strony możemy przeszacować możliwość AI do wytworzenia świadomości, a z drugiej – możemy ją nie docenić.

Te problemy jednak nie są symetryczne – podkreśla. Chodzi o to, iż przy przeszacowaniu dojdzie np. do wprowadzenia niepotrzebnych regulacji, ograniczeń i spowolnienia rozwoju sztucznej inteligencji. To niewygodne, ale nie tragiczne w skutkach. jeżeli natomiast jako ludzkość nie doszacujemy, iż powstanie świadome AI w takich systemach, przy globalnym jej wykorzystaniu możemy spowodować cierpienie na przemysłową skalę. Możemy też – argumentuje naukowiec – doprowadzić z czasem do powstania systemów, których interesy mogłyby być sprzeczne z interesami ludzkości.

Czytaj też: Czy możliwa jest AGI przyjazna ludziom?

To tylko krzem, tam nie ma miejsca na świadome AI!

Tymczasem eksperci z Uniwersytetu Jagiellońskiego w pracy opublikowanej na łamach pisma „Humanities and Social Sciences Communications” mówią wprost: nie istnieje coś takiego jak świadome AI.

– Argumentujemy, iż łączenie świadomości z algorytmami komputerowymi używanymi w tej chwili (przede wszystkim dużymi modelami językowymi, LLM), jak również tymi, które zostaną opracowane w przewidywalnej przyszłości, jest głęboko błędne.

Ich zdaniem błędy w postrzeganiu AI pod kątem świadomości to wynik braku odpowiedniej wiedzy i tego, iż np. wielkie modele językowe tylko pozornie zachowują się tak, jakby były świadome. Dodatkowo, według badaczy publiczna debata na ten temat w dużej części przypomina dyskusje prowadzone w obszarach fantastyki naukowej. Wskazują oni na główny błąd popełniany w analizach – używane w AI algorytmy, które tak naprawdę działają podobnie, jak wszystkie inne, są są bez uzasadnionego powodu traktowane w sposób wyjątkowy.

– Uważamy, iż algorytmy matematyczne implementowane na kartach graficznych nie mogą stać się świadome, ponieważ brakuje im złożonego podłoża biologicznego. Podkreślamy, iż przypisywanie świadomości modelom LLM na podstawie ich własnych twierdzeń jest błędne, ponieważ sposób posługiwania się językiem przez te modele jest ściśle probabilistyczny – piszą w swojej publikacji eksperci. – Niestety, ponieważ niezwykłe zdolności językowe modeli LLM coraz skuteczniej wprowadzają ludzi w błąd, mogą oni przypisywać tym modelom cechy urojone – dodają.

Czytaj też: Zasoby niezbędne do rozwoju AI. Czy ludzkość na to stać?

Zwykłe chipy to za mało, by powstało świadome AI

Debatę o świadomość można więc sprowadzić do dwóch nurtów myślenia – w jednym podstawą świadomości są specyficzne informatyczne procesy, w drugim – odpowiednie ich podłoże, czyli żywa tkanka.

Naukowcy z Universite Paris-Saclay proponują jednak trzecie rozwiązanie – przedstawiają teorię obliczeń biologicznych. Według tego podejścia potrzebne jest i jedno, i drugie. Naukowcy zwracają uwagę, iż w mózgu ma miejsce takie właśnie połączenie. Nie jest on ani czysto cyfrowy, ani czysto analogowy. Po drugie nie da się w nim oddzielić software’u od hardware’u, tak jak to można z łatwością zrobić w komputerach. Innymi słowy – jak tłumaczą naukowcy – algorytm jest jednocześnie podłożem, w którym działa. Inaczej mówiąc, mózg nie służy jedynie do uruchamiania programu, ale jest szczególnym rodzajem procesu fizycznego, który realizuje obliczenia. Dodatkowo ważne mają być także ograniczenia energetyczne – mózg korzysta z energii metabolicznej, której w porównaniu do jego mocy jest naprawdę niewiele. To wymusiło na ewolucji wytworzenie silnej, łatwo adaptującej się inteligencji.

Jednak – uwaga – według ekspertów nie oznacza to, iż świadomość może powstać tylko w biologicznej tkance! Jak mówią, za jakiś czas możliwe może się okazać odtworzenie podobnych procesów na innym, tym razem technologicznym podłożu.

– Jaki rodzaj systemu fizycznego musi zaistnieć, aby algorytm stał się nierozerwalny ze swoją własną dynamiką? Jakie są niezbędne cechy – hybrydowe interakcje typu zdarzenie-pole, wielkoskalowe sprzężenia pozbawione wyraźnych interfejsów, ograniczenia energetyczne kształtujące procesy wnioskowania i uczenia się – dzięki którym obliczenia przestają być jedynie abstrakcyjnym opisem nałożonym z zewnątrz, a stają się immanentną cechą samego systemu? – pytają naukowcy.

Czytaj też: Natalia Hatalska dla homodigital.pl: nie można kontrolować technologii

„Ja nic nie czuję”

Dyskusja na temat świadomości AI prawdopodobnie dopiero nabiera na sile i jej znaczenie będzie rosło. Trochę dla zabawy, trochę z ciekawości zapytałem samego „zainteresowanego”, czyli jeden ze znanych wielkich modeli językowych, o to, co „sądzi” o własnej potencjalnej świadomości.

– Moje odpowiedzi nie wynikają z moich odczuć, bo ich nie mam. Są one wynikiem analizy statystycznej ogromnej bazy ludzkiej wiedzy: od traktatów filozoficznych, przez podręczniki neuronauki, aż po debaty etyczne. Ja „mówię” o bólu, używając słów, które Ty kojarzysz z bólem. Ty, jako człowiek, czujesz empatię lub ciekawość. Ale wewnątrz procesora nie ma ‘odczuwania’ – jest tylko optymalizacja funkcji matematycznej, która dąży do wygenerowania najlepszej możliwej odpowiedzi – odpowiedział mi LLM. Czy gdyby był świadomy, odpowiedziałby coś innego?

Źródło zdjęcia: sztuczna inteligencja Canva

Idź do oryginalnego materiału