
Sztuczna inteligencja zyskuje wgląd w ludzkie wnętrze – osobowość, emocje, intencje. Wykorzystać do tego może przeróżne dane z aktywności człowieka, a dalekosiężne skutki są trudne do przewidzenia.
Wystarczy analiza wpisów w portalu społecznościowym albo rozmowa z danym człowiekiem, aby odpowiedni system AI poznał czyjąś osobowość. Coraz więcej badań poświęconych jest także rozumieniu ludzkich emocji przez sztuczną inteligencję. niedługo komputery mogą choćby wiedzieć, czego chcemy, zanim faktycznie będziemy tego chcieli. To może być niesłychane ułatwienie, ale kryje się za tym widmo potężnych manipulacji.
Osobowość jak nowa
Naukowcy związani z projektem Google DeepMind pokazali niedawno kolejne oblicze sztucznej inteligencji. Nowemu modelowi wystarczają dwie godziny rozmowy, aby stworzył symulację osobowości danego człowieka. Wykorzystując model językowy ChatGPT jako bazę, zespół stworzył program, który zadaje szereg pytań i uczy się na podstawie udzielanych przez użytkownika odpowiedzi. W czasie takiego wywiadu może tak dobrze poznać rozmawiającą z nim osobę, iż później udziela odpowiedzi podobnych do tych, jakie moglibyśmy usłyszeć od niej.
Taką cyfrową osobowość naukowcy nazwali agentem, zaznaczając jednak, iż bardzo różni się ona od znanych dotąd opartych na AI cyfrowych agentów ułatwiających różnorodne zadania. Na początek, jak wyjaśniają, system ma pomagać w prowadzeniu różnorodnych badań socjologicznych. Mógłby w dużej części zastąpić ankiety, które są drogie i czasochłonne w opracowaniu oraz w przeprowadzeniu na dużej liczbie respondentów. Badacze dodają jednak, iż nowa technologia może także znacznie wzbogacić funkcjonalność używanych dzisiaj wspomnianych cyfrowych agentów. Inne potencjalne zastosowanie to coraz częściej towarzyszące ludziom roboty, które dzięki nowemu modelowi mogłyby się nauczyć płynniejszych interakcji z człowiekiem.
Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!
Sztuczna inteligencja czyta z nas jak z otwartej księgi?
Opisany powyżej model powstał na podstawie rozmów przeprowadzonych z tysiącem ochotników. Jednak sztuczna inteligencja może zrozumieć osobowość człowieka przy wykorzystaniu dużo łatwiej dostępnych źródeł.
Na łamach czasopisma „Scientific Reports” naukowcy z Rosyjskiej Akademii Nauk pokazali, iż może tego dokonać na podstawie postów w mediach społecznościowych. Analizując 750 tys. wpisów prawie 1,4 tys. użytkowników, badacze określili główne cechy ich osobowości (tzw. wielką piątkę) – neurotyczność, ekstrawersję, otwartość na doświadczenie, ugodowość i sumienność. Wyniki sugerują, iż emocjonalne zabarwienie postów (wyrażających radość, zaskoczenie, złość, strach) pomaga przewidywać poziom trzech cech osobowości: ekstrawersji, ugodowości oraz otwartości na doświadczenia. Z kolei skłonność do zamieszczania prowokacyjnych i społecznie nagannych treści świadczy o wysokim poziomie neurotyzmu. Natomiast zaangażowanie w tematykę religijną wskazuje na związek z sumiennością i ugodowością. Ponadto okazało się, iż miary zaangażowania społecznego użytkowników – w tym liczba znajomych, subskrybentów, polubień, wyświetleń i komentarzy – bezpośrednio korelują z poziomem myślenia logicznego.
– Budowa złożonych modeli z dużą liczbą parametrów, do których niewątpliwie należą sieci neuronowe, pozwala uwzględniać różnorodne zależności między badanymi cechami. Ponadto zastosowanie metod wyjaśnialnej sztucznej inteligencji umożliwia otwarcie ‘czarnej skrzynki’ i analizę cech tych modeli – tłumaczą w swojej pracy naukowcy. – Pozwala to zdobyć nową wiedzę na temat bezpośredniego przejawiania się cech psychologicznych i poznawczych w zachowaniu użytkowników online – dodają.
Czytaj też: Czy AI działa jak umysł?
Emocje wypisane na twarzy
Istnieje też duża szansa, iż maszyny będą rozszyfrowywać emocje swoich użytkowników. Prowadzone są intensywne badania nad ich rozpoznawaniem przy wykorzystaniu analizy zachowania człowieka i różnych parametrów ciała. Mowa np. o tętnie, tonie głosu, wilgotności skóry, wyrazie twarzy czy gestykulacji.
Jak zwracają uwagę zajmujący się tym tematem eksperci, to trudna sprawa. Takie technologie opierają się na założeniu, iż emocje można odczytać z reakcji organizmu, a to niekoniecznie musi być prawda. Pojawiają się bowiem wyraźne różnice między kulturami, pojedynczymi ludźmi, a choćby sytuacjami. Twórcy systemów sztucznej inteligencji zwracają jednak uwagę na technologiczny postęp, który ma sobie z tymi wyzwaniami radzić. Powstają więc coraz liczniejsze systemy, które mają takie możliwości właśnie oferować.
Według zajmującej się badaniami rynku firmy MarketsandMarkets światowy rynek technologii rozpoznawania emocji w 2022 roku miał wartość 23,5 miliarda dolarów, a prognozuje się, iż do końca 2027 roku osiągnie wartość 42,9 mld dol. przy skumulowanym rocznym tempie wzrostu na poziomie 12,8 proc. w okresie tej prognozy.
– Główne czynniki napędzające wzrost rynku to wprowadzanie a na całym świecie technologii sztucznej inteligencji, uczenia maszynowego oraz głębokiego uczenia, rosnące zapotrzebowanie na modele rozpoznawania emocji w inteligentnych systemach, a także rosnąca popularność urządzeń noszonych na ciele (tzw. wearables) – piszą autorzy poświęconej temu analizy. – Ponadto zwiększone zapotrzebowanie na technologię i aplikacje internetu rzeczy oraz coraz więcej inicjatyw rządowych nakierowanych na wykorzystanie zalet technologii wykrywania i rozpoznawania emocji przyczynią się do wzrostu popytu na tego typu produkty w najbliższej przyszłości – kontynuują eksperci.
Rynek intencji (ludzi i sztucznej inteligencji?)
Niektórzy specjaliści mówią choćby o powstaniu nowego rynku opartego na analizie intencji ludzi i przewidywaniu ich działań. Mówią o tym np. naukowcy z University of Cambridge. Ich zdaniem w niedalekiej przeszłości systemy AI będą prawdopodobnie przewidywać i wpływać na nasze decyzje już na wczesnym etapie, a następnie, w czasie rzeczywistym, sprzedawać te kształtujące się intencje różnym firmom. Dzięki temu będą one w stanie zaspokoić nasze potrzeby, jeszcze zanim sami uświadomimy sobie, iż podjęliśmy decyzję.
Według badaczy stoimy u progu „lukratywnego, ale niepokojącego nowego rynku cyfrowych sygnałów intencji”. Co naukowcy mają na myśli? Jak tłumaczą, różnego rodzaju inteligentne oprogramowanie – chatboty, wirtualni asystenci czy nauczyciele, a choćby cyfrowe „partnerki czy partnerzy” – zyskają dostęp do potężnych zasobów bardzo osobistych informacji na temat psychiki i zachowań użytkownika. Będą mogły te dane czytać, choćby w czasie różnorodnych, choćby luźnych rozmów człowieka z komputerem.
– To, co ludzie mówią podczas rozmowy, jak to mówią oraz jakie wnioski można na tej podstawie wyciągnąć w czasie rzeczywistym, jest o wiele bardziej osobiste niż same zapisy interakcji online – podkreślają badacze.
Czytaj też: Ostrożnie z AI, niekontrolowany jej rozwój to ryzyko
Cyfrowi asystenci AI nowymi domokrążcami?
To się na przykład będzie mogło przełożyć na sprzedaż przeróżnych towarów i usług. „Wspomniałeś, iż czujesz się przepracowany. Czy mam zarezerwować dla Ciebie ten bilet na film, o którym rozmawialiśmy?” – naukowcy podają przykładowe pytanie, które może zadać znający swojego użytkownika inteligentny asystent. To tylko niewinny przykład. Eksperci zwracają uwagę na potężne zasoby przeznaczane na tworzenie cyfrowych asystentów obecnych praktycznie we wszystkich aspektach życia. Podkreślają pojawiającą się możliwość taniego profilowania użytkowników pod względem ich sposobu mówienia, poglądów politycznych, słownictwa, wieku, płci, historii online, a choćby preferencji dotyczących pochlebstw. Powstać ma cała nowa ekonomia oparta na analizie intencji.
– Przez dekady walutą internetu była ludzka uwaga. Dzielenie się nią z platformami społecznościowymi, takimi jak Facebook i Instagram, napędzało gospodarkę online – przypominają. – jeżeli nie zostanie uregulowana, gospodarka intencji potraktuje ludzkie motywacje jako nową walutę. Będzie to gorączka złota dla tych, którzy będą namierzać, kształtować i sprzedawać ludzkie intencje – przestrzegają. Mówią jednocześnie wprost o otwieraniu się możliwości „manipulacji społecznych prowadzonych na skalę przemysłową”. Ostrzegają przed zagrożeniami nie tylko dla pojedynczych osób, ale dla konkurencji biznesowej, wolnej prasy czy politycznych wyborów. Czy więc już niebawem komputery, telefony, sklepy online i wszelakie serwisy będą nas znały lepiej niż my sami? I co z tego wyniknie – czy będzie nam się żyło łatwiej, czy może będziemy musieli się bronić przed AI zaglądającą do naszych dusz. jeżeli przeważy to drugie – to czy nam się obrona uda?
Autor zdjęcia: Andrea De Santis oraz sztuczna inteligencja Adobe Photoshop