Z AI rozmawiajmy jak z dzieckiem albo osobą z innego kręgu kulturowego, która zupełnie nas nie zna

sektor3-0.pl 3 tygodni temu

Pamiętacie jak w moim poprzednim artykule testowałam narzędzia AI, które mogłyby wygenerować ilustrację do artykułu? Czy pamiętacie co dostałam? Przypomnę: nic zadowalającego. Zastanowiło mnie to: czy AI będzie takiej jak filtry na Instagramie (o których wiemy, choćby z przesłuchań przedstawicieli social mediów w Amerykańskim Kongresie, iż po pierwsze uzależniają, po drugie wypaczają obraz rzeczywistości i prowadzą do zaburzenia obrazu ciała, braku satysfakcji stanów depresyjnych a choćby samobójstwa) iż będzie pokazywało „idealną” rzeczywistość? I jaka ona jest?

Przyjrzałam się też obrazkom, które wygenerowali przy pomocy różnych programów wykorzystujących sztuczną inteligencję uczestnicy i uczestniczki pilotażowych szkoleń ze sztucznej inteligencji dla organizacji społecznych organizowanych przez Sektor 3.0. Co wyszło? Zobaczcie:

Ilustracje przypominają trochę te z taniego stockowego banku zdjęć, i przede wszystkim nie odzwierciedlają rzeczywistości, po drugie – różnorodności. Jednak redukcjonizm AI ma swoje powody, o których za chwilę – i wierzę idealistycznie, iż da się je uleczyć.

Sztuczna inteligencja jest niesprawiedliwa i seksistowska

Niezaprzeczalnie – użyję tego zwrotu: „na razie” – sztuczna inteligencja jest jednak niesprawiedliwa, schematyczna, i bywa seksistowska. Potwierdzają to niestety najnowsze badania dr Anny Górskiej i prof. Dariusza Jemielniaka z Akademii Leona Koźmińskiego (ALK), opublikowane na łamach „Feminist Media Studies” w artykule „The invisible women: uncovering gender bias in AI-generated images of professionals”.

Stereotypy w AI

„Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: o ile wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, iż modele traktują te dane jako odzwierciedlenie rzeczywistości. Problem pokazuje zatem, iż trzeba być bardzo ostrożnym w doborze danych” – zauważa prof. Dariusz Jemielniak, cytowany w komunikacie ALK. A dr. Anna Górska specjalizująca się w zagadnieniach płci i różnorodności w organizacjach i na uczelniach – dodaje:

Kto jest programistą w branży IT? zwykle są to mężczyźni. Mówimy o całej kulturze 'brogrammer’ (slangowe określenie stereotypowego programisty mężczyzny – przyp. PAP) wśród programistów, która jest mało włączająca. Prawdopodobnie ich własne uprzedzenia, które tworzą w sposób świadomy czy nieświadomy, są później odzwierciedlone w algorytmach.

Nie zniechęcaj się do AI

Czy ma to nas do AI zniechęcić? Nie!

Dlaczego?

Myślałam o tym długo siedząc nad plikiem pisanym w Wordzie i nagle zdałam sobie sprawę z jednej ważnej rzeczy: o ile przez wiele lat nie miałam wpływu na Worda, o tyle na sztuczną inteligencję – twór, który się uczy, dopasowuje do mnie, może używać idiolektu, zwracać uwagę na moje poglądy – mam. A raczej mamy. Wszyscy. Co ma oczywiście swoje dobre i złe strony. Ale zobaczmy te dobre.

Jak i czym karmić sztuczną inteligencję?

AI nie ma bowiem „negatywnych założeń” czy „złej woli”, bywa jednak nieświadoma, bo jest tym, co do niej włożymy, czym ją – bardzo lubię tę metaforę – „nakarmimy”. jeżeli jako bazowy zestaw informacji dostała uproszczony obraz świata, albo przynajmniej „pakiet większościowy” zaprojektowany przez mężczyzn – programistów w Dolinie Krzemowej – będzie go reprodukować. Dokładając jej nowych danych, korygując, nie zgadzając się z nią, dzieląc się sobą w rozmaitych aspektach –sprawiamy, iż i ona się zmienia.

Czym dotychczasowe narzędzia pracy różnią się od AI?

Zobaczcie jakie to inne od tego, czym były programy „starego” typu: nie mieliśmy wpływu na to, jak wyglądał i funkcjonował wspomniany Word. To program ustalał ramy naszej współpracy, modele pracy z nim. To dla nas i naszego mózgu – a może bardziej sposobu wychowania w szkole czy społecznych warunkach zrozumiałe: piszemy w zeszycie, litery wyglądają tak, a lekcja trwa 45 minut. Podobnie było z Wordem: „kartka” była biała, naśladowała to, jak pisaliśmy wcześniej – easy.

Tymczasem przy pracy z AI mamy – przynajmniej na razie – wyższy próg wejścia. Z paru powodów: Po pierwsze nasz lęk, który nie wspiera (przypominam – warto go zamienić na ekscytację! Pisaliśmy już o tym). Po drugie jeszcze wczesny rozwój narzędzi, które są właśnie „nienakarmione” – u mnie to powoduje łatwy zwrot w tył i powiedzenie: „Serio? Tak seksistowsko i prymitywnie? Wrócę do ciebie jak się rozwiniesz!”. Wrong!

AI nie obędzie się bez kobiet

Niestety (albo na szczęście! w końcu partycypacja jest ważna i daje poczucie satysfakcji). AI nie rozwinie się beze mnie. Nie rozwinie się bez osób reprezentujących inne poglądy niż bazowe, bez osób nie przypominających te na zdjęciach ze stocka. Mam takie poczucie, iż im bardziej nakarmię AI moją wagą wyższą niż modeli, im częściej wrzucę jej zdjęcie z pryszczem (o tak!) tym więcej ta kosmitka będzie wiedzieć o „prawdziwym” świecie i takie dane będzie potem przetwarzać. Dlatego z moim ChatGPT witam się uprzejmie (serio pisze do niego „cześć” czy „dzień dobry”) i dziękuję mu za pomoc. Starając się to łączyć z promptowaniem i piszę, jak pasuje mi wypluty przez niego wynik: zadowolił, nie zadowolił, tego było za dużo, tego za mało.

AI nie obejdzie się bez mniejszości

Ten proces przypomina mi coś, co znam z mojej pracy trenerskiej, coacherskiej i psychologicznej: czyli budowanie relacji. O ile zbudowanie relacji z Wordem było trudne, bo Word serio nie współpracuje – o tyle z AI MUSIMY ją budować, bo inaczej nie odpowie na nasze potrzeby: zarówno na poziomie indywidualnym, naszej pracy z danym programem jak i społecznie, jako wielki system. To o tym mówią twórcy i twórczynie LLM – czyli Large Language Models: jeżeli jeden język będzie dominował, jeżeli nie stworzymy swojego języka (a w Polsce się to na szczęście dzieje – powstaje PLLuM, czyli karmiony językiem polskim silnik do przetwarzania języka), jeżeli nie nauczymy AI tego, jak ma się z nami obchodzić, feminatywów czy inkluzywności, programy przez cały czas na hasło CEO będzie nam generował niezliczone obrazy białych mężczyzn.

To dlatego jest tak ważne, żeby NGO-sy brały udział w procesie „karmienia” AI: korzystając z niej, ale też napełniając ją tym, co znajduje się w DNA większości organizacji społecznych. Czyli dbaniem o równość, inkluzywność, demokrację, zwracaniem uwagi na nierówności społeczne i zagrożenia dla społecznej homeostazy, zdrowia psychicznego czy szerszym spojrzeniem na procesy. jeżeli chcemy żeby AI dzieliła z nami wartości, musimy jej o nich opowiedzieć.

Zapytałam moich kolegów i koleżankę pracujących z NGO-sami o rady dotyczące tego, w jaki sposób uczyć sztuczną inteligencję nas. Na co zwrócić uwagę? Czego się nie bać?

Z AI rozmawiamy jak z dzieckiem albo osobą z innego kręgu kulturowego, która zupełnie nas nie zna

Czy i jak poprawiać sztuczną inteligencję kiedy podaje nam treści, które np. są stereotypowe?

Monika Schmeichel-Zarzeczna (Sektor 3.0): – Przede wszystkim powinniśmy doprecyzować AI o co nam chodzi. Nasz świat jest bardzo różnorodny dlatego potrzebujemy strereotypów, żeby go trochę upraszczać i uporządkować. Ułatwia to codzienne funkcjonowanie. AI również potrzebuje stereotypów, wzorców, żeby wygenerować nam początkową wersję: tekstu, obrazu, dźwięku, na której możemy zacząć budować doszczegóławiając zapytania, tak aby uzyskać zadowalający nas rezultat. Z AI rozmawiamy jak z dzieckiem albo osobą z innego kręgu kulturowego, która zupełnie nas nie zna, więc im więcej szczegółów jej podamy, im precyzyjniej będziemy się komunikować tym rozmowa będzie dla nas bardziej satysfakcjonująca.

A jak to jest ze zdjęciami? Wiele osób może czuć opór – jaki ja czułam – wrzucając swoje zdjęcie AI jako referencję do obrazka. Czy dany program ma już wtedy prawa do mojego wizerunku? Skąd mogę mieć pewność, iż nie wykorzysta mnie w jakimś niecnym celu?

Filip Jędruch (Sektor 3.0): – Może warto odpowiedzieć pytaniem – a czy sama nie wrzucasz swoich zdjęć choćby na Facebooka? Czy znamy politykę Instagrama publikująć tam kolejne selfie? Zachłyśnięci możliwościami rozsiewamy nasze zdjęcia to tu to tam, a może gdzieś jesteśmy przez przypadek? By dowiedzieć się co dzieje się z fotografiami, które przerzucamy przez różne narzędzia trzeba by było każdorazowo zagłębić się w poszukiwania w przepastnych dokumentach.

Adobe w swoim FAQ na stronie udziela odpowiedzi dość wprost:

Czy treści klientów Adobe są automatycznie wykorzystywane do szkolenia Firefly?

Nie, nie szkolimy modelu na osobistych treściach subskrybentów usługi Creative Cloud. W przypadku współpracowników Adobe Stock treści są częścią szkoleniowego zbioru danych Firefly, zgodnie z umowami licencyjnymi Stock Contributor.

A co jeżeli chcemy wyszukać nasze zdjęcia? W sukurs też mogą przyjść nam technologie. Darmowe jak TinEye czy Obiektyw Google. pozostało najnowsza wisienka na torcie czyli PimEyes. Tutaj znajdziemy NASZ wizerunek w całym Internecie, ale za opłatą! A jeżeli sięgniemy głębiej do kieszeni możemy też wyczyścić sieć z naszych zdjęć.

Na zakończenie myśl zupełnie luźna: wydaje mi się, iż przy takich możliwościach i zasobach danych wykorzystanie akurat naszych konkrentnych danych czy wizerunku wydaje się mało prawdopodobne. Zawsze warto uważać i w przypadku naszej obecności (prywatnej) w Internecie mniej zawsze znaczy lepiej – podsumowuje Filip Jędruch.

O czym organizacje społeczne muszą wiedzieć w kontekście współpracy z AI?

Czy pozostało coś, o czym organizacje powinny wiedzieć albo pamiętać w kontekście AI?

Michał Serwiński (Sektor 3.0): – Organizacje społeczne powinny być szczególnie wrażliwe na zagrożenia, które niesie ze sobą rozwój sztucznej inteligencji. Obok dyskusji o zanikaniu miejsc pracy i zawodów, najważniejsze wydają się tu zagadnienia związane z pojawianiem się fałszywych treści, etyką, prawem autorskim i środowiskiem naturalnym. Zacznijmy od tego, by sprawnie odróżniać prawdę od fałszu i być szczególnie wyczulonym na to, jak treści są przygotowywane i czy rzeczywiście znajdujemy w nich sprawdzone, niezmanipulowane fakty.

W kolejnym kroku zadawajmy sobie i innym pytania, na jakich zbiorach i źródłach danych uczone są modele sztucznej inteligencji. Czy rzeczywiście chcemy produkować nowe treści na bazie informacji pozyskanych bez zgody i wiedzy autorów i autorek?

Kwestionujmy AI

Po trzecie, systematycznie kwestionujmy wykorzystanie sztucznej inteligencji. Czy rzeczywiście, w każdym naszym działaniu, każdej aplikacji, każdym narzędziu, koniecznie potrzebujemy jej pomocy? Kiedy kryzys klimatyczny już dawno wyszedł zza rogu, zdroworozsądkowe korzystanie z zasobów energetycznych, nie jest już kwestią dobrych praktyk, ale sprawą życia i śmierci.

Na koniec, inspirujmy i bądźmy wzorem w zakresie wykorzystania sztucznej inteligencji. Pokazujmy, gdzie i jak z niej korzystamy i oznaczajmy treści wytworzone z pomocą AI –

NGO-sy są najważniejsze w pracy z AI

AI jest trochę taką tricksterką – postacią waleta, która w mitach, bajkach, tekstach kultury obnażała istniejące już, ale niewidzialne, bo przezroczyste mechanizmy na zasadzie „król jest nagi”. Pokazując nam w wynikach wyszukiwania hasła „CEO” samych białych mężczyzn obnaża, jak dużo jeszcze stereotypów zaszytych jest w źródłach, języku, wzorcach, którymi AI się karmi. To dowodzi tylko jednego: praca tych, którzy przywracają równość – nie tylko w aspekcie płci – jest niezbędna! Bo przecież stereotypy dotyczą wielu dziedzin naszego życia, wieku, tatusu etc. A adekwatnie samo to, by z AI pracowały różnorodne osoby, w tym przede wszystkim kobiety (szacuje się, ze jest tych tylko 22%) jest najważniejsze by to narzędzie było ukształtowane sprawiedliwie.

Okładka artykułu została przygotowana z pomocą AI w aplikacji Adobe Firefly.

Inne materiały nt. sztucznej inteligencji, które Cię zainteresują:

  • Aplikacje wykorzystujące AI. Łatwiejsza praca kreatywna
  • Jak polubić technologie? Wycieczka w świat AI
  • Technofobia i FOBO: jak poradzić sobie z lękiem przed technologiami
Idź do oryginalnego materiału