Etyka w AI – równoważąc innowacyjność i odpowiedzialność w IT

websensa.com 1 rok temu

AI zmienia oblicze wielu branż, wpływa na funkcjonowanie ludzi i jakość życia. Stwarza też niebezpieczeństwa, gdy nie jest rozwijana i wdrażana w sposób odpowiedzialny. Sensacja, jaką uczynił ChatGPT i modele oparte na jego systemie, odkryła wielki potencjał AI, wywołała też gorące dyskusje o możliwych skutkach ubocznych technologii na niej opartych. Trwa żywa polemika o etyce w AI, pada też najważniejsze pytanie o jej zdolność do podejmowania etycznych decyzji.

Choć narzędzia wykorzystujące AI są rozwijane od dłuższego czasu, dziś osiągnęły linię krytyczną i można mówić o rewolucji.

Rewolucja ChatGPT a etyka AI

ChatGPT z dnia na dzień stał się sensacją w całym Internecie, zyskując w kilka dni ponad milion użytkowników. Rewolucja, którą zapoczątkowała jego premiera, nabiera tempa.

ChatGPT firmy OpenAI zaprojektowano do prowadzenia spójnych i logicznych rozmów na różne tematy, w oparciu o dostarczone mu pytania, w sposób przypominający rozmowę z ludźmi. Tego rodzaju modele językowe są efektem analizy statystycznej wcześniej napisanych tekstów. Na ich podstawie dobierają najbardziej prawdopodobne dla danego tematu i kontekstu wyniki.

„Etyczna sztuczna inteligencja” to tworzenie i wdrażanie systemów AI, które są przejrzyste, odpowiedzialne i zgodne z wartościami i prawami człowieka

Rywalizacja z jego twórcą, OpenAI, się zaostrza, a eksperci ostrzegają, iż ów „wyścig zbrojeń” może przynieść zarówno korzyści, jak i zagrożenia. CEO Google’a, Sundar Pichai, publicznie przyznał, iż technologia ta może być szkodliwa, jeżeli zostanie źle wdrożona. Wezwał do stworzenia globalnych ram regulacyjnych dla AI, podobnych do traktatów w sprawie broni jądrowej.

Nikt nie ma wątpliwości, iż konieczne są przepisy zapewniające, iż AI jest rozwijana i wdrażana w sposób etyczny. Zwłaszcza iż Forrester szacuje, iż do 2025 roku prawie 100% organizacji będzie korzystać z AI, a rynek systemu do sztucznej inteligencji osiągnie w tym samym roku wartość 37 miliardów dolarów.

Skrzyżowanie AI i etyki w IT

Etyka AI

Etyka AI jest gałęzią etyki technologii specyficzną dla systemów sztucznie inteligentnych. Obejmuje ona:

  • troskę o moralne zachowanie ludzi, którzy projektują, wytwarzają, używają i traktują sztucznie inteligentne systemy;
  • kwestię możliwej osobliwości ze względu na superinteligentną AI.

Etyka robotów

Z etyką AI przecina się tzw. etyka robotów. Roboty to fizyczne maszyny, podczas gdy AI może być tylko oprogramowaniem. Nie wszystkie roboty działają za pośrednictwem systemów AI i nie wszystkie systemy sztucznej inteligencji są robotami. Etyka robotów obejmuje:

  • moralność tego, jak ludzie projektują, używają i traktują roboty;
  • analizę, jak wykorzystuje się je do szkodzenia ludziom i przynoszenia im korzyści;
  • badanie ich wpływu na indywidualną autonomię i sprawiedliwość społeczną.

Wyzwania etyczne związane z AI

Istnieje kilka kluczowych kwestii, które należy wziąć pod uwagę w rozwoju i wdrażaniu AI. Są to m.in.: odpowiedzialność prawna, zagrożenie dla prywatności, niebezpieczeństwo tworzenia materiałów dezinformacyjnych czy możliwy rozwój biznesu w oparciu o model przynoszący negatywne konsekwencje społeczne.

Kluczowe pytania w kontekście etyki AI:

  • Brak przejrzystości narzędzi AI: decyzje AI nie zawsze są zrozumiałe dla ludzi.
  • Neutralność AI: decyzje oparte na niej są podatne na nieścisłości, dyskryminujące wyniki, wbudowane lub wstawione uprzedzenia.
  • Bezpieczeństwo danych: Nadzór w zakresie gromadzenia danych i prywatności użytkowników.
  • Sprawiedliwość i ryzyko dla praw człowieka i wartości obywatelskich.

Podejmowane działania

Organizacje naukowe i społeczne na całym świecie podejmują inicjatywy w celu i przyjęcia społecznie korzystnej AI i ustanowienia dla niej ram etycznych. Wśród powtarzających się wartości są: przejrzystość, uczciwość, niekrzywdzenie, odpowiedzialność, prywatność, dobroczynność, wolność, autonomia, zaufanie, godność, solidarność, zrównoważony rozwój.

Aby uporządkować temat, naukowcy z Oxford University, Luciano Floridi i Josh Cowls, stworzyli ramy etyczne zasad sztucznej inteligencji określone już przez 4 zasady bioetyki: dobroczynność, niekrzywdzenie, autonomię i sprawiedliwość. Do tego zestawu dodali jeszcze zasadę wyjaśnialności.

Wyjaśnialna sztuczna inteligencja obejmuje też interpretowalność, przy czym:

  • wyjaśnialność odnosi się do podsumowania zachowania sieci neuronowej i budowania zaufania użytkownika;
  • interpretowalność jest definiowana jako zrozumienie tego, co model zrobił lub mógłby zrobić.

Naukowcy uznali, iż pełne osiągnięcie etycznej AI wymaga połączenia powyższych zasad z etyką algorytmiczną.

Etyka algorytmiczna – co to jest?

Odnosi się ona do wytycznych moralnych i ideałów zawartych w tworzeniu systemów AI. Służy kierowaniu rozwojem tych systemów tak, aby spełniały standardy sprawiedliwości, prywatności i odpowiedzialności.

Etyka algorytmiczna obejmuje m.in.:

  • eliminowanie błędów w danych wykorzystywanych do trenowania algorytmów poprzez staranny wybór źródeł danych;
  • rozszerzanie danych obejmujące dodawanie lub zmienianie ich w celu uzyskania bardziej zróżnicowanego zestawu danych;
  • angażowanie zróżnicowanej grupy interesariuszy na etapie procesu projektowania i rozwoju systemów: etyków, naukowców, przedstawicieli społeczności, a przede wszystkim twórców AI.

Badacze, programiści i inżynierowie AI muszą stale przeglądać i analizować algorytmy, by identyfikować i korygować błędy, które mogą pojawić się z biegiem czasu.

Potencjalne zagrożenia etyczne związane z AI

1. Stronniczość a uprzedzenia

Rzetelność systemu zależy wyłącznie od danych, na których jest szkolony, co oznacza, iż ​​stronnicze dane mogą prowadzić do stronniczych algorytmów

Jednym z głównych zagrożeń AI jest stronniczość, która może prowadzić do niesprawiedliwych i dyskryminujących wyników. Tendencyjne algorytmy AI mogą “podejmować decyzje” niesprawiedliwe dla określonych grup ludzi, wzmacniać nierówności społeczne oraz utrwalać uprzedzenia.

Uprzedzenia wywodzą się ze stereotypowych reprezentacji głęboko zakorzenionych w społeczeństwach. Zaś technologia wyszukiwarek nie jest neutralna – nadaje więc priorytet wynikom z największą liczbą kliknięć w zależności od preferencji użytkownika i jego lokalizacji. Użytkownikom Internetu trudno jest przy tym określić, czy dane, a w efekcie ich wybory, są uczciwe i godne zaufania, co potencjalnie może prowadzić do niewykrycia stronniczości w systemach. W ten sposób utrwalane są uprzedzenia i stereotypy świata rzeczywistego w Internecie, zaś systemy AI tworzą tendencyjne wyniki.

Uprzedzenia przybierają różne formy – na tle rasowym, społeczno-ekonomicznym, płciowym, co skutkuje niesprawiedliwymi wynikami dla określonych grup społecznych. Bez szeroko zakrojonych testów i różnorodnych zespołów nieświadome uprzedzenia mogą wchodzić do modeli uczenia maszynowego i utrwalać tendencyjne modele AI.

Przykłady wykrytej stronniczości systemów AI:

  • Błędy w wykrywaniu płci: Algorytmy rozpoznawania twarzy opracowane przez firmy Microsoft, IBM i Face++ miały błędy w wykrywaniu płci. Wykazano, iż systemy te wykrywały płeć białych mężczyzn dokładniej niż płeć mężczyzn o ciemniejszej skórze.
  • Błędy w rozpoznawaniu głosu: Badanie z 2020 r., w którym dokonano przeglądu systemów rozpoznawania głosu firm Amazon, Apple, Google, IBM i Microsoft, wykazało, iż mają one wyższy wskaźnik błędów podczas transkrypcji głosów osób czarnoskórych niż głosów osób białych.
  • Faworyzowanie jednej płci: Algorytm AI do zatrudniania i rekrutacji w Amazonie faworyzował kandydatów płci męskiej wobec kobiet. Stało się tak, ponieważ system został przeszkolony na podstawie danych zebranych w ciągu 10 lat, które pochodziły głównie od kandydatów płci męskiej. Amazon zaprzestał korzystania z niego.

Eksperci ostrzegają, iż uprzedzenia algorytmiczne są już obecne w wielu branżach.Temat stronniczości w uczeniu maszynowym stanie się znaczący w miarę rozprzestrzeniania się technologii w krytycznych obszarach, takich jak medycyna i prawo.

2. Prywatność danych i bezpieczeństwo

W celu ochrony prywatności, tworzenie norm dotyczących systemów AI powinno być częścią zarządzania sztuczną inteligencją

Niewątpliwie AI ma potencjał rozwoju społeczeństw, stwarza też zagrożenia dla ich praw podstawowych: prywatności i bezpieczeństwa. Aby AI promować jako godną zaufania, jej twórcy muszą priorytetowo traktować prawa człowieka i dawać gwarancję, iż proces projektowania i wdrażania jest zgodny z zasadami sprawiedliwości, odpowiedzialności.

Odpowiedzialny rozwój AI odnosi się do etyki danych, które są paliwem napędzającym sztuczną inteligencję. Gromadzenie i wykorzystywanie danych musi być zgodne z prawem, tak, by osoby fizyczne miały świadomość kontroli nad swoimi danymi i poszanowania prywatności w całym procesie opracowywania i wdrażania AI.

Protesty przeciwko wykorzystaniu danych

Istotna jest przy tym kwestia danych, których użyto do szkolenia poszczególnych modeli AI – ich rodzaj i pochodzenie. Wiadomo, iż modele te przeszkolono na ogromnej ilości tekstów, książek i dzieł sztuki. Przedstawiciele branż kreatywnych są oburzeni praktyką trenowania modeli AI na materiałach chronionych prawem autorskim bez zgody artystów.

Za pomocą narzędzi GenAI można je wszak modyfikować, wybierać elementy czy łączyć dwa lub więcej obrazów w jeden, wymyślając coś pozornie nowego. Przeciwko temu protestuje wielu artystów, których sztukę wykorzystano, np. do tworzenia modelu Stable Diffusion. Obecny pozew dotyczy kreowania obrazów przez generatory AI, a za chwilę sprawa może dotyczyć muzyków i całej branży kreatywnej.

Obawy ludzi obejmują także sposób, w jaki AI jest wykorzystywana do inwigilacji i rozpowszechniania fałszywych treści online, dzięki narzędzi, które działają bez ludzkiego kontrolera. AI staje się coraz bardziej nieodłącznym elementem systemów rozpoznawania twarzy i głosu. Niektóre z tych systemów mają rzeczywiste zastosowania biznesowe i mają bezpośredni wpływ na ludzi. Systemy te są podatne na uprzedzenia i błędy wprowadzane przez ich ludzkich twórców (patrz: Stronniczość a uprzedzenia).

3. Przejrzystość i zrozumiałość

Ustalenie przejrzystych przepisów ma najważniejsze znaczenie dla zagwarantowania etycznego wykorzystania sztucznej inteligencji

Twórcy AI są niejako przedstawicielami przyszłej ludzkości, mają etyczny obowiązek zachowania przejrzystości w swojej pracy. Budowaniu zaufania i promowaniu przejrzystości AI może służyć tworzenie szczegółowej dokumentacji na temat działania systemów.

OpenAI, jak wynika z deklaracji firmy, jest organizacją non-profit zajmującą badaniem i opracowaniem otwartej AI (open source) korzystnej dla ludzkości. Niestety, uczynienie kodu otwartym nie czyni go zrozumiałym, co oznacza, iż kod AI sam w sobie nie jest przejrzysty. Istnieje przy tym obawa, iż udostępnienie pełnej wydajności systemów AI niektórym organizacjom może wyrządzić więcej szkody niż pożytku.

Sam Microsoft wyraził zaniepokojenie umożliwieniem powszechnego dostępu do swojego systemu do rozpoznawania twarzy, np. policji. Jednocześnie ta sama firma, z powodów oszczędności – jak donoszą media – zwolniła cały zespół zajmujący się etyką AI. I nie jest to jedyna firma, która postanowiła na tym oszczędzić.

Podejmowane działania

Wiele światowych organizacji i rzeczników praw obywatelskich zaleca regulacje rządowe jako środek zapewniający przejrzystość.

  • UNESCO wydało w 2021 roku Zalecenie w sprawie etyki sztucznej inteligencji, które jest pierwszym globalnym instrumentem ustanawiającym standardy w tej dziedzinie. Podjęto w nim m.in. tak istotną kwestię uprzedzeń płciowych, by nie powielać w świecie cyfrowym stereotypowych reprezentacji kobiet.
  • Algorithmic Accountability Act, ustawa z 2022 roku, wymaga od firm w USA oceny wpływu ich systemów AI na czynniki takie, jak uprzedzenia, dyskryminacja, prywatność oraz podjęcia kroków w celu złagodzenia ich negatywnych skutków.
  • IEEE – największa na świecie organizacja techniczna zajmująca się rozwojem technologii dla dobra ludzkości – dąży do ciągłego identyfikowania skal przejrzystości dla różnych użytkowników.

4. Zastępowanie pracy ludzkiej

Etyczne implikacje potencjalnego zastępowania pracy ludzkiej przez AI doprowadzą do wielkich zmian na rynku pracy

Zastosowania AI potencjalnie mogą mieć wpływ na wiele dziedzin życia i sektorów pracy. Przypuszczalnie, pracę podzieli się na zadania, które:

  • da się zautomatyzować;
  • nie dadzą się zautomatyzować;
  • nie powinno się automatyzować.

Efektem podziału stanie się fakt, iż pewne zawody i zajęcia specjalistyczne mogą zniknąć. A co z kreatywnymi? Różne badania pokazują, iż generatory tekstów oparte na AI są co prawda zdolne tworzyć treści poprawne gramatycznie, ale gdy idzie o zgodność z prawami otaczającego nas świata, to ludzie wciąż lepiej je pojmują. Człowiek przez cały czas tworzy lepsze treści niż AI, ponieważ sztucznej inteligencji brak logicznego rozumowania.

Już w 1973 roku Joseph Weizenbaum argumentował, iż technologia AI nie powinna zastępować ludzi w zawodach wymagających szacunku i troski, ponieważ od osób na pewnych stanowiskach spodziewamy się głębszych uczuć i empatii. Argument przez cały czas aktualny.

Przepisy i standardy w etyce AI

Powinny istnieć ustalone ramy moralne, których sztuczna inteligencja nie może zmienić

Już w latach 50. XX w. Isaac Asimov rozważał kwestię etyki maszyn, a także testował granice praw, które dla nich stworzył, aby zobaczyć, gdzie spowodują paradoksalne lub nieoczekiwane zachowanie. Jego praca sugeruje, że żaden zestaw ustalonych praw nie może wystarczająco przewidzieć wszystkich możliwych okoliczności.

Obecnie nad strategiami regulującymi sztuczną inteligencję i znalezieniem odpowiednich ram prawnych pracują ONZ, OECD, UE i wiele poszczególnych krajów.

Komisja Europejska a AI

W czerwcu 2021 roku grupa ekspertów wysokiego szczebla KE ds. AI (AI HLEG) opublikowała „Zalecenia dotyczące polityki i inwestycji dotyczące godnej zaufania sztucznej inteligencji”. To drugi etap ich prac, po opublikowaniu w kwietniu 2019 r. „Wytycznych etycznych dotyczących godnej zaufania sztucznej inteligencji”. Czerwcowe zalecenia AI HLEG obejmują cztery główne tematy: ludzi i ogół społeczeństwa, badania i środowisko akademickie, sektory prywatny i publiczny.

Komisja Europejska twierdzi, iż „zalecenia grupy HLEG odzwierciedlają uznanie zarówno dla możliwości, jakie technologie sztucznej inteligencji mogą napędzać wzrost gospodarczy, dobrobyt i innowacje, jak i związane z tym potencjalne zagrożenia”. Stwierdza, iż UE zamierza przewodzić w kształtowaniu polityk regulujących sztuczną inteligencję na arenie międzynarodowej.

RODO a AI

Ogólne Rozporządzenie UE o Ochronie Danych Osobowych (RODO) wymaga, aby firmy wprowadziły zabezpieczenia w celu zapewnienia przejrzystości i równości algorytmów AI. RODO, obowiązujące wszystkie organizacje w UE, wymaga, aby firmy zapewniały przejrzyste i bezpieczne przetwarzanie danych osobowych oraz aby osoby fizyczne miały prawo dostępu do swoich danych i kontroli nad nimi.

Rola firm IT w zapewnianiu etycznej sztucznej inteligencji

Sztuczna inteligencja sama w sobie nie może sama zostać pociągnięta do odpowiedzialności, ale już ludzie, którzy ją tworzą – tak

Firmy IT i programiści, odgrywający kluczową rolę w tworzeniu systemów AI, powinni gwarantować, iż opisane wyżej zasady etyczne są osadzone w ich projektowaniu i wdrażaniu. Jednocześnie powinni zapewniać bezpieczeństwo i uczciwość systemów, tworząc algorytmy uwzględniające wiele perspektyw. Ogranicza to ryzyko utrwalania uprzedzeń, które mogą istnieć wśród jej twórców.

Działania ograniczające ryzyko uprzedzeń:

  • angażowanie zróżnicowanych zespołów w opracowywanie i testowanie algorytmów AI, począwszy od pochodzenia etnicznego, płci, statusu społeczno-ekonomicznego i wykształcenia, a skończywszy na wiedzy, wartościach, przekonaniach;
  • regularne przeprowadzanie audytów i przeglądów systemu AI, w celu zapewnienia różnorodności i reprezentatywności zbiorów danych;
  • korzystanie z miar rzetelności – pomagają określić, jak algorytm działa dla różnych grup etnicznych lub płciowych i uwypuklić rozbieżności w wynikach;
  • integrowanie zasad etycznych i kodeksów postępowania z systemami AI.

Podsumowanie

Nieetyczna sztuczna inteligencja potencjalnie może szkodzić jednostkom i społeczeństwu. Zapobieganie temu wymaga zaangażowania ludzi, w tym branży IT w całym procesie rozwoju i wdrażania AI.

Odpowiednie regulacje i przepisy mogą zapewnić rozwój etycznej AI, ustanawiając standardy przejrzystości, ograniczając dyskryminację i chroniąc dane. Wprowadzenie wytycznych, wskaźników uczciwości i zapewnienie różnorodności zespołów może pomóc twórcom AI w budowaniu bezpiecznej i odpowiedzialnej sztucznej inteligencji.

Idź do oryginalnego materiału