Naukowcy twierdzą, iż sztuczna inteligencja nie opisuje złożoności Holokaustu

cyberfeed.pl 3 tygodni temu


Według międzynarodowego laboratorium badawczego istniejące modele sztucznej inteligencji (AI), dostępne w domenie publicznej, nie dostarczają „złożoności i niuansów przeszłości”, a jedynie oferują nadmiernie uproszczone historie o Holokauście.

W listopadzie 2024 r. Uniwersytet Sussex uruchomił Landecker Digital Memory Lab, inicjatywę mającą na celu „zapewnienie zrównoważonej przyszłości pamięci i edukacji o Holokauście w epoce cyfrowej”.

Według opartego na badaniach briefingu politycznego przedstawionego przez laboratorium Międzynarodowemu Sojuszowi na rzecz Pamięci o Holokauście (IHRA): Czy sztuczna inteligencja ma miejsce w przyszłości pamięci o Holokauście?wykorzystanie sztucznej inteligencji w pamięci i edukacji o Holokauście jest problematyczne, ponieważ modele głównego nurtu – m.in systemy generatywnej sztucznej inteligencji (GenAI). takie jak ChatGPT i Gemini – brakuje „dobrych danych” na temat Holokaustu i potrzebują „odpowiedniej reprezentacji” ze strony ekspertów w tej dziedzinie.

Główna badaczka laboratorium, Victoria Grace Richardson-Walden, w pilnym apelu skierowanym do wszystkich zainteresowanych stron zaangażowanych w pamięć i edukację o Holokauście, a także do decydentów, zaleciła pomoc w rozwiązaniu problemu poprzez digitalizację ich danych i ludzkiej wiedzy, a nie tylko udostępnianie ludzi do swoich witryn i muzeów.

„Bardzo kilka z nich ma jasną strategię cyfryzacji” – powiedziała o sektorze pamięci i edukacji o Holokauście, który obejmuje archiwa, muzea, miejsca pamięci i biblioteki na całym świecie. „Dygitalizują jedynie swoje treści materialne lub zeznania na potrzeby konkretnych wystaw”.

„To ogólnie rzecz biorąc paląca kwestia dla dziedzictwa” – stwierdził Richardson-Walden, odnosząc się do wojen na Ukrainie i na Bliskim Wschodzie.

„Całe dziedzictwo i wszystkie te rzeczy są zagrożone materialnie” – powiedziała. „Po wszystkich stronach spektrum politycznego doszło do instrumentalizacji historii dla różnych celów politycznych. Kiedy robi się to bardzo głośno w mediach społecznościowych, tracisz niuanse. To właśnie jest pilne.”

Niepewna ostrość

Richardson-Walden podkreśliła, iż ​​systemy GenAI nie są „maszynami wiedzy”, jak to ma miejsce w rzeczywistości przypisz tylko probabilistyczną wartość liczbową do słów i sekwencji słów, a nie do wartości opartej na ich znaczeniu historycznym i kulturowym. Prowadzi to do zakopywania mniej znanych faktów i historii, ponieważ systemy będą miały tendencję do odtwarzania tylko najbardziej znanych „kanonicznych” wyników, które skupiają się na najsłynniejszych historiach.

„Zawiera nagłówek odpowiedzi i wypunktowania” – powiedziała, opisując typową odpowiedź na zapytanie kierowane do ChatGPT. „Ten pomysł podsumowywania naprawdę złożonych historii jest problematyczny. Nie da się podsumować czegoś, co wydarzyło się na przestrzeni sześciu lat w wielu, wielu krajach i dotknęło całą gamę różnych osób i sprawców”.

Celem badania nie jest udzielenie odpowiedzi na tę złożoną kwestię. Zamiast tego Richardson-Walden ma nadzieję znaleźć alternatywy w dyskusjach ze swoimi kolegami z informatyki i inżynierii. „Znaczące kulturowe są trudne do zakodowania, a następnie wbudowania w dane szkoleniowe” – stwierdziła.

Richardson-Walden podkreśliła również potrzebę posiadania „dobrych danych” w komercyjnych modelach GenAI, zwłaszcza w odniesieniu do wrażliwych tematów historycznych, takich jak ludobójstwo, prześladowania, konflikty lub okrucieństwa.

„Dobre dane pochodzą od organizacji zajmującej się Holokaustem, ale najpierw muszą zostać zdigitalizowane w strategiczny sposób, a dołączone do nich metadane muszą być prawidłowe i ustandaryzowane” – powiedziała.

Innym problemem podkreślonym w briefingu dotyczącym polityki laboratorium jest autocenzura zaprogramowana w większości komercyjnych modeli GenAI. Niemal za każdym razem, gdy system zostanie poproszony o wygenerowanie obrazów Holokaustu, odmówi, a użytkownik spotka się z wytycznymi dotyczącymi cenzury.

W briefingu przytoczono przykład Dall-E, generatora obrazów OpenAI. „Jedyne, co może zaoferować, to stworzyć obrazy wieńca, starszych dłoni i płotu z drutu kolczastego lub obrazu, który wygląda jak duch w bibliotece” – stwierdził.

Richardson-Walden dodała: „W rezultacie Holokaust staje się niewidzialny lub abstrakcyjny do tego stopnia, iż ​​staje się absurdalny. Zatem pomysł wprowadzenia cenzury w programach jest dobrą rzeczą, ponieważ jest to podejście moralne, które w rzeczywistości powoduje odwrotny skutek.

Wierzy, iż chociaż te poręcze są lepsze niż wytwarzanie fałszywych lub zniekształconych danych, uniemożliwiają także ludziom poznanie historii i jej lekcji, dodając, iż twórcy tych modeli powinni zatem znaleźć w swoich barierach „środek”, który zapobiegnie dezinformacji na temat Holokaustu, ale także wpakować ich w zakazanie przekazywania informacji o Holokauście przyszłym pokoleniom zależnym od mediów cyfrowych.

„Sposób [middle ground] osiąga się poprzez dialog” – stwierdził Richardson-Walden. „Potrzebuje się przestrzeni, w której można by przeprowadzić więcej dyskusji z OpenAI, Meta i Google, a także porozmawiać z takimi miejscami jak ONZ czy z nami w laboratorium”. Dodała, iż ​​Landecker oferuje bezpłatne konsultacje w celu omówienia podejść dla firm technologicznych, które po raz pierwszy zajmują się pamięcią o Holokauście.

„Gdy tylko się w to zagłębią, [they] zdajemy sobie sprawę, iż jest to tak złożone i tak polityczne, iż istnieje zupełnie nowy obszar dotyczący etyki i technologii cyfrowych, o którym nigdy nie myśleli” – powiedziała.

Landeckera strona internetowa wspomina, iż ​​najwybitniejszym przykładem digitalizacji pamięci o Holokauście jest model sztucznej inteligencji znany jako Dimensions in Testimony, opracowany przez Fundację USC Shoah. Jest to przykład modelu GenAI specyficznego dla domeny, opisanego jako model małego języka, który jest „silnie nadzorowany” i opiera się na „znacznej interwencji człowieka”. Użytkownicy i naukowcy mogą z nim wchodzić w interakcję, zadając pytania, na które model odpowiada, przedstawiając zeznania ocalałych i odpowiedzi ekspertów, którzy zostali do niego wykorzystani.

Jednak inne laboratoria i centra pamięci mogą nie mieć takich samych zasobów i funduszy jak laboratorium Landeckera. Dlatego należy skupić się na masowej digitalizacji zasobów, które można następnie wykorzystać do odpowiedzialnego informowania komercyjnych modeli wielkojęzykowych.



Source link

Idź do oryginalnego materiału