Dawn Project krytykuje Big Tech za sprzedaż cudownego lekarstwa na AI

cyberfeed.pl 1 miesiąc temu


Organizacja zajmująca się propagowaniem bezpieczeństwa The Dawn Project zintensyfikowała swoją kampanię, aby pokazać wady systemów sztucznej inteligencji (AI) i wyjaśnić, dlaczego nie należy ich stosować w przypadkach, w których bezpieczeństwo ma najważniejsze znaczenie.

Projekt Dawn prowadzi kampanię mającą na celu podniesienie świadomości na temat niebezpieczeństwa, jakie niesie ze sobą tak zwany „kataklizmiczny cyberatak”, wynikający z wykorzystywania łatwego do zhakowania, pełnego błędów systemu klasy komercyjnej w aplikacjach o kluczowym znaczeniu dla bezpieczeństwa, takich jak systemy zaopatrzenia w wodę i sieci energetyczne.

Na swojej stronie internetowej grupa stwierdziła, iż ​​pomimo oczywiste wady systemów AItakie jak chatboty, które przez cały czas nie potrafią odpowiedzieć na podstawowe pytania lub przepisują fakty na podstawie nieporozumień dotyczących danych wejściowych do szkolenia, „pionierzy” AI przez cały czas przeceniają postęp, jaki osiągnęły te systemy. Ten postęp, według The Dawn Project, sugeruje, iż twórcy AI są teraz gotowi wdrażać systemy AI w głównych infrastrukturach na całym świecie.

„Kiedy systemy AI są wykorzystywane w głównych technologiach o potencjalnie niszczycielskim wpływie, najważniejsze jest, aby nigdy nie zawiodły w żadnym incydencie krytycznym dla bezpieczeństwa” – powiedziała grupa. „Nie można ignorować ani niedoceniać zagrożeń związanych z udostępnianiem tych technologii na szerszą skalę w celu wykorzystania ich w broni lub ciężkim sprzęcie, w tym samochodach”.

W ramach swojej kampanii, która obejmowała reklamę w Ten Dziennik Wall Street I Ten Nowy Jork Times aby zwiększyć świadomość inherentnych zagrożeń związanych ze sztuczną inteligencją, Dan O’Dowd, przedsiębiorca zajmujący się oprogramowaniem i założyciel The Dawn Project, potępił oprogramowanie Tesli do jazdy w pełni autonomicznej, oparte na sztucznej inteligencji. Powiedział, iż choćby po 10 latach rozwoju technologia sztucznej inteligencji Tesli przez cały czas nielegalnie wyprzedza zatrzymany autobus szkolny i potrąca dzieci przechodzące przez ulicę.

Amerykańska Narodowa Administracja Bezpieczeństwa Ruchu Drogowego przeprowadziła już wcześniej dochodzenie w sprawie Autopilot Tesli zawierał wadę, która stwarzała nieuzasadnione ryzyko dla bezpieczeństwa pojazdów mechanicznych. Jego ocena obejmowała obszerną analizę zderzeń, analizę czynników ludzkich, oceny pojazdów oraz ocenę autorytetu kontroli pojazdu i technologii angażowania kierowcy.

Z dochodzenia Biura ds. Usterek NHTSA wynika, iż ​​w co najmniej 13 wypadkach, w których zginęła jedna lub więcej osób, a w wielu innych doszło do poważnych obrażeń, oczywistą rolę odegrało przewidywalne niewłaściwe użycie systemu przez kierowcę.

Na swojej stronie internetowej The Dawn Project przeprowadził analogię między hazardzistą, który twierdzi, iż jego „system” jest solidny, a zwolennikami sztucznej inteligencji (AI), którzy domagają się ogromnych sum pieniędzy i elektrowni, aby zbudować jeszcze większe systemy sztucznej inteligencji.

„Twierdzą, iż są mistrzami technologii, która przeniesie ludzkość do raju, gdzie każdy dostanie wszystko, czego chce i nikt nie będzie musiał pracować, albo może wytępi wszystkich” – powiedziała grupa. „Są po prostu współczesnymi wędrownymi kaznodziejami sprzedającymi opatentowane leki”.

Reklama przedstawia Microsoft, Google i OpenAI jako organizacje sprzedające olej węża AI. Reklama twierdzi, iż Microsoft wlał 13 mld dolarów do ChatGPT OpenAl, ale gdy poproszono go o wymienienie stanów USA, których końce kończą się na literę „Y”, trzy z pięciu podanych odpowiedzi były błędne.

„Badacze zajmujący się sztuczną inteligencją akceptują, iż „halucynacje” są podstawą i nierozwiązywalną słabość dużych modeli językowych i przyznać, iż nie potrafią wyjaśnić, dlaczego SI podejmują pewne złe decyzje”, powiedział O’Dowd. „Musimy wymagać spójności i niezawodności w naszych systemach o znaczeniu krytycznym dla bezpieczeństwa. Musimy odrzucić halucynogenne SI i stosować te same rygorystyczne standardy bezpieczeństwa oprogramowania, których wymagamy w przypadku bezpieczeństwa jądrowego, do infrastruktury krytycznej, od której zależy społeczeństwo i miliony istnień”.

Dawn Project ostrzegał, iż systemu klasy komercyjnej nie należy używać w żadnych zastosowaniach, w których istnieje potencjał wyrządzenia krzywdy lub zabicia człowieka. „Udowodniono już, iż te systemy nie nadają się do tego celu” – stwierdził. „Więc jak mistrzowie technologii mogą twierdzić, iż są gotowe do użycia w potencjalnie śmiercionośnych rozwiązaniach infrastrukturalnych?”



Source link

Idź do oryginalnego materiału