Firma macierzysta Google Alphabet porzuciła zobowiązanie, aby nie używać sztucznej inteligencji (AI) w systemach broni lub narzędzi nadzoru, powołując się na potrzebę wsparcia bezpieczeństwa narodowego „demokracji”.
Sundar Pichai, dyrektor generalny Google, W blogu opublikowanym w czerwcu 2018wcześniej nakreślił, w jaki sposób firma „nie realizowała” aplikacji AI, które „powodują lub prawdopodobnie wyrządzi ogólną szkodę”, a konkretnie zobowiązała się do nie rozwijania sztucznej inteligencji do użytku w „broni lub innych technologiach, których głównym celem lub wdrożeniem jest powodowanie lub bezpośrednio sprawdzenie lub bezpośredni ułatwić obrażenia ludzi ”.
Dodał, iż Google również nie będzie kontynuować „technologii, które gromadzą lub wykorzystują informacje w celu naruszania norm zaakceptowanych na całym świecie”.
Google – którego firma motto „Don’t Be Evil” zostało zastąpione w 2015 r. Strona internetowa zasad AI w Blogpost współautor przez Demis Hassabis, CEO Google Deepmind; oraz James Manyika, starszy wiceprezes firmy ds. Technologii i społeczeństwa.
„Odbywa się globalny konkurencja dla przywództwa AI w coraz bardziej złożonym krajobrazie geopolitycznym. Uważamy, iż demokracje powinny prowadzić w rozwoju AI, kierowane podstawowymi wartościami, takimi jak wolność, równość i szacunek dla praw człowieka ”, napisali 4 lutego.
„Uważamy, iż firmy, rządy i organizacje dzielące te wartości powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe”.
Dodali, iż zasady AI Google będą teraz koncentrować się na trzech głównych najemcach, w tym „odważnej innowacji”, której celem jest „pomoc, wzmacnianie pozycji i inspirowanie ludzi w prawie każdej dziedzinie ludzkich przedsięwzięć” i sprostanie największym wyzwaniom ludzkości; „Odpowiedzialny rozwój i wdrażanie”, co oznacza odpowiedzialne realizację AI przez cały cykl życia systemów; oraz „Współpracujący postęp, razem”, który koncentruje się na umożliwieniu „innym pozytywnie wykorzystując sztuczną inteligencję”.
Komentowanie zmiany zasad Google, Elke Schwarz – profesor teorii politycznej na Queen Mary University London i autor Maszyny śmierci: etyka gwałtownych technologii – powiedział, iż chociaż „wcale nie jest to zaskakujące”, biorąc pod uwagę, iż firma już była dostarczanie wojska USA (I Podobno IDF) Dzięki usługom w chmurze przez cały czas martwi się zmieniającym nastrój wśród dużych firm technologicznych w kierunku sztucznej inteligencji wojskowej; Wiele z nich twierdzi, iż „nieetyczne jest nie utknięcie” opracowywanie aplikacji AI dla tego kontekstu.
„Google czuje się teraz wystarczająco komfortowo, aby dokonać tak znaczącej zmiany publicznej bez konieczności stawania się znaczącej luzem lub reperkusjami daje poczucie, gdzie jesteśmy z etycznymi obawami dotyczącymi spekulanowania z powodu przemocy (nieco ostrożnie). Wskazuje to na niepokojącą akceptację budowania gospodarki wojennej ”, powiedziała Computer co tydzień, dodając, iż zmiana polityki Google podkreśla wyraźną zmianę, iż globalny przemysł technologiczny jest w tej chwili również globalnym przemysłem wojskowym.
„Sugeruje to wkraczającą militaryzację wszystkiego. Sygnalizuje również, iż istnieje znaczna pozycja rynkowa w tworzeniu sztucznej inteligencji do celów wojskowych i iż istnieje znaczny udział w zyskach finansowych do zdobycia, o które konkurują obecne najlepsze firmy. To, jak przydatne jest ta dążenie do sztucznej inteligencji do celów wojskowych, jest przez cały czas bardzo spekulacyjny. ”
Eksperci od wojskowej sztucznej inteligencji wcześniej wzbudzone obawy o etycznych implikacjach algorytmicznie zabójstwa, w tym potencjału odczłowieczania, gdy ludzie po otrzymaniu końca śmiertelnej siły są zredukowane do punktów danych i liczb na ekranie; ryzyko dyskryminacji podczas selekcji celu z powodu uprzedzeń w zastosowanym programowaniu lub kryteriach; a także emocjonalne i psychologiczne oderwanie operatorów od ludzkich konsekwencji ich działań.
Są też obawy o to, czy kiedykolwiek może istnieć znacząca kontrola człowieka Przez autonomiczne systemy broni (AWS), ze względu na połączenie stronniczości automatyzacji i tego, jak taka broń zwiększa prędkość wojny poza ludzkim poznaniem.
Przez całe 2024 r. Szereg innych programistów AI – w tym OpenaiW Antropiczny I Meta – Cofnęli własne zasady użytkowania AI, aby umożliwić nam wywiad i agencje obronne korzystać z ich systemów AI. przez cały czas twierdzą, iż nie pozwalają swojej sztucznej inteligencji krzywdzić ludzi.
Co tydzień komputerowy skontaktował się z Google w sprawie zmiany – w tym sposób, w jaki zamierza podejść do rozwoju AI odpowiedzialnie w kontekście bezpieczeństwa narodowego, a jeżeli zamierza umieścić jakiekolwiek ograniczenia w rodzajach aplikacji, w których można użyć systemów AI – ale nie otrzymał odpowiedzi.
„Nie bądź zły”
Przeniesienie Google przyciągnęło silną krytykę, w tym z organizacji praw człowieka zaniepokojonych użyciem sztucznej inteligencji do broni autonomicznej lub masowej inwigilacji. Na przykład Amnesty International nazwał tę decyzję „haniebną” i powiedziała, iż stanowi „niebezpieczny” precedens.
„Technologie napędzane AI mogą podsycać systemy nadzoru i śmiertelnego zabijania na rozległą skalę, potencjalnie prowadząc do masowych naruszeń i naruszających fundamentalne prawo do prywatności”, powiedział Matt Mahmoudi, badacz i doradca AI i praw człowieka w Amnesty.
„Decyzja Google o odwróceniu zakazu broni sztucznej inteligencji umożliwia firmie sprzedawanie produktów, które technologie energetyczne, w tym masowe nadzór, drony opracowane dla półautomatycznych podpisów oraz oprogramowanie do generowania celu, które ma przyspieszyć decyzję o zabiciu.
„Google musi pilnie odwrócić ostatnie zmiany zasad AI i polecić powstrzymanie się od opracowywania lub sprzedaży systemów, które mogłyby umożliwić poważne naruszenia praw człowieka. Niezbędne jest również, aby podmioty państwowe ustanowiły wiążące przepisy dotyczące wdrażania tych technologii opartych na zasadach praw człowieka. Fasada samoregulacji utrwalonej przez firmy technologiczne nie może odwracać uwagi od pilnej potrzeby stworzenia solidnych przepisów, które chronią prawa człowieka ”.
Zegarek praw człowieka podobnie podkreślił problematyczną naturę samoregulacji poprzez dobrowolne zasady.
„To, iż globalny lider branży, taki jak Google, może nagle porzucić samozwańcze zakazane praktyki, podkreśla, dlaczego dobrowolne wytyczne nie są substytutu regulacji i prawa do egzekwowania. Istniejące międzynarodowe prawo i standardy dotyczące praw człowieka mają zastosowanie do korzystania z sztucznej inteligencji, a regulacja może mieć najważniejsze znaczenie w przełożeniu norm w praktyce ”, powiedział, zauważając, iż chociaż nie jest jasne Przynajmniej był w stanie cytować je podczas odpychania nieodpowiedzialnych praktyk AI.
Na przykład we wrześniu 2022 r., Pracownicy Google i działacze palestyńscy wezwali giganta technologicznego Aby zakończyć swoje zaangażowanie w skryptowy projekt komputerowy Nimbus Nimbus, który obejmuje dostarczanie narzędzi AI i uczenia maszynowego (ML) rządowi Izraela.
W szczególności oskarżyli giganta technologicznego o „współudział w izraelskim apartheidzie” i powiedzieli, iż obawiali się, w jaki sposób technologia zostanie wykorzystana przeciwko Palestyńczykom, powołując się na własne zasady AI Google. Rzecznik Google powiedział Computer Weekly w tym czasie: „Projekt obejmuje udostępnienie Platformy Google Cloud dla agencji rządowych do codziennych obciążeń, takich jak finanse, opieka zdrowotna, transport i edukacja, ale nie jest on skierowany do bardzo wrażliwych lub niejawnych obciążeń”.
Human Rights Watch dodał: „Pivot Google od odmowy zbudowania sztucznej inteligencji dla broni do stwierdzenia zamiaru stworzenia sztucznej inteligencji, która wspiera przedsięwzięcia bezpieczeństwa narodowego, jest wyraźne. Woitities coraz częściej wykorzystują sztuczną inteligencję na wojnie, gdzie ich poleganie na niekompletnych lub wadliwych danych i wadliwych obliczeniach zwiększa ryzyko szkody cywilnej. Takie narzędzia cyfrowe skomplikować odpowiedzialność w przypadku decyzji na polu bitwy, które mogą mieć konsekwencje życia lub śmierci. ”
Chwila Zdecydowana większość państw opowiada się za wielostronnymi kontrolami w systemach broni napędzanych AIEuropejscy ministrowie spraw zagranicznych i przedstawiciele społeczeństwa obywatelskiego zauważyli podczas konferencji w Wiedniu w kwietniu 2024 r., Że niewielka liczba potężnych graczy – w tym Wielka Brytania, USA i Izrael – powstrzymuje postępy, będąc częścią kilku wybranych państw w celu sprzeciwu wiążących środków.
Timothy Musa Kabba, minister spraw zagranicznych i współpracy międzynarodowej w Sierra Leone, powiedział wówczas, iż aby multilateralizm działał we współczesnym świecie, istnieje pilna potrzeba zreformowania Rady Bezpieczeństwa ONZ, która jest zdominowana przez jego interesy jej pięciu stałych członków (Chiny, Francja, Rosja, Wielka Brytania i USA).
„Myślę, iż wraz z pojawieniem się nowych rzeczywistości, od zmian klimatu po autonomiczne systemy broni, musimy ponownie spojrzeć na multilateralizm”, powiedział, zauważając, iż wszelkie nowe lub zreformowane instytucje będą musiały być włączone, demokratyczne i dostosowalne.