Sztuczna inteligencja jednak pomoże w rozwoju broni. Google zmienia zasady

ittechblog.pl 6 dni temu

Rozwój sztucznej inteligencji przyniósł obawy z wykorzystaniem jej możliwości do tworzenia morderczych środków. Google obiecywało, iż powstrzyma się od stosowania sztucznej inteligencji w broni wojskowej, jednak teraz już tego nie robi. Co się zmieniło?

Z systemami sztucznej inteligencji wiążą się pewne ryzyka, zwłaszcza jeżeli chodzi o ich potencjał do pogłębiania dezinformacji, naruszeń prywatności i oczywiście wojen. W związku liderzy na rynku rozwoju SI pracują, aby zapewnić wszystkim bezpieczeństwo, czyli nieużywanie jej do tworzenia broni oraz innych środków mogących zaszkodzić.

Google zmienia reguły gry

Google co roku od sześciu lat publikuje “Responsible AI Progress Report”. Właśnie ukazała się jego edycja na bieżący rok. W poście na blogu zapowiadającym jego publikację, technologiczny gigant wspomina, iż zaktualizował “Frontier Safety Framework”. Jest to zestaw protokołów opracowanych przez Google DeepMind w celu proaktywnego identyfikowania i łagodzenia potencjalnych zagrożeń związanych z zaawansowanymi modelami SI. Zaktualizowane ramy obejmują m.in. zalecenia dotyczące zwiększonego bezpieczeństwa (pomoc w określeniu obszarów, w których należy podjąć największe wysiłki w celu ograniczenia ryzyka eksfiltracji), procedury łagodzenia skutków wdrożenia (czyli zapobieganie niewłaściwemu wykorzystaniu kluczowych możliwości we wdrażanych systemach).

Google powtórzyło swoje przekonanie, iż demokracje powinny przewodzić w rozwoju AI, kierując się wartościami takimi, jak “wolność, równość i poszanowanie praw człowieka”. Ponadto firma poinformowała o aktualizacji swoich zasad SI, które zostały publicznie opublikowane po raz pierwszy w 2018 roku. I co interesujące – nie ma tam żadnej wzmianki o wykorzystaniu sztucznej inteligencji w rozwoju broni. Jak dotąd był tam zapis, iż “broń lub inne technologie, których głównym celem lub zastosowaniem jest powodowanie lub bezpośrednie ułatwianie obrażeń ludziom” nie będą przez Google projektowane ani wdrażane.

Czytaj też: Jak wyłączyć podgląd sztucznej inteligencji w Wyszukiwarce Google?

Zaktualizowane zasady będą się koncentrować na trzech podstawowych założeniach:

  • odważna innowacja – SI ma wspierać, wspierać i inspirować ludzi w niemal każdej dziedzinie ludzkiej działalności, napędzać postęp gospodarczy i poprawiać jakość życia, umożliwiać przełomy naukowe i pomagać w rozwiązywaniu największych wyzwań ludzkości;
  • odpowiedzialny rozwój i wdrażanie – sztuczna inteligencja, jako wciąż rozwijająca się technologia transformacyjna, wiąże się z nowymi trudnościami i zagrożeniami, uważamy za konieczne odpowiedzialne podejście do sztucznej inteligencji w całym cyklu rozwoju i wdrażania – od projektowania, przez testowanie, po wdrożenie i iterację – ucząc się w miarę postępu i ewolucji zastosowań sztucznej inteligencji;
  • wspólny postęp – uczymy się od innych i tworzymy technologię, która pozwala innym w pozytywny sposób wykorzystywać sztuczną inteligencję.

W zeszłym roku pracownicy Google DeepMind podpisali list wzywający giganta technologicznego do zakończenia powiązań z organizacjami wojskowymi. W liście powołano się na zasady SI firmy, argumentując, iż jej zaangażowanie w produkcję wojskową i broni było sprzeczne i naruszało jej w tej chwili odwołaną obietnicę nieużywania SI w broni. Czyżby z nowym prezydentem pacyfistyczne podejście uległo zmianie?

Idź do oryginalnego materiału