AI decyduję, kogo zabić! Historia wojen wchodzi w nowy etap

cryps.pl 11 godzin temu
Zdjęcie: AI Terminator


Armia izraelska posiada system rekomendacyjny oparty na AI, który wskazuje… których członków Hamasu warto… zabić!


  • AI dobiera ofiary, które warto zabić.
  • Armia Izraela korzysta z systemu w wojnie z Hamasem.
  • Jak na razie system wyznaczył 38 tys. celów.

AI powie ci, kogo zabić

W podcaście Onetu “Fronty Wojny” dr Leszek Bukowski, absolwent filozofii Uniwersytetu Warszawskiego i specjalista z zakresu sztucznej inteligencji, powiedział, iż wojsko Izraela korzysta z AI w procesie wyznaczania celów do eliminacji. Problem w tym, iż chodzi o żywe cele.

System został nazwany Lawender.

To był algorytm klasy, którą nazywamy systemami rekomendacyjnymi

– wyjaśnił Bukowski.

Jak dokładnie działa? Ekspert wyjaśnił to na przykładzie algorytmu, z którym spotyka się każdy z nas.

Na przykład, o ile robimy zakupy w Amazonie, to on wdraża algorytm, który proponuje nam taki produkt, który z największym prawdopodobieństwem kupimy w następnej kolejności. I z tego, co czytałem na temat systemu Lawender, to armia izraelska (…) zbudowała system rekomendacyjny do likwidowania członków Hamasu

– dodał.

Tak, to AI decyduje, komu należy odebrać w wojnie życie!

Wiadomo, iż AI została “nakarmiona” danymi wywiadu Izraela. Chodzi dokładnie o – i tu kolejna makabryczna niespodzianka! – historię połączeń telefonicznych i rejestr lokalizacji urządzeń mobilnych. Może się więc okazać, iż ktoś zostanie skazany na śmierć, bo rozmawiał z nieodpowiednimi osobami lub znalazł się w nie tym miejscu, w którym powinien.

To człowiek ma ostatnie zdanie

Dr Bukowski podkreślił jednak coś oczywistego: ostateczną decyzję o zamachu na czyjeś życie podejmuje człowiek. Przynajmniej na razie, choć przerażające jest już to, iż AI może mieć już tak duży wpływ na przebieg wojny. Do tego nie trudno wybiec w przyszłość i wyobrazić sobie armię Terminatorów zarządzanych przez sztuczną inteligencję, nad którą ludzie nie będą już mieli tak dużego wpływu – zalecenie AI będą wykonywane na bazie smart kontraktu.

Lawender jak na razie miał wyznaczyć aż 38 tys. potencjalnych żywych celów. Nie wiadomo, ilu z tych ludzi zabito.

Idź do oryginalnego materiału