Microsoft: sztuczna inteligencja potrafi ominąć zabezpieczenia i stworzyć biologiczne zagrożenia „zero-day”

imagazine.pl 1 dzień temu

Zespół naukowców z Microsoftu, pod kierownictwem Erica Horvitza, ogłosił, iż wykorzystał sztuczną inteligencję do odkrycia luki typu „zero-day” w systemach bioasekuracji. Brzmi jak nudny naukowy news? Czytajcie dalej, bo informacje mrożą krew w żyłach.

Jak informuje czasopismo „Science”, badaczom udało się znaleźć nieznaną dotąd metodę obejścia zabezpieczeń, które mają uniemożliwiać zamawianie sekwencji DNA do tworzenia śmiertelnych patogenów.

Eksperyment Microsoftu, określony jako test „red-teaming”, skupił się na generatywnych modelach AI, które potrafią projektować nowe struktury białek – technologii wykorzystywanej m.in. do tworzenia leków. Problem polega na tym, iż narzędzia te mają charakter „podwójnego zastosowania” i mogą być użyte zarówno w celach pożytecznych, jak i szkodliwych. Naukowcy użyli kilku modeli AI, w tym własnego o nazwie EvoDiff, aby przeprojektować znane toksyny w taki sposób, by ich nowa struktura mogła oszukać oprogramowanie skanujące, ale zachowała ich niebezpieczną naturę: toksyczność.

Systemem, który zaatakowano, było oprogramowanie do kontroli biologicznej (tzw. kontroli bioasekuracji). Firmy komercyjnie syntetyzujące DNA używają go do sprawdzania, czy zamówione sekwencje genetyczne nie odpowiadają znanym toksynom lub patogenom. Badacze podkreślają, iż cały eksperyment miał charakter cyfrowy i na żadnym etapie nie wyprodukowano fizycznie żadnych niebezpiecznych białek, aby uniknąć posądzenia o rozwijanie broni biologicznej.

Zanim opublikowano wyniki, Microsoft zaalarmował rząd USA oraz producentów oprogramowania, którzy wprowadzili już odpowiednie poprawki w swoich systemach. Mimo to, jak przyznają autorzy, „łatka jest niekompletna”, a niektóre cząsteczki zaprojektowane przez AI wciąż mogą umknąć detekcji. Adam Clore, współautor raportu i dyrektor w Integrated DNA Technologies, dużej firmie produkującej DNA, określił obecną sytuację jako „wyścig zbrojeń”.

Odkrycie wywołało debatę w środowisku naukowym. Część ekspertów, jak Dean Ball z think tanku Foundation for American Innovation, uważa, iż incydent dowodzi pilnej potrzeby wzmocnienia procedur skanowania. Inni, jak Michael Cohen z Uniwersytetu Kalifornijskiego w Berkeley, są sceptyczni i twierdzą, iż zabezpieczenia powinny być wbudowane w same modele AI, a nie w systemy kontroli zamówień DNA, które zawsze będzie można jakoś oszukać.

Dysk Google z nową bronią przeciw ransomware. AI wykryje atak i pomoże odzyskać pliki

Jeśli artykuł Microsoft: sztuczna inteligencja potrafi ominąć zabezpieczenia i stworzyć biologiczne zagrożenia „zero-day” nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału