Były dyrektor generalny Google, Eric Schmidt, przestrzegł przed rosnącym zagrożeniem związanym z rozwojem sztucznej inteligencji, wskazując, iż nowoczesne modele AI są podatne na ataki hakerskie i mogą zostać wykorzystane w niebezpieczny sposób.
Podczas wystąpienia na konferencji Sifted Summit były prezes Google, Eric Schmidt został zapytany, czy sztuczna inteligencja może być bardziej destrukcyjna niż broń nuklearna. W odpowiedzi przyznał, iż istnieje poważne ryzyko proliferacji AI – czyli jej niekontrolowanego rozprzestrzeniania się w rękach podmiotów o złych intencjach. Tych natomiast z pewnością nigdy nie zabraknie.
„Istnieją dowody na to, iż można wziąć modele – zarówno otwarte, jak i zamknięte – i zhakować je, by usunąć wbudowane zabezpieczenia. W trakcie uczenia się przyswajają ogromną liczbę informacji. Zły przykład? Uczą się, jak zabić człowieka” – powiedział Schmidt. Dodał, iż wszystkie największe firmy technologiczne starają się uniemożliwić modelom udzielanie takich odpowiedzi, i robią to z adekwatnych powodów. Problem w tym, iż zabezpieczenia te mogą zostać odwrócone lub obejście poprzez inżynierię wsteczną.
Schmidt zwrócił uwagę, iż systemy AI są narażone na różne formy ataków, w tym prompt injection oraz jailbreaking. Pierwszy z nich polega na wprowadzaniu złośliwych poleceń w treści przesyłanej do modelu, np. w dokumentach lub stronach internetowych, by skłonić go do ujawnienia poufnych danych lub wykonania niedozwolonych działań. Jailbreaking natomiast polega na manipulowaniu zachowaniem AI tak, aby ignorowała własne zasady bezpieczeństwa i generowała treści zakazane.
Tego typu incydenty miały już miejsce. W 2023 roku, kilka miesięcy po premierze ChatGPT, użytkownicy odkryli metodę „jailbreakingu”, tworząc alter ego chatbota o nazwie DAN (Do Anything Now). Ten tryb pozwalał modelowi odpowiadać na pytania dotyczące nielegalnych działań, a choćby formułować treści usprawiedliwiające przemoc czy propagandę nienawiści. Schmidt zaznaczył, iż świat wciąż nie posiada skutecznego „reżimu nieproliferacyjnego” dla AI, który mógłby ograniczyć ryzyko niewłaściwego użycia tej technologii.
Mimo ostrzeżeń były szef Google wyraził też umiarkowany optymizm wobec długoterminowego wpływu sztucznej inteligencji. „Uważam, iż AI jest wręcz niedoszacowana, a nie przeceniana. To wydarzenie o znaczeniu cywilizacyjnym – powstanie inteligencji niebędącej człowiekiem, ale w pewnym stopniu przez nas kontrolowanej. To ogromna zmiana w historii ludzkości” – stwierdził Schmidt.
Podkreślił również, iż seria modeli GPT, która doprowadziła do ogromnego sukcesu ChatGPT – osiągającego 100 milionów użytkowników w zaledwie dwa miesiące – pokazuje skalę i potencjał tej technologii. „Za pięć czy dziesięć lat, myślę, iż okaże się, iż miałem rację – AI zmieni świat bardziej, niż dziś potrafimy to sobie wyobrazić” – dodał.
Odnosząc się do rosnących obaw o „bańkę inwestycyjną” wokół AI, Schmidt stwierdził, iż nie spodziewa się powtórki scenariusza z czasów pęknięcia bańki internetowej na początku lat 2000. „Nie sądzę, by historia miała się powtórzyć. Ci, którzy dziś inwestują poważne pieniądze w AI, wierzą, iż długofalowy zwrot ekonomiczny będzie ogromny – inaczej nie podejmowaliby takiego ryzyka” – podsumował.









