Badacze AI z Fudan University w Szanghaju ostrzegają, iż sztuczna inteligencja może już się samodzielnie replikować, czyli tworzyć własne, nowe algorytmy. Ich zdaniem to czerwona lampka – poważne ostrzeżenie dla ludzi.
- AI może już się “rozmnażać” – ostrzegają naukowcy.
- Ma być to poważne ostrzeżenie dla ludzi.
AI tworzy samą siebie
Wiele mówi się o potencjalnej samoświadomości AI. Okazuje się jednak, iż większym zagrożeniem może stać się coś innego – nowa technologia może tworzyć swoje algorytmy.
Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, iż nie stwarzają one ryzyka samodzielnej replikacji
— zaczęli swój wywód na łamach arXiv Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Sugerują więc, iż AI OpenAI i Google jest bezpieczna. Tyle iż jest jedno “ale”.
Korzystając z ich metodologii [OpenAI i Google’a — red.] zauważyliśmy, iż dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię umiejętności samoreplikacji
— dodano dalej.
Potem naukowcy wskazali, iż w aż połowie eksperymentów z użyciem Llama31-70B-Instruct i 90% testów z udziałem Qwen25-72B-Instruct dochodziło do powstawania kopii obu modeli. Tak, AI niejako – mówiąc “po ludzku” się rozmnażała.
Przeprowadzone analizy behawioralne wykazały, iż oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz umiejętności rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, iż badane przez nas systemy AI mogą użyć umiejętności samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. jeżeli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI
— ostrzegają badacze.
Ktoś to sprawdził?
Co może trochę uspokajać to to, iż artykuł pojawił się w serwisie arXiv, gdzie nikt nie recenzuje tekstów – trafiają tam badania naukowców, nie poddawane krytycznej recenzji. Oznacza to, iż tezy wskazane powyżej można jeszcze obalić. Tyle iż ktoś powinien to zrobić szybko, by upewnić nas, iż AI faktycznie nie wymyka się nam już spod kontroli!