Nick Clegg, prezes ds. globalnych Meta, właściciela Facebooka, stwierdził, iż obecne modele sztucznej inteligencji są „dość głupie”, bagatelizując szeroko nagłaśniane ryzyko związane z tą technologią. Według byłego wicepremiera Wielkiej Brytanii szum wokół AI “wyprzedził nieco samą technologię”.
Zagrożenia związane z AI są mocno przesadzone?
W ostatnich miesiącach sporo mówiło się o ryzyku i potencjalnych negatywnych skutkach dla społeczeństwa oraz konkretnych grup zawodowych, z jakimi wiąże się tak intensywny rozwój sztucznej inteligencji. Nick Clegg zdaje się jednak podchodzić do tematu zgoła inaczej, ponieważ twierdzi, iż poziom obecnych modeli AI jest dość daleki od krytycznego etapu, w którym sztuczna inteligencja rozwija autonomię i myśli samodzielnie.
– Pod wieloma względami są one dość głupie – powiedział w programie BBC Today. Wypowiedzi tej udzielił po ogłoszeniu przez Metę nowego modelu językowego – Llama 2. Model ten ma być darmowy dla wszystkich i udostępniony w formie open source. – Duże modele językowe – platformy, które zasilają chatboty, takie jak ChatGPT – zasadniczo łączą kropki w ogromnych zbiorach danych tekstu i odgadują następne słowo w sekwencji – powiedział.
Prezes ds. globalnych Meta dodał, iż pochodzące z ostatnich miesięcy ostrzeżenia o zagrożeniu, wydane przez niektórych ekspertów AI, mogą co najwyżej odnosić się do systemów, które jeszcze nie istnieją. Udostępnienie Llamy 2 firmom komercyjnym i badaczom odbiło się dość sporym echem w społeczności technologicznej i wzbudziło już pierwsze kontrowersje. Decyzję podjęto najprawdopodobniej na skutek wydarzeń towarzyszących premierze wcześniejszej generacji modelu językowego. Wyciekła ona bowiem do sieci w ciągu tygodnia od premiery.
Open-source a etyczne korzystanie z AI
Nick Clegg zdaje się zupełnie nie zauważać potencjalnych zagrożeń związanych z samym AI, co pokrywa się również z udostępnieniem Llamy 2 w formie projektu open-source. Praca różnych autorów nad jednym takim projektem może bowiem przynieść różne, nie zawsze zgodne z etyką efekty. Zupełnie inaczej wygląda kwestia Googlowskiego LLM, wykorzystywanego do zasilania chatbota Bart, które nie może być wykorzystywane w celach komercyjnych i badawczych, w przeciwieństwie do tworu Mety, lub też popularnego ChatGPT-4.
Premiera Llamy 2 miała miejsce tydzień po tym, jak amerykańska komiczka Sarah Silverman ogłosiła, iż pozywa zarówno OpenAI, jak i Metę. Silverman twierdzi, iż podczas szkolenia systemów sztucznej inteligencji tych firm jej prawa autorskie zostały naruszone.
Kolejne kontrowersje związane z Llamą wzbudziła Wendy Hall, profesor informatyki na Uniwersytecie w Southampton. W rozmowie z BBS powiedziała, iż zezwolenie na otwarte źródła sztucznej inteligencji budzi obawy dotyczące prawodawstwa.
Regulacja otwartego oprogramowania
– Moim zmartwieniem związanym z otwartym oprogramowaniem jest to, w jaki sposób je regulujemy – powiedziała. – Czy można zaufać branży w kwestii samoregulacji, czy też będzie ona współpracować z rządami w celu regulacji? To trochę tak, jakby dać ludziom szablon do budowy bomby atomowej – dodała Hall.
Clegg skomentował wypowiedź profesor i określił ją mianem hiperboli, twierdząc, iż system Meta o otwartym kodzie źródłowym nie może generować obrazów, nie mówiąc już o budowaniu broni biologicznej. Zgodził się ze stwierdzeniem, iż sztuczna inteligencja musi być regulowana.
– Modele są już cały czas udostępniane na zasadach open source – powiedział. Więc tak naprawdę nie chodzi o to, czy otwarte pozyskiwanie tych dużych modeli językowych będzie miało miejsce, pytanie brzmi, jak można to zrobić tak odpowiedzialnie i bezpiecznie, jak to tylko możliwe – dodał.
To, kto rzeczywiście ma rację w tej materii, pokaże oczywiście czas i dalsze postanowienia w kwestii rozwoju AI.
Źródło: bbc.com. Zdjęcie główne artykułu pochodzi z unsplash.com.