Przedstawiciele największej opozycyjnej partii politycznej w Wielkiej Brytanii uważają, iż programiści pracujący nad sztuczną inteligencją (AI) powinni być licencjonowani i podlegać regulacjom, podobnie jak branże farmaceutyczna, medyczna i nuklearna.
Lucy Powell, członkini brytyjskiego parlamentu z Partii Pracy, powiedziała dla The Guardian, iż firmy takie jak OpenAI i Google, które stworzyły modele sztucznej inteligencji, powinny „posiadać licencję, aby budować te modele”. Dodała także:
Moim prawdziwym zmartwieniem jest brak regulacji dużych modeli językowych, które można następnie zastosować w różnych narzędziach AI, niezależnie od tego, czy chodzi o to, jak są budowane, zarządzane czy kontrolowane
Powell, rzeczniczka partii, pełniąca funkcję sekretarza stanu do spraw cyfrowych, kultury, mediów i sportu w Partii Pracy, argumentuje, iż regulacja rozwoju pewnych technologii jest lepszym rozwiązaniem niż ich zakaz, tak jak w przypadku zakazu stosowania narzędzi do rozpoznawania twarzy przez Unię Europejską.
Dodała, iż A. I. „może mieć wiele niezamierzonych konsekwencji”, ale jeżeli programiści byliby zmuszeni do jawności w sprawie modeli treningowych sztucznej inteligencji i zbiorów danych, to rząd mógłby złagodzić niektóre ryzyka. „Ta technologia rozwija się tak szybko, iż potrzebuje aktywnego, interwencyjnego podejścia rządu, a nie laissez-faire” (polityka wolnej ręki – przyp. redakcja).
Powell uważa również, iż tak zaawansowana technologia mogłaby mieć duży wpływ na gospodarkę Wielkiej Brytanii, a Partia Pracy rzekomo kończy opracowywać własne polityki dotyczące AI i pokrewnych technologii.
Próby ujarzmienia AI
W przyszłym tygodniu lider Partii Pracy, Keir Starmer, planuje spotkanie z członkami gabinetu partii w biurach Google w Wielkiej Brytanii, aby móc porozmawiać z jego kierownictwem skoncentrowanym na AI. Politycy będą chcieloi porozmawiać na temat możliwych regulacji, którymi można objąć używanie sztucznej inteligencji oraz przedyskutować zagrożenia jakie może nieść za sobą rozwój tej technologii.
Podobnie, Matt Clifford, przewodniczący Advanced Research and Invention Agency – agencji badawczej rządu utworzonej w lutym ubiegłego roku – wystąpił w telewizyjnym programie ostrzegając, iż AI może stanowić zagrożenie dla ludzi już za dwa lata. „Jeśli teraz nie zaczniemy myśleć o regulacji i bezpieczeństwie, to za dwa lata okaże się, iż mamy systemy naprawdę potężne”.
Clifford zaznaczył, iż w tej chwili ludzie mogą wykorzystywać AI do „uruchamiania masowych ataków cybernetycznych”. OpenAI przekazało milion dolarów na wsparcie technologii cyberbezpieczeństwa wspomaganej przez AI w celu przeciwdziałania takim zagrożeniom.