Kluczowi europejscy politycy zgromadzeni na szczycie akcji AI zobowiązali się do wycinania „biurokracji”, aby zapewnić sztuczną inteligencję (AI), aby rozkwitać na całym kontynencie, sygnalizując bliższe dostosowanie się do lekkiego podejścia USA do regulacji.
Paris Summit podąża za inauguracyjnym AI Safety Summit prowadzony przez rząd Wielkiej Brytanii w Bletchley Park w listopadzie 2023 r., a drugi AI Seul Summit w Korei Południowej W maju 2024 r. Oba w dużej mierze koncentrowały się na ryzyku związanym z technologią i nacisk położyli na poprawa bezpieczeństwa poprzez międzynarodową współpracę naukową i badania.
Istnieją jednak obawy niektórych grup społeczeństwa obywatelskiego i praktyków sztucznej inteligencji odejścia od tego skupienia się na bezpieczeństwie podczas ostatniego szczytu AI, ponieważ politycy i dane branżowe pozornie priorytetują szybkość i innowacje w zakresie bezpieczeństwa i regulacji.
Na przykład wiceprezydent USA JD Vance powiedział na szczycie 11 lutego: „Nadmierna regulacja sektora AI może zabić transformacyjny przemysł … Potrzebujemy międzynarodowych systemów regulacyjnych, które sprzyjają tworzeniu technologii AI, a nie dusili ją i dusili i dusili ją i dusili. Potrzebujemy w szczególności naszych europejskich przyjaciół, aby patrzeć na tę nową granicę z optymizmem niż niepokojem. ”
Komentarze Vance’a podążają za prezydentem USA Donald Trump cofnięcie zarządzenia wykonawczego w dniu 20 stycznia 2025 r. Podpisane przez poprzednik Joe Biden, który wymagał od deweloperów AI do podzielenia wyników testów bezpieczeństwa z rządem USA w zakresie systemów, które stanowiły ryzyko dla bezpieczeństwa narodowego, gospodarki lub zdrowia publicznego, co spowodowało, iż skłoniło Obawy dotyczące rozbieżności regulacyjnej między USA, Europą i Chinami.
Vance dodał, iż chociaż podejście lekkie-dotyku nie oznacza wyrzucania wszelkich obaw bezpieczeństwa przez okno: „Focus ma znaczenie i musimy teraz skupić się na możliwości złapania błyskawicy w butelce”.
Przyjęcie bardziej wyrównanego, lekkiego podejścia regulacyjnego zachęcało również dane branżowe, na tej podstawie zwiększyłoby wydajność i innowacje.
Podczas przemówienia wygłoszonego pierwszego dnia szczytu AI, dyrektor generalny Google Sundar Pichai powiedział, iż ważne jest, aby różne systemy regulacyjne zostały wyrównane: „AI nie mogło się rozwijać, jeżeli istnieje fragmentaryczne środowisko regulacyjne, z różnymi zasadami w różnych krajach i różnych krajach i regiony. “
Dodał, iż chociaż historia będzie się dziś spojrzeć jako „początek złotego wieku innowacji”, nie można zagwarantować pozytywnych rezultatów: „Konkurencyjność europejska zależy od wydajności, więc najważniejsze jest przyjęcie napędzania… największe ryzyko może zostać pominięte”.
Pichai wezwał także rządy do inwestowania więcej w ekosystemy innowacji AI, podkreślając szybkie przyjęcie technologii w całej Francji: „Jak tworzymy więcej tych kieszeni w większej liczbie miejsc?”
Podobne nastroje zostały udostępnione przez dyrektora generalnego Openai Sam Altman w OP-ED For Le Monde Opublikowano przed szczytem, który zachęcił europejskich polityków do skupienia się na innowacjach nad regulation: „Jeśli chcemy wzrostu, miejsc pracy i postępu, musimy zezwolić innowatorom na wprowadzanie innowacji, budowniczymi budowlanymi i rozwijającymi się deweloperami”.
Dodał: „W Europie większość rozmowy koncentrowała się na tym, co były prezydent Europejskiego Banku Centralnego Mario Draghi nazwał europejską„ lukę innowacyjną ”ze Stanami Zjednoczonymi i Chinami, które stanowią„ egzystencjalne wyzwanie ”dla przyszłości UE”.
Zarówno francuski prezydent Emmanuel Macron, jak i szef cyfrowy Unii Europejskiej (UE) Henna Virkkunen zdecydowanie wskazały, iż blok uprości jego zasady i wdroży je w sposób przyjazny dla biznesu, aby pomóc AI na skali kontynentu.
„Jest bardzo jasne, iż musimy zorganizować z resztą świata”, powiedział Macron, dodając, iż rząd francuski przyjmie strategię „notre dame”, odnosząc się do tego, jak katedra została odbudowana w ciągu pięciu lat od pożaru w 2019 r.: „My Pokazał resztę świata, iż kiedy zobowiązujemy się do jasnego harmonogramu, możemy dostarczyć… podejście Notre-Dame zostanie przyjęte dla danych danych, w celu uzyskania upoważnienia na rynek, sztucznej inteligencji i atrakcyjności. ”
Virkkunen dodał: „Zgadzam się z branżami na temat faktu, iż teraz musimy również spojrzeć na nasze zasady, iż mamy zbyt duże nakładające się regulacje… wyciąjemy biurokrację i obciążenie administracyjne ze strony naszych branż”.
Po ogłoszeniu, iż Francja ma zainwestować około 109 mld EUR w projekty danych danych i projekty związane z AI w ciągu najbliższych kilku lat, Macron oświadczył, iż Francja jest „z powrotem w wyścigu AI”.
Europejski komisarz Ursula von der Leyen odrzucił jednak pomysł, iż Europa pozostała w jakikolwiek sposób: „Rasa AI jest daleka od końca. Prawda jest taka, iż jesteśmy dopiero na początku. Granica ciągle się porusza, a globalne przywództwo wciąż jest do zdobycia ”, dodając, iż własne„ charakterystyczne podejście ”Europy powinno koncentrować się na współpracy, open source.
Zakończyła swoją mowę przez Ogłoszenie dodatkowych 200 mld EUR dla inwestycji UE AI20 mld EUR, których wskazała, zostanie wykorzystana na gigafactories, aby pomóc w szkoleniu bardzo dużych modeli: „Zapewniamy infrastrukturę dla dużej mocy obliczeniowej. Naukowcy, przedsiębiorcy i inwestorzy będą mogli połączyć siły. ”
Jednak dodała: „W tym samym czasie wiem, iż musimy to ułatwić i musimy wyciąć biurokrację – i zrobimy to”.
Mamy nadzieję, iż światowi przywódcy uczestniczący w szczycie podpiszą wspólną, niewiążącą deklarację-którego projekt podkreśla znaczenie integracyjnych, zrównoważonych podejść do sztucznej inteligencji, a także ryzyko koncentracji rynku wokół technologii-tak było Zgłoszone iż USA i Wielka Brytania raczej nie podpisają.
„Niepokojąca zmiana”
Niektórzy obawiają się, iż retoryka wychodząca ze szczytu wskazuje niepokojącą zmianę w globalnym krajobrazie AI.
Kasia Borowska, dyrektor zarządzający i współzałożycielka Brainpool AI-globalna sieć ekspertów 500 sztucznej inteligencji i uczenia maszynowego (ML), którzy budują niestandardowe narzędzia AI dla firm-powiedziała, iż mowa Vance’a w szczególności oznacza, iż rządy „priorytetują innowacje przed regulacją”, Dodając poważne pytania dotyczące bezpieczeństwa dalszego rozwoju AI.
„Jeśli spieszymy się, aby wygrać„ wyścig zbrojeń AI ”bez ustalania solidnych mechanizmów kontrolnych istniejących technologii AI, będziemy źle przygotowani do zarządzania AGI [artificial general intelligence]- powiedziała. „Niezależnie od tego, kto najpierw osiągnie AGI, podejście wyścigowe, które priorytetowo traktuje szybkość bezpieczeństwa, może prowadzić do katastrofalnych konsekwencji dla wszystkich. Musimy teraz wdrożyć odpowiednie zabezpieczenia, zanim dotrzemy do AGI, kiedy może być za późno. ”
Chris Williams, partner globalnej kancelarii prawnej Clyde & Co, dodał, iż chociaż pozostaje ogromny szum wokół tego, co może osiągnąć AI, skupienie wyraźnie odejdzie od równoważenia bezpieczeństwa i innowacji AI.
„Narracja„ bezpieczeństwa ”wokół sztucznej inteligencji, która kiedyś była powszechna wśród osób w rządzie, wyraźnie ustąpiła miejsca na robieniu tego, co jest konieczne, aby wspierać innowacje, a dobrym przykładem tego jest Wielka Brytania, której celem jest stać się An” AI Superpower ”. Bez względu na jurysdykcję, niezależnie od tego, czy jest to Wielka Brytania, czy USA, potrzeba tworzenia zabezpieczeń ustawodawczych jest postrzegana jako „miło mieć”, a nie niezbędne kamienie węgielne do rozwoju AI w sposób bezpieczny, odpowiedzialny i etyczny ” – powiedział.
„Na tym etapie odpowiedź regulacyjna może wymagać bardziej płynnego i mniej nakazowego, aby uniknąć duszących innowacji, ale prawdopodobnie musiałaby uwzględnić długoterminowe spojrzenie na stopniowe przechodzenie kontroli i sald, gdy AI staje się bardziej zaawansowane”.
Komentując projekt zwalniania, Gaia Marcus, dyrektor ADA Lovelace Institute, powiedziała, iż rządy muszą ponownie skupić się na bezpieczeństwie technologii, które zdominowały dwa poprzednie międzynarodowe szczyty AI.
„W oparciu o początkowy projekt, obawiamy się, iż rusztowanie dostarczone przez oficjalną deklarację na szczycie nie jest wystarczająco silna”, powiedział, dodając, iż chociaż podkreśla „powszechny konsensus” w sprawie kluczowych ryzyka strukturalnego, takiego jak koncentracja rynku AI i wyzwania związane z zrównoważonym rozwojem,, „Nie opiera się na misji uczynienia AI bezpiecznym i godnym zaufania oraz zobowiązaniami bezpieczeństwa poprzednich szczytów. Nie ma narzędzi, które zapewniają odpowiedzialne firmy technologiczne za szkody. Istnieje coraz większa różnica między oczekiwaniami publicznymi dotyczącymi bezpieczeństwa a działaniami rządowymi w celu regulowania.
„Nie będzie większej bariery dla transformacyjnego potencjału sztucznej inteligencji niż porażka zaufania publicznego … podobnie myślący kraje, które uznają koszty niezadanionego ryzyka, muszą znaleźć inne fora, aby kontynuować budowanie programu bezpieczeństwa”.