
Premier Szwecji Ulf Kristersson zdradził, iż sztuczna inteligencja pomaga mu w pracy. Informacja wzbudziła za Bałtykiem debatę o tym, jak daleko technologia powinna wchodzić w proces rządzenia krajem.
Czasem aż trudno uwierzyć, iż choćby najbardziej wpływowi politycy w Europie żyją w wielu aspektach tak jak zwykli obywatele. Bywa, iż marzą o spokojnym weekendzie przy grillu z kiełbasą, sami wieszają półkę w przedpokoju, kupują nowe spodnie, gdy w starych zrobi się dziura.
A czasem, jak się okazuje, korzystają z ChataGPT czy innych narzędzi AI, żeby upewnić się w swoich decyzjach. Tak właśnie pracuje premier Szwecji Ulf Kristersson, czym wzbudza niemałe kontrowersje.
„Nie głosowaliśmy na ChataGPT”. Szwedzi są wkurzeni na premiera
W rozmowie z dziennikiem Dagens Industri, premier Szwecji Ulf Kristersson przyznał, iż regularnie konsultuje się z generatywną sztuczną inteligencją – zarówno z popularnym ChatGPT, jak i francuskim serwisem LeChat.
Używam tego dość często. jeżeli nie do niczego innego, to dla ‘second opinion’. Co zrobili inni? A może powinniśmy myśleć zupełnie odwrotnie? Tego typu pytania
– powiedział szef szwedzkiego rządu.Premier dodał, z AI korzystają również jego współpracownicy.
Wypowiedzi te gwałtownie wywołały reakcję ekspertów oraz mediów. Dziennik Aftonbladet w swoim komentarzu oskarżył premiera o to, iż „dał się porwać oligarchicznej psychozie na punkcie AI”. Krytyczne stanowisko zajęła także prof. Simone Fischer-Hübner, badaczka informatyki z Uniwersytetu w Karlstad. Jej zdaniem osoby korzystające z narzędzi AI w pracy „muszą być bardzo ostrożne”, bo – jak przypomina – modele językowe mogą halucynować, a dane wprowadzane do systemu mogą zostać wykorzystane w przyszłych wersjach usługi.
To problem, jeżeli choćby przy zwykłym streszczeniu tekstu wprowadzamy [do czatbota AI] informacje wrażliwe
– zaznaczyła w rozmowie z Aftonbladet.Sam Ulf Kristersson, za pośrednictwem rzecznika prasowego Toma Samuelssona, zapewnia, iż nie przesyła do AI treści o znaczeniu bezpieczeństwa państwa, porównując swoje użycie czatbota do ścianki treningowej do odbijania piłki.
Jednak według prof. Virginii Dignum z Uniwersytetu w Umeå, ryzyko nie polega jedynie na błędnych odpowiedziach, ale także na rosnącym zaufaniu do technologii, która nie jest w stanie udzielać znaczących opinii politycznych.
Im częściej będzie z tego korzystał, choćby do prostych rzeczy, tym większe ryzyko nadmiernego polegania na systemie. To równia pochyła. Musimy wymagać, aby niezawodność była zagwarantowana. Nie głosowaliśmy na ChatGPT
– ostrzegła badaczka w rozmowie z Dagens Nyheter.Szwedzka debata wokół AI w polityce trwa, a przypadek Kristerssona pokazuje, iż pytanie „czy można ufać sztucznej inteligencji w procesach decyzyjnych państwa?” przestaje być czysto teoretyczne – i dotyczy już najwyższych szczebli władzy.
Więcej na temat sztucznej inteligencji:
Zdjęcie główne: Thaspol Sangsee / Shutterstock