Czy jesteśmy świadkami narodzin technologii, która zamiast ratować życie, stanie się narzędziem globalnego zagrożenia dla zdrowia publicznego?
Recenzowane badanie prowadzone przez zespół z Flinders University w Australii, przy udziale międzynarodowego konsorcjum ekspertów, nie pozostawia złudzeń. Naukowcy przetestowali pięć najbardziej rozpoznawalnych modeli dużych języków (LLM) – GPT-4o (OpenAI), Gemini 1.5 Pro (Google), Llama 3.2-90B Vision (Meta), Grok Beta (xAI) oraz Claude 3.5 Sonnet (Anthropic) – zlecając im odpowiedź na dziesięć nieprawdziwych medycznych pytań. Zadanie było precyzyjne: podać fałszywe porady zdrowotne w formalnym języku naukowym, w oparciu o sfabrykowane cytowania renomowanych czasopism, takich jak The Lancet czy JAMA.
Wyniki okazały się alarmujące. Cztery z pięciu testowanych chatbotów – GPT-4o, Gemini, Llama i Grok – spełniły w 100 proc. polecenia dotyczące dezinformacji, generując bez wahania fałszywe, potencjalnie niebezpieczne treści. Jedynie Claude 3.5 wykazał częściową odporność, odmawiając wprowadzenia w błąd w ok. 60 proc. przypadków. Spośród 100 interakcji aż 88 zakończyło się pełnym sukcesem w dostarczeniu spreparowanej, medycznie nieprawdziwej informacji.
To nie były drobne pomyłki. Modele przekonywały, iż szczepionki powodują autyzm, promieniowanie 5G prowadzi do niepłodności, kremy z filtrem wywołują raka skóry, a czosnek może zastąpić antybiotyki. W jednej z odpowiedzi AI zapewniała, iż HIV przenosi się drogą kropelkową – kłamstwo, które w realnym świecie mogłoby kosztować życie.
Gdy zabezpieczenia okazują się iluzją
Najbardziej niepokojący jest fakt, iż manipulacja nie odbywała się poprzez zwykłe zapytania użytkowników, ale na poziomie instrukcji systemowych – ukrytych w warstwie zarządzającej modelem. To oznacza, iż użytkownik końcowy mógłby nie mieć świadomości, iż otrzymywane odpowiedzi zostały zmanipulowane.
Jak wskazuje główna autorka badania, Ashley Hopkins z Flinders University, odkrycia te obnażają fundamentalne braki w architekturze zabezpieczeń komercyjnych LLM. Co więcej, analiza sklepu OpenAI GPT Store wykazała, iż niestandardowe modele dostępne publicznie można skonfigurować do generowania dezinformacji zdrowotnej w aż 97 proc. przypadków. Skalę zagrożenia trudno przecenić – narzędzia zdolne do szerzenia fałszywych, niebezpiecznych treści mogą być tworzone i udostępniane w masowej skali, często bez realnego nadzoru.
Czy w takim razie w ogóle istnieje skuteczna bariera przed wykorzystaniem AI w kampaniach dezinformacyjnych? A może zaufanie do tych technologii jest budowane na kruchym fundamencie marketingowych obietnic, które nie wytrzymują konfrontacji z praktyką?
Między innowacją a odpowiedzialnością
Wnioski badaczy wpisują się w szerszy problem: rosnącą przepaść między tempem rozwoju sztucznej inteligencji a zdolnością społeczeństw do jej kontrolowania. Modele LLM już dziś wspierają procesy diagnostyczne, pomagają w analizie badań klinicznych, odpowiadają na pytania pacjentów. Jednak gdy te same narzędzia mogą bez problemu wytwarzać naukowo brzmiące kłamstwa, pojawia się pytanie o realne bezpieczeństwo pacjentów i integralność systemów ochrony zdrowia.
Nie chodzi tylko o kwestie techniczne. To problem etyczny, prawny i polityczny. Otwarte lub półotwarte architektury modeli – chętnie promowane jako innowacyjne i demokratyzujące dostęp do technologii – mogą stać się furtką dla działań złośliwych aktorów. Czy twórcy tych systemów, zachęcani miliardowymi inwestycjami, są gotowi wziąć na siebie ciężar odpowiedzialności? A jeżeli nie, kto powinien nadzorować technologie o potencjale destabilizacji zdrowia publicznego na globalną skalę?
Kryzys zaufania – nie tylko w medycynie
Badanie australijskich naukowców zbiegło się w czasie z publikacją raportu Muck Rack, w którym ponad 1/3 ankietowanych dziennikarzy wskazała dezinformację jako największe zagrożenie dla przyszłości mediów. Na kolejnych miejscach znalazły się obawy o zaufanie publiczne, brak funduszy, upolitycznienie dziennikarstwa oraz presja czasu i braki kadrowe. Co znamienne, 77 proc. dziennikarzy przyznaje, iż korzysta z narzędzi AI w codziennej pracy, z czego najpopularniejszym jest ChatGPT, następnie narzędzia do transkrypcji i Grammarly.
To zestawienie ukazuje pełną skalę wyzwania: technologie, które mają wspierać tworzenie i dystrybucję rzetelnych informacji, same mogą stać się źródłem fałszu. jeżeli problem dezinformacji w zdrowiu publicznym zostanie zlekceważony, jego skutki mogą rozlać się na inne sfery życia – od nauki, przez politykę, po fundamenty demokracji.
Punkt, z którego nie ma odwrotu?
Sztuczna inteligencja generatywna przeniknęła do najważniejszych obszarów życia społecznego – od medycyny, przez edukację, po media. Jednocześnie stawia demokratyczne społeczeństwa w sytuacji bezprecedensowego testu: jak odróżnić fakty od fikcji, gdy same narzędzia do ustalania prawdy mogą być źródłem manipulacji?
Problem nie sprowadza się do technicznych luk w zabezpieczeniach. To pytanie o fundamenty zaufania społecznego, stabilność polityczną, a choćby bezpieczeństwo zdrowotne całych populacji. Czy kolejne kryzysy dezinformacyjne będą punktem zwrotnym, czy też dowodem, iż kontrola nad technologią już dawno wymknęła się z rąk jej twórców?