Największe w historii międzynarodowe badanie dotyczące jakości informacji generowanych przez asystentów AI wykazało, iż sztuczna inteligencja przekłamuje treści dziennikarskie w aż 45% przypadków. Projekt, zorganizowany przez Europejską Unię Nadawców (EBU) i prowadzony przez BBC, objął 22 publiczne media z 18 krajów, analizujące odpowiedzi czterech głównych narzędzi AI – ChatGPT, Copilot, Gemini i Perplexity.
Największe badanie wiarygodności AI w historii
Eksperci z EBU przeprowadzili analizę ponad 3 000 odpowiedzi generowanych przez czterech popularnych asystentów. Oceniano m.in. dokładność, źródła, rozróżnienie opinii od faktów i kontekst przekazu. Wyniki są alarmujące, bo niemal połowa odpowiedzi zawierała poważne błędy.
Według raportu:
- 45% wszystkich odpowiedzi miało co najmniej jeden istotny problem,
- 31% odpowiedzi zawierało poważne błędy dotyczące źródeł, np. brak lub błędne przypisanie autorstwa,
- 20% odpowiedzi zawierało nieprawdziwe lub nieaktualne informacje,
Gemini wypadł najgorzej, wykazując problemy w 76% przypadków – głównie z powodu nieprawidłowego cytowania źródeł.
W porównaniu z wcześniejszym badaniem BBC z lutego 2025 roku widać niewielką poprawę, ale poziom błędów wciąż pozostaje wysoki.
„To problem systemowy, nie jednostkowy”
Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU, nie ma wątpliwości:
„Te błędy nie są incydentalne. Są systemowe, ponadnarodowe i wielojęzyczne. To realne zagrożenie dla zaufania społecznego. Kiedy ludzie nie wiedzą, komu ufać, zaczynają nie ufać nikomu, co zagraża samej demokracji.”
Peter Archer, dyrektor ds. programów generatywnej AI w BBC, dodaje:
„Sztuczna inteligencja daje mediom ogromne możliwości, ale odbiorcy muszą mieć pewność, iż informacje są wiarygodne. Pomimo pewnych postępów widać, iż wciąż istnieją poważne problemy z tymi narzędziami. Chcemy współpracować z firmami technologicznymi, by wspólnie poprawić jakość informacji dla społeczeństwa.”
Zaufanie użytkowników kontra rzeczywistość
Z badań wynika, iż 7% wszystkich użytkowników internetu czerpie dziś wiadomości bezpośrednio z asystentów AI, a w grupie poniżej 25 lat odsetek ten sięga już 15%. Jednocześnie wielu odbiorców zakłada, iż podawane przez AI streszczenia są dokładne (w Wielkiej Brytanii ufa im ponad jedna trzecia dorosłych, a wśród osób poniżej 35 lat prawie połowa).
Problem polega na tym, iż gdy asystent popełnia błąd, użytkownicy często obwiniają nie tylko twórców AI, ale także same redakcje. W efekcie błędy generatywnej AI mogą prowadzić do spadku zaufania do mediów publicznych i dziennikarstwa w ogóle.
Toolkit dla twórców AI i apel do regulatorów
Wraz z raportem EBU i BBC opublikowały News Integrity in AI Assistants Toolkit – zestaw narzędzi mających pomóc twórcom modeli AI poprawić jakość odpowiedzi i zwiększyć świadomość użytkowników. Dokument odpowiada na dwa najważniejsze pytania: „Co stanowi dobrą odpowiedź asystenta AI na temat wiadomości?” oraz „Jakie błędy należy wyeliminować?”.
EBU apeluje również do regulatorów unijnych i krajowych o egzekwowanie przepisów dotyczących integralności informacji, pluralizmu mediów i usług cyfrowych. Organizacja podkreśla, iż niezależny monitoring jakości informacji generowanych przez AI powinien być prowadzony w sposób ciągły, ze względu na szybki rozwój technologii.
Globalny wymiar problemu
W badaniu wzięły udział m.in. BBC (Wielka Brytania), ARD i ZDF (Niemcy), YLE (Finlandia), Radio France, RAI (Włochy), RTVE (Hiszpania), SRF (Szwajcaria), NRK (Norwegia), CBC/Radio-Canada (Kanada) oraz NPR (USA). Tak szeroki udział dowodzi, iż problem wiarygodności AI nie dotyczy konkretnego języka, kraju ani kultury medialnej i jest to zjawisko globalne.
Jak podsumowano w raporcie: sztuczna inteligencja staje się dla milionów użytkowników podstawowym źródłem informacji, ale bez rzetelnego nadzoru i transparentności może pogłębiać dezinformację, zamiast jej przeciwdziałać.









