Newsy z chatbota? Większość odpowiada: nie, dziękuję

homodigital.pl 5 miesięcy temu

Czy świat jest gotowy na newsy z chatbota? Nic na to nie wskazuje. Większość z nas nie chce choćby newsów produkowanych przez ludzi z pomocą sztucznej inteligencji. Newsy generowane przez AI — ale pod nadzorem ludzi — są akceptowalne tylko dla co piątego z nas. Newsów z chatbota bez nadzoru człowieka nie chce praktycznie nikt!

Według badania przeprowadzonego przez Reuters Institute for the Study of Journalism na 28 rynkach medialnych tylko 36% z nas czuje się komfortowo z odbiorem newsów generowanych przez człowieka z użyciem AI, a tylko 19% z odbiorem newsów generowanych przez sztuczną inteligencję pod nadzorem człowieka. Według raportu pełna automatyzacja generowania newsów jest nie do zaakceptowania.

Brak zaufania do sztucznej inteligencji jest szczególnie widoczny wśród osób, które kilka o niej wiedzą. Wśród nich zaufanie wobec newsów wytworzonych przez człowieka z pomocą sztucznej inteligencji spada do 30%, a wobec newsów generowanych przez sztuczną inteligencję do zaledwie 13%. Naszym zdaniem istotną rolę odgrywa obawa przed nieznanym, między innymi przed możliwościami sztucznej inteligencji i dezinformacją.

Badania fokusowe, które uzupełniały badanie, pokazały jednak, iż nieufność do newsów wytworzonych przez człowieka z użyciem AI spada wraz ze wzrostem świadomości, do czego dziennikarz może używać sztucznej inteligencji. A może używać po prostu do ułatwienia sobie życia, na przykład do monitorowania źródeł informacji, generowania podsumowań materiałów z zewnętrznych źródeł (w celu przyspieszenia ich „konsumpcji”) czy do generowania podsumowań treści wcześniej opublikowanych przez redakcję na dany temat, czyli tak zwanych backgroundów.

Newsy z chatbota? Realistyczne zdjęcia i wideo mogą prowadzić do dezinformacji

Generowanie jakich treści przez AI jesteśmy w stanie zaakceptować? Najmniej oporu mamy wobec tekstu, tylko nieco więcej wobec grafik czy animacji, jeżeli mają one charakter ilustracyjny. Zdecydowanie za to nie chcemy, żeby sztuczna inteligencja produkowała realistycznie wyglądające fotografie czy klipy wideo.

„Wcześniejsze badania pokazują, iż ludzie często opierają się na obrazach i filmach jako na 'mentalnych skrótach’ podczas oceniania wiarygodności informacji online. Powszechne jest myślenie 'widzieć znaczy wierzyć’. Ta kluczowa rola obrazów, często postrzeganych jako dowód na prawdziwość danej informacji, tłumaczy, dlaczego wzrost sztucznie generowanych treści wizualnych, które burzą tę logikę, budziłby większy niepokój” – napisali badacze instytutu.

Podejście do sztucznej inteligencji zmienia się w zależności od tematu, na jaki miałaby ona generować treści. Tam, gdzie groźba manipulacji jest duża a konsekwencje poważne i prowadzące do dezinformacji, na przykład w polityce, nasza tolerancja na AI jest istotnie mniejsza. Tam, gdzie manipulacja jest mniej prawdopodobna a konsekwencje mniej poważne — jak w sporcie — nasze obawy przed AI są mniejsze.

O pokusie tworzenia deep fake’ów w polityce i o tym, co usiłował z tym zrobić Google, pisał Maciej Jaszczuk w tekście „Deepfake w spotach wyborczych? Google zaostrza regulamin, ale trzeba być czujnym.

Źródło zdjęcia: Dall-E 3.

Idź do oryginalnego materiału