Rynek AI działa w tej chwili w ramach wolnej amerykanki. Albo Dzikiego Zachodu, jak ujął to przewidujący technologiczną przyszłość w 2024 roku youtuber Kuba Klawiter. „Nie wiadomo, jak się te algorytmy uczyły, nie wiadomo, z jakich danych korzystały” – mówi internetowy twórca. Od siebie dodam, iż zbudowały potęgę, z którą wszyscy muszą się liczyć. Nie na odwrót.
Legislacja zaś, jak to zwykle bywa, nie nadąża za rzeczywistością, więc biznes dogaduje się sam ze sobą i dyktuje całej reszcie często skandaliczne warunki. Tak stało się w przypadku zawartej niedawno, wycenianej na dziesiątki milionów euro umowy OpenAI z grupą wydawniczą Axel Springer. To może być decyzja, która na zawsze odmieni oblicze rynku medialnego. Dzieje się to bez społecznego i prawnego nadzoru.
Spółka Axel Springer już kilkukrotnie zasłynęła swoim przedmiotowym i antypracowniczym podejściem, co każe myśleć, iż w tej opowieści i umowie nie ma niczego o dbałości o jakość dziennikarstwa, ale wyłącznie o zyski. Na przełomie wiosny i lata 2023 roku dyrektor generalny korporacji Matthias Dopfner powiedział swoim pracownikom wprost, iż zostaną zastąpieni przez sztuczną inteligencję. Potem ogłosił zwolnienia z tego powodu w „Bildzie”. Tej samej gazecie, za sprawą której próbował manipulować opinią publiczną, próbując wywrzeć wpływ na wynik wyborów w Niemczech. Jego decyzje są też krytycznie komentowane przez Niemieckie Stowarzyszenie Dziennikarzy i związki zawodowe.
Zakamuflowana deregulacja
Podjęcie próby ucywilizowania zasad korzystania z możliwości AI jest konieczne i pewne w nadchodzących dwunastu miesiącach, choć samowolki i kreatywności w lekceważeniu ryzyk i kosztów społecznych całkowicie to nie wyeliminuje. Przykładem jest choćby unijny AI Act, nazwany przez analityczkę Europejskiego Instytutu Związków Zawodowych Aidę Ponce Del Castillo „zakamuflowaną deregulacją”. Miały być twarde zasady i są, ale do nich przyspawano szereg wyjątków, które korzystające ze zdobyczy takich podmiotów jak OpenAI wielkie korporacje i start-upy będą mogły omijać na różne sposoby.
Przykładowo kar za łamanie przepisów te pierwsze unikną dzięki „zlecaniu swoich najbardziej ryzykownych projektów” tym drugim. Naliczanie grzywien ma bowiem zależeć od wielkości firmy (im mniejsze przedsiębiorstwo, tym mniej do zapłaty). Z kolei zakazane w miejscach pracy systemy rozpoznawania emocji dzięki AI można będzie wykorzystywać w szczególnych, dotyczących bezpieczeństwa sytuacjach. Otwiera to pole do bardzo szerokiego rozumienia i interpretowania pojęcia bezpieczeństwa.
Z jednej strony rozwój sztucznej inteligencji można potraktować jako zastrzyk wsparcia dla jakościowego dziennikarstwa, dający nam masę przydatnych narzędzi do codziennej pracy i przejmujący zadania z zakresu kojarzonego z bylejakością mediaworkingu. Z drugiej – trzeba sobie zdawać sprawę, iż miejsca na wartościowe treści wcale nie robi się przez to więcej. W przeciwieństwie do tych śmieciowych, które AI będzie generować na potęgę.
Możemy się spodziewać, iż antypracownicze konszachty medialnych gigantów z Doliną Krzemową zmuszą masę ludzi do tworzenia gównokontentu, mamiąc ich, iż w końcu będą mogli pisać wartościowe teksty w czasie pracy (a nie – jak pisała na naszych łamach Magdalena Czubaszek – walczyć o nie po godzinach).
Jeśli trafiasz do tego zawodu w dobie internetu i nie jesteś uprzywilejowana, nie masz mieszkania po dziadkach w kamienicy ani starych, którzy piją wino z redaktorami naczelnymi, i chcesz móc przeżyć dzięki swojej robocie, prawie zawsze zaczynasz od mediaworkingu, a nie dziennikarstwa. Czy uda ci się w końcu sięgnąć po to drugie?
Taki mamy rynek
Słysząc, iż skanujący (często bez poszanowania praw autorskich) wirtualne zasoby ChatGPT już jest w stanie robić dokładnie to, czym w tej chwili się zajmujesz, masz prawo czuć niepokój. Nie pomaga fakt, iż koncerny medialne, z uwagi na brak prawnego bicza – nie tylko wymierzonego w sztuczną inteligencję, ale i rozpasanych gigantów cyfrowych – mierząc się z „agregacją”, czyli kradzieżą treści dziennikarskich, próbują ułożyć się ze złodziejami tak, żeby nie być dalej stratnymi i przetrwać.
Jedni stwierdzają, iż nie będą dogadywać się z kimś, kto im szkodzi, więc szukają różnorodnych modeli zarobkowania, naciskając na decydentów politycznych w sprawie przywołania Big Tech do porządku i na przykład nałożenia na branżę określonych opłat, pozwalających utrzymać dziennikarstwo na wysokim poziomie (a więc wolnym od dezinformacji, zdolnym prowadzić śledztwa i wytwarzać oraz pozyskiwać, a nie kopiować i przerabiać informacje).
Inni uznają, iż czas to pieniądz, w związku z czym nie ma sensu czekać, aż zmienią się przepisy i ktoś w końcu wystawi Dolinie Krzemowej rachunek. Skoro taki, a nie inny mamy rynek, trzeba z tego wycisnąć, ile się da – choćby kosztem misyjności mediów, ich pożytku dla dobra publicznego i – przede wszystkim – zatrudnienia pracowników, czyli w tym wypadku mediaworkerów, dziennikarzy lub osób łączących te dwie funkcje.
Uniwersytet im. Clickbaitozy
Tymczasem jedna z największych firm wydawniczych Europie – Axel Springer – podpisała właśnie umowę współpracy z OpenAI. Zachwytom nie ma końca, bo przecież mamy do czynienia z „przełomową decyzją biznesową, wyznaczającą trend rynkowi medialnemu”. Media, które należą do korporacji, muszą przecież iść z duchem czasu, zwłaszcza, iż – jak pisze „Financial Times”: „Grupy medialne nie tylko stoją w obliczu egzystencjalnego zagrożenia ze strony generatywnej sztucznej inteligencji, która tworzy tekst, obrazy, dźwięk i wideo nieodróżnialne od tych wytwarzanych przez człowieka, ale także walczą o wykorzystanie ich treści przez Big Tech do szkolenia systemu AI”.
Jeśli wczytamy się w podane do wiadomości publicznej założenia tego dealu, dowiemy się, iż OpenAI będzie płacił korporacji za treści historyczne, a także udostępni użytkownikom ChatuGPT wygenerowane w czasie rzeczywistym streszczenia artykułów ze swoich portali (jak Politico czy Business Insider), w tym materiały znajdujące się za paywallem. Chodzi o umożliwienie algorytmom sztucznej inteligencji nauki pisania tekstów na podstawie materiałów stworzonych przez dziennikarzy zatrudnionych w Axel Springer.
Aby nieco lepiej przybliżyć wam działalność tej korporacji, skupię się – jak Kuba Klawiter – na naszym rodzimym poletku, gdzie działa Ringier Axel Springer Polska, w połowie należący do układającego się z OpenAI brandu i wydający takie tytuły prasowe i internetowe, jak Onet, „Newsweek”, „Forbes” czy Noizz. Chodzi więc o grube i dobrze znane większości społeczeństwa medialne ryby.
Youtuber proponuje zanurkować nieco w hipotetyczną przyszłość i proponuje ćwiczenie: wyobraźcie sobie, iż stworzony przez Open AI ChatGPT studiuje sztukę pisarsko-dziennikarską na onetowym Uniwersytecie im. Clickbaitozy: „Prosisz go na przykład o to, żeby podał negatywne skutki palenia papierosów i dostajesz odpowiedzi: «Nie uwierzysz, do czego może doprowadzić palenie trzech papierosów dziennie». «Zapaliła papierosa, a wtedy wydarzyło się to». «Wyszedł tylko po papierosy. Rodzina i znajomi są w szoku po tym, co się stało»”.
A w ten cały chlew wchodzi AI
Weźcie pod uwagę, iż oprócz klikalnej, miejscami ogłupiającej sensacji dostaniecie w gratisie takie materiały, które będą realizowały bardzo konkretne polityki reklamowe i partyjne, leżące w interesie dużych graczy władzy i biznesu, a nie na przykład społecznym. Doliczmy do tego stronniczość, problemy AI z prawdomównością oraz prawem autorskim, a także zdolność do wykorzystywania przestudiowanych treści w tworzeniu fake newsów lub obraźliwych materiałów, a okaże się, iż jest tam co najmniej kilka znaków zapytania, które na przykład takim redakcjom jak „Guardian”, CNN i „New York Times” kazały podjąć decyzję o zablokowaniu swoich stron dla ChatuGPT.
Ale to wszystko dzieje się i bez sztucznej inteligencji, więc może nie ma co martwić się o nią, a należy o media komercyjne, które lubią udawać sojuszników społeczeństwa, w rzeczywistości będąc harpiami wydziobującymi resztki kreatywności z dziennikarzy i zaufania z czytelniczek? Tylko iż sztuczna inteligencja miała pomagać, a nie być pogłębieniem istniejącego śmietnika.