Meta rozważa przyszłość, w której boty napędzane przez sztuczną inteligencję płynnie integrują się z jej platformami, wypełniając sieci sztucznymi agentami naśladującymi ludzkich użytkowników. Boty te miałyby rzekomo wchodzić w interakcje z ludźmi, generować treści i mieć profile nieodróżnialne od prawdziwych kont. To na podstawie enigmatycznych komunikatów, które wyjawiono.
Czy zmierzamy w kierunku jeszcze bardziej bezużytecznych mediów społecznościowych wypełnionych brakiem informacji lub choćby dezinformacją? Jaka byłaby tego wartość?
Odłóżmy na bok takie filozoficzne rozwążania i zamiast tego zapytajmy: czy jest to w ogóle legalne? Nie, nie jest. Takie boty musiałyby być wyraźnie oznaczone jako sztuczni agenci. Akt o sztucznej inteligencji (AI Act) nakazuje przejrzystość systemów sztucznej inteligencji i zabrania czynienia ich nieodróżnialnymi od ludzi. W szczególności:
Artykuł 50(1): Systemy AI muszą informować użytkowników, iż ci wchodzą w interakcję ze sztuczną inteligencją, „chyba iż jest to oczywiste z punktu widzenia osoby , która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania”. jeżeli treści takie lub boty nie będą wyraźnie oznaczone, ryzykuje to naruszeniem tej zasady.
Artykuł 50(2): Treści generowane przez sztuczną inteligencję muszą być oznaczone w formacie umożliwiającym odczyt maszynowy oraz łatwe wykrycie, iż zostały one wygenerowane lub zmodyfikowane przez AI.
Wymagania dotyczące wrażliwych grup
Środki przejrzystości muszą uwzględniać potrzeby wrażliwych użytkowników, takich jak dzieci, lub tacy którzy mogą mieć trudności z odróżnieniem AI od interakcji z człowiekiem. Na szczególną uwagę zasługuje potrzeba, by „takie informacje i powiadomienia były dostępne w formatach umożliwiających dostęp osobom z niepełnosprawnościami” (Art. 50(3)) . Osoby niedowidzące muszą mieć możliwość łatwego rozpoznania, iż odpowiedź pochodzi od bota, a osoby niedosłyszące muszą być powiadamiane, iż tekst, wideo lub audio są generowane przez automat. Takie komunikaty muszą być łatwe do zrozumienia.
Boty mogą być przydatne
Wizja Meta podkreśla potencjał generatywnej sztucznej inteligencji, ale jednocześnie poddaje w wątpliwość zaufanie i autentyczność do treści w internecie. Boty AI mogą oferować użyteczne funkcje. Na przykład już dziś niektóre konta na Twitterze/X potrafią generować strony internetowe z wątków, co może być przydatne. Jednak pomysł prowadzenia rozmów ze sztucznymi agentami nieodróżnialnymi od ludzi to byłoby coś innego.
Operacje informacyjne i model biznesowy dla AI?
Platformy cyfrowe od dawna walczą z botnetami i farmami trolli wykorzystującymi ich sieci do dezinformacji. Co ciekawe, teraz zdają się rozważać przyjęcie niektórych elementów jako części modelu biznesowego w celu monetyzacji na interakcjach generowanych przez sztuczną inteligencję.
To niekoniecznie wyłącznie złe, ale wymaga starannego projektu.