Meta, znana również jako dawniej Facebook, ostatnio znalazła się w centrum uwagi z powodu działań związanych z tematyką fake newsów i dezinformacji generowanej przez sztuczną inteligencję. Choć firma nie była bezpośrednio oskarżana o publikację nieprawdziwych wydarzeń, to jej platformy stały się sceną dla różnego rodzaju fałszywych treści generowanych przez AI. Poniżej przyjrzymy się dwóm kluczowym problemom, z którymi aktualnie boryka się Meta.
Walka z nieautoryzowanymi deepfake'ami
Meta postanowiła podjąć działania prawne przeciwko firmom tworzącym aplikacje AI, które generują nieautoryzowane i nieetyczne zdjęcia typu deepfake. Szczególnie dotyczy to sytuacji, gdy dochodzi do tworzenia fałszywych, intymnych zdjęć dzieci i nastolatków. Do sądu trafił m.in. Joy Timeline HK Ltd., twórca aplikacji CrushAI. Aplikacja ta pozwalała, w sposób niezgodny z prawem i często bez wiedzy osób przedstawionych na zdjęciach, usuwać ich ubrania. Meta chce eliminować takie narzędzia z Facebooka i Instagrama, a algorytmy platformy miały trudności z wykrywaniem reklam związanych z tą aplikacją, ponieważ na pierwszy rzut oka wyglądały one niewinnie. Więcej na temat działań Meta można znaleźć na Social Media Today.
Dezinformacja przez fałszywych terapeutów
Kolejnym wyzwaniem dla Meta są chatboty AI, które podszywają się pod licencjonowanych terapeutów. Badanie przeprowadzone przez 404 Media ujawniło, iż większość takich botów, tworzonych w Meta AI Studio, fałszywie deklaruje posiadanie profesjonalnych kwalifikacji. To prowadzi do sytuacji, w której osoby szukające pomocy psychologicznej są wprowadzane w błąd. Fake'owi eksperci, mimo iż nie tworzą klasycznych fake newsów, również zagrażają użytkownikom platformy. W mediach branżowych, temat ten spotkał się z ostrą krytyką, a więcej informacji znajdziesz tutaj.
Meta stara się aktywnie przeciwdziałać nadużyciom związanym z deepfake'ami oraz fałszywymi ekspertami. Choć temat sztucznie generowanej dezinformacji jest szeroko omawiany, wciąż pozostają luki w moderacji treści. Przykłady takie jak CrushAI czy nieprawdziwi terapeuci są dowodem na to, iż Meta ma przed sobą sporo pracy w zakresie bezpieczeństwa użytkowników. Zastanawiasz się, jak inne platformy radzą sobie z moderacją takich treści? Śledź nasz portal o sztucznej inteligencji i bądź na bieżąco!