Najnowsza analiza przygotowana przez zespół ekspertów Thomson Reuters wskazuje, iż zachowanie ścisłego nadzoru ludzkiego (ang. human-in-the-loop) jest warunkiem koniecznym dla zachowania wiarygodności raportowania ESG opartego na sztucznej inteligencji. Autorzy opracowania ostrzegają, iż choć AI drastycznie przyspiesza agregację danych niefinansowych, brak krytycznej weryfikacji wyników naraża firmy na poważne ryzyka regulacyjne oraz zarzuty o manipulację informacjami środowiskowymi.
Wdrażanie algorytmów uczenia maszynowego w obszarze ESG pozwala firmom na szybkie agregowanie danych z łańcuchów dostaw oraz monitorowanie emisji gazów cieplarnianych w czasie rzeczywistym. Narzędzia te stają się niezbędne w obliczu coraz bardziej restrykcyjnych wymagań regulacyjnych, takich jak unijna dyrektywa CSRD. Jednak eksperci ostrzegają, iż modele AI mają tendencję do generowania tzw. halucynacji lub powielania uprzedzeń zawartych w danych historycznych, co w kontekście raportowania finansowego i niefinansowego może skutkować podawaniem nieprawdziwych informacji o postępach w realizacji celów klimatycznych.
Kluczowym wyzwaniem pozostaje zjawisko określane jako “AI-washing”, czyli bezkrytyczne ufanie wynikom generowanym przez algorytmy w celu przedstawienia firmy w lepszym świetle ekologicznym. Aby temu zapobiec, konieczne jest wprowadzenie mechanizmu “human-in-the-loop”, gdzie wykwalifikowani analitycy sprawdzają logiczność i spójność raportów przygotowanych przez maszynę. Nadzór ten jest szczególnie istotny przy ocenie wskaźników jakościowych, takich jak wpływ społeczny czy standardy etyczne w zarządzaniu, których AI nie potrafi jeszcze w pełni zinterpretować we właściwym kontekście kulturowym i prawnym.
Obecnie organy regulacyjne oraz inwestorzy zaczynają zwracać większą uwagę nie tylko na same wyniki ESG, ale także na metodologię ich pozyskiwania. Przedsiębiorstwa, które w pełni zautomatyzują proces tworzenia raportów bez odpowiednich bezpieczników, narażają się na zarzuty o brak transparentności. Wprowadzenie jasnych procedur audytu algorytmicznego oraz szkolenie zespołów z zakresu etyki danych staje się zatem nowym standardem w działach compliance i zrównoważonego rozwoju.




![Duża luka cyfrowa. Tylko co trzecia mikrofirma korzysta z nowoczesnych technologii [BADANIE]](https://g.infor.pl/p/_files/39037000/ai-firma-pracownik-pracodawca-39037279.jpg)




