AI w biznesie – zanim ją włączysz, włącz strategię

manager24.pl 12 godzin temu

Polskie firmy wciąż niechętnie wdrażają AI w ramach całościowej strategii. Sztuczna inteligencja budzi za to duże zainteresowanie wśród pracowników niższego szczebla – można powiedzieć, iż są oni bardziej otwarci na testowanie i wdrażanie nowych rozwiązań niż zarządy firm. Robią to na własną rękę, bo dużo narzędzi jest bezpłatnych lub dostępnych w niedrogich abonamentach. To ułatwia im pracę, jednak oddolne wdrażanie AI powinno odbywać się pod kontrolą.

Wiele osób ma tendencję do traktowania odpowiedzi podsuwanych przez modele językowe jako prawdy objawione. Sporym problemem są halucynacje, czyli podawanie zmyślonych faktów. Informacje te powinny być więc zweryfikowane w drugim źródle, zwłaszcza gdy dotyczą naszego biznesu. To oczywiście wymaga dodatkowej pracy, ale oszczędzony czas i tak jest znaczny.

Strategia wdrażania AI w organizacji – po co i dlaczego

Ten przykład pokazuje, iż warto jednak stworzyć strategię wdrażania AI w firmie, nawet, a zwłaszcza jeżeli pracownicy używają jej spontanicznie. Chodzi nie tylko o model wdrażania poszczególnych narzędzi w czasie i szkolenia pracowników, ale również o wyznaczenie ram i zasad używania narzędzi opartych na sztucznej inteligencji. Ma to na celu uniknięcie typowych kłopotów nieautoryzowanego używania: nadużycie praw autorskich, wprowadzenie w błąd odbiorców, narażenie na ryzyko wrażliwych danych. Pamiętajmy, iż wprowadzanie do modeli językowych informacji dotyczących naszej firmy, w jakiś sposób kształtuje jej wizerunek, bo te same informacje mogą następnie wypłynąć, gdy inny użytkownik zada podobne pytanie.

Inny problem to błędne lub „kulawe” automatyczne tłumaczenia z innych języków czy treść maili, które brzmią sztucznie, nieautentycznie, są napisane w tonie nieprzystającym do ogólnego wizerunku firmy. Zachwyceni możliwościami, jakie daje AI, nie zauważamy, iż w nadmiarze prowadzi to do tworzenia coraz bardziej powtarzalnych treści, podobnych do już istniejących, tracąc możliwość wyróżnienia się na tle konkurencji. Szkolenie pracowników w zakresie AI powinno więc dotyczyć nie tylko samej sprawności obsługi, ale przede wszystkim odpowiedzialnego korzystania z dostępnych narzędzi.

AI w firmie? Tak, ale określ zasady

Zasady pracy z AI wyznaczone przez pracodawcę powinny regulować takie kwestie jak lista dostępnych dopuszczonych programów i narzędzi – optymalnie z firmowym abonamentem. W płatnych wersjach dla firm wprowadzone do modelu językowego dane nie są wykorzystywane do dalszego trenowania modelu, a administrator ma dostęp do historii działań poszczególnych użytkowników, co daje większą kontrolę nad wprowadzonymi danymi. Zawsze jednak bezwzględną zasadą powinien być zakaz wprowadzania danych osobowych czy finansowych, fragmentów umów czy innych dokumentów strategicznych i poufnych.

Inną zasadą może być obowiązek nadzorowania treści produkowanych przez AI i finalne autoryzowanie ich przez człowieka. To szczególnie ważne, jeżeli na podstawie analiz przeprowadzonych z użyciem sztucznej inteligencji podejmowane są istotne decyzje biznesowe – by uniknąć potem tłumaczenia „zrobiliśmy tak, bo tak zaleciła sztuczna inteligencja” w sytuacji, gdy te decyzje okazały się błędne.

Wprowadzenie takich zasad należy już nie tylko do kanonu dobrych praktyk, ale jest też obowiązkiem prawnym. Dlaczego? Europejski AI Act mówi o obowiązku zapewnienia pracownikom kompetencji związanych ze sztuczną inteligencją, poprzez uświadomienie im ryzyk, jakie mogą wiązać się z korzystaniem z AI. Wyciek wrażliwych informacji lub popełnienie błędów o poważnych konsekwencjach właśnie do takich ryzyk należy. Stworzenie procedur pracy z AI jest wiec wymogiem, który może dotyczyć każdej firmy, bo w każdej organizacji mogą się znaleź

osoby korzystające z narzędzi sztucznej inteligencji.

Nieuprawnione stosowanie AI grozi karą finansową

AI jest coraz dokładniej regulowana prawnie – w Europie głównym dokumentem jest w tej kwestii EU AI Act. Organizacja powinna mieć więc pewność, iż jej model pracy ze sztuczną inteligencją nie łamie prawa. Drastycznym przykładem mogą być programy służące do rekrutacji pracowników lub kandydatów na uczelnie, które stosują mechanizmy dyskryminacyjne. W określonych przypadkach można je zaliczyć do zakazanych praktyk sztucznej inteligencji, o których mówi AI Act. Zakazane praktyki obejmują m.in. oddziaływania na emocje poprzez stosowanie manipulacji i praktyk podprogowych, służących wprowadzeniu w błąd lub wymuszeniu określonych zachowań. Wykluczone jest także prowadzenie dyskryminującego scoringu.

Za zakazane praktyki AI Act przewiduje karę finansową do 7 proc. obrotu firmy lub do 35 milionów euro (w zależności od tego, która kwota jest wyższa). To dobitnie pokazuje, iż odpowiedzialne podejście do AI to nie wybór, ale obowiązek. Jej wdrażanie po omacku, bez strategii ryzykuje nie tylko finanse firmy, ale przede wszystkim utratę wiarygodności i zaufania klientów.

Marcin Mika, service delivery director w ADP Polska

Idź do oryginalnego materiału