Liderzy biznesu widzą potencjał w rozwiązaniach generatywnej sztucznej inteligencji, ale obawiają się o prywatność i bezpieczeństwo danych. Przyznają też, iż brakuje spójnych ram nadzoru nad rozwojem tej technologii – wynika z najnowszego badania SAS.
GenAI: nadzieje związane z obniżeniem kosztów i oszczędnością czasu
W badaniu „Generative AI Challenges and Potential Unveiled: How to Achieve a Competitive Advantage”, które przeprowadzone zostało na początku tego roku przez Coleman Parkes Research Ltd na zlecenie SAS wzięło udział 1600 decydentów reprezentujących przedsiębiorstwa z całego świata – również z Polski – zajmujących się strategią GenAI lub analityką danych. Wykazało ono, iż w tej chwili 48 proc. przedsiębiorstw w naszym kraju wykorzystuje generatywną sztuczną inteligencję, a 34 proc. jej użytkowników sięga po nią każdego dnia. Kolejne 46 proc. rodzimych organizacji chce wdrożyć GenAI w najbliższych dwóch latach. Z przedsiębiorstw, które już teraz korzystają z tej technologii, aż 89 proc. wyraziło zamiar zainwestowania w nią w najbliższym roku fiskalnym, z czego 90 proc. ma już na to zabezpieczone środki w budżecie organizacji.
Najczęściej generatywną sztuczną inteligencję w Polsce wykorzystują działy marketingu (47 proc.), sprzedaży (34 proc.) i IT (26 proc.), a planowane są wdrożenia również w obszarach takich jak R&D (60 proc.), produkcja (53 proc.) i finanse (53 proc.).
Warto też zauważyć, iż generatywna sztuczna inteligencja przynosi realne korzyści polskim przedsiębiorcom – 100 proc. jej rodzimych użytkowników dostrzega poprawę wydajności przetwarzania dużych zbiorów danych, zmniejszenie kosztów operacyjnych, oszczędność czasu, a także korzyści w zakresie zarządzania ryzykiem i zgodnością.
Niestety Polska nie wypada tak dobrze o ile chodzi o wdrażanie polityk dotyczących GenAI. Istnienie strategii określających, w jaki sposób pracownicy mogą, a w jaki nie mogą korzystać z niej w celach biznesowych zadeklarowało 52 proc. polskich liderów. Co więcej, tylko 6 proc. badanych wskazało, iż ich organizacje w pełni spełniają obecne i zapowiedziane regulacje.
Obawy o bezpieczeństwo i prywatność
Jednym z celów badania było również zidentyfikowanie przeszkód, z którymi borykają się organizacje wdrażające generatywną sztuczną inteligencję. Wyniki nie są zaskakujące – dla 72 proc. polskich respondentów badania główną obawą jest zachowanie prywatności danych, a dla 70 proc. – ich bezpieczeństwa. Na podium znalazł się również nadzór (governance), który wskazało 52 proc. ankietowanych. Jednym ze sposobów na zaadresowanie tych obaw są dane syntetyczne – 42 proc. polskich respondentów rozważa ich wykorzystanie, a 8 proc. już to robi. Najpoważniejszym wyzwaniem związanym z implementacją GenAI jest dla rodzimych organizacji przejście od fazy koncepcyjnej do praktycznej (64 proc. odpowiedzi).
„Organizacje zdają sobie sprawę, iż same duże modele językowe nie rozwiązują wyzwań biznesowych” – powiedziała Marinela Profi, doradca strategiczny ds. AI w SAS.
„Generatywna sztuczna inteligencja powinna być traktowana raczej jako idealny czynnik rozwojowy hiperautomatyzacji i przyspieszenia istniejących procesów i systemów, niż nowa zabawka, która pomoże organizacjom zrealizować wszystkie ich biznesowe aspiracje. Opracowywanie progresywnej strategii i inwestowanie w technologię, która oferuje integrację, nadzór i możliwość wyjaśniania dużych modeli językowych to najważniejsze kroki, które wszystkie organizacje powinny wykonać, zanim podejmą wiążące decyzje” – dodała.
Jak wynika z badania, organizacje borykają się z czterema kluczowymi przeszkodami związanymi z wdrożeniem AI:
● Zwiększenie zaufania do wykorzystania danych i zgodność regulacyjna. Wiarygodne systemy oceny tendencyjności i ryzyka związanego z prywatnością w dużych modelach językowych wciąż należą do rzadkości. Przeważająca część firm nie posiada kompleksowych ram nadzoru nad generatywną sztuczną inteligencją, a większość z nich jest narażona na ryzyko niezgodności z przepisami.
● Integracja GenAI z istniejącymi systemami i procesami. Organizacje przyznają, iż doświadczają problemów z kompatybilnością, próbując połączyć narzędzia GenAI ze swoimi obecnymi systemami.
● Niedobór talentów i luka kompetencyjna. Działy HR mierzą się z brakiem odpowiednich kandydatów do pracy, w związku z czym liderzy organizacji obawiają się, iż niedobór kompetencji uniemożliwi pełne wykorzystanie potencjału inwestycji w generatywną sztuczną inteligencję.
● Przewidywanie kosztów. Liderzy martwią się wysokimi kosztami bezpośrednimi i pośrednimi związanymi z wykorzystaniem dużych modeli językowych. Ich twórcy zapewniają symboliczne oszacowanie kosztów (z czego organizacje w tej chwili zdają sobie sprawę). Jednak proces budowania wewnętrznego know-how, szkoleń i zarządzania metodą ModelOps jest długi, złożony i kosztowny.
„Wszystko sprowadza się do zidentyfikowania rzeczywistych przypadków użycia, które zapewniają najwyższą wartość i odpowiadają na ludzkie potrzeby w zrównoważony i skalowalny sposób” – powiedziała Marinela Profi. „Poprzez to badanie kontynuujemy nasze zaangażowanie w pomoc organizacjom w utrzymaniu ich znaczenia na rynku, mądrym inwestowaniu i zachowaniu odporności. W erze, w której technologia AI ewoluuje niemal codziennie, przewaga konkurencyjna w dużym stopniu zależy od umiejętności opanowania zasad odporności” – podsumowała ekspertka.