Od premiery CzatGPT przez Otwórz sztuczną inteligencję w listopadzie 2022 r. zainteresowanie generatywna sztuczna inteligencja (GenAI) narzędzi znacznie wzrosła. Jego zdolność do generowania odpowiedzi na podstawie pytania lub prośby znalazła zastosowanie do różnych celów, od pisania e-maili po wspieranie chatbotów.
Niedawne Indeks trendów w pracy raport przez Microsoftuna podstawie ankiety przeprowadzonej wśród ponad 31 000 profesjonalnych pracowników pokazuje, iż 75% pracowników wiedzy korzysta w tej chwili z jakiejś formy GenAI w swojej pracy, a prawie połowa ankietowanych zaczęła z niej korzystać w ciągu ostatnich sześciu miesięcy. Jednak prawie 80% osób korzystających z GenAI wykorzystuje własną sztuczną inteligencję do pracy, a odsetek ten nieznacznie wzrasta w przypadku skupienia się na małych firmach. Warto zauważyć, iż adopcja ta dotyczy nie tylko młodszych użytkowników, którzy zwykle są bardziej skłonni do korzystania z nowych technologii, ale także użytkowników w każdym wieku.
W miarę generowania coraz większej ilości informacji, które należy przetworzyć, coraz częściej borykamy się z tak zwanym długiem cyfrowym. Przykładem tego jest przeciążenie poczty elektronicznej. Z raportu firmy Microsoft wynika, iż około 85% e-maili jest czytanych w czasie krótszym niż 15 sekund – to pokazuje, dlaczego ludzie chętnie sięgają po narzędzia, które pomagają usprawnić przyziemne zadania w życiu zawodowym.
„Istnieje dług cyfrowy, który narastał przez dziesięciolecia, ale uległ przyspieszeniu podczas pandemii” – mówi Nick Hedderman, starszy dyrektor grupy biznesowej Modern Work w firmie Microsoft. „68% osób, z którymi rozmawialiśmy, stwierdziło, iż ma trudności z ilością i tempem pracy. Prawie 50% stwierdziło, iż czuje się wypalone”.
Narzędzia generatywnej sztucznej inteligencji, z których zwykle korzystają profesjonaliści, to te, które można znaleźć na telefonach (takie jak Galaktyczna sztuczna inteligencja) lub w Internecie (np. ChatGPT). Niestety, bo takie narzędzia są otwarte źródłoznajdują się poza nadzorem korporacyjnym. Co więcej, gdy narzędzie internetowe jest bezpłatne, często produktem jest użytkownik, ponieważ jego informacje mogą być wykorzystywane przez innych.
„Jeśli jest bezpłatny, musisz o tym pomyśleć w taki sam sposób, jak o każdym innym serwisie społecznościowym. Na jakich danych jest trenowany? Krótko mówiąc, czy jesteś teraz towarem?” mówi Sarah Armstrong-Smith, szefowa ds. bezpieczeństwa w firmie Microsoft. „Cokolwiek włożysz, czy trafi to do modeli szkoleniowych? Jak sprawdzacie, czy dane są bezpiecznie przechowywane i nie są wykorzystywane do innych celów?”
Bardziej niż cokolwiek innego, wykorzystanie zewnętrznych narzędzi generatywnych jest: zarządzanie danymi wyzwaniem, a nie problemem GenAI, na którym się opiera cień IT – sprzęt lub oprogramowanie używane w organizacji, które nie jest nadzorowane przez dział IT.
„Zawsze miałeś do czynienia z aplikacjami zatwierdzonymi i niesankcjonowanymi. Zawsze napotykałeś wyzwania związane z udostępnianiem danych na platformach chmurowych” – mówi Armstrong-Smith. „Jeśli tak łatwo jest wyciąć i wkleić coś z dowolnego systemu korporacyjnego i umieścić to w aplikacji w chmurze, niezależnie od tego, czy jest to aplikacja generująca sztuczną inteligencję, czy jakakolwiek inna, pojawia się problem z zarządzaniem danymi i wyciekiem danych. Podstawowe kwestie związane z kontrolą danych, zarządzaniem danymi i tym wszystkim nie znikają. W rzeczywistości podkreśla się brak zarządzania i kontroli”.
Zarządzanie danymi
Problem zarządzania danymi związany z wykorzystaniem zewnętrznych narzędzi generatywnej sztucznej inteligencji ma dwojaki charakter.
Po pierwsze, istnieje wyciek danychpodczas którego użytkownicy kopiują potencjalnie poufne informacje i wklejają je do narzędzia internetowego, nad którym nie mają kontroli. Dostęp do tych danych mogą uzyskać inni i wykorzystać je do szkolenia narzędzi AI.
Sarah Armstrong-Smith, MicrosoftDo wycieku danych do organizacji dochodzi także w przypadku dodania niezweryfikowanych i niepotwierdzonych informacji do bazy wiedzy organizacji. Użytkownicy zbyt często zakładają, iż informacje dostarczane przez zewnętrzne narzędzie GenAI są prawidłowe i odpowiednie – nie potwierdzają ich zgodności ze stanem faktycznym, co byłoby bardziej prawdopodobne w przypadku wyszukiwania informacji w Internecie.
„Niebezpieczeństwo polega na tym, iż jeżeli weźmiesz losowy zbiór danych, którego nie zweryfikowałeś i nie wiesz, na czym jest przeszkolony, a następnie przeniesiesz ten zbiór danych do środowiska korporacyjnego lub odwrotnie, możesz choćby zatruć rzeczywisty model lub algorytm, ponieważ wprowadzasz niezweryfikowane dane do korporacyjnego zbioru danych” – mówi Armstrong-Smith.
Ten ostatni problem jest poważniejszy, ponieważ potencjalnie nieprawidłowe lub wprowadzające w błąd dane są włączane do bazy wiedzy i wykorzystywane w procesach decyzyjnych. Mogło też zbiory danych o truciznach które są wykorzystywane do szkolenia wewnętrznej sztucznej inteligencji, powodując w ten sposób przekazywanie przez sztuczną inteligencję wprowadzających w błąd lub nieprawidłowych informacji.
Widzieliśmy już przypadki niewłaściwego wykorzystania narzędzi GenAI prowadzącego do słabych wyników. W środowisku prawniczym testuje się generatywną sztuczną inteligencję jako możliwe narzędzie pomagające w pisaniu dokumentów prawnych. W jednym przypadku A prawnik korzystał z ChatGPT przygotować zgłoszenie, ale generatywną sztuczną inteligencję halucynacje fałszywych spraw, które zostały przedstawione sądowi.
„W środowisku korporacyjnym należy pamiętać, iż są to dane biznesowe” – mówi Armstrong-Smith. „To kontekst biznesowy, więc jakie narzędzia macie dzisiaj dostępne, które umożliwią wdrożenie całego zarządzania? Będzie zapewnione bezpieczeństwo; będzie miał odporność. Wszystkie te elementy będą wbudowane zgodnie z projektem.”
Jeżeli znaczna część pracowników rutynowo korzysta z aplikacji zewnętrznych, istnieje wyraźna potrzeba posiadania tego narzędzia cyfrowego. Aby ustalić najodpowiedniejsze rozwiązanie generatywnej sztucznej inteligencji, najlepiej jest zidentyfikować przypadki użycia. W ten sposób można wdrożyć najodpowiedniejsze narzędzie, które zaspokoi potrzeby pracowników i bezproblemowo wpasuje się w ich istniejący przepływ pracy.
Kluczową zaletą korzystania z korporacyjnego narzędzia generatywnej sztucznej inteligencji zamiast otwartej platformy, takiej jak ChatGPT, jest to zarządzanie danymi jest utrzymywany przez cały proces rozwoju. Ponieważ narzędzie jest przechowywane w granicach sieci, dane korporacyjne mogą być chronione. Eliminuje to możliwe wycieki spowodowane użyciem narzędzi zewnętrznych.
Ochrona oferowana przez korporacyjne narzędzie AI polega na tym, iż system zaplecza jest chroniony przez dostawcę sztucznej inteligencji. Warto jednak zauważyć, iż ochrona frontonu – podobnie jak w przypadkach użycia i modelach wdrożeń – pozostaje w gestii organizacji użytkowników. To właśnie w tym przypadku zarządzanie danymi pozostaje najważniejsze i należy je uważać za istotny element każdego procesu rozwoju przy wdrażaniu narzędzi generatywnej sztucznej inteligencji.
„Zawsze nazywaliśmy to modelem wspólnej odpowiedzialności” – mówi Armstrong-Smith. „Dostawcy platform są odpowiedzialni za infrastrukturę i platformę, ale za to, co z nimi zrobisz w zakresie swoich danych i użytkowników, odpowiada klient. Muszą mieć odpowiednie zarządzanie. Wiele z tych elementów sterujących jest już domyślnie wbudowanych; trzeba je po prostu wykorzystać.”
Świadomość wśród użytkowników
Gdy narzędzia generatywnej sztucznej inteligencji będą już dostępne w firmie, pracownicy muszą być świadomi ich obecności, aby móc z nich skorzystać. Zachęcanie do ich przyjęcia może stanowić wyzwanie, jeżeli pracownicy wypracowali sposób pracy polegający na korzystaniu z zewnętrznych platform GenAI.
W związku z tym program uświadamiający promujący narzędzie generatywnej sztucznej inteligencji kształciłby użytkowników w zakresie dostępności i funkcjonalności tego narzędzia. Moderacja Internetu systemy mogłyby także przekierowywać użytkowników z platform zewnętrznych do wewnętrznego narzędzia GenAI.
Generatywna sztuczna inteligencja pozostanie na rynku i chociaż oczekiwania mogły osiągnąć szczyt, jej zastosowania prawdopodobnie wzrosną i staną się wszechobecne.
„Myślę, iż w przypadku wielu firm, na których z pewnością Microsoft skupia się, skupia się na tej koncepcji agent generatywnej sztucznej inteligencji” – mówi Henderson. „W tym miejscu analizujesz proces biznesowy i zastanawiasz się, w jaki sposób agent może służyć organizacji wewnętrznie”. Agent mógłby działać w sieci organizacji i pełnić określone funkcje, takie jak planowanie spotkań lub wysyłanie faktur.
Chociaż generatywna sztuczna inteligencja to nowa technologia, która może uprościć przyziemne i czasochłonne zadania, ochrona danych przez cały czas pozostaje kluczową kwestią. Dlatego obowiązkiem organizacji jest uświadamianie pracowników o ryzyku, jakie stwarza korzystanie z narzędzi zewnętrznych oraz posiadanie odpowiednich narzędzi generatywnej sztucznej inteligencji w ramach własnej sieci w celu ochrony świętości ich danych.
„Jak wiemy, w przypadku technologii, w miarę jej utowarowienia, cena będzie spadać, co oznacza, iż sztuczna inteligencja stanie się powszechniejsza i będziesz mieć większy wybór modelu, którego użyjesz” – podsumowuje Armstrong- Kowal.