Polskie firmy nie spieszą się z adaptacją GenAI. Czy polski model PLLuM to zmieni? I kiedy?

homodigital.pl 11 miesięcy temu

Polskie firmy, zwłaszcza te nietechnologiczne, nie spieszą się z wdrażaniem generatywnej sztucznej inteligencji (GenAI). Jaki jest tego powód? Czyżby polscy menedżerowie nie byli świadomi znaczenia GenAI dla rozwoju ich biznesów? A może po prostu czegoś brakuje dotychczasowym narzędziom opartym na języku angielskim? Czy remedium może być PLLuM?

Według najnowszego raportu firmy Deloitte, GenAI wchodzi do firm głównie w wyniku oddolnych inicjatyw szeregowych pracowników. Menedżerowie stoją raczej z boku. A firmy na tym tracą. Czy taka sytuacja ma szanse się zmienić w połowie przyszłego roku, kiedy polscy naukowcy spodziewają się ukończenia budowy pierwszych – polskich – dużych modeli językowych (LLM), trenowanych w języku polskim w ramach projektu PLLuM (Polish Large Language Universal Model).

PLLuM, czyli recepta na brak polskich LLM-ów

Potrzeba stworzenia polskiego dużego modelu językowego, który mógłby służyć polskim firmom, naukowcom i obywatelom była sygnalizowana już od pewnego czasu i przez media, i przez ekspertów. Odpowiedzią na to zapotrzebowanie ma być PLLuM, nowy projekt powołany przez sześć polskich instytucji badawczych.

Projekt z pewnością nie będzie zaczynał od zera, bowiem istnieje sporo zasobów, z których będzie mógł korzystać, takich jak Narodowy Korpus Języka Polskiego, zasoby projektu Clarin-PL czy Spichlerz/SpeakLeash – projekt gromadzący teksty w języku polskim (ma już ich ponad 800 GB), które można użyć do trenowania modelu językowego. Naukowców czeka jednak wciąż sporo pracy nad przygotowaniem materiałów do dostrajania modelu.

Zamierzenia dla projektu są ambitne – naukowcom zależy nie tylko na zbudowaniu dobrego modelu języka polskiego, ale i wbudowanie w taki model wiedzy o Polsce i jej kulturze, bo pod tym względem obecne modele komercyjne są raczej ubogie.

Kiedy możemy liczyć na pierwsze modele?

Obecnie Politechnika Wrocławska, lider projektu, jest w trakcie odbierania sprzętu dla klastra, na którym trenowany będzie model PLLuM. Za ok. 100 mln złotych zakupiono między innymi 300 kart GPU H100 Nvidii, co powinno pozwolić na zbudowanie infrastruktury, na której będzie można badać modele choćby z setkami miliardów parametrów.

Według dr. inż. Jana Koconia z Politechniki Wrocławskiej, klaster powinien osiągnąć zdolności operacyjne pod koniec I kw.przyszłego roku, a pierwsze modele mogłyby ujrzeć światło dzienne w połowie 2024 roku. Na początek nie będą największe – będą miały 8, może 13 mld parametrów, ponieważ PLLuM będzie je traktował jako okazję do zebrania doświadczeń pomocnych w budowaniu modeli większych. Ale choćby takie modele powinny mieć wszechstronne możliwości językowe. Większe modele będą do tych możliwości językowych dodawały szerszą reprezentację wiedzy.

Dla wielu osób istotne mogą być właśnie te zasoby wiedzy modelu. Do czego mogą służyć? Np. do tego, żeby w obcym mieście zapytać o godne polecenia zabytki czy muzea. Te skromniejsze modele mogą nam na to nie pozwolić. Ale dla wielu zastosowań komercyjnych mogą w zupełności wystarczyć, zwłaszcza jeżeli wykorzystają RAG (retrieval augmented generation), czyli technikę, która pozwala modelowi językowemu odczytywanie znajdujących się poza nim dokumentów i na ich podstawie generowania odpowiedzi dla użytkownika.

Jak pokazuje z kolei to badanie, modele o podobnej architekturze, ale różnej wielkości (np. różne wersje Llama 2), mają podobne osiągi, jeżeli wykorzystują RAG, a większe różnice pojawiają się tylko wtedy, jeżeli RAG nie jest wykorzystywany.

Do czego przydaje się GenAI? Np. krótsze wizyty u lekarza?

No właśnie – po co firmom generatywna sztuczna inteligencja? Jednym z podstawowych zastosowań jest obsługa klienta.

Tutaj GenAI, mając dostęp do wewnętrznych dokumentów firmy, mogłaby gwałtownie streścić konsultantowi historię interakcji z klientem, przypomnieć, jaki produkt i kiedy został kupiony i np. czy jest objęty gwarancją, a następnie podesłać instrukcje obsługi lub serwisowania danego produktu. Większość firm na razie nie rezygnuje z ludzkich konsultantów, bo nie do końca wierzy sztucznej inteligencji i woli, by jej praca była wciąż nadzorowana przez człowieka.

Śmielszą wizję, z aktywniejszą rolą sztucznej inteligencji maluje Sebastian Kondracki, Chief Innovation Officer firmy technologicznej Deviniti i pomysłodawca wspomnianego już projektu Spichlerz.

Wyposażona w GenAI służbę zdrowia? Przed umówioną wizytą do pacjenta dzwoni chatbot, by zrobić z nim krótki wywiad. Chatbot pytałby pacjenta, czy ostatnio nie wykonywał badań, które pomogłyby w diagnozie, a następnie prosiłby np. o wyniki dotychczasowych badań. Całość konsultacji z pacjentem LMM streszczałby lekarzowi. W trakcie wizyty lekarz mówiłby na głos diagnozę i zalecenia dla pacjenta, co automatycznie zapisywałaby sztuczna inteligencja, dzięki czemu po skończeniu wizyty mógłby się zająć kolejnym pacjentem, zamiast wstukiwać dane na komputerze.

Efekt? Według symulacji Kondrackiego i jego współpracowników, wizyty lekarskie można by skrócić choćby do 7 minut, istotnie zwiększając wydolność służby zdrowia.

Spore efekty, choć może nie aż tak spektakularne jak w zakresie wizyty u lekarza, można by uzyskać również w innych dziedzinach, takich jak bankowość czy ubezpieczenia. Jest jednak jeden haczyk.

Po co firmom otwarty, polski LLM?

Wiele firm, niektóre z powodów regulacyjnych (banki, ubezpieczyciele, służba zdrowia) z powodów polityki firmy, nie może „wyprowadzić” wrażliwych danych, zwłaszcza dotyczących klientów, poza swoją infrastrukturę informatyczną.

Żeby zbudować system sztucznej inteligencji na wewnętrzne potrzeby, firmy potrzebują dużego modelu językowego (LLM) przetrenowanego na dużej ilości polskiego tekstu. Taki model mógłby być następnie dostosowywany do konkretnych potrzeb i używany na infrastrukturze własnej firm.

I właśnie na tę potrzebę ma odpowiedzieć PLLuM

Ktoś może zapytać: „Przecież mamy mówiące po polsku ChatGPT czy Barda, po co nam polski model?”

Faktycznie, oba chatboty oparte na generatywnej inteligencji, pierwszy of OpenAI, drugi of Google’a, dość dobrze radzą sobie z językiem polskim. Są jednak zamknięte, nie można ich zainstalować na własnej infrastrukturze, co wyklucza ich zastosowanie w wielu firmach. Ponadto zdarza im się popełniać błędy językowe (dr Kocoń szacuje, iż polskie teksty stanowiły tylko 1-2% korpusu tekstów stosowanych do przetrenowania ChatGPT) a ich znajomość polskich kontekstów kulturowych, historycznych czy geograficznych jest, delikatnie rzecz ujmując, niepełna.

Niestety, istniejące otwarte modele też mają swoje wady. Jak widać w tym podsumowaniu polskich modeli językowych, większość z nich to tylko dostrojone przez polskie zespoły wersje modeli bazowych (takich jak LLama 2 firmy Meta), które wcześniej przetrenowano na relatywnie niewielkiej ilości polskiego tekstu. Inne, zbudowane od podstaw, są relatywnie niewielkie i przetrenowane na raczej skromnych zasobach tekstowych.

GenAI w firmach oddolnie, co jest tańsze, ale rodzi ryzyka

Pomimo tego, iż w firmach rośnie świadomość korzyści z wykorzystywania na co dzień sztucznej inteligencji, to jej praktyczne zastosowanie często jest wynikiem działania pracowników, co dobitnie pokazał cytowany raport Deloitte. To oni przynoszą do biur i zakładów produkcyjnych i usługowych znajomość nowych rozwiązań w tym zakresie.

„O ile większość technologii pojawia się w organizacji w wyniku decyzji biznesowych, o tyle demokratyzacja generatywnej sztucznej inteligencji sprawia, iż upowszechnienie jej wykorzystania dokonuje się w znacznym stopniu z inicjatywy poszczególnych jednostek” – mówi cytowany w raporcie Zbigniew Łobocki, senior manager ds. Human Capital w Deloitte.

Taka ścieżka adaptacji nowej technologii ma swoje zalety, w postaci choćby niższych kosztów, jednak rodzi szereg ryzyk, choćby tych związanych z nieodpowiedzialnym użyciem tej technologii, dlatego kluczowe jest stworzenie odpowiednich ram w miejscu pracy, aby pracownicy wiedzieli jak, kiedy i w jaki sposób mogą bezpiecznie korzystać z nowej technologii.

GenAI ciągle dużo częściej używamy do celów osobistych (65%) czy edukacyjnych (44%) niż w pracy (22%). Może to sugerować, iż transfer umiejętności związanych z takimi narzędziami jak ChatGPT, Bard czy Dall-E częściej odbywa się z domu do pracy niż w odwrotnym kierunku.

Skąd większa niechęć „góry” do adaptacji AI?

Czemu szeregowi pracownicy chętniej wprowadzają generatywną sztuczną inteligencję do swoich firm niż ich szefowie? Przynajmniej częściowo odpowiedź leży w strukturze wiekowej. Szeregowi pracownicy to często ludzie młodzi, podczas gdy w zarządach w wielu tradycyjnych branżach dominują czterdziesto- i pięćdziesięciolatkowie.

A ci ostatni, jak pokazuje raport Deloitte, często o generatywnej AI choćby nie słyszeli. O ile aż 84% osób w wieku 18-24 lat słyszało o tej technologii, o tyle wśród osób w wieku 45-55 lat ten odsetek spada to 35%, a dla osób po 55 roku życia pozostało niższy. jeżeli dodamy do tego fakt, iż wśród tych, którzy słyszeli o tej technologii, ok. 40% nigdy z niej nie skorzystało, to mówimy o raptem 21% osób około pięćdziesiątki, które miały choć raz do czynienia z GenAI.

Inną przyczyną powściągliwości firm w systemowej adaptacji generatywnej sztucznej inteligenci może być trudność w wykorzystaniu wewnętrznych dokumentów w budowaniu odpowiedzi sztucznej inteligencji. Dla niektórych firm opcją jest skorzystanie z RAG przy pomocy chmury prywatnej, inne będą wciąż czekały na model, który można zastosować na własnej infrastrukturze, taki jak PLLuM. Jest nadzieja, iż nie będą musiały czekać długo.

Czytaj też; Czy człowiek zabierze pracę sztucznej inteligencji?

Czytaj też: Gorączka AI. Koncentracja biznesu w metropoliach

Źródło zdjęcia: Markus Winkler/Unsplash

Idź do oryginalnego materiału