Nie tylko Bielik. PLLuM też ma sukcesy

homodigital.pl 5 godzin temu

Choć najbardziej znanym polskim dużym modelem językowym – czy też ich rodziną – jest Bielik, to również jego bardziej państwowy konkurent, czyli PLLuM ma swoje sukcesy. Nastąpiły już pierwsze wdrożenia w administracji publicznej, niedługo wszyscy będziemy mieli AI opartą na PLLuM-ie dostępną w mObywatelu. Na wykorzystanie tego modelu zdecydował się Comarch, jedna z największych polskich firm informatycznych.

Kiedy w końcówce 2023 roku ogłoszono powstanie PLLuM – grupy polskich instytutów badawczych, które miały opracować mówiącą po polsku sztuczną inteligencję, wydawało się, iż właśnie PLLuM ma szanse opracować pierwsze „poważne” polskie modele językowe. Jednak miesiące mijały, i zamiast pierwszych modeli z instytutów badawczych zobaczyliśmy pierwszego Bielika – dzieło entuzjastów z Fundacji Spichlerz i krakowskiego Cyfronetu.

Potem pojawił się kolejny, lepszy Bielik, potem chatbot chat.bielik.ai, aż w końcu ujrzeliśmy owoce pracy PLLuM – dopiero w lutym tego roku. Owoce, bo modeli było kilka. I, jak się okazuje, nie czekaliśmy na darmo – modele konsorcjum wchodzą coraz śmielej, zwłaszcza do administracji. To nie dziwi – to był jeden z podstawowych celów ich powstania i na to właśnie konsorcjum dostało pieniądze z Ministerstwa Cyfryzacji.

PLLuM też ma sukcesy. Trafi do mObywatela i Comarchu

Jednym z najważniejszych wdrożeń modeli PLLuM będzie wprowadzenie ich do mObywatela. Za to zadanie będzie odpowiedzialny Centralny Ośrodek Informatyki, nowy członek konsorcjum HIVE AI, czyli spadkobiercy konsorcjum PLLuM.

Kolejnym zadaniem będzie przeprowadzenie pełnego wdrożenia inteligentnego asystenta dla Ministerstwa Cyfryzacji.

Tak naprawdę PLLuM już jest używany w administracji publicznej. Od kilku miesięcy jest używany przez urząd marszałkowski województwa lubuskiego do usprawniania pracy administracji a niedługo stanie się podstawą do stworzenia Asystenta Lubuszanina. Chatbota dla mieszkańców województwa, pomagającego im w załatwianiu spraw urzędowych.

Jednak PLLuM odniósł spory sukces również poza administracją. Został wybrany przez Comarch, jedną z największych polskich firm informatycznych, jako model podstawowy dla systemu ChatERP.

„Asystent oparty na PLLuM pomaga klientom w poruszaniu się po interfejsie, usprawnia realizację zadań, udziela odpowiedzi w naturalnym języku oraz automatyzuje rutynowe czynności” – napisał w komunikacie prasowym NASK, lider konsorcjum HIVE AI.

Zastosowanie sztucznej inteligencji z konsorcjum publicznych ośrodków naukowych w systemie klasy ERP specjalnie nie dziwi. Użytkownikami takich systemów są zwykle osoby na dość „urzędniczych” stanowiskach w firmie: księgowi, kadrowe, pracownicy działu zamówień itp., a więc osoby dość dobrze obyte z urzędniczym słownictwem. W takich systemach urzędnicze „dziedzictwo” PLLuM-a może być wręcz zaletą.

Jak widać, Comarchowi wystarczyła nieco okrojona wersja modeli dostępna komercyjnie – jak pisałem wcześniej, konsorcjum PLLuM stworzyło dwie klasy modeli. Te przeszkolone na mniejszym zbiorze danych (niecałe 30 mld tokenów) są objęte dość liberalnymi licencjami Apache 2.0 i Llama 3.1. I kolejne modele, gdzie do przeszkolenia posłużył o wiele większy zbiór danych liczący 150 mld tokenów.

Niestety, te modele, które zostały zbudowane na obszerniejszym zbiorze danych, zawierającym również teksty z internetu (tak zwany Common Crawl), dostępne są tylko na licencji CC-BY-NC-4.0, wykluczającej użycie komercyjne. Jak widać konieczność skorzystania ze słabiej wytrenowanych modeli Comarchowi nie przeszkadzała.

Co nadejdzie z HIVE AI?

A czego możemy spodziewać się od HIVE AI, następcy PLLuM? Hmmm, cóż, podobno jeszcze więcej mowy urzędniczej. Tak przynajmniej informuje Agnieszka Karlińska, kierowniczka projektu HIVE AI. Na szczęście nie tylko – dostaniemy też nowe modele, i to niedługo.

„W HIVE AI bazujemy na doświadczeniach i zasobach zgromadzonych w projekcie PLLuM, ale idziemy o kilka kroków dalej. Pozyskujemy i tworzymy nowe dane, przede wszystkim dane z domeny urzędowej, budujemy kolejne modele o różnych rozmiarach i architekturach. Pierwsze z nich udostępnimy już niedługo – opracowujemy nowe benchmarki i wprowadzamy dodatkowe zabezpieczenia” – powiedziała Karlińska, cytowana w komunikacie NASK.

Ale cel jest jeden – to by modele „w jeszcze lepszym stopniu odpowiadały na potrzeby polskiej administracji publicznej”.

Więc, jeżeli chcecie zaimplementować model AI w swojej firmie – niekoniecznie tylko dla księgowych – to sprawdźcie Bieliki. Ładniej mówią po polsku. Jak na małe modele mają dobre wyniki benchmarków. No i z licencjami nie ma problemów – są dostępne na liberalnej licencji Apache 2.0.

Zapraszamy do komentowania naszych artykułów.

Źródło zdjęcia: Joanna Derks/Unsplash

Idź do oryginalnego materiału