
Mamy kolejny – po Bieliku – polski model AI. Ministerstwo Cyfryzacji w końcu udostępniło modele, nad którymi konsorcjum PLLuM pracowało cały poprzedni rok. Tym razem dostaliśmy modele, dla których podstawowy zastosowaniem ma być użycie ich w administracji państwowej. Ale możemy też z nimi po prostu porozmawiać.
Długo na to czekaliśmy. Choć budowanie modeli skończyło się w listopadzie zeszłego roku, to musieliśmy uzbroić się w cierpliwość na trzy długie miesiące. Czyli – zanim ministerstwo kierowane przez Krzysztofa Gawkowskiego zdecydowało się na publikację modeli PLLuM. Cóż, młyny administracji publicznej wolno mielą. Ale w końcu mamy nowe polskie modele językowe – i to całą rodzinę. Co PLLuM ma nam do zaoferowania?
Kolejny polski model AI. A raczej od razu cała rodzina
Mamy cztery różne architektury modeli – od modelu z 8 mld parametrów opartego na architekturze Llama 3.1 8B, przez model z 12 mld parametrów oparty na architekturze Mistral-Nemo. Następnie przez tzw. model MoE z przeszło 40 mld parametrów oparty na Mixtralu 8x7B aż po największy model z 70 mld parametrów oparty na Llama 3.1 70B.
Mamy więc zarówno małe i szybkie modele, jak i te większe, które według zapewnień ministerstwa „oferują wyższą precyzję i kontekstową spójność w rozumieniu języka polskiego”.
Każdy z modeli został stworzony w trzech wersjach. Bazowa służy raczej tylko jako podstawa do budowania pozostałych modeli. Czatowa (z oznaczeniem chat) została dostrojona pod kątem prowadzenia dialogu, więc będzie się dobrze sprawować w chatbotach. Wersja instruct prawdopodobnie najlepiej będzie się nadawać do dostępu programistycznego przez API.
Z wersji chatowych modeli opartych na architekturach Mistrala możemy skorzystać przez chatbota PLLuM Chat. Pierwsze wrażenia, zupełnie subiektywne? Cóż, wolę Bielik.ai, lepiej operuje językiem polskim a jego odpowiedzi wydają się lepiej skonstruowane.
Wszystkie modele PLLuM są dostępne do pobrania na stronie serwisu Hugging Face.
Licencje, ach te licencje
O ile wszystkie modele PLLuM możemy sobie pobrać i przetestować, to z używaniem do celów komercyjnych już tak słodko nie jest. Konsorcjum PLLuM stworzyło dwie klasy modeli. Te przeszkolone na mniejszym zbiorze danych (niecałe 30 mld tokenów) są objęte dość liberalnymi licencjami Apache 2.0 i Llama 3.1. I kolejne modele, gdzie do przeszkolenia posłużył o wiele większy zbiór danych liczący 150 mld tokenów.
Niestety, te modele, które zostały zbudowane na obszerniejszym zbiorze danych, zawierającym również teksty z internetu (tak zwany Common Crawl), dostępne są tylko na licencji CC-BY-NC-4.0, wykluczającej użycie komercyjne. A to te modele, które prawdopodobnie lepiej sobie radzą czy to z językiem polskim, czy z polskimi kontekstami kulturowymi.
Umarł PLLuM, niech żyje HIVE AI
Konsorcjum PLLuM, które stworzyło polskie modele językowe zakończyło żywot z końcówką zeszłego roku, ale projekt wdrażania AI w polskiej administracji publicznej będzie trwał. Modele PLLuM zostaną wdrożone przez konsorcjum HIVE AI, czyli grupę polskich uczelni i ośrodków naukowych pod przewodnictwem NASK.
Już w 2025 roku możemy się spodziewać implementacji wirtualnego asystenta w mObywatelu. Będzie też inteligentny asystent urzędniczy, który zautomatyzuje przetwarzanie dokumentów, analizę treści, wyszukiwanie informacji oraz wykorzystanie AI do wsparcia edukacji.
Źródło grafiki: sztuczna inteligencja, model Dall-E 3