Polski język zaskakuje AI: wyprzedza angielski i chiński w testach LLM

euractiv.pl 1 dzień temu
Zdjęcie: https://euractiv.pl/section/ue-fact-checking/news/polski-jezyk-zaskakuje-ai-wyprzedza-angielski-i-chinski-w-testach-llm/


Polski język osiąga najlepsze wyniki w złożonych zadaniach przetwarzania języka naturalnego przez sztuczną inteligencję, pokonując angielski, chiński i inne 23 testowane języki.

Wyniki badań, opublikowane w ramach benchmarku ONERULER, potwierdzają, iż polski osiągnął 88-procentowy wskaźnik dokładności – najwyższy spośród wszystkich badanych języków. Angielski uplasował się dopiero na szóstym miejscu, podczas gdy chiński wypadł jeszcze słabiej. Odkrycie to zaskoczyło badaczy, biorąc pod uwagę tradycyjną dominację języka angielskiego w danych treningowych dla systemów AI.

Badanie oceniało duże modele językowe (LLM), które napędzają chatboty AI takie jak ChatGPT, Gemini czy Llama, pod kątem ich umiejętności przetwarzania długich i wysoce skomplikowanych danych językowych.

Według naukowców, złożona morfologia i bogactwo struktur gramatycznych języka polskiego mogą przyczyniać się do bardziej precyzyjnego i zniuansowanego rozumienia przez systemy AI.

Dr Yekyung Kim, jedna z głównych autorek badania, podkreśla, iż wyniki kwestionują powszechne założenie o przewadze języków dysponujących największymi zasobami danych, takich jak angielski czy chiński. Badaczka wskazuje na potencjał mniej dominujących globalnie języków do odgrywania kluczowej roli w rozwoju sztucznej inteligencji.

Skuteczność w zadaniach „igła w stogu siana”

Badacze oceniali modele na podstawie siedmiu syntetycznych zadań podzielonych na dwie kategorie: wyszukiwanie i agregacja. W zadaniach typu „igła w stogu siana”, gdzie system musiał znaleźć informacje, których w tekście nie było, polskojęzyczne modele popełniały mniej błędów i potrafiły trafniej odpowiedzieć.

– Mimo ograniczonych zasobów treningowych w języku polskim, nasze testy pokazują, iż AI pracujące w tym języku analizują duże zbiory dokumentów lepiej niż w innych językach – komentują badacze.

Testy przeprowadzono dla czterech długości kontekstu: 8, 32, 64 oraz 128 tys. tokenów. Wyniki są jednoznaczne: „Polski wypada najlepiej w zadaniach, gdzie wpisywana treść prompta jest bardzo długa, bo liczy od 64 do 128 tys. tokenów” – podkreślają autorzy badania.

Nie tylko precyzja, ale i skuteczność sprawiają, iż polski język jawi się jako wyjątkowo obiecujący dla przyszłych zastosowań dużych modeli językowych, mimo iż teoretycznie powinien być dla AI trudniejszy ze względu na ograniczone zasoby treningowe.

W drugiej kategorii zadań, polegającej na ekstrakcji najczęściej występujących słów z długiej listy, również polskie modele wypadły najlepiej. Badacze zauważają, iż umiejętność efektywnej agregacji danych w języku polskim może mieć znaczenie przy tworzeniu narzędzi do analizy dużych zbiorów dokumentów czy raportów.

Strategia narodowa przynosi efekty

Sukces polski w dziedzinie AI nie jest przypadkowy. Kluczową rolę odegrała narodowa strategia rozwoju sztucznej inteligencji, w ramach której powstały projekty takie jak PLLuM (Polish Large Language Universal Model). Model ten został opracowany przez konsorcjum sześciu wiodących polskich instytucji badawczych, w tym Politechnikę Wrocławską, instytuty Polskiej Akademii Nauk oraz Uniwersytet Łódzki.

PLLuM uruchomiony na początku 2025 roku, wspiera administrację publiczną, biznes i środowisko akademickie, oferując zaawansowany model językowy dostosowany specyficznie do cech języka polskiego. System operuje w zakresie od 8 do 70 miliardów parametrów i jest publicznie dostępny, co ma promować innowacje oraz zachowanie dziedzictwa kulturowego w erze cyfrowej.

Projekt otrzymał rządowe finansowanie przekraczające 14 milionów złotych. Ministerstwo Cyfryzacji jako główny sponsor projektu stawia na zapewnienie obecności języka polskiego w najnowocześniejszych zastosowaniach AI.

Europejski wymiar suwerenności technologicznej

Inwestycje polskiego rządu w modele AI specyficzne dla języka polskiego wpisują się w szersze europejskie działania mające na celu ograniczenie dominacji anglocentrycznej sztucznej inteligencji. Eksperci postrzegają te działania jako strategiczną przewagę dla tożsamości narodowej i kulturowej, a także jako sposób na usprawnienie zastosowań AI w usługach rządowych, edukacji i handlu.

Wyniki badań sugerują, iż ukierunkowane zbiory danych językowych i dedykowane narzędzia AI mogą zapewnić krajom przewagę technologiczną wykraczającą poza samą ilość dostępnych danych. Polski przykład ilustruje pozytywne wykorzystanie AI do ochrony dziedzictwa językowego i kulturowego.

Implikacje dla przyszłości AI

Eksperci podkreślają znaczenie różnorodności językowej w rozwoju sztucznej inteligencji oraz potencjał języków morfologicznie bogatych do zwiększania dokładności i odporności systemów AI. Odkrycia te mogą zainspirować inne kraje do inwestowania w rozwój lokalnych zasobów językowych dla AI, wpływając na przyszłe globalne ekosystemy sztucznej inteligencji.

Jednocześnie rozwój ten rodzi pytania dotyczące alokacji zasobów, prywatności danych oraz etyki AI w kontekście specyficznych wspólnot językowych. Choć polski przykład pokazuje pozytywne zastosowanie technologii, eksperci wskazują na potrzebę ciągłego monitorowania w celu łagodzenia ryzyka dezinformacji czy uprzedzeń inherentnych dla modeli AI.

W gronie kluczowych interesariuszy projektu znaleźli się badacze z University of Maryland, Microsoft i University of Massachusetts Amherst jako autorzy przewodniego badania, przedstawiciele Ministerstwa Cyfryzacji jako finansującego projekt, a także konsorcjum obejmujące Politechnikę Wrocławską, Polską Akademię Nauk i Uniwersytet Łódzki, odpowiedzialne za rozwój modeli PLLuM i BielikAI.

Idź do oryginalnego materiału