2025 - Piotr Pęzik - Adaptacja językowa, domenowa i zadaniowa LLM-ów na przykładzie modeli PLLuM

youtube.com 14 godzin temu


Przydatność generatywnych modeli językowych (GMJ) zależy w dużej mierze od zdolności interpolacji międzyzadaniowej. Odpowiednie pokrycie ‘przestrzeni’ zadaniowej w fazie pretreningu i dostrajanie na instrukcjach skutkuje wykształceniem nowych, niereprezentowanych wprost w danych umiejętności. Ta kluczowa adekwatność GMJ-ów jest w ogólności bardzo pożadąna, ale może też przejawiać się nadmiarowo; modele czasem nieskutecznie interpolują wiedzę i zdolności dla wysoce specjalistycznych zadań, których adekwatne wykonanie wymaga precyzyjnych danych uczących, tzn. tekstów lub instrukcji. W kontekście wielojęzyczności modeli taki nadmierny transfer uczenia przejawia się negatywnym transferem językowym, czyli np. stosowaniem kalk stylistycznych i gramatycznych z dominującego języka modelu na język wyjściowy.

Tematem wystąpienia jest próba ograniczenia nadmiernej interpolacji GMJ-ów poprzez adaptację językową (kontynuację pretreningu na polskich tekstach), adaptację domenową (kontynuację pretreningu na tekstach domenowych i tzw. ‘wyżarzanie’ na tekstach i instrukcjach) oraz adaptację zadaniową poprzez dostrajanie na celowanych instrukcjach. Autor zaprezentuje przykłady adaptacji zadaniowej dla domeny konwersacyjnej i urzędowej na bazie doświadczeń w pracach nad modelami PLLuM.