Small Language Models (SLM) – mniejsze, szybkie modele językowe.
Small Language Models (SLM) to mniejsze i szybsze modele językowe, które charakteryzują się ograniczoną liczbą parametrów w porównaniu do dużych modeli językowych. Dzięki zmniejszonej skali mają niższe zapotrzebowanie na zasoby obliczeniowe oraz pamięć, co umożliwia ich łatwiejszą implementację i integrację z różnorodnymi aplikacjami, szczególnie tam, gdzie liczy się szybkość działania oraz efektywność energetyczna.
Pomimo mniejszej pojemności, takie modele są w stanie realizować podstawowe zadania z zakresu przetwarzania języka naturalnego, takie jak analiza tekstu, klasyfikacja czy generowanie krótkich wypowiedzi. Ich rozwój jest szczególnie istotny w kontekście urządzeń mobilnych oraz systemów wymagających pracy w czasie rzeczywistym, gdzie pełnoskalowe, duże modele są praktycznie nieużyteczne ze względu na ograniczenia sprzętowe i koszty operacyjne. W ten sposób SLM stanowią ważny element strategii optymalizacji oraz demokratyzacji dostępu do technologii przetwarzania języka.