Context Window Expansion – techniki wydłużania pamięci krótkotrwałej modelu.

Termin odnosi się do różnych metod i strategii zwiększania zakresu informacji, które modele sztucznej inteligencji, zwłaszcza przetwarzania języka naturalnego, mogą jednocześnie analizować i przechowywać w swojej pamięci krótkotrwałej. Techniki te pozwalają na rozbudowę tzw. okna kontekstowego, czyli ilości danych wejściowych dostępnych w jednym kroku przetwarzania modelu, co jest kluczowe dla poprawy jakości generowanych odpowiedzi oraz zachowania spójności i logiki w dłuższych interakcjach.

W praktyce wdrażanie takich rozwiązań obejmuje zarówno architektoniczne modyfikacje modeli, jak i wykorzystanie zewnętrznych mechanizmów wspomagających przechowywanie oraz selektywne odtwarzanie informacji z wcześniejszych etapów dialogu lub tekstu. Przykładowo, metody te mogą bazować na segmentacji tekstu na fragmenty, mechanizmach uwagi (attention mechanisms) o zmodyfikowanym działaniu, czy dodatkowych strukturach danych, które symulują pamięć krótkotrwałą, umożliwiając modelowi "przypomnienie" sobie istotnych elementów poprzednich wejść. Rozwijanie okna kontekstowego jest istotnym kierunkiem badań w dziedzinie zwiększania efektywności i skalowalności systemów opartych na głębokim uczeniu.