Cross-lingual Transfer – zdolność modelu do nauki w jednym języku i pracy w innym.

Odwołuje się do zdolności systemów sztucznej inteligencji, zwłaszcza modeli językowych, do przenoszenia wiedzy i umiejętności zdobytych w jednym języku na inne języki. Taka właściwość umożliwia efektywne wykorzystanie danych treningowych z języka źródłowego do wykonywania zadań w języku docelowym, często o znacznie ograniczonych zasobach danych. Pozwala to na zmniejszenie kosztów oraz zwiększenie dostępności zaawansowanych technologii w językach, które do tej pory były słabiej reprezentowane.

Proces ten opiera się na reprezentacjach wielojęzycznych, które model jest w stanie nauczyć się podczas etapów szkolenia, dzięki czemu możliwe jest mapowanie podobnej semantyki i składni między różnymi językami. W praktyce wykorzystywany jest na przykład w tłumaczeniach maszynowych, analizie sentymentu, rozpoznawaniu mowy czy innych zadaniach przetwarzania języka naturalnego. Wyzwania związane z transferem międzyjęzykowym obejmują różnice językowe, kulturowe oraz strukturalne, które mogą wpływać na jakość przenoszonych wzorców.

Rozwój tej dziedziny jest szczególnie istotny w kontekście globalizacji i rosnącej potrzeby komunikacji wielojęzycznej, a także w sytuacjach, gdzie zasoby danych treningowych dla danego języka są ograniczone lub niedostępne. Ostatecznym celem jest stworzenie bardziej uniwersalnych modeli AI, które będą skutecznie funkcjonowały w różnorodnych kontekstach językowych, co wspiera inkluzywność technologiczną i rozwój sztucznej inteligencji na skalę światową.