Embeddings (Zaszycia/Wektoryzacja) – zamiana słów na liczby w przestrzeni wielowymiarowej.

Embeddings, zwane również zaszyciami lub wektoryzacją, to technika reprezentacji słów, zdań lub innych jednostek językowych za pomocą wektorów liczb w przestrzeni wielowymiarowej. Celem takiej reprezentacji jest uchwycenie semantycznych i syntaktycznych relacji między elementami języka w sposób matematycznie użyteczny dla modeli sztucznej inteligencji i uczenia maszynowego. Wektory te pozwalają na odzwierciedlenie znaczeń słów poprzez ich położenie względem siebie – słowa o podobnym znaczeniu znajdują się bliżej siebie w przestrzeni wektorowej.

Proces tworzenia embeddings opiera się na trenowaniu modeli na dużych korpusach tekstu, które uczą się kontekstów użycia poszczególnych słów. Przykładowymi technikami są metody takie jak Word2Vec, GloVe czy FastText, które różnią się sposobem konstrukcji wektorów oraz uwzględnianiem kontekstu. Dzięki embeddings możliwe jest efektywne przetwarzanie tekstu przez algorytmy, co znajduje zastosowanie w wielu dziedzinach, takich jak analiza sentymentu, rozpoznawanie mowy, tłumaczenia maszynowe czy generowanie tekstu.