Variational Autoencoder (VAE) – generatywna wersja autoencodera.

Jest to rodzaj generatywnej sieci neuronowej bazującej na architekturze autoenkodera, która wprowadza probabilistyczne podejście do modelowania rozkładów danych. W odróżnieniu od klasycznych autoenkoderów, które uczą się deterministycznego odwzorowania wejścia do przestrzeni latentnej i z powrotem, wykorzystuje podejście wariacyjne, polegające na modelowaniu rozkładu prawdopodobieństwa zmiennych ukrytych. Dzięki temu możliwe jest generowanie nowych, realistycznych próbek poprzez próbkowanie z przestrzeni latentnej, co czyni go przydatnym narzędziem w zadaniach generatywnych, takich jak synteza obrazów, dźwięków czy tekstów.

Model składa się z dwóch głównych komponentów: kodera, który przekształca dane wejściowe w rozkład prawdopodobieństwa zmiennych latentnych (reprezentowanych zwykle przez średnią i odchylenie standardowe), oraz dekodera, który generuje dane na podstawie próbek pobranych z tego rozkładu. Optymalizacja obejmuje minimalizację funkcji straty łączącej dwie składowe: błąd rekonstrukcji oraz tzw. dywergencję Kullbacka-Leiblera, która wymusza zbliżenie rozkładu latentnego do zadanego rozkładu priorowego, zwykle standardowego rozkładu normalnego. Takie podejście zapewnia ciągłość przestrzeni latentnej i umożliwia interpolację między różnymi reprezentacjami generowanych danych.

Metoda ta znalazła szerokie zastosowanie w dziedzinach takich jak wizja komputerowa, przetwarzanie języka naturalnego czy bioinformatyka, gdzie pozwala na efektywne modelowanie złożonych dystrybucji danych i tworzenie nowych próbek o wysokiej jakości. Jego zdolność do uczenia się skompresowanych, probabilistycznych reprezentacji sprawia, że jest ważnym narzędziem w badaniach nad generatywną sztuczną inteligencją oraz w rozwoju modeli głębokiego uczenia.