Stable Video Diffusion – model do generowania wideo z obrazów.
Jest to model głębokiego uczenia służący do generowania sekwencji wideo na podstawie pojedynczych obrazów lub ich ciągów. Wykorzystuje techniki dyfuzji, które polegają na stopniowym przekształcaniu losowego szumu w spójne wizualnie klatki, zachowując przy tym ciągłość temporalną i semantyczną pomiędzy kolejnymi fragmentami materiału. Model ten stanowi rozwinięcie idei dyfuzji stosowanych wcześniej w generowaniu obrazów statycznych, dostosowując je do złożoności danych wideo.
Technologia bazuje na zaawansowanych architekturach sieci neuronowych, które integrują mechanizmy uwagi oraz modulacji warunkowej, co pozwala na kontrolę nad treścią generowanych klatek oraz ich dynamiką. Pozwala to na tworzenie realistycznych animacji, wideoklipów czy krótkich filmów, które mogą mieć zastosowanie w rozmaitych dziedzinach, takich jak produkcja filmowa, reklama, sztuka cyfrowa czy symulacje komputerowe. Jednocześnie model ten wymaga znacznych zasobów obliczeniowych ze względu na konieczność przetwarzania wielowymiarowych danych i utrzymania płynności ruchu w wygenerowanych sekwencjach.
Dzięki swojej zdolności do generowania wysokiej jakości materiału wideo na podstawie ograniczonej liczby danych wejściowych, znajduje zastosowanie także w badaniach nad rozszerzoną rzeczywistością, interaktywnym storytellingiem oraz automatycznym tworzeniem treści multimedialnych. Jego rozwój wpływa na postęp w dziedzinie sztucznej inteligencji, zwłaszcza w kontekście multimodalnego przetwarzania informacji oraz syntezy obrazowo-ruchowej.