LSTM (Long Short-Term Memory) – rodzaj RNN radzący sobie z długimi sekwencjami.

Jest to specyficzny typ rekurencyjnej sieci neuronowej zaprojektowany w celu rozwiązywania problemu zanikania i eksplozji gradientów występującego w tradycyjnych sieciach RNN podczas przetwarzania długich sekwencji danych. Dzięki specjalnej architekturze zawierającej komórki pamięci oraz mechanizmy bramkowania, LSTM potrafi efektywnie przechowywać informacje przez długi czas, co umożliwia modelowanie zależności temporalnych na dużych odległościach w sekwencji.

W strukturze LSTM wyróżnia się trzy podstawowe bramki: zapominania, wejścia oraz wyjścia, które regulują przepływ informacji oraz aktualizację stanu wewnętrznego komórki. Te mechanizmy pozwalają na selektywne zapamiętywanie, modyfikowanie lub usuwanie danych, co znacząco poprawia zdolności sieci do uczenia się złożonych wzorców sekwencyjnych. Dzięki tym cechom LSTM znalazł szerokie zastosowanie w zadaniach związanych z przetwarzaniem języka naturalnego, rozpoznawaniem mowy, analizą szeregów czasowych oraz generowaniem tekstu.