Backpropagation (Wsteczna propagacja) – metoda aktualizacji wag w sieci.
Jest to algorytm wykorzystywany do efektywnego uczenia się sieci neuronowych poprzez minimalizację funkcji błędu. Polega na obliczaniu gradientu funkcji kosztu względem wag sieci za pomocą reguły łańcuchowej różniczkowania. Informacja o błędzie jest propagowana od warstwy wyjściowej ku warstwom ukrytym i wejściowym, co umożliwia stopniową korektę wag w kierunku zmniejszenia błędu predykcji.
Metoda ta jest podstawą do trenowania wielowarstwowych perceptronów oraz innych głębokich architektur sieci neuronowych. Jej zastosowanie pozwala na automatyczne dostosowywanie parametrów modelu na podstawie danych treningowych, co wpływa na poprawę jakości i skuteczności algorytmów uczenia maszynowego. Wsteczna propagacja była przełomem w rozwoju sztucznej inteligencji, przyczyniając się do rozwoju technik głębokiego uczenia.