Epoch (Epoka) – jedno przejście przez cały zbiór danych treningowych.

Termin odnosi się do pojedynczego pełnego przejścia algorytmu uczenia maszynowego przez cały zbiór danych treningowych. Podczas jednej epoki model analizuje każdą próbkę danych dokładnie raz, umożliwiając aktualizację parametrów sieci lub innego mechanizmu uczenia w celu minimalizacji błędu predykcji. Epoka jest podstawową jednostką czasową w procesie treningu modeli, szczególnie w kontekście uczenia nadzorowanego.

Liczba epok jest istotnym parametrem wpływającym na jakość i skuteczność modelu — zbyt mała może prowadzić do niedouczenia (underfitting), podczas gdy zbyt duża może skutkować przeuczeniem (overfitting). W praktyce często stosuje się wiele epok wraz z technikami walidacji, aby znaleźć optymalny moment zatrzymania treningu. Wykorzystanie epok pozwala także na monitorowanie procesu optymalizacji, co jest kluczowe dla osiągnięcia dobrej generalizacji modelu.