Checkpoint – zapisany stan modelu w trakcie trenowania.

Checkpoint to zapisany stan modelu uczenia maszynowego w trakcie procesu trenowania, który pozwala na zachowanie aktualnego poziomu jego parametrów oraz konfiguracji. Taki zapis umożliwia późniejsze wznowienie treningu od momentu, w którym został zatrzymany, bez konieczności rozpoczynania go od początku. Dzięki temu możliwa jest efektywniejsza kontrola nad procesem uczenia, zwłaszcza w przypadku długotrwałych lub zasobożernych obliczeń.

Mechanizm checkpointów jest szczególnie istotny w sytuacjach, gdy trening modelu może zostać przerwany z powodu awarii sprzętowej, ograniczeń czasowych czy potrzeby eksperymentalnego sprawdzenia różnych konfiguracji. Zapisane stany mogą być również wykorzystywane do późniejszej analizy postępów modelu lub do wyboru najlepszego modelu na podstawie wybranych kryteriów. Checkpointy są standardowym narzędziem w zaawansowanych frameworkach uczenia maszynowego i sieci neuronowych.