Hyperparameter Tuning – optymalizacja ustawień algorytmu.
Proces polegający na systematycznym dobieraniu wartości parametrów kontrolnych algorytmu uczenia maszynowego, które nie są bezpośrednio uczone podczas treningu, ale mają istotny wpływ na efektywność i jakość modelu. Są to zmienne konfiguracyjne, takie jak tempo uczenia, liczba warstw sieci neuronowej, liczba drzew w lesie losowym czy parametry regularyzacji, które określają sposób działania i zachowanie algorytmu w trakcie uczenia.
Celem jest znalezienie optymalnych ustawień, które maksymalizują wydajność modelu według określonych kryteriów, np. dokładności predykcji czy minimalizacji błędu. W praktyce stosuje się różne metody poszukiwania najlepszych wartości, takie jak przeszukiwanie siatki (grid search), losowe przeszukiwanie (random search) czy algorytmy automatyzujące ten proces, np. optymalizacja bayesowska. Efektywne dostrojenie parametrów ma kluczowe znaczenie dla poprawy jakości modelu i jego zdolności do generalizacji na nieznanych danych.