Hyperparameter Optimization (HPO) – szukanie najlepszych ustawień dla modelu.
Jest to proces polegający na automatycznym lub półautomatycznym doborze najlepszych wartości parametrów sterujących procesem uczenia się modelu sztucznej inteligencji. Parametry te, zwane hiperparametrami, mają istotny wpływ na jakość i efektywność działania modelu, a ich optymalne ustawienie jest kluczowe dla osiągnięcia wysokiej dokładności i generalizacji na danych testowych. Hiperparametry mogą dotyczyć między innymi struktury modelu, tempa uczenia, regularizacji czy liczby iteracji.
Metody stosowane w celu znalezienia optymalnych wartości obejmują podejścia takie jak wyszukiwanie siatki (grid search), wyszukiwanie losowe (random search), a także bardziej zaawansowane techniki optymalizacji bayesowskiej czy algorytmy ewolucyjne. Wybór odpowiedniej metody zależy od dostępnych zasobów obliczeniowych oraz charakterystyki problemu. Proces ten jest niezwykle istotny w praktyce, ponieważ od dobrze dobranych hiperparametrów często zależy skuteczność i stabilność modelu w rzeczywistych zastosowaniach.