Feature Scaling – standaryzacja zakresów danych wejściowych.

Proces przekształcania cech danych wejściowych w taki sposób, aby miały one określony zakres wartości, najczęściej znormalizowany lub standaryzowany, co ułatwia analizę i poprawia efektywność działania algorytmów uczenia maszynowego. Standaryzacja polega na przeskalowaniu zmiennych tak, aby miały średnią równą zero i odchylenie standardowe równe jeden. Dzięki temu wszystkie cechy znajdują się na porównywalnym poziomie, co zapobiega dominacji cech o większych skalach nad tymi o mniejszych wartościach.

Metoda ta jest szczególnie istotna w kontekście algorytmów uczących się, które są wrażliwe na skalę danych, takich jak regresja liniowa, metoda najbliższych sąsiadów, sieci neuronowe czy metody oparte na odległościach. Brak odpowiedniego skalowania może prowadzić do nieprawidłowego działania modelu, wydłużenia czasu uczenia lub błędów w ocenie znaczenia poszczególnych cech. Standaryzacja jest zatem kluczowym etapem wstępnego przetwarzania danych, który wpływa na stabilność i precyzję otrzymywanych wyników.