Normalizacja danych – sprowadzanie danych do wspólnej skali.
Proces polegający na przekształcaniu wartości cech lub zmiennych w zbiorze danych do ustalonego i porównywalnego zakresu, mający na celu ułatwienie analizy oraz poprawę efektywności algorytmów uczenia maszynowego. Normalizacja stanowi jedną z technik przygotowania danych, która eliminuje problem różnorodnych jednostek miar lub skali, co może negatywnie wpływać na działanie modeli predykcyjnych i porównywanie cech.
W praktyce najczęściej stosuje się metody takie jak skalowanie do przedziału [0,1] lub standaryzację, czyli transformację danych tak, aby miały średnią równą zero i odchylenie standardowe równe jeden. Normalizacja jest szczególnie istotna w przypadku algorytmów opartych na odległościach (np. k-NN, SVM) oraz sieci neuronowych, gdzie różne zakresy wartości mogą prowadzić do dominacji niektórych cech i zafałszowania wyników. Poprawne zastosowanie tego podejścia pozwala na uzyskanie bardziej stabilnych i spójnych rezultatów w procesie analizy danych i modeli sztucznej inteligencji.