Over-parameterization – sytuacja, gdy model ma znacznie więcej parametrów niż danych.
Over-parameterization oznacza sytuację w uczeniu maszynowym i sztucznej inteligencji, gdy liczba parametrów modelu przewyższa znacząco liczbę dostępnych danych treningowych. W praktyce oznacza to, że model jest wyposażony w więcej zmiennych do dostosowania niż obserwacji, na podstawie których ma się nauczyć zadanej funkcji lub wzorca. Taka struktura może teoretycznie prowadzić do przeuczenia (overfitting), gdy model zbytnio dopasowuje się do szczegółów danych treningowych, tracąc zdolność do generalizacji na nowe, nieznane dane.
Jednak mimo potencjalnych zagrożeń nadmiernej liczby parametrów, nowoczesne metody uczenia, zwłaszcza w sieciach neuronowych głębokiego uczenia, często korzystają z over-parameterization z powodzeniem. W takich przypadkach odpowiednio dobrane techniki regularizacji, optymalizacji oraz architektury modeli pozwalają na uzyskanie wysokiej wydajności i zdolności generalizacji, pomimo znacznego przewyższenia liczby parametrów nad danymi treningowymi. Over-parameterization stanowi zatem istotne zagadnienie w badaniach nad efektywnością i stabilnością modeli uczenia maszynowego.