Overfitting (Przeuczenie) – model zbyt dobrze zna dane treningowe, nie radzi sobie z nowymi.
Overfitting, zwany także przeuczeniem, to zjawisko w uczeniu maszynowym, w którym model jest nadmiernie dopasowany do danych treningowych. W praktyce oznacza to, że model „uczy się” nie tylko istotnych wzorców, ale także szumów i szczegółów specyficznych dla zbioru treningowego. W rezultacie jego zdolność do generalizacji, czyli poprawnego działania na nowych, niewidzianych wcześniej danych, jest znacznie ograniczona.
Przeuczenie najczęściej występuje, gdy model jest zbyt skomplikowany lub zbyt długo trenowany na ograniczonym zbiorze danych, co prowadzi do nadmiernej adaptacji do konkretnego zestawu przykładów. Aby temu przeciwdziałać, stosuje się techniki takie jak walidacja krzyżowa, regularizacja, redukcja złożoności modelu czy zwiększanie liczby danych treningowych. Celem jest znalezienie odpowiedniego balansu między dopasowaniem do danych a zdolnością do uogólniania wiedzy na nowe sytuacje.