Ensemble Learning – łączenie wielu modeli w celu uzyskania lepszego wyniku.
Technika polegająca na łączeniu wielu modeli uczenia maszynowego w celu uzyskania bardziej skutecznych i stabilnych predykcji niż przy wykorzystaniu pojedynczego modelu. Modele takie, zwane bazowymi, mogą różnić się architekturą, zestawem cech lub metodą uczenia, a ich wyniki są agregowane w różny sposób, na przykład przez głosowanie większościowe, ważoną sumę predykcji lub mechanizmy boostingu i baggingu. Takie podejście pozwala na redukcję wariancji, błędu systematycznego oraz poprawę odporności na dane szumowe.
Zastosowanie tej metody zwiększa ogólną dokładność systemów predykcyjnych, ponieważ błędy poszczególnych modeli często się kompensują. W praktyce ensemble learning stosuje się zarówno w klasyfikacji, regresji, jak i zadaniach złożonych, gdzie pojedyncze modele mogą nie osiągać zadowalającej jakości. Popularne techniki obejmują Random Forest, AdaBoost czy Gradient Boosting, które poprzez iteracyjne lub losowe generowanie i ważenie modeli bazowych budują złożone struktury predykcyjne.
W literaturze ensemble learning jest postrzegany jako jedna z kluczowych metod poprawiających efektywność uczenia maszynowego na przestrzeni ostatnich dekad. Jego uniwersalność i wysoka skuteczność sprawiają, że jest standardowym narzędziem stosowanym w wielu dziedzinach sztucznej inteligencji, takich jak analiza danych, rozpoznawanie obrazów, czy prognozowanie czasowe.