Model Collapse – degradacja modeli uczonych na danych z innej AI.
Zjawisko polegające na stopniowym pogarszaniu się jakości oraz efektywności modeli sztucznej inteligencji, które zostały wytrenowane na danych generowanych przez inne modele AI. Proces ten prowadzi do utraty różnorodności i ogólności w reprezentacjach danych, co skutkuje ograniczoną zdolnością do generalizacji oraz degradacją wyników w zadaniach predykcyjnych lub generatywnych. De facto, modele tracą zdolność do poprawnego interpretowania rzeczywistych danych, będących odmiennymi od tych sztucznie wygenerowanych.
Problem ten jest szczególnie istotny przy ciągłym wykorzystywaniu syntetycznych danych, gdy kolejne modele uczą się na podstawie danych stworzonej przez wcześniejsze modele, co prowadzi do tzw. efektu echo lub błędu kompensacyjnego. W konsekwencji, błędy i artefakty pojawiające się w sztucznie generowanych zbiorach danych ulegają utrwaleniu i nasileniu, a modele coraz bardziej oddalają się od rzeczywistego rozkładu danych wejściowych. Skuteczne przeciwdziałanie temu zjawisku wymaga stosowania technik walidacji, różnicowania źródeł danych oraz integracji rzeczywistych, nienaruszonych informacji w procesie uczenia.