Stochastic Parrots – krytyczne określenie LLM jako systemów powtarzających dane bez zrozumienia.
Termin odnosi się do krytycznej oceny dużych modeli językowych (LLM), które generują odpowiedzi na podstawie statystycznych wzorców występujących w danych treningowych, bez prawdziwego zrozumienia treści. Modele te, analizując ogromne korpusy tekstów, uczą się przewidywać najbardziej prawdopodobne ciągi słów, co prowadzi do efektywnego, lecz powierzchownego odtwarzania informacji. W efekcie ich działania często można sprowadzić do powielania dotychczasowych danych, co rodzi pytania o oryginalność, wiarygodność oraz możliwość błędów i uprzedzeń.
Krytyka ta podkreśla ograniczenia takich systemów w zakresie rozumienia semantycznego i kontekstowego, wskazując na brak świadomości czy intencji, które są istotne dla ludzkiego języka i myślenia. Ponadto, wygenerowane przez nie teksty mogą imitować styl lub opinie zawarte w danych treningowych, co może prowadzić do utrwalania stereotypów lub dezinformacji. Określenie to jest używane w dyskusjach nad etyką sztucznej inteligencji, transparentnością modeli oraz koniecznością rozwijania metod pozwalających na bardziej świadome i odpowiedzialne wykorzystanie technologii LLM.