Hallucination (Halucynacja) – generowanie przez AI nieprawdziwych informacji.
Halucynacja w kontekście sztucznej inteligencji odnosi się do zjawiska generowania przez modele AI informacji, które są fałszywe, nieprawdziwe lub nieistniejące w rzeczywistości. Mimo że wyniki takie często mogą brzmieć wiarygodnie, nie mają oparcia w dostępnych danych ani faktycznej wiedzy. Jest to problem szczególnie zauważalny w systemach generatywnych, takich jak modele językowe, które na podstawie wzorców i statystycznych korelacji tworzą odpowiedzi na zadane pytania lub polecenia.
Przyczyny halucynacji mogą wynikać z ograniczeń architektury modelu, braku odpowiedniej weryfikacji informacji, a także ze sposobu szkolenia na niechlujnie oznakowanych lub niepełnych zbiorach danych. Problem ten ma istotne konsekwencje praktyczne, zwłaszcza w zastosowaniach wymagających wysokiej wiarygodności i precyzji, takich jak medycyna, prawo czy finanse. Dlatego jednym z obszarów intensywnych badań w rozwoju AI jest opracowywanie metod wykrywania i redukowania halucynacji, aby zwiększyć dokładność oraz zaufanie do generowanych treści.