Explainable AI (XAI) – techniki pozwalające zrozumieć decyzje modelu.
Explainable AI (XAI) odnosi się do zbioru metod i technik umożliwiających interpretację, analizę oraz zrozumienie decyzji podejmowanych przez modele sztucznej inteligencji. Celem tych rozwiązań jest zwiększenie przejrzystości procesów decyzyjnych, co pozwala użytkownikom, ekspertom oraz decydentom na weryfikację i ocenę wiarygodności działania systemu. Techniki XAI znajdują zastosowanie zwłaszcza w systemach opartych na uczeniu maszynowym i głębokich sieciach neuronowych, które ze względu na swoją złożoność i wewnętrzne mechanizmy działania są często postrzegane jako "czarne skrzynki".
W praktyce metody explainable AI obejmują m.in. generowanie wyjaśnień lokalnych i globalnych, interpretację ważności cech wejściowych, wizualizację procesu predykcji oraz analizy wrażliwości modelu na zmiany danych. Dzięki tym narzędziom możliwe jest nie tylko zrozumienie pojedynczych decyzji systemu, ale także identyfikacja potencjalnych błędów, uprzedzeń i ryzyka, co przekłada się na poprawę jakości oraz bezpieczeństwa wdrażanych rozwiązań AI. Implementacja XAI jest szczególnie istotna w obszarach takich jak medycyna, finanse, czy systemy autonomiczne, gdzie decyzje mają istotne konsekwencje dla życia i zdrowia ludzi.