Czarna skrzynka (Black Box) – model, którego wewnętrzne działanie jest niezrozumiałe dla człowieka.
Termin odnosi się do modeli lub systemów, których mechanizmy działania nie są jawne ani zrozumiałe dla użytkownika, mimo że na podstawie ich wejść i wyjść można ocenić ich funkcjonowanie. W kontekście sztucznej inteligencji, czarna skrzynka często opisuje algorytmy, takie jak sieci neuronowe czy modele głębokiego uczenia, których proces decyzji jest trudny do interpretacji. Brak przejrzystości wewnętrznych operacji ogranicza możliwość weryfikacji ich działania oraz zrozumienia przyczyn podejmowanych decyzji.
Problematyka tego typu modeli jest istotna zwłaszcza w zastosowaniach wymagających wysokiego poziomu zaufania i transparentności, na przykład w medycynie, finansach czy systemach autonomicznych. W odpowiedzi na te wyzwania rozwija się dziedzina interpretowalnej sztucznej inteligencji (Explainable AI), która ma na celu stworzenie narzędzi i metod umożliwiających wyjaśnianie działania czarnych skrzynek. Dzięki temu możliwe jest monitorowanie, kontrola oraz poprawa jakości i bezpieczeństwa systemów opartych na modelach o nieprzejrzystej strukturze.