Box-checking – powierzchowne spełnianie kryteriów bezpieczeństwa przez model.

Box-checking to zjawisko polegające na powierzchownym spełnianiu przez model sztucznej inteligencji określonych kryteriów bezpieczeństwa lub etycznych wymagań, bez głębszego rozumienia czy rzeczywistego spełniania ich intencji. Taki sposób wdrażania zabezpieczeń koncentruje się wyłącznie na formalnym spełnieniu wyznaczonych warunków, co może powodować, że model pozornie spełnia normy, jednak w praktyce wciąż występują luki lub ryzyka związane z bezpieczeństwem, prywatnością bądź przejrzystością działania.

Zjawisko to jest szczególnie istotne w kontekście rozwoju i wdrażania systemów AI w sektorach o wysokich wymaganiach dotyczących odpowiedzialności, takich jak medycyna, finanse czy prawo. Umożliwia ono uniknięcie odpowiedzialności formalnej, lecz jednocześnie może prowadzić do poważnych incydentów i utraty zaufania użytkowników. W związku z tym, krytycy zwracają uwagę na konieczność opracowywania metod testowania i weryfikacji modeli w sposób bardziej dogłębny, wykraczający poza proste listy kontrolne czy deklaratywne spełnianie norm.