AI Alignment Problem – problem zgodności celów AI z ludzkimi.
Problem zgodności celów AI z ludzkimi odnosi się do wyzwania zapewnienia, że sztuczna inteligencja będzie działać w sposób zgodny z wartościami, intencjami i interesami ludzi. W miarę jak systemy AI stają się coraz bardziej zaawansowane i autonomiczne, kluczowe staje się zagwarantowanie, że ich cele i działania nie będą sprzeczne z zamierzeniami twórców oraz nie doprowadzą do niezamierzonych negatywnych skutków. Problem ten wynika z trudności w precyzyjnym określeniu i przekazaniu maszynom złożonych i często niejednoznacznych norm etycznych oraz społecznych.
W praktyce problem zgodności obejmuje zarówno techniczne aspekty formułowania celów i algorytmów uczenia maszynowego, jak i filozoficzne zagadnienia dotyczące wartości, które powinny być priorytetowe dla systemów AI. Niewłaściwe zdefiniowanie lub interpretacja celów może prowadzić do tzw. „efektów ubocznych” – działań niepożądanych, mimo że system formalnie realizuje postawione przed nim zadania. Badania w tym obszarze skupiają się na metodach weryfikacji, interpretowalności oraz kontroli zachowań AI, aby maksymalizować korzyści i minimalizować ryzyko związane z ich rozwojem i wdrażaniem.