Alignment (Dostosowanie) – dbanie, by cele AI były zgodne z ludzkimi wartościami.

Dostosowanie odnosi się do procesu i zbioru metod mających na celu zapewnienie, że działania sztucznej inteligencji są zgodne z wartościami, celami oraz normami ludzkimi. W praktyce oznacza to projektowanie, trenowanie oraz kontrolowanie systemów AI w taki sposób, aby ich zachowanie nie prowadziło do negatywnych skutków społecznych, etycznych czy bezpieczeństwa. Kluczowym zagadnieniem jest tu minimalizacja ryzyka niezamierzonych konsekwencji oraz zagwarantowanie, że sztuczna inteligencja będzie wspierać dobrostan ludzi i działać w interesie społeczeństwa.

Dostosowanie jest jednym z najważniejszych wyzwań w rozwoju zaawansowanych systemów AI, zwłaszcza w kontekście ich rosnącej autonomii i zdolności podejmowania decyzji. Problem ten obejmuje zarówno aspekt techniczny – opracowywanie algorytmów i mechanizmów kontroli – jak i filozoficzno-etyczny, związany z definiowaniem i implementacją ludzkich wartości w sposób jednoznaczny i mierzalny. Efektywne dostosowanie wymaga zatem interdyscyplinarnego podejścia, łączącego informatykę, etykę, prawo oraz nauki społeczne.