Scalable Oversight – metody nadzorowania AI przez ludzi, gdy AI staje się bardzo złożona.

Termin oznacza zbiór technik i podejść mających na celu efektywne monitorowanie oraz kontrolę systemów sztucznej inteligencji, zwłaszcza gdy ich złożoność znacznie wzrasta. W miarę jak modele AI stają się coraz bardziej skomplikowane i autonomiczne, tradycyjne metody nadzoru oparte bezpośrednio na ludzkiej ocenie stają się niewystarczające lub niepraktyczne. W odpowiedzi na te wyzwania rozwijane są rozwiązania umożliwiające skalowalne kontrolowanie takich systemów, tak aby zapewnić ich zgodność z oczekiwaniami oraz normami etycznymi i operacyjnymi.

Istotą podejścia jest tworzenie mechanizmów pozwalających na efektywne delegowanie części procesów nadzoru robotom czy algorytmom wspierającym człowieka, a także hierarchiczne struktury nadzoru, które ułatwiają analizę i weryfikację działania systemów AI na różnych poziomach szczegółowości. W praktyce obejmuje to techniki takie jak podział złożonych zadań na mniejsze, modularne elementy oraz stosowanie metody oceny pośredniej (np. oceny działania podmodeli lub fragmentów systemu) celem ograniczenia obciążenia ludzkich ekspertów. Dzięki temu możliwe jest zachowanie kontroli nawet nad bardzo rozbudowanymi i samodzielnie uczącymi się modelami AI.