AI Act (High-risk systems) – kategoria systemów AI wymagających ścisłego nadzoru w UE.

Jest to klasyfikacja systemów sztucznej inteligencji, które ze względu na potencjalne ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych osób podlegają ścisłemu nadzorowi prawnemu w Unii Europejskiej. Kategoria ta została wprowadzona w ramach rozporządzenia Parlamentu Europejskiego i Rady UE dotyczącego regulacji sztucznej inteligencji, znanego jako AI Act, którego celem jest zapewnienie wysokiego poziomu ochrony użytkowników i społeczeństwa przy jednoczesnym wspieraniu innowacji.

Systemy należące do tej grupy muszą spełniać szczegółowe wymogi dotyczące oceny ryzyka, transparentności, odpowiedzialności oraz bezpieczeństwa przed wprowadzeniem na rynek i w trakcie użytkowania. Obejmuje to m.in. obowiązek przeprowadzania rygorystycznych testów, wdrażania mechanizmów nadzoru oraz raportowania incydentów. Do systemów wysokiego ryzyka zaliczane są m.in. technologie używane w sektorze medycznym, transportowym, edukacyjnym czy stosowane w procesach rekrutacji, identyfikacji osób lub w wymiarze sprawiedliwości.

Regulacja ta ma na celu minimalizację potencjalnych negatywnych skutków wdrożenia zaawansowanych rozwiązań AI oraz zapewnienie użytkownikom odpowiednich gwarancji prawnych i technologicznych. Wprowadzenie takiej kategoryzacji jest istotnym krokiem w harmonizacji ram prawnych dotyczących sztucznej inteligencji na terenie UE, promującym bezpieczne i odpowiedzialne stosowanie tych technologii.