Bias (Stronniczość) – uprzedzenia modelu wynikające z błędnych danych.
Bias w kontekście sztucznej inteligencji odnosi się do systematycznych uprzedzeń lub odchyleń w działaniu modelu wynikających z nieodpowiednich lub błędnych danych treningowych. Powstaje, gdy zbiór danych, na którym model jest uczony, nie odzwierciedla rzeczywistego rozkładu informacji, jest niepełny lub zawiera uprzedzenia kulturowe, społeczne czy demograficzne. W efekcie model może faworyzować jedne grupy lub wyniki kosztem innych, co prowadzi do niesprawiedliwych lub niepoprawnych decyzji.
Problem biasu jest szczególnie istotny w zastosowaniach sztucznej inteligencji, gdzie wyniki mogą mieć istotny wpływ na życie ludzi, na przykład w medycynie, systemach rekrutacyjnych czy w wymiarze sprawiedliwości. Redukcja biasu wymaga starannego doboru i oczyszczenia danych, a także stosowania technik takie jak normalizacja, augmentacja danych czy algorytmy korygujące. Zrozumienie i eliminacja biasu stanowi ważny element etyki i odpowiedzialności w rozwoju systemów opartych na uczeniu maszynowym.