Bias (Obciążenie) – stała dodawana do sumy sygnałów w neuronie.
Bias (obciążenie) w kontekście sztucznej inteligencji odnosi się do stałej wartości dodawanej do sumy sygnałów wejściowych w neuronie sieci neuronowej przed zastosowaniem funkcji aktywacji. Jego podstawową rolą jest przesunięcie funkcji aktywacji tak, aby model mógł lepiej dopasować się do danych, umożliwiając neuronom aktywację nawet w przypadku zerowej lub niskiej sumy ważonych wejść.
Dodanie biasu zwiększa elastyczność i zdolność modelu do uczenia się złożonych zależności, co przekłada się na poprawę dokładności i zdolność generalizacji. W procesie uczenia bias, podobnie jak wagi synaptyczne, jest optymalizowany za pomocą algorytmów uczenia, takich jak propagacja wsteczna. Obecność obciążenia jest standardowym elementem architektury sieci neuronowych oraz innych modeli uczenia maszynowego.