Funkcja aktywacji – decyduje, czy neuron powinien "odpalić".
To matematyczna funkcja stosowana w sztucznych sieciach neuronowych, której zadaniem jest określenie, czy sygnał wejściowy neuronu jest na tyle silny, aby aktywować jego wyjście. Pełni rolę decydującą w procesie przetwarzania informacji, umożliwiając modelowi wprowadzenie nieliniowości, co pozwala na rozwiązywanie bardziej złożonych problemów niż te możliwe do realizacji przez proste modele liniowe.
Funkcja aktywacji przekształca sumę ważonych sygnałów wejściowych w wartość, która jest przekazywana jako sygnał wyjściowy neuronu. Do najpopularniejszych funkcji aktywacji należą m.in. funkcja sigmoidalna, ReLU (Rectified Linear Unit) oraz funkcje typu tanh. Wybór odpowiedniej funkcji aktywacji ma istotne znaczenie dla efektywności uczenia się sieci i jakości uzyskiwanych rezultatów.