Perceptron – najprostsza, podstawowa jednostka sieci neuronowej.

Perceptron to najprostsza i podstawowa jednostka sieci neuronowej, stanowiąca model sztucznego neuronu. Jego konstrukcja inspirowana jest biologicznym neuronem – przetwarza sygnały wejściowe, które są ważone i sumowane, a następnie poddawane funkcji aktywacji, zwykle progowej. Wynik tego procesu decyduje o emisji sygnału wyjściowego, zwykle w postaci dyskretnej wartości, co pozwala na podejmowanie decyzji w taskach klasyfikacyjnych.

Model perceptronu został zaproponowany w latach 50. XX wieku przez Franka Rosenblatta i stanowił fundament wczesnych badań nad sztucznymi sieciami neuronowymi. Jego największą zaletą jest prostota oraz możliwość adaptacji wag za pomocą algorytmu uczenia nadzorowanego. Pomimo ograniczeń wynikających z liniowej separowalności danych, perceptron odegrał kluczową rolę w rozwoju późniejszych, bardziej złożonych architektur neuronowych.