Cross-Entropy Loss – funkcja kosztu powszechnie stosowana w klasyfikacji.
Funkcja kosztu wykorzystywana do oceny jakości modelu klasyfikacyjnego, szczególnie w zadaniach klasyfikacji wieloklasowej i binarnej. Opiera się na mierze entropii krzyżowej, która porównuje rozkład prawdopodobieństwa przewidywany przez model z faktycznym rozkładem etykiet w zbiorze danych. Metryka ta karze model za przypisywanie niskiego prawdopodobieństwa do prawidłowej klasy, a jej wartość jest minimalizowana podczas procesu uczenia.
W kontekście klasyfikacji binarnej funkcja ta wyraża się wzorem, który sumuje iloczyny etykiet rzeczywistych oraz logarytmów przewidywanych prawdopodobieństw, pozwalając na efektywne dostosowanie parametrów sieci neuronowej. Dzięki tej właściwości jest szeroko stosowana w sieciach głębokich i algorytmach uczenia maszynowego, poprawiając ich zdolność do generalizacji i skuteczność klasyfikacji.