Entropia krzyżowa
Entropia krzyżowa – wartość używana w teorii informacji[1]. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwego[2].
Definicja
[edytuj | edytuj kod]Wzór na entropię krzyżową dyskretnej zmiennej losowej o zbiorze wartości i zdefiniowanych na nich rozkładach prawdopodobieństw i [1]:
Interpretując entropię krzyżową jako miarę nietrafności, za przyjmuje się rozkład traktowany jako prawdziwy, a za rozkład oceniany[2].
Własności
[edytuj | edytuj kod]Ponieważ[2]
entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństwa oraz miary dywergencji Kullbacka-Leiblera między i [2]:
Traktując entropię krzyżową jako nietrafność względem można traktować ją jako sumę nietrafności związanej z niepewnością i nietrafności związanej z błędem względem [2].
Przypisy
[edytuj | edytuj kod]- ↑ a b I.J. Good , Some terminology and notation in information theory, „Proceedings of the IEE - Part C: Monographs”, 103 (3), 1956, s. 200–204, DOI: 10.1049/pi-c.1956.0024 .
- ↑ a b c d e D.F. Kerridge , Inaccuracy and Inference, „Journal of the Royal Statistical Society. Series B (Methodological)”, 37 (1), 1961, s. 184–194, DOI: 10.2307/2983856, JSTOR: 2983856 .