Entropie min
Apparence
En probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est[1] :
La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2–b.
L'entropie min est toujours inférieure ou égale à l'entropie de Shannon; avec égalité si toutes les valeurs de X sont équiprobables. L'entropie min est importante dans la théorie des extracteurs de hasard.
La notation vient d'une famille paramétrée d'entropies appelée entropie de Rényi,
Notes et références
[modifier | modifier le code]- ↑ Robert Konig, Renato Renner et Christian Schaffner, « The Operational Meaning of Min- and Max-Entropy », IEEE Transactions on Information Theory, vol. 55, no 9, , p. 4337–4347 (ISSN 1557-9654, DOI 10.1109/TIT.2009.2025545, lire en ligne, consulté le )
Liens externes
[modifier | modifier le code]