Comment l'incertitude de l'information est mesurée en bits
L'entropie de Shannon, développée en 1948, mesure l'incertitude de l'information en bits. Elle constitue la base de la compression de données et de la correction d'erreurs. Elle aide même à comprendre les signaux cérébraux.
L'entropie de Shannon, un concept de 1948, quantifie l'incertitude ou la surprise moyenne dans l'information. Elle est mesurée en bits. Imaginez un lancer de pièce équitable. Son entropie de 1 bit signifie deux résultats équiprobables. Chaque résultat porte un bit d'information. Une pièce truquée a moins d'entropie, reflétant une incertitude réduite.
Il y a plus à découvrir — ouvrez l'app pour continuer la lecture.