Comment l'incertitude de l'information est mesurée en bits

Mathématiques
Comment l'incertitude de l'information est mesurée en bits

L'entropie de Shannon, développée en 1948, mesure l'incertitude de l'information en bits. Elle constitue la base de la compression de données et de la correction d'erreurs. Elle aide même à comprendre les signaux cérébraux.

L'entropie de Shannon, un concept de 1948, quantifie l'incertitude ou la surprise moyenne dans l'information. Elle est mesurée en bits. Imaginez un lancer de pièce équitable. Son entropie de 1 bit signifie deux résultats équiprobables. Chaque résultat porte un bit d'information. Une pièce truquée a moins d'entropie, reflétant une incertitude réduite.

Il y a plus à découvrir — ouvrez l'app pour continuer la lecture.

Continuer la Lecture dans l'App
2 paragraphes de plus · et un quiz de 3 questions
Ouvrir dans l'App

Profitez de l'expérience complète

Télécharger Savoir Quotidien