Cómo se mide la incertidumbre de la información en bits
La entropía de Shannon, desarrollada en 1948, mide la incertidumbre de la información en bits. Es la base de la compresión de datos y la corrección de errores. Incluso ayuda a entender las señales cerebrales.
La entropía de Shannon, un concepto de 1948, cuantifica la incertidumbre o sorpresa promedio en la información. Se mide en bits. Imagina lanzar una moneda justa. Su entropía de 1 bit significa dos resultados igualmente probables. Cada uno lleva un bit de información.
Hay más sobre esta historia — abre la app para seguir leyendo.