Cómo se mide la incertidumbre de la información en bits

Matemáticas
Cómo se mide la incertidumbre de la información en bits

La entropía de Shannon, desarrollada en 1948, mide la incertidumbre de la información en bits. Es la base de la compresión de datos y la corrección de errores. Incluso ayuda a entender las señales cerebrales.

La entropía de Shannon, un concepto de 1948, cuantifica la incertidumbre o sorpresa promedio en la información. Se mide en bits. Imagina lanzar una moneda justa. Su entropía de 1 bit significa dos resultados igualmente probables. Cada uno lleva un bit de información.

Hay más sobre esta historia — abre la app para seguir leyendo.

Seguir Leyendo en la App
2 párrafos más · más un cuestionario de 3 preguntas
Abrir en la App

Obtener la experiencia completa

Descargar Conocimiento Diario