Wie informationsunsicherheit in bits gemessen wird
Shannon-Entropie, 1948 entwickelt, misst Informationsunsicherheit in Bits. Sie bildet die Grundlage für Datenkompression und Fehlerkorrektur. Auch das Verständnis von Gehirnsignalen wird dadurch ermöglicht.
Shannon-Entropie, ein Konzept von 1948, quantifiziert die durchschnittliche Unsicherheit oder Überraschung in Informationen. Sie wird in Bits gemessen. Stellen Sie sich einen fairen Münzwurf vor. Seine 1 Bit Entropie bedeutet zwei gleich wahrscheinliche Ergebnisse. Jedes Ergebnis trägt ein Bit Information. Eine voreingenommene Münze hat weniger Entropie. Dies spiegelt eine reduzierte Unsicherheit wider.
Es gibt mehr zu lesen — öffne die App, um weiterzulesen.