HyperAIHyperAI

Command Palette

Search for a command to run...

Informationsentropie

Datum

vor 7 Jahren

InformationsentropieEine zur Messung der Informationsmenge geeignete Größe, die Shannon 1948 vorgeschlagen hat. Dabei wurde das Konzept der Entropie aus der Thermodynamik übernommen, die durchschnittliche Informationsmenge nach Ausschluss von Redundanzen in der Information als Informationsentropie bezeichnet und der entsprechende mathematische Ausdruck angegeben.

Drei Eigenschaften der Informationsentropie

  • Monotonie: Je höher die Wahrscheinlichkeit eines Ereignisses, desto geringer ist die damit verbundene Informationsentropie. Ein extremes Beispiel ist „die Sonne geht im Osten auf“, was ein deterministisches Ereignis ist und daher keinerlei Informationen enthält. Aus informationstheoretischer Sicht kann davon ausgegangen werden, dass dieser Satz keine Unsicherheit aufweist.
  • Nicht-Negativität: Informationsentropie kann nicht negativ sein. Negative Informationsentropie bedeutet, dass nach dem Erlernen einer bestimmten Information deren Unsicherheit zunimmt, was unlogisch ist.
  • Additivität: Das Gesamtunsicherheitsmaß mehrerer gleichzeitig auftretender Zufallsereignisse kann als Summe der Unsicherheitsmaße jedes einzelnen Ereignisses ausgedrückt werden.

Verweise

【1】Was ist Informationsentropie? (Zhihu)

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Informationsentropie | Wiki | HyperAI