Calculo de la entropia de memoria nula
Entropia
En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información. La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información
Número de datos:
Datos ingresados:
Cantidad de información:
Entropia de la fuente original: bits/símbolo
Segunda extensión:
Cantidad de información de la 2° extensión:
Entropia de la 2° extensión: bits/símbolo
Referencias:
Jorge Ramió Aguirre, Aplicaciones criptográficas. Libro guía de la asignatura de Seguridad Informática. Escuela Universitaria de Informática. Universidad Politécnica de Madrid. Enero 1998.