viernes, 24 de febrero de 2017

Tema 11. Entropia de Memoria Nula

Tema 11. Entropia de Memoria Nula

Calculo de la entropia de memoria nula


Entropia

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información. La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información

Número de datos:

Datos ingresados:

Cantidad de información:

Entropia de la fuente original: bits/símbolo

Segunda extensión:

Cantidad de información de la 2° extensión:

Entropia de la 2° extensión: bits/símbolo



Referencias:

Jorge Ramió Aguirre, Aplicaciones criptográficas. Libro guía de la asignatura de Seguridad Informática. Escuela Universitaria de Informática. Universidad Politécnica de Madrid. Enero 1998.

No hay comentarios:

Publicar un comentario