Entropía y cantidad de información (1).
Los niños que nacieron esta semana en el hospital materno-infantil de nuestra comarca tenían cada uno una cabeza, dos brazos y dos piernas. El sol salió por el este, se puso por el oeste y tras el ocaso el cielo se fue oscureciendo hasta volverse negro...
Noticiario imaginario
Hace cosa de un mes establecimos en este blog qué debe entenderse por variable aleatoria desde un punto de vista totalmente riguroso. Así, el concepto intuitivo de una función que puede tomar uno de entre una serie de valores con una cierta ley de probabilidad, quedaba explicado de forma bastante pormenorizada haciendo uso del concepto de espacios y funciones medibles.
Para los fines de este post, hablaremos de variables aleatorias (v.a.)de forma menos envarada. Tenemos la v.a. X, que supondremos, aunque no tiene porqué ser así, discreta. Esto quiere decir que puede tomar los valores de un conjunto finito {x1, x2,.., xn}, con unas probabilidades definidas:
P{X= x1}=p1
P{X= x2}=p2
...
P{X= xn}=pn
Además, dado que los {x1, x2,.., xn} son todos los casos posibles, tenemos que
p1 + p2 + ... + pn = 1.
Nuestro propósito es definir dos conceptos relativos a las variables aleatorias: cantidad de información y entropía.
Si leen la noticia que encabeza este post (imaginaria evidentemente), verán que a pesar de su más que plausible veracidad, nunca periódico alguno publicará algo semejante. El motivo es claro: está enunciando unas noticias carentes e interés.
Conviene que analicemos un poco esa carencia de interés. En nuestro caso se debe a que los sucesos relatados son de tal habitualidad que no son dignos de ser reseñados. No se trata de que no sean importantes, o que dé lo mismo su cumplimiento que su incumplimiento. Se trata de que la importancia de una noticia es proporcional a su improbabilidad. Un notición es la reseña de un acontecimiento extraordinario que ocurre muy de vez en cuando. Si ocurre una única vez y es prácticamente irrepetible, se convierte en una primicia.
Esta idea intuitiva nos induce a hablar de la cantidad de información de un suceso. Cuanto mayor sea la probabilidad de que se produzca, menor será la información que aporta. Si el suceso es de probabilidad uno, la información que nos aporta su conocimiento es cero. En el caso límite contrario, un suceso de probabilidad cero nos aportaría una información infinita.
Precisamente la función logaritmo tiene unas propiedades muy buenas para cuantificar este extremo: log (x) vale cero para x=1, y va aumentando (en valor absoluto) hacia infinito conforme la x va desde la unidad hacia el cero. Definiremos por tanto la cantidad de información asociada a un suceso aleatorio de la siguiente manera:
El motivo del signo menos es que el logaritmo de todo número comprendido entre 0 y 1 es negativo.La elección de la base 2 para los logaritmos es de índole práctica e irrelevante para la explicación del concepto. Podríamos en principio poner cualquier base; simplemente es una cuestión de escala.
Mañana seguiremos por este camino, pero antes debemos definir qué cosa es la Esperanza matemática de una variable aleatoria . Con este concepto y el de cantidad de información bucearemos en la interpretación del concepto de entropía a la luz de la teoría de la probabilidad.
La Entropía tiene dos problemas:
1.- El concepto es algo difícil de pillar (no demasiado, pero requiere un cuartito de hora de atención)
2.- Es una palabra muy eufónica, suena tremendamente bien.
Ambas propiedades juntas hacen que muchos oradores la suelten, así sin más en medio de su discurso; como para dar empaque a su charla.
Este concepto de entropía es muy polifacético: aparece en matemáticas hablando de simples conjuntos (Entropía de Kolmogorov, de la que hablamos aquí), aparece en la teoría de la información con el aspecto que vamos a tratar en esta serie de post, y cómo no, aparece en física. Internamente subyace una unidad conceptual en todas estas versiones, como una medida del desorden de un sistema.
Seguiremos mañana definiendo la esperanza de una variable aleatoria; paso previo para definir la entropía.
6 comentarios
Tadalafil -
Anónimo -
juan -
Tio Petros -
Según dicha definición, el cantidad de información del noticiario imaginario es nula, aunque se empleen muchos bits en formularla.
omalaled -
Saludos
Duende -