Blogia

Tio Petros

Entropía y cantidad de información (y 4)

Vamos a intentar sacarle jugo a la fórmula de la entropía de una variable aleatoria. En todo caso hablaremos de variables aleatorias discretas, que pueden tomar un número finito o al menos numerable de valores, sin embargo la extrapolación a variables continuas es muy sencilla y no añade dificultad conceptual alguna.

Primero, volvemos a poner la ilustración del post anterior, en la que se ve además el origen del concepto de entropía a partir de la cantidad de información aportada por cada posible valor de la variable aleatoria.



Puede suceder que uno de los posibles valores xi tenga asociada una probabilidad pi=1. Como la suma de todas las probabilidades es la unidad, eso quiere decir que los demás "posibles sucesos" tienen probabilidad cero (no son posibles, de ahí el entrecomillado anterior).

Una variable así nos está diciendo que se va a realizar el valor xi con seguridad. A una variable aleatoria de este tipo la denominaremos degenerada , por no aportar aleatoriedad alguna.

Qué sucede con la entropía de una variable aleatoria degenerada?

Sólo tiene un valor con probabilidad mayor que cero, por lo que dicha probabilidad es uno; y para ese valor el logaritmo de la probabilidad es cero (pues log21=0), por lo que la entropía de dicha variable es nula.

Una v. a. nos está ofreciendo una cierta información; es como cuando el médico nos dice que tenemos un 88% de posibilidades de vencer nuestra enfermedad. No nos da tanta información como cuando nos dice con seguridad qué nos va a pasar; pero nos da más información que si nos habla de un 50% de posibilidades. La variable aleatoria degenerada no deja aleatoriedad: da la información máxima posible, y tiene entropía nula, según acabamos de ver.

Este hecho es el primer indicio de que si pensábamos que la entropía era una medida de la información que me ofrece una variable aleatoria, estábamos equivocados.

LA ENTROPIA DE UNA VARIABLE ALEATORIA NO NOS INDICA EL GRADO DE INFORMACION QUE NOS OFRECE DICHA VARIABLE

De hecho, es un muy buen indicador de lo contrario. Cuanto más baja sea la entropía de una v. a., más información nos estará dando, hasta llegar a la entropía nula en el caso de información puntual, fiel y no probabilística (en el sentido de que la ofrece con probabilidad 1)

El hecho de que hayamos dicho que la entropía era el valor esperado de la cantidad de información asociada a los valores posibles no nos debe llevar a engaño: una cosa es la información que aporta la variable aleatoria en sí, y otra es el incremento de información que nos supone el conocimiento de la materialización práctica del valor de dicha variable en un experimento. Bajo esta luz es evidente que un suceso de probabilidad uno tenga información asociada nula: ¿qué información nos va a aportar, si la variable aleatoria ya nos da toda la información posible?

Si el médico me dice que tengo una probabilidad del 100% de curarme de mi enfermedad (variable aleatoria degenerada) me aporta de principio la máxima información. Cuando me he curado (realización práctica del suceso predicho por la variable), ya no obtengo información añadida. En el extremo opuesto, si me dice que tengo un 50% de probabilidades de curación (máxima aleatoriedad) no me aporta información alguna, y mi futura curación (realización del experimento asociado a la variable aleatoria) en cambio aportará toda la información que la variable no aportaba.

La entropía de la variable es la medida esperada de la información que aportará la realización del evento asociado a la variable, no la propia variable. Por eso es que una entropía alta implica que la propia variable aporta una información pequeña. El resto de la información hasta la certeza vendrá de la materialización práctica del evento.

Vayamos a uno de los casos más sencillos de variable aleatoria: la realización de un experimento con dos posibles resultados, de probabilidad p y (1-p). El lanzamiento de una moneda (con posibles resultados 0 (cara) y 1 (cruz), o de un dado con resultados 0 (impar) ó 1 (par).

La entropía de esta variable , aplicando la fórmula de la definición es:

H[X]= -p·log2p-(1-p)·log2(1-p)

En el caso general tenemos infinitas distribuciones diferentes con este esquema dependiendo del valor de p, que recorre los reales en el intervalo [0,1].

Un poco de cálculo nos convencerá de que el valor máximo de la entropía es para p=0,5, y los mínimos para p=0 y p=1, para los cuales la entropía vale cero. En efecto, en ambos casos tenemos una variable degenerada; y la máxima entropía se da cuando la distribución es uniforme: todos los valores tienen la misma probabilidad de ocurrir y la variable en sí no nos aporta información alguna de cuál puede ser el que se dé en el evento.

Ahora sabemos que el máximo de entropía es para la distribución uniforme, además es muy sencillo evaluarla:

Si tenemos una v. a. X que toma valores {x1,x2,...,xn} con probabilidades (p1,p2,...,pn), si hay equiprobabilidad entonces pi=1/n, para todo n, y por lo tanto:

H[X]=-(1/p)·log2(1/p)-(1/p)·log2(1/p)-...-(1/p)·log2(1/p)=
log2(p)

Esta es la mayor entropía que puede tener una variable aleatoria de n estados.

Esta fórmula:

H[X]=log2(p)

es idéntica a la fórmula física que expresa la entropía de un sistema en función de su número de estados, salvo por la presencia de la constante de Boltzmann. Tanto en el caso físico como aquí, la elección del valor numérico de la constante depende de las unidades en las que estemos trabajando. En nuestro caso hemos elegido el asunto al dar base 2 a los logaritmos empleados y la unidad es el bit.

Así, una variable con 8 estados, si es uniformemente distribuida y por lo tanto aporta la menor información posible; tiene una entropía de H=log28=3 bits.

Habiendo ocho estados son precisamente 3 los bits necesarios para nombrarlos a todos (000,001,010,011,100,101,110 y 111). Esto no tiene nada de casual, sino todo lo contrario; pero es una historia que debe ser contada en otra ocasión... ocasión que deberá esperar pues este blog suspende su actividad hasta mediados-finales de Julio por motivos vacacionales.

Volveremos entonces con más energía. Que pasen un buen verano (o invierno, si nos leen desde el hemisferio sur).

Entropía y cantidad de información (3)

Supongamos que tenemos una urna con diez bolas. Sabemos que nueve son blancas y una negra. Si sacamos una bola al azar, consideremos la variable aleatoria asociada al experimento, X. La cuantificamos dándole el valor de 0 si la bola extraída es negra, y 1 si es blanca

P{X=1} = 9/10 = 0.9

P{X=0} = 1/10 = 0.1

Podemos hallar la esperanza de la v.a. X:

E[X]=1 · 0.9 + 0 · 0.1 = 0.9

Esto no es ninguna sorpresa: la esperanza, o valor esperado, no es sino el promedio esperado tras una multitud de repeticiones del mismo experimento. En promedio, 9 de cada 10 veces obtendremos un 1 (bola blanca), por lo que el valor promedio de la variable es precisamente 0.9

Sólo dos son los valores posibles de X , pero la información asociada a cada uno de ellos es diferente.

Recordemos la definición de cantidad de información asociada a un suceso i:



En nuestro caso, tenemos:

I1= - log2(0.9)= 0.15

I0= - log2(0.1)= 3.32

Vemos que la información asociada a sacar una bola negra (X=0) es mucho mayor que la información asociada al suceso "sacar una bola blanca". Una forma de entender esto es comprender que obtener una bola negra reduce la indeterminación completamente: sabemos que cada una de las bolas que quedan en la urna son blancas. Si hubiéramos obtenido una bola blanca, la reducción de incertidumbre es mucho menor: seguimos sin poder decir qué pasaría si hiciéramos otra extracción sin reemplazamiento de la bola previamente extraída.

Así pues, tener una variable aleatoria implica no saber el resultado que vamos a obtener, y esto implica no saber qué cantidad de información vamos a obtener al realizar el experimento, porque cada posible resultado nos aporta una cantidad de información diferente.

Esta simple idea nos sirve para definir a partir de una variable aleatoria otra variable aleatoria derivada, que consiste precisamente en la cantidad de información a obtener en el experimento. Definamos pues:

Dada una v.a. X, que toma valores {x1,x2,...,xn} con probabilidades p1,p2,...,pn, que aportan cantidades de información I1,I2,...,In, llamamos variable aleatoria cantidad de información asociada a X a la variable aleatoria I[X] , que toma valores I1,I2,...,In con probabilidades p1,p2,...,pn.

En nuestro ejemplo, I[X] toma el valor 0.15 con probabilidad 0.9, y el valor 3.32 con probabilidad 0.1

Una propiedad importante de esta nueva variable aleatoria es que aunque deriva de la X inicial, no tiene en cuenta para nada los valores numéricos que esta X pueda adquirir: depende exclusivamente del reparto de probabilidades entre sus respectivas posibilidades.

Llegados hasta aquí, y dado que I[X] no es sino una variable aleatoria, nada nos impide preguntarnos por su valor esperado, o esperanza E[I[X]]; número que denotaremos H[X]

H[X] = E[I[X]] = 0.15 · 0.9 + 3.32 · 0.1 = 0.135 + 0.332 = 0.467

Vemos que la contribución del suceso menos probable es mayor que la del más probable, a pesar de que las cantidades de información deben estar multiplicadas por su correspondiente probabilidad.

Convenimos que un suceso de probabilidad nula no tiene ninguna relevancia en este cómputo. Es necesario este extremo porque el producto p(x)·log[P(x)] es una indeterminación cuando p(x)=0.

Qué hemos conseguido con esta definición?

Tenemos un número real, H[X], que es el valor esperado de la cantidad de información que obtendremos al obtener un resultado del experimento expresado por dicha variable aleatoria.

Este valor se denomina Entropía de Shannon de la variable dada. Y es un concepto de importancia capital en teoría de la información.

La expresión analítica de la entropía de Shannon es la siguiente:



En el siguiente post veremos qué tiene que ver esto con el desorden y porqué este concepto es importante.

Entropía y cantidad de información (2)

Cuando nos sometemos a una situación de incertidumbre es natural preguntarse qué resultado es esperable obtener. Naturalmente, esta pregunta debe ser precisada convenientemente para que tenga operatividad.

El concepto de Esperanza matemática o valor esperado habilita la herramienta idónea para responder a dicha pregunta. Si nos jugamos a cara y cruz con nuestro oponente 1 euro a una tirada, no hace falta hacer muchas consideraciones matemáticas para comprender que la esperanza del juego es nula: por simetría no podemos asignar ventaja a ninguno de los dos jugadores, por lo que ambos están igualmente expuestos a perder un euro o a ganarlo.

Cada uno de los jugadores comprende que en ausencia de trampas hay la misma probabilidad de ganar que de perder y que en cada caso, la cantidad involucrada es 1 euro. Por lo tanto este juego tiene esperanza nula; o lo que es lo mismo; es un juego que no tiene ganancia esperada. Si jugáramos un número suficientemente grande de veces, las ganancias compensarían a las pérdidas.

Cualquier juego real de apuestas tiene esperanza negativa: lo más probable es perder dinero. El motivo por el que se juega es que en caso de ganar, los premios son de escándalo. Estamos dispuestos a perder una cantidad pequeña de dinero casi con seguridad a cambio de la posibilidad, por pequeña que sea, de hacernos ricos de la noche a la mañana. Es perfectamente comprensible, de ahí que si leen ustedes en algún sitio que la mera esperanza matemática es la mejor guía ante una situación de incertidumbre, no se lo crean demasiado por ser un razonamiento demasiado simplista.

Pues bien, armados con esta idea, definimos la Esperanza matemática de una variable aleatoria X que toma valores en un conjunto { x1 , x2 , ... , xn} con probabilidades p1, p2, ... , pn como el número real:

E[X]= p1· x1 + p2· x2 +...+ pn· xn

Esto no es sino la suma de todos los posibles “premios” ponderada por la probabilidad de obtenerlos.

En el caso del juego de cara y cruz con un euro en juego, tenemos:

E[X]=0.5 · 1 – 0,5 · 1= 0

Para variables aleatorias continuas el concepto es exactamente el mismo, sustituyendo el sumatorio por una integral, y la probabilidad de cada suceso por la densidad de probabilidad. No hay ninguna diferencia conceptual y no incidiremos en ello ahora.

Antes de continuar, es bueno advertir que no toda variable aleatoria tiene una esperanza definida. Algunas tienen esperanza infinita, por ejemplo esta: Sea un juego en el que hay una probabilidad de un medio de ganar 2 euros, un cuarto de ganar 4 , un octavo de ganar 8, etc.

X toma valores en el conjunto {2n; n€N} siendo P{X= 2n} = 1/2n

Seguidamente tenéis el desarrollo que demuestra que esta v. a. no tiene esperanza finita:



Visto esto, estamos en condiciones de afrontar la definición de Entropía de una variable aleatoria .

Lo haremos utilizando dos conceptos de importancia capital: el de cantidad de información visto en el post anterior y el de esperanza matemática visto ahora. Lo haremos en el próximo post, si ustedes quieren.

Entropía y cantidad de información (1).


Los niños que nacieron esta semana en el hospital materno-infantil de nuestra comarca tenían cada uno una cabeza, dos brazos y dos piernas. El sol salió por el este, se puso por el oeste y tras el ocaso el cielo se fue oscureciendo hasta volverse negro...

Noticiario imaginario

Hace cosa de un mes establecimos en este blog qué debe entenderse por variable aleatoria desde un punto de vista totalmente riguroso. Así, el concepto intuitivo de una función que puede tomar uno de entre una serie de valores con una cierta ley de probabilidad, quedaba explicado de forma bastante pormenorizada haciendo uso del concepto de espacios y funciones medibles.

Para los fines de este post, hablaremos de variables aleatorias (v.a.)de forma menos envarada. Tenemos la v.a. X, que supondremos, aunque no tiene porqué ser así, discreta. Esto quiere decir que puede tomar los valores de un conjunto finito {x1, x2,.., xn}, con unas probabilidades definidas:

P{X= x1}=p1
P{X= x2}=p2
...
P{X= xn}=pn

Además, dado que los {x1, x2,.., xn} son todos los casos posibles, tenemos que
p1 + p2 + ... + pn = 1.

Nuestro propósito es definir dos conceptos relativos a las variables aleatorias: cantidad de información y entropía.

Si leen la noticia que encabeza este post (imaginaria evidentemente), verán que a pesar de su más que plausible veracidad, nunca periódico alguno publicará algo semejante. El motivo es claro: está enunciando unas noticias carentes e interés.

Conviene que analicemos un poco esa carencia de interés. En nuestro caso se debe a que los sucesos relatados son de tal habitualidad que no son dignos de ser reseñados. No se trata de que no sean importantes, o que dé lo mismo su cumplimiento que su incumplimiento. Se trata de que la importancia de una noticia es proporcional a su improbabilidad. Un notición es la reseña de un acontecimiento extraordinario que ocurre muy de vez en cuando. Si ocurre una única vez y es prácticamente irrepetible, se convierte en una primicia.

Esta idea intuitiva nos induce a hablar de la cantidad de información de un suceso. Cuanto mayor sea la probabilidad de que se produzca, menor será la información que aporta. Si el suceso es de probabilidad uno, la información que nos aporta su conocimiento es cero. En el caso límite contrario, un suceso de probabilidad cero nos aportaría una información infinita.

Precisamente la función logaritmo tiene unas propiedades muy buenas para cuantificar este extremo: log (x) vale cero para x=1, y va aumentando (en valor absoluto) hacia infinito conforme la x va desde la unidad hacia el cero. Definiremos por tanto la cantidad de información asociada a un suceso aleatorio de la siguiente manera:



El motivo del signo menos es que el logaritmo de todo número comprendido entre 0 y 1 es negativo.La elección de la base 2 para los logaritmos es de índole práctica e irrelevante para la explicación del concepto. Podríamos en principio poner cualquier base; simplemente es una cuestión de escala.

Mañana seguiremos por este camino, pero antes debemos definir qué cosa es la Esperanza matemática de una variable aleatoria . Con este concepto y el de cantidad de información bucearemos en la interpretación del concepto de entropía a la luz de la teoría de la probabilidad.

La Entropía tiene dos problemas:

1.- El concepto es algo difícil de pillar (no demasiado, pero requiere un cuartito de hora de atención)

2.- Es una palabra muy eufónica, suena tremendamente bien.

Ambas propiedades juntas hacen que muchos oradores la suelten, así sin más en medio de su discurso; como para dar empaque a su charla.

Este concepto de entropía es muy polifacético: aparece en matemáticas hablando de simples conjuntos (Entropía de Kolmogorov, de la que hablamos aquí), aparece en la teoría de la información con el aspecto que vamos a tratar en esta serie de post, y cómo no, aparece en física. Internamente subyace una unidad conceptual en todas estas versiones, como una medida del desorden de un sistema.

Seguiremos mañana definiendo la esperanza de una variable aleatoria; paso previo para definir la entropía.

Congreso de creacionismo científico (y 2)

Los lectores han dado rápidamente con la solución correcta: son 1221 firmantes, y por lo tanto hay 179 personas asistentes al congreso con un mínimo de conocimientos científicos, lo que hace un 12,78%.

El problemilla es bastante soso e intrascendente, pero sirve para mostrar que a veces la solución de un problema está muy vinculada al conjunto numérico en el que se desarrolla. En el dominio de los números reales, este problema no tiene solución porque los dos porcentajes que se dan se refieren al total de firmantes, no al total de asistentes. No nos podrían ayudar a calcular el porcentaje de no firmantes.

Pero sucede que en el dominio de los números naturales sí tiene solución porque tenemos dos restricciones más que nos aportan dos datos extra: el 12,1212...% y el 23,423423...% de firmantes deben ser ambos enteros. Esto no deja otra posibilidad que 1221, mínimo común multiplo de los denominadores de las respectivas fracciones para estos dos decimales periódicos puros.

_________________________________________________________

HACE UN AÑO hablábamos de un problema difícil. Posiblemente será el problema más difícil que ha salido en este blog, y sin embargo no tiene dificultad conceptual alguna, sino meramente de manipulación de posibilidades. Si les apetece recordarlo ahí tienen el enlace. Mientras tanto, que pasen un feliz fin de semana.

Congreso de creacionismo científico.

Congreso de creacionismo científico.

A un congreso sobre creacionismo científico asisten 1.400 personas.

Al terminar el mismo, se pasa a firmar un documento en el que se aboga por la supresión de la teoría de la evolución en las escuelas españolas.

El 12,1212...% de los firmantes creen que los fósiles los ha puesto el demonio para despistar; y el 23,423423...% creen que Dios hizo el mundo en seis días.

La pregunta es:

¿Cuál es el porcentaje de asistentes que tenían un mínimo de conocimientos científicos?

NOTAS:

1.- Se supone que creer que el demonio ha puesto los fósiles para despistar y que el creador ha hecho el mundo en seis días son creencias independientes: cualquiera puede tener ambas, una sola de ellas o ninguna.

2.- Se presupone que tener unos mínimos conocimientos científicos es suficiente para no firmar el documento, y que todos los que no los tenían sí firmaron.

Aritmética modular (4)


Cuarto post de Lola Cárdenas sobre reglas de divisibilidad.


Reglas básicas de aritmética modular



Dado m un entero positivo, y dados , , , , se verifica lo siguiente (reglas básicas de aritmética modular):


  1. Si y , entonces

  2. Si y , entonces



Demostrar estas reglas es muy sencillo, como podemos observar:

Regla de la suma: Si , entonces existe tal que , y si , entonces existe tal que .

Ahora bien, (a1 + a2) - (b1 + b2) = (a1 - b1) + (a2 - b2) = k1m + k2m = (k1 + k2)m. De aquí es claro pues que .

Regla del producto: Si , entonces existe tal que , y si , entonces existe tal que .

Desarrollamos:



Por tanto, también es claro que .

Dejamos indicado un teorema importante que no vamos a demostrar [1]:

Si llamamos al
conjunto cociente dado por y la relación binaria de equivalencia de congruencia módulo m (para m un entero positivo), se cumple:


  1. Si , , se definen las operaciones suma y multiplicación en como sigue:



  2. Ambas operaciones verifican las propiedades asociativa y conmutativa, y también se verifica la propiedad distributiva del producto respecto de la suma. El elemento neutro para la suma es la clase del cero, [0], y el elemento neutro para el producto es la clase del 1, [1].

  3. Dado , tiene elemento opuesto para la operación de suma definida, siendo este opuesto el elemento . Además, si m es primo, para todo tal que , se cumple que [a] tiene inverso multiplicativo, y además este inverso es único.



El teorema no es importante para nuestro desarrollo final, pero sí es importante para ampliar la visión de conjunto de las congruencias y los conjuntos , enteros módulo m.

Y ahora vamos a ver cómo se aplican estas reglas para obtener criterios de divisibilidad para números enteros (el principal objetivo de todo este texto).

Reglas de divisibilidad



Introducimos la siguiente notación: Sean x, y dos elementos pertenecientes a (es decir, son dos números enteros). Decimos que x divide a y, , y lo denotaremos por si existe un tal que .

Por ejemplo, decimos que 2 divide a 10 porque, en primer lugar, y, en segundo lugar, existe tal que . Así, escribiremos que .

De la misma manera, decimos que 3 divide a 24 porque, primero, y, segundo, existe tal que . Por tanto, podemos escribir que .

También vamos a adoptar la siguiente nomenclatura para las reglas de divisibilidad: dado un número entero x, escribiremos su expansión en base 10 como:



x0, ..., xn son las cifras de x, es decir, cuando escribimos x, escribimos lo siguiente: , y la expansión de arriba es la que le corresponde al estar trabajando en base 10.

x0 es la cifra de las unidades, x1 la de las decenas (por eso va mutiplicada por 10), x2 la de las centenas (por eso va multiplicada por 100), etc. Se entiende, además, que las cifras están entre 0 y 9, es decir, , para i entre 0 y n.

Divisibilidad entre 2



Proposición (Criterio de divisibilidad)Un número entero x es divisible entre 2 si y sólo si la cifra de las unidades de dicho número (x0) es par.

De acuerdo a la expansión decimal de x, tenemos lo siguiente:


. Por
la segunda regla de operaciones con congruencias, , luego . No es difícil comprobar que, en general, para
cualquier k mayor o igual que 1.

Por tanto, aplicando la primera y segunda regla de operaciones con congruencias, tenemos que:



Ahora bien, . O lo que es lo mismo, que x0 sea un múltiplo de 2. Es decir, que la cifra de las unidades sea par.

Divisibilidad entre 3



Proposición (Criterio de divisibilidad)   Un número entero x es divisible entre 3 si y sólo si la suma de sus cifras es divisible entre 3.

(El esquema es similar a la regla de divisibilidad entre 2)

De acuerdo a la expansión decimal de x, tenemos lo siguiente:


. Por la segunda regla de operaciones con congruencias, , luego . No es difícil comprobar que, en general, para cualquier k mayor o igual que 1.

Por tanto, aplicando la primera y segunda regla de operaciones con congruencias, tenemos que:



Ahora bien, .
Es decir, que la suma de sus cifras sea divisible entre 3.

Divisibilidad entre 5



Proposición (Criterio de divisibilidad)   Un número entero x es divisible entre 5 si y sólo si la cifra de las unidades de dicho número (x0) es cero o cinco.

(El esquema es similar a la regla de divisibilidad entre 2)

De acuerdo a la expansión decimal de x, tenemos lo siguiente:


. Por la segunda regla de operaciones con congruencias, , luego . No es difícil comprobar que, en general, para cualquier k mayor o igual que 1.

Por tanto, aplicando la primera y segunda regla de operaciones con congruencias, tenemos que:



Ahora bien, . O lo que es lo mismo, que x0 sea un múltiplo de 5. Es decir, que la cifra de las unidades sea cero o cinco.

Divisibilidad entre 9



Proposición (Criterio de divisibilidad)   Un número entero x es divisible entre 9 si y sólo si la suma de sus cifras es divisible entre 9.

(El esquema es idéntico a la regla de divisibilidad entre 3)

De acuerdo a la expansión decimal de x, tenemos lo siguiente:


. Por la segunda regla de operaciones con congruencias, , luego . No es difícil comprobar que, en general, para cualquier k mayor o igual que 1.

Por tanto, aplicando la primera y segunda regla de operaciones con congruencias, tenemos que:



Ahora bien, . Es decir, que la suma de sus cifras sea divisible entre 9.

Divisibilidad entre 10



Proposición (Criterio de divisibilidad)   Un número entero x es divisible entre 10 si y sólo si la cifra de las unidades de dicho número (x0) es cero.

(El esquema es similar a las reglas de divisibilidad entre 2 y entre 5)

De acuerdo a la expansión decimal de x, tenemos lo siguiente:


. Por la segunda regla de operaciones con congruencias, , luego . No es difícil comprobar que, en general, para cualquier k mayor o igual que 1.

Por tanto, aplicando la primera y segunda regla de operaciones con congruencias, tenemos que:



Ahora bien, . O lo que es lo mismo, que x0 sea un múltiplo de 10. Es decir, que la cifra de las unidades sea cero.

Divisibilidad entre 11



Proposición (Criterio de divisibilidad)   Un número entero x es divisible entre 11 si y sólo si la suma de las cifras que ocupan la posición impar, menos la suma de las cifras que ocupan la posición par, es divisible entre 11.

(El esquema es semejante a las reglas de divisibilidad entre 3 y entre 9)

De acuerdo a la expansión decimal de x, tenemos lo siguiente:



. Por la segunda regla de operaciones con congruencias, , luego . No es difícil comprobar que, en general:



para cualquier k mayor o igual que 1.

Por tanto, aplicando la primera y segunda regla de operaciones con congruencias, tenemos que:



Ahora bien, , lo que es equivalente a que, como dice el enunciado de la regla, la suma de las cifras en las posiciones pares menos la suma de las cifras en las posiciones impartes sea divisible entre 11.

Hasta aquí, las reglas usuales de divisibilidad que a todos nos enseñan en el colegio. Pero vaya, el truco del principio de este texto manejaba unas reglas que normalmente no se enseñan en el colegio: divisibilidad entre 7 y entre 13. Así que vamos a completar las reglas de divisibilidad con los números que nos faltan para completar del 2 al 13. Es decir, vamos a desarrollar las reglas de divisibilidad entre 4, 6, 7, 8, 12 y 13, repitiendo el mismo procedimiento que hemos llevado a cabo para demostrar las anteriores.

Abreviaremos un poco el procedimiento, obteniendo simplemente los resultados de las congruencias módulo m para las potencias de 10, y dejamos al lector el ejercicio de verificar los pasos que no se indican. Son prácticamente idénticos a los ya vistos, por lo que no debe suponer un problema.






Puede verse la demostración en cualquier libro básico de
álgebra, por ejemplo, "Números, grupos y anillos", de J. Dorronsoro
y E. Hernández, editorial Addison-Wesley, página 40 en la primera
edición.

Aritmética modular ( y 6)


Post final de la serie sobre aritmética modular y reglas de divisibilidad a cargo de Lola Cárdenas


El truco del ejemplo del principio



Si observamos el número abcabc, podemos darnos cuenta de que se ajusta inmediatamente tanto a la regla de divisibilidad entre 7 como a la del 13. La regla del 7 tomaba el ciclo (1, 3, 2, -1, -3, -2), y la regla del 13, (1, -3, 9, -1, 3, -9). Es decir, cualquier número de seis cifras construido de manera que tenga las mismas cifras en las posiciones uno y cuatro, dos y cinco, tres y seis, será divisible tanto por 7 como por 13, ya que al aplicar la correspondiente regla de divisibilidad, primero tomará un signo y después el opuesto, además multiplicándose en ambos casos por el mismo factor.

Vemos enseguida, pues, que abcabc es divisible entre 7, puesto que a+3b+2c-a-3b-2c es precisamente igual a 0. Y lo mismo sucede con el 13: a-3b+9c-a+3b-9c=0.

¿Y el 11? Ver la divisibilidad por 11 también es inmediata, ya que tenemos que se cumple que a-b+c-a+b-c=0.

Por ese mismo motivo, no importa que inviertas el número de seis cifras. Como queda de la forma cbacba, ahora ya es inmediato ver que se le aplica lo mismo en lo referente a criterios de divisibilidad.

¿Y cómo sabía que iba a quedar el mismo número de tres cifras abc al dividir abcabc primero por 13, luego por 7 y luego por 11? Pues... porque lo dividí. ¿Cómo, si no tenía ningún número concreto que tratar? Escribiendo la expansión de abcabc en base 10, factorizando adecuadamente, y después dividiendo.

Empezamos factorizando abcabc:



Y como resulta que , al dividir abcabc entre 1001, el resultado es, precisamente, abc.

Corolario: El año 2002 fue un año de mala suerte. Pero sólo para los supersticiosos: es divisible por 13. Aunque también fue un año de buena suerte. Pero sólo para los supersticiosos: es divisible por 7.

Reflexión final



La motivación de este texto ha sido doble. Por una parte, presentar una parte de las matemáticas que tiene muchas aplicaciones prácticas: desde estas sencillas reglas de divisibilidad para números enteros, hasta criptografía (materia que quizá introduzcamos en otra ocasión). Por otra parte, demostrar lo sencillo que resulta elaborar trucos simples que pueden dar la sensación en alguien sin preparación en la materia de que realmente le están leyendo el pensamiento.

Tanto si he conseguido despertar el interés por esta parte de las matemáticas como si he conseguido poneros una alerta cuando alguien parezca estar leyéndonos la mente con algún tipo de juego numérico y os preguntéis por el truco, me daré por satisfecha.

Aritmética modular (5)


Quinto y penúltimo post de la serie de Lola Cárdenas sobre reglas de divisibilidad


Divisibilidad entre 4





Por tanto,

Divisibilidad entre 6





Por tanto,

Divisibilidad entre 7





Por tanto,

Notar que se repiten cíclicamente los factores por los que ir
multiplicando las cifras. Ordenando de la más baja a la más alta,
el ciclo que se da es éste: (1, 3, 2, -1, -3, -2).

Divisibilidad entre 8





Por tanto,

Divisibilidad entre 12





Por tanto,

Divisibilidad entre 13





Por tanto,

Notar que se repiten cíclicamente los factores por los que ir multiplicando las cifras. Ordenando de la más baja a la más alta, el ciclo que se da es éste: (1, -3, 9, -1, 3, -9).

Por ejemplo, 4394 es divisible entre 13. Sus cifras son: , , y . Aplicando esta regla, calculemos: , y 0 es divisible entre 13. Luego 4394 es divisible entre 13.

Aritmética modular (3)


Tercer post de Lola Cárdenas sobre reglas de divisivilidad

_________________________________________________________

Aritmética modular



¿Y todo esto qué tiene que ver con las reglas de divisibilidad? Eso es lo que vamos a ver ahora. En realidad, los conceptos preliminares que hemos visto sirven para mucho más, pero en este caso los vamos a aplicar a nuestro objeto de estudio.

Asumimos que vamos a trabajar con el conjunto de los números enteros, , dotado de las operaciones usuales de suma ( ) y producto ( ). Vamos a definir una relación binaria de equivalencia en y a continuación ver qué tiene que ver con lo que pretendemos llevar adelante: las reglas de divisibilidad.

Congruencias



Definición de la relación de equivalencia de la congruencia



Sea un entero positivo. Decimos que dos números enteros , son congruentes módulo si existe un número tal que . Para denotar esta situación, se utiliza la notación: . Vamos a comprobar que la relación de congruencia módulo m es una relación binaria de equivalencia. Es muy sencillo, y lo hacemos a modo de ilustrar un poco más el procedimiento.

Comenzaremos probando la propiedad reflexiva. Dado , ¿se cumplirá que ? Es decir, ¿tendremos que existirá un tal que ? Como , es evidente que si escogemos , se cumple entonces que . Luego este existe, y por tanto hemos verificado la propiedad reflexiva.

Veamos la propiedad simétrica. Dados , supongamos que . ¿Se cumplirá que ? Esto será así si existe un tal que . Ahora bien, sabemos por hipótesis que luego, por definición de la relación, se verifica que existe un tal que . Como , tenemos entonces que . Tomamos pues el entero (si , también ), y por tanto se verifica la propiedad simétrica.

Queda por último la transitiva. Dados tales que y , ¿será cierto que ? Esto será así si existe un tal que .

Como , sabemos que existe un tal que . Igualmente, como , sabemos que existe un tal que .

Vamos a ver en qué queda entonces :



Luego si tomamos , es claro pues que se verifica la propiedad transitiva, y ya tenemos probada la condición de equivalencia de la relación binaria definida.

Clases de equivalencia módulo m



Una vez definida esta relación binaria de equivalencia, y probado que, efectivamente, lo es, vamos a dar el siguiente paso, que será delimitar las clases de equivalencia resultado de partir el conjunto de los números enteros de acuerdo a esta relación.

Tenemos que la congruencia módulo m divide al conjunto en m clases de equivalencia, , , , ..., . La clase de equivalencia del cero serán todos aquellos números múltiplos de m. La clase de equivalencia del uno serán todos aquellos números tales que al dividir por m, nos dan de resto 1. La clase de equivalencia del dos serán todos aquellos números tales que al dividir por m, nos dan de resto 2. Y así hasta el .

Veamos algunas para aclararlo:



Efectivamente, la clase de equivalencia del cero son todos los múltiplos enteros de m. Veamos la clase de equivalencia del 1:



Por el algoritmo de la división, vemos que k es el cociente de dividir a por m, y 1 el resto de dicha división. Luego, como decíamos arriba, la clase de equivalencia del 1 son todos aquellos números enteros tales que al dividir por m, dan de resto 1.

Igualmente tendríamos con la clase de equivalencia del 2:



Y así, hasta :



¿Por qué paramos en ? ¿Qué sucede con la clase de equivalencia del m? Si escribimos cuál sería, lo veremos claro:



Volvemos a la clase de equivalencia del cero. Igualmente, la clase de equivalencia de coincide con la clase de equivalencia del 1. Y así, sucesivamente.





Algoritmo de la división



Dados , , existen dos números enteros c y r tales que , con . Los enteros c y r (cociente y resto, respectivamente) son únicos, dados a y b.

Aritmética modular (2)


Segundo post de Lola Cárdenas para TioPetros sobre el tema de las reglas de divisibilidad.

_______________________________________________________________________


Introducción a los criterios de divisibilidad



Cuando éramos niños, en el colegio nos explicaban las reglas de divisibilidad. Por ejemplo, nos decían que todos los números pares son múltiplos de dos, que todos los números acabados en cero o en cinco son múltiplos cinco, o que si sumamos las cifras de un número, y esta suma es múltiplo de tres, entonces el número mismo es múltiplo de tres.

La reglas de divisiblidad por dos o por cinco parecen estar bastante claras, sin embargo la regla de divisibilidad por tres ya trae consigo un modo de operar que en principio no se sabe por qué es así ni por qué funciona. ¿De dónde ha salido esa regla? Me lo pregunté tan pronto como me hicieron aprenderla en el colegio. Y lo descubrí pocos años después, "haciendo cuentas" tras una clase de álgebra, intrigada, porque sabía que ahí estaba la clave. Esas reglas salen de lo más básico de un apartado conocido como ``aritmética modular''. Y veremos al final de toda la exposición que es mucho más sencillo de lo que el nombre y lo que los primeros
conceptos sugieren.

Preliminares


Relaciones binarias


Definición



Consideremos un conjunto A. Recordemos cómo se define el producto cartesiano de un conjunto: se trata de todos los pares de la forma (a, b), donde a y b pertenecen al conjunto A. Es decir, el producto cartesiano, A x A se define como:



Llamamos pues relación binaria a cualquier subconjunto de A x A, y diremos que los pares (a, b) de dicho subconjunto están relacionados por , es decir, que (a está relacionado con b por la relación ).

Ejemplo



Si tomamos como conjunto al conjunto de los números naturales, , considerando su producto cartesiano, , podemos establecer la relación tal que relaciona a cualquier n1 con su doble, 2n1. Es claro que el conjunto es un subconjunto de y por tanto la relación establecida es una relación binaria.

Relaciones binarias de equivalencia



Las relaciones que nos interesan en este momento no son relaciones cualesquiera, establecidas un poco al azar, sino relaciones que cumplen tres propiedades muy interesantes:

Reflexiva: Una relación se dice reflexiva si para todo a perteneciente al conjunto A, se verifica que .
Simétrica: Una relación se dice simétrica si para todos a, b pertenecientes al conjunto A, el hecho de que implica a su vez que .
Transitiva: Una relacion se dice transitiva si para todos a, b, c pertenecientes al conjunto A, que y implica que .

Vamos a ver un ejemplo de relación binaria que sí sea de equivalencia y otra que no lo sea, para tratar de aclarar el significado de estas propiedades.

Ejemplo de relación binaria de equivalencia



Dados , decimos que si se cumple que . ¿Es de equivalencia esta relación binaria? Para contestar afirmativamente tendremos que demostrar que se cumplen las tres propiedades. Para contestar negativamente, bastará con encontrar que falla una de ellas.

Empezamos verificando la propiedad reflexiva. Sea . ¿Se cumple que ?

Por definición de la relación, esto será cierto si se cumple que . Pero dado , siempre tenemos que , luego y la relación es reflexiva.

A continuación veamos si cumple la propiedad simétrica. Sean y supongamos que . ¿Se cumplirá pues que ?

Como , por la definición de la relación se tiene que . Ahora bien, se cumplirá que si y sólo si .

Pero .

Luego y la relación es simétrica.

Por último, veamos si la relación es transitiva. Sean y supongamos que y que . ¿Se cumple que ?

Como , tenemos que , y como , tenemos que .

Se cumplirá que si y sólo si . Pero:



Por tanto y la
relación es transitiva.

Finalmente, tenemos que se cumplen las tres propiedades, y por tanto la relación binaria así definida es de equivalencia.

Ejemplo de relación binaria pero NO de equivalencia



Ahora definimos la siguiente relación: dos elementos están relacionados, si .

Veamos si cumple las tres propiedades que debe verificar para ser una relación binaria de equivalencia.

Comenzamos verificando la propiedad reflexiva. Sea , ¿se cumple que ? Esto será así si . Pero esto sólo es así si .

¿Se verifica la propiedad reflexiva entonces? No, porque para que se cumpliera, tendría que ser cierto para cualquier . Y sabemos que eso no es así. Si , entonces .

Por tanto, no se cumple la propiedad reflexiva: no tenemos que seguir examinando propiedades para afirmar que esta relación binaria no es de equivalencia.

Clases de equivalencia



Cuando tenemos una relación binaria de equivalencia sobre un conjunto , dado un elemento , definimos su clase de equivalencia como el conjunto de los elementos de que están relacionados con .

Es decir:



Dado , en tenemos pues todos los elementos de que son equivalentes a .

Pongamos un ejemplo de la vida real que, sin ser en absoluto riguroso, ayudará a aclarar este concepto.

Imaginemos que hablamos de muebles, y queremos clasificarlos. Queremos distinguir sillas de mesas, de sillones, de sofás... Así que definimos las propiedades que, indiscutiblemente, definen a una silla y la distinguen del resto de objetos. Definimos las propiedades que definene a una mesa y la distinguen del resto de objetos. Igualmente con los sillones, los sofás...

Cuando la relación permita identificar sillas entre sí pero distinguirlas de los otros tipos de muebles, etc., tendremos una relación de equivalencia. Dos elementos del conjunto "muebles" serán sillas si reunen una serie de atributos básicos. Y son sillas y no sillones porque la diferencia ha quedado perfectamente establecida, e igualmente establecidos los distintos tipos de muebles que contemplamos así como todas sus características.

Es decir, una relación de equivalencia define la manera de distinguir un tipo de elemento de otro tipo de elemento, de forma que los elementos de la misma clase de equivalencia sean, esencialmente, iguales, pero completa y distinguiblemente diferentes de los elementos de las otras clases de equivalencia: estamos formalizando el concepto de clasificación.

Conjunto cociente



Una vez tenemos todas las clases de equivalencia de según , definimos el conjunto cociente como el conjunto de todas estas clases de equivalencia. Lo expresaremos formalmente como sigue:



Notar que dados , , y que .

Aritmética modular (1)


La serie de posts que se inician con éste ha sido elaborada para TioPetros por Lola Cárdenas Luque, con quien compartimos pasión por la matemática y por el pensamiento crítico. De una manera lúdica nos irá introduciendo en los conceptos más importantes de la aritmética modular y de las reglas de divisibilidad. Les dejo con Lola, que es lo mismo que decir que les dejo en muy buenas manos.


Empecemos con el truco

Piensa un número de tres cifras. Por ejemplo, 123. Copia ese número detrás de sí mismo, para obtener con eso un número de seis cifras. A mí me queda 123123. Mi número está amañado para que me salga el truco, pero el tuyo no tiene por qué estarlo, aún no sabes qué te voy a decir que hagas con él.

Ahora divide ese número de seis cifras por 13. Yo también voy a hacerlo, y el cociente ha sido 9471. Qué curioso, la división ha salido exacta. Pues vamos a aprovecharlo. Seguro que a ti también te ha salido exacta.

Puedo verlo. Así que ahora divide ese cociente por... vamos a ver... vale, ya lo sé. Divídelo por 7.

Yo también dividiré mi 9471 por 7. Me sale 1353. Vaya, y otra vez la división exacta.

Es más, estoy convencida de que a ti también te ha salido exacta. ¿Probamos a dividir por un número más? Esta vez vamos a dividir el cociente obtenido por... hm... déjame concentrarme en tu número... Sí, ya lo veo claro. Vamos a dividir ese cociente por 11. Es más, antes de que hagas la división, te voy a decir el resultado. Te va a salir el número que has pensado al principio.

Voy a ver qué sucede con el mío. Divido 1353 entre 11 y obtengo... ¡123! ¡El número que he elegido al principio! ¿Sorprendido? Pues eso no es todo.

Ahora invierte el número de seis cifras. En mi caso quedaría 321321. Voy a decirte algo que te va a sorprender más aún: ese número que queda al invertir, también es un múltiplo exacto de 13. Y de 7. Y de 11. En este punto podría decir que he leído tu mente y he sabido, tras un rápido cálculo mental, que entre sus divisores estaban el 13, el 7 y el 11.

Es más, podría decir incluso que he intervenido en tus pensamientos para que eligieras un número de manera que, al darle la vuelta, también saliera múltiplo de 13, 7 y 11. Pero no voy a hacerlo. En lugar de eso, voy a explicarte el truco.

Triángulos sobre una cuadrícula (y 2)

Triángulos sobre una cuadrícula (y 2)

Vamos a exponer una de las posibles demostraciones de que es imposible dibujar un triángulo equilátero con vertices en los puntos de una cuadrícula, como exponíamos en el post anterior. Como bien ha sido expuesto en los comentarios de ese post, la cuadrícula se supone ortogonal. Cada lado de la cuadrícula elemental se toma como unidad de medida.

En la ilustración que encabeza el presente post se demuestra que el área de un triángulo equilátero, es raíz de tres cuartos del cuadrado del lado.

El cuadrado del lado es siempre un número entero por aplicación directa del teorema de pitágoras, y en tales circunstancias, el área de un triángulo equilátero sobre la cuadrícula será siempre un número irracional por la presencia de la raiz de tres.

Ahora bien, todo triángulo con vértices sobre la cuadrícula tiene área racional. Para demostrarlo, dibujemos el menor cuadrilátero en la cuadrícula que contenga completamente a dicho triángulo. Son posibles dos casos: que el triángulo tenga sus tres vértices en la frontera del cuadrilátero mínimo que lo contiene, o que tenga sólo dos. Ver la ilustración siguiente:



En el primer caso, el area sobrante se divide en tres triángulos rectángulos; en el segundo en tres triángulos rectángulos más un cuadrilátero menor. El área de los triángulos rectángulos de en la cuadrícula es siempre racional, por ser su área base por altura entre dos, siendo tanto la base como la altura horizontales y verticales de la cuadrícula, y por lo tanto enteros. El área del subcuadrilátero será no sólo racional, sino entera, por ser el producto de dos enteros (base y altura).

Dado que el área del cuadrilátero que contiene al triángulo también es entera, restando áreas obtenemos que en todo caso un triángulo dibujado en una cuadrícula tiene área racional.

Por lo tanto nunca un triángulo equilátero podrá ser dibujado sobre la cuadrícula.

Esta no es sino una de las posibles demostraciones.

Triángulos sobre una cuadrícula

Triángulos sobre una cuadrícula

Hace cierto tiempo hablábamos del teorema de Pick, y comentábamos que sobre una simple cuadrícula se pueden hacer muchas matemáticas. Hoy me encontrado con un teorema sencillo, a modo de divertimento, que les propongo.
Se trata de ver si puede existir un triángulo equilátero cuyos vértices estén sobre los puntos de una cuadrícula dada. Así de escueto.
Les espero.

Eurovisión, o el triunfo de la varianza nula.

Acabo de ver un extracto del festival de Eurovisión que, por lo visto debió celebrarse ayer sábado. Comprendo perfectamente que este festival haya perdido todo su interés. Canciones enlatadas, países prostituyendo sus raíces músicales tradicionales en beneficio de una banalidad absoluta, renunciando a sus propias lenguas para cantar casi invariablemente en inglés... en resumen: varianza nula.

No sólo era imposible saber qué país era el que interpretaba en cada momento, sino que era igualmente imposible saber si se trataba de una canción actual o de hace años.

La variabilidad es lo que da interés a las cosas. La uniformidad es la muerte de la cultura, del arte y de la vida. Hasta los cuerpos de las cantantes exhibían una varianza cero.

Vaya mierda...

Historia de un átomo



No me importa en absoluto hacer publicidad sobre novedades editoriales. Cuando estas se convierten en acontecimientos culturales, menos aún.

El próximo lunes día 23 de mayo, a las 11:00 de la mañana, se presentará en el Planetario de Madrid "Historia de un átomo", del destacado astrófísico
norteamericano Lawrence Krauss, que es también autor de varios títulos de divulgación científica de gran éxito. Hablarán la directora del
Planetario de Madrid, Asunción Sánchez, el director del Planetario de Pamplona, Javier Armentia, y el propio autor del libro, Lawrence Krauss. Es evidente que con esa compañía, el acto será de lo más interesante.

"Historia de un átomo" es el primer título de la colección de divulgación científica "Las dos culturas" que publica Editorial Laetoli en colaboración con la
Universidad Pública de Navarra.

En la publicidad que he recibido sobre el libro pone textualmente:

Somos, literalmente, hijos de las estrellas. Todos los átomos de nuestros cuerpos estuvieron alguna vez en el infierno de una estrella en explosión. Cada uno de ellos ha vivido innumerables y agitadas vidas. Estaban ahí en el comienzo de los tiempos y sobrevivirán a la desaparición de la Tierra y el sistema solar. El átomo de oxígeno que usted respira ahora pudo haber sido parte del último aliento de César o de la primera criatura que caminó sobre nuestro planeta. Lawrence Krauss traza en este libro magistral no sólo la historia de un átomo de oxígeno —desde su formación tiempo después del Big Bang y su paso por la aventura de la vida en la Tierra hasta perderse en la eternidad— sino con él la historia de todo el universo: nuestra historia.

«Lawrence Krauss tiene la habilidad de Carl Sagan de expandir la imaginación y explicar los misterios del universo en términos muy simples» (Stephen Hawking)

«Krauss es un magnífico escritor y éste es su mejor libro: una intensa panorámica de los nexos de unión entre el cosmos y el microcosmos y de la compleja cadena de acontecimientos que condujeron de los átomos a la vida» (Martin Rees)

«Sobrepasando incluso la visión de Blake del mundo en un grano de arena, Krauss ofrece a sus lectores el cosmos entero en un solo átomo» (Bryce Christensen, Booklist)

«Krauss teje una historia que se lee de manera tan absorbente como una buena novela» (Scientific American)

Lawrence Krauss es profesor de Física y Astronomía y director del Departamento de Física de la Case Western Reserve University en Esta-dos Unidos. Krauss es el único científico que ha sido galardonado con el Premio al conocimiento científico público de la Sociedad para el Avance de la Ciencia de EE UU (2000), el Premio Julius Edgar Lilienfeld de la Sociedad Norteamericana de Física (2001) y el Premio Andrew Gemant del Instituto de Física de EE UU (2001). Entre sus libros más conocidos se encuentran sus dos best sellers The Physics of Star Trek y Beyond Star Trek, Miedo a la física y La quinta esencia. Historia de un átomo ha sido traducido al alemán, italiano, holandés, portugués, finlandés, coreano y chino.


Ficha del libro:

Historia de un átomo
Una odisea desde el Big Bang hasta la vida
en la Tierra... y más allá


Lawrence M. Krauss

Traducción de Francisco Páez de la Cadena

Colección Las dos culturas, 1
328 páginas
PVP: 18,00 e
ISBN: 84-933698-3-7

Tio Petros en muy buena compañía

Esta bitácora ha sido incluida en un listado de Terra
de diez bitácoras de ciencia(en el ámbito español).

No es meramente la inclusión en dicha lista, sino sobre todo la calidad extraordinaria de las otras nueve , todas ellas viejas y queridas amigas, lo que me hace sentir esta inclusión como un regalo inmerecido.

Cardinalidad, "tamaño", medida, dimensión (2)

Cardinalidad, "tamaño", medida, dimensión (2)

Vamos a dedicar este post a la nada desdeñable tarea de demostrar que un subconjunto dey intervalo de la recta [0,1] puede tener medida de Lebesgue igual a ceo, a pesar de tener la misma cardinalidad que el intervalo completo [0,1].

Lo haremos de la forma más expeditiva posible: mostrando un conjunto concreto que tenga dichas propiedades. Puede resultar chocante, pero nada de lo que aquí se va a decir es nuevo: todo está muy claro y aceptado desde hace más de un siglo. Pero sirve para comprender que la relación entre cardinalidad y medida es tortuosa: podemos afirmar que un conjunto de cardinalidad numerable tiene medida cero, pero no podemos afirmar que tenga medida mayor que cero por el hecho de tener cardinalidad infinita no numerable.

El conjunto en cuestión, como ya avanzamos hace dos posts, es el conjunto de Cantor .

Se forma a partir del intervalo [0,1], y es el conjunto límite de un proceso infinito que consiste en dividir el cada intervalo del conjunto anterior en tres partes iguales y eliminar la central.

Como podemos ver en la figura, partiendo del intervalo C0 = [0,1] tenemos la división [0,1/3]; [1/3,2/3]; [2/3,1]. Eliminando la central, tenemos el conjunto C1 = [0,1/3] U [2/3,1].

Este nuevo conjunto está formado por dos intervalos, que divididos en tres partes y eliminada la central, dará paso a C2; y así sucesivamente.

Pues bien, el conjunto de Cantor es el límite del proceso, y lo llamaremos C .

Nuestra tarea, ahora que está perfectamente definido el objeto es doble: demostrar que tiene la cardinalidad del original [0,1], y demostrar que tiene medida cero.

Comenzaremos por lo segundo.

DEMOSTRACIÓN DE MEDIDA NULA DEL CONJUNTO DE CANTOR

Esta demostración es una tontería al alcance de cualquiera que sepa sumar series geométricas. Dado que los trozos que vamos quitando en las sucesivas etapas son disjuntos (obviamente), podemos sumar la medida total que sustraemos (llamémosla A) simplemente sumando las medidas individuales de los trocitos que vamos quitando en cada etapa, por la aditividad de la medida de Lebesgue.

En la primera etapa quitamos un trozo que mide 1/3, en la segundo dos trozos que miden 1/9 cada uno, y así sucesivamente. El desarrollo completo lo tenemos aquí:



Vemos que la medida sustraída es la unidad, luego invocando una vez más la aditividad, la medida del conjunto de Cantor es exactamente cero.

Para deducir la cardinalidad del mismo he encontrado en la web una demostración impecable, que explico a continuación:

DEMOSTRACIÓN DE CARDINALIDAD INFINITO NO NUMERABLE

Verificaremos la existencia de una biyección entre los puntos del conjunto de Cantor y el intervalo [0,1].

Para ello, expresaremos los puntos en base tres. La expresión decimal en base 3 de un número del intervalo [0,1] será de la forma 0,0XXXX... cuando pertenece al primer tercio del intervalo; 0,1XXX... cuando pertenece al segundo y 0,2XXX cuando pertenece al tercero. Eliminar el tercio central en la primera etapa es simplemente eliminar todos los puntos que tienen un 1 en su primer decimal.

De la misma manera, el segundo decimal será 0,1 ó 2 si el número (o punto ) correspondiente pertenece al primer tercio, segundo o tercero de cualquiera de los dos intervalos existentes en la segunda fase. El proceso de eliminación de los dos subintervalos centrales no es sino eliminar los puntos que tengan un 1 en su segundo decimal.

Prosguiendo así, resulta que nos quedamos con todos los puntos que en su expresión decimal no tengan sino ceros o doses. Cualquier número real de la forma 0,200002222020220022022.. pertenece al conjunto de Cantor.

La biyección es ahora la siguiente: a cada número en base tres del conjunto de Cantor le hacemos corresponder un número en base dos resultante de cambiar los doses por unos. Es evidente que se trata de una biyección, pero ahora el conjunto imagen es el intervalo [0,1] completo, pues cualquiera de sus puntos se expresa como una combinación concreta de ceros y unos en su expresión decimal binaria.
Así pues, y a pesar de toda la intuición en contra, tenemos nuestro resultado: no basta que un conjunto tenga la potencia del contínuo para que tenga medida mayor que cero.

Universidad de Sevilla



El que esto escribe tiene una nivel extremadamente bajo en patriotismo, pero cuando se entera de ciertos esfuerzos, se le llena el pecho de satisfacción.

Eso he sentido hoy al enterarme de que

“Con el objetivo de ofrecer acceso público a un fondo bibliográfico, anterior al siglo XIX y de gran valor para la historia de la ciencia y de las humanidades, así como de la propia institución, la Universidad de Sevilla ha comenzado un ambicioso proyecto de digitalización de su fondo antiguo, así como de documentos de su Archivo Histórico. De esta manera la Biblioteca facilita la disponibilidad de sus recursos a la vez que contribuye a la difusión y conservación de su colección bibliográfica y documental.”

Tras un rato navegando por el fondo, accesible desde esta dirección:
no puedo dar crédito a mis ojos. Estoy entusiasmado y no puedo menos que comentarlo.

Vayan, vayan y disfruten. Que el hecho de que todo sea gratis no disminuya el valor inmenso que tiene que cualquiera podamos saborear estos hermosísimos textos desde nuestra casa. Bien por la Universidad de Sevilla, y por todos los hayan tenido algo tengan que ver con esta divulgación de la cultura.

Cardinalidad, "tamaño", medida, dimensión (1)

____________________

Es increíble que un concepto que en la vida real sea tan simple de entender como el concepto de “tamaño” sea tan difícil de aprehender desde la matemática.

En una primera aproximación, si hablamos de conjuntos parece que entre dos de ellos es fácil decidir cuál es más grande: no hay más que establecer una correspondencia biyectiva entre ambos, o al menos intentarlo. Si lo conseguimos, habremos conseguido emparejar a cada elemento del primer conjunto con uno y sólo un elemento del segundo, por lo tanto ambos conjuntos tendrán el mismo número de elementos. Lo bueno de este método es que no hace falta construir efectivamente la biyección uno a uno , sino que basta con demostrar que existe.

No obstante, aquí se acaban las buenas noticias. La idea anterior nos da un buen criterio de igualdad de tamaño en cuanto a cardinalidad, o a número de elementos entre dos conjuntos. Dado que un conjunto no es sino eso: una colección de elementos, uno podría preguntarse qué más queremos.

Pues queremos bastante más. La cardinalidad es una buena idea para medir conjuntos finitos: un conjunto de 1000 elementos es mayor que uno de 999 elementos; pero entre dos conjuntos de infinitos elementos la cosa es más complicada: ¿dos conjuntos infinitos de la misma cardinalidad tienen el mismo tamaño?

El lector debiera darse cuenta de que estoy haciendo trampa con la pregunta anterior. Estoy preguntando por el tamaño de dos conjuntos como si el concepto estuviera aclarado, y no lo está. La existencia del concepto tamaño parece llevar consigo la existencia de una relación de orden entre conjuntos, de manera que podamos decir que uno que otro o si ambos son del mismo tamaño .

Podemos demostrar que la cardinalidad no es una buena idea para comparar tamaños por la simple existencia de conjuntos de igual cardinalidad y “tamaños” diferentes.

Consideremos los intervalos [0,1] y [0,2]. Ambos tienen la misma cardinalidad, la del continuo. En efecto, es muy sencillo emparejar cada elemento de [0,1] con uno y sólo uno de los elementos de [0,2], simplemente haciéndolo corresponder con su doble. Así de sencillo. Si no nos sorprende es por que lo sabemos desde niños, no porque no sea sorprendente.

Así pues, tenemos una nueva manera de comparar “tamaños” entre conjuntos cuando la cardinalidad no es buena guía: la medida de lebesgue de los mismos.

Cuando hablábamos de variables aleatorias definimos la medida de Lebesgue: en el seno de una sigma-álgebra, y dijimos que la medida de un intervalo [a,b], ó (a,b) ó (a,b] ó [a,b) es el número real m=b-a.

Ahora se ve que desde esta perspectiva los intervalos [0,2] y [0,1] son de medida diferente, a pesar de tener la misma cardinalidad. Uno es el doble del otro más concretamente.

Como un punto p equivale al intervalo [p,p], queda claro que la medida de cualquier punto es m = p-p = 0.

Cualquier conjunto finito de puntos tendrá asimismo medida nula. Es más, cualquier conjunto numerable de puntos la tendrá nula también, pues por propiedad de las sigma-álgebras, la medida de una unión numerable es la suma de las medidas, y una suma numerable de ceros es cero.

Así pasaba con el conjunto Q, que tratamos cuando hablábamos de la insoportable levedad del conjunto Q; era denso en R , y exhibía una curiosa propiedad que parecía (falsamente) hacerlo igual de grande que todo R: entre dos puntos de Q siempre había uno de R ( en realidad infinitos). Pero también era cierto lo contrario: entre dos puntos de R siempre había infinitos de Q.

A pesar de este quid procuo , veíamos que Q no era sino polvo fractal dentro de R, y que su medida era cero. Q era ubícuo en R, pero era numerable (otra sorpresa dilucidada por Cantor y muchas veces comentada aquí), y medía excatamente cero.

Lo que no está nada claro es qué ocurre cuando el conjunto es una unión no numerable de puntos. Dado que un intervalo es precisamente eso, y que tiene medida no nula, sabemos que ciertos conjuntos infinitos (respecto a su cardinalidad) no numerables son de medida no nula. ¿Pero lo serán todos?

La intuición nos indica que así es.

Sin embargo, la intuición es tan mala consejera en matemáticas...

Seguiremos en el próximo post mostrándoles un conjunto con cardinalidad infinita no numerable que, a pesar de ello tiene medida cero, el conjunto de Cantor . Lo cual nos hará ver que la relación entre medida y cardinalidad es complicada, y que debemos abandonar para siempre la idea preconcebida de que podíamos imaginar un concepto de “tamaño” que fuera siempre satisfactorio para comparar varios conjuntos.

Se mezclarán en este nuevo paseo otros conceptos importantísimos como el de dimensión .

Pero no adelantemos acontecimientos.