Blogia
Tio Petros

¿Quién puede nombrar el mayor número? (2/8)

Viene de aquí 

 

Pero la arena no escapa de ser contada, como Arquímedes reconoció en el tercer siglo A.C. Así es como él empezó El contador de arena, una especie de artículo de ciencia popular enviado al rey de Siracusa:

Hay algunos... que piensan que el número de arenas es infinito en multitud... y hay algunos otros que, sin considerarlo infinito, todavía piensan que ningún número ha sido nombrado que sea suficientemente grande para exceder su multitud... Pero yo intentaré mostraros [números que] exceden no sólo el número de la masa de arena igual en magnitud a la Tierra... sino también en una masa igual en magnitud al universo.

Este Arquímedes procedió a hacer, esencialmente mediante el uso del antiguo término griego miríada, que significa diez mil, la base de los exponenciales. Adoptando el presciente modelo cosmológico de Aristarco, en el cual la "esfera de las estrellas fijas" es inmensamente mayor que la esfera en la que la Tierra gira alrededor del sol, Arquímedes obtuvo un límite superior de 1063 del número de granos de arena necesarios para llenar el universo. (Supuestamente 1063 es el mayor número con un nombre lexicográfico estándar americano: vigintillion (*). Pero el serio vigintillion tiene que velar para no ser usurpado por el más caprichosamente nombrado googol, o 10100, y googolplex, o 1010^100.) Vasto es, por supuesto, pero 1063 no es elevado a los altares del mayor número de todos los tiempos. Seis siglos después, Diofanto desarrolló una notación más simple para los exponenciales, permitiéndole sobrepasar 1010^10^10^10. Entonces, en la edad media, el alzamiento de los numerales árabes y el posicionamiento decimal hicieron fácil apilar exponenciales todavía mayores. Pero el paradigma de Arquímedes para expresar grandes números no fue fundamentalmente superado hasta el siglo veinte. E incluso hoy, los exponenciales dominan la discusión popular de lo inmenso.

 

Considera, por ejemplo, la a menudo repetida leyenda del gran visir de Persia que inventó el ajedrez. El rey, como dice la leyenda, quedó encantado con el nuevo juego, e invitó al visir a pedir su propia recompensa. El visir replicó que, siendo un hombre modesto, sólo deseaba un grano de trigo por el primer cuadro del tablero, dos granos por el segundo, cuatro por el tercero, y así sucesivamente, con dos veces más granos por cuadro que el anterior. El anumérico rey consintió, sin darse cuenta que el número total de granos por todas las 64 casillas sería 264-1, or 18,4 trillones... equivalente a la actual producción mundial de trigo durante 150 años.

 

Apropiadamente, es este crecimiento exponencial lo que hace al propio ajedrez tan difícil. Hay solamente sobre 35 elecciones lícitas en cada movimiento ajedrecístico, pero las elecciones se multiplican exponencialmente hasta producir sobre 1050 posibles posiciones en el tablero... demasiados incluso para que un ordenador las busque exhaustivamente. Eso es por lo que se tardó hasta 1997 que un ordenador, Deep Blue, derrotase al campeón mundial humano de ajedrez. Y en el Go, que tiene un tablero de 19×19 y sobre 10150 posibles posiciones, incluso un humano aficionado todavía puede derrotar los programas número uno del mundo. El crecimiento exponencial infecta los ordenadores también en otras guisas. El problema del viajero pregunta por la ruta más corta que conecte un conjunto de ciudades, dada la distancia entre cada par de ciudades. Lo irritante es que el número de rutas posibles crece exponencialmente según el número de ciudades. Cuando hay, digamos, un ciento de ciudades, hay sobre 10158 rutas posibles, y, aunque son posibles varios atajos, ningún algoritmo computacional conocido es fundamentalmente mejor que probar una a una cada ruta. El problema del viajero pertenece a una clase llamada NP-completa, que incluye cientos de otros problemas de interés práctico. (NP representa el término técnico `tiempo polinomial no determinístico’.) Es sabido que si hay un algoritmo eficiente para cualquier problema NP-completo, entonces hay algoritmos eficientes para todos ellos. Aquí `eficiente’ significa usando una cantidad de tiempo proporcional al tamaño máximo del problema elevado a alguna potencia fija, por ejemplo, el número de ciudades al cubo. Sin embargo, se conjetura que no existe ningún algoritmo eficiente para los problemas NP-completos. La prueba de esta conjetura, llamada P≠NP, ha sido un gran problema irresuelto de la ciencia computacional durante treinta años.

 

Aunque los ordenadores probablemente nunca resolverán los problemas NP-completos eficientemente, hay más esperanza por otro grial de la ciencia computacional: la replicación de la inteligencia humana. El cerebro humano tiene aproximadamente cien mil millones de neuronas conectadas mediante cien billones de sinapsis. Y aunque la función de una neurona individual es sólo parcialmente entendida, se piensa que cada neurona despide impulsos eléctricos según reglas relativamente simples hasta mil veces por segundo. Así que lo que tenemos es un ordenador altamente interconectado capaz de quizá 1014 operaciones por segundo; en comparación, el más rápido superordenador paralelo del mundo, el 9200-Pentium Pro teraflops machine en Sandia National Labs, puede ejecutar 1012 operaciones por segundo. Contrariamente a la creencia popular, la materia gris no sólo está cableada para la inteligencia: sobrepasa al silicio incluso en puro poder computacional. Pero es improbable que esto permanezca cierto durante mucho tiempo. La razón es la ley de Moore, que, en su formulación de 1990, expresa que la cantidad de información almacenable en un chip de silicio crece exponencialmente, doblándose aproximadamente una vez cada dos años. La ley de Moore finalmente quedará fuera de juego, cuando los componentes del microchip alcancen la escala atómica y la litografía convencional vacile. Pero radicales nuevas tecnologías, tales como ordenadores ópticos, ordenadores de ADN, o incluso ordenadores cuánticos, podrían concebiblemente usurpar el lugar del silicio. El crecimiento exponencial en la potencia computacional no puede continuar para siempre, pero podría durar lo suficiente para que los ordenadores (al menos en poder de procesamiento) sobrepasen al cerebro humano.

Para los pronosticadores de la inteligencia artificial, la ley de Moore es un glorioso heraldo del crecimiento exponencial. Pero los exponenciales también tienen su lado más sombrío. Recientemente la población humana pasó de los seis mil millones y se duplica cada cuarenta años aproximadamente. A esta razón exponencial, si una persona media pesa setenta kilos, entonces en el año 3750 la Tierra entera estará compuesta de carne humana. Pero antes de que inviertas en desodorantes, date cuenta de que la población parará de incrementarse mucho antes de esto ocurra, ya sea por hambrunas, epidemias, calentamiento global, extinciones en masa de especies, aire irrespirable, o, entrando en el reino de la especulación, control de natalidad. No es difícil comprender porqué el físico Albert Bartlett afirma que "la mayor limitación de la raza humana" es "nuestra incapacidad de entender la función exponencial". O porqué Carl Sagan nos aconseja "nunca subestimar una exponencial". En su libro Miles de millones, Sagan da otras deprimentes consecuencias del crecimiento exponencial. Al porcentaje inflacionario del cinco por ciento al año, un dólar valdría sólo 37 centavos después de veinte años. Si un núcleo de uranio emite dos neutrones, y ambos colisionan con otros dos núcleos de uranio, haciéndoles emitir dos neutrones, y así en adelante... bueno, ¿mencioné el holocausto nuclear como un posible fin del crecimiento poblacional?

(*) En inglés americano un m-illón, en vez de ser 106m, es 103m+3.

Sigue aquí

8 comentarios

TonyG -

Los enlaces parecen todos mal.

Aquí están:
http://www.google.com/custom?domains=blogia.com&q=%BFQui%E9n+puede+nombrar+el+mayor+n%FAmero%3F&sa=B%FAsqueda&sitesearch=blogia.com&client=pub-9213158006356495&forid=1&channel=2182600505&ie=ISO-8859-1&oe=ISO-8859-1&cof=GALT%3A%23008000%3BGL%3A1%3BDIV%3A%23336699%3BVLC%3A663399%3BAH%3Acenter%3BBGC%3AFFFFFF%3BLBGC%3A336699%3BALC%3A0000FF%3BLC%3A0000FF%3BT%3A000000%3BGFNT%3A0000FF%3BGIMP%3A0000FF%3BFORID%3A1%3B&hl=es

Ivan Garcerant -

Dijkstra y Floyd para resolver el problema del agente viajero? Pues no, no son para eso.

Ahora, porque los links están malos? cual es el link para la tercera parte?

jose -

\"ningún algoritmo computacional conocido es fundamentalmente mejor que probar una a una cada ruta\"

¿Los algoritmos de dijkstra y floyd no servían para eso? son de tiempo polinómico :-S

Andrés K. M -

Hola, estaba muy interesado leyendo, pero no puedo ver la Pag 3, pueden mandar el enlace porfavor... gracias

kristell -

alguien podria decirme cuanto sale la suma esa del ajedrez del trigo esa historia si please la necesito al tok

Virginia -

Muy interesante y sobre todo muy bien explicado. Siempre me pierdo con las grandes cifras, como dice Sagan el exponencial no es lo mio. Cuando los ministros hablan de presupuestos a mí me da lo mismo cinco mil millones que seis mil millones, si total solo es uno más.

Respecto a la población hubo un tiempo más agorero, recuerdo en mi infancia mi preocupación continua ante la superpoblación, leía libros que me ponían continuamente en tensión respecto al tema.

Pasó el tiempo y pareció de pronto que ese no era un problema y lo es.

No solo por el número sino por el consumo de los recursos por persona. Es imposible mantener nuestro nivel de vida para toda la humanidad, acabaríamos con la Tierra. Aunque en esto también atisbo una esperanza si por fin conseguimos controlar la fusión del átomo.
Un saludo,

Heimy -

Ups... El artículo de Wikipedia es:

http://en.wikipedia.org/wiki/Moore%27s_Law

Heimy -

Dato CPI total (o no). No es trivial del todo que el artículo hable de la Ley de Moore "en su formulación de 1990".

Gordon Moore enunció esta "ley" en el 65, antes de la era del microchip, y decía que la evidencia que pudo recoger indicaba una duplicación anual de la complejidad en los circuitos, y que no había nada en aquel momento que indicase que esa tasa no se mantendría estable durante al menos 10 años.

Sabio señor, este Moore. Antes de esos 10 años se cambió el paradigma (apareció el chip), e hizo saltar la previsión, así que hubo que reformular la predicción en función de nuevos datos. Por cierto, hay una confusión general (interesada, por otro lado) al respecto de la "Ley", y es que ésta describe aumento en _complejidad_, mientras que la gente suele entender _velocidad_.

Es más. Según comenta el interesante artículo de Wikipedia al respecto, la predicción más popular antes de ésta de los 90 era "cada 18 meses" (la que siempre había escuchado). La nueva, cada 24 meses, se ajusta al crecimiento lineal en complejidad de los procesadores de Intel.

Vamos, que viene a ser algo así como una profecía "autocumplida". Se mantiene estable para una misma tecnología durante un cierto tiempo, pero no tiene en cuenta estos cambios de tecnología, ni las limitaciones que puede tener (como las que está encontrando Intel al reducir la separación entre transistores).

Precisamente podría ser necesario redefinir la "ley" (otra vez) porque hace poco IBM sacó a la palestra un proceso nuevo con el que se podía aumentar mucho la velocidad de reloj, reduciendo el consumo y sin tener que recurrir a procesos de 45 o 30nm.

Y lo que te rondarán, morena...

Aparte, el artículo comenta un par de datos interesantes (ver "Other considerations"), que afectan a las capacidades y velocidad de un ordenador.