Etiquetas

, , , ,

Seducciones de la informática en VivaAméricaEl viernes 9 de octubre di una conferencia en VivaAmerica titulada «Seducciones de la informática«. Salvo quizás la hipótesis de que estamos prácticamente obligados a crear nuevas formas de comunicación, todo lo que menciono no es nada nuevo, más bien son teorías científicas bien fundadas o que están generando un debate interesante en la comunidad científica.

Hace unos meses de Casa de América me propusieron que de una charla «tipo TED» –es decir, para hacer un vídeo de no más de 20 minutos de duración— sobre redes sociales. Les dije que buscaría una forma de hablar de ellas pero desde un punto de vista menos superficial y de hype tradicional que se suele ver en las charlas sobre el tema.

Se me ocurrió que además de ello podría explicar lo afortunados que somos los informáticos al ser testigos de revoluciones importantes en el campo. Fundamentalmente el surgimiento de la bioinformática y los ordenadores cuánticos que son más importantes y radicales que las «redes sociales» aunque se hable poco de ellos. (Aunque no lo mencioné explícitamente, también intento transmitir un mensaje profundamente ateista y contra los defensores del creacionismo, que en sus argumentos falaces deducen que la complejidad requiere que haya un diseñador: en la charla queda claro que es el azar el generador último de esas complejidad).

Fue así que plagié el nombre «Seducciones…» de la asignatura de libre configuración que estoy dando en la UIB donde tratamos estos temas y que fue originalmente creada por Llorenç Valverde (actualmente Vicerector de Tecnología de la UOC).

El eje de la charla son las ideas que usé para la presentación de Carlos Almedia hace unos meses en Palma que a su vez estaba basada en preguntas que me hacía y sobre las que escribí hace dos años: ¿La mejor defensa “científica” de eso llamado redes sociales o 2.0?

Tiene cuatro partes bien diferenciadas (las transparencias en PDF, 3.2 MB):

  1. ADN, conocimiento, información e informática (transparencias #6 – #11)
  2. La evolución y la influencia del lenguaje (#12 – #14)
  3. La teoría de la información (#15 – #16)
  4. El universo como un gran ordenador cuántico (#17 – #25)

ADN, conocimiento, información e informática

Se introduce con una visión «clásica» de la información, el conocimiento, la informática, y las relaciones con el ADN. Sobre este tema escribí hace cuatro años en Las cinco formas de almacenar el conocimiento…

  1. ADN: Es el primer método de almacenamiento del conocimiento. EL ADN existe para almacenar el conocimiento de cómo crear vida, como una máquina de Turing. El conocimiento está profundamente empotrado, pasar de grado es obligatorio para la supervivencia de las especies. El conocimiento es persistente, pero se actualiza muy lentamente. No tenemos la capacidad de cambiar el conocimiento –todavía, o sí…– de forma intencionada. El ADNpuede hacer crecer un objeto físico que interactúa y modifica el entorno.
  2. Cerebro: Es un “experimento” casi exclusivo de la raza humano: almacenar más conocimiento en el cerebro que lo que se hereda en el ADN. Usamos nuestro cerebro para almacenar el conocimiento que adquirimos, fue el segundo método de almacenar el conocimiento que conocimos. El conocimiento es muy volátil, pero podemos cambiarlo rápida e intencionalmente. Podemos aplicar ese conocimiento para afectar y modificar el mundo.
  3. Máquinas y herramientas: El valor más importante de una herramienta no es ella en sí misma, sino como ha sido creada y modificada. El conocimiento del creador de esas herramientas es lo que marca las diferencias. Se las suele llamar también “conocimiento sólido” y fue la tercera forma de almacenar el conocimiento. El conocimiento es bastante persistente, pero no es fácil de actualizar. Es intencional y existe para afectar el mundo exterior.
  4. Libros: Ha permitido nuevas formas de depositar y acceder al conocimiento que hasta ese momento estaban confinados al cerebro. Hizo al conocimiento portable en el tiempo y en el espacio. El conocimiento es muy persistente, pero de actualización lenta. Aunque los libros son intencionales no tienen capacidad para cambiar al mundo.
  5. Software: Es la última forma conocida –de hace sólo unos 50 años– para almacenar el conocimiento. Después de unos inicios dubitativos, está creciendo a una velocidad vertiginosa. Multitud de personas están trabajando para obtener información de las fuentes más diversas, comprenderla, clasificarla y trasladarla a este medio, y entonces intentan validar todo ese conocimiento. Hay una razón para que se invierta tanto esfuerzo, este medio tiene las características que deseamos y que no tienen los otros medios: es intencional, persistente, de actualización sencilla y rápida, y sobre todo es activo.

Al final de esta parte menciono a la bioinformática, una nueva «ciencia» que une los conocimientos de una ciencia natural, la biología, con otra ciencia formal, la informática.

La evolución y la influencia del lenguaje

Con “El origen de las especies” de Charles Darwins aprendimos que la evolución fue –y es– una lucha cruenta y sangrienta por la supervivencia. Aquellos individuos que sobrevivían más tiempo eran los que más se reproducían, transmitiendo así sus pequeñas ventajas genéticas a sus descendientes. Cien años después, también aprendimos que esos genes no son más que pequeñas unidades básicas –bits– de información.

Investigaciones posteriores descubrieron que, a diferencia del resto de las especies, los humanos no respetamos la Teoría de la Evolución, ni al “egoísmo de los genes”, como lo describió Richard Dawkins. Nuestra organización social es diferente, y quizás única en el universo.

Los científicos que estudian estos “extraños” comportamientos humanos nos explican las razones, hemos sido capaces de comunicarnos, de compartir información sobre nuestros deseos e intereses, de cultivar la empatía. Así pudimos establecer objetivos colectivos a corto plazo, en beneficio de otros a más largo plazo.

Como bien lo resume Dawkins en su documental «The big question: Why are we here?»:

Y entonces, ocurrió algo sin precedentes: surgió un cerebro que fue capaz de mirar al mundo y preguntarse, (tal vez por primera vez) la pregunta «¿por qué?»

¿Por qué estamos aquí?

Ya no teníamos que limitarnos a lo que la naturaleza nos diga. Pudimos pensar en metas de acuerdo a nosotros, y desarrollamos una herramienta para expresar estas metas: el lenguaje.

El hablar nos permite compartir metas. Y la criatura capaz de comunicar sus metas empieza a pensar intencionalmente, a actuar intencionalmente, a crear intencionalmente.

E incluso más asombrosamente, a través del lenguaje nuestras metas pueden tomar una vida más allá de cualquier individuo. Un inventor puede producir la rueda. Usando el lenguaje, generaciones de inventores, compartiendo la meta del transporte rápido, pueden producir el automóvil moderno.

La tecnología permite al ser humano realizar sus objetivos con gran eficacia. Y cuando los seres humanos persiguen una meta, ellos mismos fuerzan el paso de la evolución.

Ésta es una forma completamente nueva de evolución, no evolución genética.

La teoría de la información

En 1948, Claude Shannon, un científico contratado por la AT&T para investigar cómo aumentar el número de comunicaciones por los cables telefónicos, publicó el artículo “Una teoría matemática de la información”, que dio origen a lo que hoy conocemos como “Teoría de la Información”. Ese modelo –de origen y objetivos aparentemente modestos– permitió avances radicales en la transmisión y codificación de datos. Es la base de todas las comunicaciones modernas: la radio, televisión, satélites, teléfonos, Internet.

Una de las grandes victorias de la teoría de Shannon es que define matemáticamente la redundancia y que defiune cuánta información puede transportarse por un canal de comunicación, éste es el famoso teorema de la capacidad de canal.

La idea central de la Teoría de la Información es la entropía. Entropía e información están relacionadas íntimamente, de hecho entropía es una medida de la información. De hecho Shannon estaba por llamarle «información», pero fue Von Neumann el que le propuso usar entropía:

Deberías llamarle entropía, por dos razones. En primer lugar tu función de incertidumbre se ha usado en mecánica estadística con ese nombre, así que ya tiene un nombre. En segundo lugar, y más importante, nadie sabe lo que es realmente la entropía, así que siempre tendrás una ventaja en el debate.

Lo más sorprendente y contraituitivo de la función de incertidumbre de la teoría de Shannon es que un mensaje que es predecible lleva menos información que un mensaje que parece estar formado por caractates aleatorios.

Parece que Shannon no dió demasiada importancia a las similitudes de su entropía de la información con la entropía termodinámica, pero otros científicos sí lo hicieron.

Antes de la teoría de Shannon, en 1929, el científico húngaro Leó Szilárd resolvió la paradoja del demonio de Maxwell(el año está mal en la Wikipedia): el acto de obtener información de la posición de un átomo incrementa la entropía del universo, contrarestando los esfuerzos del «demonio» de decrementar la entropía de la caja.

En 1951, inspirado por la teoría de la información, Léon Brillouin trató de explicar qué es lo que hacía el «demonio» para incrementar la entropía en la caja. Sus conclusiones fueron que la entropía de Shannon y la entropía termodinámica estaban ínitimamente relacionadas, aunque la teoría de la información provee una perspectiva diferente.

Con las leyes de la termodinámica se puede aplicar energía para separar las moléculas frías de un gas encerrado en una caja reduciendo así su entropía. Si se deja de aplicar esa energía a la caja la entropía vuelve a aumentar volviendo así al equilibrio. En cambio con las leyes de la información se aplica energía para obtener y procesar información de las moléculas en el gas, este procesamiento cambia la información almacenada en la caja. Una vez que se deja de aplicar energía esa información almacenada se disipa en el ambiente. La naturaleza intenta disipar la información tanto como intenta aumentar la entropía: las dos ideas son los mismo.

Aunque parce obvio, muchos científicos no estaban de acuerdo. La respuesta final provino de las ciencias de la computación.

En la década de 1930 Alan Turing demostró que una máquina que pudiese grabar símbolos en una cinta, borrarlos y mover esa cinta puede hacer lo mismo que cualquier ordenador concebible. Un ordenador, o el cerebro, no es más que una máquina de procesamiento de información y por lo tanto sujeta a la Teoría de la Información: manipular esos bits de información está ligado al consumo de energía y entropía. Así, los científicos se dedicaron a investigar cuánta energía y entropía se consume o produce cuando se manipulan bits, era el primer paso para entender cómo trabajan los ordenadores y el cerebro.

El físico Rolf Landauer dio en 1961 con una respuesta sorprendente, conocido como el principio de Landauer. Este principio dice que cualquier operación lógica que implique el borrado o la sobreescritura de información implica un aumento de entropía. O dicho de otra forma, cualquier operación reversible como la negación, suma o multiplicación no consume energía ni modifica la entropía. Pero si la operación es irreversible, como el «borrado de bits» entonces sí consume energía que se disipa (es el calor que disipan nuestras CPU) y aumenta la entropía del universo.

La respuesta definitiva lo dió en 1982 el «padre» del cifrado cuántico Charles Bennet en su artículo The Thermodynamics of Computation– a Review, Bennet «mata» definitivamente la paradoja del demonio de Maxwell. El demonio es en el fondo una máquina de procesamiento de información, una Máquina de Turing. Esta máquina debe medir la velocidad de los átomos de alguna manera, guardar ese bit de información en la cinta y ejecutar un programa que tome la decisión de abrir o no la puerta. Pero escribir ese bit implica que en algún momento hay que borrar un bit previo. Aunque se tenga muchísima memoria, ésta no puede ser infinita ya que el número de partículas en el universo es finito por lo que el «demonio» se quedará sin memoria y tendrá que borrar bits al coste de liberar entropía. Así el demonio de Maxwell fue asesinado después de más de 100 años. Pero lo sorprendente es que además quedaba claro que no podría haber máquinas de movimiento perpetuo… demostrado con las ciencias y la teoría de la información.

Y todo esto ocurría con una «modesta» teoría, cuyo autor –Shannon– nunca tuvo la intención de resolver la paradoja de Maxwell ni estudiar las relaciones entre información, partículas y termodinámica.

El universo como un gran ordenador cuántico

La posición y velocidad de un átomo en un gas registra información, es decir, los átomos registran bits ¿Cómo se procesa esa información? Las colisiones atómicas.

En el modelo de Edward Fredkin y Tommaso Toffoli del artículo Conservative Logic (1982) cada colisión realiza las operaciones lógicas AND, OR, NOT y COPY. Fijando las posiciones y velocidades iniciales adecuadas es posible «programar» circuitos lógicos. O sea, los átomos moviéndose en un gas son en principio capaces de realizar procesamiento digital universal. Es muy complejo fijar esas posiciones y velocidades adecuadas para cada átomo, además las colisiones en un gas son caóticas y por el efecto «mariposa» la mínima variación contaminaría el proceso completo. Pero estos problemas pueden (y son) resueltos por la mecánica cuántica.

Como lo demuestra el experimento de la rendija, uno de los «misterios» de la física cuántica es la dualidad partícula-onda. Este experimento demuestra que debido a su naturaleza de ona, una partícula no necesita estar en un sitio determinado. Esta propiedad de estar en varios sitios al mismo tiempo es la responsable de la potencia de la computación cuántica.

Si se coloca uin detector en una de las rendijas la interferencia desaparece, se dice que la interacción ha localizado a la partícula, o sea destruyó su cartacter de onda. Este proceso se denomina decoherencia y se produce ante la mínima interacción con su entorno –por esa es la razón los «objetos grandes» están en un sitio u otro–.

La unidad de información cuántica son es el bit, sino el qubit. Este puede ser un espín nuclear, la posición de un electrón en u interferómetro, no es importante el medio, sino la información cuántica que representa. A diferencia de un bit tradicional puede tener ambos valores, 0 y 1 simultáneamente, hasta que ocurra la decoherencia.

Desde 1980 se discutía la posibilidad de construir un ordenador cuántico que pudiese procesar como un ordenador normal, a principios de los 90 se empezaron a construir los primeros ordenadores cuánticos basados en la resonancia nuclear magnética [*]. En 1994 se publica el primer algoritmo de factorización ejecutable en ordenadores cuánticos, al algortimo de Shor. (Más información: vídeo Seth Lloyd’s Quantum Computer, Quantum Computation Roadmap, Timeline of quantum computing).

[*] Según Decoding the Universe y la Enciclopedia Británica, el primer ordenador cuántico fue fabricado por Isaac Chuang de Los Alamos National Laboratory y Neil Gershenfeld del MIT y tenía 2 qubits.

La idea que el universo sea un ordenador no es nueva, Konrad Suze –la primera persona en construir un ordenador moderno– ya lo propuso en 1967 en su Rechnender Raum que se cita como el inicio de la Física Digital. El mencionado Edward Fredkin es del grupo del científicos de este grupo, como así también Stephen Wolfram (el creador de Mathematica y el más reciente WolframAlpha) extendió la idea de Fredkin y Suze para su autómata celular en su controvertido pero muy vendido libro A New Kind of Science.

Norm Margolus, alumno y colaborador de Tommaso Toffoli, demostró que un sistema físico simple con colisiones de átomos puede realizar computaciones digitales universales. Junto con Lev Levitin publicaron en 1998 el artículo The maximum speed of dynamical evolution donde fijan los límites de las operaciones (flips) sobre los bits (o dicho de otra forma, la velocidad máxima de evolución, que es proporciona a la energía del sistema): el Teorema de Margolus-Levitin.

A partir del teorema anterior y trabajos de Planck, Seth LLoyd en Computational capacity of the universe calculó la capacidad de procesamiento del universo: 10105 operaciones por segundo, sobre 1090 bits. La cantidad de operaciones en total en los 14.000 millones de años calculados del universo son 10120 operaciones. Más tarde, en 2004, Lawrence Kraus (autor de La física de Star Strek) y Glenn D. Starkman publicaron Universal Limits on Computation donde analizan la cantidad de información que puede almacenar y procesar el universo, así calculan que al universo le quedan «sólo» 10120 operaciones.

Complejidad y azar

Explicar el tema de la complejidad algorítmica o las relaciones entre complejidad y entropía haría incabable este apunte. Pero desde el punto de vista físico, de la información o biológico (recomiendo la conferencia Complexity vs Chance para conocer las ideas fundamentales desde el punto de vista biológico) la complejidad de nuestro universo se explica desde el punto de vista del azar.

Como explicar Seth Lloyd en Programming the Universe (Capítulo 8), esta complejidad es fácilmente explicable desde el punto de vista de la teoría de la información si se considera al universo como un gran ordenador cuántico. Ludwig Boltzmann ya había propuesto que el origen del universo es resultado del azar de fluctuaciones estadísticas. Boltzmann se dio cuenta que su demostración era errónea y no continuó con el tema.

Sin embargo usando la información algorítmica sobre trabajos iniciados por Gregory Chaitin y Bennet (From Complexity to Life: On The Emergence of Life and Meaning) sí se puede explicar el origen de la complejidad a partir de eventos aleatorios. Si a los monos del Teorema de los infinitos monos se cambia la máquina de escribir por un intérprete de lenguaje de ordenador, las probabilidades que generen un código que a su vez genere resultados es mucho menor. Así, aunque 1090 monos no hayan sido capaces de reproducir Hamlet desde la creación del universo, sí podrían haber dado origen a estructuras tan complejas como las de universo. La pregunta es, ¿quién genera esas entradas aleatorias? El principio de incertidumbre de Heisenberg: las fluctuaciones cuánticas.