Se habla mucho sobre eso que se llama web 2.0 y/o redes sociales, muchos pretenden darle una visión académica. Yo estoy convencido también de su importancia y el valor cientíco de las mismas. Aunque soy bastante escéptico de tanto academicismo, por eso leo muchos artículos sobre el tema, de hecho ahora mismo estoy leyendo este tocho de los papers más influyentes (recomendable pero muy duro, al menos para mi típica formación de “ingeniero”).

Pero hay otro unos párrafos de otro libro de un reconocido físico que nunca pensé que podría definir de una forma tan contundente la importancia y el camino futuro que pueden tomar las redes sociales virtuales.

Antes de contar quién lo escribió y en qué libro, muestro unos extractos de la página 209 del capítulo Complexity Simplified, sección Being Human:

En algún momento hace unos 100.000 años más o menos los seres humanos se toparon con el lenguaje. Para las otras criaturas el lenguaje humano debió haber parecido una innovación con ruidos bastantes extaños. Pero la habilidad del lenguaje humano de permitir la expresión de conceptos arbitrariamente complejos permitió que la gente procesase información de una forma altamente distribuida. La naturaleza distribuida del procesamiento de información humana a su vez permitió nuevas formas de colaboración, la formación de grupos, asociaciones, sociedades, compañías, etc. Algunas de esas nuevas formas de colaboración probaron ser extremadamente efectivas, así varias formas de procesamiento de información tales como democracia, comunismo, capitalismo, religión y ciencia cobraron vida por sí mismas, auto propagándose y evolucionando con el tiempo.

Es la riqueza y complejidad de nuestro procesamiento distribuido de información el que nos ha traído tan lejos. La invención del lenguaje humano, acoplado con diversos desarrollos sociales, fue la verdadera revolución que cambió sustancialmente la faz de la tierra.

Yo creo que las dos frases ya impactan bastante, pero en el contexto del tema científico y la lógica hasta llegar a ellas es aún más relevante. El libro se trata de Programming the Universe, de Seth Lloyd (lo comenté brevemente antes, casi al final).

El libro trata de una forma amena, casi sin fórmulas pero muy riguroso, sobre los avances de unas nuevas teorías que se desarrollan desde hace una década. Interpretar a todo el universo como si fuese un ordenador cuántico y explicar todas las leyes de la naturaleza a partir de la teoría de la información [cuántica] y las operaciones lógicas fundamentales que ya usamos en la compuación tradicional (AND, OR, NOT, COPY). Con esta teoría esperan poder lograr la “gran unificación” de la mecánica clásica, la de relatividad y la física cuántica. De eso va el libro.

quantum space time

Casi al final del libro se explica el problema –incluso para lograr una definición única– de la complejidad.

Los informáticos sabemos muy bien que a partir de operaciones básicas muy simples, como las mencionadas anteriormente, se pueden obtener ejecutar programas sin límites de complejidad –sujetos a las limitaciones físicas/información–. Esa es la característica intrínseca de los computadores.

Todos conocemos más o menos la “prueba de los monos con máquinas de escribir” de Emile Borel –también es la base de la “La biblioteca de Babel” de Borges [1]–. ¿Qué probabilidad hay que un millón de monos picando en máquinas de escribir 10 horas al día pudiesen escribir una obra completa? (actualmente “Hamlet” gracias a Russell Maloney por su historia “Lógica inflexible“). Es tan baja que es prácticamente cero.

[1] Curiosamente, se sospecha que Hugh Everett, creador de la teoría de los múltiples universos, pudo haberse inspirado en El jardín de los senderos que se bifurcan de Borges.

Pero ¿qué pasa si esos monos en escribiesen sobre ordenadores en algún lenguaje de programación y los ordenadores ejecutan esos miniprogramas? La historia cambia radicalmente ya que la probabilidad de que escriban algo que sea “ejecutable” es muchísimo más alta.

Además la ejecución de ese pequeño trozo de programa podría generar una salida, más datos y más programas para ejecutar. Este es uno de los fundamentos sobre los que intentan explicar el orígen y desarrollo del universo: la capacidad de la computación para generar estructuras cada vez más complejas a partir de operaciones básicas y entradas aleatorias.

Es esta capacidad de generar estructuras de complejidad creciente las que permitieron que existamos, y cada una de estas estructuras tienen “vida” por sí mismas siempre basados en los mismos principios de computación, los bits [cuánticos] y operaciones simples –así se explica desde el los bits en el ADN hasta las reacciones químicas (la de los catalizadores químicos es brillantemente simple con esta teoría)–.

El lenguaje humano fue ese gran salto que nos permitió distribuir nuestro procesamiento y evolucionar mucho más rápido que otras especies. A partir de allí construimos cada vez estructuras más complejas y distribuidas, tenemos esa tendencia innata –muy bien reflejada últimamente por el nacimiento de Internet–.

La razón es simple, estamos obligados a hacerlo si queremos aprovechar mejor la energía libre –o información estructurada, cada vez menor debido al aumento de la entropía del universo–.

La evolución de las redes sociales, Internet, el web… ¿no es un paso evolutivo natural –y obligado– para aumentar nuestra “complejidad” social y así aumentar la capacidad de procesamiento colectivo que es el que nos permitirá seguir evolucionando?

Yo creo que sí, que cuadra perfectamente. Y lo más intrigante es que además de las ya existentes pruebas matemáticas seguramente el modelo de procesamiento cuántico y la teoría de la información lo explicará perfectamente. O que estas nuevas redes sociales virtuales sean la evaloción hacia un sistema más complejo de las actuales democracias, religiones, capitalismos o comunismos [2].

¿No serán las redes sociales virtuales –Internet, es decir los emails, grupos de correo, Facebook, Twitter, MySpace, Tumblr, Digg/Menéame…– la enésima verificación del proceso de “complejidad creciente” y quizás el segundo salto importante en el avance de la “computación humana distribuida”?

[2] Quizás muchos anarquistas puedan hacer suya esta afirmación y digan que es el anarquismos digital… ¿no será que al anarquismo sólo le faltaba “complejidad” y más “procesamiento distribuido”? La alta entropía intrínseca del anarquismo lo confirmaría😉

Hace más de año y medio introduje, medio en broma medio en serio el concepto de entropía en el Menéame –y que es muy usado para detectar abusos y spam–. ¿Debería tomarlo más en serio, programarlo como toca y olvidarme de los tochos clásicos?🙂