• Del autor
  • Principios y algoritmos de concurrencia

Ricardo Galli, de software

~ De software libre, internet, legales

Ricardo Galli, de software

Archivos de etiqueta: lenguaje

Anotaciones científicas de «Seducciones de la informática»

13 martes Oct 2009

Posted by gallir in ciencia, cultura

≈ 11 comentarios

Etiquetas

complejidad, evolución, lenguaje, ordenador cuántico, universo

Seducciones de la informática en VivaAméricaEl viernes 9 de octubre di una conferencia en VivaAmerica titulada «Seducciones de la informática«. Salvo quizás la hipótesis de que estamos prácticamente obligados a crear nuevas formas de comunicación, todo lo que menciono no es nada nuevo, más bien son teorías científicas bien fundadas o que están generando un debate interesante en la comunidad científica.

Hace unos meses de Casa de América me propusieron que de una charla «tipo TED» –es decir, para hacer un vídeo de no más de 20 minutos de duración— sobre redes sociales. Les dije que buscaría una forma de hablar de ellas pero desde un punto de vista menos superficial y de hype tradicional que se suele ver en las charlas sobre el tema.

Se me ocurrió que además de ello podría explicar lo afortunados que somos los informáticos al ser testigos de revoluciones importantes en el campo. Fundamentalmente el surgimiento de la bioinformática y los ordenadores cuánticos que son más importantes y radicales que las «redes sociales» aunque se hable poco de ellos. (Aunque no lo mencioné explícitamente, también intento transmitir un mensaje profundamente ateista y contra los defensores del creacionismo, que en sus argumentos falaces deducen que la complejidad requiere que haya un diseñador: en la charla queda claro que es el azar el generador último de esas complejidad).

Fue así que plagié el nombre «Seducciones…» de la asignatura de libre configuración que estoy dando en la UIB donde tratamos estos temas y que fue originalmente creada por Llorenç Valverde (actualmente Vicerector de Tecnología de la UOC).

El eje de la charla son las ideas que usé para la presentación de Carlos Almedia hace unos meses en Palma que a su vez estaba basada en preguntas que me hacía y sobre las que escribí hace dos años: ¿La mejor defensa “científica” de eso llamado redes sociales o 2.0?

Tiene cuatro partes bien diferenciadas (las transparencias en PDF, 3.2 MB):

  1. ADN, conocimiento, información e informática (transparencias #6 – #11)
  2. La evolución y la influencia del lenguaje (#12 – #14)
  3. La teoría de la información (#15 – #16)
  4. El universo como un gran ordenador cuántico (#17 – #25)

ADN, conocimiento, información e informática

Se introduce con una visión «clásica» de la información, el conocimiento, la informática, y las relaciones con el ADN. Sobre este tema escribí hace cuatro años en Las cinco formas de almacenar el conocimiento…

  1. ADN: Es el primer método de almacenamiento del conocimiento. EL ADN existe para almacenar el conocimiento de cómo crear vida, como una máquina de Turing. El conocimiento está profundamente empotrado, pasar de grado es obligatorio para la supervivencia de las especies. El conocimiento es persistente, pero se actualiza muy lentamente. No tenemos la capacidad de cambiar el conocimiento –todavía, o sí…– de forma intencionada. El ADNpuede hacer crecer un objeto físico que interactúa y modifica el entorno.
  2. Cerebro: Es un “experimento” casi exclusivo de la raza humano: almacenar más conocimiento en el cerebro que lo que se hereda en el ADN. Usamos nuestro cerebro para almacenar el conocimiento que adquirimos, fue el segundo método de almacenar el conocimiento que conocimos. El conocimiento es muy volátil, pero podemos cambiarlo rápida e intencionalmente. Podemos aplicar ese conocimiento para afectar y modificar el mundo.
  3. Máquinas y herramientas: El valor más importante de una herramienta no es ella en sí misma, sino como ha sido creada y modificada. El conocimiento del creador de esas herramientas es lo que marca las diferencias. Se las suele llamar también “conocimiento sólido” y fue la tercera forma de almacenar el conocimiento. El conocimiento es bastante persistente, pero no es fácil de actualizar. Es intencional y existe para afectar el mundo exterior.
  4. Libros: Ha permitido nuevas formas de depositar y acceder al conocimiento que hasta ese momento estaban confinados al cerebro. Hizo al conocimiento portable en el tiempo y en el espacio. El conocimiento es muy persistente, pero de actualización lenta. Aunque los libros son intencionales no tienen capacidad para cambiar al mundo.
  5. Software: Es la última forma conocida –de hace sólo unos 50 años– para almacenar el conocimiento. Después de unos inicios dubitativos, está creciendo a una velocidad vertiginosa. Multitud de personas están trabajando para obtener información de las fuentes más diversas, comprenderla, clasificarla y trasladarla a este medio, y entonces intentan validar todo ese conocimiento. Hay una razón para que se invierta tanto esfuerzo, este medio tiene las características que deseamos y que no tienen los otros medios: es intencional, persistente, de actualización sencilla y rápida, y sobre todo es activo.

Al final de esta parte menciono a la bioinformática, una nueva «ciencia» que une los conocimientos de una ciencia natural, la biología, con otra ciencia formal, la informática.

La evolución y la influencia del lenguaje

Con “El origen de las especies” de Charles Darwins aprendimos que la evolución fue –y es– una lucha cruenta y sangrienta por la supervivencia. Aquellos individuos que sobrevivían más tiempo eran los que más se reproducían, transmitiendo así sus pequeñas ventajas genéticas a sus descendientes. Cien años después, también aprendimos que esos genes no son más que pequeñas unidades básicas –bits– de información.

Investigaciones posteriores descubrieron que, a diferencia del resto de las especies, los humanos no respetamos la Teoría de la Evolución, ni al “egoísmo de los genes”, como lo describió Richard Dawkins. Nuestra organización social es diferente, y quizás única en el universo.

Los científicos que estudian estos “extraños” comportamientos humanos nos explican las razones, hemos sido capaces de comunicarnos, de compartir información sobre nuestros deseos e intereses, de cultivar la empatía. Así pudimos establecer objetivos colectivos a corto plazo, en beneficio de otros a más largo plazo.

Como bien lo resume Dawkins en su documental «The big question: Why are we here?»:

Y entonces, ocurrió algo sin precedentes: surgió un cerebro que fue capaz de mirar al mundo y preguntarse, (tal vez por primera vez) la pregunta «¿por qué?»

¿Por qué estamos aquí?

Ya no teníamos que limitarnos a lo que la naturaleza nos diga. Pudimos pensar en metas de acuerdo a nosotros, y desarrollamos una herramienta para expresar estas metas: el lenguaje.

El hablar nos permite compartir metas. Y la criatura capaz de comunicar sus metas empieza a pensar intencionalmente, a actuar intencionalmente, a crear intencionalmente.

E incluso más asombrosamente, a través del lenguaje nuestras metas pueden tomar una vida más allá de cualquier individuo. Un inventor puede producir la rueda. Usando el lenguaje, generaciones de inventores, compartiendo la meta del transporte rápido, pueden producir el automóvil moderno.

La tecnología permite al ser humano realizar sus objetivos con gran eficacia. Y cuando los seres humanos persiguen una meta, ellos mismos fuerzan el paso de la evolución.

Ésta es una forma completamente nueva de evolución, no evolución genética.

La teoría de la información

En 1948, Claude Shannon, un científico contratado por la AT&T para investigar cómo aumentar el número de comunicaciones por los cables telefónicos, publicó el artículo “Una teoría matemática de la información”, que dio origen a lo que hoy conocemos como “Teoría de la Información”. Ese modelo –de origen y objetivos aparentemente modestos– permitió avances radicales en la transmisión y codificación de datos. Es la base de todas las comunicaciones modernas: la radio, televisión, satélites, teléfonos, Internet.

Una de las grandes victorias de la teoría de Shannon es que define matemáticamente la redundancia y que defiune cuánta información puede transportarse por un canal de comunicación, éste es el famoso teorema de la capacidad de canal.

La idea central de la Teoría de la Información es la entropía. Entropía e información están relacionadas íntimamente, de hecho entropía es una medida de la información. De hecho Shannon estaba por llamarle «información», pero fue Von Neumann el que le propuso usar entropía:

Deberías llamarle entropía, por dos razones. En primer lugar tu función de incertidumbre se ha usado en mecánica estadística con ese nombre, así que ya tiene un nombre. En segundo lugar, y más importante, nadie sabe lo que es realmente la entropía, así que siempre tendrás una ventaja en el debate.

Lo más sorprendente y contraituitivo de la función de incertidumbre de la teoría de Shannon es que un mensaje que es predecible lleva menos información que un mensaje que parece estar formado por caractates aleatorios.

Parece que Shannon no dió demasiada importancia a las similitudes de su entropía de la información con la entropía termodinámica, pero otros científicos sí lo hicieron.

Antes de la teoría de Shannon, en 1929, el científico húngaro Leó Szilárd resolvió la paradoja del demonio de Maxwell(el año está mal en la Wikipedia): el acto de obtener información de la posición de un átomo incrementa la entropía del universo, contrarestando los esfuerzos del «demonio» de decrementar la entropía de la caja.

En 1951, inspirado por la teoría de la información, Léon Brillouin trató de explicar qué es lo que hacía el «demonio» para incrementar la entropía en la caja. Sus conclusiones fueron que la entropía de Shannon y la entropía termodinámica estaban ínitimamente relacionadas, aunque la teoría de la información provee una perspectiva diferente.

Con las leyes de la termodinámica se puede aplicar energía para separar las moléculas frías de un gas encerrado en una caja reduciendo así su entropía. Si se deja de aplicar esa energía a la caja la entropía vuelve a aumentar volviendo así al equilibrio. En cambio con las leyes de la información se aplica energía para obtener y procesar información de las moléculas en el gas, este procesamiento cambia la información almacenada en la caja. Una vez que se deja de aplicar energía esa información almacenada se disipa en el ambiente. La naturaleza intenta disipar la información tanto como intenta aumentar la entropía: las dos ideas son los mismo.

Aunque parce obvio, muchos científicos no estaban de acuerdo. La respuesta final provino de las ciencias de la computación.

En la década de 1930 Alan Turing demostró que una máquina que pudiese grabar símbolos en una cinta, borrarlos y mover esa cinta puede hacer lo mismo que cualquier ordenador concebible. Un ordenador, o el cerebro, no es más que una máquina de procesamiento de información y por lo tanto sujeta a la Teoría de la Información: manipular esos bits de información está ligado al consumo de energía y entropía. Así, los científicos se dedicaron a investigar cuánta energía y entropía se consume o produce cuando se manipulan bits, era el primer paso para entender cómo trabajan los ordenadores y el cerebro.

El físico Rolf Landauer dio en 1961 con una respuesta sorprendente, conocido como el principio de Landauer. Este principio dice que cualquier operación lógica que implique el borrado o la sobreescritura de información implica un aumento de entropía. O dicho de otra forma, cualquier operación reversible como la negación, suma o multiplicación no consume energía ni modifica la entropía. Pero si la operación es irreversible, como el «borrado de bits» entonces sí consume energía que se disipa (es el calor que disipan nuestras CPU) y aumenta la entropía del universo.

La respuesta definitiva lo dió en 1982 el «padre» del cifrado cuántico Charles Bennet en su artículo The Thermodynamics of Computation– a Review, Bennet «mata» definitivamente la paradoja del demonio de Maxwell. El demonio es en el fondo una máquina de procesamiento de información, una Máquina de Turing. Esta máquina debe medir la velocidad de los átomos de alguna manera, guardar ese bit de información en la cinta y ejecutar un programa que tome la decisión de abrir o no la puerta. Pero escribir ese bit implica que en algún momento hay que borrar un bit previo. Aunque se tenga muchísima memoria, ésta no puede ser infinita ya que el número de partículas en el universo es finito por lo que el «demonio» se quedará sin memoria y tendrá que borrar bits al coste de liberar entropía. Así el demonio de Maxwell fue asesinado después de más de 100 años. Pero lo sorprendente es que además quedaba claro que no podría haber máquinas de movimiento perpetuo… demostrado con las ciencias y la teoría de la información.

Y todo esto ocurría con una «modesta» teoría, cuyo autor –Shannon– nunca tuvo la intención de resolver la paradoja de Maxwell ni estudiar las relaciones entre información, partículas y termodinámica.

El universo como un gran ordenador cuántico

La posición y velocidad de un átomo en un gas registra información, es decir, los átomos registran bits ¿Cómo se procesa esa información? Las colisiones atómicas.

En el modelo de Edward Fredkin y Tommaso Toffoli del artículo Conservative Logic (1982) cada colisión realiza las operaciones lógicas AND, OR, NOT y COPY. Fijando las posiciones y velocidades iniciales adecuadas es posible «programar» circuitos lógicos. O sea, los átomos moviéndose en un gas son en principio capaces de realizar procesamiento digital universal. Es muy complejo fijar esas posiciones y velocidades adecuadas para cada átomo, además las colisiones en un gas son caóticas y por el efecto «mariposa» la mínima variación contaminaría el proceso completo. Pero estos problemas pueden (y son) resueltos por la mecánica cuántica.

Como lo demuestra el experimento de la rendija, uno de los «misterios» de la física cuántica es la dualidad partícula-onda. Este experimento demuestra que debido a su naturaleza de ona, una partícula no necesita estar en un sitio determinado. Esta propiedad de estar en varios sitios al mismo tiempo es la responsable de la potencia de la computación cuántica.

Si se coloca uin detector en una de las rendijas la interferencia desaparece, se dice que la interacción ha localizado a la partícula, o sea destruyó su cartacter de onda. Este proceso se denomina decoherencia y se produce ante la mínima interacción con su entorno –por esa es la razón los «objetos grandes» están en un sitio u otro–.

La unidad de información cuántica son es el bit, sino el qubit. Este puede ser un espín nuclear, la posición de un electrón en u interferómetro, no es importante el medio, sino la información cuántica que representa. A diferencia de un bit tradicional puede tener ambos valores, 0 y 1 simultáneamente, hasta que ocurra la decoherencia.

Desde 1980 se discutía la posibilidad de construir un ordenador cuántico que pudiese procesar como un ordenador normal, a principios de los 90 se empezaron a construir los primeros ordenadores cuánticos basados en la resonancia nuclear magnética [*]. En 1994 se publica el primer algoritmo de factorización ejecutable en ordenadores cuánticos, al algortimo de Shor. (Más información: vídeo Seth Lloyd’s Quantum Computer, Quantum Computation Roadmap, Timeline of quantum computing).

[*] Según Decoding the Universe y la Enciclopedia Británica, el primer ordenador cuántico fue fabricado por Isaac Chuang de Los Alamos National Laboratory y Neil Gershenfeld del MIT y tenía 2 qubits.

La idea que el universo sea un ordenador no es nueva, Konrad Suze –la primera persona en construir un ordenador moderno– ya lo propuso en 1967 en su Rechnender Raum que se cita como el inicio de la Física Digital. El mencionado Edward Fredkin es del grupo del científicos de este grupo, como así también Stephen Wolfram (el creador de Mathematica y el más reciente WolframAlpha) extendió la idea de Fredkin y Suze para su autómata celular en su controvertido pero muy vendido libro A New Kind of Science.

Norm Margolus, alumno y colaborador de Tommaso Toffoli, demostró que un sistema físico simple con colisiones de átomos puede realizar computaciones digitales universales. Junto con Lev Levitin publicaron en 1998 el artículo The maximum speed of dynamical evolution donde fijan los límites de las operaciones (flips) sobre los bits (o dicho de otra forma, la velocidad máxima de evolución, que es proporciona a la energía del sistema): el Teorema de Margolus-Levitin.

A partir del teorema anterior y trabajos de Planck, Seth LLoyd en Computational capacity of the universe calculó la capacidad de procesamiento del universo: 10105 operaciones por segundo, sobre 1090 bits. La cantidad de operaciones en total en los 14.000 millones de años calculados del universo son 10120 operaciones. Más tarde, en 2004, Lawrence Kraus (autor de La física de Star Strek) y Glenn D. Starkman publicaron Universal Limits on Computation donde analizan la cantidad de información que puede almacenar y procesar el universo, así calculan que al universo le quedan «sólo» 10120 operaciones.

Complejidad y azar

Explicar el tema de la complejidad algorítmica o las relaciones entre complejidad y entropía haría incabable este apunte. Pero desde el punto de vista físico, de la información o biológico (recomiendo la conferencia Complexity vs Chance para conocer las ideas fundamentales desde el punto de vista biológico) la complejidad de nuestro universo se explica desde el punto de vista del azar.

Como explicar Seth Lloyd en Programming the Universe (Capítulo 8), esta complejidad es fácilmente explicable desde el punto de vista de la teoría de la información si se considera al universo como un gran ordenador cuántico. Ludwig Boltzmann ya había propuesto que el origen del universo es resultado del azar de fluctuaciones estadísticas. Boltzmann se dio cuenta que su demostración era errónea y no continuó con el tema.

Sin embargo usando la información algorítmica sobre trabajos iniciados por Gregory Chaitin y Bennet (From Complexity to Life: On The Emergence of Life and Meaning) sí se puede explicar el origen de la complejidad a partir de eventos aleatorios. Si a los monos del Teorema de los infinitos monos se cambia la máquina de escribir por un intérprete de lenguaje de ordenador, las probabilidades que generen un código que a su vez genere resultados es mucho menor. Así, aunque 1090 monos no hayan sido capaces de reproducir Hamlet desde la creación del universo, sí podrían haber dado origen a estructuras tan complejas como las de universo. La pregunta es, ¿quién genera esas entradas aleatorias? El principio de incertidumbre de Heisenberg: las fluctuaciones cuánticas.

El año de Darwin, y el P2P

20 viernes Mar 2009

Posted by gallir in administración, ética, ciencia, cultura, internet, política

≈ 29 comentarios

Etiquetas

Darwin, evolución natural, lenguaje, p2p

La Teoría de la Evolución explica de forma muy elegante y sustentada por infinidad de pruebas y evidencias cómo se crearon formas tan complejas y especializadas de vida sin la intervención de un diseñador. La evolución nos explica la creación de estos seres cada vez más complejos como un proceso de selección, aquellos seres que tenían características que les favorecían sobrevivían más tiempo y podían transmitir –mediante la reproducción– sus genes con esas nuevas características a sus descendientes.

Hoy sabemos que los genes son información digital, como la de los ordenadores,  y que esas leves modificaciones son producto de un raro error durante la copia –reproducción– que cambian «bits» individuales, luego esos mismos son copiados a los descendientes. Es decir, no hay un proceso intencional ni una «manipulación» de los genes influida por el entorno, sino simples «errores» que introducen nuevas características que pueden o no ser beneficiosas.

La evolución también nos enseña que su proceso es muy cruento y sangriento. Nacen más seres de los que la naturaleza puede soportar, estos tienen que luchar muy duro por su supervivencia. Así la «ingeniería de la evolución» está creando seres cada vez más especializados y complejos. Los depredadores son cada vez mejores cazando, las presas adquieren características más avanzadas para sobrevivir más tiempo, los mejores de cada especie son los que logran reproducirse.

Todo esto se desarrolla en una escalada armamentística que comenzó hace cuatro mil millones de años. El objetivo de cada «parte» era lograr reproducirse, copiar sus genes a la siguiente generación.

Aunque los neo-conservadores usan la teoría de la teoría de la evolución para justificar los negocios como la suprepremacía del más fuerte, los científicos podrán explicar que es errónea esa analogía. Hay varios motivos, unos son que los ricos o poderosos no siempre son los más inteligents o más aptos, en la mayoría de los casos se puede explicar con estadísticas simples. Si ponemos a un grupo grande de gente a apostar dinero lanzando monedas, después del primer lanzamiento la mitad habrá ganado, si vuelven a tirar 1/4 habrá ganado las dos veces, a la siguiente 1/8 habrán ganado tres veces, y así sucesivamente,  por lo que en cualquier momento habrá una proporción de 1/2^n personas que habrán ganado n veces seguidas en el lanzamiento de la moneda…  con el tiempo y lanzamientos necesarios serán millonarios sólo gracias al azar.

Pero es casi una anécdota en los millones de años de evolución. Cualquier científico podría explicar que los humanos somos la única especie conocida –quizás la única del universo– que se está preguntando sobre su origen, y también la única especie conocida que es «intencional», es capaz de fijarte objetivos a corto plazo en beneficio de otros objetivos mayores y a más largo plazo.

¿Cómo hemos logrado diferenciarnos de esta forma? Porque hemos tenido la suerte que hemos desarrollado al cerebro –cada vez más grande– como nuestra herramienta de supervivencia. Cuando el cerebro alcanzó un tamaño considerable hemos sido capaces –hace unos 100.000 años– de desarrollar el primer y más potente método para comunicar nuestras intenciones: el lenguaje.

Mediante la comunicación de nuestras intenciones hemos podido definir objetivos comunitarios y trabajar para conseguirlos. Así hemos desarrollado la ciencia –que nos permite averiguar de donde venimos– y la tecnología que nos hace la vida más fácil a nosotros.

Hemos llegado a un punto tan elevado de la evolución que estamos escapando a  las crueles reglas de juego de la evolución. No estamos preocupados sólo por sobrevivir, también nos dedicamos a otros proyectos que no tienen nada que ver con la supervivencia como especie, hacemos arte, viajamos, estudiamos el universo, desarrollamos tecnologías sólo para divertirnos y obtener placer. A diferencia de otras especies hemos desarrollado el altruismo, ayudamos a los demás, nos sentimos mal cuando vemos sufrir a otros, no dejamos morir a los más débiles, desarrollamos complejos sistemas sanitarios para cuidar de nuestros enfermos y alargar su vida lo máximo posible, tenemos sistemas que permiten mejorar la calidad de vida de los más desfavorecidos, etc. Incluso hacemos algo que es extremadamente contradictorio con la evolución, practicamos sexo pero usamos métodos anticonceptivos para evitar la reproducción, lo hacemos sólo por placer no por el instinto de reproducción.

A la mayoría nos seducen las tecnologías, a algunos menos también la ciencia. Pero sin duda los más seductor es que ambas son las que nos permiten ser la única especia conocida cuya supervivencia y evolución no está regida por la sangrienta volución natural. No encuentro nada más inspirador que eso, ni biblias, milagros y religiones pueden siquiera igualar esta maravillosa idea.

Todo gracias a nuestro cerebro y nuestra capacidad de desarrollar el lenguaje para comunicar nuestras intenciones. Pero el lenguaje por sí mismo no fue suficiente para llegar donde estamos. A medida que evolucionamos nuestros objetivos se hicieron cada vez más complejos, lo que a la vez generaban estructuras sociales más complejas, que necesitaban métodos más sofisticados de comunicación: el lenguaje, la escritura, los libros, el telégrafo, el teléfono, la radio, la TV… Internet.

A medida que nuestros objetivos y sociedad se hicieron más complejos necesitábamos desarrollar esos nuevos mecanismos para aumentar nuestra capacidad de cómputo. Simultáneamente la sociedad se hizo más compleja y dió lugar a la formación de las más diversas estructuras y entidades sociales que parecen tener vida propia: religiones, estados, democracia, capitalismo, comunismo, ciencia.

Cada peldaño hacia arriba en la complejidad social exige nuevos métodos de comunicación, es una necesidad «evolutiva» de nuestra especie. Por eso es que las tecnologías de las comunicaciones adquieren tanta importancia y son centro del debate entre científicos, políticos o sociólogos.

Sin duda alguna el avance de las comunicaciones en el último siglo ha sido espectacular y a ritmo mucho más rápido que en los miles de años anteriores. Y aparece Internet, otra tecnología de comunicación que rompe con la mayoría de las limitaciones de las anteriores. Era una respuesta esperada como adecuada para una sociedad cada vez más sofisticada y con la necesidad de herramientas más adecuadas para mantener su capacidad de seguir aprendiendo, de establecer objetivos comunes, de aumentar el altruismo, de poder llegar a conocer el origen de nuestra vida, de responder a la pregunta de por qué estamos aquí y de cuidarse a sí misma porque somos los únicos capaces de seguir eliminando la escalada armamentísitica de la evolución natural.

Cualqueir estado, país o sociedad que persiguiese estos objetivos –aquellos con una fuerte influencia científica– reconocería inmediatamente el valor de la comunicación y haría los esfuerzos necesarios para potenciar los nuevos mecanismos y tecnologías que necesitaremos para continuar avanzando. Así hay algunos gobernantes que, bien asesorados científicamente, reconocen la importancia de Internet y plantean políticas que permtirán su avance y sofisticación necesaria, por ejemplo la neutralidad de la red.

Pero hay otros países que parecen estar alejados de la ciencia, o que no han sabido reconocer la importancia de las comunicaciones o que quizás tienen un inmensa ignorancia e incapacidad para mirar más allá del corto plazo la existencia de una generación, que ni siquiera se plantean las políticas para favorecer este avance. Posiblemente estos países nunca lleguen a situarse entre los más avanzados y altruistas.

Hay otros peores.

Hay países que en contra de la ciencia y la historia desarrollan políticas contrarias a este desarrollo. Influidos por grupos de presión minoritarios, que dicen estar perjudicados en sus negocios, llegan al punto de limitar los avances de la comunicación, por ejemplo limitando una de las formas de intercambio de información más interesantes, intrigantes y prometedora de la historia: el P2P. Como si nunca se hubiese escrito un libro llamado «El nacimiento de las especies», ese libro que hace 150 años cambió radicalmente la visión que teníamos del mundo y de nosotros mismos.

Por eso como persona seducida por la ciencia y las tecnologías siento a veces una gran tristeza por ser español, y una rabia contenida hacia nuestros gobernantes ignorantes que nos están condenando de esta forma influidos por ideas y grupos ignorantes que parecen preferir volver a la escalada armamentística natural que avanzar en aquello que nos hace especiales en el universo conocido.

La historia no nos perdonará tantas veces, pero seguimos votando influidos por la política rastrera, el cortoplacismo y orgullosos de ignorar hasta el inmenso descubrimiento de Darwin. Todos tenemos nuestra parte de culpa. No se solucionará con ese falso humanismo que divulgado por muchos de nuestros ignorantes intelectuales y artistas, sino con más ciencia. No hay mejor humanismo que comprender la maravilla de eso que nos hace tan especiales.

Comprar el libro

Principios y algoritmos de concurrencia

gallir@twitter

  • RT @jlhortelano: Siempre ha sido un manipulador. Pero encima es muy tonto si trata de colar esta foto de Septiembre de 2021, época donde no… 12 hours ago
  • ¿Qué? Por algo se re-empieza. https://t.co/dJ16CcMu9J 21 hours ago
  • "sexeafectives" twitter.com/La_Directa/sta… https://t.co/or6E5bOLvT 1 day ago
  • RT @IrvingGatell: 1. No, no se va a armar la Tercera Guerra Mundial. Pero el asunto sí se puso candente. Todo parece indicar que #Iran ha s… 1 day ago
Follow @gallir

RSS Notas recientes

  • Se ha producido un error; es probable que la fuente esté fuera de servicio. Vuelve a intentarlo más tarde.

Archivos

Comentarios recientes

PM en Cuidado con las «clever soluti…
Me matan si no traba… en Cuando el periodismo cede el c…
surco en Cuando el periodismo cede el c…
pancho pérez (@lonch… en Cuando el periodismo cede el c…
Fernando en Cuando el periodismo cede el c…
@beoxman en Cuando el periodismo cede el c…
gallir en Cuando el periodismo cede el c…
Jan Smite en Cuando el periodismo cede el c…
Alejandro en Cuando el periodismo cede el c…
Galletor en Cuando el periodismo cede el c…

Meta

  • Registro
  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.com

Licencia

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.

Crea un blog o un sitio web gratuitos con WordPress.com.

  • Seguir Siguiendo
    • Ricardo Galli, de software
    • Únete a 667 seguidores más
    • ¿Ya tienes una cuenta de WordPress.com? Accede ahora.
    • Ricardo Galli, de software
    • Personalizar
    • Seguir Siguiendo
    • Regístrate
    • Acceder
    • Denunciar este contenido
    • Ver sitio web en el Lector
    • Gestionar las suscripciones
    • Contraer esta barra
 

Cargando comentarios...