Todos los informáticos habrán estudiado en algún momento la jerarquía de la memoria en la arquitectura de los ordenadores. Es un principio básico de la arquitectura, y sobre la cuál se basan y justifican muchísimos métodos, técnicas y algoritmos.

Esta jerarquía no fue obvia ni existió desde el principio, fue consecuencia del desarrollo. Cada vez hizo falta más velocidad de cálculo (CPU) y capacidad de almacenamiento (RAM y no volátiles). Ambos tipos de dispositivos evolucionaron de forma distinta, así las CPU incrementaron su velocidad de forma mucho más acelerada que la memoria RAM o los dispositivos de almacenamiento (cintas, discos, memorias no volátiles).

Hubo que desarrollar sistemas intermedios que eliminasen los efectos negativos de ese gap, así nacieron las técnicas de cache a todos los niveles: registros del procesador, cache de varios niveles, TLBs, RAM, buffers, spooling, etc. Dos de los fundamentos para que la pirámide sea efectiva es la localidad temporal y espacial –i.e. durante un período relativamente largo de tiempo se accede a una zona reducida de memoria– y que las operaciones de lecturas suelen ser mucho más frecuentes que las de escritura.

Esta organización jerárquica es fruto de la necesidad de ensamblar y hacer trabajar conjuntamente a dispositivos muy variados. No es único de la informática, se oberva la misma jerarquía en la organización de todo sistema complejo, incluso el social: asociaciones de vecinos, de barrios, ayuntamientos, provincias, autonomías, estados, etc.

En Internet –sistema complejo que nos enseña muchas cosas de nosotros mismos– pasó lo mismo. Comenzó siendo muy plano –servidores FTP anónimos y direcciones de nombres e IP listadas en ficheros /etc/hosts– a convertirse en un sistema muy jerarquizado y lleno de «cachés»: DNS, web, buscadores, agregadores, meta buscadores, meta agregadores…

Con la evolución del periodismo moderno hemos visto el mismo fenómeno. Los periódicos del siglo 19 y principios del 20 tenían una estructura muy plana y poco conectada entre ellos. Luego aparecieron las agencias de noticias, luego la radio, luego la televisión… cada uno –como en la arquitectura de los ordenadores– lleva sus propias velocidades y capacidades.

Lo que me llama la atención es que en el frecuente debate new media vs. old media parecemos obviar la jerarquía, o al menos ignorar que lo único que hace Internet es aumentar la distancia entre la base y el vértice superior, que naturalmente seguirán sus propias velocidades –el tiempo en dar la noticia– y capacidades –el análisis más global, profundo y en perspectiva–.

Un ejemplo claro de esta paradoja se dió hace unos días con las elecciones de Irán.

La mayoría de los internautas cuentan orgullosos la importancia que tuvo Twitter en la divulgación rápida y efectiva –saltándose los métodos de censura– de lo que estaba pasando, pero al mismo tiempo critican la lentitud de los medios… pero si estos responden rápido critican la «baja calidad» de las noticias. Parecen olvidarse rápidamente de que la «calidad periodística» de Twitter, si la medimos por exactitud y claridad, dista mucho de ser razonable, no es siquiera consumible para la mayoría de la gente.

A este tema lo comenté hace unos días en un tuit, intentar comprender lo que pasaba leyendo  https://twitter.com/#search?q=#iranelection era tarea imposible: mucho ruido, spam, rumores falsos y flames off topic (tanto es así que convirtieron a la palabra clave en algo totalmente inútil). Luego en The Economist dicen algo similar en Twitter 1, CNN 0, dan como ganador a Twitter, pero no pudo ser por goleada, la información era muy confusa y sólo más o menos organizada en otros sitios y blogs. [*]

[*] Curiosamente en las CPUs pasa algo similar en los ordenadores modernos. Se hace ejecución adelantada-predictiva, que en muchos casos se convierten en erróneas por dependencias causales con el resultado de ejecuciones anteriores. Lo que pasa es que el procesador muy silenciosamente descarta las ejecuciones anteriores y vuelve a ejecutar las mismas instrucciones.

Así que los que internautas modernos nos pasamos de endiosar acríticamente al «periodismo twitter» al mismo tiempo que criticamos a todo lo que no sea periodismo sereno, preciso y reflexivo –el de calidad–… y además que no sea tan rápido como Twitter.

Este rollo viene a que suelo citar a Ecodiario como un modelo bastante interesante de publicar noticias: se alimentan de agencias, tienen muy pocos redactores que las revisan y editan mínimamente –a veces le agregan fotos o enlaces– y la publican inmediatamente (otros periódicos on-line están haciendo cosas similares, ponen un resumen y luego van ampliando la noticia). Sin embargo este modelo –que también suele ser el de Huffington Postsuele recibir críticas por ser de «baja calidad» a pesar que suele ser un buen punto intermedio para comenzar a digerir las noticias rápidamente pero con mayor precisión y extensión de lo que se puede leer en Twitter, unos pocos segundos de vídeo o un miniapunte en un blog (no es casualidad que  sea una de las fuentes más enviadas al Menéame a pesar de tener sólo poco más de un año de existencia).

Al modelo se le pueden criticar muchas cosas –por ejemplo este bulo enorme–, pero no su inmediatez y que en general es mucho más fiable, citable y ordenado que una serie de tuits y notas diseminadas, desordenadas y no contrastadas.

La «mala noticia» (entre comillas) es que el periodismo está de cambios. Que un periódico ya no puede pretender sólo relatarnos los eventos como hacía antes, ya son antiguos cuando salen. Tampoco lo podrán hacer en los dos telediarios de la TV. Deberán buscar afianzarse más abajo de la pirámide –y en la localidad— y dejar que vértice superior sean los tuits.

Pero lo bueno de todo esto es que queda un espacio inmenso que cubrir entre ambos extremos ¿Cuándo se empezarán a completar esos huecos? ¿cuándo dejaremos de criticarlos y empezar a analizarlos con más atención?

PS: Vaya ladrillo, yo sólo quería comentar lo interesante que me parecían los modelos de algunos «medios digitales» a pesar de las críticas que reciben.