Todos los informáticos habrán estudiado en algún momento la jerarquía de la memoria en la arquitectura de los ordenadores. Es un principio básico de la arquitectura, y sobre la cuál se basan y justifican muchísimos métodos, técnicas y algoritmos.
Esta jerarquía no fue obvia ni existió desde el principio, fue consecuencia del desarrollo. Cada vez hizo falta más velocidad de cálculo (CPU) y capacidad de almacenamiento (RAM y no volátiles). Ambos tipos de dispositivos evolucionaron de forma distinta, así las CPU incrementaron su velocidad de forma mucho más acelerada que la memoria RAM o los dispositivos de almacenamiento (cintas, discos, memorias no volátiles).
Hubo que desarrollar sistemas intermedios que eliminasen los efectos negativos de ese gap, así nacieron las técnicas de cache a todos los niveles: registros del procesador, cache de varios niveles, TLBs, RAM, buffers, spooling, etc. Dos de los fundamentos para que la pirámide sea efectiva es la localidad temporal y espacial –i.e. durante un período relativamente largo de tiempo se accede a una zona reducida de memoria– y que las operaciones de lecturas suelen ser mucho más frecuentes que las de escritura.
Esta organización jerárquica es fruto de la necesidad de ensamblar y hacer trabajar conjuntamente a dispositivos muy variados. No es único de la informática, se oberva la misma jerarquía en la organización de todo sistema complejo, incluso el social: asociaciones de vecinos, de barrios, ayuntamientos, provincias, autonomías, estados, etc.
En Internet –sistema complejo que nos enseña muchas cosas de nosotros mismos– pasó lo mismo. Comenzó siendo muy plano –servidores FTP anónimos y direcciones de nombres e IP listadas en ficheros /etc/hosts– a convertirse en un sistema muy jerarquizado y lleno de «cachés»: DNS, web, buscadores, agregadores, meta buscadores, meta agregadores…
Con la evolución del periodismo moderno hemos visto el mismo fenómeno. Los periódicos del siglo 19 y principios del 20 tenían una estructura muy plana y poco conectada entre ellos. Luego aparecieron las agencias de noticias, luego la radio, luego la televisión… cada uno –como en la arquitectura de los ordenadores– lleva sus propias velocidades y capacidades.
Lo que me llama la atención es que en el frecuente debate new media vs. old media parecemos obviar la jerarquía, o al menos ignorar que lo único que hace Internet es aumentar la distancia entre la base y el vértice superior, que naturalmente seguirán sus propias velocidades –el tiempo en dar la noticia– y capacidades –el análisis más global, profundo y en perspectiva–.
Un ejemplo claro de esta paradoja se dió hace unos días con las elecciones de Irán.
La mayoría de los internautas cuentan orgullosos la importancia que tuvo Twitter en la divulgación rápida y efectiva –saltándose los métodos de censura– de lo que estaba pasando, pero al mismo tiempo critican la lentitud de los medios… pero si estos responden rápido critican la «baja calidad» de las noticias. Parecen olvidarse rápidamente de que la «calidad periodística» de Twitter, si la medimos por exactitud y claridad, dista mucho de ser razonable, no es siquiera consumible para la mayoría de la gente.
A este tema lo comenté hace unos días en un tuit, intentar comprender lo que pasaba leyendo https://twitter.com/#search?q=#iranelection era tarea imposible: mucho ruido, spam, rumores falsos y flames off topic (tanto es así que convirtieron a la palabra clave en algo totalmente inútil). Luego en The Economist dicen algo similar en Twitter 1, CNN 0, dan como ganador a Twitter, pero no pudo ser por goleada, la información era muy confusa y sólo más o menos organizada en otros sitios y blogs. [*]
[*] Curiosamente en las CPUs pasa algo similar en los ordenadores modernos. Se hace ejecución adelantada-predictiva, que en muchos casos se convierten en erróneas por dependencias causales con el resultado de ejecuciones anteriores. Lo que pasa es que el procesador muy silenciosamente descarta las ejecuciones anteriores y vuelve a ejecutar las mismas instrucciones.
Así que los que internautas modernos nos pasamos de endiosar acríticamente al «periodismo twitter» al mismo tiempo que criticamos a todo lo que no sea periodismo sereno, preciso y reflexivo –el de calidad–… y además que no sea tan rápido como Twitter.
Este rollo viene a que suelo citar a Ecodiario como un modelo bastante interesante de publicar noticias: se alimentan de agencias, tienen muy pocos redactores que las revisan y editan mínimamente –a veces le agregan fotos o enlaces– y la publican inmediatamente (otros periódicos on-line están haciendo cosas similares, ponen un resumen y luego van ampliando la noticia). Sin embargo este modelo –que también suele ser el de Huffington Post— suele recibir críticas por ser de «baja calidad» a pesar que suele ser un buen punto intermedio para comenzar a digerir las noticias rápidamente pero con mayor precisión y extensión de lo que se puede leer en Twitter, unos pocos segundos de vídeo o un miniapunte en un blog (no es casualidad que sea una de las fuentes más enviadas al Menéame a pesar de tener sólo poco más de un año de existencia).
Al modelo se le pueden criticar muchas cosas –por ejemplo este bulo enorme–, pero no su inmediatez y que en general es mucho más fiable, citable y ordenado que una serie de tuits y notas diseminadas, desordenadas y no contrastadas.
La «mala noticia» (entre comillas) es que el periodismo está de cambios. Que un periódico ya no puede pretender sólo relatarnos los eventos como hacía antes, ya son antiguos cuando salen. Tampoco lo podrán hacer en los dos telediarios de la TV. Deberán buscar afianzarse más abajo de la pirámide –y en la localidad— y dejar que vértice superior sean los tuits.
Pero lo bueno de todo esto es que queda un espacio inmenso que cubrir entre ambos extremos ¿Cuándo se empezarán a completar esos huecos? ¿cuándo dejaremos de criticarlos y empezar a analizarlos con más atención?
PS: Vaya ladrillo, yo sólo quería comentar lo interesante que me parecían los modelos de algunos «medios digitales» a pesar de las críticas que reciben.
Excelente analisis Ricardo.
¡Francamente genial!
Tanto la analogia como el análisis y la propuesta final son/me parecen fantásticos. Sin olvidar la calidad de la explicación en sí.
Suscribo. Es demasiado fácil y rápido señalar errores del periodismo (y los hay muchos), pero luego es complejo el tema de organizar una estructura que garantice rapidez, fiabilidad, contraste de la noticia y si a eso le sumamos buenos sueldos ya te diría casi utópico.
Buen aporte.
qué te parece el modelo soitu.es ?
Creo que las máquinas y la inteligencia artificial empezarán a rellenar ese hueco y no creo que sea difícil para las máquinas de hoy en día ejercer el papel de Ecodiario sin periodistas de por medio, es decir añadir fotos, vídeos, multimedia, etc a la información «raw» de las agencias y los servicios de microblogging. Veremos si Google con su Google News y su infraestructura tiene algo que ofrecer, aunque de momento se centran en los medios y no en los tweets.
Curioso como acaban algunos http://gigaom.com/2009/06/24/the-strange-tale-of-wi-fi-startup-whisher/
Confirmado tu modelo jerárquico con la información de la muerte de Michael Jackson.
Para mi gusto Ecodiario es un buen modelo que poco tiene que envidiar a otros pero que al no tener el apoyo de un escolar, de un Varela, de un Sindo, o un Tascon que hacen la publicidad viral, se queda en un segundo plano.
La publicidad viral ya se la está haciendo Galli 😉
Sí, es una realidad, el problema es que escalafones de la pirámide son rentables.
Atinado el apartado periodismo/cierto rigor, poca velocidad vs microblogging/ menos rigor/mucha velocidad. Resultante: algo intermedio. Eso puede ser posterous entre el blog y el resto de plataformas social media.
Saludos.