Disclaimer: No pensaba escribir este apunte porque me parece que es publicidad gratuita a Amazon (y sus servicios AWS), que ya es una empresa de las gordas y dominantes en el mercado… y no me regalaron, ni me regalarán, ni una triste pegatina. Pero lo escribo para compartir experiencia, y que conste en acta que no recibiremos ni unas gracias por este apunte.
Hace un tiempo escribí cómo montamos Menéame a Amazon AWS, y cómo decidimos cambiar de Apache+lighttpd a NGinx, ahora llevamos casi cinco meses de funcionamiento en Amazon AWS y la experiencia no podría haber sido más satisfactoria (aunque con pequeños problemas, relatados al final).
Ejemplos de cambios en servidores
Creo que lo últimos cambios que hicimos son ejemplos claros de las ventajas de no tener que lidiar con hardware y limitarnos a solucionar problemas de software (que siempre tiene solución, si sabes programar).
Nuestra intención era migrar los servidores a Ubuntu Lucid en cuando esta saliese por tres razones fundamentales: es LTS (soporte a largo plazo), el PHP 5.3 que trae soporta conexiones persistentes a MySQL usando las nuevas librerías mysqli (que son las que usamos, más eficientes y elegantes que la anterior) y el arranque es mucho más rápido (importante para las instancias web que se crean dinámicamente según la carga –con el AutoScaler–).
El primer paso fue migrar las instancias webs, para ello tuve que arrancar un instancia con la nueva imagen (AMI) oficial de Ubuntu Lucid para Amazon, instalar los paquetes necesarios (básicamente NGInx y php5), configurarlas (fundamentalmente el NFS y el servicio SMTP), generar una nueva AMI y cambiar la configuración del AutroScaler (dos líneas de comandos). Todo eso me llevó unos dos horas de trabajo y ya teníamos la Lucid con 0 segundos de interrupción (diría que con 0 conexiones fallidas)… a un coste de 0.18€ por las dos horas de instancia adicionales.
El segundo paso fue más gordo, migrar el servidor secundario (aws1) que hace de slave del MySQL (para backups e indexación del Sphinx), de buscador (el Sphynx), DNS secundario y backups diarios a S3. Esta instancia estaba antes como «normal», es decir sin almacenamiento persistente (EBS, o Elastic Block Storage), la idea era ponerla con EBS dado la complejidad de los servicios que presta. Pues la sorpresa fue que Canonical ya genera imágenes oficiales de Ubuntu preparadas para EBS (antes era un proceso manual un poco tedioso, es espectacular el servicio de Canonical sobre Amazon EC2 y la smejoras que introducen).
Este cambio también llevó poco tiempo, menos de dos horas para preparar todo (lo que más tiempo llevó fue la preparación del slave de MySql) y un par de horas más de pruebas. Cuando estuvo preparada lo único que hubo que hacer fue cambiar la IP fija (Elastic IP) para la nueva instancia, et voilà. Cero segundos de interrupción, a un coste de unos 0.36€.
Hace sólo uno días me decidí a optimizar la gestión de cache de imágenes (miniaturas y avatares). Estas se guardan en S3, pero como el coste de conexión es demasiado elevado para ficheros pequeños no tiene sentido –y es extremadamente caro– servirlas desde S3, así que se guarda una copia cache (que se genera/regenera automáticamente a partir de los originales en S3) en un disco montado por NFS. El servidor de NFS lo hacía la misma instancia que el servidor central de base de datos (aws0), la idea era moverlo a aws1 y así descargar el tráfico de red para ganar unos microsegundos con las conexiones de mysql y distribuir mejor el NFS del código fuente PHP (que sigue en aws0) con las imágenes estáticas (que además pueden tener más tiempo de cache NFS, configurable con los parámetros acregmin, aregmax, acdirmin, acdirmax o actimeo).
Lo único que hubo que hacer es generar una nueva AMI para las instancias web con el nuevo punto de montaje (es menor de media hora de trabajo, a 0.09€ la hora o fracción), forzar al arranque con las nuevas instancias y cuando todas ya eran la nueva cambiar un enlace simbólico en aws0 para apuntar el cache al nuevo directorio. Et voilà. Funciona así ahora, ganamos unos pocos microsegundos, con cero segundos de interrupción.
Situación general
Aquí tenéis la carga de aws0 (servidor de base de datos). Veréis que la carga es baja, muy estable y predecible.
Esta es la carga de aws1, los picos son de la indexación del Sphinx para las búsquedas (casi 7 millones de comentarios, casi 1 millón de enlaces y más de 100.000 notas):
El siguiente es el estado de las instancias a estas horas (0 hs del miércoles). Se puede ver las dos instancias EBS (aws0 la large, aws1 la small) y las cuatro instancias de servidores web en marcha.
Y este es el gráfico de carga de un día de una instancia web.
Nota: me hice un pequeño script para poder monitorizar al minuto el estado de las instancias webs desde mi teléfono, es públicamente accesible: m.meneame.net/ec2.php
Rendimiento general
Una de las grandes dudas (y pegas) que teníamos para migrar a Amazon es que al estar situado en Dublin aumenta la ditancia, el número de saltos por routers y quizás las latencias introducidas por las redes virtuales, firewalls y balanceadores de carga. De hecho sólo el ping hacia una instancia casi triplica lo que teníamos en España (Ferca, luego Acens), pasó de 20 y pico milisegundos a unos 60 a EC2 Dublin.
Sin embargo creo que nadie se quejará de la velocidad de acceso y visualización de Menéame.
Tiene mucho que ver las optimizaciones que hemos hecho, como la separación de imágenes estáticas en dominio independiente, mejoras en el código, en las consultas a la base de datos, ajuste del NGInx, php-fastcgi, compresión del HTML, y cache de PHP (XCache). Pero también ayuda a que los balanceadores de carga (usan varios para cada «dominio») de Amazon funcionan muy bien, tienen conexiones persistentes y unos firewall muy bien configurados que no sólo lo hacen ir rápido, sino que es de un rendimiento predecible que evita que haya conexiones más lentas que son las que más dan la impresión de «lentitud».
En este sentido estamos también muy satisfechos. Sí, tienes que ir con cuidado porque no tiene sentido sobredimensionar el «hardware virtual» –además creo que no se ganaría casi nada– para solventar los problemas del software o mal diseño de base de datos, pero una vez hallados y solucionados los pocos cuellos de botella, funciona todo como una seda.
Servicios y costes
Cuando estábamos en Ferca/Acens teníamos dos servidores, uno muy potente (2 Quad Core) y otro menos (Duo). Teníamos un muy buen precio, unos 700€/mes todo incluido. Pero teníamos problemas muy difíciles de solucionar:
- Aunque íbamos muy sobrados, en horas picos o eventos excepcionales el Apache nos saturaba ambas máquinas, como en las finales de la Copa de Europa de fútbol que tuvimos que alquilar temporalmente servidores en Amazon EC2, aunque con latencias muy altas a la base de datos –estaba replicada en Amazon, pero las actualziaciones iban al central en Ferca/Acens–.
- No teníamos servicio de «backups externos» y cifrados.
- Poner un balanceador de carga dedicado nos hubiese costado mucho dinero.
- Teníamos problemas en poner más servidores conectados a la misma red privada (por que no había espacio en el rack, porque había que ir y poner un switch específico, porque obligaba a paradas… etc.).
- Cada vez que necesitábamos algo puntual era un largo proceso de conversaciones y negociaciones, a tal punto que muchas de las cosas eran imposibles de contratar porque se escapaba a lo que considerábamos un presupuesto razonable.
- Problemas constantes de «mala configuración» del firewall del CPD que nos bloqueaba conexiones (suponemos porque el número de conexiones era más elevada que la media considerada «normal», aunque nunca lo supimos bien del todo).
Al momento que migramos a Amazon todos esos problemas se solucionaron:
- Tenemos S3 para copias, backups y almacenamiento permanente.
- Tenemos balanceador de carga de muy buena calidad, incluso configurable con «session stickiness».
- Podemos habilitar un CDN con los mismos costes que las conexiones S3 (no la usamos).
- Podemos escalar automáticamente para dar buen servicio sin malgastar el dinero.
- Disponemos de los servidores que nos hacen falta en no más de un par de minutos, a muy bajo coste.
- Sistemas de discos (EBS) de muy alta fiabilidad.
- Control de las IPs (Elastic IPs) y a qué servidor le asignas, puedes cambiarla en cualquier momento, e incluso puedes solicitar la resolución DNS inversa para cada una de ellas.
- Sistema de seguridad/firewall muy potente, seguro y casi transparente de usar (por ejemplo, las instancias que están en un mismo grupo automáticamente tienen conectividad entre ellas). Al mismo tiempo todas tus instancias están aisladas del resto de instancias.
- Absolutamente todo es controlable con software (la consola web para la mayoría, para cosas muy específicas las líneas de comandos, el API disponible en varios lenguajes para los scripts de monitorización y control).
- No tenemos que negociar nada con nadie, todos los servicios –para todo el mundo– están bien claros y especificados, y los precios no son negociables, por nadie.
- En todo este tiempo no tuvimos ninguna incidencia (salvo problemas de conectividad Internet esporádicos con algunas regiones o ISPs, pero esto pasa con cualquier hosting).
Todos estos servicios disponibles, con la flexibilidad de usarlos como mejor te parezca nos permitió implementar nuevas funcionalidades en Menéame que antes se nos hacían cuesta arriba por la necesidad de tener más hardware [infrautilizado]:
- Buscador extendido a comentarios y notas (algo que hace tiempo pedían los usuarios).
- Almacenamiento de imágenes y avatares en S3 que generación automática de cache en nuestros discos, los que nos hizo olvidar del problema de almacenar y hacer backups de ficheros.
- Cambios en la infraestructura (como de Apache a lighttpd, luego a NGInx con fastcgi, versiones de Ubuntu, etc.) y programas o configuración sin tener que interrumpir el servicio: se hace de forma paralela y luego se hace el switch.
- Compramos tranquilidad: duermo mucho más tranquilo, y aunque España llegue a la final del mundial no tendré que preocuparme de buscar estresado y bajo presión una solución a la sobrecarga de la hora posterior del partido.
Todo el que llegó hasta aquí seguramente se pregunta, ¿cuánto nos cuesta todo este tinglado adicional? Aquí tenéis la «factura» del mes de abril, en dólares, haced la conversión a euros 🙂 [1]
Por eso suelo decir, ¿qué hacéis todavía lidiando con hardware y negociando interminablemente para tener un servicio de backup o de balanceo de carga?
Nota: Esto funciona porque Amazon AWS está muy bien diseñado y su servicio es de calidad constante y predecible. Sé que hay varios más, pero no conozco cómo funcionan.
Los problemas
Por supuesto no todos fueron ventajas, tuvimos algunos problemas:
- La infraestructura del balanceador de carga es sofisticada, no es sólo un «cacharro» con una IP, son balanceadores distribuidos y se selecciona el mejor dependiendo desde la zona de conexión y el estado de la infraestructura de Amazon. Eso hace que cuando asignas un balanceador no te dan una dirección IP, sino un hostname que debes usarlo como CNAME. Eso impide que puedas usar una zona de primer nivel –el estándar de DNS no lo admite–por ello tuvimos que migrar el web de meneame.net a http://www.meneame.net (con la consiguiente penalización que sufrimos de Google, una caída de visitas –menos del 10% de visitas vienen de Google por búsquedas que no sean «meneame»–, hasta en el PageRank –creo que bajó hasta 6, no sé cómo está ahora–, supongo que con el tiempo y las redirecciones permanentes se recuperará, afortunadamente no nos afectó tanto ya que creo nunca superamos el 12-15% de visitas desde Google).
- Como Amazon sufrió abusos de spammers que alquilaban instancias sólo para envíos masivos de emails. La misma Amazon dió de alta todas sus direcciones IP en las organizaciones de listas negras e impedía enviar más de unos pocos correos desde sus instancias. Aunque puedes solicitar la apertura, seguían apareciendo las IPs en Spamhaus, lo que nos impidió enviar correos directamente. Ahora creo que ya lo han cambiado [2] (incluso ya resuelven la inversa de Elastic IP al dominio quele indiques, porbado por ejemplo la inversa de 79.125.22.108). Nosotros hemos tenido que hacerlo vía SMTPAuth.com que funciona muy bien, por lo que todavía no hemos pensado en hacerlo desde nuestros servidores (también tenemos cuenta en SendGrid.com, hablan muy bien de ellos y ofrecen hasta gráficas y estadísticas de quiénes leen los correos o los clics de los receptores).
- Desde el servidor web detrás del balanceador no son visibles directamente las IP de los navegadores (es crítico para el control de abusos del Menéame), sino a través de la cabecera HTTP X-Forwarded-For. Afortunadamente en Menéame ya hacíamos control de proxies para permitir votos desde ordenadores detrás de los proxies transparentes de Telefónica y de los teléfonos con conexión IP que salen por proxies (como todos los de Vodafone). Así que sólo usamos la misma función, pero simplificada para que sea más rápida:
- En el caso de servidores web seguros (SSL) el problema anterior es más difícil de solucionar. Como la conexión es cifrada el balanceador no puede agregar cabeceras HTTP, por lo que es imposible averiguar la IP desde el servidor. Aquí hay tres opciones: 1) no preocuparte de la IP, 2) dejar el servidor seguro fuera del balanceador, 3) buscar otro método. Como en Menéame se necesita la IP para control y soy un purista de arquitecturas –todos o ninguno– me decidí por la tercera. Cuando se necesita pasar por conexión segura se hace un formulario desde el servidor normal donde se incluye la IP de origen más un hash para controlar que no se manipula. Así el servidor seguro siempre recibe la IP –verificable– como un campo oculto del formulario (y esta es la razón que no se «salta» directamente al servidor seguro sino desde el «action» en un formulario).
- Los umbrales y reglas del AutoScaler funcionan bien, salvo para el escalado hacia abajo. Las reglas se definen con un umbral bajo y uno alto. Si la carga seleccionada (en nuestro caso uso de CPU) supera el umbral alto, cre nuevas instancias, si es inferior al bajo mata instancias. El problema es el siguiente, en nuestro caso el bajo es 30% y el alto 75%. Supongamos que hay cuatro instancias al 40% (carga total = 160%), el autoescalador no decrementará hasta llegar al 30% aunque si quita una queda muy por debajo del 75% (con tres quedaría en 53% cada una). Así no se optimiza muy bien el uso de recursos, ni los costes. Amazon dice que introducirá «reglas de usuarios», mientras tanto yo lo solucioné con un script bastante simple que hace esos cálculos. Si la carga total con una instancia menos es inferior a un «umbral intermedio» (60% en nuestro caso) y hay más de dos instancias en marcha, entonces ordena al AutoScaler que baje termine una instancia. Estos cálculos son visibles en m.meneame.net/ec2.php, esos valores son generados por este script adicional de control de escalado.
- No dan factura oficial, hasta ahora no hemos tenido problemas con ellas, al menos Benjamí, nuestras contables ni Hacienda no se quejaron todavía, creo 😉
function check_ip_behind_load_balancer() { // It's similar to behind_proxy but faster and only takes in account // the last IP in the list. // Used to get the real IP behind a load balancer like Amazon ELB // WARN: does not check for valid IP, it must be a trusted proxy/load balancer if ($_SERVER["HTTP_X_FORWARDED_FOR"]) { $ips = preg_split('/[, ]/', $_SERVER["HTTP_X_FORWARDED_FOR"], -1, PREG_SPLIT_NO_EMPTY); $ip = array_pop($ips); if ($ip) return $ip; } return $_SERVER["REMOTE_ADDR"]; }
Esos son los seis problemas fundamentales que hemos tenido, salvo el sexto, los demás son todos solucionables con un poco de programación.
[1] Tenemos tres instancias «reservadas», es decir se paga una cantidad por adelantado (uno o tres años) y se obtienen muchos mejores precios. El ahorro anual es exactamente el 30% sobre el precio de lista.
[2] Acabo de confirmarlo (12/mayo), ya no aparecen nuestras IPs en las listas de Spamhaus.
¡GRACIAS!. A todos los que estamos intentando abrirnos hueco en la nube de la mano de Amazon nos sirve de mucha ayuda este tipo de anotaciones. Ya sé que no sirve de mucho pero piensa la de problemas que puedes ahorrar a otra gente con este post ;).
Fantástico. ¿Me puede ayudar con mi ordenador de casa? Gracias de hantebrazo 😛
Gracias maestro. Una ayuda a tener muy en cuenta para nuestras configs en AWS.
Gracias, es muy útil tal como dice r0sk para los que empezamos con AWS.
Pingback: Cuando el problema del hardware se convierte en sólo de software con 4 comentarios
No entiendo la mitad del artículo.
De todas formas el proyecto Meneame es algo curioso, funciona, tiene sus seguidores, incluso un socio hábil con los negocios. (doy por hecho que los otros dos no lo son, pues son técnicos).
Pero no me termina de cuadrar el movimiento que genera con el resultado empresarial (si alguien esconde y no paga impuestos la cosa puede ser distintas – hay alguna empresa con sede en Irlanda que esconde las ventas en España pues allí los beneficios son menores, pero no creo que sea el caso ).
Unas ventas pauperrimas de 50.000€/año (segun cuentas entregadas en Diciembre 2009), dos empleados y una capitalizacíon que indica que no hay reparto de beneficios no es acorde a la impresión que se obtiene al observar el trabajo realizado.
Si Meneame funciona, es decir tiene usuarios que entran ¿por qué los resultados son tan pobres?
¿es objetivo vender la compañía a medio/largo plazo a una multinacional y obtener así los réditos? (vamos lo que se llama un pelotazo).
Lamentablemente los técnicos tienen la mala costumbre de comer, y si el proyecto no da de comer está condenado al fracaso.
Un técnico con el estómago lleno es más feliz y rinde más. Es de sentido común.
Muy buen análisis, yo también estoy trabajando con AWS y coincido al 100% sobre todo en que te puedes olvidar (por fin!!!) de todos los problemas relacionados con el hardware y centrarte en lo importante: arquitectura y software.
En el curro tengo montado un cluster parecido, por capas también con nginx y memcache en la capa web, una capa de aplicaciones de presentación con Tomcat y php-fpm y una capa de datos (webservices REST) con Tomcat, SOLR y mysql, todo balanceado: ELB a la entrada y los nginx balancean las dos capas de aplicaciones y datos. Y también con S3 para imágenes, y demás estáticos (PDF, etc.) con los nginx haciendo de proxy/cache inverso para reducir el nº de accesos.
Aún no hemos salido a producción con el portal «pesado», por ahora sólo tenemos 3 ó 4 páginas pequeñas con poco tráfico así que realmente aún no hemos tenido problemas y no ha habido que lidiar con optimizaciones heavies de código, cuellos de botella y demás. Pero lo que hay está funcionando de maravilla, ni un problema, 100% de uptime en tres meses o así que empezamos a publicar cositas en el cluster.
Cuando salgamos a producción y vea que no se cae 😀 tenía pensado escribir también un artículo de este tipo.
Gracias Ricardo. Muy útil!!
@miguel
No sé cuanto sale el balance de 2009 (o no lo recuerdo, no me fijo :-), lo de 50.000 € es del año 2008, 2009 no debe estar algo más aunque no muy lejano.
Y aquí perdóname que te critique: tus pensamientos son a corto plazo y demasiados «típicos».
Menéame no pierde dinero, de hecho gana y está en el banco, eso gracias a que no cobramos los salarios que deberíamos ni repartimos beneficios. Pero eso no es problema tuyo, sino nuestro, y aquí me ves, tan feliz.
Creemos en el modelo de Menéame, por ahora (y creo que por largo tiempo) nuestro modelo de negocio está sólo basado en la publicidad, sobre el cuál no le hemos dedicado demasiado tiempo (porque preferimos gastarlos en otras cosas) y porque tampoco podemos agobiar a nuestros usuarios con publicidad como se suele hacer.
Es decir, apostamos a más largo plazo, invertimos muchos esfuerzos y respetamos a nuestros usuarios. Además, liberamos todo el software y publicamos información técnica que nadie suele hacer (ni tú con tu empresa, tu software o tus facturas de infraestructura). Así que, ¿cuál es el problema?
Yo creía que nos deberían felicitar y animar por la apuesta a largo plazo y la transparencia que llevamos [1]. Pero no, estás «preocupado». ¿Luego criticarás a los «cortoplacistas» o los empresarios que no arriesgan ni meten esfuerzo personal?
[1] Nuestros únicos ingresos vienen de Google AdSense y las facturas a Social Media S.L [2]. por la publicidad que ellos venden. Aunque quisiéramos (que tampoco), lo tenemos muy complicado defraudar al fisco. De hecho ya tuvimos 2 ó 3 inspecciones de Haciendo por lo «raro» de nuestra contabilidad, ni ellos se lo creen.
[2] Tenemos preacuerdos con otras empresas que pueden salir muy rentables, pero por ahora preferimos no apurar y hacer pruebas, por ejemplo fíjate en las fotografías que aparecen en las noticias de deportes (http://www.meneame.net/?category=27 ). Si nos agradan las pruebas ya verás para qué sirve, y no serán tonterías de patrocinios 😉
Enhorabuena Ricardo y a toda la gente que hace posible Menéame.
Me quito el sombrero no ya porque hacéis un producto (¿plataforma?) que funciona muy bien (va como un puto tiro) e innováis continuamente, sino también porque explicáis cómo lo hacéis, a través de los artículos técnicos y haciendo disponible el código fuente.
Mi intención no es criticar, sino más bien lo contrario. A mi me gustaría que en 2030, por decir algo, Meneame existiese, y no veo nada malo ni vergonzoso que sus creadores se enriquezcan. De hecho me gustaría que ocurriese aunque solo sea para tener envídia.
Yo veo importante que el origen de las noticias no sea un pequeño grupo de empresas, que generan corrientes de opinión en función de intereses que nos aborregan a todos.
Desde mi punto de vista que cualquiera pueda iniciar una noticia es bueno, quizás el lector tenga que hacer un esfuerzo de «filtrado» para discernir una realidad sesgada (opinión) de una noticia (realidad).
Yo creo que es un arma fuerte contra las dictaduras, de hecho las dictaduras y en cierta medida partidos politicos democráticos, grandes empresas, e incluso cualquiera de nosotros tiende a barrer hacia casa cuando cuenta algo o mejor dicho dejan de contar parte.
Posiblemente mis planteamientos sean típicos y a corto plazo, pero precisamente por eso vuestro proyecto es atípico.
Visto desde fuera, sin profundizar, me da la impresión de una buena idea, bien desarrollada que funciona, y que obviamente choca un equipo humano muy pequeño.
Como vicio personal, me gusta seguir trayectorias de proyectos que parecen tener éxito, quizás logre aprender algo.
Buenas Ricardo,
Sobre la «factura oficial» a mi si me la dan (no se si tengo «trato especial», yo no pago por visa, por ejemplo, les pago por transferencia).
Solo tienes que pedírsela (si quieres te pongo en contacto con alguien), te pedirán que aparezca tu CIF/NIF en el listado europeo de nosequé (a mi me tardó como mes y medio)
Y a partir de ese momento, te las remiten con IVA y demás
Saludos
@Marcos Ramirez:
No sé si a Ricardo le interesará, pero a mí si. 🙂 Y seguro que a mucha otra gente, si te has pasado por los foros de AWS hay mogollón de quejas por el tema de las facturas que emite Amazon, que no son válidas ni aquí en España ni en muchos otros países de Europa (no sé si todos).
Es un problema abierto y recurrente y no es fácil encontrar la solución.
Excelente artículo, a ver si las empresas españolas se ponen las pilas porque en este país no existe el servicio al cliente. Definitivamente la nube acabará con proveedores de hosting como Acens que son pésimos en servicio al cliente y carísimos.
El próximo en entrar al ring del computer cloud será Yahoo, así que seguramente los precios tenderán a bajar un poco más.
Muy buen trabajo!
@Bisente,
En realidad, lo único que hicimos fué pedirlas y dar la lata durante una semana, a soporte, nos pusieron en contacto con el «European Bussiness Director» de Amazon, y el nos indicó los pasos.
Nos solicitó que el CIF de la empresa estuviese listado en no recuerdo exactamente que historia a nivel Europeo (pero no era nada complejo, nuestra gestoría lo llevo sin problema), y alguna cosilla más que no recuerdo, y arreglado.
Osea, si das la vara a soporte… te lo solventan (Y no creo que se viesen presionados por la pasta que pagamos)
Evidentemente aquí no voy a poner los datos de la persona que cito, pero no es complejo que te atiendan.
Ahora, nosotros no enviamos mails, nosotros tiramos de teléfono y empezamos a pedir que nos pasasen con gente, hasta que nos lo solventaron, por email vi que era imposible…
Saludos
Muy interesante el artículo. Una pregunta un poco simple. Cuando en el AWS se habla de precio hora, se refiere a precio hora transcurrida (elapsed) o de proceso (CPU)?
Enhorabuena y adelante.
@ferran
Es hora (o fracción) de reloj, desde que se pone en marcha hasta que la terminas.
Si no recuerdo mal el Balanceador no siempre ha tenido el sticky session disponible, no?
Si que me preguntaba cómo solventabais esto antes de que el balanceador tuviese esta característica. Aunque supongo que ya no importa 🙂
gracias por tus articulos
Hola Ricardo,
Yo sí que te felicito y te agradezco por esta información tan detallada y útil que publicas. Esto además puede servir para comparar las especificaciones de otros proveedores que ofrecen soluciones tipo (o similares a) cloud computing.
Un saludo!
@eloygbm
Efectivamente, es nuevo. Pero no lo necesitamos (no se guarda nada de sesión en ningún de los servidores), lo probé unos días y encontré que cuando se crear instancias nuevas pasan minutos con una carga inferior a las demás. Suponía que es por el «sticky» con las anterores.
Enhorabuena Ricardo y muchísimas gracias por compartir con todos nosotros esta experiencia. He estado experimentando estos días con AWS y la verdad es que estoy alucinado.
Lo dicho, mil gracias!!
@gallir, lo de la carga, intuyo que es por que el ELB no es demasiado fino, el método de reparto de carga es… oh, sorpresa: RANDOM.
La verdad es que a ELB le queda bastante por avanzar (prueba, por ejemplo, a poner máqunas de Europa, Asia y USA detrás de un mismo ELB)
Yo, iluso de mi, supuse que ELB tenía una implementación de cloudFront, pero no, no la tiene.
Saludos
Pingback: Week-Log.360 | Denken Über