Sábado, 3 de diciembre de 2016Actualizado a las 01:39

Balance crítico de las redes y datacenter nacionales

El día en que la tecnología apagó a Chile

por 16 marzo 2010

El día en que la tecnología apagó a Chile
¿Por qué ocurrió esto en el datacenter más moderno de Chile, con muros de un metro de espesor y cuyo piso es capaz de soportar hasta una tonelada de fuerza? Fuentes que pidieron a El Mostrador mantener su anonimato revelaron que las baterías de energía de respaldo —conocidas como UPS - fueron desplazadas por la fuerza del sismo, y en su movimiento arrasaron con el sistema de circuitos del lugar, cuya reparación de por si es delicada.

27 de febrero, 03:34AM. Una de las pocas cosas que tuve conciencia de sacar de mi habitación a la hora de bajar corriendo las escalas del Hotel O’Higgins — donde pasé el terremoto - fue mi teléfono móvil. Sabía que en un caso así, más que la red de voz era la de datos la que podía ayudarme en cualquier caso. Y así fue. Pero grande fue mi sorpresa y la de muchos cuando noté que, por efecto del mayor sismo que ha sufrido la zona centro sur del país, los sitios web nacionales más importantes estaban en el suelo. No había información oficial. Ni la ONEMI ni mi banco respondían. La tierra habló e Internet, literalmente, se calló.

A los pocos minutos del terremoto, muchos pudieron revisar en sus teléfonos las informaciones del Servicio Geológico Norteamericano — USGS - que anunciaron la magnitud del sismo en Concepción: 8,8 grados en la escala de Richter. Revisé rápidamente también las alertas de tsunami entregadas por el Pacific Tsunami Warning Center del NOAA. Pero de información oficial, nada.

Volvamos a 1968. ARPANET, la precursora de la Internet, fue creada como una red interna de comunicaciones militares por el Departamento de Defensa norteamericano, preparada para estar descentralizada, con múltiples vías de comunicación entre dos puntos y capacitada para responder ante sus propias fallas. El correo electrónico y la transferencia de archivos eran su principal uso en 1973. Desde un año antes, el proyecto CYBERSYN permitía controlar el estado de fábricas a través de terminales de telex, todo centralizado desde un búnker bajo La Moneda, aquí mismo, en Chile.

Lo que está claro es que ambas experiencias no sirvieron de nada en el momento del sismo ni después de él. Los servidores de la ONEMI fallaron, y junto con ellos, los sistemas de todo el aparato estatal estaban en el piso. Entre el sábado y el lunes, la Oficina de Emergencia dirigida por Carmen Fernández no pudo usar el correo electrónico. Y si es efectivo que mantenían comunicación radial con sus direcciones regionales, algo no funcionó, pues hasta varios días más tarde no lograban acopiar ni sistematizar información clave como el listado de albergues y los hospitales que permanecían operativos, menos canalizar las necesidades más urgentes por zona afectada.

Global Crossing, el Alto Río virtual

Basada en las Bermudas, Global Crossing — en Chile antes llamada IMPSAT - es el datawarehouse de mayor prestigio y calidad, que aloja tanto a clientes gubernamentales y a grandes instituciones, como el Banco de Chile, la Universidad Andrés Bello y los servicios en línea del Ministerio de Obras Públicas, entre otros. Esos mismos fueron los que cayeron como fichas de dominó la madrugada del 27, sin poder ser recuperados solo hasta varios días después.

¿Por qué ocurrió esto en el datacenter más moderno de Chile, con muros de un metro de espesor y cuyo piso es capaz de soportar hasta una tonelada de fuerza? Fuentes que pidieron a El Mostrador mantener su anonimato revelaron que las baterías de energía de respaldo —conocidas como UPS - fueron desplazadas por la fuerza del sismo, y en su movimiento arrasaron con el sistema de circuitos del lugar, cuya reparación de por si es delicada.

Las medidas de seguridad estándar de este tipo de recintos incluyen la prohibición de que varias personas trabajen al mismo tiempo en una misma sala de servidores; por ende, el tiempo de recuperación estuvo supeditado a esta limitante. Así, el encargado de IT de la Universidad Arturo Prat que viajó desde Iquique para ver y evaluar los daños en sus máquinas y a ponerlas nuevamente en línea debió esperar junto a otros clientes por horas en los estacionamientos del lugar.

“Tabiquería” de redes

En el caso del Banco de Chile, la misma fuente agrega que el error que dejó sin servicios en línea tanto a clientes como a los mismos funcionarios de una de las instituciones financieras más grande del país no pasó solamente por el incidente técnico en GlobalCrossing y el de su propio datacenter — el que resultó inundado tras el sismo, afectando tanto a sus servidores principales como a los de respaldo-, sino más bien por una falla de gestión, la que dejó en claro que los planes de contingencia diseñados para “levantar” al banco ante una emergencia de este tipo quedaron en el suelo.

Por su parte, Obras Públicas se vio obligada a utilizar redes sociales de amplio espectro: a las pocas horas el blog mopinforma.blogspot.com, el que continúa funcionando tras el reestablecimiento de los servicios, efectúa comunicación del estado de la red vial del país, la que también es informada constantemente a través de su cuenta en Twitter. A más de un año del boom de esta red social a nivel de comunicación corporativa, solo el terremoto logró convencer a las autoridades de las distintas reparticiones de gobierno de su utilidad real. Un funcionario del MOP que pidió reserva de su nombre aseguró que están buscando la manera de rescindir el contrato con la empresa, ya que el perjuicio que le generó al Ministerio en una crisis de esta envergadura fue fatal.

El terremoto no solo dejó a sitios offline, sino que desnudó realidades sobre la supuesta seguridad y estabilidad de la infraestructura de datos nacional. Por un lado, afectó por igual a centros de datos designados “de contingencia” como a los principales. Por otro, dejó en claro que es imposible que exista independencia energética para esta clase de recintos, la que permitiría en un caso hipotético tener dos proveedores de electricidad y no perder uptime en caso que uno fallase, y así enfrentar de mejor manera situaciones como la ocurrida el domingo gracias a una falla en el Sistema Interconectado Central, la que dejó sin luz a todo el centro-sur del país. Y finalmente, reveló que existe una segregación de redes “mentirosa”: muchos clientes, cuyos enlaces de respaldo habían sido contratados a dos proveedores distintos, descubrieron que finalmente ambos habían subcontratado los servicios a una tercera empresa, que resultó ser la misma en cada caso.

Así resistieron los datacenter nacionales:

NetGlobalis y S&A: Sin problemas; los tres operadores de NetGlobails funcionaron con el generador eléctrico del datacenter tras el terremoto y no tuvieron caída alguna.

Adexus (Miraflores 383, piso 2): Funciona sin problemas ni interrupciones desde el día "D" y posteriores.

NOC Telefónica Chile (San Martin 50): Sin problemas.

Entel: El datacenter y centro de operaciones principal de la ex empresa estatal están ubicados bajo la torre de 127 metros que coordina la comunicación entre los diversos puntos del país, y ambos respondieron sin problemas. Luego del terremoto de 1960 se tomaron las precauciones necesarias a nivel constructivo, las que fueron aplicadas en la construcción de la emblemática estructura.

Synapsis: No presentaron problema alguno, y aseguraron que tuvieron un uptime del 100%. Las maquinas no hicieron failover, ni se utilizaron los enlaces de contingencia o backup disponibles.

Noticias Relacionadas

Más información sobre El Mostrador

Videos

Más Noticias

Blogs y Opinión

Encuesta

Mercados

TV

Cultura + Ciudad

Deportes