Hablando francamente: ¿Preocuparse por la TI?

 

En julio varios sitios desaparecieron de la Internet. El centro de datos que compartían se apagó por una falla eléctrica. Simple ¿no?. Pero la razón principal para usar un centro de datos es el no tener que preocuparse de las interrupciones.

El pasado martes 24 de julio el sitio Craiglist desapareció de la Internet. Lo mismo ocurrió con LiveJournal y Technorati. CNET.com y SecondLife también fueron reportados fuera del aire por un rato. ¿Qué ocurrió? El centro de datos que compartían se apagó por culpa de una falla eléctrica. Simple ¿no? Excepto por el hecho de que la razón principal para usar un centro de datos de este estilo es el no tener que preocuparse de las interrupciones del fluido eléctrico.

Uno de los principales atributos de mercadeo de 365 Main, la gigantesca instalación que falló la semana pasada, es que ofrecía que el suministro eléctrico a sus servidores nunca se interrumpiría. De fallar el suministro regular un banco de 10 generadores, de 3000 caballos de fuerza cada uno, se suponía que debía arrancar automáticamente y mantenerse funcionando hasta que el suministro se restableciera, así fuera varios días después.

En defensa de 365 Main, hay que reconocer que este mecanismo había funcionado siempre en el pasado.

Pero no ocurrió así la semana pasada. A principios de la tarde del martes la electricidad externa comenzó a variar de manera salvaje. Un transformador subterráneo cerca de la instalación explotó. Gran parte de San Francisco quedo sin energía eléctrica, incluyendo el Distrito Financiero –más de 50.000 usuarios en total.

Y por razones que 365 Main todavía investiga, algunos de sus generadores eléctricos de reserva no se encendieron como se suponía. Tomó cerca de 45 minutos para que los ingenieros de guardia encendieran los generadores de manera manual.

Para ese entonces el daño a la Craiglist, LiveJournal y los demás ya estaba hecho –entre el 20% y 40% de los clientes de 365 Main. Estos servidores se apagaron de manera incorrecta. Y en lugar del servicio continuo, casi mágico, con el que contaban estos servidores stuvieron que ser encendidos lenta y cuidadosamente.

Los que tuvieron más suerte estuvieron fuera de línea por unas pocas horas. Pero incluso para ellos, la magia se había roto.

También se rompió para todos los demás. Es tiempo de aceptar la ruda realidad.

Las cosas malas también pasan. No importa lo cuidadosos que seamos al planificarlo, no podemos tomar todo en cuenta. Y pasan sin importar a quien le hayamos pagado para que se encarguen, no importa lo que hayamos pagado ni las promesas que nos hayan hecho.

Colocarlo fuera de nuestra empresa en outsourcing no funciona, al menos no si estamos esperando que ellos resuelvan nuestros problemas de continuidad de negocios.

Ellos no lo harán. No pueden. No podemos esperar que lo hagan.

De hecho debemos asumir que ellos no podrán hacerlo y tomar medidas de acuerdo a esta realidad..

Esto es cierto incluso si una compañía como 365 Main nos asegura que su suministro eléctrico no se interrumpirá. Si Murphy lo desea, se interrumpirá. Y nada de lo que 365 Main haga afectará el hecho de las ventas perdidas, clientes perdidos y la pérdida de confianza que llegó de la mano del apagón.

¿Pero sera qué un outsourcing es entonces una mala movida? Por supuesto que no.

Confiarse en las compañías que prestan el outsourcing es lo equivocado.

Tenemos que creer que ellos harán su mejor esfuerzo. De otra manera no estaríamos haciendo negocios con ellos. Pero también tenemos que ser conscientes de que no son perfectos, no importa lo que digan esos panfletos promocionales llenos de colores.

Podemos desligarnos del trabajo, pero no de la responsabilidad de TI de nuestra compañía. Esa responsabilidad nos pertenece.

Lo que significa que no podemos hacer un outsourcing de las noches sin dormir. No podemos dejar de desarrollar nuestros planes de escenarios de contingencia. No podemos dejar de buscar formas de blindar los servicios que nos ofrecen los fabricantes, sólo por si se da el caso de que una bala aparezca.

Cuando se trata de la continuidad de servicio, preocuparse es bueno. Confiarse, no lo es tanto.

Uno de los clientes de 365 Main, el vendedor al detalle RedEnvelope, tuvo la idea correcta. RedEnvelope mantuvo un respaldo en un centro de datos en Cincinnati para evitar los problemas como el ocurrido la semana pasada.

Pero después de dos años sin un solo problema con el centro de datos de San Francisco, 365 Main lanzó un comunicado de prensa anunciando que RedEnvelope había cancelado su respaldo en Ohio.

Eso fue el martes en la mañana. El martes en la tarde Redenvelope estaba fuera de línea.

Frank Hayes, columnista de Computerworld.

Puede contactarlo en: frank_hayes@ computerworld.com

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.