Anotaciones para un CPD

Montar un centro de procesamiento de datos o una sala de máquinas es de esas cosas sobre las que todo el mundo sabe pero que pocos quieren echarse al hombro. Es fácil acabar aglutinando a un montón de empresas de distinto oficio y beneficio, cada una encargándose de una cosa, pero sin una supervisión común ni fina. Lo cual suena a tiquismiquis, pero asegurarse de que todo quede como debe ahorrará muchos quebraderos de cabeza y misterios a futuro.

El que escribe esto es como todos, con muchas ideas, pero que tampoco sabe diseñar la construcción de un Centro de Procesamiento de Datos de principio a fin. Sin embargo puedo aportar algunos detalles.

Ubicación. Partimos de la base de que vamos a tener una sala llena de máquinas con un considerable valor económico, pero que a su vez van a albergar una información y prestar un servicio con mucho más valor, que es el que realmente va a dar dinero. De manera que es necesario elegir un lugar con:

  • Acceso restringido. Que no sea el c**o de la Bernarda.
  • Unas variables físicas estables. No como el desierto con sus cambios de temperatura.
  • Una temperatura del aire que absorben las máquinas comprendida entre 24 ºC y 26 ºC o incluso mayor. Es una moda de los últimos años a favor de un menor derroche energético, que depende también de las máquinas y sus especificaciones. En CPD de lugares públicos, esos cuya factura de la luz pagamos entre todos, siguen con configuraciones de 19 ºC y tan pichis.
  • Una humedad relativa en torno a un 50 %. Este valor también depende de las especificaciones de las máquinas, pero si es baja pueden soltarnos chispotazos porque se carguen de electricidad estática, y si es alta los componentes empezarán a enrobinarse y tendrán una vida útil menor, cuando no empiecen antes a dar problemas misteriosos que nos hagan perder muchas horas intentado resolverlos.
  • Un entorno con bajo riesgo de catástrofes. Poco importa ponerle la puerta de un búnker, si luego está en un sótano, vienen lluvias torrenciales, el alcantarillado se inunda, los sumideros empiezan a expulsar agua en lugar de succionarla, las bombas de achique no dan abasto o se quedan sin suministro de electricidad,.. Como levantino sé bien que eso puede pasar.

Aislamiento. Vamos a tener un montón de máquinas disipando calor, por lo que lo que ellas quieren es aire fresquito. De manera que lo esperable es crear un flujo de circulación de aire, para que por un extremo las máquinas aspiren aire frío y por el otro lo expulsen caliente, a la vez que el sistema de refrigeración aspire aire caliente y lo expulse frío. Pasar aire de la zona fría a la zona caliente, ya calentado, y pasar aire de la zona caliente a la zona fría, ya enfriado. Y para que esto se haga de la manera más eficiente posible, es conveniente que sólo sean las máquinas la única manera de sacar al aire frío de su zona fría y el sistema de refrigeración lo propio pero con el aire caliente. Sin embargo no debemos olvidar la separación con el exterior, como la permeabilidad de las paredes, posible existencia de ranuras por donde se fugue o entre aire,.. porque probablemente se produzca una diferencia de presión entre la zona fría y la caliente, dando lugar a que o bien las máquinas o bien los sistemas de refrigeración succionen aire que no está a la temperatura ni humedad que nosotros controlamos. Con la consiguiente pérdida de eficiencia.

Conexión a tierra. Esto puede parecer de cajón, pero en un CPD hay más conexiones a tierra que las de los enchufes de las máquinas. Las máquinas están dentro de unos armarios completamente metálicos y en contacto con sus paredes. Estos armarios, además, pueden estar en contacto unos con otros, tienen puertas y paneles laterales, pueden estar en contacto con algún cable que cuelgue del techo o alguno pelao del suelo. De manera que si los armarios, su carcasa, paneles y puertas, no están conectados a tierra, podemos llevarnos un disgusto serio. Pero es que además, según mi compañero Jorge, los racks y máquinas del CPD deberían estar conectados a la misma tierra que otros racks y máquinas que pueda haber por el edificio, ya que toman el valor de tierra como referencia para las codificaciones en el muestreo. Con lo que se minimizan errores y reintentos de transmisión.

Conducciones. Tenemos que intentar que por la zona sólo se encuentren las conducciones estrictamente necesarias. Como poco vamos a necesitar conexiones de electricidad, datos, desagüe y agua por si el ambiente precisa de humedad. El agua, a diferencia de una casa donde ya no se suele conducir por el suelo, aquí sí que es importante que ande lo más lejos posible de la electricidad, para que además en caso de fuga moje lo menos posible. Especial mención merece el cuidado de la separación entre los cables de electricidad y los de datos, porque seguramente estos últimos no sean en su totalidad de fibra óptica y tengamos que evitar que estén desplegados en paralelo, por el asunto de las interferencias electromagnéticas. Una buena práctica es usar unas bandejas sólo para electricidad y otras sólo para datos. Dentro del rack, algo similar, utilizando el poste de un lado para electricidad y el del otro para datos.

Redundancia. Si bien la redundancia plena es imposible, porque la mayoría de proveedores nos darán un solo cable o justo antes de nuestra arqueta de entrada pondrán un cacharro que lo duplique, hay que intentarlo en la parte que depende de nosotros. También puede ser un problema de obsesión, porque todo se puede redundar. Dos líneas de entrada de datos, dos circuitos de telefonía, dos líneas de electricidad, dos máquinas de refrigeración, dos firewalls, dos switches de core, dos servidores,..

Tapas ciegas. Es más frecuente de lo que parece encontrarse instalaciones donde han cuidado mucho el aislamiento entre las zonas calientes y frías, pero que luego tienen los racks a mitad de capacidad y con el resto de U sin tapar, por lo que los pasillos delantero y posterior se comunican. Incluso en CPD de proveedores de bastante prestigio. Las hay de pasta y metal, que se ponen con tornillos o con pestañas de plástico para mayor rapidez. Hay racks que las incluyen pero por ignorancia no se exigen y a saber luego en qué parte de la distribución se han perdido.

Seguridad. En las tecnologías de la información, como en casi cualquier ámbito, la seguridad puede no tener límites y conllevar un despilfarro de dinero sin necesidad. Si bien lo más importante es la información que almacenan los discos duros y no tanto los dispositivos, hay que cuidar del acceso físico de las instalaciones, para que nadie dé con una consola que nos hayamos dejado abierta ni pueda llevarse la información. Como poco tener un control de acceso al lugar, aunque sea con una llave, pero que sepamos que no tiene todo quisque. Aunque el ámbito de la seguridad de acceso remoto se sale de esto, tampoco estaría de más dotar de cierta seguridad a las redes que controlan los sistemas de refrigeración y alimentación ininterrumpida.

Limpieza. Especialmente después de las obras. Es inevitable que quede polvo que será absorbido por las máquinas, pero hay que hacer todo lo posible porque éste sea el menos posible, al menos procedente de la obra/reforma/adecación previa. Y una vez en funcionamiento es aconsejable buscar un método de limpieza que remueva la menor cantidad de polvo posible, porque de lo contrario habrá parte que se quedará en los componentes de las máquinas y filtros de los sistemas de refrigeración.

Mantenimiento. Al principio no tiene por qué haber problemas con los sistemas de refrigeración y alimentación, pero estos tienen componentes que se van gastando y perdiendo eficacia que requerirán ser reemplazados, como filtros y baterías. Así mismo siempre existirá riesgo de que haya fallos mecánicos y la redundancia no es 100% infalible, ya que puede ocurrir que tengamos algo redundado precisamente con dos aparatos iguales, con misma fecha de fabricación, de montaje y tiempo de uso, lo cual aumentaría las probabilidades de que fallen a la vez.

Crecimiento. Hay que tener claro que el crecimiento en cuanto a máquinas también conllevará el crecimiento en cuanto a capacidad de refrigeración, alimentación, grosor de los canutos de cables, etc. De manera que lo inicial sirva para lo que se tiene y algo más, pero tampoco sobredimensionando en exceso. Tanto por el coste extra cuyo plazo de amortización no estaría asegurado como por los problemas que pueden acarrear el tener mucha más capacidad de refrigeración de la necesaria, donde estos sistemas podrían tener un funcionamiento inestable o competir entre sí.

Y por último, hay que tener en cuenta que todo es mejorable y que nadie nace enseñado. Parece una obviedad, pero es importante mentalizarse de esto porque si no nunca se acabará de preparar la instalación para meter los servidores y arrancar. Por ello se debe intentar fijar una frontera entre lo imprescindible y lo realizable a corto, medio y largo plazo, así como dedicar tiempo a documentarse y aprender. No hay que olvidar que una vez esté el montaje inicial y todo funcionando ya tendremos tiempo de ir puliendo y ampliando.

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *