descripción: DATACENTER
CASO
DE ESTUDIO
Según los conocimientos adquiridos en nuestra
investigación sobre un Data Center, vamos a resolver la siguiente solicitud:
1. Establecer una guía
para el montaje de un centro de cómputo,
|
permitiendo a la
empresa obtener una visión futurista para plantear y lograr objetivos
2. información técnica
sobre cómo montar correctamente un centro de cómputo
3. equipos y
materiales que deben usarse para la implementación y de las normas que deben
aplicarse
|
Desarrollo
1.
GUIA/ O ESTANDARES PARA EL MONTAJE DE UN CENTRO DE
CÓMPUTO
Existen una gran
variedad de organizaciones que emiten periódicamente
Nuevos estándares
para la edificación de centros de cómputos. Las principales
Organizaciones como
el ANSI, TIA, EIA, BICSI, IEEE y el NFPA entre otras,
Mejoran a diario sus
estándares entre los que citamos:
• Estándar ANSI/TIA/EIA-568A
de alambrado de telecomunicaciones para
Edificios
comerciales.
• Estándar ANSI/TIA/EIA-569
de rutas y espacios de telecomunicaciones
Para edificios
comerciales.
• Estándar ANSI/TIA/EIA-606
de administración para la infraestructura de
Telecomunicaciones de
edificios comerciales.
• Estándar ANSI/TIA/EIA-607
de requerimientos de puesta a tierra y
Punteado de
telecomunicaciones de edificios comerciales.
• Building Industry
Consulting Service International, manual de métodos
De distribución de
telecomunicaciones.
• ISO/IEC 11801 cableado genérico.
• Código Eléctrico
Nacional 1992
(CODEC). Establece normas para la
Manipulación de
conductores y equipos eléctricos.
CARACTERÍSTICAS FÍSICAS
Se definen seis
componentes principales en un centro de cómputo:
• Instalaciones de entrada.
• Sala de equipos.
• Canalizaciones de montantes o backbone.
• Armarios de telecomunicaciones o salas de
telecomunicaciones.
• Canalizaciones horizontales.
• Áreas de trabajo.
En la figura 1 se
muestra la ubicación de los seis componentes principales.
Figura 1. Componentes
principales de un centro de cómputo
La ubicación de un
centro de cómputo debe ser lo más cerca posible al centro
Del área a ser
atendida y cumplir con una serie de requisitos, entre los que
Podemos mencionar los
siguientes:
• Estar situado donde
no pueda acceder personal no autorizado.
• Que no entre luz
natural.
• Permitir la
instalación de algún sistema acondicionador de aire.
• No debe haber
entradas de aire natural.
• Tener una apropiada
ubicación para los extinguidores.
• Poseer ruta de
evacuación.
Se debe tomar los
siguientes requerimientos en el dimensionamiento del centro
De cómputo:
• El centro de cómputo
en donde se instale los equipos del sistema debe ser
Lo suficientemente
amplio y accesible. En ningún caso conviene que la
Superficie sea menor
de 20 m2.
• Lugar suficiente para
los equipos actuales y para los futuros crecimientos.
• El tamaño mínimo recomendado
para el área de trabajo es de 10 m2.
• Para la sala de
equipos se recomienda un tamaño de 0.07 m2 por cada 10
m2 de área utilizable.
Las puertas de
acceso deben ser de apertura completa con llave y como
Mínimo 91 centímetros
de ancho y 2 metros de alto. El cuarto debe ser
Completamente
cerrado; es decir, los rayos solares no deben entrar al cuarto
De cómputo, por lo
que se recomienda la no utilización de ventanas.
Figura 2. Esquema de un centro
de cómputo
SISTEMAS DE
DISTRIBUCIÓN DE CABLEADO
Los sistemas de
distribución de cableado especifican la forma como es
Canalizado y
distribuido el cableado en un centro de cómputo. Pueden ser:
Suelo falso, techo
falso y escalerillas.
CARACTERÍSTICAS
ELÉCTRICAS
Existen dos sistemas
de distribución de energía; el AC y el DC, pero para
Energizar un centro
de cómputo se debe usar un sistema AC. El centro de
Cómputo deberá
constar con un sistema de respaldo de energía. En caso de
Fallo de energía
eléctrica un GENERADOR entrará en funcionamiento. Una
Parte esencial son
los sistemas de aterrizamientos. Este sistema estará
Compuesto por barras
estandarizadas como el TMGB, el TGB y el cable TBB.
Figura 3. Sistema de
Aterrizamiento
CONDICIONES
AMBIENTALES
Un centro de cómputo
deberá mantenerse a una climatización adecuada para
Equipos de
telecomunicaciones. Equipos acondicionadores de aire deberán
Usarse para regular
temperatura y humedad dentro de la sala.
CABLEADO ESTRUCTURADO
Para el cableado
estructurado dentro del centro de cómputo, los cables usados
Son: UTP, STP, F.O.,
como los más principales. Estos serán configurados para
Transmitir datos
mediante el uso del estándar de códigos de colores.
Estándares
importantes al momento del cablear redes de datos son el T568B y
El T568A.Figura 4. Configuraciones de red.
La seguridad es
esencial dentro y fuera del centro de cómputo, equipos y
Normas, además de
procedimientos de seguridad deberán ser celosamente
Ejecutados.
DISEÑO DEL CENTRO DE
CÓMPUTO
Requerimientos
• La sede del centro de
cómputo será en Bogotá
• Se realizarán
procesos para los CAC’s.
• Se manejarán procesos
de varios departamentos.
• El acceso a cada uno
de los departamentos será a través de la red LAN
Propia de la empresa.
• Control de todos los
servicios a los que tienen acceso los clientes de
Telefonía móvil junto
con la tarifación.
ESTUDIO PRELIMINAR
DEL DISEÑO
El centro de cómputo
cumplirá con las siguientes características:
Características
Físicas.- Las
dimensiones de la sala son 10.40 x 7.70 metros.
(Área de trabajo de
80.04 m2). Una única puerta
de ingreso al centro de
Cómputo ubicado en la
parte central de la pared frontal del cuarto. No habrá
Ventanas. La altura
desde el piso al techo será de tres metros.
Características
Eléctricas.- Estará
constituido básicamente por un generador,
UPS' s y tableros de
distribución de energía. La transferencia automática la
Realizará el equipo
TTA-Kohler. La iluminación será mediante 6 puntos cada
Uno con 4 tubos
fluorescentes. Para el aterrizamiento se usará el cable AWG
Calibre 6 conectada a
la malla del edificio.
Características
Seguridad.- Se
realizará mediante cámaras dentro del
Edificio.
ANALISIS TECNICO
Direccionamiento IP
Para la asignación de
direcciones IP se tomarán en cuenta los siguientes
Puntos:
• Dirección IP asignada
al departamento de sistemas clase C 192.168.10.0
• La máscara de Subnet
para la red del centro de cómputo será la
255.255.255.192 con
la que se tendrán 62 direcciones de host disponibles.
• Todos los servidores
instalados en el centro de cómputo estarán en una
Misma subred de
sistemas.
• La red de sistemas
estará formada por el centro de cómputo y una subred
Conformada por las
PC.
• El centro de cómputo
estará formado por 34 servidores y 9 routers.
• Los 9 routers estarán
ubicados fuera del centro de cómputo por razones de
Seguridad y política
de la empresa.
• El backbone estará
formado por un switch cisco 4506.
• En el interior del
centro de cómputo van a existir 3 servidores públicos por lo
Que será necesaria la
realización de redes virtuales LAN (VLAN).
Dado estos
requerimientos se decidieron tomar la dirección IP asignada y dividirla
En dos subredes
tomando dos bits de la parte local de la dirección, de esta
Forma se tiene 62
direcciones de host disponibles. Luego, se tomó la primera
De las subredes y se
realizó un subnetting variable (VLSM), es decir se dividió
En dos volviendo a
tomar un BIT de la parte de host.
Para el acceso a los
diferentes equipos deberá establecerse una sesión telnet
A través del programa
emulador Power Term / 32.
ESQUEMA DEL CENTRO DE
CÓMPUTO
El centro de cómputo
estará conformado por 3 bloques de equipos: IBM, SUN,
HP, OTROS.
Habrá 4 Tableros de
Distribución de energía: 1 TD principal y 1 para cada
Bloque de rack
manejado cada uno por su propio UPS. Mediante este arreglo
Eléctrico se
establece independencia en los circuitos eléctricos.
Determinación del
Generador y UPS
Tabla I Carga Total del
Centro de Cómputo
Vatios
Carga Instalada 36290,00
Holgura 30% 1,3
Sub total 47177,00
Carga Total 47177,00
|
Tomado en
consideración la carga instalada 47.177 KW y el consumo de los
Acondicionadores de
aire 92180.40 BTU/h lo que equivale a 36.736 KW (1KW
= 2509.56 BTU/h) el
generador debe ser capaz de manejar una carga de 84
KW. Se utilizarán tres
UPS’s repartiendo la carga entre ellos. Los UPS's
Deberán ser capaces
de proporcionar un respaldo mínimo de energía de una
Hora por lo que se
instalarán con un banco de baterías externo.
Determinación del
Acondicionador de Aire
|
Tabla II Disipación de los
equipos
|
BTU/h
|
Potencia Disipada 70908,00
|
Holgura 30% 1,3
|
Sub total 92180,40
|
Capacidad del AA.
92180,40
|
Se utilizarán dos
acondicionadores de aire para la climatización del centro de
Cómputo con una
capacidad de 60000 BTU/h cada uno, cada equipo será
Alimentado de manera
individual para que su funcionamiento no afecte a los
Equipos de
comunicaciones del centro de cómputo.
Determinación de la
Acometida
|
Tabla III Carga total de
energía
|
Carga de Equipos
(W) 47177,00
|
Carga de A .A (W) 36736,09
|
Carga Total (W) 83913,09
|
Carga Total (A)
381,42
|
La corriente que
circulará por cada conductor es de 381.42 amperios y
Considerando que la
acometida irá por ductos el calibre recomendado para el
Conductor es el AWG #
500 el cual soporta un máximo de 430 amperios en
Ductos. Este valor de
corriente determina también un breaker principal de 400
Amperios.
DESARROLLO DEL CENTRO
DE CÓMPUTO PARA TELEFONIA CLARO
Cronograma de
Actividades
1. Reconocimiento del
sitio donde se ubicará el centro de cómputo.
2. Acondicionamiento
del lugar de acuerdo a los requerimientos físicos
Establecidos.
3. Instalación de
alimentación principal de energía eléctrica y UPS.
4. Instalación de los
tableros de distribución de energía eléctrica
5. Instalación de
Racks de comunicaciones
6. Montaje de los
equipos en los Racks correspondientes
7. Colocación del
cable UTP (desde las tomas para RJ-45 hasta los paneles de
Interconexión en los
racks).
8. Pruebas de
certificación del cableado de datos (verificación técnica con
Instrumentos).
9. Configuración de
los equipos mediante la carga de software.
10. Pruebas y
diagnósticos de los equipos instalados.
Cada actividad se
realizará en tiempos específicos. Y llevados a cabo mediante
Un software como el
MS Project.
Montaje
El centro de cómputo
está formado por los siguientes sistemas:
• Infraestructura
• Sistema de
Climatización
• Sistema Eléctrico
• Sistema de Datos
El sistema de datos
estará constituido por routers y servidores que serán
Conectados a un
switch cisco 4506, que servirá como concentrador. El
Recorrido del
cableado será realizado por canaletas instaladas en el piso falso.
Esquema Final
A continuación
presentamos el esquema final del centro de cómputo para
TELEFONIA CLARO En la que se podrá la distribución de los
equipos. El sistema de Aire instalado. El acceso al centro de cómputo. Todo
esto cumpliendo con los Requerimientos y normas establecidos.
Figura 5. Esquema Final del
Centro de Cómputo
.
PRUEBAS Y
DIAGNOSTICOS
Para la verificación
del funcionamiento de los equipos instalados será
Necesario hacer un
conjunto de pruebas.
Las siguientes son
las pruebas que se realizarán:
• Pruebas unitarias y
de conectividad.
• Pruebas de seguridad.
• Pruebas de
configuración.
• Pruebas de
mantenimiento.
• Pruebas de correo
electrónico.
• Pruebas del
funcionamiento de los back-up de energía y su restauración
Se realizarán “fichas
de prueba” para todos los elementos y servicios que el
Centro de cómputo
brinda.
La siguiente es una
ficha realizada al sistema de datos:
La certificación
final para una correcta instalación del centro de cómputo será la
Realización de un
check list. Al realizar el chequeo por categorías se podrá
Analizar falencia en
áreas específicas y así poder determinar la mejor solución.
1. ASPECTOS FUNDAMENTALES A TENER EN CUENTA PARA CONSTRUIR UN DATACENTER
Es
realmente muy difícil resumir, en sólo 10 pasos, algo tan complejo como la
construcción de un centro de cómputos. El primer hito fundamental es una buena
planificación, que incluye un sin número de actividades que confluyen en la
obtención de un proyecto de construcción.
El armado del proyecto es válido para un diseño nuevo o una remodelación, no importa su tamaño ni el nivel de disponibilidad de servicios que se le quiera dar al proyecto (Tier); el secreto del éxito está en prever cada una de las tareas e inversiones que se realicen.
Por más que hoy no se pretenda obtener una certificación del datacenter, es fundamental que su diseño y especificaciones técnicas se base en las normas nacionales e internacionales de construcción como TIA, EIA, NFPA, USGBC, RoHS, ASHRAE, NFPA, ANSI, IRAM, IEC, IEEE, CENELEC, AEA, ICREA, Uptime Institute y BICSI.
Como consejo final para este primer ítem de planificación y proyecto es recomendable que sea realizado por especialistas, que su tarea diaria sea la de construir datacenters, ya que estarán familiarizados con la aplicación de las normas y asegurarán el éxito del proyecto.
El armado del proyecto es válido para un diseño nuevo o una remodelación, no importa su tamaño ni el nivel de disponibilidad de servicios que se le quiera dar al proyecto (Tier); el secreto del éxito está en prever cada una de las tareas e inversiones que se realicen.
Por más que hoy no se pretenda obtener una certificación del datacenter, es fundamental que su diseño y especificaciones técnicas se base en las normas nacionales e internacionales de construcción como TIA, EIA, NFPA, USGBC, RoHS, ASHRAE, NFPA, ANSI, IRAM, IEC, IEEE, CENELEC, AEA, ICREA, Uptime Institute y BICSI.
Como consejo final para este primer ítem de planificación y proyecto es recomendable que sea realizado por especialistas, que su tarea diaria sea la de construir datacenters, ya que estarán familiarizados con la aplicación de las normas y asegurarán el éxito del proyecto.
Los 10 aspectos
fundamentales a tener en cuenta:
1.- Tipo de datacenter a construir. Aquí
tomaremos como base la norma ANSI/TIA-942 que divide a los datacenter en 4
Tiers. Esta norma es muy completa y establece las características y niveles de
redundancia que deben poseer cada uno de los Tier en aspectos fundamentales
como aspectos eléctricos, termomecánicos, edilicios, cableado y comunicaciones
entre otros. En esta etapa, debemos determinar a qué nivel de redundancia
pretendemos llevar el centro de datos y cuánto tiempo de inactividad estamos
dispuestos a tolerar. Un punto fundamental para decidir el nivel del datacenter
es cuánto representa en términos económicos para el negocio una caída del
procesamiento; dicho número nos ayudará a establecer el nivel de inversión y
redundancia a proyectar.
2.- Equipamiento informático a instalar,
presente y futuro. En esta etapa, debemos tener muy en claro cuáles serán
los equipos que se instalarán dentro del datacenter, entre servidores, storage,
librerías de backup, switches de core, etc. Es un error muy común calcular el
consumo eléctrico sumando directamente lo que marca el manual de cada equipo e
indica el fabricante, por lo general éstas indicaciones corresponden a la
máxima configuración y carga del equipo en sus picos de arranque y en
situaciones de extrema exigencia, si solo tomamos esto para dimensionar el
consumo eléctrico seguramente sobredimensionemos la potencia. El paso correcto
sería poder medir el consumo eléctrico directamente con una pinza amperométrica
en cada rack u obtener este dato si tenemos instalados medidores de consumos en
los tableros o en las unidades de distribución de energía individuales que
permitan obtener el consumo real. Para las proyecciones de los nuevos racks en
donde no tenemos claro que equipos instalaremos estamos en la actualidad
calculando un consumo entre 5Kw y 7Kw. Lo importante de este punto es armar un
sistema de energía que sea escalable y flexible, que si en poco tiempo instalamos
un rack en donde el consumo real esté en 10Kw y nosotros previmos 7Kw,
rápidamente podamos adaptar la instalación sin necesidad de costosas
modificaciones o desechando las obras que se hicieron en el pasado y haciendo
todo de nuevo.
Distribución del consumo de energía en el data center
3.- Cálculo de refrigeración. En la
actualidad, esta etapa es uno de los pasos más complejos y delicados de
diseñar. Equipos con elevados consumos de energía, gran disipación de calor,
horas pico de procesamiento y dificultades de instalación de los sistemas
termomecánicos son algunos de los desafíos con los que nos cruzamos durante el
diseño.
Tenemos diversas topologías para refrigerar un centro
de cómputos, dentro de las cuales se destacan los sistemas de refrigeración
perimetral que inyectan aire por debajo del piso técnico, los de refrigeración
por hilera que extraen el calor de los pasillos calientes e inyectan frio por
delante de los racks, los de enfriamiento por rack que inyectan el aire frio
desde la parte superior del rack, o los sistemas que simplemente prevén la
inyección de aire frio en toda la sala. Lo importante es poder armar un sistema
flexible y escalable que permita refrigerar las necesidades actuales y soportar
las posibles exigencias a futuro. Deberemos también establecer el nivel de
redundancia deseado, si será agregando equipamiento de backup para la inyección
de aire bajo piso, o logrando una redundancia N+1 en las filas más críticas del
datacenter si optamos por una refrigeración por hilera.
El mayor consejo que podemos dar es el de armar
distintas zonas dentro del data center, ya sea que armemos un centro de datos
con varias hileras o por el contrario en una sola fila, deberíamos prever zonas
para alta densidad donde podamos instalar un consumos de 7Kw o superiores y
otras con 2Kw o 3Kw de consumo por rack, como por ejemplo para comunicaciones.
Los sistemas de refrigeración son los que se llevan la mayor parte del consumo
eléctrico de un data center, como se ve en el gráfico 1, diversos estudios
afirman que el 38% del consumo eléctrico del data center es consumido por el
sistema de refrigeración, basándonos en este dato resulta relevante el tipo de
tecnología que seleccionemos para refrigerar, ya que nos encontramos frente al
principal ítem en donde podemos realizar la optimización del ahorra de energía.
Una vez seleccionada la topología de refrigeración debemos elegir con que
tecnología refrigeraremos, hay varios métodos, hoy aquí solo mencionaremos el
de expansión directa y el de chilled water, que son los más aplicables a
nuestro mercado latinoamericano.

Sistema de agua enfriada
De ambas alternativas, la más utilizada en la
actualidad es la de expansión directa que presenta ventajas de instalación con
respecto al sistema de chilled water. La decisión de elección de un sistema u
otro dependerá mucho de la proyección de crecimiento del consumo de energía,
para los centros de datos con consumos de energía elevados es recomendable la
instalación de sistemas de chilled water, ya que en el tiempo termina siendo
más eficiente y económica la refrigeración por agua helada. Aquí
deberemos vencer el mito de ‘agua en el data center’, que logrando
instalaciones profesionales, seguras y bien diseñadas no debería generar ningún
inconveniente adicional la adopción de este sistema. Por último, debemos
asegurarnos que los sistemas de refrigeración contemplen un control permanente
de la temperatura y humedad del ambiente y tengan incorporado ventiladores de
velocidad variable que inyecten frio y flujo de aire de acuerdo a las
necesidades que se plantean a lo largo del día. Este método nos permitirá
optimizar el consumo de energía.
Mapa térmico de un centro de datos
4.- Cálculo de potencia requerida.
Definidos los principales componentes, como el sistema de refrigeración y la
potencia deseada por rack, procedemos a calcular el resto de los consumos del
centro de cómputos. Cabe aclarar que, al asignar un consumo por rack, aquí
están incluidos los consumos de servers, storage y comunicaciones. Nos quedaría
dimensionar iluminación, refrigeración de confort, sistemas de extracción de
aire, bombas de extracción de agua si las hubiera o sistemas de detección y
extinción de incendios. Aquí estimaremos la potencia total de la UPS, que como
venimos destacando no es necesario que al inicio instalamos la potencia total
requerida en los próximos 5 o 10 años, sino que de acuerdo al plan de
crecimiento e inversiones lo ideal sería armar un sistema modular y escalable
que vaya creciendo a medida que lo hace el negocio.
Es fundamental establecer el nivel de redundancia
eléctrica requerido, podremos pensar en sistemas N, N+1 o 2N+1, con esta
definición terminaremos de diseñar el sistema eléctrico, podrá implicar que
lleguemos a alimentar cada rack con doble acometida eléctrica de distintos
tableros y distintas UPS, o un sistema mas simple con una sola alimentación y
una UPS, aunque esta última opción elevará la probabilidad de fallas del
sistema. Una vez establecida la potencia total requerida debemos cotejar la
disponibilidad de la misma, ya sea dentro del edificio en el cual se emplazará
el datacenter o la disponibilidad directa de la compañía eléctrica en el caso
de mayores consumos. Por último el sistema de energía deberá prever la
instalación de un grupo generador que actúe en los casos que la compañía
eléctrica interrumpa el servicio, el mismo deberá posibilitar que el 100% del
data center pueda funcionar y ser abastecido por el generador. La norma TIA942
establece para los data center Tier 4 que la generación de emergencia debe ser
concebida con la instalación de 2 grupos generadores que cada uno por si solo
pueda abastecer en 100% de la potencia requerida.
5.- Conectividad. Independientemente del
tamaño del centro de datos debemos pensar cómo estarán conectados e integrados
a la red los servidores, storage o cualquier dispositivo que instalaremos en
cada rack. Existe la posibilidad de instalar y dejar previsto en los racks una
cantidad determinada de cables de cobre y/o fibras que confluyan todos al área
de comunicaciones del data center, en la cual se encontrarán instalados los switches
que nos proveerán de conectividad. El sistema opuesto al descripto
anteriormente prevé la instalación de switches individuales por rack y éstos
conectados por fibra o cobre al switch principal. La elección de una u otra
topología dependerá del tipo y cantidad de dispositivos que instalemos,
requerimientos en cuanto a velocidad, performance y características de
crecimiento.
6.- Layout y espacios requeridos. Con
todas las definiciones y premisas que hemos establecido en los puntos
anteriores, estamos en condiciones de establecer el layout del centro de datos
con los espacios y salas que necesitaremos. Si aspiramos estrictamente a
cumplir con las normas deberíamos pensar en armar un espacio exclusivo
para el alojamiento de los racks de servidores, un espacio diferente para los
de comunicaciones, otro para la sala de UPS, uno para la sala de tableros, un
espacio previo a la sala de servidores para el desembalaje y preparación de
equipos, sala para el ingreso de los carriers de comunicaciones, y una sala de
operadores y monitoreo. Si nos adaptamos a un mercado latinoamericano donde los
espacios son mas reducidos y a proyectos de menor envergadura podemos unificar
en un mismo espacio los racks de servidores y comunicaciones, y en algunos
casos las UPS pueden también instalarse dentro de la fila de racks. En otra
alternativa las UPS y sala de tableros pueden instalarse en un mismo espacio,
permitiendo concentrar así todo lo referente a energía en la misma sala. Con
respecto a la distribución de la sala de servidores, es de suma importancia
establecer el concepto de pasillos fríos y calientes, de esta forma se evita
las mezclas de los distintos aires, (fríos y calientes), permitiendo una mejor
refrigeración y eficiencia.
Layout de un centro de datos
7.- Elección del Lugar. Establecidas las
medidas mínimas requeridas, debemos seleccionar el lugar de emplazamiento que
dependerá del nivel seleccionado. La norma ANSI/TIA-942, por ejemplo, establece
para un Tier4 la utilización de un edificio en forma exclusiva destinado al
datacenter. Si pensamos en un Tier2 o Tier3, se establecen distintas normas de
seguridad y requerimientos que pueden ser cumplimentadas en edificios
prexistentes. Cuando nos encontramos frente a la remodelación de un centro de
cómputos ya existente y en funcionamiento, debemos evaluar seriamente si es mas
conveniente la construcción de una sala nueva en un lugar diferente, ya que en
las remodelaciones se deberá trabajar, por lo general sin interrumpir las
operaciones, con muy poca ‘ventana’ de corte de energía, y con el riesgo de
provocar alguna interrupción involuntaria del servicio durante la obra. Esta
ecuación muchas veces nos orienta al armado de un nuevo datacenter y la
posterior migración de los equipos de procesamiento. Es fundamental acercarnos
a cumplir con los 1200Kg por metro cuadrado que solicita la norma en cuestión
de la resistencia de la losa del datacenter. En la actualidad, equipos de
UPS, racks de servidores y storage están superando los 1000Kg de peso en una
superficie de 0,60 m2 que ocupa un rack.
8.- Sistemas de control y seguridad. Para
resguardar el valor patrimonial y, aún más importante, el valor de los datos,
debemos establecer sistemas de control y seguridad que protejan al datacenter.
Sistemas de detección y extinción de incendios, cámaras de seguridad, controles
de acceso a salas, control de acceso a nivel de racks, detección de fluidos,
control de temperatura y humedad, BMS, etc, son algunos de los ítems a tener en
cuenta para lograr el nivel de seguridad adecuado del edificio.
9.- Valorización del Proyecto y Presupuesto.
Una vez definidos los puntos anteriores, procedemos a la valorización total del
proyecto, en donde estimamos el valor de construcción, provisión e instalación
de cada componente definido, estableciendo y valorizando por cada ítem
distintas alternativas. En esta valorización, no sólo es importante determinar
el valor actual de construcción, sino el valor futuro de mantenimiento, ya sea
el costo del mantenimiento preventivo, correctivo o el consumo eléctrico, de
esta ecuación saldrá la alternativa más conveniente a adoptar. Con la
estimación de los valores de construcción establecidos, debemos cotejarlos con
el presupuesto asignado a la obra. Por lo general, las primeras comparaciones
siempre arrojan un valor superior de obra al presupuesto asignado para el
proyecto. De ser así, debemos ir repasando y ajustando al presupuesto cada uno
de los puntos mencionados en este artículo de manera de llegar al presupuesto
establecido sin resignar prestaciones y niveles de confiabilidad. En ciertas
obras, hemos tenido que ajustar el proyecto y los costos más de 15 veces para
lograr el mejor proyecto de acuerdo al presupuesto asignado.
10.- Confección del Proyecto Final de
Construcción. El proyecto final de construcción debe contener la ingeniería
de detalle que establezca los parámetros y condiciones con las que deberán
cotizar los oferentes las distintas alternativas solicitadas. Debe estar
acompañado, no sólo con una descripción técnica del equipamiento, sino con
planos de construcción civil, tendido de cañerías y bandejas, layout de salas,
diseño unifilar y topográfico de tableros, planos termomecánicos, disposición
de cámaras y puntos de control, detalle de sistemas de incendios, y todos
aquellos planos que faciliten el correcto entendimiento de la obra en cuestión.
Debe contemplarse la mayor cantidad de detalles posibles con el fin de evitar
olvidos o adicionales de obra que surjan por la no especificación de algún
parámetro.
1.
EQUIPOS Y MATERIALES PARA MONTAR UN DATACENTER
Diseño del Centro de
Datos
Para el diseño se
debe saber los equipos que van a ser instalados a fin
De poder ubicarlos
correctamente.
Los equipos que
estarán ubicados en el cuarto de equipos son:
- Un Gabinete estándar de 34 RU para el servicio de voz
(1,7x0, 9x0, 6 m.)
- Un Gabinete estándar de 34 RU para el
servicio de datos
(1,7x0, 9x0, 6 m.)
- Un Gabinete de Servidores de 34 RU (1,1x0,
7x0, 6 m.)
- Una centralita
telefónica (PBX, no apta para montaje en bastidores)
(0,3x0, 3x0, 4x m.)
- Un Switch de
Central (7 RU)
- Un Switch de
24 puertos (1 RU)
- Un Switch de
48 puertos (2 RU)
- Un Router (1
RU)
49
- Tres equipos Gateway GSM
(0,21x0, 15x0, 55 m.) (No apto para
Montaje en
bastidores)
- Un CPU que alojará
a los servidores WEB y Correo
(0,38x0, 18x0, 41 m.)
(No apto para montaje en bastidores)
- Un CPU que será el
servidor de Intranet (0,38x0, 18x0, 41 m.) (No
Apto para montaje en
bastidores)
- Dos Servidores de Almacenamiento de
Información (SQL y FTP)
(C/u de 2 RU)
Aparte se tendrá una
zona delimitada para poder ubicar los equipos
Que no brindan
servicios de telecomunicaciones pero que son
Necesarios para la
infraestructura del Data Center:
- Dos unidades UPS
(salida de 2,9 KW) (0,11x0, 5x0,6 m.) – Se
Instalarán dos porque
la empresa ya contaba con estos equipos y
La carga que ofrecen
es suficiente para el consumo de todo el
Centro de datos ya
que haciendo un cálculo general con todos los
Equipos mencionados
se requerirá una carga aproximada de 2 KW.
- Un tablero
eléctrico (adosable: 0,25x0, 09x0, 34 m.)
- Un equipo de aire
acondicionado y su controlador (Unidad tipo
Ventana empotrado a
la pared, control adosable: 0,3 x 0,09 0,2 x
m.)
El cuarto de entrada
de servicios ha sido contemplado dentro del cuarto
De equipos. Aquí estará
ubicada la entrada de fibra óptica que le
Brindará a la empresa
servicio telefónico a través de un E1 con lo cual
Serán posibles las
llamadas hacia la red de telefonía pública (PSTN).
Además, otros dos
hilos más les darán conexión de datos de alta
Velocidad en la red
de acceso a Internet.
Por lo tanto el
equipo considerado es:
50
- Gabinete de
empalmes de fibra óptica (adosable: 0,3x0, 5x0,2 m.)
- 2 Convertidor de
Medios (M/C) (no apto para montaje en
Bastidores) (0,2x0, 1
m.)
Se construirá un gabinete metálico pasacable
por donde pasarán los
Cables que bajan desde las bandejas que
sirven el segundo piso hasta
Las bandejas colocadas por debajo del falso
piso del data center. A este
Gabinete se le llama montante y su objetivo
es el de proteger los cables
(No dejarlos al descubierto) y dar mayor
estética y orden al cuarto de
Equipos. El montante tendrá una dimensión de
0,7 x 0,9 m.
Dado que en el centro de datos se debe
establecer un área de trabajo,
Se ha considerado cerrar el área donde están
los equipos mediante el
Uso
de una mampara.
Escoger
mamparas por lo inseguro, dentro del centro de datos sí es
Permisible porque el administrador estará en
contacto visual con
Equipos y con cualquier operación que se deba
realizar ahí. Por otro
Lado, la división entre el área de trabajo y
el cuarto de equipos se hace
Para mejorar las condiciones de trabajo de la
persona que estará en
Dicho cuarto ya que la temperatura ambiental
que debe mantenerse en
El cuarto de equipos es fija y muchas veces
no coincidirá con las
Preferencias de una persona. Es por esta
razón que el sistema HVAC
Del cuarto de equipos debe ser independiente
del sistema HVAC que
Sirve a cada piso. Otra razón para delimitar
esta área, es que el ruido
Que generan los equipos y la ventilación de
los gabinetes es
Perturbador para estar en una zona de
trabajo. Por otro lado, gracias a
La mampara se da un grado más de seguridad a
los equipos pues se
Requerirá tener un doble acceso para poder
llegar a ellos.



