Infraestructura y hardware informático

energéticamente eficiente
Ejemplos de las mejores prácticas

















IT e Infraestructura informática en los centros de datos y salas de servidores en su camino hacia la
eficiencia energética
El suministro y la utilización de la energía es uno de los mayores desafíos de nuestro tiempo. Al mismo tiempo, la
tecnología de la información se ha convertido en un elemento indispensable en nuestras vidas. En la
actualidad, el volumen de intercambio de datos se duplica cada dos años.*
Como consecuencia de ello, ambas necesidades - disponer de estructuras informáticas que sean
energéticamente eficientes y, al mismo tiempo, altamente complejas - deben ir de la mano. Los costes de
infraestructura y energía en los centros de datos se han convertido en un factor esencial en la instalación y
gestión de los equipos informáticos.
Esta guía informativa ofrece ejemplos de las mejores prácticas a la hora de aplicar métodos de eficiencia
energética tanto de la infraestructura como del hardware informático. En ella se recogen casos de diferentes
instituciones que proceden tanto del sector público como del privado en los que se muestran cómo se han
llevado a cabo con eficacia ciertas estrategias de eficiencia en equipos informáticos y en centros de datos.









































1) EMC: The Digital Universe Study: Extracting Value from Chaos. June 2011
www.emc.com/collateral/demos/microsites/emc-digital-universe-2011/index.htm

3






Contenido















1

2

3
3.1
3.1.1
3.1.2
3.1.3
3.1.4
3.1.5
3.1.6
3.1.7
3.1.8
3.2
3.2.1
3.2.2
3.2.3
3.3
3.3.1
3.3.2

4
El proyecto Europeo ‘PrimeEnergyIT" 5

Centros de datos eficientes- ¿Qué factores marcan la diferencia? 6

Ejemplos de mejores prácticas 7
Conceptos para la refrigeración y la ventilación natural optimizadas 7
Emerson Network Power Knürr GmbH, Alemania 7
Laboratorio de Física Subatómica y Cosmológica (LPSC), Francia 10
Universidad de Coimbra (UC), Portugal 12
ALTRON, República Checa 14
CSC LOEWE Frankfurt, Alemania 16
Universidad Técnica de Dresden, Alemania 18
Esselunga, Italia 20
Electroson, España 22
Medidas de IT e infraestructuras combinadas 24
Postbank, Alemania 24
regio iT Aachen, Alemania 26
Infracom Italia S.p.A., Italia 28
La contratación pública 30
MatInfo, Francia 30
Helsingin Energia, Finlandia 32

Contacto 34
































4




prime it_brosch_int_CW.indd 4 18.10.12 17:24







1








El proyecto Europeo "PrimeEnergyIT"















La explotación de los elevados potenciales de
ahorro de la infraestructura y el hardware
informático precisa de una acción concertada a
nivel internacional. Hasta hace poco tiempo, en el
año 2007, no se había puesto en marcha una
serie de medidas cuyo fin fuera apoyar el
desarrollo del mercado de los equipos
informáticos centrales energéticamente eficientes.
Por tanto, en comparación con muchas otras
áreas de actividad tecnológica, el apoyo a las
soluciones sostenibles es un fenómeno
relativamente nuevo y su impacto en el mercado
tiene que ser aún mayor.
PrimeEnergyIT apoya el desarrollo y la demanda
del mercado de la infraestructura y el hardware
informático central energéticamente eficiente
suministrando herramientas y servicios
informáticos y administradores de la
infraestructura, asesores y otros expertos
relacionados. Estas herramientas y servicios
incluyen:
▪ Hardware y servicios basados en criterios e
indicadores de eficiencia energética
▪ Directrices sobre equipos
energéticamente eficientes y las
mejores prácticas

▪ Educación y formación de administradores y
expertos en infraestructura e informática
▪ Directrices y criterios sobre contratación y
gestión
La iniciativa PrimeEnergyIT está dirigida por un
consorcio internacional de organismos e
instituciones de investigación nacionales en
cooperación con un grupo de socios asociados
de la industria. El proyecto está financiado por el
programa Energía Inteligente para Europa de la
UE.




































.

5




prime it_brosch_int_CW.indd 5 18.10.12 17:24


2 Centros de datos eficientes – ¿Qué factores marcan la
diferencia?














El consumo de energía está aumentando el
factor de coste en los centros de datos y en las
salas de servidores. El consumo de energía de
la infraestructura y el hardware no ha dejado de
crecer en los últimos años y actualmente
asciende a unos 50Twh/a en la UE. Si se
continúa con la rutina habitual, se prevé que en
poco tiempo el consumo de energía se
multiplique por dos. A pesar del aumento de la
eficiencia que ofrecen las nuevas tecnologías,
los centros de datos necesitan más energía que
nunca. En muchos centros de datos, el
suministro eléctrico y la refrigeración son ya un
factor limitante. Por tanto, los retos a los que nos
debemos enfrentar son enormes.
Sin embargo, las tecnologías de ahorro de
energía ya están al alcance de la mano.
Dependiendo del tipo de proyecto que se lleve a
cabo, los gastos de inversión pueden ser
moderados y el plazo de amortización puede ser
corto, especialmente si se incluyen una serie de
medidas en los ciclos de renovación estándar de
los equipos y la infraestructura.







































6


prime it_brosch_int_CW.indd 6 18.10.12 17:24





3










Ejemplos de mejores prácticas








Los ejemplos de las mejores prácticas que se
recogen en este boletín informativo han sido
recopilados en cooperación con diversos socios
externos de la UE.
Los casos abarcan diferentes tamaños de
centros de datos y salas de servidores que
manejan desde ocho a más de 500 servidores,
para lo cual requieren de 50 a 1.500 kW de
potencia y de 20 a 1.800 m
2
de espacio físico.
Este boletín informativo se centra en las
siguientes tecnologías:
• La refrigeración y la optimización del flujo del
aire
• La ventilación natural
• La combinación de la ventilación natural con
otras medidas energéticamente eficientes
• La optimización energéticamente eficiente de
las redes y el almacenamiento

Hasta la fecha, los centros de datos se han
concentrado principalmente en las medidas a nivel de
infraestructura y de refrigeración. Sin embargo, en la
actualidad, el número de estrategias eficaces tanto
para el servidor como para el almacenamiento de datos
y la red está aumentando.


3.1. Conceptos para la refrigeración y la ventilación natural optimizadas
3.1.1. Emerson Network Power Knürr GmbH, Alemania

Mejora del nivel de temperatura y del flujo de aire en un centro de datos de una corporación financiera en Frankfurt, Alemania


Nombre y ubicación del Centro de
Datos:

Superficie útil:
Número de racks:
Carga eléctrica relacionada (kW):
Fuente de información adicional:
Contacto (email, si lo hubiera):
Frankfurt a. Main, Germany - Corporación
financiera

750 m2
90
540 kW

peter.koch@emerson.com









Antecedentes y motivación para el proyecto
Impulsada por la recesión económica en 2009, la
corporación comenzó a aplicar importantes
medidas de ahorro de costes a corto plazo. El
consumo de energía de los centro de datos se
había señalado como una de las posibles
prioridades. Para poner a prueba esta propuesta,
se eligió la actualización de un entorno de tamaño
medio.
El objetivo era aplicar las medidas durante 3
meses y obtener un período de amortización de
menos de 18 meses después de la inversión
inicial. Una de las condiciones clave era llevar a
cabo cualquier reacondicionamiento de los
componentes sin interrumpir las operaciones del
centro de datos.

La situación inicial en el centro de datos
La figura 1 presenta un esquema general de la
superficie del centro de datos. La refrigeración del
equipo informático lo proporcionan las unidades
periféricas CRAC situadas en el suelo que
suministran aire a través de un suelo elevado y de
baldosas perforadas a los racks del equipo.



Fig. 1 Esquema simplificado de la
superficie del centro de datos





7



prime it_brosch_int_CW.indd 7 18.10.12 17:24
3















La sala principal (750 m²) en un principio se había diseñado para soportar 540 kW carga, lo que supone
una densidad de potencia calorífica muy baja de aproximadamente 750 Wm². En realidad, los racks se
habían alimentado a un promedio de densidad de potencia media de 6 kW. Por tanto, la energía
disponible solo es suficiente para 90 racks, dejando vacía casi la mitad de la sala. Como consecuencia de
ello -y con el fin de proveer el suficiente aire fresco-, se habían desplegado una serie de amplios pasillos
fríos especiales. Sin embargo, el sistema tenía que funcionar con un nivel bajo de temperatura de aire de
refrigeración de aproximadamente 16 ° C con el fin de mitigar los puntos calientes que se formaban en la
parte superior del rack.
A lo largo de dos paredes y de la línea central de la sala se instalaron varias unidades CRAC de 14 años
de antigüedad refrigeradas por agua. Las unidades estaban equipadas con ventiladores de velocidad fija,
cuyo consumo de energía era de 71,5 kW - 13,2 de la carga informática. Esto suponía una proporción
enorme, si la comparamos con las soluciones más punteras que existen en la actualidad. A un nivel de
coste de 0,137 euros por kWh, los gastos anuales por consumo de las unidades CRAC ascendieron a
85.800 euros.




Fig. 2 Concepto de isla fría / isla caliente














Medidas para la optimización del sistema
Para lograr la máxima eficiencia energética, la
solución pasa por integrar tres elementos
fundamentales:
• una separación precisa entre el suministro de
aire frío y el aire de retorno caliente
• un suministro del aire impulsado por la demanda
• un punto de ajuste al máximo posible de la temperatura del
aire frío (con el fin de ampliar los períodos de ventilación
natural)


Teniendo en cuenta estas condiciones - un pasillo
frío especial de 3.600 mm de ancho- no era
posible instalar una contención de pasillo frío
estándar. Se concibió una estructura especial,
utilizando marcos y puertas de rack estándar, para
fijar unas extensiones de 600 mm de profundidad
delante de los racks (véanse figuras 2 y 3). Las
extensiones capturan el aire que emana desde el
suelo elevado y lo envía a los equipos que se
encuentran en los racks. Para evitar que el aire
circule de nuevo a través de los racks, se cierra
cualquier ranura que permanezca abierta
mediante paneles ciegos. De ese modo, todo el
flujo de aire frío se canaliza a través de los
componentes informáticos, se evita cualquier tipo
de recirculación de aire caliente y se eliminan
completamente los puntos calientes.
Para posibilitar el control del flujo de aire, los
ventiladores que se encontraban en las unidades
CRAC tuvieron que ser sustituidos por
ventiladores EC controlados por velocidad.
Comparados con los ventiladores convencionales,
los ventiladores EC son superiores en cuanto a su
eficiencia energética cuando operan a máxima
velocidad. Además, se puede conseguir un
notable ahorro energético controlando la velocidad
de los ventiladores. ¡A un ajuste de velocidad de
50, el consumo de los ventiladores EC equivale a
una octava parte del consumo ajustado a 100!
También se diseñó e implementó un sistema de
control basado en un PLC para utilizar lecturas de
sensores de temperatura en las extensiones de
rack con el fin de controlar la velocidad del
ventilador en las unidades CRAC. Las 14
unidades CRAC

operan en paralelo con el fin de proporcionar la máxima
eficiencia energética.
Mediante el control de velocidad del ventilador, el
sistema se adapta continuamente a la verdadera
demanda de refrigeración del equipo informático.
Si falla una unidad CRAC, las demás unidades
aumentarían su velocidad para mantener el flujo
de aire necesario.
Como resultado de las medidas adoptadas, el
promedio de velocidad de los ventiladores se
redujo a menos de 50, proporcionando así un
ahorro notable de energía, tal y como se describe
más abajo.







8




prime it_brosch_int_CW.indd 8 18.10.12 17:24
3 Ejemplos de mejores prácticas
















Como consecuencia de esta separación
coherente del aire, la temperatura del suministro
de aire frío podría ascender de 16 a 22 ° C. En
este caso, esto solo se tradujo en algunas
mejoras en la eficiencia del sistema de
enfriamiento. La disposición del sistema existente
de enfriamiento por agua tuvo que permanecer
inalterable, y eso hizo que no se pudiera sacar
partido de la amplia ventilación natural. Sólo el
tiempo de operación del sistema de refrigeración
por aire fresco existente podía extenderse a
temperaturas más elevadas, y proporcionar así
cierto ahorro.

Aspectos esenciales y factores de éxito del
caso:
En este caso se identificaron tres factores
cruciales:
1. La capacidad para diseñar una estructura
especial de separación del aire en una sala un
tanto especial: basada en componentes
estándar.
2. La capacidad para implementar los añadidos y
los cambios en el centro de datos durante una
operación ininterrumpida, basada en los
componentes y en las tecnologías apropiadas
y en un sofisticado procedimiento de
aplicación.
3. La capacidad para proporcionar predicciones
fiables sobre costes y ahorros factibles con el
fin de obtener el beneficio económico
esperado.

Otro aspecto importante fue la aprobación del
diseño por parte de la VdS (asociación alemana de
seguros de incendios).


















Eficacia económica de las medidas
La principal consecuencia que tuvieron las
medidas aplicadas fue una reducción sustancial
del consumo de energía de las unidades CRAC.
Esto se basó hasta cierto punto en la mayor
eficiencia energética de los ventiladores CE, pero
principalmente se debió a la demanda energética
del control de velocidad de los ventiladores de las
unidades CRAC. Por término medio, los
ventiladores funcionaron a una velocidad de entre
40 y 50 y el consumo medio de energía total fue
de 4,8 kW: solo un 0,9 de la carga informática. Si
lo comparamos, anteriormente el consumo
energético era de 71,5 kW: un 13,2 de la carga
informática.

El ahorro anual total alcanzó los 80.000 euros en
costes de electricidad. Además, se ganaron otros
70.000 euros del nivel de temperatura elevada. El
ahorro anual total fue de 150.000 euros.

Casualmente, la inversión total es igual a los
ahorros anuales: 70.000 euros por haber
reemplazado el ventilador,
45.000 euros por las extensiones de racks y
35.000 euros por el sistema de control y
monitorización - 150.000 euros en total.
Periodo de amortización: 1 año


















Recomendaciones para buenas prácticas
futuras
Las normas generales son sencillas y las
repetimos de nuevo:
- separación coherente entre el suministro de aire
frío y el suministro de aire caliente
- suministro del aire inducido por la demanda
- el punto de ajuste de la temperatura de aire frío
más alto posible
(con el fin de ampliar los períodos de ventilación
natural)

En los casos reales, la implementación puede
resultar más complicada de lo esperado. En
cualquier caso, previamente se debería llevar a
cabo un análisis completo - tanto técnico como
económico - por parte de un grupo de expertos.
En muchos casos, se pueden tomar medidas
eficaces en instalaciones ya existentes. Cualquier
expansión que se lleve a cabo en los centros de
datos durante la operación se debería dejar en
manos de personas que sepan exactamente lo que
hay que hacer.























9




prime it_brosch_int_CW.indd 9 18.10.12 17:24
3
















3.1.2. Laboratorio de Física Subatómica y Cosmología (LPSC), Francia

Enfriamiento directo



Superficie útil:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementación:
Categoría de Tier:
Contacto:
20 m2 (racks) and 20 m2 (instalaciones)
8
60 kW
2008 y 2011
II
boutherin@lpsc.in2p3.fr



Introducción
Los servicios informáticos para el laboratorio
incluyen web, correo electrónico, acceso externo,
bases de datos y almacenamiento. La mayoría de
los servicios están virtualizados con VMWARE (3
servidores vmware, redundancia en la fuente de
alimentación, servidores impulsado por un UPS
(30 kVA)) Los recursos para la red de
computación LHC (WLCG) son: el LPSC
proporciona recursos para la WLCG en el centro
de tier 2. (700 núcleos, 700 Tb (brutos)).La sala
de computación LPSC utiliza el modo de
ventilación natural dual: el 85% de las veces,
cuando la temperatura exterior es inferior a 25 ° C
se puede utilizar una ventilación natural de aire
directo y el tiempo restante se utiliza ventilación
natural de agua y aire. El principio de la
ventilación natural directa por aire es muy
sencillo: para enfriar los servidores de producción
y el almacenamiento cuando la temperatura
exterior es inferior a 25 ° C, que es alrededor del
85% de los días en Grenoble, el aire se aspira del
exterior y se utiliza directamente para enfriar los
servidores. A continuación, el aire que sale por la
parte posterior de los servidores se envía de
nuevo al exterior. Hay una separación completa
del flujo de aire caliente y de aire frío. Cuando la
temperatura exterior es demasiado baja, en
nuestro caso inferior a 13 ° C, para evitar el envío
de aire helado sobre los servidores, una válvula
de recirculación inyecta un porcentaje del aire
caliente que procede de la parte trasera de los
armarios, mezclándolo con el aire exterior para
regular la temperatura de entrada hasta alcanzar
un punto de referencia de 13 ° C.Ventilación
natural por aire-agua: cuando la temperatura
exterior es superior a 25 º C el aire se sigue
tomando del exterior para enfriar los servidores,
pero primero se enfría a 25 º C mediante un
sencillo intercambiador de agua-aire. El agua fría
se bombea de las aguas subterráneas.



Medidas para la optimización del sistema
1. Control del flujo de aire
El primer objetivo para controlar el flujo de aire es
evacuar la máxima cantidad de calor. El flujo de
aire que entra en el sistema desde fuera es igual
al flujo de aire caliente evacuado. En un flujo de
aire dado, la cantidad de calor evacuado depende
de la diferencia de temperatura que existe entre
el flujo de entrada y el flujo de salida; DeltaT en la
ecuación (1). De ello se desprende que el aire de
salida no debe mezclarse con el aire frío antes de
la evacuación, ya que esto reducirá el valor de
Delta T, y se reducirá la potencia disipada por el
sistema.El segundo objetivo para controlar el flujo
de aire era tener una temperatura uniforme en el
pasillo frío. Tal y como se explicó anteriormente,
queríamos utilizar una ventilación natural directa
por aire, siempre y cuando la entrada de aire
tuviera una temperatura inferior a 25 º C. Nos
dimos cuenta de que ese era un factor muy
importante para asegurarnos de que la
temperatura en el pasillo frío fuera uniforme.
Observamos que en nuestro sistema original
había algunas zonas que la temperatura
sobrepasaba esa marca en más de 7 º C.

Para garantizar una refrigeración correcta nos
vimos obligados a bajar debidamente la
temperatura de transición, reduciendo así el rango
sobre el cual se podría utilizar la ventilación
directa por aire, ya que en Grenoble la
temperatura exterior es inferior a 18 º C, lo que
equivale a solo el 60% del tiempo.
¿Cómo se controla el flujo de aire? Colocamos un
separador alrededor de los armarios que aislaba
el pasillo frío de la parte trasera de los armarios.
Los racks que no tengan ningún equipo están
dotados de paneles de obturación. Los laterales
de los armarios fueron aislados con tiras de
espuma. Esto fue suficiente para eliminar los
puntos calientes descritos arriba.

2. Humedad
El primer punto a tener en cuenta es que el
hardware moderno es mucho más robusto que el
que había hace solo unos años. Por tanto, se
puede tener un rango de temperatura y humedad
más amplio. Además, los rápidos avances en
tecnología nos obligan a renovar nuestro equipo,
tanto para mejorar el rendimiento como el
consumo de energía, cada tres años y casi nunca
tienen más de 5 años. En consecuencia se
sustituye el equipo antes de que sufra una
degradación significativa.
Una excepción de esta regla son las unidades de
cinta magnética, que necesitan una regulación de
la humedad, pero no tenemos ninguna en el
LPSC, ya que nuestra copia de seguridad se
envía a la CCIN2P3 través de la red. Las
unidades de cinta necesitan un control de la
humedad más exhaustivo que el previsto por la
ventilación natural.
No obstante, hay que tener en cuenta dos límites
de la humedad. Un nivel de humedad elevado
puede producir condensación, y cuando la
humedad es demasiado baja se pueden observar
problemas electrostáticos.


10


prime it_brosch_int_CW.indd 10 18.10.12 17:24
3 Ejemplos de mejores prácticas






La condensación se puede producir cuando la
humedad exterior es elevada Y la temperatura
exterior es alta. Cuando la temperatura exterior
es tanta que se hace necesario enfriar el aire
antes de enviarlo a través de los servidores, es
posible que lleguemos al punto de saturación del
aire. Pero esto sólo se observa en la posición del
intercambiador agua-aire, que es el punto más
frío. En todos los demás puntos, la temperatura
aumenta y, por tanto, disminuye la humedad. El
problema se resolvió de forma sencilla
añadiendo una recuperación de condensado al
nivel del intercambiador de calor agua-aire.
Todavía no se han observado problemas de
funcionamiento debidos a la electricidad estática.
La solución sería colocar los armarios y los racks
sobre un suelo antiestático, y garantizar que se
encuentren instalados en el mismo de manera
individual.







Eficiencia económica de las medidas
Desde marzo de 2008, el LPSC no experimentó
ninguna interrupción de la producción que
estuviera asociada con el sistema de
refrigeración. Al principio del proyecto, como
consecuencia de un retraso en la disponibilidad
del intercambiador agua-aire y del sistema de
flujo de aire dirigido, el LPSC operó sin él durante
dos meses de invierno (marzo y abril). Un
problema con la refrigeración no tiene impacto en
la producción si la temperatura es inferior a 25 °
C: el 85% del tiempo. Este problema tendrá un
impacto reducido el 13% del tiempo, cuando la
temperatura es de entre 25 ° C y 33 ° C porque
el ordenador puede operar hasta los 33 ° C sin
sufrir daños.
Los gastos de refrigeración se dividieron por 10.
La ventilación natural permite ahorrar más del
90% de la energía necesaria para enfriar la sala
si la comparamos con los métodos
convencionales. El servidor de almacenamiento y
el consumo de electricidad actualmente es de 60
kW. La potencia del ventilador es de 2 kW para
un caudal de aire de 16 000 m3 / h





La potencia máxima del ventilador es de 3 kW para
un caudal máximo de 23.000 m3 / h. Cuando se
utiliza el intercambiador agua-aire puede emplear
un flujo máximo de agua de 20 m3 / h. En el LPSC,
se bombea agua para emplearse en varios
experimentos y no sólo para la refrigeración de los
ordenadores. Estimamos que el gasto de bombeo
cuando se está utilizando el intercambiador agua-
aire es inferior a 3 kW.
El consumo de energía eléctrica para la
refrigeración de 60 kW es
▪ 2 kW el 85% del tiempo en modo de ventilación
natural directa por aire
▪ 5 kW el 15% del tiempo en modo ventilación
natural agua-aire
Por lo tanto, los costes de refrigeración medios son
de 2,45kW. El coste de refrigeración es sólo el 4%
del consumo total de electricidad


La siguiente tabla muestra el consumo energético del sistema antiguo y del nuevo
Consumo de energía y utilización de la informática
Sistema Nueva instalación


Consumo de energía 525,600 kWh/a (60kW)
Resumiendo, el consumo de energía eléctrica para la
refrigeración de 60 kW es:
Eficiencia energética a nivel de infraestructura
basada en indicadores estandarizados
PUE= 1.078 (0.045 enfriamiento y 0.033
UPS)

• 2 kW el 85 % modo de ventilación natural directa
Utilización de la informática CPU media 50% pico 100%
Una parte importante del consumo se
debe al almacenamiento dondeutilización



Environmental conditions

System New installation

Ambient temperature 13 to 23 °C front
23 to 39 °C rear
Equipment intake temperature 13 to 23 °C front
Relative humidity 10 % to 80 % RH (rarely << 0.5 % 85 % RH)
• 5 kW el 5 % del tiempo en modo ventilación natural
agua-aire

Por lo tanto la demanda media de refrigeración es
de 2.45 kW. El coste de refrigeración es solo el
4% del consumo total de electricidad.

Lecciones aprendidas:
Durante el periodo de funcionamiento, el LPSC ha
sido capaz de mejorar su rendimiento. Hay dos
untos que spon especialmente importantes:
• El flujo de aire que entra en el sistema debe
controlarse completamente
• Es necesario identificar los problemas que
presenta el nivel de humedad.





11




prime it_brosch_int_CW.indd 11 18.10.12 17:24
3




















3.1.3. Universidad de Coimbra (UC), Portugal

Refrigeración indirecta



Superficie útil:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementación:
Categoria de Tier:
Información adicional:
Contacto:
66 m2
132
66.3 kW
2008 y 2010
6E
Carlos Patrão / ISR-UC
carlospatrao@isr.uc.pt




Introducción
El "Laboratorio de Computación Avanzada" (LCA)
de la Universidad alberga una de las
supercomputadoras más potentes de Portugal,
"Milipeia", y proporciona tiempo CPU a través de
la presentación de proyectos de investigación a
científicos procedentes de 14 universidades e
institutos de investigación de Portugal. Los
investigadores de FCTUC han participado
activamente en la investigación, que requiere
HPC: Física de la Materia Condensada, Física de
Partículas, Cromodinámica Cuántica de Redes,
Química Cuántica y pliegue/despliegue de
proteínas. Un grupo de expertos en Física de la
Materia Condensada son los co-creadores de
OCTOPUS, un código TDFT muy utilizado que
actualmente forma parte de la suite de referencia.

Medidas para mejorar la eficiencia
Se instaló un sistema free-cooling de alrededor de
170.000 BTU/hora.
Cuando la temperatura exterior es inferior a la
temperatura interior (principalmente por la noche
y/o en invierno), el aire frío del ambiente se
desplaza hacia el interior del centro de datos para
llevar a cabo la refrigeración mientras el sistema
convencional de refrigeración mecánica está
apagado (o en modo de espera).

Ya que los ventiladores, los humidificadores o
deshumidificadores y los controles son los
únicos componentes que consumen energía, los
economizadores de aire son una gran opción
para ahorrar energía.
El concepto de medición se basa en un
seguimiento del consumo de energía (cada 15
minutos durante una semana). Los puntos de
medición del consumo de energía fueron el
panel integrado del centro de datos y el panel de
climatización.

Eficiencia económica
El equipo estaba financiado al 100% por un
proyecto de ley promulgado por el gobierno luso
dentro del programa de DSM portugués.
Los gastos de instalación del sistema se cifraron
en alrededor de € 6.040 (el 50% financiado por
el proyecto de ley).
Teniendo en cuenta los incentivos financieros, la
recuperación de la inversión se estimó en
alrededor de un año.










12



prime it_brosch_int_CW.indd 12 18.10.12 17:24




3 Ejemplos de mejores prácticas











Consumo de energía y utilización de la informárica


Sistema

Consumo de energía

Antiguo

760 MWh/año

Nuevo

670 MWh/año

Mejora

Ventilación natural
90 MWh/año
Eficiencia energética a nivel de
infraestructuras basada en indicadores
eandarizados
PUE = 1.64 PUE = 1.44 0.20
Utilización de la informática Pico: 82.1 %
Media: 72.8 %






Condiciones medioambientales


Sistema

Antiguo

Nuevo
Temp ambiente 22 °C 22 °C
Temp de entrada del equipo 27 °C 27 °C
Humedad relativa

50 % - 70 % 80 %



















Diagrama de carga del sistema AVAC del 15/11/2008 al 22/11/2008

Lecciones aprendidas

La ventilación natural en sí misma no es
completamente natural, ya que se necesitan
algunos componentes que consumen energía,
como los ventiladores y las bombas, para llevar a
cabo el trabajo de diseño. Sin embargo, la ventaja
que ofrecen es que la energía utilizada por estos









Diagrama de carga del centro de datos (sin AVAC) entre el 14/11/2008 y 21/11/2008


13




prime it_brosch_int_CW.indd 13 18.10.12 17:24
3














3.1.4. ALTRON, República Checa

Refrigeración indirecta



Superficie útil:
Número de servidores/racks:
Carga eleéctrica relacionada:
Periodo de implementación:
Categoría de tier:
Información adicional:
Contacto:
1 800 m2
300
1 150 kW
2010 – 2011
III
Altron a.s.
+420 261 309 111




Introducción
ALTRON es un centro de datos y una sala de
computación europea que también alberga a otras
actividades empresariales como empresa
consultora y proveedor de soluciones integrales,
con amplia experiencia en más de 200
instalaciones de todo el mundo. ALTRON ofrece
un ciclo de vida completo a soluciones de extremo
a extremo de centros de datos.

Medidas para mejorar la eficiencia
Un cliente se dirigió a ALTRON para solicitar la
renovación, actualización y mejora de uno de sus
centros de datos. Las unidades de aire
acondicionado interior de su centro de datos se
acercaban al final de su ciclo de vida y, además,
operaban con un PUE aproximado de 2,01, una
cifra que era superior a los estándares actuales.
El centro de datos presentaba otros problemas:
su disponibilidad era relativamente baja y sus
sistemas de energía resultaban insuficientes y
estaban obsoletos. El cliente quería un realizar
ahorros a largo plazo, sabiendo que los costes de
energía seguirían ascendiendo con la misma
rapidez de siempre y que, al mismo tiempo,
aumentaría la eficiencia general y la
disponibilidad.

Después de hablar con ALTRON, se diseñó un
proyecto que podría satisfacer las necesidades
del cliente. El proyecto fue concebido con el fin de
mantener lo más bajo posible los gastos de
renovación y de actualización (reduciendo gastos
mediante la mejora y el cambio de lo que era
necesario).




La clave del proyecto fue implementar un nuevo
sistema de refrigeración que sustituyó al
ineficiente sistema de agua enfriada mediante
una combinación del sistema DX y de la
ventilación natural (AHECs - Sistema de
Refrigeración ALTRON de Alta Eficiencia), capaz
de aprovechar el aire exterior para mantener
frescas las salas de datos sin necesidad de
utilizar grandes cantidades de energía. El sistema
también puede adaptarse de manera automática,
alternando los sistemas de refrigeración según
sean las condiciones ambientales externas e
internas (este sistema se basa en un algoritmo
diseñado por ALTRON).

Los principales beneficios de estas medidas
deben ser:
▪ un mayor nivel de disponibilidad del sistema
al Tier 3
▪ una mejora en el nivel del servicio durante
la operación
▪ un incremento de la eficiencia del sistema
de refrigeración y un menor consumo de
energía del sistema de refrigeración.

La clave del proyecto fue implementar un nuevo
sistema de refrigeración que sustituyó al ineficiente
sistema de agua enfriada mediante una
combinación del sistema DX y de la ventilación
natural (AHECs - Sistema de Refrigeración
ALTRON de Alta Eficiencia), capaz de aprovechar
el aire exterior para mantener frescas las salas de
datos sin necesidad de utilizar grandes cantidades
de energía. El sistema también puede adaptarse
de manera automática, alternando los sistemas de
refrigeración según sean las condiciones
ambientales externas e internas (este sistema se
basa en un algoritmo diseñado por ALTRON).

Los principales beneficios de estas medidas
deben ser:
▪ un mayor nivel de disponibilidad del sistema
al Tier 3
▪ una mejora en el nivel del servicio durante la
operación
▪ un incremento de la eficiencia del sistema de
refrigeración y un menor consumo de
energía del sistema de refrigeración.

Eficiencia económica de las medidas
La nueva instalación produjo un ahorro de energía
de 5,04 GWh por año. El ahorro total de los gastos
de funcionamiento ascienden a 15,12 millones de
CZK por año.





14




prime it_brosch_int_CW.indd 14 18.10.12 17:24


3 Ejemplos de mejores prácticas
















La siguiente tabla muestra el consumo de energía y utilización de la informática del nuevo y el antiguo sistema


Consumo de energía y utilización de la informática


Sistema

Consumo de energía ICT y NO-ICT

Antiguo

20.25 GWh/año

Nuevo

15.21 GWh/año

Mejora

5.04 GWh/año
Consumo de energía ICT 10.07 GWh/año 10.07 GWh/año –
Eficiencia energética a nivel de
infraestructura basada en indicadores
estandarizados
2.01 PUE 1.51 PUE 0.5 PUE


Lecciones aprendidas
▪ Altron s.a. identificó los siguientes elementos clave
y los factores de éxito del caso:
▪ Revisión detallada del centro de datos, lo cual
permitió establecer la situación actual y añadir las
mejoras necesarias.
▪ AHECs - sistema de refrigeración de diseño
propio de alta eficiencia, lo que permitió un gran
ahorro teniendo en cuenta las condiciones del clima
adecuadas.
▪ Cambiar el formato de las unidades y de los
equipos existentes para otras tareas, minimizando
los gastos de capital y reduciendo los gastos
operativos
▪ Aumentar el nivel TIER de los centros de
alojamiento.


























15




prime it_brosch_int_CW.indd 15 18.10.12 17:24
3
















3.1.5. CSC LOEWE Frankfurt, Alemania

Refrigeración pasiva y energía renovable en los centros de datos




Superficie útil:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementación:
Información adicional:

Contacto:
120 m2
34
416.78 kW
2010
Dr. Peter Koch
Emerson Network Power Knürr GmbH
peter.koch@emerson.com





Introducción
Las supercomputadoras son esenciales para la
investigación y la industria. Debido a su alto
rendimiento, son también grandes consumidoras
de energía y una de las fuentes más importantes
a nivel mundial de emisiones de CO2. La
supercomputadora LOEWE CSC afronta este
problema mediante una amplia aplicación de
elementos de refrigeración pasiva (mejorando así
la Efectividad del Consumo de Energía) y
mediante el aprovechamiento de la energía
generada en la estación de biogas y en la central
de incineración de residuos locales.

Medidas para mejorar la eficiencia
LOEWE-CSC es un clúster híbrido compuesto por
826 nodos de computación en 34 racks. De ellos,
786 nodos de computación están equipados con
dos CPU AMD Magny-Cours de 12 núcleos y un
GPGPU AMD Radeon HD 5870 cada uno (nodos
GPGPU). Para lograr una densidad de integración
elevada, dos nodos están montados sobre un
chasis de dos unidades de altura, que contiene
fuentes de alimentación redundantes. Cada nodo
está equipado con 32 GB de memoria principal
por CPU. En total, el sistema consta de 20.768
núcleos de CPU y 786 GPGPUs que trabajan
sobre una memoria principal de 55,4 TB. El
LOEWE CSC se utiliza con fines de investigación:
Neurociencia, física de alta energía, etc.
En la fig. 1 se muestra un esquema del sistema
de agua enfriada en el sitio. El agua fría la
proporcionan dos torres de refrigeración.

El sistema de refrigeración contiene sólo cuatro
componentes de propulsión eléctrica: una bomba
principal (6 kW), una bomba secundaria (28kW) y
dos ventiladores situados en las torres (4,5 kW
cada uno). La Figura 2 muestra la fila de
bastidores que se encuentra en el centro de
datos.
La puerta trasera del rack de servidores contiene
un intercambiador de calor profundo de 65 mm
(se muestra en la fig. 2) capaz de enfriar hasta 35
kW de calor. Los intercambiadores de calor están
diseñados de tal manera que la presión del aire
que incide sobre la bobina es muy baja (~ 20 Pa)
y los ventiladores del servidor pueden generar la
suficiente sobrepresión como para conducir el
aire en un volumen adecuado.

A continuación, el aire frío se libera en la
habitación. Los servidores están colocados "de
adelante hacia atrás", de tal modo que el
servidor recibe el aire refrigerado desde la parte
trasera del servidor anterior. Todos los
servidores están preparados para funcionar a
temperaturas de hasta 35 ° C. La temperatura
ambiente puede llegar a ascender a 33 ° C en
las peores condiciones. La carga de calor medio
por rack es de 12,2 kW. La densidad de calor
total es de 3,47 kW/m2.

Eficiencia ecónomica de las medidas
En comparación con un centro de datos tradicional de
tamaño similar (con un PUE de 2,00) el LOEWE CSC ahorra
3,37 GWh al año, lo que supone un ahorro anual de
alrededor de 462.000 €.







16




prime it_brosch_int_CW.indd 16 18.10.12 17:24
3 Ejemplos de mejores prácticas















La siguiente tabla muestra el consumo de energía y utilización de la informática del nuevo y el antiguo sistema


Consumo de energía y utilización de la informática


System

Consumo de energía 3.65 GWh/a, 10 MWh/d
Eficiencia en infraestruc
basada en indicadores
Eficiencia energética a
nivel IT basada en
indicadores
PUE = 1.076


740.78 MFLOP/W
Utilización IT Pico: 91 %
Media: 71 %


Lecciones aprendidas
La utilización constante de elementos de refrigeración
pasiva y la reducción al mínimo de los componentes
eléctricos en el circuito de refrigeración reduce
notablemente el consumo de energía (PUE de 7,4% del
consumo de energía informático). Además, la
reducción del número de componentes en el sistema
de refrigeración da lugar a una mayor fiabilidad y a
unos gastos de mantenimiento reducidos.
.

Los ventiladores que se encuentran en las torres
de refrigeración se pueden regular hasta los 15 °
C, ya que no se necesitan a temperaturas
inferiores a 15 ° C ("ventilación natural"). Las
torres de refrigeración también utilizan el principio
de refrigeración por evaporación. Cada rack
contiene también un microcontrolador autónomo
basado en Linux, que supervisa la temperatura
del aire y del agua y ajusta debidamente

el rendimiento de la refrigeración de tal modo que
el rendimiento de refrigeración se ajuste de forma
precisa a la carga de calor. El circuito principal
puede estar equipado con una tercera torre de
refrigeración con el fin de aumentar la capacidad
de refrigeración y mejorar la PUE a 1049. El
circuito secundario ya está diseñado para soportar
900 kW de carga térmica.





17




prime it_brosch_int_CW.indd 17 18.10.12 17:24


3















3.1.6. Universidad Técnica de Dresde, Alemania

Refrigeración por agua y en rack en centros de datos de alto rendimiento



Superficie útil:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementación:
Información adicional:

Contacto:
450 m2
62
900 kW
2010
Dr. Peter Koch
Emerson Network Power Knürr GmbH
peter.koch@emerson.com





Introducción
El entorno informático de la educación e
investigación universitaria moderna, como la que
dispone la Universidad Técnica de Dresde,
necesita un elevado rendimiento informático y un
mucho espacio para el almacenamiento de datos.
Los servidores y los sistemas de discos presentan
un alta demanda de energía tanto para la
operación de sus equipos informáticos como para
su refrigeración y, por tanto, es un factor crucial
hacer un uso eficaz de la energía en estos
sistemas.

Medidas para mejorar la eficiencia
El sistema informático se compone de dos partes
principales: una granja de ordenadores Deimos
(2576 núcleos de CPU en funcionamiento por
lotes con procesadores LSF, AMD Opteron x85
(doble núcleo) ) y SGI Altix (2048 núcleos de
procesadores Intel Itanium II Montecito de 1,6
GHz) . Altix, que en noviembre de 2006 alcanzó la
posición 49 en el Top 500, se utiliza
principalmente para aplicaciones altamente
paralelas de memoria intensiva. La granja de
ordenadores Deimos alcanzó la posición 79 en
junio de 2007 y se utiliza para disfrutar de
capacidad informática. La sala del SGI Altix se
enfría por medio de las unidades CRAC y la
granja de Deimos utiliza un rack de refrigeración
de arquitectura cerrada (Knurr CoolTherm). Los
intercambiadores de calor se encuentran en la
parte inferior del rack .

La fuente de energía para la refrigeración por
agua la proporciona la distribución de calefacción
urbana. Esta solución utiliza el calor residual
durante los meses de verano cuando no hay
necesidad de agua caliente para la calefacción
de los hogares. El agua caliente (100 ° C / 89 °
C) se conduce a dos refrigeradores por absorción
York (505 kW cada uno), ubicados en el sótano
del edificio. Los refrigeradores por absorción
tienen un coeficiente de rendimiento de 0,7. Los
refrigeradores están conectados a las torres de
refrigeración en la parte superior del edificio.

Las torres de refrigeración utilizan el principio de
refrigeración por evaporación y de ventilación
natural. En la refrigeración mixta, la ventilación
natural se utiliza a temperaturas exteriores por
debajo de los 15 ° C. La ventilación natural pura se
puede aplicar durante unos 30 días al año. Las
temperaturas previstas para la refrigeración de la
arquitectura en rack cerrado son de 14 ° C / 20 ° C
(agua fría) y 21 ° C para la arquitectura abierta
(aire de refrigeración). La figura 3 muestra el rack
CoolTherm para la refrigeración basada en rack.






18



prime it_brosch_int_CW.indd 18 18.10.12 17:24



3 Ejemplos de mejores prácticas














Eficiencia económica de las medidas
La siguiente tabla muestra el consumo de energía
y la eficiencia del sistema de refrigeración. El nivel
medio de utilización de la informática es de
aproximadamente un 55% con picos de hasta un
85%. El consumo de energía anual es de unos
7,57 GWh. Este concepto permite lograr un PUE
de alrededor de 1,5. El PUE original era de
aproximadamente 2,0. la eficiencia energética
relacionada de la informática es de
aproximadamente 31 MFLOP por vatio.


La siguiente tabla muestra el consumo de energía y utilización de la informática del nuevo y el antiguo sistema


Consumo de energía y eficiencia energética del concepto


Sistema

Consumo de energía 7.57 GWh/a, 20.76 MWh/d


En comparación con un centro de datos tradicional de tamaño
similar que no utiliza e calor residual, este ahorro
aproximadamente 55.000€/año (el precio de la electricidad es
0,137€/kWh, del calor 0,060€/kWh)
Eficiencia energética a nivel de infraestructura
basado en indicadores

Eficiencia energética a nivel IT
basado en indicadores
PUE = 1.505


30.86 MFLOP/W
utilización IT Pico: 85 % Media:
55 %


Lecciones aprendidas
El elemento clave de este concepto mejorado es la
utilización del agua para la refrigeración en un
modelo de arquitectura en rack cerrado (Knurr
CoolTherm).
El segundo elemento clave que contribuye a la
mejora del PUE es el uso de la ventilación natural
y la utilización del calor "residual" procedente de la
calefacción urbana. Este método ha permitido
mejorar significativamente el PUE global de las
instalaciones.
Respecto al modelo tradicional en el que se utilizan
las unidades CRAC (empleado para la
refrigeración de la SGI Altix) el PUE fue de
aproximadamente 2,0. A partir de la eficiencia
global actual (teniendo en cuenta la combinación
de la arquitectura abierta y cerrada), con un PUE =
1.505, se puede calcular un rendimiento
aproximado de la arquitectura cerrada de
enfriamiento de PUE = 1,28.










19




prime it_brosch_int_CW.indd 19 18.10.12 17:24

Sistema

Consumo de energía

Antiguo

1 000 000 kWh/y
2 700 kWh/d

Nuevo

n. a.
Indicador estandarizado PUE = 1.85 PUE = 1.30
al 100 % de carga
Utilización de la informática


Media: 30 %
Pico: 50 %
Media: 30 %
Pico: 50 %


Sistema

Temperatura ambiente

Antiguo

23 °C

Nuevo

25 °C
Humedad relativa 50 % 50 %
Punto de referencia 20 °C 24 °C

3


















3.1.7. Esselunga, Italia

Nuevo centro de datos



Superficie útil:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementación:
Categoría tier:
Contacto:
240 m2
43 racks, 110 seridores
80 kW
2011
III/IV
Esselunga, IT manager, Mr. Enzo Greco




Introducción
Esselunga S.p.A. es una cadena italiana de
tiendas. Fue la primera cadena de supermercados
de Italia y la primera en introducir las compras en
línea y la producción propia de productos
orgánicos. La compañía, que cuenta con más
20.000 empleados y 140 tiendas, tuvo una
facturación de 6,3 mil

Consumo de energía y utilización de la
informática















Condiciones ambientales





millones de euros en 2010. Esselunga controla cerca del
10% del mercado italiano de distribución de comestibles.
Está clasificada como la cuarta empresa más rentable del
sector minorista europeo (en proporción a su tamaño) y es
la decimotercera empresa más grande de Italia.






Medidas para la optimización del sistema
▪ Edad media de los equipos según el tipo: 2,5 años
(5 años de producción informática)
▪ Edad media de los equipos de la instalación según
el tipo (equipos de refrigeración y de distribución de
energía): nuevos
▪ Detalles de la refrigeración y del tratamiento del
aire: las unidades de tratamiento del aire están
conectadas al sistema redundante de refrigeración
por agua fría (carga eléctrica: 114 114 kW; la carga
de la ventilación natural es de 7,6 +7,6 kW; potencia
refrigerante 252 252 kW).
▪ Capacidad de carga total del centro de datos de la
instalación: 250 + 250 kVA (máximo, con un UPS
redundante y escalable y un sistema de alimentación
eléctrica)
▪ Porcentajes del arquetipo del centro de datos:
bases de datos 50%, aplicaciones y servicios web
30%, infraestructuras y servicios básicos 20%
▪ Porcentaje de servidores que utilizan la
virtualización: 250 servidores virtuales instalados






20




prime it_brosch_int_CW.indd 20 18.10.12 17:24


3 Ejemplos de mejores prácticas















En la sala del centro de datos se puede observar
todos los componentes informáticos típicos de un
centro de datos: equipos de servidores,
almacenamiento, redes, fuente de alimentación y
continuidad. Gracias a la nueva construcción, en
el flamante centro de datos también se creó una
sala específica y separada para el UPS (sala de
energía). El tipo de servicios que presta son
principalmente bases de datos, almacenes de
datos, servidores de aplicaciones y servicios de
infraestructuras básicas (correo, servidores de
archivos, ...). El nivel de redundancia requerido es
un Tier 3.

La continuidad de las actividades del centro de
datos es un servicio informático redundante e
idéntico para Esselunga. El primer paso fue
hacer una evaluación de las condiciones
ambientales y de las cargas informáticas: una
nueva sección de un edificio está dedicada a las
nuevas instalaciones. El análisis de las cargas y
de las condiciones climáticas previstas en la
región hizo posible la adopción de refrigeradores
por agua (6.000 horas/año).

La nueva construcción del centro de datos, en
comparación con el anterior, hizo posible la
división de diversos equipos informáticos
(servidores, ordenadores centrales,
almacenamiento y redes) con el fin de gestionar de
manera más eficiente las condiciones ambientales.
Las unidades de refrigeración se colocaron en el
lado norte del edificio, con el fin de optimizar la
eficiencia de la ventilación natural
(economizadores): Por debajo de los 17 ° C de
temperatura exterior se reduce la demanda de
potencia de la refrigeración por compresión y se
apaga cuando la temperatura está por debajo de
los 10 ° C. En el área del rack, dividida en 5 filas,
el proceso de refrigeración impulsada por las
unidades en fila se ha optimizado con la
contención del pasillo caliente. La eficacia de
enfriamiento en todas las condiciones de carga se
ha simulado con un software de dinámica de
fluidos computacional (DFC).

Eficiencia económica de las medidas
En 2010, después de una primera evaluación de
los sistemas existentes y de otras opciones, la
creación de un nuevo centro de datos para
gestionar la compañía parecía una tarea
obligada.Todas las intervenciones realizadas en el
centro de datos existente mejoraron la sensibilidad
de todo el personal informático sobre las medidas
de eficiencia: se pretendía construir una nueva
instalación informática que fuera eficiente, fiable y
duradera. El periodo de amortización de las
soluciones eficientes de refrigeración es, con
diferencia, más corto que la esperanza de vida de
toda la instalación (alrededor de 4 años frente a
10).



Lecciones aprendidas
• La involucración del personal de IT y técnico
en el proceso de compra verde es un factor de
éxito. La barrera entre l os managers de
IT/energía y los responsables de compra
s es uno de los mayores obstáculos
para la eficiencia energética e n los
centros de datos.
• El mercado ofrece una gran variedad de
soluciones "eficientes" para los centros de
datos: la combinación de las características y
experienceia del personal de Esselunga
comentadas anteriormente hicieron posible
realizar la decisión correcta..

• El factor de éxito principal es el amplio interés
de por lograr la eficiencia y el buen funcionamiento
del personal técnico e informático, apoyado por el
mando directivo. Después de la experiencia con la
remodelación del antiguo centro de datos, la
mentalización por la eficiencia energética ha
aumentado: en el proceso de adquisición se
tomaron en cuenta todos los detalles relativos a la
eficiencia. Se evaluaron las características
técnicas de todos los componentes con la
supervisión de los directores informáticos como
coordinador del proceso con el fin de lograr el
objetivo fijado por el CEO.





21




prime it_brosch_int_CW.indd 21 18.10.12 17:24
3

















3.1.8. Electroson, España

Pasillo frío cerrado



Superficie del área:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementaciónn:
Categoría tier:
Información adicional:
Contacto:
129.60 m2
26 servidores
300 kW
Octubre 2011 - Febrero 2012
III
www.electrosoncastilla.es
David Fernandez
leon@electrosoncastilla.es




Introducción
Electroson Data Center CriticalServices está
formado por un grupo de profesionales altamente
cualificados que tratamos de dar un “valor” a la
instalación IT de cualquier organización. Nuestra
raíces vienen del sector eléctrico, el cual nos ha
aportado grandes conocimientos de la
problemática en los data center, y nos ha abierto
las puertas de muchos clientes. Actualmente
damos “valor” a cada una de las instalaciones
aportando, desde soluciones llave en mano, que
engloban desde la obra civil, grupos electrógenos,
baja tensión, cuadros eléctricos, ups, cableado de
fuerza, datos y fibra óptica, a sistemas de
climatización eficiente con sistema de freecoling,
inrow, expansión directa, etc, y estudios de
viabilidad, rentabilidad y aprovechamiento de la
inversión realizada o por realizar.

Certificados por los mejores fabricantes, nuestros
clientes, 100% satisfechos, son nuestra mejor
presentación.

Eficiencia económica de las medidas
El sistema al final es muy sencillo y tiene una
explicación muy lógica. Imaginemos un globo,
que en esta caso es el falso suelo de la
instalación, en el cual mantenemos una presión
constante consiguiendo a la salida, en este caso,
en el cerramiento del pasillo frío, mantener una
presión y un temperatura constante y evolutiva
en función de la modificación de los parámetros
de la instalación, que nos son reportados a
través de las sondas ubicadas en el pasillo.
Si hubiera en la instalación por causas ajenas,
una depresión de aire, las zonas situadas en el
pasillo detectan el aumento de temperatura en
esa zona,

haciendo que los ventiladores EC de las unidades
de climatización aumenten su caudal, elevando de
nuevo la presión de aire. La válvula de tres vía de
cada unidad de impulsión se controla de acuerdo
a la temperatura de consigna de impulsión. Esa
temperatura la podemos modificar y controlar por
los sondas colocadas dentro del pasillo.
Adicionalmente y en función de la programación
que se le ajuste, podemos mantener unos valores
límites de caudal, haciendo que el resto de
climatizadores se activen uno a uno, en función
de la demanda que le estemos requiriendo. En
caso contrario, el sistema también es capaz de
detener de forma progresiva cada una de sus
unidades. El control de humedad se hace también
desde la sondas ubicadas en el pasillo, es de
decir, podemos humectar o deshumectar en
función de las indicaciones de las sondas, de
forma individual o bien de forma colectiva.


Consumo de energía y utilización de la informática

Consumo energético (kWh/a, kWh/d)
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
0.44 kW/h 0.38 kW/h
Eficienciencia energética a nivel de infraestructura basada en métricas estandarizadas (e.j. PUE)
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
1.51 1.40




22




prime it_brosch_int_CW.indd 22 18.10.12 17:24
3 Ejemplos de mejores prácticas











Eficiencia energética a nivel de IT basado en una medida específica
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
100 kW 100
kW
Utilización IT (porcentaje pico/media)
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
30 % 31 %

Condiciones ambientales

Temperatura ambiente
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
23 - 24 25
Temperatura de entrada en el equipo
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
23 - 24 25
Humedad relativa
Sistema/subsistema antiguo➔ Pasillo frío abierto Sistema/subsistema nuevo ➔ Pasillo frío cerrado
50 % 50 %

Eficiencia económica de las medidas
El pasillo frío cerrado permite ahorros de mas de un 15% en comparación con el sistema anterior
La siguiente tabla muestra la diferencia en el consumo de los dos sistemas:

Consumo grupo refrigeradores 134 904 115 632

Consumo climatizadores

1 156.32

998.64
Consumo estimado anual 136 060.32 116 630.64

Ahorro


- 19 429.68

Lecciones aprendidas
• Al final de la instalación, y cuando el cliente
tenga la sala al 100% de su capacidad de
espacio, podrá tener colocadas hasta un total de
3 sondas THB por cada una de las unidades de
climatización, que en total podrán ser cuatro.
• En total se espera tener dos pasillos fríos
cerrados, por lo que se podrán distribuir hasta 6
sondas en cada uno, y hacer variar el sistema de
forma óptima en función de las medidas tomadas
por las mismas.
• Control de humedad en función de captura de
sondas


• Control de presión en “pasillo frío” para un
perfecto funcionamiento de todos los equipos del
rack, asegurando el mismo aporte de aire frío en
el equipo IT de la U 1 al de la U 42, variando la
velocidad de los ventiladores EC instalados.
• Control de temperatura haciendo variar la
apertura de la válvula de 3 vías.
• A su vez, y para hacer más eficiente la
instalación, contamos en el exterior con unidades
enfriadoras equipadas con “freecoling”, las
cuales, en función de la temperatura exterior y
variando las


consignas de temperatura del agua, nos van a
dar el aporte de agua refrigerada necesario de la
forma más eficiente, y con el menor coste posible.
• Dadas las temperaturas de la zona, y con un
estudio climatológico previo, hemos analizado que
durante estos meses invernales la mayor parte de
tiempo las unidades exteriores con capaces de
trabajar sólo con la temperatura exterior, sin tener
que arrancar compresores, simplemente moviendo
el agua del circuito con las bombas, con el ahorro
que esto supone.

23




prime it_brosch_int_CW.indd 23 18.10.12 17:24
3



















3.2. Medidas de IT e infraestructura combinadas
3.2.1. Postbank, Alemania

Aplicación de una nueva red de transporte / Virtualización



Número de servidores/racks:
Carga eléctrica relacionada con la red:
Periodo de implementación:
Categoría tier:
Contacto:
540
612 712 kWh/a
3 fases en 12 meses
III/IV
Mr. Andreas Gilberg




Introducción
En 1996, el Postbank estableció su red de
transporte basado en la tecnología ATM
(Asynchronous-Transfer-Mode) y desde entonces
la ha extendido de forma continua. La red de
transporte llegó al final de su ciclo de vida en
2007. Sólo se podría haber sido realizado
ampliaciones adicionales aumentando la
complejidad y los gastos, una medida que no era
apropiada desde el punto de vista económico y
tecnológico.
Por tanto, se puso en marcha el proyecto "Nueva
Red de Transporte", con el objetivo de evaluar y
aplicar las nuevas tecnologías.

Medidas para la optimización del sistema
Para este proyecto, se eligió una red de
transporte basada en MPLS (Multi-Protocol Label-
Switching) . Una red basada en esta tecnología
ofrece características óptimas que se
corresponden con las elevadas necesidades
informáticas de Postbank y mejora
considerablemente el equilibrio energético. Puesto
que Postbank es la empresa certificada como
14.001 por la ISO, el consumo reducido de
energía por parte de la empresa es un criterio
importante para la selección de las nuevas
tecnologías.
Gracias a la tecnología MPLS, se divide una red
física en clientes o subdivisiones lógicas e
independientes.

Esta virtualización cumple con las crecientes
demandas por lo que se refiere a la escalabilidad
y a una sencilla gestión de redes, así como a la
protección de las conexiones de datos
procedentes de accesos no autorizados.El nuevo
red de transporte, flexible y cifrado, se introdujo a
principios de 2009. Como "pionero" que es,
Postbank marca la pauta a seguir en el sector
bancario.
Tras la introducción de la red de transporte
MPLS, los componentes de red del centro de
datos fueron retirados y sustituidos paso a paso
por los nuevos componentes. Estos
componentes y el cambio asociado en la
tecnología proporcionan diferentes redes lógicas
e, incluso, puertos de red, mientras que la vieja
tecnología utilizaba un hardware dedicado y
líneas eléctricas. Gracias a las subdivisiones que
permite el nuevo sistema, se pudo reducir
notablemente el hardware necesario en todos los
sitios. Mientras que el viejo centro de datos y el
sistema ramificado necesitaba alrededor de 400
routers y conmutadores con un consumo de
energía de cerca de 1.438.480 kWh pa, la red
visualizada necesita sólo 188 componentes de
red que consumen alrededor de 588.234 kWh pa.
Como consecuencia de ello, se alcanzó un
ahorro energético de más del 59% .

Además, la introducción de las redes separadas de
forma lógica hizo que las transiciones
descentralizadas del firewall fueran redundantes.
Esta medida redujo el consumo de energía,
pasando de 63.072 KWh a 24.528 anuales, lo que
equivale a más de un 61% de ahorro de energía
importante para los servidores de firewall. La
última fase del proceso de virtualización concluirá
a finales de marzo de 2012. Los últimos
componentes dedicados de la red de distribución
de la red de desarrollo de Postbank se eliminarán
en esa fecha. Este paso supondrá un ahorro
energético de más del 52% o 170.820 KWh pa en
comparación con la infraestructura de distribución
actual.

En total, la aplicación de estas nuevas tecnologías
redujo el consumo de energía en las zonas
afectadas en 1.059.610 kWh pa o en un 58%.









24




prime it_brosch_int_CW.indd 24 18.10.12 17:24
3 Ejemplos de mejores prácticas




















Eficiencia económica de las medidas
En comparación con el tiempo de funcionamiento
relativamente largo de los equipos de red, el valor
económico más importante de las medidas llevadas a
cabo junto a un rápido "rendimiento de las
inversiones", fue la reducción de los costes de
energía debido a un ahorro energético del 58%. Por
lo que respecta a la mejora de la seguridad y a una
mayor disponibilidad, estas medidas han dado como
fruto un notable potencial de comercialización en los
servicios prestados.
Resumen de los elementos importantes:
▪ Nuevos equipos de red con un ciclo de vida de 10
años
▪ El rendimiento de la inversión es de <18 meses
▪ La sustitución de los conmutadores está asociada al
ciclo de vida del servidor gracias a la migración
suave

Lecciones aprendidas
• Realización de pruebas preliminares de la nueva
configuración de la red en el laboratorio de Cisco
en San José
• Migración para alcanzar una operación
ininterrumpida
• Implementación de una virtualización integral del
cliente al puerto del servidor
• Mejora de la seguridad mediante el cifrado de
todas las conexiones WAN / DWDM (para
transmisión de datos entre el CD de Bonn y el CD
de Frankfurt)
• Todos los enlaces ascendentes WAN / LAND
están activos, lo que supone un ahorro importante
en los costes y una mayor disponibilidad
(>99,999%)




25




prime it_brosch_int_CW.indd 25 18.10.12 17:24
3













3.2.2. regio iT Aachen, Alemania

Virtualización del servidor combinada con más medidas de refrigeración



Superficie útil:
Número de servidores/racks:
Carga eléctrica relacionada:
Periodo de implementaión:
Categoria tier:
Información adicional:
Contacto:
220 m2
Más de 50 racks y unos 480 servidores
150 kW
2008 - 2010
II y III
www.regioit-aachen.de
Mr. Bernhard Barz
Tel: +49241-413 59 96 26




Introducción
Como proveedor de servicios informáticos, regio
iT Aachen es socio de municipios, empresas
locales, empresas de comercialización de
energía, empresas de gestión de residuos,
escuelas y organizaciones sin ánimo de lucro.
regio iT aachen ofrece servicios de consultoría
informática, integración, infraestructura de
equipos informáticos, y servicios completos
estratégicos y orientados al proyecto. Por el
momento, regio iT, que cuenta con unos 280
empleados y 20 becarios, ofrece su ayuda a más
de 16.000 clientes y 100 escuelas y colegios.
Ofrecemos servicios de calidad garantizada y -
como somos el primer centro de datos local -
estamos tres veces certificados según las normas
internacionales ISO 9001, ISO 20000 e ISO
27001.
regio iT Aachen se ocupa tanto de la informática
como de la infraestructura que lleva asociada.
Además, utiliza menor cantidad de espacio El
edificio del centro de datos tiene usos secundarios
que habían sido excluidos en el análisis de la
energía.
Medidas para la optimización del sistema
Basándonos en la supervisión de la energía,
desde el año 2007 la demanda de energía para
operar el centro de datos se controla
continuamente en regio iT. Con un consumo anual
de energía informátrica de 1.250.000 kWh y un
consumo de energía de la infraestructura de
640.000 kWh (distribución de energía, aire
acondicionado, etc), el porcentaje del consumo de
energía total de los equipos informáticos es de
aproximadamente el 65% (lo que equivale a un
promedio de PUE de 1,5).
El centro de datos está integrado en un complejo
de oficinas y consta de 6 armarios de servidores.






Distribucióndelatemperaturaenelpasillofríoycaliente

La superficie útil de 220 m² para los equipos
informáticos comenzó a rendir a plena capacidad
en 2009. El centro de datos tenía más de 50
racks y unos 480 servidores con una capacidad
nominal eléctrica del equipo informático total de
155 kW. Cuando funciona a plena capacidad, se
alcanzan los límites del sistema de refrigeración.
La densidad de potencia de los equipos
informáticos es de 1 kW por metro cuadrado
según la zona de los armarios de servidores. El
consumo de energía de la infraestructura
informática aumentó por encima del 25% en un
año.








La densidad de potencia era de 5.000 kWh por m2
en un límite superior en comparación con otros
centros de datos. La capacidad media instalada
era de 300 W por cada servidor. La infraestructura
informática constaba de 480 servidores en rack,
que estaban equipados con cerca de 120
servidores virtuales. Por el momento, el centro de
datos no está equipado con ventilación natural y el
coeficiente de rendimiento (COP) del aire
acondicionado era comparativamente deficiente
(COP = 2).




26




prime it_brosch_int_CW.indd 26 18.10.12 17:24
3 Ejemplos de mejores prácticas
















Los requisitos de disponibilidad del centro de
datos son comparables con los del Tier de nivel
II. Algunos de los componentes cumplen los
requisitos del Tier III.

Los datos de supervisión de la energía se
analizan en detalle con el apoyo científico de la
UT de Berlín. Los resultados muestran que el
equipo de refrigeración existente se utilizó en su
máxima capacidad y que no habría sido posible
realizar un mayor desarrollo de los equipos
informáticos con la infraestructura existente. La
entrada y salida de aire-temperatura del sistema
de recirculación de aire eran muy bajos. Como
consecuencia de una mezcla innecesaria de aire
caliente y frío en los pasillos que hay entre los
bastidores, el trabajo de refrigeración era
demasiado alto. Además, las excesivamente
bajas temperaturas del agua de refrigeración
condujeron a una COP deficiente del dispositivo
de enfriamiento.
A partir del análisis de 2009, se han planificado y
puesto en marcha en dos salas una serie de
medidas específicas de eficiencia.
Las áreas de rack que no estaban en uso se
cerraron en consecuencia (cubiertas con plats) y
el flujo de aire entrante del doble piso fue
optimizado.
A continuación, la entrada y salida de la
temperatura del sistema de circulación de aire
refrigerado se aumentó paso a paso, desde
14/21 º C a 16/24 ° C. Como resultado, los
dispositivos de circulación de aire de
enfriamiento pueden operar con un margen
superior de temperatura (dT = 7.6 K). La
eficiencia de la transmisión de calor mejoró de
forma significativa. El aumento de las
temperaturas de entrada y de salida en el
refrigerador se puede considerar como un
potencial aumento de la eficiencia, algo que no
se utiliza por el momento pero que debe
abordarse en el futuro. En cuanto a la sala que
tiene mayor densidad de potencia y un cuello de
botella de refrigeración, se ha instalado un pasillo
frío de contención que ha dado lugar a una
separación notablemente optimizada del aire
caliente y frío en la sala de servidores.
Para preparar nuevas medidas, se instalaron
instrumentos de medición adicionales para
detectar la temperatura en los racks (36 puntos
de medición) y para determinar el caudal y la
temperatura en 5 puntos del doble piso.

En el tiempo transcurrido desde 2008 a 2010, la
infraestructura de los equipos informáticos pasó a
ser de 500 servidores físicos y cerca de 750
servidores virtuales como consecuencia de la
virtualización.

La demanda de energía de 150 kW se puede
mantener constante gracias a las medidas
asociadas para optimizar la refrigeración. El
número de servicios y aplicaciones informáticas se
podría incrementar de manera significativa con una
refrigeración y una virtualización mejoradas sin
mayor interferencia en la infraestructura del centro
de datos.


Bastidores

Eficiencia económica de las medidas
Gracias a la inteligente combinación de la
virtualización y de la mejora de la refrigeración, el
centro de datos lleva a cabo muchos más
servicios y aplicaciones que en 2009 con un
consumo de energía casi constante, aunque el
equipo de refrigeración ya funcionaba a pleno
rendimiento en 2009. La productividad del centro
de datos podría mejorar en cuanto a los gastos
estables (los costes de electricidad).

Gracias a la virtualización, la mejor utilización de
la capacidad de los equipos informáticos también
conduce a una mejor utilización de la UPS. Las
pérdidas disminuyeron comparadas con la
demanda de electricidad. La proporción de
servidores físicos frente a los virtuales mejoró,
pasando de 480/120 a 500/750 con una
demanda de energía estable de 150 kW.

Por favor, observe que: las ganancias en cuanto a
la eficiencia que se describen no se reflejan en el
PUE, ya que el PUE no está directamente
relacionado con el uso real de la informática.
Debido al uso temporal en paralelo durante el
cambio a la virtualización, el PUE incluso aumentó
por un breve periodo de tiempo.

Lecciones aprendidas
• Una combinación inteligente de la virtualización /
consolidación y una mejora de la refrigeración
• Gracias a la virtualización, la mejora de la
utilización de los equipos informáticos también da
lugar a una mejor eficiencia de la UPS. Las
pérdidas se redujeron en comparación con la
demanda de electricidad







27




prime it_brosch_int_CW.indd 27 18.10.12 17:24
3















3.2.3. Infracom Italia S.p.A., Italy

Mejora de la eficacia de los servicios por medio de las tecnologías de virtualización




Superficie útil:
Número de servidores/racks:
Periodo de implementación:
Categoría tier:
Información adicional:
Contacto:
300 m2
140 servidores
2011
III
Giorgio Nicolosi
BU IMS Director, Infracom
ibs.marketing@infracom.it
www.infracom.it




Introducción
Infracom Italia S.p.A. es uno de los participantes
más destacados en el ecosistema de
computación en nube del mercado de las TIC.
Infracom ofrece servicios integrados de TIC a
empresas italianas de todo el país, suministrando
la cobertura más amplia y más equilibrada de la
cadena de valor TIC: desde servicios gestionados
para la computación en nube y pleno outsourcing
informático y servicios de outsourcing a centros
de datos hasta soluciones de comunicaciones
unificadas y entrega de contenido multimedia,
infraestructuras de red de grado carrier,
incluyendo servicios de transporte de alta
velocidad y alta disponibilidad a operadores de
TIC, interconexiones y copias de seguridad entre
centros de datos. El singular modelo de negocio
de Infracom se basa en una mezcla de
experiencia contrastada e importantes activos
propios, entre los que se incluye una red de fibra
óptica que abarca 9.000 km, 3 centros de datos
de clase empresarial


(más de 6.000 m
2
en total) conectados en alta
disponibilidad, GIX, un punto de intercambio
directo privado italiano que pertenece y es
dirigido totalmente por Infracom; así como más
de 100 carriers en el Avalon Telehouse: el hotel
de carriers más grande del sur de Europa. En los
últimos años, Infracom ha prestado una cada vez
más atención a la eficiencia de los centros de
datos y se han tomado medidas importantes
tanto en la infraestructura como en la mejora de
la eficiencia en materia de suministro. Infracom
ha iniciado un camino sin retorno hacia el
rediseño de nuevas salas de centros de datos
mediante la renovación de las infraestructuras
existentes y la adopción de nuevas tecnologías
de vanguardia. Infracom también han intentado
mejorar la eficiencia del servicio mediante el uso
de la tecnología de virtualización, al mismo
tiempo que proporciona un servicio completo de
outsourcing a sus clientes.


Medidas para la optimización del sistema
Infracom ha logrado aumentar la eficiencia
general de uno de sus clientes, tanto desde el
punto de vista energético como de los servicios
prestados, como parte de un proyecto de
outsourcing completo llevado a cabo en 2011. Su
principal estrategia fue consolidar y racionalizar las
premisas existentes del centro de datos y utilizar
tecnologías de virtualización con el fin de mejorar
la relación entre el uso de los recursos y el número
de servicios. El principal problema era consolidar
dos centros de datos diferentes, situados en
diferentes regiones italianas, en una sola, sin que
ello afectara a la eficiencia y la fiabilidad de los
servicios existentes. El objetivo era aumentar la
flexibilidad y la capacidad de proporcionar de
forma eficaz servicios adicionales a los clientes
finales.
Sistema informático original y nuevo

Centro de datos antiguo Centro de datos nuevo

Superficie útil

100 m
2


300 m
2
(para una mayor expansión)
Edad media del equipo informático y de la instalación 10 años 4 años
Número de servidores/racks 130/18 29/3
Porcentaje de servidores que utilizan la virtualización 5 % 79 %
Porcentajes arquetipo del centro de datos 63 % de producción (servidor WEB/APP/DB)
con aplicaciones verticales, 26 % de desarrollo
11 % de infraestructura (DNS/DHCP, MAIL,
AD, gestión de registros etc.)
66 % de producción (servidor WEB/APP/DB)
con aplicaciones verticales, 26 % de desarrollo
8 % de infraestructura (DNS/DHCP, MAIL,
AD, gestión de registros, etc.)



28




prime it_brosch_int_CW.indd 28 18.10.12 17:24




3 Ejemplos de mejores prácticas
















Ahorro energético y reducción de costes
Este proyecto se llevó a cabo mediante la
consolidación de dos centros de datos en uno. El
nuevo centro de datos, que fue construido
originalmente por el cliente en 2008, fue
reorganizado por Infracom con el fin de
incrementar la eficiencia energética y maximizar
el uso de los recursos existentes y del espacio. El
uso de las tecnologías de virtualización en el
nuevo centro de datos dio lugar a una reducción
notable del número de servidores y, al mismo
tiempo, a un mayor número de servicios
suministrados:
• De 130 servidores montados en 18 racks, a 29
servidores montados en 3 racks
• Los 29 servidores se encontraban en 3
gabinetes blade.


La consolidación de dos centros de datos en uno,
organizada de nuevo con tecnologías de
virtualización, supuso un importante ahorro en los
gastos de administración de la institución (UPS,
perímetro de seguridad física, aire
acondicionado...) y en los gastos de consumo
relacionados y también mejoró su capacidad para
aumentar eficazmente el número de servicios
prestados utilizando los recursos existentes.

De hecho, durante el proceso de consolidación,
se reorganizaron los 29 servidores con el fin de
maximizar su eficiencia y de albergar nuevos
servicios:
• se configuraron específicamente 17 servidores
con el fin de albergar las máquinas virtuales
para la prestación de los servicios
originalmente activos en el antiguo centro de
datos
• se racionalizaron 8 servidores para albergar
nuevos servicios
• se migraron físicamente 4 servidores al nuevo
centro de datos.

También se lograron ahorros importantes por lo
que se refiere al consumo eléctrico y a un mejor
uso del espacio existente:
• En el nuevo centro de datos, el consumo
eléctrico diario alcanza un máximo de 140
kWh, una cifra notablemente inferior a los 580
kWh que se consumían en el antiguo centro de
datos.
• Se migraron desde el centro de datos unos 90
servicios, distribuidos en entornos de
producción, desarrollo y demostración. Gracias
a las estrategias de consolidación inteligentes
y al uso adecuado de las tecnologías de
virtualización aplicadas por Infracom, en el
nuevo centro de datos los 90 servicios se
consolidaron en 3 racks, y con ello se mejoró la
relación entre el espacio "consumido" y el
número de servicios prestados. Se utilizaron
aplicaciones más modernas y eficientes.

En 2008, Infracom comenzó a prestar atención a la eficiencia energética en todas las actividades relacionadas
con la administración de la infraestructura, así como en el suministro de los servicios existentes y en la
implementación de los nuevos. Todas las medidas se adoptaron con el fin de racionalizar la prestación de
servicios de Infracom y de aumentar el valor creado para los clientes de Infracom cuya cuantía puede medirse
fácilmente mediante el proyecto de consolidación y virtualización, lo cual dio como fruto un ahorro inmediato y un
aumento en la eficiencia del cliente. De hecho, el uso de la tecnología de virtualización mejoró de forma
significativa los procesos de gestión relacionados con la administración de la infraestructura de todo el centro de
datos. En la actualidad es posible restaurar con mayor rapidez los servidores en caso de que se produzca un
fallo y todo ello con un menor impacto en la eficiencia global de los servicios prestados, mejorando así la
disponibilidad de los servicios ofrecidos a los clientes finales. Por otra parte, la reducción del número de
servidores se tradujo en un ahorro significativo en los gastos de mantenimiento, no sólo porque ahora hay que
gestionar un menor número de máquinas, sino también porque el proceso de consolidación permite sustituir los
equipos obsoletos por otras aplicaciones modernas y más eficientes.



Lecciones aprendidas
• La elección de la tecnología de virtualización
adecuada ha sido uno de los elementos clave
para el éxito del proyecto.
• Gracias a su fuerte competencia y a su amplia
experiencia, Infracom decidió elegir el software
de virtualización líder del mercado que
minimiza la complejidad o los retrasos que
normalmente se producen en los procesos de
migración y consolidación masivos y permite
evitar cualquier mal funcionamiento de los
servicios después de la migración al nuevo
centro de datos.
• La cooperación estricta de todos los
participantes en el proyecto (el personal de
Infracom, el personal del cliente, terceras
partes como el carrier y los usuarios finales),

la competencia técnica de todo el equipo y la
importante gestión del proyecto llevada a cabo
por Infracom fueron factores clave para la
obtención de los resultados esperados.
• Otro punto crucial para el éxito del proyecto
fue realizar un profundo análisis inicial del tipo
de servicios ofrecidos a través de la
infraestructura existente y la identificación de la
manera en la que se ofrecían dichos servicios
a los clientes finales. La estrategia de
consolidación se diseñó sobre la base de la
información referente a la arquitectura
existente, a los elementos de configuración, al
número de clientes por servicio,

a la conectividad, a la política de seguridad y a un
meticuloso análisis de riesgos.
• Este proyecto también ayudó al cliente a
aumentar el conocimiento de su catálogo de
servicios y a mejorar la manera de prestar
dichos servicios de forma eficiente.
• La estrategia general adoptada en el proyecto,
junto con la introducción de la tecnología de
virtualización y de blade, dio lugar a una
mejora en la gestión del centro de datos, a una
mayor fiabilidad y eficiencia de los servicios
prestados, así como a una sensible reducción
del número de servidores y de gastos
relacionados con el consumo y la
administración.







29




prime it_brosch_int_CW.indd 29 18.10.12 17:24
3















3.3. La contratación pública

El siguiente capítulo presenta el estudio de
algunos casos centrados en la adquisición de
tecnología de hardware de energía eficiente en
centros datos y salas de servidores. De ese modo,
al contrario que la sección anterior, que se
concentra principalmente en el diseño general y
en la infraestructura de los equipos informáticos,
estos casos revelan de forma más específica
cómo se puede realizar en la práctica una
contratación energéticamente eficiente. Además
de los aspectos energéticos, los casos
seleccionados también hacen hincapié en temas
centrales
como la reducción de los gastos de operación y
mantenimiento y la posibilidad de un
almacenamiento de datos más seguro a través de
una mayor disponibilidad y de una redundancia
mejorada.

Los estudios de casos presentan diversos
métodos de contratación, entre los que se
incluyen especificaciones de licitación técnicas y
medioambientales altamente detalladas (por
ejemplo, el uso obligatorio de los estándares
Energy Star), procesos de licitación conjuntas,
acuerdos marco (que suponen menores costes

a través de economías de escala), encuestas de
mercado y diálogo con las partes interesadas con
el fin de garantizar un conjunto de requisitos que
sean compatibles con el acuerdo. La contratación
pública permite la implementación de soluciones
innovadoras, tales como la utilización de sistemas
de refrigeración por agua de mar o refrigeradores
de absorción accionados por el calor residual.



3.3.1. MatInfo, Francia

Introducción
La oferta de MatInfo fue lanzada por un consorcio
formado por varias instituciones públicas que
pertenecen al campo científico y tecnológico
(llamado en francés el "groupement inter-EPST
1
"). en 2005 (primera notificación de mercado,
llamada MatInfo1) y en 2009 (segunda
notificación de mercado, llamada MatInfo2,
incluyendo también algunas empresas no EPST)
5 y 13 instituciones respectivamente formaron
parte de este grupo. La agrupación de estas
instituciones públicas se creó específicamente
para este proyecto. MatInfo significa "Matériels
informáticos" (equipo informático). Los objetivos
del proyecto eran mejorar la administración de los
gastos de compra del equipo informático y
optimizar los costes administrativos mediante un
proceso de adquisiciones conjuntas.

La oferta de adquisición se compone de cuatro
lotes distintos:
• Lote 1: ordenadores personales;
• Lote 2: Ordenadores portátiles
• Lot 3: Equipo de Apple (incluyendo servidores
Apple compatibles); y
• Lote 4: Servidores.

El objeto del acuerdo es la compra, la entrega y,
si es necesario, la instalación de los materiales
descritos en los lotes. En este estudio sólo
analizaremos las especificaciones relacionadas
con el lote 4, ya que otros lotes no guardan
relación con la actividad empresarial de
PrimeEnergyIT. El objetivo del


acuerdo era incluir criterios de desarrollo
sostenible (criterios sociales y medioambientales
en particular) en la compra del equipo
informático.

MatInfo declaró 30 millones de euros anuales en
2005 y aproximadamente 40 millones de euros
anuales en 2010.

Concento de contratación
MatInfo es un tipo específico de contrato marco
2

sin que exista ninguna cantidad mínima o
máxima previa. El contrato tiene un período de
validez de un año y se puede renovar tres veces,
si bien cada periodo de renovación es de un año.
La duración total del mercadeo, por tanto, es de
cuatro años y finalizará el 30 de junio de 2013.
Cada miembro de la agrupación es libre adjudicar
sus contratos: no existe obligación de compra;
cada miembro es independiente en la firma de
sus contratos específicos dependiendo de sus
necesidades. Se ha constituido un comité de
seguimiento que está compuesto por
representantes de las organizaciones que
participan en la agrupación mercantil. Este comité
es el encargado de supervisar la ejecución del
proyecto, la evolución de los precios y las
configuraciones.

Antecedentes
Los organismos públicos que participan en
MatInfo2 son el CNRS, el CEMAGREF3, el
ENSCM, el
IRD, el INRA, el INSERM, el INRIA, el INED, la
Universidad de Burdeos I, la Universidad de
Borgoña, la Universidad de La Rochelle, la
Universidad de Rennes I y la Universidad Paul
Verlaine-Metz 4 . El CNRS5 es el líder de la
agrupación. Es una empresa de investigación
financiada por el gobierno, bajo la administración
pública del Ministerio de Investigación francés. En
su calidad de organización de investigaciones
más importante de Europa, abarca todos los
campos del conocimiento. Algunas de sus
misiones son las siguientes:
• Evaluar y llevar a cabo todas las
investigaciones capaces de aumentar el
conocimiento y proporcionar beneficios
económicos, sociales y culturales a la
sociedad.
• Contribuir a la aplicación y al fomento de los
resultados de la investigación.
• Desarrollar información científica y apoyar la
formación en material de investigación.

En el sector de la investigación, la necesidad de
contar con equipo informático fiable y potente, así
como de disfrutar de configuraciones actualizadas
periódicamente es un factor muy importante.
Teniendo en cuenta el elevado número de
miembros que forman la agrupación, las
especificidades de la iniciativa MatInfo son las
siguientes:
• Un esfuerzo articulado entre varias
organizaciones y un acuerdo en las
necesidades comunes;
• Una amplia gama de equipos y servicios
cubiertos;
• Unas configuraciones personalizables previas
para que cada uno de los miembros pueda
satisfacer sus necesidades.


1
Para « Établissement Public à caractère Scientifique et Technologique »: Organización pública cuya actividad es científica y tecnológica.
2
« Marché fractionné à bons de commande » in French.
3
Ahora llamado IRSTEA.
4
Ahora llamada Université de Lorraine.
5
Para « Centre National de la Recherche Scientifique »: Centro Nacional de Investigaciones Científicas.


30




prime it_brosch_int_CW.indd 30 18.10.12 17:24
3 Ejemplos de mejores prácticas
















Criterios de adquisición
• Contenido
Equipo informático
• Criterio de selección
No se relacionaron criterios a la eficiencia
energéticos (o al desarrollo sostenible en
general).
• Especificaciones técnicas
Todo el equipo propuesto tenía que poseer el
certificado Energy Star 4 o cumplir unas
especificaciones equivalentes en cuanto a la
gestión de la energía de los diversos
componentes. Todos los monitores tenían que
llevar el certificado TCO 03 o cumplir unas
especificaciones equivalentes.
• Criterios de adjudicación
Se incluyeron principios de desarrollo sostenible
en los criterios de adjudicación (11 de los
puntos adjudicados en total):
65 de estos fueron para el ecodiseño, 20 para
los factores sociales y 15 para otros aspectos.
Criterios de ecodiseño en particular:
-El uso de etiquetas ecológicas (o un
rendimiento equivalente), dependiendo del nivel
(de bronce a oro): TCO, EPEAT, 80
-índice de reciclabilidad o medidas para mejorar
el reciclaje
-Distancia recorrida por los componentes del
equipo antes y después de la fabricación y
modos de transporte
-Medidas de compensación de carbono
-Indicador propuesto para el etiquetado de
eficiencia ecológica de la tienda web
Los aspectos sociales estaban cubiertos por:
-Un código de conducta, con el apoyo de una
ONG, también aplicada a los subcontratistas
-Las referencias a los convenios fundamentales
de la OIT (Organización Internacional del
trabajo)
-Límite de horas de trabajo
-Medidas de seguridad, etc.
• Cláusulas de ejecución del contrato
Los adjudicatarios deberán crear una tienda
online para los compradores de la agrupación,
presentando un etiquetado de eficiencia
ecológica, además de las características
habituales (precios, especificaciones técnicas,
etc.).
Resultados y lecciones aprendidas
No fue necesario superar ningún obstáculo
importante para la definición y evaluación de los
criterios medioambientales, salvo la necesidad de
poseer recursos internos. La mayoría de los
proveedores aceptaron los criterios y
proporcionaron la información necesaria en la
medida de lo posible, a pesar de algunas
sorpresas. El valor que se dio a los criterios de
sostenibilidad fue importante y penalizó
notablemente al proveedor que no los cumplió.
Los criterios tal vez no fueron determinantes en la
adjudicación del contrato, pero los candidatos se
vieron obligados a comunicar sus elementos,
sobre los cuales la agrupación ahora puede exigir
algunas mejoras. El seguimiento de los
compromisos del contratista, llevado a cabo por
las organizaciones de la licitación durante el
progreso del acuerdo (renovable cada año
durante un máximo de cuatro años) podría influir
en cierta medida en el mercado en cuanto a la
estrategia a largo plazo a seguir por parte de los
fabricantes, sobre todo porque el acuerdo es
importante. En particular, uno de los requisitos
que se solicitó durante la ejecución del acuerdo
es el etiquetado de los productos en la tienda
online especificando su eficiencia en cuanto al
«desarrollo sostenible». Con esto se pretende
aumentar la conciencia del comprador usuario
sobre los riesgos medioambientales y sociales y
le proporciona criterios adicionales a la hora de
decidir su compra. También se exigieron
importantes esfuerzos por parte de los licitadores
ganadores (HP en el lote 1, DELL en el lote 2 y el
lote 4 y Francia Systèmes en el lote 3) a fin de
que cumplan con este requisito. Sin embargo, la
agrupación aún no posee información sobre la
influencia que han tenido algunas medidas en el
comportamiento del comprador usuario. Al
examinar las ofertas, se pueden identificar tres
tipos de proveedores: los que no han tenido en
cuenta las consideraciones ambientales; los que
las tienen en cuenta pero no demuestran una
verdadera participación; y aquellos que
demostraron una preocupación por estos temas.

En general, los resultados han sido muy positivos.
Presentaron a la agrupación precios y servicios
(antes, durante y después de la adquisición) que
ninguna empresa habría obtenido por sí misma:
por ejemplo, equipos especializados,
personalizados, tienda online personalizada,
respeto por los criterios medioambientales.


Además, la disminución de otras licitaciones
públicas por parte de los miembros de la
agrupación demuestra que el material y los
servicios dentro del ámbito de la licitación
satisfacen las necesidades de estas instituciones.
Los beneficios obtenidos gracias a la
mutualización del trabajo administrativo han dado
como fruto la solicitud por parte de otras
organizaciones para unirse a la agrupación.

Uno de los principales problemas es la necesidad
de contar con conocimientos y recursos internos
para analizar las respuestas de los candidatos y
realizar un seguimiento activo de los
compromisos del contratista. El tamaño del
acuerdo es un factor importante para captar la
atención de los fabricantes e influir en su futura
estrategia. Las licitaciones conjuntas pueden ser
una oportunidad interesante en este sentido. Por
otro lado, el inconveniente que presenta la
magnitud del acuerdo es que la aplicación y el
seguimiento de un gran proyecto es más
exigente. Se tiene que planear con mucha
anticipación y necesita abarcar varios años. En
consecuencia, es necesario contar con una
perspectiva fiable de las necesidades presentes y
futuras de las organizaciones.

Perspectiva
El acuerdo se renovará con MatInfo3 durante el
período 2013-2017. Entre los posibles factores
que hay que tener en cuenta para un acuerdo
futuro se incluyen una mayor presión sobre la
responsabilidad social de los proveedores: tal vez
se podría solicitar un resumen de los resultados
de la auditoría realizada en las instalaciones de
producción (que normalmente se incluyen en los
informes anuales de los fabricantes) de los
fabricantes y de sus subcontratistas. Además,
también se podrían incluir ciertas cuestiones
sobre la gestión eléctrica y de los residuos
electrónicos.

Contacto
EcoInfo: www.ecoinfo.cnrs.fr email:
contact@ecoinfo.cnrs.fr









31




prime it_brosch_int_CW.indd 31 18.10.12 17:24
3














3.3.2. Helsingin Energia, Finland

Introducción

Helsingin Energia, una de las empresas de
servicios públicos más importantes de Finlandia,
proporciona electricidad, calefacción y
refrigeración a la capital de la región. En los
últimos años, la ciudad de Helsinki había hecho
una fuerte inversión en su infraestructura pública
y construyó una extensa red subterránea de
túneles multiuso totalmente accesibles que
funcionan como canales de suministro para dotar
a la ciudad de electricidad y agua, así como de
calefacción y refrigeración públicas, a través de
esta red en expansión.

Las empresas públicas Helsingin Energia y
Academica Oy, una empresa de servicios
informáticos de Finlandia, construyeron de
manera conjunta dos centros de datos altamente
eficientes desde el punto de vista energético. En
2009, Academica y Helsingin Energia
construyeron un pequeño centro piloto (300 m2)
en un antiguo refugio antiaéreo que se
encontraba debajo de la Catedral de Uspenski,
ubicada en el centro de la ciudad de Helsinki.
Junto al acceso subterráneo que conduce a la
infraestructura de comunicación a través del
sistema de subterráneos de Helsinki, situado a
aproximadamente 30 metros bajo tierra, Helsingin
Energia podría ofrecer un suministro seguro y
fiable de energía y refrigeración. El proyecto
piloto de Uspenski resultó ser un éxito y la
cooperación entre las dos compañías se hizo
más estrecha.

El proyecto Suvilahti consta de un centro de
datos con un espacio del servidor inicial de 2.000
m
2
(se puede aumentar hasta los 4 000 m
2
).
Helsingin Energia prestó las instalaciones de una
antigua subestación donde se construyó una sala
cerrada dentro de la sede de la subestación. La
experiencia adquirida en el centro de datos de
Uspenski le permitió aplicar a este proyecto un
enfoque más integrado. De ese modo, ambos
socios pudieron optimizar aún más la tecnología
de eficiencia energética en las instalaciones
mediante el uso de intercambiadores de
calefacción y refrigeración públicos
especialmente concebidos para satisfacer los
requisitos y las necesidades del centro de datos.

El proyecto de Suvilahti consta de un centro de
datos de Tier III IV y de un conjunto de racks de
alta densidad. La empresa pública Helsingin
Energia puso a disposición del proyecto una
antigua subestación en cuyo interior se construyó
un vestíbulo (una solución calificada como "un
edifico dentro de un edificio"). Ademas de ofrecer




la instalación, Helsingin Energia también
suministra refrigeración y electricidad públicas al
centro de datos. Además, los sensibles cables de
datos que posee el centro de datos permanecen
ocultos de manera segura en la creciente red de
túneles subterráneos de la ciudad.

Concepto de contratación
Academica Oy, el otro socio de este proyecto
conjunto, está especializada en la gestión de
datos y de servidores. Con el fin de ampliar sus
servicios, la empresa necesitaba nuevos centros
de datos Tier IV III que cumplieran varios
requisitos.

Las instalaciones y sus sistemas deberían
ser:
• Fácilmente accesibles y, al mismo tiempo,
estar a salvo de cualquier intrusión por
razones de seguridad de los datos,
• Tener un suministro seguro y fiable de
energía y de infraestructura de
comunicación,
• Ser más barato de mantener que los centros
de datos convencionales, y
• No poner en peligro el objetivo de la empresa
de ofrecer soluciones ecológicas y
energéticamente eficientes.

Tema del proyecto
• Construcción de un nuevo centro de datos
dotado de medidas parciales de seguridad
Tier III y nivel IV (diseñado con el fin de
albergar servidores y sistemas críticos, con
subsistemas completamente redundantes para
la refrigeración, la energía, los vínculos de red,
el almacenamiento y las medidas de máxima
seguridad). Se dio mucha importancia a la
existencia de una arquitectura energéticamente
eficiente, incluyendo la refrigeración pública y
otros mecanismos que permiten el ahorro de
energía.

Especificaciones técnicas
• 2.000-4.000 m
2
de superficie de servidor y
espacio informático, 2.000 m
2
de espacio auxiliar
• Suites personalizables de 200 a 900 m
2

• Instalación de racks de alta densidad (hasta 3
kWm
2
)
• Refrigeración pública por agua de mar fría y
bombas de calor, así como mediante baterías de
agua fría
• Rehabilitación de una antigua subestación

Criterios de eficiencia energética
• El límite PUE que se fijó en los documentos de
la licitación fue de 1.0. Sin embargo, el proceso
de recuperación de calor permite que Helsingin
Energia y Academica se mantengan en cifras
que se encuentran muy por debajo de 1.0
porque las instalaciones no sólo consumen
energía sino que también la producen
(calefacción). Sin embargo, en un sentido
estricto el PUE que se encuentra por debajo de
ese nivel no aparece definido y, por tanto, la
producción de energía se tiene que contabilizar
por separado.

Seguimiento y supervisión
• La supervisión del consumo de energía y de la
producción de calor se gestiona mediante la
lectura de contadores en tiempo real de forma
remota y revisada mensualmente para la
optimización de su potencial. La supervisión la
lleva a cabo Helsingin Energia en cooperación
con la empresa de servicios de análisis y
gestión de datos BaseN, que proporciona
supervisión en tiempo real de los servidores y
del estado en el que se encuentran.






32




prime it_brosch_int_CW.indd 32 18.10.12 17:24
3 Ejemplos de mejores prácticas
















Resultados y lecciones aprendidas
La construcción del centro de datos de Suvilahti
comenzó en la primavera de 2011. Empezó a
operar en septiembre de 2011. Los servidores se
enfrían mediante la refrigeración pública
producida utilizando agua de mar fría o bombas
de calor y refrigeradores de absorción. El
consumo de energía eléctrica en general se
redujo hasta el 50 por ciento en comparación con
una solución convencional.

En comparación con los métodos convencionales
de enfriamiento, la refrigeración pública consume
sólo 12.5 de electricidad directa por unidad de
energía de refrigeración. Al mismo tiempo, cuesta
sólo una quinta parte del precio de las soluciones
de refrigeración convencionales, tales como la
compresión de vapor basada en la libre
circulación de aire acondicionado o en otras
tecnologías de refrigeración que utilizan
refrigerantes químicos. Aproximadamente el 70
por ciento del exceso de calor puede retornar a la
red de calefacción pública (hasta 40 GWh al año,
lo que equivale a las necesidades de calefacción
de aproximadamente 2 000 hogares), lo que
convierte a los centros de datos esencialmente
en una planta de calor suplementario. Gracias a
la medición y a la información del consumo de
energía en tiempo real, fue posible optimizar la
capacidad de ahorro de energía de los servidores
en uso. También se reducirá significativamente
las emisiones de un centro de datos de 1 MW
que usan refrigeración pública: se estima que la
solución actual consume 3.000 MWh de energía
primaria al año menos que las soluciones de
refrigeración convencionales, lo cual produce un
ahorro de 600.000 kg de emisiones de dióxido de
carbono.

Helsingin Energia descubrió que los costes de
energía por lo general suponen
aproximadamente el 60 por ciento de la
estructura de gastos de operación de los centros
de datos y que la mitad de estos costes de
energía son consecuencia del enfriamiento de la
infraestructura informática como, por ejemplo, los
servidores. Gracias a la refrigeración pública, los
beneficios que produce el calor adicional
procedente de los intercambiadores de calor y la
optimización del control del gasto de energía del
servidor, los costes se redujeron de forma
notable. Como la refrigeración urbana no
produce ningún ruido significativo, la reducción
de los niveles de ruido fue otro logro importante

Otro éxito medioambiental: a menudo los equipos
de refrigeración tradicionales (generada mediante
un compresor) contienen refrigerantes basados
en halocarbonos o en otros compuestos
orgánicos que pueden resultar nocivos para el
medioambiente. Mediante la refrigeración pública
de Suvilahti, no es necesario contar con ese
equipo, reduciendo así el impacto
medioambiental del proceso de enfriamiento. El
centro de datos se encuentra en Sörnäinen, un
antiguo puerto y distrito industrial de Helsinki que
en los últimos años ha sido el foco de un nuevo
proyecto de desarrollo. Cerca de allí se encuentra
la planta de calefacción y refrigeración de Katri
Vala, lo cual es un valor añadido en cuanto a su
eficiencia.

La situación en Helsinki -con su creciente sistema
de refrigeración pública, su avanzado sistema de
calefacción pública y una amplia red de túneles
multiuso- resulta muy ventajosa para la capital
finlandesa, pero al mismo tiempo también es
única. Sin embargo, los sistemas de refrigeración
pública se pueden aplicar en muchas partes de
Europa, especialmente en el norte del continente,
donde se está convirtiendo en una tecnología
cada vez más popular. Los centros de datos de
Uspenski y Suvilahti son sólo un primer ejemplo
donde la refrigeración pública (y la calefacción)
se combina con la infraestructura técnica
necesaria para alimentar los centros de datos. Es
importante mantener los centros de datos en la
capital de la región de Finlandia, donde se
encuentran la mayoría de los clientes y donde se
concentra la infraestructura y la mano de obra
profesional. Al mismo tiempo, por razones de
seguridad, es esencial controlar el acceso hacia y
desde el centro de datos. El suministro fiable de
energía, combinado con la garantía de una
seguridad para la infraestructura de la
comunicación, son factores cruciales para el éxito
del proyecto.

Tanto el proyecto piloto llevado a cabo bajo la
Catedral de Uspenski como el centro de datos de
Suvilahti recibieron varios premios como, por
ejemplo, el premio Green Enterprise IT del
Instituto Uptime en 2010 y el premio Green IT de
Tekes en 2011. Helsingin Energia y Academica
despertaron el interés del público, tal y como lo
demuestra la

cobertura del proyecto que llevaron a cabo los
medios de comunicación internacionales.

La cooperación entre Academia como compañía
privada y Helsingin Energia como empresa
pública se desarrolló de manera casual. En un
primer momento, Helsingin Energia sólo interesó
en los sistemas y en el suministro de energía de
un posible centro de datos. Sin embargo,
Helsingin Energia podía ofrecer soluciones a
todos los objetivos mencionados anteriormente.

Helsingin Energia y Academica están muy
satisfechos de su cooperación. Los centros de
datos han gozado de un notable éxito y ya se han
elaborado planes para construir en el futuro
centros de datos que sean mucho más
energéticamente eficientes.

Contacto
Sr. Juha Sipilä, Project Manager Helsingin Energia
Teléfono: +358-40-334 6663
e-mail: juha.sipila@helen.fi










33




prime it_brosch_int_CW.indd 33 18.10.12 17:24










4 Contacto














































Partners















Supported by









Contacto: International project coordination | Dr. Bernd Schäppi | Austrian Energy Agency
Email: bernd.schaeppi@energyagency.at | Web: www.efficientdatacenters.eu

34




prime it_brosch_int_CW.indd 34 18.10.12 17:24