Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Monografia daga center, Monografías, Ensayos de Tecnologías de la Información y las Comunicaciones (TIC)

Monografia data center. Informe

Tipo: Monografías, Ensayos

2023/2024

Subido el 14/05/2024

gabriela-fendrik
gabriela-fendrik 🇦🇷

1 / 24

Toggle sidebar

Documentos relacionados


Vista previa parcial del texto

¡Descarga Monografia daga center y más Monografías, Ensayos en PDF de Tecnologías de la Información y las Comunicaciones (TIC) solo en Docsity! PREGUNTAS 1. Uptime instituto (concepto reseña historia características, etc.) Uptime Institute LLC es un consorcio de empresas que se dedican a la educación, publicaciones, consultoría, certificaciones, conferencias y seminarios para la empresa de centro de datos de la industria y para los centros de datos profesionales. Es mejor conocido por sus ampliamente adoptadas certificaciones de nivel de los centros de datos. Fundada en 1993 por Kenneth G. Brill, el Instituto Uptime fue adquirida por The 451 Group (llamado así por el libro Fahrenheit 451 de Ray Bradbury) en 2009. Desde entonces, el Uptime Institute ha sido una división independiente de El Grupo 451, que tiene su sede en Nueva York, con oficinas en ciudades como San Francisco, Washington DC, Londres, Boston, Seattle, Denver, São Paulo, Dubái y Singapur. The 451 Group también es propietaria de 451 Research, una tecnología-industria de la investigación y los datos de la empresa sindicada. Uptime Institute es una organización de asesoramiento imparcial centrado en mejorar el rendimiento, la eficiencia y la fiabilidad de las infraestructuras críticas de negocio a través de la innovación, la colaboración y certificaciones independientes. Uptime Institute sirve a todos los actores responsables de la disponibilidad de servicios de TI a través de los más altos niveles de la industria, la educación, la creación de redes peer-to-peer, consultoría y programas de premios entregados a las organizaciones empresariales y los terceros operadores, fabricantes y proveedores. Uptime Institute es reconocido a nivel mundial para la creación y administración de las Normas y Certificaciones de Nivel para Centro de Datos Diseño, Construcción y Sostenibilidad Operativa junto con sus Gestión y Operaciones de los comentarios, metodología FORCSS ™, y las iniciativas de eficiencia energética. Uptime Institute - El Centro Authority® datos globales, una división de The 451 Group, cuenta con oficinas en los EE.UU., México, Costa Rica, Brasil, Reino Unido, España, Emiratos Árabes Unidos, Rusia, Taiwán, Singapur y Malasia. 2. Qué es un tier? TIER es una certificación o “clasificación” de un Data Center en cuanto a su diseño, estructura, desempeño, fiabilidad, inversión y retorno de inversión. Esta certificación es otorgada por el Uptime Institute, una división independiente de la empresa The 451 Group con sede central en Nueva York. El Uptime Institute está conformado por destacados miembros de la industria de infraestructura de sistemas, consultores especializados y usuarios del servicio a nivel internacional. Actualmente los certificados TIER han emitido más de 350 certificaciones en centros de datos de al menos 53 países. En otras palabras podríamos decir que esta certificación podría tener la equivalencia a certificaciones como ISO, CMMI o ITIL, pero orientada única y exclusivamente a la evaluación Data Centers. Los Data Center pueden optar a cuatro tipo de certificación TIER, nivel 1, nivel 2, nivel 3 y nivel 4. Características: Brinda los requerimientos y lineamientos necesarios para el diseño e instalación de DataCenters. La intención es que sea utilizado por los diseñadores que necesitan un conocimiento acabado del facility planning (servicios de planificación), el sistema de cableado y el diseño de redes. Este estándar está aprobado por TIA (Telecomunications Industry Association) y ANSI (American National Standards Institute). El estándar TIA 942 y la categorización de Tiers en Latinoamérica llevan al replanteamiento de las necesidades de infraestructura para la instalación de un DataCenter. Creado por miembros de la industria, consultores y usuarios, que intentan estandarizar el proceso de diseño de los centros de datos. Historia: En abril de 2005, la Telecomunication Industry Association publica su estándar TIA-942 con la intención de unificar criterios en el diseño de áreas de tecnología y comunicaciones. Este estándar que en sus orígenes se basa en una serie de especificaciones para comunicaciones y cableado estructurado, avanza sobre los subsistemas de infraestructura generando los lineamientos que se deben seguir para clasificar estos subsistemas en función de los distintos grados de disponibilidad que se pretende alcanzar. En su anexo G (informativo) y basado en recomendaciones del Uptime Institute, establece cuatro niveles (tiers) en función de la redundancia necesaria para alcanzar niveles de disponibilidad de hasta el 99.995%. Infraestructura de Soporte: Según el estándar TIA-942, la infraestructura de soporte de un Data Center debe estar compuesto por cuatro subsistemas como lo son: Telecomunicaciones Arquitectura Sistema eléctrico Sistema mecánico Ventajas: La nomenclatura estándar El funcionamiento a prueba de fallos Sólida protección contra las catástrofes naturales o manufacturadas. La fiabilidad a largo plazo Capacidad de expansión y escalabilidad. Áreas funcionales: Una o más entradas al cuarto Área de distribución principal Una o más áreas de distribución horizontal Área de equipo de distribución Zona de distribución El cableado horizontal y el backbone 8. Qué es un sistema pozo a tierra 9. Qué es un sistema refrigeración 10. Qué es un sistema alimentación eléctrica La preocupación por la mejora de la eficiencia energética y por extensión de la factura eléctrica ha llevado a la industria de los datacenter a evolucionar hacia nuevos modelos que reduzcan la dependencia de los sistemas de refrigeración tradicionales basados en inyectar aire frío en las dependencias. Fruto de ello en los últimos años hemos sido testigos de la implantación de datacenters en regiones cuya climatología específica ha permitido el enfriamiento de las instalaciones aprovechando los propios recursos naturales que brinda el entorno Pero la innovación no se ha quedado ahí y se ha extendido al diseño de los propios servidores del datacenter para permitir el enfriamiento de los componentes que más calor generan mediante el uso de refrigeración por agua (a través de circuito cerrado). Ahora bien, ¿realmente sería posible pensar en un ordenador refrigerado gracias a la inmersión completa de la electrónica en un fluido? Que es esta idea no parece tan lejana o al menos esto es lo que se deduce de los primeros resultados que algunos de los principales fabricantes del mercado han publicado recientemente. Aunque todavía se trata de pruebas realizadas en laboratorio la idea se basa en el uso de un líquido dieléctrico que evita el sobrecalentamiento de los componentes electrónicos que se sumergen en él. Este innovador líquido (Novec) ya se utiliza en los sistemas de extinción de incendios y se está probando por primera vez como sistema de refrigeración de sistemas informáticos. El mantenimiento de las condiciones ambientales es muy importante en un datacenter, ya que garantiza la integridad de su información y la fiabilidad de la operación de los equipos electrónicos por mucho tiempo. placa y enviar datos vía USB o WiFi a un ordenador que puede monitorizarlos, procesarlos y tomar decisiones sobre la climatización, y las salidas de la placa pueden activar actuadores de refrigeración. Domótica Para datacenters pequeños se puede valorar la utilización de sistemas domóticos como los basados en bus KNX o en X10. La importancia de la refrigeración La producción de calor de los equipos que conforman un centro de datos es uno de los problemas principales y que más preocupan a sus administradores. El exceso de calor en una sala de servidores afecta negativamente el rendimiento del equipo y acorta su vida útil, además de suponer un peligro en el caso de alcanzar niveles elevados. Por eso es de vital importancia el diseño de un buen sistema de refrigeración. En este diseño es fundamental el dimensionamiento del sistema, que exige comprender la cantidad de calor producida por los equipos TI junto con el que producen otras fuentes de calor que habitualmente están presentes como los SAI, la distribución de alimentación, unidades de aire acondicionado, iluminación y personas…Fijarse en todo ello es básico para calcular la carga térmica. En una instalación típica las cargas que más peso tienen son: el 70% que suele corresponder a la carga de los equipos TI, el 9% a la iluminación, el 6% a la distribución de la alimentación y el 2% a las personas. Además de eliminar el calor, un sistema de aire acondicionado para un centro de datos está diseñado para controlar la humedad. En la mayoría de sistemas de aire acondicionado la función de refrigeración por aire del sistema causa una importante condensación de vapor de agua y la consiguiente pérdida de humedad. Por tanto, es necesaria una humidificación suplementaria para mantener el nivel de humedad deseado. Esta humidificación suplementaria crea una carga de calor adicional en la unidad de aire acondicionado de la sala de ordenadores (CRAC), disminuyendo de forma clara la capacidad de refrigeración de la unidad y haciendo necesario un sobredimensionamiento. Es importante hablar también del diseño de la red de conductos del aire o el falso suelo, ya que tiene un efecto importante en el rendimiento global del sistema y, además, afecta en gran medida a la uniformidad de la temperatura dentro del centro de datos. La elección de un sistema de distribución de aire modular, unido a una correcta estimación de la carga térmica, puede reducir significativamente los requisitos de configuración del diseño del centro de datos. REFRIGERACIÓN LÍQUIDA EN EL DATA CENTER, UNA REALIDAD Desde Powernet advertimos a nuestros clientes algo que a pesar de su obviedad, no siempre es tenido en cuenta a la hora de un diseño eficiente de los Data Center; la temperatura en los servidores dentro de un Data Center es algo primordial para cualquier operación de TI. La nueva generación de sistemas de refrigeración líquida podría introducir un gran cambio en el diseño de los centros de datos, con una mayor reducción en los ingresos de los fabricantes de aire acondicionado, proveedores de energía e incluso responsables del mercado inmobiliario. Los beneficios de las técnicas de refrigeración mediante agua, incluyendo enfriamiento líquido directo, indirecto y total, pueden generar un alto grado mejoras en los costes; garantizando también un menor ruido y evitando grandes fallos en los servidores. También esta tendencia podría generar la caída drástica en los costes a medida que el equipamiento del data center se vuelve más simple. De esta forma, a medida que la demanda de computación de alto rendimiento crece, las técnicas para refrigerar estas máquinas serán cada vez más críticas. Hay un interés latente por optar la refrigeración líquida por parte de operadores web y compañías de hosting como Google, Facebook y eBay, ellos han reescrito las normas del data center y han legitimado un enfoque menos conservador para el diseño y operación de las instalaciones. Gracias a la adopción de estos sistemas se evitará el ruido alterando la infraestructura. Sin los ventiladores se puede ubicar el data center en cualquier lugar. En el futuro es posible que desaparezca la necesidad de salas TI especializadas y nadie necesitará pagar miles de dólares por metro cuadrado por un espacio de almacenamiento. Los data centers del futuro podrían estar en cualquier sitio. Presente de la tecnología. Powernet está al día en la evolución tecnológica del sector, y su departamento de ingeniería ya conoce y evalúa tecnologías punteras como esta. Aunque no está en España sirva como ejemplo de que esta tecnología ya está en marcha, el Laboratorio para Ciencias Físicas de la agencia estadounidense NSA (si, son ellos), que recientemente ha implantado un sistema de enfriamiento por inmersión en aceite mineral La refrigeración por inmersión –esto es, la inmersión del equipamiento TI en un fluido refrigerante– se está planteando como una alternativa de enfriamiento interesante especialmente para sistemas de alto rendimiento. Una de las entidades que ha estado probando las posibilidades de este sistema es la NSA en su Laboratorio para Ciencias Físicas (o LPS, en sus siglas en inglés), donde en 2012 instaló un sistema de refrigeración por inmersión en aceite. Según indican desde la propia NSA, refrigerar el equipamiento de computación mediante inmersión en aceite puede reducir significativamente los costes de enfriamiento. De hecho, según la NSA, este método puede recortar a la mitad los costes de construcción de futuros data centers. Sumergiendo los servidores. Aunque hablamos de inmersión, evidentemente no es posible sumergir los equipos de computación en agua, debido a los peligros de unir este líquido con la electricidad. Sin embargo, el aceite mineral ha sido utilizado por las empresas eléctricas como fluido refrigerante durante más de un siglo. Sumergiendo los servidores. Aunque hablamos de inmersión, evidentemente no es posible sumergir los equipos de computación en agua, debido a los peligros de unir este líquido con la electricidad. Sin embargo, el aceite mineral ha sido utilizado por las empresas eléctricas como fluido refrigerante durante más de un siglo. Si bien el aceite mineral solo tiene un 40% de la capacidad de retención del calor y un 25% de la conductividad térmica del agua, tiene una gran ventaja sobre ésta, puesto que es un aislante térmico. De este modo, los dispositivos eléctricos pueden funcionar perfectamente estando sumergidos en aceite. Además, el aceite mineral retiene calor 1.000 veces más que el aire. El LPS de la NSA está utilizando en su Research Park un sistema formado por un tanque lleno de aceite mineral, que contiene los servidores, y un módulo que cuenta con un intercambiador de calor agua/aceite y una bomba de circulación de aceite. “En esta instalación, el intercambiador de calor está vinculado al circuito de agua enfriada, si bien no es necesario. El aceite circula entre el tanque y el intercambiador de calor gracias a una El rol del UPS Yendo aguas más arriba nos encontramos con la figura más representativa dentro del elenco de personajes de esta historia. Se trata de los SAIs o UPS, denominador común casi irreemplazable en los data centers. Habida cuenta que la tolerancia de los equipos ante la pérdida de alimentación eléctrica apenas sobrepasa los 20 ms (milisegundos), y conociendo el comportamiento de las líneas de suministro externo en los países en los que trabajamos, su utilización es casi obligada si se quiere dar a los equipos un mínimo colchón de seguridad. Es cierto que, en los tiempos que corren, se están viendo algunas aplicaciones en las que no se cuenta con ellos y que, en otras ocasiones, se está recurriendo a no colocarlos en una de las ramas, pero ello no impide que se pueda afirmar rotundamente que se trata de los elementos más conocidos del reparto (muchas veces hemos oído a gente del lado TI hablar de la parte eléctrica como “eso de los UPSs” y ya está). Pues bien, en cada nuevo proyecto, y ya que en modo alguno se discute sobre su utilización, aparece indefectiblemente la consabida discusión sobre qué tecnología adoptar y qué modelo en concreto. Al menos en Europa, la primera decisión es la de si ir a modelos estáticos con baterías como almacén de energía o a rotativos dotados de volantes de inercia para idéntico objetivo. Los pros y contras son bien explicados por los encargados de vender unos u otros pero la decisión no es nada fácil, al menos para los que no disponen de un historial en su organización en el uso de ambas alternativas durante años, única forma de saber a ciencia cierta hacia dónde ir. Y, en el caso de haber seleccionado la versión estática, a continuación hacerlo con el tipo de configuración. Desde la off-line hasta la on-line de doble conversión, pasando por las de naturaleza interactiva o las de conversión tipo delta, los argumentos son variados y, todos ellos, ciertos. Por ejemplo, el enorme ahorro de aparellaje cuando se eligen modelos fuera de línea en alta tensión, el compromiso entre precio y prestaciones de determinados modelos interactivos o la aportación de un excelente acondicionamiento de línea en los modelos de doble conversión. Se trata éste de un concepto íntimamente relacionado con el de power quality, un término que históricamente ha sido anulado por el de la continuidad de servicio, pero que tiene una importancia máxima en este tipo de entornos, donde la sensibilidad de los equipos es directamente proporcional a la evolución en el grado de integración. Al comienzo de nuestra actividad en el terreno de la power quality, los únicos que entraban algo en ese terreno eran los fabricantes de SAIs, y lo hacían desde una perspectiva focalizada en un producto que, eso sí, bien seleccionado, contribuía en gran medida a la mejora en las condiciones de suministro a equipos sensibles. Pero, de forma simultánea, ciertas medidas tomadas por ese colectivo, fundamentalmente en lo que respecta a la relación entre el conductor neutro y el de protección, fueron directamente en contra de la línea anteriormente expresada, dando lugar a situaciones que incorporaban serios problemas de seguridad. Una buena solución para este inconveniente que ha sido muy corriente en nuestro sector ha sido el uso de transformadores de aislamiento, esa gran ayuda de la que disponemos los diseñadores y usuarios de data centers para resolver muchos de los problemas relacionados con tierras, armónicos, sobretensiones transitorias y demás fenómenos relacionados con la PQ. En los países donde, debido a las tensiones normalizadas de suministro, deben realizar una reducción de voltaje para llegar a los equipos, tienen, sin muchas veces darse cuenta de ello, la ayuda impuesta por la necesidad y, por ello, suelen presentar menos anomalías en las condiciones de funcionamiento de esa parte de la instalación. Modelo de UPS rotativo diésel de la marca Hitec TIER IV SS yl lo | FACILITY INDITEX INDITEX Data Center, First Phase 5 August 2014 MAA  Eficiencia energética medida como la relación entre energía recibida y energía empleada en las salas IT. La relación óptima sería de 1. En un centro de datos TIER IV está entre 1,2 y 1,4. En el Alcalá Data Center está entre 1,2 y 1,3.  Escalabilidad viable pensada desde su construcción. El factor más importante es la posibilidad de que el centro de datos pueda ampliar su capacidad eléctrica de forma modular, sin precisar de obras completas que pudiesen requerir parar la actividad de los equipos. "como un LEGO" es determinado la escalabilidad de un tier IV. Es fácil y rápido agregar nuevas cajas eléctricas.  Redundancia, Todas las salas deben tener duplicada la fuente de alimentación eléctrica y mantenerse activas de forma independiente. Se calcula la potencia total requerida y se duplica con un pequeño margen para asegurarse de que el suministro nunca será un problema. También se duplican las redes de acceso a los datos. Tanto si fallan ellas como si falla el suministro eléctrico por alguna razón, el funcionamiento siempre estará garantizado con ese 99,995 % de disponibilidad anual Los términos N, N+1 y 2N, por lo general se refieren al Nº de componentes de energía y enfriamiento que comprenden la totalidad de los sistemas de infraestructura del centro de datos. De este modo “N” es la calificación mínima de cualquier componente requerido para soportar la carga crítica; un sistema de “N” no es redundante en absoluto, lo cual supone que en caso de corte de luz, los componentes como UPS, generador o unidad de enfriamiento se verán afectados. En el caso de los Tier N+1 y 2N, éstos representan niveles crecientes de respaldo de energía y rutas de alimentación, sin embargo, es importante entender que los componentes redundantes en sí mismos no garantizan la disponibilidad continua, ni aseguran el cumplimiento que el Uptime Institute certifica.  Seguridad Como es fácil de imaginar, las medidas de seguridad son extraordinariamente altas para evitar cualquier tipo de problema. Todas las instalaciones deben ser vigiladas con cámaras que no dejen ángulos muertos, todas las puertas deben cerradura y en muchos casos control de acceso por huella dactilar, tarjeta de identificación o código de seguridad. Las visitas, incluso si se trata de clientes con sus datos alojados allí, ha de pasar un estricto control de seguridad. Premios Brill En septiembre de 2013 el Instituto Uptime anunció la creación de los Premios Brill (nombrado en honor del fallecido fundador del Uptime Institute, Ken Brill). Los Premios se describen como haber sido creado "a reconocer la eficiencia en el sentido más amplio de la palabra-eficiencia del despliegue de capital, tecnología, diseño, operaciones y gestión global".
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved