Cinco principios de diseño para que su centro de datos acelere

Por: William Choe / HPE Aruba Networks

Al igual que los autos deportivos de alto rendimiento, los centros de datos actuales deben funcionar más rápido y más eficientemente que nunca. Las E/S avanzadas de computación y almacenamiento requieren conectividad en la parte superior del rack de mayor velocidad para conectar estructuras en columnas de 400G (con 800G en el horizonte).

Debido a que la mayoría de las operaciones de red no se han mantenido al día con las nuevas API y las prácticas impulsadas por la automatización, los centros de datos empresariales heredados son como un automóvil deportivo atrapado en primera marcha, incapaz de aprovechar al máximo su velocidad. El aprovisionamiento y la configuración manuales de la red no pueden igualar la velocidad de las prácticas de desarrollo modernas y las aplicaciones de microservicios. Los dispositivos integrados, los agentes y la compleja ingeniería de tráfico introducen una mayor resistencia, y la capacidad de entregar registros y telemetría a las herramientas de análisis para generar resultados significativos y procesables es limitada.

Cinco principios de diseño para centros de datos de próxima generación

¿Cómo se pueden superar las limitaciones de las arquitecturas heredadas y llegar a un centro de datos moderno que funcione como un Ferrari? Saque su centro de datos de la primera marcha y opere a toda velocidad con estos cinco principios de diseño:

1.     Modernícese con conmutadores habilitados para DPU

Las unidades de procesamiento de datos (DPU) son procesadores que descargan y aceleran las funciones de red y seguridad. Originalmente diseñados para servidores, los hiperescaladores han adoptado DPU a escala, lo que demuestra la tecnología.

La serie de conmutadores HPE Aruba Networking CX 10000 con AMD Pensando es la primera en integrar completamente DPU (dobles) en un conmutador L2/3, acercando el firewall con estado, NAT y la microsegmentación a las cargas de trabajo sin afectar el rendimiento del procesamiento del conmutador.

Integrar DPU en conmutadores de centros de datos en lugar de instalarlas en servidores simplifica la implementación industrial y reduce el costo total. En lugar de comprar DPU para cada servidor en el bastidor, un conmutador ToR habilitado para DPU proporciona beneficios similares a una fracción del precio, sin la necesidad de desensamblar y abrir cada servidor para instalar el nuevo silicio. Los conmutadores habilitados para DPU significan que puede adoptar un modelo de servicios distribuidos en entornos de centros de datos existentes a nivel de rack y/o POD, sin actualizaciones costosas ni largos tiempos de implementación.

2.     Acercar los servicios de red y seguridad a las cargas de trabajo con una arquitectura de servicios distribuidos

Los servicios de seguridad en los centros de datos tradicionales normalmente se brindan de dos maneras:

  • Dispositivos de hardware que cuelgan de la red del centro de datos, lo que requiere ingeniería de tráfico para dirigir los flujos hacia el clúster de seguridad a través de una pila de dispositivos y luego regresarlos a la estructura de la red, lo que agrega complejidad operativa y latencia.
  • Agentes de software que se ejecutan en máquinas virtuales o contenedores en servidores, que requieren la instalación de una gran cantidad de agentes y controladores que eliminan la memoria y la CPU del dispositivo del procesamiento de aplicaciones y agregan un nuevo nivel de costos de licencia y administración.

La ejecución de servicios de firewall, NAT y segmentación dentro de la estructura de la red aplica estos servicios más cerca de las cargas de trabajo y los flujos de tráfico, evitando al mismo tiempo la ingeniería de tráfico compleja y las cargas de costos y administración de los agentes basados ​​en servidores. Los conmutadores habilitados para DPU permiten una adopción más sencilla de arquitecturas de servicios distribuidos en centros de datos antiguos, modernizando la infraestructura a un costo menor y con menos interrupciones operativas.

3.     Acercar Zero Trust a las aplicaciones

Zero Trust permite un control más detallado de las comunicaciones de aplicaciones y servicios que las reglas de puerto/protocolo o ACL típicas, pero requiere visibilidad de todo su tráfico. La mayor parte del tráfico del centro de datos en el desarrollo de aplicaciones moderno basado en hipervisores o microservicios corre de este a oeste y pasa a través de conmutadores ToR. La distribución de servicios de firewall con estado y microsegmentación en ToR DPU aprovecha la visibilidad que los conmutadores ya tienen en estas comunicaciones para aplicar y hacer cumplir reglas precisas en la comunicación de host a host, sin la necesidad de limitar el tráfico hacia los dispositivos de seguridad.

Y como puede inspeccionar cada paquete o flujo que pasa a través de su capa ToR, aumenta drásticamente sus posibilidades de detectar (y detener) el tipo de movimiento lateral que los atacantes utilizan para penetrar en su infraestructura.

4. Combine AIOps de red y seguridad

Los datos son información invaluable que se puede analizar para fines de seguridad, resolución de problemas, monitoreo del rendimiento y otros usos. Una nueva generación de herramientas de análisis utiliza inteligencia artificial y aprendizaje automático para extraer información útil de los datos y proporcionar análisis predictivos para detectar pequeños problemas antes de que se vuelvan grandes.

Hasta ahora, los equipos de operaciones de red han tenido que depender de sondas y grifos para obtener estos datos, lo que requería construir una segunda red para monitorear la primera o limitar la muestra de datos. Los conmutadores basados ​​en DPU de HPE Aruba Networking recopilan y exportan registros de flujo IPFix basados ​​en estándares y amplían la telemetría para incluir syslogs de firewalls con estado que se ejecutan en la DPU. La DPU puede exportar syslogs a herramientas de seguridad de terceros, incluidos sistemas SIEM y XDR, lo que ayuda a reducir los puntos ciegos y permite a los operadores de red responder a los problemas de manera más rápida y efectiva.

5. Incorporar borde, colocación e IaaS

La distribución de servicios directamente en un conmutador basado en DPU extiende las capacidades de red, seguridad y telemetría fuera del centro de datos a ubicaciones externas como instalaciones de colocación, fábricas, sucursales o bordes de la nube pública. HPE Aruba Networking CX 10000 puede simplificar drásticamente una transferencia de IPsec de sitio privado/privado de 400G a Microsoft Azure, AWS o a través de servicios de nube híbrida ubicados localmente y globalmente adyacentes, como HPE GreenLake.

Aprovechar los diseños que combinan colocación e infraestructura como servicio (IaaS) ofrece beneficios adicionales, que incluyen baja latencia, conexiones de alto ancho de banda a los principales proveedores de la nube, velocidad de transacción mejorada y soberanía de datos. Estas soluciones integradas también ayudan a reducir los costos al limitar el CapEx inicial, pagar solo por lo que usa y evitar los cargos de salida de la nube pública.

La próxima generación de arquitectura de servicios distribuidos admite aplicaciones en una variedad de ubicaciones donde es necesario recopilar, procesar, inspeccionar o transmitir datos críticos a la nube pública.

Acelere su centro de datos

Los coches deportivos de alto rendimiento están fuera del alcance de muchos de nosotros. Un centro de datos, construido para ofrecer velocidad con una arquitectura de servicios distribuidos habilitada por los primeros conmutadores habilitados para DPU en la industria, no lo es. Hoy en día es posible transformar su centro de datos para satisfacer las necesidades de carga de trabajo sin necesidad de reconstruirlo desde cero. Una solución de próxima generación extiende Zero Trust a lo más profundo del centro de datos, aprovecha las AIOps de red y seguridad y lleva capacidades críticas de red y seguridad a las ubicaciones perimetrales.

Todo para decir: puede que no consigas ese Ferrari, pero con una arquitectura de servicios distribuidos, puedes tener un centro de datos que funcione como tal.

Lo que 400GBASE-SR16 puede enseñarnos sobre la migración a mayor velocidad

Por: Ken Hall, RCDD NTS / CommScope

A finales de diciembre de 2017, la Asociación de Estándares del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) adoptó el estándar 802.3bs para 200 y 400 Gbps. Entre otras cosas, el estándar allanó el camino para 400GBASE-SR16, que requería 32 fibras multimodo por MPO, entregando 16 carriles 25G NRZ. Se derramó mucha tinta sobre 400GBASE-SR16; sin embargo, en unos pocos años, 400GBASE-SR16 había muerto.

Resulta que, en aquel momento, poner 32 fibras en un solo conector puede haber sido ir demasiado lejos. Entonces, ¿cuál es la lección aquí? Podría ser simplemente que, en la búsqueda de un rendimiento cada vez más rápido, la practicidad sea tan importante como la velocidad.

La migración de alta velocidad es un término relativo que se basa en el modelo de negocio y el propósito del operador del centro de datos. Las organizaciones empresariales están pasando de la transmisión dúplex a la transmisión paralela de 10G a 40G, de 25G a 100G y superiores para aumentar la capacidad. Actualmente, los líderes de la industria están preparados para migrar a 800G y luego a 1,6T. Los diseñadores de redes están analizando sus opciones, tratando de garantizar que tengan la infraestructura adecuada para ofrecer de manera eficiente un rendimiento rentable, de mayor velocidad y menor latencia.

En lo que respecta al cableado, hay muchos enlaces de 12 fibras instalados (y algunos de 24 fibras). Algunas instalaciones cambiaron desde el principio de 12 fibras a 8 fibras para soportar aplicaciones y, más recientemente, otras han decidido pasar de la opción de 8 fibras, saltando directamente a una infraestructura basada en 16 fibras.

En este blog, analizaremos algunos enfoques que los centros de datos pueden adoptar para manejar la transición de sus configuraciones de fibra heredadas a diseños más nuevos que los colocarán en el camino hacia 1,6 T y más, o hacia aquellas aplicaciones de próxima generación. para sus necesidades de capacidad. Antes de sumergirnos en las soluciones, un poco de contexto.

¿Cómo llegamos aquí?

Para acelerar el desarrollo de la velocidad de datos, las aplicaciones dúplex como 10G, 25G y 50G se agruparon en diseños cuádruples de cuatro carriles para proporcionar una migración confiable y constante a 40G, 100G y 200G. La configuración elegida fue el MPO de 12 fibras, el primer conector MPO aceptado en los centros de datos. Sí, había una variación de 24 fibras menos utilizada, pero la de 12 fibras era común, conveniente y una interfaz multifibra implementada con mayor frecuencia se encontraba en el módulo óptico de los conmutadores.

A medida que los centros de datos migran a aplicaciones de 8 o 16 fibras para mejorar el rendimiento, las configuraciones de 12 y 24 fibras se vuelven menos eficientes. Ampliar la capacidad del switch utilizando troncales de 12 y 24 fibras se convierte en un desafío mayor. Los números simplemente no cuadran, lo que deja capacidad varada en el puerto del switch o obliga a la combinación de múltiples cables troncales en cables hidra o de matriz para utilizar completamente las fibras en el equipo. Irónicamente, los cálculos que hicieron que las 12 fibras fueran perfectas para aplicaciones dúplex por debajo de 400G de repente las hicieron mucho menos atractivas con paralelo a 400G y superiores. Introduzca el diseño “octal” de 8 carriles: es decir, 8 carriles de recepción y 8 de transmisión.

¿Qué tiene de bueno la conectividad de 16 fibras?

A partir de 400G, la tecnología octal de ocho carriles y los desbloqueos MPO de 16 fibras se convirtieron en el componente básico multipar más eficiente para aplicaciones troncales. Pasar de implementaciones cuádruples a configuraciones octales duplica el número de rupturas, lo que permite a los administradores de red eliminar capas de conmutadores o maximizar la presentación y densidad de la fibra en la parte frontal de un conmutador, al tiempo que admiten aplicaciones de velocidad de línea. Las aplicaciones actuales están optimizadas para cableado de 16 fibras. La compatibilidad con aplicaciones de 400G y superiores con tecnología de 16 fibras permite a los centros de datos ofrecer la máxima capacidad de conmutación a conmutadores o servidores. Por cierto, los grupos de 16 fibras también son totalmente compatibles con aplicaciones de 8, 4 o 2 fibras sin concesiones ni desperdicios.

Este diseño de 16 fibras, que incluye transceptores, cables troncales/matriz y módulos de distribución coincidentes, se convierte en el componente básico común que permite a los centros de datos avanzar a través de 400G y más. ¿Quiere migrar a 800G usando carriles de 100G? Una sola conexión MPO16 o dos conexiones MPO8 desde una troncal común en un solo transceptor pronto será una opción que también proporcionará total compatibilidad con versiones anteriores. Una vez que se conecta una velocidad de línea de 200G, esa misma idea nos lleva a 1,6T.

Espera, ¿qué pasa con mis enlaces de 8 fibras?

Si bien las 16 fibras pueden ser la configuración más eficiente para velocidades superiores a 400 G, todavía hay algo de valor en las implementaciones heredadas de 8 fibras, principalmente para aquellos centros de datos que ejecutan aplicaciones de hasta 400 G. Para aquellos que actualmente utilizan troncales de 8 fibras y necesitan actualizarse a 16 fibras, la pregunta es: ¿Cuál es la mejor manera de manejar eso y cuándo?

Básicamente, necesita duplicar la cantidad de fibras en la parte frontal del panel para admitir el mismo número de puertos dentro del panel. Una forma de hacerlo es cambiando los conectores LC existentes en el frente a conectores SN más pequeños, siempre que sea una opción con el panel de fibra. El empaque SN proporciona el espacio necesario para al menos duplicar el número de fibras en el mismo espacio que un adaptador LC dúplex, mientras utiliza el mismo tamaño y férula probada. Dos conectores MPO8 (trasero) a 8SN (frontal) en un módulo caben en el mismo espacio que un único módulo conector MPO8 a 4duplex LC. Este cambio libera la mitad del espacio del panel, lo que permite que los centros de datos dupliquen la cantidad de fibras disponibles y admitan el doble de puertos sin agregar espacio en rack (que generalmente no está disponible para el día 2). Se pueden agregar cables troncales adicionales de manera sencilla y sencilla con administradores de cables flexibles. Esto genera importantes dividendos cuando se trata de gestionar los desafíos del día 2.

¿Debería pasar directamente a los troncales de 16 fibras?

Pero, ¿qué sucede si actualmente utiliza troncales de 12 o 24 fibras y ahora está listo para pasar a una configuración más eficiente de 8 o 16 fibras para adaptarse a las aplicaciones? La primera consideración es su modelo de negocio. ¿Debería considerar la opción de 8 fibras si su equipo de red está evaluando aplicaciones que pueden requerir un enlace de 16 fibras? Gran pregunta.

Si bien las conexiones de 8 fibras se combinan con soluciones de 12 o 24 fibras para aplicaciones de mayor velocidad, en comparación con un diseño de 16 fibras, existe un fuerte argumento comercial para olvidar las implementaciones troncales de 8 fibras. ¿La diferencia clave entre los dos? Recuentos de puertos. La densidad típica de puertos MPO es 72 por unidad de rack. Si la troncal y las aplicaciones se basan en 8 fibras, son 72 puertos. Si las aplicaciones pasan a ser de 16 fibras, esa misma base de 8 fibras proporciona sólo 36 puertos. 16 troncales de fibra coinciden con la aplicación de 16 fibras con 72 por RU, pero también pueden admitir 144 puertos de 8 fibras en ese mismo espacio.

La realidad para muchas organizaciones empresariales es que las aplicaciones de 8 fibras con capacidad de conexión de 4 vías tendrán una vida de migración más larga según las necesidades de capacidad. Sin embargo, la eficiencia energética y el menor costo por gigabit utilizando conexiones de 8 vías disponibles con puertos de 16 fibras pueden cambiar los modelos antes de lo planeado originalmente. Pasar de conexiones de 8 a 16 fibras le permite distribuir mejor la capacidad total del conmutador y, en algunos casos, eliminar algunos conmutadores y sus costos asociados. En el caso de una implementación totalmente nueva, la apuesta inteligente está en troncales de 16 fibras, que soportan de manera eficiente rutas futuras y aplicaciones heredadas sin desperdiciar fibra.

Lo ideal es que la decisión de 8 contra 16 se tome en colaboración entre el equipo de cableado de infraestructura y el equipo de redes. Sin embargo, a menudo el equipo de redes toma la decisión y el equipo de infraestructura debe encontrar la mejor manera de realizar la transición.

¿Qué pasa con mis implementaciones heredadas de 12 o 24 fibras?

Si bien las configuraciones de 8 y 16 fibras son las más adecuadas para las velocidades más altas que nos llevarán a 1,6 T y más, la realidad dentro de muchos de los centros de datos actuales (incluidas las grandes instalaciones de hiperescala) es que muchos troncales heredados de 12 fibras todavía son en uso.

Supongamos que la decisión es pasar de implementaciones de 12 y 24 fibras dúplex a aplicaciones paralelas de 8 y 16 fibras. ¿Cómo se hace esa transición sin un desmontaje y reemplazo completo?

Una forma de hacerlo es mediante el uso de adaptadores y cables de matriz; por ejemplo, usando LC en la parte frontal de un panel de conexión de fibra y una matriz que termina en cuatro LC dúplex conectados a un MPO de 8 fibras. También podría dividir un troncal de 24 fibras en tres conjuntos de 8 fibras o dos cables de 24 fibras conectados a tres MPO de 16 fibras. Una desventaja de la solución de matriz/adaptador MPO es la gestión de cables. Las longitudes de ruptura deben ser prácticas para que sean útiles. Además, los transceptores basados ​​en MPO tienen clavijas de alineación incorporadas, lo que requiere cables de equipo sin clavijas. Los cables de equipo que no tienen clavijas en ambos extremos son los más simples para los técnicos en el campo. Pero la combinación correcta de fijado/no fijado debe aparecer en todo el canal.

La conclusión: hay muchas maneras de hacer que los números funcionen; el objetivo es siempre el mismo: soportar los requisitos de la aplicación de la manera más eficiente posible sin encallar fibras en los puertos. Los administradores de redes deben priorizar las soluciones de infraestructura que puedan ofrecer tanto los diseños más antiguos de 12 y 24 fibras como las configuraciones de 8 y 16 fibras sin requerir modificaciones de paneles que requieren mucho tiempo en el campo.

Capacidad de corte y corte en cubitos dentro del panel

Otro requisito clave es una mayor flexibilidad de diseño en el panel de conexiones. En un diseño de plataforma de fibra tradicional, componentes como módulos, casetes y paquetes de adaptadores son específicos del panel. Como resultado, cambiar componentes que tienen diferentes configuraciones significa cambiar también el panel. El impacto más obvio de esta limitación es el tiempo y el costo adicionales para implementar nuevos componentes y nuevos paneles. Al mismo tiempo, los clientes de centros de datos también deben lidiar con costos adicionales de inventario y pedidos de productos.

Por el contrario, un diseño en el que todos los componentes del panel son esencialmente intercambiables y están diseñados para encajar en un único panel común permite a los diseñadores e instaladores reconfigurar e implementar rápidamente capacidad de fibra en el menor tiempo posible y con el menor costo. También permite a los clientes de centros de datos optimizar su inventario de infraestructura y sus costos asociados.

Soporte de infraestructura para migraciones de mayor velocidad

Entonces, en resumen: cuanto más complejo y saturado se vuelve el entorno del centro de datos, más desafiante se vuelve la migración a velocidades más altas. El grado de dificultad aumenta cuando la migración implica el (eventual) traslado a diferentes configuraciones de fibra. Aquí es donde se encuentran los administradores de centros de datos. La forma en que realicen la transición de sus implementaciones heredadas de 12 y 24 fibras a implementaciones más amigables con las aplicaciones de 8 y (particularmente) 16 fibras determinará su capacidad para aprovechar capacidades de 800G y más para el beneficio de sus organizaciones. Lo mismo puede decirse con respecto a la flexibilidad de diseño que tienen en el panel de conexiones.

Estos son los desafíos que enfrentan ahora los administradores de redes en la nube y en instalaciones de hiperescala. En el lado positivo, CommScope ha ayudado a allanar el camino hacia una migración más fluida y eficiente. Para obtener más información sobre nuestra infraestructura modular de fibra de alta velocidad Propel™, con soporte nativo para diseños basados ​​en 16, 8, 12 y 24 fibras, consulte la Guía de diseño de Propel actual.

Cisco y Panduit: impulsando la sustentabilidad en el centro de datos

Por: Mark Hwang / Panduit

Según el artículo de McKinsey Company, “Invertir en la creciente economía de los centros de datos”, la demanda de energía de los centros de datos de EE. UU. está creciendo aproximadamente un 10% al año hasta 2030. centros de datos. Y según IDC, en el cuarto trimestre de 2022, las ventas de ingresos por interruptores de alta velocidad crecieron rápidamente; 200/400 Gbps creció más del 300%, 100 Gbps al 19% y 25/50 Gbps al 30%.

Además, la Encuesta global de centros de datos de 2022 del Uptime Institute revela que los problemas de energía y red representan el 58 % de las interrupciones de los centros de datos y el 63 % de los operadores de centros de datos creen que se les exigirá que informen públicamente sobre las métricas de sostenibilidad ambiental en los próximos cinco años.

La sostenibilidad es un enfoque principal para los operadores de centros de datos

Eso es mucho para procesar. En resumen, el aumento de los costos de energía y materiales, el aumento de los requisitos de energía y las regulaciones inminentes han intensificado la urgencia en torno a la sostenibilidad. Los operadores de centros de datos también deben admitir las crecientes demandas informáticas y de red al tiempo que garantizan la disponibilidad para mantener las luces encendidas.

Permítanme explicar por qué Cisco y Panduit, juntos, están en una posición única para ayudar a las organizaciones a superar todos estos requisitos. Cisco y Panduit han colaborado a lo largo de los años para ayudar a las organizaciones a administrar las transiciones de red durante los últimos 20 años y ahora hemos ampliado nuestra colaboración más allá de la infraestructura de red hacia el área estratégica de energía y sustentabilidad.

Integración de Panduit iPDU y Cisco Nexus Dashboard

En Cisco Live 2023, anunciamos la integración de nuestra PDU inteligente (iPDU) con Cisco Nexus Dashboard. La integración de Cisco Nexus Dashboard y la iPDU de Panduit equipará a los clientes con los datos necesarios para acelerar su hoja de ruta de sustentabilidad, independientemente de si recién están comenzando o están muy avanzados en su viaje para lograr Net Zero.

Hemos proporcionado una incorporación optimizada de las iPDU de Panduit en Nexus Dashboard Sustainability Insights. A través de esta integración, los clientes podrán monitorear el costo de la energía, el uso y las métricas de sostenibilidad en un sitio, equipo e incluso a nivel de salida de PDU. Las organizaciones estarán armadas con conocimientos prácticos para reducir costos y optimizar sus estrategias de sostenibilidad.

Panduit iPDU integrado en Nexus Dashboard:

Panduit-iPDU-nivel-detalles-en-Nexus-Dashboard

Detalles del nivel de Panduit iPDU en Nexus Dashboard:

Panduit-iPDU-nivel-de-salida-detalles-en-Nexus-Dashboard

Detalles del nivel de salida de Panduit iPDU en Nexus Dashboard:

Integrado-Panduit-iPDU-en-Nexus-Dashboard

Cisco y Panduit se comprometen a proporcionar soluciones y arquitecturas complementarias que permitan redes de alta velocidad resilientes y escalables, al mismo tiempo que brindan visibilidad de red y energía de extremo a extremo para ayudar a las organizaciones a acelerar su camino hacia la sostenibilidad.

Para ver nuestras muchas arquitecturas de referencia de infraestructura de red, documentos técnicos y guías de usuario, así como también conocer nuestra integración de iPDU con Cisco Nexus Dashboard Sustainability Insights, visite www.panduit.com o www.panduit.com/panduitciscoalliance para obtener más información . También puede registrarse aquí para ser el primero en enterarse de cualquier anuncio que hagamos para el lanzamiento de nuestra solución integrada

Escalar su centro de datos sin escalar el personal y las operaciones

Por: Tim Stack / Cisco Systems

¿Qué hace cuando necesita escalar la infraestructura de su centro de datos, pero no tiene tiempo para administrar hardware adicional o presupuesto para personal adicional?

Se reduce a la simplicidad de los sistemas y la eficiencia operativa, que son los sellos distintivos de las soluciones de infraestructura hiperconvergente (HCI) como Cisco HyperFlex. HyperFlex no solo ayuda a modernizar un centro de datos, sino que también permite la expansión de la infraestructura sin aumentar su carga operativa.

IDC, que realizó un estudio de valor comercial de HyperFlex, dice que esto se debe a la capacidad de la plataforma para:

  • Reduzca los silos de almacenamiento, computación y servicios de administración de datos a un clúster de servidores x86 que se pueden implementar, administrar y admitir como un solo sistema
  • Apoyar la transformación organizativa de TI a través de la consolidación de funciones que se centran en la virtualización, el cómputo y el almacenamiento a nivel general
  • Reducir la necesidad de implementar diferentes tipos de infraestructura en silos dentro del centro de datos, incluidas las soluciones de eficiencia y protección de datos.

Innumerables empresas están aprovechando estos beneficios. El conglomerado europeo de energía E.ON, por ejemplo, más que duplicó el tamaño de su infraestructura de centro de datos en respuesta al crecimiento continuo de datos y negocios. Lo hicieron sin agregar más miembros del equipo. Y la infraestructura se comparte entre cuatro subsidiarias de E.ON.

“Nos encanta HyperFlex”, dijo Benjamin Bubbers, administrador de red de Schleswig-Holstein Netz AG, la subsidiaria de E.ON responsable de la infraestructura compartida. “Administrar diez clústeres es lo mismo que administrar cuatro de ellos”.

Según el estudio de IDC, los equipos que implementan HyperFlex:

  • Reducir los costos operativos en un 50%
  • Aumente la eficiencia operativa en un 71%
  • Acelere las implementaciones de servidores en un 93%
  • Lograr un ROI a cinco años del 452%

Lea el estudio de caso para obtener más información sobre la infraestructura compartida de E.ON y cómo HyperFlex ha mejorado significativamente la eficiencia de recursos y costos.

Una mirada más profunda a la unidad de distribución de energía inteligente Panduit Smartzone™ G5

Por: Frank Mazzuca / Panduit

Acerca de la PDU inteligente G5

Debido a sus altas densidades de salida y factores de forma pequeños, la unidad de distribución de energía inteligente (iPDU) Panduit SmartZone G5 sigue siendo una de las mejores y más avanzadas PDU del mercado. Fue creado con el objetivo de monitorear y corregir ineficiencias del Centro de Datos. Además, también se enfoca en recuperar energía infrautilizada a nivel de rack o gabinete. La PDU monitorea la energía y el entorno general en los centros de datos al escanear continuamente las sobrecargas del circuito eléctrico y las condiciones ambientales físicas. Es importante conocer estas condiciones para determinar qué equipo de TI crítico puede estar en riesgo.

Mark Dehmlow, gerente sénior de desarrollo comercial dentro de los estados,

“Los entornos de los centros de datos están cambiando y esto se debe principalmente a la adopción de estrategias de TI híbridas entre las organizaciones de TI”.

Se necesita una infraestructura inteligente para poder atravesar el entorno de centro de datos de TI híbrido que se está volviendo cada vez más popular. La PDU inteligente Panduit G5 habilita las capacidades que ahora se requieren para respaldar los centros de datos distribuidos: puede administrar y monitorear de forma remota varias condiciones ambientales, seguridad física y uso de energía.

Accesorios y características

Un accesorio adicional de Panduit Intelligent G5 PDU es la manija de seguridad SmartZone, que protege los datos dentro de los gabinetes. Panduit quería evitar la gestión de datos biométricos debido a problemas de privacidad; por lo tanto, crearon el Security Handle que evita por completo la biometría. Este mango inteligente más avanzado tiene doble autenticación que incluye un lector de tarjetas RFID de doble frecuencia y un teclado, los cuales están directamente integrados en el mango. Todas las manijas también tienen una baliza para ayudar a ubicar gabinetes en pasillos de gabinetes de datos ocupados y al mismo tiempo informarle sobre la salud de un gabinete.

Algunos de los videos dentro de la serie explican las características específicas que poseen todas las PDU de Panduit. Todas las PDU G5 están diseñadas con componentes premium de alta temperatura que les permiten alcanzar una temperatura de funcionamiento de 60 grados Celsius o 140 grados Fahrenheit. Otra característica clave de la PDU es el controlador. El controlador en sí es intercambiable en caliente, lo que significa que el controlador se puede quitar, reemplazar y reorientar según sea necesario sin perder energía, lo que ayuda a ahorrar tiempo y mitigar el riesgo. El controlador cuenta con una pantalla OLED de alta visibilidad, una luz LED de estado, un puerto Ethernet de 1 gigabit que genera ahorros de mano de obra adicionales, un puerto USB para actualizaciones de firmware y configuración de carga, y puertos serie que permiten la conexión en cadena de cuatro PDU juntas, que abre 32 puertos de sensores ambientales adicionales bajo una sola dirección IP.

Recopilación de datos

Además, todas las PDU de Panduit incluyen una GUI web para múltiples dispositivos. Cuando inicie sesión en la interfaz, aparecerá un panel que contiene toda la información vital sobre su gabinete de datos. Esto incluye información sobre energía, medio ambiente y seguridad. Hay varios íconos en la parte superior de la interfaz que lo llevan a diferentes menús. Algunos de los elementos del menú incluyen identificación, control y gestión de salidas, idiomas, varios registros y numerosas configuraciones del sistema.

Jeff Paliga, Director de Desarrollo de Negocios, afirma,

“Cuando se trata de centros de datos y sistemas de TI, todos quieren tener acceso a los datos, pero lo que es más importante, quieren tener acceso a los datos correctos para mejorar sus decisiones comerciales y ayudar a aumentar la eficiencia y mejorar el rendimiento”.

Las PDU Panduit G5 ayudan a facilitar la recopilación de datos y el proceso de elaboración de informes asociativos. Esto le permite adquirir más conocimientos sobre el rendimiento. Como se mencionó anteriormente, las PDU G5 de Panduit monitorean, recopilan e informan sobre una multitud de temas. El software SmartZone Cloud correspondiente le permite personalizar sus parámetros operativos. Puede elegir los aspectos que desee, lo que hace que todo el sistema sea completamente modular y escalable.

Los componentes de la nube y del centro de datos necesitan el equilibrio adecuado

Por: Frank Mazzuca / Panduit

La forma en que accede a su infraestructura en la nube evoluciona continuamente a medida que entran en escena más usuarios, aplicaciones complejas y puntos de datos. Para brindar una visión más detallada de lo que es este nuevo equilibrio, Panduit se asoció con Frontier para brindar un informe de perspectiva interna a las organizaciones. Cubre los nuevos requisitos en torno al rendimiento, la gestión de la latencia, los requisitos de la cadena de suministro y la creación de un nuevo nivel de sostenibilidad.

Los datos en la nube se están generando a un ritmo asombroso

El ecosistema digital se está expandiendo y los datos se están generando a un ritmo asombroso. La razón de esto es que más personas se conectan a través de una variedad de dispositivos electrónicos. Además, esto establece la importancia de que los expertos en la nube elijan socios que posean un conjunto de habilidades diverso. Evidentemente, contar con un socio experimentado ayudará a solidificar el equilibrio entre los diferentes entornos de centros de datos.

El informe de Data Center Frontier resume todos los esfuerzos necesarios para una transición sin problemas. Este informe proporcionará los detalles sobre todos los componentes importantes que necesitará para asegurarse de estar preparado. En el interior encontrará un ejemplo de la vida real con un cliente actual de Panduit y los desafíos que enfrentó. Además, entra en detalles sobre las soluciones implementadas que les ayudaron a lograr sus objetivos y metas estratégicas.

Para obtener más información sobre las herramientas, las habilidades y los esfuerzos necesarios para equilibrar los componentes importantes de la nueva nube y el centro de datos moderno, lea el informe completo de Frontier aquí.

Concéntrese en HyperFlex: recuperación ante desastres multifunción impulsada por la nube y multipresencial

Por: Bill Roth / Cisco Systems

Una breve historia de HyperFlex Disaster Recovery

HyperFlex se lanzó originalmente sin funcionalidad de replicación nativa, por lo tanto, DE DR nativa. Poco tiempo después, en 2017, HyperFlex Data Platform (HXDP) versión 2.5 introdujo la compatibilidad con la replicación asincrónica de instantáneas de máquinas virtuales. La topología de replicación nativa consiste en una configuración 1:1 con dos clústeres HyperFlex emparejados. Los clústeres emparejados se pueden separar geográficamente y utilizar conectividad WAN. El soporte de flujo de trabajo para conmutación por error y reprotección de VM, migración planificada y recuperación de pruebas lo convierten en una buena opción para los usuarios que buscan una solución de recuperación ante desastres de un solo clúster o una solución activa-activa con cada clúster capaz de actuar como un clúster de recuperación para el otro. Si está pensando que esto suena un poco como una característica incorporada con capacidades similares a SRM, ¡está en lo correcto!

La mayor limitación de esa oferta es que no está orientada a proteger más de dos clústeres. Cada clúster protegido adicional requiere un clúster “complementario” para crear un par de clústeres. Si bien es posible, escalar la solución de replicación 1:1 conlleva algunos costos adicionales.

Los casos de uso de la solución de replicación 1:1 incluyen:

  • Recuperación – Las máquinas virtuales protegidas se pueden recuperar en el clúster de destino emparejado en caso de una interrupción del clúster de origen. El usuario puede volver a proteger las máquinas virtuales recuperadas en el momento en que se haya resuelto la interrupción del clúster de origen original.
  • Migración: las máquinas virtuales protegidas pueden someterse a una migración planificada, en la que se toma una nueva instantánea y se replica en el clúster emparejado. La dirección de replicación se invierte automáticamente en el momento en que se ha completado la migración.
  • Pruebas: las máquinas virtuales protegidas se pueden recuperar sin afectar a las cargas de trabajo de producción. Esto hace que la prueba de los procedimientos de recuperación sea posible con cualquier frecuencia que se requiera.

La solución de recuperación 1:1 se gestiona mediante la interfaz de usuario de HX Connect. El acceso a HX Connect en cada uno de los clústeres emparejados es necesario al implementar la solución.

Ingrese: Recuperación ante desastres de muchos a uno

Avance rápido hasta 2021, cuando se introdujo la nueva tecnología de replicación con la versión 4.5 (2a) de HXDP, entonces llamada Replicación N: 1 para Edge. HyperFlex ahora admitía una topología de replicación de fan-in y que la solución se administraba con un plano de control basado en la nube denominado Intersight. La interfaz de usuario de Intersight permite a los usuarios administrar un gran número de clústeres de HyperFlex desde una única consola sin necesidad de iniciar sesión en varias interfaces de usuario diferentes.

La recuperación ante desastres N:1 aborda las limitaciones de escalabilidad de la solución 1:1, sin embargo, hay otras funcionalidades menos obvias que se destacan. Aquí hay una lista rápida de solo algunos:

  • Almacén de datos protegido: todas las máquinas virtuales que residen en el almacén de datos protegido se protegen automáticamente mediante una directiva de copia de seguridad común. Los usuarios no necesitan aplicar la configuración de copia de seguridad a las máquinas virtuales individualmente, lo que simplifica la administración de la solución.
  • Retención de varios puntos de recuperación: tanto en el clúster de origen de origen como en el clúster de destino de la copia de seguridad de destino, los usuarios pueden seleccionar conservar de 1 a 30 puntos de recuperación basados en instantáneas. Esto permite al usuario recuperar máquinas virtuales desde un punto en el tiempo antes de que se haya producido un evento de corrupción lógica o eliminación accidental.
  • Recuperación de máquinas virtuales: ya sea en el clúster de origen original o en un clúster de origen diferente.
    • La recuperación de una máquina virtual en el clúster de origen aprovecha un punto de recuperación basado en instantáneas retenido localmente. Las operaciones de recuperación son muy rápidas ya que no hay transferencia de datos involucrada.
    • Las máquinas virtuales se pueden recuperar opcionalmente en un clúster diferente. Al realizar esta operación de recuperación, el punto de recuperación basado en instantáneas seleccionado se replica en formato comprimido en el clúster deseado. Esto permite recuperar máquinas virtuales en un clúster diferente en situaciones en las que el clúster de origen original puede no estar disponible. Otro caso de uso es la migración ad-hoc de máquinas virtuales de un clúster de origen a un clúster de origen diferente.
Ya no solo para el borde

Cuando la versión 5.0 (1a) de HXDP estuvo disponible a principios de 2022, la solución de recuperación N:1 para Edge se transformó en la solución Many-to-One (N:1) Disaster Recovery for HyperFlex. Esto fue posible cuando se agregó soporte para clústeres de origen basados en FI (Fabric Interconnect). Lo que inicialmente era una solución de protección para clústeres remotos de HyperFlex Edge se convirtió en una solución mejorada para todos los clústeres de HyperFlex. Otra mejora significativa agregada en ese momento fue la capacidad de retener diferentes números de puntos de recuperación basados en instantáneas en clústeres de origen y de destino de backup. Los usuarios ahora pueden optar por conservar menos puntos de recuperación locales en un clúster de origen y conservar un mayor número de puntos de recuperación en un clúster de destino de copia de seguridad. Menos puntos de recuperación en un clúster de origen proporciona la capacidad de consumir menos espacio de almacenamiento cuando se requieren menos puntos de recuperación locales.

HXDP versión 5.0(1b) agregó compatibilidad con el cifrado de software para que el almacén de datos protegido de un clúster de origen se pueda cifrar opcionalmente. ¡Y sí, el almacén de datos de réplica en el almacén de datos de destino de copia de seguridad (creado automáticamente) también se cifrará!

Es importante tener en cuenta que, si bien se admiten tanto la solución de replicación 1 a1 como la solución de replicación de muchos a uno, no se pueden mezclar en el mismo clúster de HyperFlex. Vale la pena señalar el esfuerzo continuo y el arduo trabajo que se lleva a cabo detrás de escena para mejorar y mejorar la replicación de HyperFlex. ¿Podemos esperar mejoras continuas en futuras versiones? ¡Esa es una apuesta bastante segura!

Cómo el monitoreo inalámbrico ayuda a los proveedores de MTDC a obtener ahorros de energía

Por: Jeff Paliga / Panduit

Los MTDC son una parte crítica de las arquitecturas altamente distribuidas de hoy en día, y la capacidad de controlar de manera efectiva los altos costos de operarlos es fundamental para los proveedores. He aquí por qué: Los sistemas de enfriamiento del centro de datos representan casi el 37% del consumo total de energía, y es el gasto de operación del centro de datos de más rápido crecimiento. Y con los proveedores abordando cargas de trabajo cada vez más grandes, nunca ha sido más importante adoptar un enfoque más inteligente para el enfriamiento del centro de datos.

Métricas que importan

Dos de las métricas más importantes en el funcionamiento de un centro de datos de eficiencia energética son la efectividad del uso de energía (PUE) y el índice de enfriamiento en rack (RCI ®). PUE se calcula dividiendo la potencia total que ingresa a un centro de datos por la potencia utilizada para ejecutar el hardware informático dentro de él, lo que excluye la infraestructura de enfriamiento. PUE se expresa como una relación, con un PUE de 1.0 que representa una eficiencia energética perfecta. Sin embargo, debido al hecho de que el enfriamiento siempre consumirá energía adicional, es imposible lograr un PUE perfecto. Dicho esto, una infraestructura de enfriamiento optimizada que haga uso de innovaciones como sistemas de enfriamiento líquido o por inmersión podría lograr un PUE de 1.1 o mejor.

RCI es una medida de la eficacia con la que se enfrían los bastidores de equipos de acuerdo con los estándares y pautas térmicas de la industria. Específicamente, mide la diferencia de temperatura entre el aire introducido en el sistema para enfriarlo y el aire extraído después. La temperatura de entrada recomendada es de 64 ° – 80 ° F.

Estrategias de optimización de enfriamiento para el éxito

Además de controlar los costos, la optimización efectiva del enfriamiento ayuda a extender la vida útil del equipo, mejorar la confiabilidad y reducir el riesgo de tiempo de inactividad no programado. Sin embargo, la optimización de la refrigeración debe abordarse como un proceso iterativo debido al hecho de que los centros de datos se ejecutan durante todo el día, y cada hora ve diferentes tamaños de carga de trabajo. Adaptarse a este entorno en constante cambio es el objetivo principal de la optimización de la refrigeración, de ahí la necesidad de soluciones nuevas e innovadoras que puedan monitorear y controlar los sistemas de refrigeración sobre la marcha.

Cómo el monitoreo inalámbrico ayuda a mantener la eficiencia

Los puntos calientes son variaciones locales de temperatura que ocurren en un centro de datos. Son perjudiciales para el rendimiento y pueden requerir importantes recursos de energía y refrigeración para corregirlos. Sin embargo, los sensores de temperatura de rack del servidor colocados de manera óptima pueden automatizar el monitoreo y enviar notificaciones automáticamente si se superan los umbrales preconfigurados. Los sistemas más sofisticados también controlan las velocidades de los ventiladores automáticamente para lograr un equilibrio óptimo entre la temperatura del rack y el uso de energía. Además, con todos los sensores conectados de forma inalámbrica a una base de datos centralizada, los administradores pueden experimentar visibilidad en tiempo real de sus entornos de centros de datos a nivel holístico y granular.

Enfoque en HyperFlex: cifrado, integrado desde cero

Por: Aarón Kapacinskas / Cisco Systems

La mayoría de las organizaciones de hoy en día entienden la naturaleza de las apuestas de mesa del cifrado de datos que protege la información confidencial, incluso en caso de una fuga de datos. Y todos nos hemos burlado de los titulares cuando se producen violaciones de datos y resultan en daños a la reputación, si no reales, a las empresas y organizaciones.

Cisco HyperFlex ofrece una gama de cifrado Opciones

Hay una serie de capacidades de cifrado que protegen los clústeres de HyperFlex que se han desarrollado con estrictas directrices de hardware y software. Estos incluyen unidades de autocifrado (SED) y Cisco HyperFlex Software Based Encryption (SWE), que es una característica nativa de la plataforma de datos HyperFlex. Ambos tipos son implementaciones de datos en reposo (DARE). Además, Cisco también ha calificado varias soluciones de administración de claves utilizando el cifrado a nivel de VM de 3Rd socios del partido como Gemalto y Vormetric (ambas partes de Entrust al momento de escribir este artículo). Estos diversos administradores de claves son solo para sistemas basados en SED, ya que las soluciones de cifrado de software de Cisco utilizan el administrador de claves integrado Intersight.

Hay un cifrado fuerte dentro y entre los clústeres HX

El cifrado en un sistema hiperconvergente como Cisco HyperFlex utiliza cifrado de datos en reposo, ya sea utilizando SED o a través del cifrado de software nativo (SWE) de HyperFlex. Estos sistemas son dispositivos de almacenamiento con todos los servicios relevantes implementados en el dispositivo (computación, memoria, redes). La comunicación cifrada entre clústeres HyperFlex, por ejemplo, con copia de seguridad o replicación, es competencia de los dispositivos de red intermedios y se resuelve utilizando IPSEC, VPN o tecnologías similares.

HyperFlex ha incorporado el cifrado desde el primer día

HyperFlex Data Platform Software Encryption utiliza algoritmos de cifrado sólidos estándar de la industria y cumple con los requisitos de certificación federal de EE. UU. También aprovecha las características únicas de Cisco HyperFlex y las tecnologías en la nube. Una característica distintiva de HyperFlex SWE es su capacidad para trabajar con optimizaciones de almacenamiento HyperFlex que han estado disponibles desde el primer día. El uso del cifrado posterior al proceso, como los clientes transparentes en máquinas virtuales invitadas o el cifrado a nivel de aplicación, no puede permitirse las ventajas que ofrece HyperFlex SWE en este sentido, ya que tienen lugar una vez que los datos se escriben en el disco. El cifrado en línea en la ruta de E/S de escritura ofrece todas las optimizaciones de almacenamiento HXDP que de otro modo estarían presentes en implementaciones no cifradas o basadas en SED.

El cifrado no es un cajón de sastre: todavía se necesita la debida diligencia

Si bien el cifrado es extremadamente importante para una excelente postura de seguridad en general, no es un cajón de sastre. El cifrado no protege contra infracciones directas de las máquinas virtuales de HyperFlex Controller ni vulnerabilidades que se producen aguas arriba de la pila de almacenamiento, por ejemplo, en el hipervisor, las máquinas virtuales invitadas o las aplicaciones basadas en máquinas virtuales. La protección de estos activos de software es una parte normal de la diligencia debida regular y se mitiga mediante la aplicación oportuna de parches y el endurecimiento de estos componentes.

Asegúrese de que su organización esté en los titulares por razones positivas y nunca por escenarios de violación de datos. Al diseñar Cisco HyperFlex, hemos adoptado un enfoque holístico que utiliza el cifrado sólido estándar de la industria a nivel de componentes, sistemas y clústeres, integrado desde el primer día.

¿Qué es la gestión del centro de datos y cómo ha evolucionado?

Por: Jonathan Healey / APC

Ahora que iniciamos una nueva década, es un gran momento para reflexionar sobre la evolución de la gestión  del centro de datos. No hace mucho, todas las funciones eran manuales y se manejaban en el sitio, pero luego llegó el software de gestión  de la infraestructura de los centros de datos (DCIM), que ofrecía funciones tales como monitoreo en tiempo real y la automatización de tareas para reducir espacio que ocupa el hardware y mejorar el tiempo de actividad.

La DCIM facilitó considerablemente el trabajo del administrador del centro de datos al impulsar nuevas eficiencias, pero estamos observando mejoras aún mayores a medida que comienza la nueva década. La nueva generación de DCIM es la siguiente fase de la evolución de la administración del centro de datos y reducirá aún más el tiempo de inactividad al proporcionar visibilidad en tiempo real en entornos distribuidos.

¿Qué es la gestión de centros de datos?

Antes que nada, analicemos qué es la gestión del centro de datos. En general, cuando hablamos de gestión de centros de datos nos referimos a las responsabilidades y procesos asociados con la administración de la infraestructura de TI, incluidos los equipos informáticos, los servidores y los equipos de red. Cada vez es más frecuente que la función de gestión del centro de datos también cubra funciones relacionadas con la energía, los sistemas de edificios, los activos y la gestión de garantías. El objetivo principal es mantener todo en funcionamiento con un conjunto de herramientas y procesos. Una herramienta crítica que les permite a los administradores de centros de datos mantenerse al día con esta enorme tarea es la DCIM. Según Gartner, DCIM cubre las siguientes funciones: «monitorear, medir, administrar y controlar la utilización del centro de datos y el consumo de energía de todos los equipos relacionados con TI (v.gr. los servidores, almacenamiento e interruptores de red) y los componentes de la infraestructura de la instalación (v.gr. las unidades de distribución de energía y acondicionadores de aire para salas de computadoras)».

A medida que la administración de los centros de datos ha evolucionado, se han automatizado más tareas. Si como administrador usted sigue usando una hoja de cálculo cada vez que agrega un servidor o hace un cambio al centro de datos, no está maximizando su tiempo. Y es probable que aumente la probabilidad de error, lo que puede ocasionar tiempos de inactividad imprevistos y altos costos provocados por la pérdida de productividad.

Evolución de la gestión de los centros de datos

DCIM se presentó por primera vez hace aproximadamente una década. A medida que han aumentado las cargas de trabajo y explotado la cantidad de datos procesados en el centro de datos, tratar de administrarlo todo manualmente se volvió poco realista. DCIM facilita y simplifica la gestión de los centros de datos mediante el uso de software, hardware y sensores para monitorear los sistemas críticos a partir de un tablero central en tiempo real. DCIM maneja no solo las tareas diarias, sino también la administración de los cambios, capacidad y activos.

DCIM permite que los administradores respondan a los problemas con mayor rapidez, lo que evita el tiempo de inactividad, pero en algunos casos es inevitable que se presente una interrupción. Sin embargo, con DCIM de próxima generación, la capacidad de evitar tiempos de inactividad imprevistos aumenta considerablemente.

La principal diferencia entre el DCIM y el DCIM de próxima generación es que la nueva versión se ejecuta en la nube. Y debido a ello es especialmente adecuada para operar entornos distribuidos de TI que incluyen entornos periféricos centralizados, regionales y locales.

Uno de los principales beneficios del DCIM en la nube es la visibilidad. Ahora, los administradores pueden realizar un monitoreo las 24 horas con visibilidad completa del entorno en cualquier momento y desde cualquier lugar. También implica poder administrar más con menos y proporcionar a los administradores de centros de datos mayores conocimientos (información de productos, datos históricos, perfiles de uso de productos, etc.) para que puedan tener un mejor control operativo.

Se recopilan los datos sobre el uso de la energía y las condiciones ambientales, de modo tal que los administradores pueden realizar ajustes que reduzcan el consumo. Y como la solución está en la nube, ello ayuda en la reducción del espacio físico. Mediante la recopilación de datos, el DCIM de próxima generación rastrea cuando se rebasan los umbrales y emite alertas cuando se requiere realizar una acción para evitar una interrupción.

Cómo el DCIM de próxima generación enfrenta los desafíos de administración de los centros de datos

El resultado es menos tiempo de inactividad y menos errores. Así, el DCIM de próxima generación es una solución proactiva que mitiga los riesgos y brinda tranquilidad a los administradores de centros de datos al enfrentar los desafíos comunes del centro de datos:

  • Administración de aplicaciones, hardware y servicios de múltiples proveedores con diferentes contratos, garantías y programaciones de actualización
  • Ejecución de múltiples centros de datos que funcionan con diferentes equipos y procesos
  • Monitoreo del rendimiento para mantener la disponibilidad y el tiempo de actividad requeridos
  • Administración de los cambios cuando los sistemas y equipos necesitan actualizarse o reemplazarse, y se implementan nuevos servicios

Descubra más sobre EcoStruxure™ IT, la solución DCIM de próxima generación y cómo puede mejorar las operaciones de su centro de datos, para que pueda exponer sus argumentos ante la administración para que invierta en esta tecnología.