Automatización de redes al rescate en el centro de datos

Por: Rick Kauffman /Aruba Networks

Permítanme comenzar diciendo que es ampliamente conocido que los centros de datos se benefician de estar altamente automatizados. Los scripts automatizados pueden completar cualquier tarea que se les asigne mucho más rápido que un humano y hacerlo de manera consistente, con menos errores.

La red del centro de datos es el tejido conector de todas las cargas de trabajo en un centro de datos. Inicialmente, los conmutadores de red recibieron una amplia funcionalidad para brindarles la mayor inteligencia posible, pero los requisitos de red actuales han ido más allá de lo que puede ofrecer una solución de configuración caja por caja.

La implementación de redes de columna/hoja implica bastante complejidad. En la parte superior de cada bastidor del centro de datos hay un par de conmutadores. La parte superior de los pares de conmutadores del bastidor debe configurarse para admitir conexiones unidas desde la infraestructura de carga de trabajo. VSX, una tecnología de virtualización de conmutadores desarrollada por HPE Aruba Networking, virtualiza los dos conmutadores en un solo dispositivo de capa 2. Esto permite que los conjuntos de servidores o almacenamiento tengan una única conexión a cada conmutador en la parte superior del par de bastidores. En un centro de datos de 12 racks, eso requeriría configurar 24 conmutadores diferentes desde la línea de comando. Suena como “fruta madura” para la automatización.

Al finalizar la configuración del conmutador de la parte superior del bastidor, la siguiente tarea será utilizar OSPF para construir la red subyacente. Esto hace que el bucle invertido de cada conmutador, o dirección IP interna, sea “accesible” desde todos los demás. Si los operadores de centros de datos han implementado VMware NSX, o usted está diseñando para cargas de trabajo de IA, ese sería el final. Si no es así, y se requiere la extensión de la capa 2 sobre la capa 3, entonces hay mucho más por hacer. Será necesario configurar la red superpuesta para construir túneles VXLAN.

BGP multiprotocolo se utiliza con EVPN, lo que permite la creación automática de instancias de túnel entre identificadores de red virtual o VNI coincidentes. Las VNI se asignan a VLAN de capa 2 y cuando se establecen los túneles VXLAN, todos los dispositivos en una VLAN coincidente tendrán acceso entre sí. Además, también será necesario configurar un puente de ruta integrado simétrico (IRB) si desea comunicación entre VLAN.

Parece que hay muchas cosas de las que debemos estar atentos, ¡pero aún no hemos terminado! También existe el Protocolo de tiempo de red (NTP) y los Servicios de nombres de dominio (DNS).

¿Ya mencioné implementar seguridad en todo esto?

Creo que a estas alturas el panorama está empezando a solidificarse. Todo este proceso necesita ser automatizado. Ningún dispositivo de red puede completar esta tarea por sí solo. Se necesitarán varias soluciones diferentes, unidas entre sí, al igual que las aplicaciones en un proceso de CI/CD. Un sistema totalmente automatizado, programable y escalable.

En esta serie de blogs, analizaré en detalle todos los elementos de la solución de centro de datos HPE Aruba Networking, que consta de la serie de conmutadores HPE Aruba Networking CX 10000, HPE Aruba Fabric Composer e integraciones integradas de terceros como AMD Pensando. y VMware vSphere, por nombrar algunos.

El siguiente paso será una revisión del conmutador CX 10000 y sus capacidades. El CX 10000 es un verdadero conmutador de capa 3 de cuarta generación. Lo que la convierte en cuarta generación es que tiene dos chips P4 programables en la placa base, cada uno con un ancho de banda de 400G para el chipset Trident.

¿Quién no querría 800G de firewall ESTÁTICO en cada switch de la parte superior del rack y una manera conveniente de imponerles políticas?

El impacto de la inteligencia artificial en las finanzas

Por: Deseree Wetherington / Panduit

Desde nuevas empresas de vanguardia hasta instituciones financieras establecidas, las organizaciones de la industria de servicios financieros están aprovechando cada vez más la inteligencia artificial (IA) para desarrollar productos y servicios innovadores. La IA, que abarca el aprendizaje automático y el procesamiento de datos avanzado, permite operaciones más eficientes, mejores experiencias de los clientes y una mejor gestión de riesgos dentro de la industria.

Según Forbes, la IA ya está cambiando la forma en que operan las empresas de servicios financieros, y esa transformación está a punto de acelerarse a medida que las empresas apunten a una mayor expansión e integración de la IA como prioridad estratégica principal. El artículo afirma que el 71% de los 500 altos ejecutivos de servicios financieros que participaron en un estudio reciente dicen que la inteligencia artificial ha cambiado significativamente la forma en que funcionan sus empresas.

  1. Mejora de los sistemas back-end: los avances impulsados ​​por la IA en la gestión de riesgos y los procesos de préstamo han revolucionado el ecosistema de servicios financieros. Al analizar comportamientos pasados ​​y predecir escenarios futuros, la IA permite evaluaciones más rápidas y precisas de los posibles prestatarios a costos reducidos. Además, la IA puede considerar una gama más amplia de factores, lo que permite a los prestamistas tomar decisiones crediticias más inteligentes. Según un pronóstico de Autonomous Research, se predice que para 2030, la adopción de IA también permitirá a los bancos reemplazar los flujos de trabajo que requieren mucha mano de obra con operaciones automatizadas, confiables y rentables, lo que podría reducir los costos operativos en un 22 % y generar ingresos a largo plazo. ahorros a plazo de hasta $ 1 billón.
  2. Fortalecimiento de la prevención del fraude: la transformación digital ha dado lugar a nuevas vías para el fraude, lo que requiere medidas sólidas de prevención del fraude. AI sobresale en este dominio al emplear análisis avanzados y reconocimiento de patrones para detectar y prevenir actividades fraudulentas. Por ejemplo, los sistemas impulsados ​​por IA pueden notificar rápidamente a los clientes sobre posibles fraudes en sus tarjetas de crédito o validar transacciones, protegiendo a las instituciones financieras y a sus clientes.
  3. Personalización de las experiencias de los clientes: en un mercado altamente competitivo, las organizaciones de servicios financieros se esfuerzan por fomentar la lealtad de los clientes a largo plazo. La IA juega un papel fundamental en la creación de experiencias atractivas y personalizadas que los métodos tradicionales luchan por ofrecer. Al aprovechar las capacidades de AI, las organizaciones pueden ofrecer asesoramiento financiero personalizado, implementar procesamiento de lenguaje natural para un servicio al cliente eficiente y desarrollar asistentes financieros virtuales, asesores robóticos y chatbots. Estos asistentes virtuales pueden ofrecer recomendaciones personalizadas para mejorar la salud financiera, mejorando la satisfacción y lealtad del cliente.

Creación de una infraestructura de TI sólida para soluciones de IA

A medida que los productos y servicios impulsados ​​por IA se vuelven esenciales para la supervivencia y el crecimiento, las organizaciones deben asegurarse de que su infraestructura de TI pueda respaldarlos de manera efectiva. Las aplicaciones de IA suelen exigir más potencia y dependen de procesadores más rápidos, lo que requiere una infraestructura de TI robusta y escalable. Panduit ofrece soluciones de infraestructura de TI híbrida que permiten a las organizaciones de servicios financieros cumplir con las expectativas de los clientes, los requisitos reglamentarios y manejar las demandas de energía y refrigeración de las aplicaciones de IA. Al proporcionar entornos automatizados, receptivos y seguros, Panduit  y MCS ayudan a las organizaciones a aprovechar la inteligencia artificial en finanzas para ofrecer operaciones ricas en información y centradas en el cliente.

Los componentes de la nube y del centro de datos necesitan el equilibrio adecuado

Por: Frank Mazzuca / Panduit

La forma en que accede a su infraestructura en la nube evoluciona continuamente a medida que entran en escena más usuarios, aplicaciones complejas y puntos de datos. Para brindar una visión más detallada de lo que es este nuevo equilibrio, Panduit se asoció con Frontier para brindar un informe de perspectiva interna a las organizaciones. Cubre los nuevos requisitos en torno al rendimiento, la gestión de la latencia, los requisitos de la cadena de suministro y la creación de un nuevo nivel de sostenibilidad.

Los datos en la nube se están generando a un ritmo asombroso

El ecosistema digital se está expandiendo y los datos se están generando a un ritmo asombroso. La razón de esto es que más personas se conectan a través de una variedad de dispositivos electrónicos. Además, esto establece la importancia de que los expertos en la nube elijan socios que posean un conjunto de habilidades diverso. Evidentemente, contar con un socio experimentado ayudará a solidificar el equilibrio entre los diferentes entornos de centros de datos.

El informe de Data Center Frontier resume todos los esfuerzos necesarios para una transición sin problemas. Este informe proporcionará los detalles sobre todos los componentes importantes que necesitará para asegurarse de estar preparado. En el interior encontrará un ejemplo de la vida real con un cliente actual de Panduit y los desafíos que enfrentó. Además, entra en detalles sobre las soluciones implementadas que les ayudaron a lograr sus objetivos y metas estratégicas.

Para obtener más información sobre las herramientas, las habilidades y los esfuerzos necesarios para equilibrar los componentes importantes de la nueva nube y el centro de datos moderno, lea el informe completo de Frontier aquí.

La gestión de la fibra del centro de datos se vuelve cada vez más difícil… y más fácil

Por: Holly Simons / CommScope

Las redes de centros de datos de hoy en día están experimentando un crecimiento sin precedentes en la implementación de fibra. Las demandas de mayor ancho de banda, menor latencia y capacidad de E/S sin precedentes están aumentando la presión sobre los administradores de red. En los centros de datos de hiperescala y las redes 5G, los recuentos actuales de fibra pueden ser tan altos como 6,912 e incluso se están fabricando fibras de mayor conteo. A medida que más instalaciones adopten arquitecturas de malla ricas en fibra, la cantidad de fibra solo aumentará.

La gestión de la creciente densidad de fibras y cables en los centros de datos se está convirtiendo en un trabajo de tiempo completo. Si no se hace bien, las ramificaciones pueden ser graves. Más allá de la monstruosidad del cableado que se derrama en el pasillo, una mala gestión de la fibra puede crear una variedad de problemas más costosos. Las bandejas de cables de sobrellenado, por ejemplo, pueden restringir el flujo de aire entre los cables, aumentando la carga térmica y haciendo que el sistema de enfriamiento trabaje más de lo que normalmente se necesita. La incapacidad de identificar, acceder y administrar fibras individuales, compromete la resolución, la velocidad de giro, los movimientos / adiciones / cambios y más. Todo esto enfatiza la necesidad de una estrategia de gestión de cables cuidadosamente considerada.

Creciente importancia de la gestión de cables

La mayoría de los centros de datos, de hecho, invierten tiempo y recursos en el desarrollo de buenas estrategias de gestión de cables. Estos enfoques van desde algunas pautas básicas de enrutamiento de cables hasta requisitos más exhaustivos y detallados con respecto a las capacidades de las bandejas, la segregación de cables por tipo, el etiquetado de fibra, etc.

Otro problema que a menudo agrava la congestión en todo el centro de datos es la falta de protocolos que dicten cómo se utilizan las vías de cable aéreo. Las mejores prácticas sugieren separar los cables troncales más grandes de los cables de conexión más pequeños: bastidores de escalera para cables de tronco grandes, canales de fibra para los cables de conexión. Del mismo modo, los cables de parche de cobre y fibra deben tener sus propias vías.

Estas tácticas de gestión no solo están destinadas a mantener la planta de cables del centro de datos accesible y más fácil de mantener, sino que también pueden tener un efecto significativo en el rendimiento óptico. Un buen ejemplo es lo que puede suceder cuando se ejecutan cables troncales grandes en pistas de rodadura diseñadas para fibras de parcheo más pequeñas. A medida que los cables más grandes salen de la pista de rodadura a través de las llamadas “cascadas”, no es raro que el cable exceda el radio de curvatura máximo permitido, lo que afecta el rendimiento óptico.

Al desarrollar una buena estrategia de gestión de cables, ningún detalle es demasiado pequeño. Cuando se hace bien, una estrategia de administración de cables no solo mantiene la planta de cable actual altamente útil, sino que también puede proporcionar una plantilla que hace que la expansión y las actualizaciones de la red sean más rápidas y confiables.

El complejo mundo del diseño de pasarelas por cable

Sin lugar a dudas, un componente central de cualquier sistema de gestión de cables es la red de canales de cableado que atraviesan el centro de datos. Estos sistemas están diseñados para administrar, proteger y enrutar miles de cables de fibra. Al igual que los planes de gestión de cables de los que forman parte, las pasarelas de cables vienen en todas las formas, tamaños y tipos: metálicas, no metálicas y de malla de alambre; los que requieren tiempo y herramientas para la instalación y los que no tienen herramientas; rectas de corto alcance y extensas redes de autopistas de cable repletas de cascadas y rampas de acceso. Las normas que rigen su diseño y uso son cada vez más complejas.

Considere este extracto de un artículo que aparece en el sitio web de EC&M:

“Al instalar cables de fibra óptica, los requisitos para los métodos de cableado se encuentran en el Art. 770. Sólo cuando el art. 770 hace referencia a secciones en el capítulo 2 y el art. 300, esto se aplica a los cables de fibra óptica y las pistas de rodadura [770.3]. Por ejemplo, la subsección 770.113 se refiere a 300.22, que se aplica al instalar cables de fibra óptica y canales de fibra óptica en conductos y espacios plenum. El artículo 770 no se refiere al 300.15, por lo que no es necesario poner empalmes ópticos en cajas. El artículo 770 también se aplica a los cables compuestos, que combinan fibras ópticas con conductores portadores de corriente. Puede usarlos solo cuando las fibras ópticas y los conductores eléctricos portadores de corriente estén asociados funcionalmente [770.133 (A)]. Debido a que el NEC considera estos cables eléctricos [770.3 (B)], deben cumplir con los requisitos apropiados del Capítulo 1 al Capítulo 4”.

Las nuevas pistas de rodadura y las herramientas de diseño alivian las complejidades

Debido al creciente número de opciones de pistas de rodadura y la creciente densidad de fibra en el centro de datos, la parte más desafiante de implementar un buen plan de gestión de cables se encuentra en la fase de diseño. Afortunadamente, las nuevas herramientas de diseño que incorporan los estándares de cableado aplicables y las mejores prácticas están ayudando a que el trabajo sea mucho más fácil y menos complejo.

FiberGuide® Design Pro de CommScope, por ejemplo, es una herramienta de configuración que permite a los diseñadores crear diseños 2D y 3D en una herramienta de diseño basada en la web que proporciona una visión clara de cómo se verá el hipódromo una vez instalado. Las funciones de construcción inteligente calculan automáticamente el número de uniones y soportes necesarios, junto con recomendaciones de colocación de soporte. Los diseños se pueden exportar para crear dibujos detallados y listas de materiales para facilitar el pedido y la instalación. La herramienta está destinada a clientes, instaladores y .

FiberGuide Design Pro está diseñado para funcionar con el sistema de gestión de fibra FiberGuide CommScope. Diseñado para ofrecer flexibilidad, velocidad y durabilidad, es una solución integral de pista de rodadura diseñada para proteger y enrutar cables de conexión de fibra óptica y conjuntos de cables multifibra hacia y desde recintos de empalme de fibra, marcos de distribución de fibra y dispositivos terminales de fibra óptica. Como cartera integrada, el sistema FiberGuide consta de componentes modulares (carreras y codos horizontales y verticales, bajantes, uniones, kits de salida flexibles) y docenas de opciones de implementación. Todos los módulos utilizan un diseño seguro y acoplado para una instalación sin herramientas. El resultado es un único sistema de pista de rodadura que es fácil y rápido de implementar, altamente flexible y garantiza una protección total fuera del marco para la planta de fibra de interior.

Correa y extiende la mano, más fibra por venir

Si la tasa de aceleración de la tecnología es una indicación de lo que se avecina, los centros de datos, especialmente a nivel de nube de hiperescala, mejor se unen. A medida que aumentan las demandas de ancho de banda y las ofertas de servicios, y la latencia se vuelve más crítica para el usuario final, se impulsará más fibra más profundamente en la red.

A medida que crecen los recuentos de fibra, la cantidad de espacio disponible en el centro de datos continuará reduciéndose. Busque otros componentes, a saber, servidores y gabinetes para ofrecer más en un espacio más pequeño también. El espacio no será la única variable a maximizar. La combinación de nuevas configuraciones de fibra como cables de fibra de cinta enrollables y diseños de fibra de 200 micras proporcionará a los administradores de red y sus socios de instalación nuevas herramientas.

Aprovechar los beneficios de estos nuevos diseños comienza con lo básico; eso significa una estrategia bien planificada para enrutar, proteger y administrar la planta de fibra interior. Proyectar las demandas futuras de cableado y las topologías necesarias será fundamental. También lo es la planificación y adaptación de su infraestructura de gestión de cables.

Para obtener más información sobre cómo CommScope y nuestra plataforma FiberGuide de soluciones de pistas de rodadura y herramientas de diseño pueden ayudarlo a controlar su gestión de fibra, haga clic aquí.

Cómo el monitoreo inalámbrico ayuda a los proveedores de MTDC a obtener ahorros de energía

Por: Jeff Paliga / Panduit

Los MTDC son una parte crítica de las arquitecturas altamente distribuidas de hoy en día, y la capacidad de controlar de manera efectiva los altos costos de operarlos es fundamental para los proveedores. He aquí por qué: Los sistemas de enfriamiento del centro de datos representan casi el 37% del consumo total de energía, y es el gasto de operación del centro de datos de más rápido crecimiento. Y con los proveedores abordando cargas de trabajo cada vez más grandes, nunca ha sido más importante adoptar un enfoque más inteligente para el enfriamiento del centro de datos.

Métricas que importan

Dos de las métricas más importantes en el funcionamiento de un centro de datos de eficiencia energética son la efectividad del uso de energía (PUE) y el índice de enfriamiento en rack (RCI ®). PUE se calcula dividiendo la potencia total que ingresa a un centro de datos por la potencia utilizada para ejecutar el hardware informático dentro de él, lo que excluye la infraestructura de enfriamiento. PUE se expresa como una relación, con un PUE de 1.0 que representa una eficiencia energética perfecta. Sin embargo, debido al hecho de que el enfriamiento siempre consumirá energía adicional, es imposible lograr un PUE perfecto. Dicho esto, una infraestructura de enfriamiento optimizada que haga uso de innovaciones como sistemas de enfriamiento líquido o por inmersión podría lograr un PUE de 1.1 o mejor.

RCI es una medida de la eficacia con la que se enfrían los bastidores de equipos de acuerdo con los estándares y pautas térmicas de la industria. Específicamente, mide la diferencia de temperatura entre el aire introducido en el sistema para enfriarlo y el aire extraído después. La temperatura de entrada recomendada es de 64 ° – 80 ° F.

Estrategias de optimización de enfriamiento para el éxito

Además de controlar los costos, la optimización efectiva del enfriamiento ayuda a extender la vida útil del equipo, mejorar la confiabilidad y reducir el riesgo de tiempo de inactividad no programado. Sin embargo, la optimización de la refrigeración debe abordarse como un proceso iterativo debido al hecho de que los centros de datos se ejecutan durante todo el día, y cada hora ve diferentes tamaños de carga de trabajo. Adaptarse a este entorno en constante cambio es el objetivo principal de la optimización de la refrigeración, de ahí la necesidad de soluciones nuevas e innovadoras que puedan monitorear y controlar los sistemas de refrigeración sobre la marcha.

Cómo el monitoreo inalámbrico ayuda a mantener la eficiencia

Los puntos calientes son variaciones locales de temperatura que ocurren en un centro de datos. Son perjudiciales para el rendimiento y pueden requerir importantes recursos de energía y refrigeración para corregirlos. Sin embargo, los sensores de temperatura de rack del servidor colocados de manera óptima pueden automatizar el monitoreo y enviar notificaciones automáticamente si se superan los umbrales preconfigurados. Los sistemas más sofisticados también controlan las velocidades de los ventiladores automáticamente para lograr un equilibrio óptimo entre la temperatura del rack y el uso de energía. Además, con todos los sensores conectados de forma inalámbrica a una base de datos centralizada, los administradores pueden experimentar visibilidad en tiempo real de sus entornos de centros de datos a nivel holístico y granular.

Enfoque en HyperFlex: cifrado, integrado desde cero

Por: Aarón Kapacinskas / Cisco Systems

La mayoría de las organizaciones de hoy en día entienden la naturaleza de las apuestas de mesa del cifrado de datos que protege la información confidencial, incluso en caso de una fuga de datos. Y todos nos hemos burlado de los titulares cuando se producen violaciones de datos y resultan en daños a la reputación, si no reales, a las empresas y organizaciones.

Cisco HyperFlex ofrece una gama de cifrado Opciones

Hay una serie de capacidades de cifrado que protegen los clústeres de HyperFlex que se han desarrollado con estrictas directrices de hardware y software. Estos incluyen unidades de autocifrado (SED) y Cisco HyperFlex Software Based Encryption (SWE), que es una característica nativa de la plataforma de datos HyperFlex. Ambos tipos son implementaciones de datos en reposo (DARE). Además, Cisco también ha calificado varias soluciones de administración de claves utilizando el cifrado a nivel de VM de 3Rd socios del partido como Gemalto y Vormetric (ambas partes de Entrust al momento de escribir este artículo). Estos diversos administradores de claves son solo para sistemas basados en SED, ya que las soluciones de cifrado de software de Cisco utilizan el administrador de claves integrado Intersight.

Hay un cifrado fuerte dentro y entre los clústeres HX

El cifrado en un sistema hiperconvergente como Cisco HyperFlex utiliza cifrado de datos en reposo, ya sea utilizando SED o a través del cifrado de software nativo (SWE) de HyperFlex. Estos sistemas son dispositivos de almacenamiento con todos los servicios relevantes implementados en el dispositivo (computación, memoria, redes). La comunicación cifrada entre clústeres HyperFlex, por ejemplo, con copia de seguridad o replicación, es competencia de los dispositivos de red intermedios y se resuelve utilizando IPSEC, VPN o tecnologías similares.

HyperFlex ha incorporado el cifrado desde el primer día

HyperFlex Data Platform Software Encryption utiliza algoritmos de cifrado sólidos estándar de la industria y cumple con los requisitos de certificación federal de EE. UU. También aprovecha las características únicas de Cisco HyperFlex y las tecnologías en la nube. Una característica distintiva de HyperFlex SWE es su capacidad para trabajar con optimizaciones de almacenamiento HyperFlex que han estado disponibles desde el primer día. El uso del cifrado posterior al proceso, como los clientes transparentes en máquinas virtuales invitadas o el cifrado a nivel de aplicación, no puede permitirse las ventajas que ofrece HyperFlex SWE en este sentido, ya que tienen lugar una vez que los datos se escriben en el disco. El cifrado en línea en la ruta de E/S de escritura ofrece todas las optimizaciones de almacenamiento HXDP que de otro modo estarían presentes en implementaciones no cifradas o basadas en SED.

El cifrado no es un cajón de sastre: todavía se necesita la debida diligencia

Si bien el cifrado es extremadamente importante para una excelente postura de seguridad en general, no es un cajón de sastre. El cifrado no protege contra infracciones directas de las máquinas virtuales de HyperFlex Controller ni vulnerabilidades que se producen aguas arriba de la pila de almacenamiento, por ejemplo, en el hipervisor, las máquinas virtuales invitadas o las aplicaciones basadas en máquinas virtuales. La protección de estos activos de software es una parte normal de la diligencia debida regular y se mitiga mediante la aplicación oportuna de parches y el endurecimiento de estos componentes.

Asegúrese de que su organización esté en los titulares por razones positivas y nunca por escenarios de violación de datos. Al diseñar Cisco HyperFlex, hemos adoptado un enfoque holístico que utiliza el cifrado sólido estándar de la industria a nivel de componentes, sistemas y clústeres, integrado desde el primer día.