Concéntrese en HyperFlex: recuperación ante desastres multifunción impulsada por la nube y multipresencial

Por: Bill Roth / Cisco Systems

Una breve historia de HyperFlex Disaster Recovery

HyperFlex se lanzó originalmente sin funcionalidad de replicación nativa, por lo tanto, DE DR nativa. Poco tiempo después, en 2017, HyperFlex Data Platform (HXDP) versión 2.5 introdujo la compatibilidad con la replicación asincrónica de instantáneas de máquinas virtuales. La topología de replicación nativa consiste en una configuración 1:1 con dos clústeres HyperFlex emparejados. Los clústeres emparejados se pueden separar geográficamente y utilizar conectividad WAN. El soporte de flujo de trabajo para conmutación por error y reprotección de VM, migración planificada y recuperación de pruebas lo convierten en una buena opción para los usuarios que buscan una solución de recuperación ante desastres de un solo clúster o una solución activa-activa con cada clúster capaz de actuar como un clúster de recuperación para el otro. Si está pensando que esto suena un poco como una característica incorporada con capacidades similares a SRM, ¡está en lo correcto!

La mayor limitación de esa oferta es que no está orientada a proteger más de dos clústeres. Cada clúster protegido adicional requiere un clúster “complementario” para crear un par de clústeres. Si bien es posible, escalar la solución de replicación 1:1 conlleva algunos costos adicionales.

Los casos de uso de la solución de replicación 1:1 incluyen:

  • Recuperación – Las máquinas virtuales protegidas se pueden recuperar en el clúster de destino emparejado en caso de una interrupción del clúster de origen. El usuario puede volver a proteger las máquinas virtuales recuperadas en el momento en que se haya resuelto la interrupción del clúster de origen original.
  • Migración: las máquinas virtuales protegidas pueden someterse a una migración planificada, en la que se toma una nueva instantánea y se replica en el clúster emparejado. La dirección de replicación se invierte automáticamente en el momento en que se ha completado la migración.
  • Pruebas: las máquinas virtuales protegidas se pueden recuperar sin afectar a las cargas de trabajo de producción. Esto hace que la prueba de los procedimientos de recuperación sea posible con cualquier frecuencia que se requiera.

La solución de recuperación 1:1 se gestiona mediante la interfaz de usuario de HX Connect. El acceso a HX Connect en cada uno de los clústeres emparejados es necesario al implementar la solución.

Ingrese: Recuperación ante desastres de muchos a uno

Avance rápido hasta 2021, cuando se introdujo la nueva tecnología de replicación con la versión 4.5 (2a) de HXDP, entonces llamada Replicación N: 1 para Edge. HyperFlex ahora admitía una topología de replicación de fan-in y que la solución se administraba con un plano de control basado en la nube denominado Intersight. La interfaz de usuario de Intersight permite a los usuarios administrar un gran número de clústeres de HyperFlex desde una única consola sin necesidad de iniciar sesión en varias interfaces de usuario diferentes.

La recuperación ante desastres N:1 aborda las limitaciones de escalabilidad de la solución 1:1, sin embargo, hay otras funcionalidades menos obvias que se destacan. Aquí hay una lista rápida de solo algunos:

  • Almacén de datos protegido: todas las máquinas virtuales que residen en el almacén de datos protegido se protegen automáticamente mediante una directiva de copia de seguridad común. Los usuarios no necesitan aplicar la configuración de copia de seguridad a las máquinas virtuales individualmente, lo que simplifica la administración de la solución.
  • Retención de varios puntos de recuperación: tanto en el clúster de origen de origen como en el clúster de destino de la copia de seguridad de destino, los usuarios pueden seleccionar conservar de 1 a 30 puntos de recuperación basados en instantáneas. Esto permite al usuario recuperar máquinas virtuales desde un punto en el tiempo antes de que se haya producido un evento de corrupción lógica o eliminación accidental.
  • Recuperación de máquinas virtuales: ya sea en el clúster de origen original o en un clúster de origen diferente.
    • La recuperación de una máquina virtual en el clúster de origen aprovecha un punto de recuperación basado en instantáneas retenido localmente. Las operaciones de recuperación son muy rápidas ya que no hay transferencia de datos involucrada.
    • Las máquinas virtuales se pueden recuperar opcionalmente en un clúster diferente. Al realizar esta operación de recuperación, el punto de recuperación basado en instantáneas seleccionado se replica en formato comprimido en el clúster deseado. Esto permite recuperar máquinas virtuales en un clúster diferente en situaciones en las que el clúster de origen original puede no estar disponible. Otro caso de uso es la migración ad-hoc de máquinas virtuales de un clúster de origen a un clúster de origen diferente.
Ya no solo para el borde

Cuando la versión 5.0 (1a) de HXDP estuvo disponible a principios de 2022, la solución de recuperación N:1 para Edge se transformó en la solución Many-to-One (N:1) Disaster Recovery for HyperFlex. Esto fue posible cuando se agregó soporte para clústeres de origen basados en FI (Fabric Interconnect). Lo que inicialmente era una solución de protección para clústeres remotos de HyperFlex Edge se convirtió en una solución mejorada para todos los clústeres de HyperFlex. Otra mejora significativa agregada en ese momento fue la capacidad de retener diferentes números de puntos de recuperación basados en instantáneas en clústeres de origen y de destino de backup. Los usuarios ahora pueden optar por conservar menos puntos de recuperación locales en un clúster de origen y conservar un mayor número de puntos de recuperación en un clúster de destino de copia de seguridad. Menos puntos de recuperación en un clúster de origen proporciona la capacidad de consumir menos espacio de almacenamiento cuando se requieren menos puntos de recuperación locales.

HXDP versión 5.0(1b) agregó compatibilidad con el cifrado de software para que el almacén de datos protegido de un clúster de origen se pueda cifrar opcionalmente. ¡Y sí, el almacén de datos de réplica en el almacén de datos de destino de copia de seguridad (creado automáticamente) también se cifrará!

Es importante tener en cuenta que, si bien se admiten tanto la solución de replicación 1 a1 como la solución de replicación de muchos a uno, no se pueden mezclar en el mismo clúster de HyperFlex. Vale la pena señalar el esfuerzo continuo y el arduo trabajo que se lleva a cabo detrás de escena para mejorar y mejorar la replicación de HyperFlex. ¿Podemos esperar mejoras continuas en futuras versiones? ¡Esa es una apuesta bastante segura!

Cómo el monitoreo inalámbrico ayuda a los proveedores de MTDC a obtener ahorros de energía

Por: Jeff Paliga / Panduit

Los MTDC son una parte crítica de las arquitecturas altamente distribuidas de hoy en día, y la capacidad de controlar de manera efectiva los altos costos de operarlos es fundamental para los proveedores. He aquí por qué: Los sistemas de enfriamiento del centro de datos representan casi el 37% del consumo total de energía, y es el gasto de operación del centro de datos de más rápido crecimiento. Y con los proveedores abordando cargas de trabajo cada vez más grandes, nunca ha sido más importante adoptar un enfoque más inteligente para el enfriamiento del centro de datos.

Métricas que importan

Dos de las métricas más importantes en el funcionamiento de un centro de datos de eficiencia energética son la efectividad del uso de energía (PUE) y el índice de enfriamiento en rack (RCI ®). PUE se calcula dividiendo la potencia total que ingresa a un centro de datos por la potencia utilizada para ejecutar el hardware informático dentro de él, lo que excluye la infraestructura de enfriamiento. PUE se expresa como una relación, con un PUE de 1.0 que representa una eficiencia energética perfecta. Sin embargo, debido al hecho de que el enfriamiento siempre consumirá energía adicional, es imposible lograr un PUE perfecto. Dicho esto, una infraestructura de enfriamiento optimizada que haga uso de innovaciones como sistemas de enfriamiento líquido o por inmersión podría lograr un PUE de 1.1 o mejor.

RCI es una medida de la eficacia con la que se enfrían los bastidores de equipos de acuerdo con los estándares y pautas térmicas de la industria. Específicamente, mide la diferencia de temperatura entre el aire introducido en el sistema para enfriarlo y el aire extraído después. La temperatura de entrada recomendada es de 64 ° – 80 ° F.

Estrategias de optimización de enfriamiento para el éxito

Además de controlar los costos, la optimización efectiva del enfriamiento ayuda a extender la vida útil del equipo, mejorar la confiabilidad y reducir el riesgo de tiempo de inactividad no programado. Sin embargo, la optimización de la refrigeración debe abordarse como un proceso iterativo debido al hecho de que los centros de datos se ejecutan durante todo el día, y cada hora ve diferentes tamaños de carga de trabajo. Adaptarse a este entorno en constante cambio es el objetivo principal de la optimización de la refrigeración, de ahí la necesidad de soluciones nuevas e innovadoras que puedan monitorear y controlar los sistemas de refrigeración sobre la marcha.

Cómo el monitoreo inalámbrico ayuda a mantener la eficiencia

Los puntos calientes son variaciones locales de temperatura que ocurren en un centro de datos. Son perjudiciales para el rendimiento y pueden requerir importantes recursos de energía y refrigeración para corregirlos. Sin embargo, los sensores de temperatura de rack del servidor colocados de manera óptima pueden automatizar el monitoreo y enviar notificaciones automáticamente si se superan los umbrales preconfigurados. Los sistemas más sofisticados también controlan las velocidades de los ventiladores automáticamente para lograr un equilibrio óptimo entre la temperatura del rack y el uso de energía. Además, con todos los sensores conectados de forma inalámbrica a una base de datos centralizada, los administradores pueden experimentar visibilidad en tiempo real de sus entornos de centros de datos a nivel holístico y granular.

Enfoque en HyperFlex: cifrado, integrado desde cero

Por: Aarón Kapacinskas / Cisco Systems

La mayoría de las organizaciones de hoy en día entienden la naturaleza de las apuestas de mesa del cifrado de datos que protege la información confidencial, incluso en caso de una fuga de datos. Y todos nos hemos burlado de los titulares cuando se producen violaciones de datos y resultan en daños a la reputación, si no reales, a las empresas y organizaciones.

Cisco HyperFlex ofrece una gama de cifrado Opciones

Hay una serie de capacidades de cifrado que protegen los clústeres de HyperFlex que se han desarrollado con estrictas directrices de hardware y software. Estos incluyen unidades de autocifrado (SED) y Cisco HyperFlex Software Based Encryption (SWE), que es una característica nativa de la plataforma de datos HyperFlex. Ambos tipos son implementaciones de datos en reposo (DARE). Además, Cisco también ha calificado varias soluciones de administración de claves utilizando el cifrado a nivel de VM de 3Rd socios del partido como Gemalto y Vormetric (ambas partes de Entrust al momento de escribir este artículo). Estos diversos administradores de claves son solo para sistemas basados en SED, ya que las soluciones de cifrado de software de Cisco utilizan el administrador de claves integrado Intersight.

Hay un cifrado fuerte dentro y entre los clústeres HX

El cifrado en un sistema hiperconvergente como Cisco HyperFlex utiliza cifrado de datos en reposo, ya sea utilizando SED o a través del cifrado de software nativo (SWE) de HyperFlex. Estos sistemas son dispositivos de almacenamiento con todos los servicios relevantes implementados en el dispositivo (computación, memoria, redes). La comunicación cifrada entre clústeres HyperFlex, por ejemplo, con copia de seguridad o replicación, es competencia de los dispositivos de red intermedios y se resuelve utilizando IPSEC, VPN o tecnologías similares.

HyperFlex ha incorporado el cifrado desde el primer día

HyperFlex Data Platform Software Encryption utiliza algoritmos de cifrado sólidos estándar de la industria y cumple con los requisitos de certificación federal de EE. UU. También aprovecha las características únicas de Cisco HyperFlex y las tecnologías en la nube. Una característica distintiva de HyperFlex SWE es su capacidad para trabajar con optimizaciones de almacenamiento HyperFlex que han estado disponibles desde el primer día. El uso del cifrado posterior al proceso, como los clientes transparentes en máquinas virtuales invitadas o el cifrado a nivel de aplicación, no puede permitirse las ventajas que ofrece HyperFlex SWE en este sentido, ya que tienen lugar una vez que los datos se escriben en el disco. El cifrado en línea en la ruta de E/S de escritura ofrece todas las optimizaciones de almacenamiento HXDP que de otro modo estarían presentes en implementaciones no cifradas o basadas en SED.

El cifrado no es un cajón de sastre: todavía se necesita la debida diligencia

Si bien el cifrado es extremadamente importante para una excelente postura de seguridad en general, no es un cajón de sastre. El cifrado no protege contra infracciones directas de las máquinas virtuales de HyperFlex Controller ni vulnerabilidades que se producen aguas arriba de la pila de almacenamiento, por ejemplo, en el hipervisor, las máquinas virtuales invitadas o las aplicaciones basadas en máquinas virtuales. La protección de estos activos de software es una parte normal de la diligencia debida regular y se mitiga mediante la aplicación oportuna de parches y el endurecimiento de estos componentes.

Asegúrese de que su organización esté en los titulares por razones positivas y nunca por escenarios de violación de datos. Al diseñar Cisco HyperFlex, hemos adoptado un enfoque holístico que utiliza el cifrado sólido estándar de la industria a nivel de componentes, sistemas y clústeres, integrado desde el primer día.

Cobre en la red del centro de datos: ¿es hora de avanzar?

Por: James Joven / CommScope

En lo que respecta al cableado del centro de datos (CC), se ha escrito mucho sobre la prolongada batalla entre la fibra y el cobre por la supremacía en la capa de acceso. Independientemente de qué lado esté, no se puede negar los cambios acelerados que afectan su decisión de cableado. Las velocidades de carril del centro de datos han aumentado rápidamente de 40 Gbps a 100 GBps, e incluso alcanzan los 400 GBps en centros de datos empresariales y basados ​​en la nube más grandes. Impulsados ​​por ASIC más potentes, los conmutadores se han convertido en los caballos de batalla del centro de datos, por lo que los administradores de red deben decidir cómo distribuir y entregar mayores capacidades de datos, desde los conmutadores hasta los servidores, de la manera más eficaz posible. Casi lo único que no ha cambiado mucho es el enfoque implacable en la reducción del consumo de energía (el caballo tiene que comer).

¿El futuro del cobre en la red de centros de datos?

En la actualidad, la fibra óptica se utiliza en toda la red de CC, con la excepción de las conexiones de conmutador a servidor en el gabinete en las áreas de distribución de equipos (EDA). Dentro de un gabinete, el cobre continúa prosperando, por el momento. A menudo considerado económico y confiable, el cobre es una buena opción para conexiones cortas de conmutadores en la parte superior del bastidor y aplicaciones de menos de 50 GBps. Sin embargo, puede ser hora de seguir adelante.

La desaparición del cobre en el centro de datos ha sido larga y predicha. Sus distancias útiles continúan reduciéndose y la mayor complejidad dificulta que los cables de cobre compitan contra una mejora continua en los costos de fibra óptica. Aún así, el viejo medio ha logrado aguantar. Sin embargo, las tendencias de los centros de datos y, lo que es más importante, la demanda de un rendimiento más rápido y flexibilidad de diseño, pueden finalmente señalar el final del cobre de par trenzado en el centro de datos. Dos de las mayores amenazas para la supervivencia del cobre son su limitación de distancia y el rápido aumento de los requisitos de energía, en un mundo donde los presupuestos de energía son muy críticos.

Pérdida de señal en la distancia

A medida que aumentan las velocidades, el envío de señales eléctricas a través del cobre se vuelve mucho más complicado. Las velocidades de transferencia eléctrica están limitadas por las capacidades de ASIC y se requiere mucha más potencia para alcanzar incluso distancias cortas. Estos problemas afectan la utilidad incluso de los cables de conexión directa (DAC) de corto alcance. Las tecnologías alternativas de fibra óptica se vuelven convincentes por su menor costo, consumo de energía y facilidad operativa.

A medida que crece la capacidad del conmutador, el problema de la distancia del cobre se convierte en un desafío evidente. Un solo conmutador de red de 1U ahora admite varios bastidores de servidores y, a las velocidades más altas que requieren las aplicaciones actuales, el cobre no puede abarcar incluso estas distancias más cortas. Como resultado, los centros de datos se están alejando de los diseños tradicionales de la parte superior del rack y están implementando implementaciones de interruptores en el medio o al final de la fila y diseños de cableado estructurado más eficientes.

El consumo de energía

A velocidades superiores a 10G, las implementaciones de cobre de par trenzado (por ejemplo, UTP/STP) prácticamente han cesado debido a limitaciones de diseño. Un enlace de cobre obtiene energía de cada extremo del enlace para respaldar la señalización eléctrica. Los transceptores de cobre 10G actuales tienen un consumo de energía máximo de 3 a 5 vatios. Si bien eso es alrededor de 0,5-1,0 W menos que los transceptores utilizados para los DAC (ver a continuación), es casi 10 veces más potencia que los transceptores de fibra multimodo. Tenga en cuenta que el costo compensa el calor adicional generado, los costos operativos del cobre pueden duplicar fácilmente los de la fibra. El diferencial de potencia para el cobre se extiende más allá de los cables de red: se aplica igualmente a las trazas de cobre dentro del conmutador. De punta a punta, estas pérdidas de energía se suman.

Si bien hay algunos en el centro de datos que aún abogan por el cobre, justificar su uso continuo se está convirtiendo en una batalla cuesta arriba que se vuelve demasiado difícil de pelear. Con esto en mente, veamos algunas alternativas.

Cobre adjunto directo (DAC)

Los DAC de cobre, tanto activos como pasivos, han intervenido para vincular servidores a conmutadores. El cableado DAC es una forma especializada de par trenzado. La tecnología consiste en un cable de cobre blindado con conectores tipo transceptor enchufables en cada extremo. Los DAC pasivos utilizan las señales proporcionadas por el host, mientras que los DAC activos utilizan componentes electrónicos internos para impulsar y acondicionar las señales eléctricas. Esto permite que el cable admita velocidades más altas en distancias más largas, pero también consume más energía. Los DAC activos y pasivos se consideran económicos. Aun así, como medio basado en cobre, las limitaciones de atenuación sobre la distancia son obstáculos significativos para el futuro de la tecnología. Teniendo en cuenta que los conmutadores nuevos pueden reemplazar varios conmutadores TOR (lo que ahorra una gran cantidad de capital y energía), es posible que los DAC no sean la solución de bajo costo que parecen ser en la superficie.

El cable óptico activo (AOC) es un paso adelante del DAC activo y pasivo, con un rendimiento de ancho de banda de hasta 400 Gbps. Además, como medio de fibra, AOC es más liviano y más fácil de manejar que el cobre. Sin embargo, la tecnología viene con algunas limitaciones serias. Los cables AOC deben ordenarse según la longitud y luego reemplazarse cada vez que la CC aumente la velocidad o cambie las plataformas de conmutación. Cada AOC viene como un conjunto completo (al igual que los DAC) y, por lo tanto, en caso de que falle algún componente, se debe reemplazar todo el conjunto. Este es un inconveniente en comparación con los transceptores ópticos y el cableado estructurado, que proporciona la mayor flexibilidad y facilidad operativa.

Quizás lo más importante es que tanto el cableado AOC como el DAC son soluciones punto a punto. Por lo tanto, existen fuera de la red de cableado estructurado, lo que dificulta la escalabilidad, la administración y la eficiencia operativa general. En segundo lugar, como soluciones de cableado fijo, los AOC y los DAC no pueden admitir la flexibilidad que los centros de datos necesitan para admitir redes de servidores de mayor capacidad e implementar diseños de filas de servidores nuevos y más eficientes. Además, cada vez que aumenta la velocidad o cambia un interruptor, debe reemplazar los AOC y DAC.

Óptica enchufable

Mientras tanto, los transceptores ópticos enchufables continúan mejorando para aprovechar las mayores capacidades de las tecnologías de conmutación. En el pasado, un solo transceptor que transportaba cuatro carriles (también conocido como cuádruple de factor de forma pequeño enchufable [QSFP]), permitía a los administradores de DC conectar cuatro servidores a un solo transceptor. Esto dio como resultado una reducción estimada del 30 % en el costo de la red (y, posiblemente, un 30 % menos de consumo de energía) que los conmutadores basados ​​en puertos dúplex. Los conmutadores más nuevos que conectan ocho servidores por transceptor duplican el costo y el ahorro de energía. Mejor aún, cuando se agrega la flexibilidad del cableado estructurado, el diseño general se vuelve escalable. Con ese fin, el IEEE introdujo el estándar P802.3.cm y está trabajando en P802.3.db, que busca definir transceptores creados para conectar servidores a conmutadores.

Óptica coempaquetada

Todavía en las primeras etapas, la óptica coempaquetada (CPO) acerca el motor de conversión eléctrica a óptica al ASIC, eliminando el rastro de cobre en el interruptor. La idea es eliminar las pérdidas eléctricas asociadas con los enlaces de cobre cortos dentro del conmutador para lograr un mayor ancho de banda y un menor consumo de energía. Los defensores de la tecnología argumentan que es la mejor manera de pasar a la plataforma de próxima generación y velocidades más altas mientras se mantiene un presupuesto de energía asequible. Su objetivo es eliminar las últimas pulgadas de cobre del enlace de la red para lograr la eficiencia totalmente óptica de ASIC a ASIC que necesitarán las redes de CC. Es un objetivo ambicioso que requerirá la colaboración de toda la industria y nuevos estándares para garantizar la interoperabilidad.

Hacia dónde nos dirigimos (antes de lo que pensamos)

La marcha hacia 800G y 1.6T continuará; debe hacerlo si la industria quiere tener alguna posibilidad de cumplir con las expectativas de los clientes en cuanto a ancho de banda, latencia, IA, IoT, virtualización y más. Al mismo tiempo, los centros de datos deben tener la flexibilidad para desglosar y distribuir el tráfico desde conmutadores de mayor capacidad de manera que tenga sentido, tanto desde el punto de vista operativo como financiero. Esto sugiere más soluciones de cableado y conectividad que pueden admitir diversas aplicaciones de fibra al servidor, como el cableado estructurado de fibra.

En este momento, según la hoja de ruta de IEEE Ethernet, las infraestructuras de 16 fibras pueden proporcionar un camino limpio hacia esas velocidades más altas mientras hacen un uso eficiente del ancho de banda disponible. El cableado estructurado que utiliza el diseño de 16 fibras también nos permite dividir la capacidad para que un solo conmutador pueda admitir 192 servidores. En términos de latencia y ahorro de costos, las ganancias son significativas. En CommScope, esto es lo que vemos y escuchamos de nuestros clientes de grandes empresas y centros de datos en la nube. La mayoría de ellos han llegado a un punto de inflexión y se están volcando con la fibra porque miran los hiperescaladores y se dan cuenta de lo que se avecina.

La pregunta de $ 64,000 es: ¿Ha dejado finalmente el cobre de ser útil? La respuesta corta es no. Continuará habiendo ciertas aplicaciones de corto alcance y bajo ancho de banda para centros de datos más pequeños donde el bajo precio del cobre supera sus limitaciones de rendimiento. Así también, es probable que los CPO y los transceptores conectables en el panel frontal desempeñen un papel. Simplemente no existe una solución única para todos.

Dicho esto, aquí hay un pequeño consejo para cualquiera que se pregunte si es hora de eliminar el cobre y prepararse para apostar por la fibra. En palabras del novelista Damon Runyan: “La carrera no siempre es para los más rápidos o la batalla para los más fuertes, pero seguro que es la forma de apostar”.

Tres razones por las que los servicios de colocación e interconexión van de la mano

Por: Teri Acuña / Panduit

Algunos analistas de la industria dicen que la industria de la colocación se encuentra en un estado de transición que está siendo impulsada por la adopción empresarial generalizada de todo lo relacionado con SaaS y el deseo de los inquilinos y proveedores de la nube por más servicios de interconexión.

Los servicios de interconexión son las conexiones físicas que permiten el intercambio de datos entre dos o más entidades, o socios, a la mayor velocidad posible. En su reciente Informe de mercado de interconexión de centros de datos , Morder Intelligence predice que el mercado de interconexión de centros de datos alcanzará un valor de 7650 millones de dólares en 2025, frente a los 3480 millones de dólares de 2019.

Dos de los tipos más comunes de servicios de interconexión son las conexiones cruzadas , que son cables físicos que permiten a las organizaciones acceder a redes, proveedores de nube y otros socios comerciales dentro de un centro de datos, y conexiones directas desde un centro de datos a proveedores de nube pública.

Aquí hay tres razones por las que tiene sentido que los servicios de colocación e interconexión vayan de la mano:

  1. Muchos proveedores de colocación operan múltiples centros de datos grandes que están vinculados por conexiones de alta velocidad y también integran múltiples proveedores y proveedores de nube. Para las aplicaciones sensibles a la latencia que requieren que el procesamiento esté lo más cerca posible del punto de entrega, esta arquitectura distribuida proporciona la flexibilidad de implementación que necesitan los inquilinos de los centros de datos de múltiples inquilinos de hoy.
  2. Los proveedores de nube pública como AWS, Microsoft Azure y Google Cloud están buscando asociaciones con proveedores de colocación para brindar a los clientes que usan múltiples proveedores de nube la capacidad de mover datos fácilmente entre proveedores de nube.
  3. Los servicios de interconexión pueden proporcionar operaciones de centros de datos de múltiples inquilinos con oportunidades adicionales de generación de ingresos más allá del espacio, la energía y la refrigeración tradicionales.

Como resultado, ahora es el momento de que los proveedores de colocación ofrezcan a los inquilinos servicios de interconexión que puedan ayudarlos a agilizar la migración entre instalaciones y facilitar el acceso a los ecosistemas de los socios.

Para obtener más información sobre por qué la colocación se está convirtiendo rápidamente en el destino para conectar empresas, proveedores de servicios y plataformas en la nube, descargue el nuevo libro electrónico, Tres consideraciones clave para los proveedores de colocación.

Fraude de servicios financieros en un mundo pospandémico

Por: Jennifer Vallarautto / Panduit

A medida que las instituciones financieras cambian su enfoque de la continuidad comercial al crecimiento en un mundo posterior a una pandemia, deben fortalecer aún más las defensas para mantener a raya a los estafadores.

Según el  estudio de fraude de identidad 2021 realizado por el informe de Javelin Strategy & Research , el fraude de identidad le costó a los residentes de EE. UU. Un total de alrededor de $ 56 mil millones solo en 2020. Y una investigación reciente de TransUnion encontró que los estafadores de servicios financieros han intensificado sus esfuerzos en 2021. Al comparar los últimos cuatro meses de 2020 con los primeros cuatro meses de 2021, el porcentaje de intentos de fraude digital sospechosos aumentó un 109% en los EE. UU. Y un 149% a traves del globo.

Las razones detrás del aumento del fraude

¿Qué hay detrás del aumento de la actividad fraudulenta? Cambiar el comportamiento del consumidor como resultado de los bloqueos pandémicos, por ejemplo. Desde el inicio de la pandemia, 93 millones de personas en los EE. UU. Se han inscrito en servicios en línea que alguna vez se llevaron a cabo en persona, y el 75% de ellos planea continuar usando estos servicios en el futuro. El cambio al comercio en línea y móvil por parte de los consumidores con menos experiencia digital, como las personas mayores, ha proporcionado una puerta abierta a los estafadores, y no pierden el tiempo en aprovechar la oportunidad. Además, el estrés y el miedo de los consumidores pueden conducir a comportamientos de transacción más riesgosos para todos los consumidores, lo que crea oportunidades para la infección de malware en los dispositivos y el robo de información de identificación personal.

El trabajo a distancia también ha influido. Afectó el comportamiento de los empleados y expuso las brechas en los procesos y sistemas que creaban riesgos de seguridad. Muchas organizaciones no estaban preparadas para este cambio y es posible que no tuvieran recursos tecnológicos protegidos, como una red privada virtual (VPN), que pueda cifrar la información que pasa por Internet.

Nuevos enfoques para combatir el fraude

Afortunadamente, se está produciendo una transformación masiva en los canales digitales y móviles en la forma en que las organizaciones de servicios financieros se relacionan con sus clientes y utilizan la inteligencia artificial. Están acelerando las iniciativas de transformación digital para mejorar la eficiencia y la eficacia de los equipos antifraude existentes, así como para implementar nuevas formas de luchar contra los estafadores.

American Express, por ejemplo, ha empleado un modelo de aprendizaje automático que utiliza varias entradas que se combinan en patrones con algoritmos en evolución en tiempo real para marcar transacciones que tienen una alta probabilidad de ser fraudulentas. Según las estimaciones de la compañía, el enfoque de aprendizaje automático de detección de fraude ha identificado $ 2 millones en posibles incidentes de fraude incrementales anuales. Mastercard aprovecha Dell EMC para combatir el fraude mediante el análisis de datos y la inteligencia artificial. Su sistema de aprendizaje automático de detección de fraude busca patrones de fraude establecidos para identificar patrones de fraude emergentes en tiempo real.

Con datos personales más confidenciales en línea como resultado de la adopción generalizada por parte de los consumidores de todo lo digital y móvil, los estafadores tienen el poder de perpetrar más fraudes digitales. Como resultado, las organizaciones de servicios financieros están redoblando sus esfuerzos para mantenerse un paso por delante. Según un nuevo informe ofrecido por Research Dive, se prevé que el mercado global de detección y prevención de fraude generará unos ingresos de  $ 145,7 mil millones para 2026 , desde un tamaño de mercado de  $ 18,8 mil millones en 2018 .

Cómo se defienden los estafadores

Sin embargo, los estafadores también están aprovechando la inteligencia artificial para romper las soluciones de seguridad tradicionales que incluyen contraseñas, captcha o incluso autenticación biométrica con el uso de tecnología deepfake. Los deepfakes son videos o imágenes creados con software impulsado por inteligencia artificial para mostrar a las personas que dicen y hacen cosas que no dijeron o hicieron. 

El fraude de identidad sintético es una forma sofisticada de fraude en línea que también es difícil de identificar. Los estafadores crean identidades usando información de varias personas para crear una “persona” que no existe, luego usan esta identidad para solicitar cuentas de tarjetas de crédito o completar otras transacciones que ayudan a construir un puntaje de crédito para clientes inexistentes.

Requisitos de infraestructura para combatir el fraude

La mejor estrategia de lucha contra el fraude de su clase que aprovecha la inteligencia artificial y otras tecnologías innovadoras requiere una infraestructura igualmente mejor en su clase para respaldarla. Escribimos en una publicación de blog anterior sobre cómo estos tipos de aplicaciones usan más energía por rack que las aplicaciones promedio porque requieren una utilización mucho mayor del procesador y dependen de procesadores de ejecución más rápida. Esto también aumenta la demanda de refrigeración, lo que aumenta aún más la necesidad de energía.

Panduit proporciona a las organizaciones de servicios financieros infraestructuras centradas en la sostenibilidad que también son robustas, ágiles y pueden escalar bajo demanda.

MCS en DCD>México 2021

¡Somos Knowledge Partner en DCD>México 2021!

El Congreso Virtual para la industria del Data Center donde se presentarán las últimas tendencias en inversiones, gestión, energía, edge, cooling, cloud e infraestructura IT para que podamos entender como la creciente digitalización de diferentes sectores de la economía impacta a la industria del Data Center en México.

Las fechas del congreso virtual será del 07 al 09 de Septiembre, en donde se reunirán operadores, technology vendors y consultores de diseño para que compartan sus mejores prácticas e ideas para la modernización de la infraestrucutura digital y gestión de Data Centers. Contaran con ponentes expertos de todo el país que traerán nuevas perspectivas de gestión de facilities y operaciones IT.

MCS Networks y Panduit presentarán su estrategia enfocada a Edge Computing para atender las necesidades actuales post-covid. Jorge Neyton Ávila Pacheco, quien es Technical Systems Engineer México en Panduit, presentará el Tech Showcase “Edge: La última frontera más cercana a los negocios”.

Se espera que la creciente necesidad de procesar grandes volúmenes de datos que se generan a partir del aumento de los desarrollos de tecnologías para la automatización de procesos, junto con una competencia empresarial intensificada, impulse el mercado Edge en los próximos años. Las organizaciones respaldan esta tecnología para mejorar las operaciones y obtener conocimientos en tiempo real.

Para conocer más sobre el Tech Showcase: https://www.datacenterdynamics.com/es/eventos/mexico/2021/tech-showcases03/

Regístrese de manera gratuita para el DCD>México 2021: https://www.datacenterdynamics.com/es/eventos/mexico/2021/registrese/

¿Qué es una pérdida ultrabaja?

Por: James Young / CommScope

La pérdida ultrabaja describe el rendimiento de los aparatos de fibra óptica utilizados en las redes de centros de datos (CC). Los centros de datos siempre se esfuerzan por aumentar la capacidad de brindar servicios a sus usuarios. Como un coche de carreras finamente ajustado, un mayor rendimiento es un desafío de ingeniería sin fin. A medida que aumenta el rendimiento, todos y cada uno de los componentes se someten a una gran tensión y el rendimiento general del automóvil y del equipo depende del rendimiento de las piezas más pequeñas.

Los centros de datos son muy parecidos. La capacidad de CC se basa en el cableado físico de la red de fibra óptica. Esta infraestructura aumenta constantemente la velocidad y la eficiencia, lo que permite un mayor rendimiento de datos. Mantener el flujo de datos ahora depende de preservar la mayor cantidad posible de señales de datos. El cableado y las conexiones de fibra pierden una cierta cantidad de señal, sin embargo, son absolutamente necesarios para llevar la información por la CC y, finalmente, a los usuarios finales. Con el tiempo, el rendimiento de estos componentes ha mejorado. Hoy en día, el estándar de alto rendimiento es la pérdida ultrabaja.

A medida que aumentan las velocidades, los enlaces de datos superan los desafíos de transmisión cada vez más difíciles. Se utiliza más señal disponible para superar estas pérdidas de transmisión, lo que deja menos señal disponible en el enlace. Conservar la señal restante es la mejor manera de proporcionar las conexiones y el cable de fibra entre el equipo activo en la CC. Aumentar la capacidad mientras se mantiene el alcance, la escala y la estructura de la infraestructura física es un desafío constante. Esta es precisamente la razón por la que CommScope ha introducido una nueva plataforma de aparatos de pérdida ultrabaja.

La combinación de aparatos de pérdida ultrabaja con un cable OM5 de gran ancho de banda proporciona la plataforma de fibra multimodo óptima para los centros de distribución empresariales. CommScope proporciona herramientas de diseño y rendimiento de enlace garantizado para eliminar las conjeturas al diseñar para la capacidad de próxima generación en su DC. Al permitir más conexiones y longitudes más largas, la tecnología de fibra dúplex SWDM4 de bajo costo llega incluso a los centros de distribución de empresas más grandes.

Mantenerse al día con la demanda de más capacidad de CC requiere una estrategia de migración de alta velocidad bien planificada . ¿Cuáles son sus planes para las redes de alta velocidad de próxima generación?

¿Qué es el cableado estructurado?

Por: CommScope Staff

Imagínese que adquiere una nueva lámpara de escritorio para su oficina en casa. Estás ansioso por probarla, pero en lugar de enchufarla a una toma de corriente cercana, tienes que llevar un cable alargador hasta el sótano para llegar al panel de interruptores. Y luego hay que hacer lo mismo con una nueva impresora o cualquier otro dispositivo que requiera energía.

Las primeras redes informáticas se conectaban de forma muy parecida -con cables de conexión- antes de que se desarrollara el cableado estructurado y sus normas complementarias. En pocas palabras, el cableado estructurado es una infraestructura de cableado que proporciona un enfoque organizado y estandarizado del cableado que permite realizar cambios sencillos en una red informática.

Además de los puntos de conexión fijos, similares al cableado eléctrico fijo que va a las tomas de corriente, las normas de cableado estructurado definen una serie de subsistemas que facilitan el diseño, la instalación, las operaciones y el mantenimiento de las redes de TI.

Cada uno de los principales grupos de normas de cableado, a saber, ISO/IEC, TIA y CENELEC, estableció normas para el cableado estructurado en oficinas comerciales, centros de datos, campus y otros. Estas normas ayudan a especificar los tipos de cableado y los componentes utilizados en estos entornos, entre ellos:

  • Categoría 6 y Categoría 6A
  • Cableado de fibra óptica
  • Conectores modulares

La estandarización de los conectores, las categorías de rendimiento del cableado de cobre y fibra y las directrices de diseño han simplificado en gran medida la planificación e implementación de las redes de TI.

El concepto de cableado estructurado ha tenido tanto éxito que otras aplicaciones no informáticas, como los servicios de automatización de edificios, la seguridad y el audiovisual de alta definición, también han incorporado el mismo concepto para garantizar que los dispositivos finales puedan actualizarse o cambiarse sin tener que cambiar toda la infraestructura de cableado.

Se ha recorrido un largo camino desde que las soluciones de cableado estructurado empezaron a imponerse en los lugares donde trabajamos y vivimos, pero sus ventajas gracias a la estandarización las han convertido en una parte integral de nuestro trabajo y nuestra sociedad.