5 consideraciones sobre la infraestructura de nube distribuida

Por: Mark Dehmlow / Panduit

En un modelo de nube distribuida, los recursos informáticos y de almacenamiento de la red se ejecutan como servicios en la nube en nubes públicas y privadas, y en el perímetro de la red administrados desde un único plano de control.

Para los usuarios finales, la infraestructura distribuida aparece como una sola entidad en la nube. La administración, el control y las actualizaciones son responsabilidad exclusiva del proveedor de nube pública de origen. Un ejemplo de una arquitectura de nube distribuida es una red de entrega de contenido (CDN), que se compone de una infraestructura de red dispersa geográficamente diseñada para la entrega rápida de contenido de audio y video a usuarios en diferentes ubicaciones.

La TI distribuida es un modelo de consumo de nube de rápido crecimiento y hay muchas razones para ello. Al colocar la infraestructura de red cerca de los usuarios, los proveedores de la nube pueden mitigar la latencia, respaldar la soberanía de los datos, aprovechar las tecnologías de vanguardia y mantener a los empleados remotos conectados y productivos mientras trabajan desde cualquier lugar.

Si bien la TI distribuida brinda todos los beneficios de la nube pública junto con los casos de uso de la nube que dependen de la ubicación, también cambia los requisitos para la infraestructura física subyacente que la respalda. En Panduit, nos hemos enfocado con precisión en la comprensión de las muchas formas en que este modelo de consumo de la nube, junto con otros cambios en el mundo que nos rodea, impactan las decisiones de infraestructura.

A continuación se presentan cinco consideraciones clave para desarrollar la mejor nube distribuida habilitada para infraestructura de su clase.

Garantizar la seguridad y protección de las personas y lugares dentro de las operaciones.

Con una nube distribuida, los recursos pueden dispersarse por todo el mundo e incluso pueden ubicarse junto con los de otras empresas. Más usuarios que se conectan a la infraestructura que soporta una nube distribuida crean más complejidad de gestión para los operadores. Esto ha arrojado luz sobre la necesidad de implementar una forma heterogénea de abordar la seguridad y la protección.

Los socios tecnológicos líderes están desarrollando tecnología de seguridad eléctrica de vanguardia para ayudar a construir una infraestructura de centro de datos segura y protegida. Las soluciones inteligentes de monitoreo, control de acceso y soporte de manos remotas, así como la conexión a tierra, la unión y otras soluciones eléctricas ayudan a proteger contra accidentes, mejoran la seguridad personal, mejoran la seguridad física y aumentan la confianza y la productividad de los empleados.

Priorizar la gestión ambiental.

Las arquitecturas de nube distribuida trasladan el cálculo de energía al perímetro, lo que reduce la cantidad de tráfico enviado a la nube; optimizar la eficiencia de la red y brindar un beneficio ambiental potencial. Sin embargo, cumplir con la promesa de sustentabilidad de las arquitecturas de nube distribuida aún requiere aprovechar enfoques más eficientes para consumir energía y espacio del centro de datos. Los proveedores de infraestructura centrados en la sostenibilidad ofrecen soluciones que aumentan la densidad y gestionan la contención de forma más eficaz. Los principios de diseño para la sostenibilidad abarcan la elección de las materias primas, los procesos de fabricación empleados y los materiales de embalaje utilizados teniendo en cuenta la economía circular en todo momento.

Diseño para usabilidad y rendimiento a escala.

En una arquitectura de nube distribuida, las tareas críticas de procesamiento se ubican más cerca de los usuarios finales, lo que elimina la necesidad de transmitir datos a servidores de red centralizados. Como resultado, los servicios se vuelven más rápidos y receptivos. Sin embargo, este cambio de un modelo centralizado a un modelo distribuido trae consigo un conjunto completo de nuevos requisitos de red e infraestructura para controlar la latencia y habilitar el rendimiento. Los servidores en rack de alta densidad, los switches en la parte superior del rack de mayor velocidad y la infraestructura de cableado optimizada para el espacio permiten a los operadores brindar una experiencia de usuario final confiable, segura y mejorada en general.

Elija soluciones de infraestructura de alta disponibilidad y fácil implementación.

Satisfacer el aumento de la demanda de arquitecturas de nube distribuida hace que la capacidad de implementar la infraestructura rápidamente sea más importante que nunca. Pero no todas las soluciones de infraestructura se crean de la misma manera, ni tampoco los proveedores que las brindan. Las soluciones basadas en estándares que están respaldadas por garantías líderes en la industria ayudan a garantizar la confiabilidad y la confiabilidad, y los proveedores líderes diseñan funciones de usabilidad y capacidad de implementación para respaldar esta evolución rápida de la arquitectura de la nube.

Trabaje con socios que tienen presencia global.

Los socios de infraestructura física deben aportar la experiencia, los conocimientos y el conjunto de soluciones necesarios para ayudar a los operadores de la nube a tener éxito, dondequiera que se encuentren. Elija un socio con amplias capacidades de fabricación, alcance global y un ecosistema de socios en todo el mundo, y un compromiso de brindar continuidad de suministro. Alta disponibilidad, fácil implementación, confiabilidad extendida: infraestructura física fundamental para la nube.

Contáctenos para diseñar una solución a la medida de su empresa: https://mcs.com.mx/contacto/

Cobre en la red del centro de datos: ¿es hora de avanzar?

Por: James Joven / CommScope

En lo que respecta al cableado del centro de datos (CC), se ha escrito mucho sobre la prolongada batalla entre la fibra y el cobre por la supremacía en la capa de acceso. Independientemente de qué lado esté, no se puede negar los cambios acelerados que afectan su decisión de cableado. Las velocidades de carril del centro de datos han aumentado rápidamente de 40 Gbps a 100 GBps, e incluso alcanzan los 400 GBps en centros de datos empresariales y basados ​​en la nube más grandes. Impulsados ​​por ASIC más potentes, los conmutadores se han convertido en los caballos de batalla del centro de datos, por lo que los administradores de red deben decidir cómo distribuir y entregar mayores capacidades de datos, desde los conmutadores hasta los servidores, de la manera más eficaz posible. Casi lo único que no ha cambiado mucho es el enfoque implacable en la reducción del consumo de energía (el caballo tiene que comer).

¿El futuro del cobre en la red de centros de datos?

En la actualidad, la fibra óptica se utiliza en toda la red de CC, con la excepción de las conexiones de conmutador a servidor en el gabinete en las áreas de distribución de equipos (EDA). Dentro de un gabinete, el cobre continúa prosperando, por el momento. A menudo considerado económico y confiable, el cobre es una buena opción para conexiones cortas de conmutadores en la parte superior del bastidor y aplicaciones de menos de 50 GBps. Sin embargo, puede ser hora de seguir adelante.

La desaparición del cobre en el centro de datos ha sido larga y predicha. Sus distancias útiles continúan reduciéndose y la mayor complejidad dificulta que los cables de cobre compitan contra una mejora continua en los costos de fibra óptica. Aún así, el viejo medio ha logrado aguantar. Sin embargo, las tendencias de los centros de datos y, lo que es más importante, la demanda de un rendimiento más rápido y flexibilidad de diseño, pueden finalmente señalar el final del cobre de par trenzado en el centro de datos. Dos de las mayores amenazas para la supervivencia del cobre son su limitación de distancia y el rápido aumento de los requisitos de energía, en un mundo donde los presupuestos de energía son muy críticos.

Pérdida de señal en la distancia

A medida que aumentan las velocidades, el envío de señales eléctricas a través del cobre se vuelve mucho más complicado. Las velocidades de transferencia eléctrica están limitadas por las capacidades de ASIC y se requiere mucha más potencia para alcanzar incluso distancias cortas. Estos problemas afectan la utilidad incluso de los cables de conexión directa (DAC) de corto alcance. Las tecnologías alternativas de fibra óptica se vuelven convincentes por su menor costo, consumo de energía y facilidad operativa.

A medida que crece la capacidad del conmutador, el problema de la distancia del cobre se convierte en un desafío evidente. Un solo conmutador de red de 1U ahora admite varios bastidores de servidores y, a las velocidades más altas que requieren las aplicaciones actuales, el cobre no puede abarcar incluso estas distancias más cortas. Como resultado, los centros de datos se están alejando de los diseños tradicionales de la parte superior del rack y están implementando implementaciones de interruptores en el medio o al final de la fila y diseños de cableado estructurado más eficientes.

El consumo de energía

A velocidades superiores a 10G, las implementaciones de cobre de par trenzado (por ejemplo, UTP/STP) prácticamente han cesado debido a limitaciones de diseño. Un enlace de cobre obtiene energía de cada extremo del enlace para respaldar la señalización eléctrica. Los transceptores de cobre 10G actuales tienen un consumo de energía máximo de 3 a 5 vatios. Si bien eso es alrededor de 0,5-1,0 W menos que los transceptores utilizados para los DAC (ver a continuación), es casi 10 veces más potencia que los transceptores de fibra multimodo. Tenga en cuenta que el costo compensa el calor adicional generado, los costos operativos del cobre pueden duplicar fácilmente los de la fibra. El diferencial de potencia para el cobre se extiende más allá de los cables de red: se aplica igualmente a las trazas de cobre dentro del conmutador. De punta a punta, estas pérdidas de energía se suman.

Si bien hay algunos en el centro de datos que aún abogan por el cobre, justificar su uso continuo se está convirtiendo en una batalla cuesta arriba que se vuelve demasiado difícil de pelear. Con esto en mente, veamos algunas alternativas.

Cobre adjunto directo (DAC)

Los DAC de cobre, tanto activos como pasivos, han intervenido para vincular servidores a conmutadores. El cableado DAC es una forma especializada de par trenzado. La tecnología consiste en un cable de cobre blindado con conectores tipo transceptor enchufables en cada extremo. Los DAC pasivos utilizan las señales proporcionadas por el host, mientras que los DAC activos utilizan componentes electrónicos internos para impulsar y acondicionar las señales eléctricas. Esto permite que el cable admita velocidades más altas en distancias más largas, pero también consume más energía. Los DAC activos y pasivos se consideran económicos. Aun así, como medio basado en cobre, las limitaciones de atenuación sobre la distancia son obstáculos significativos para el futuro de la tecnología. Teniendo en cuenta que los conmutadores nuevos pueden reemplazar varios conmutadores TOR (lo que ahorra una gran cantidad de capital y energía), es posible que los DAC no sean la solución de bajo costo que parecen ser en la superficie.

El cable óptico activo (AOC) es un paso adelante del DAC activo y pasivo, con un rendimiento de ancho de banda de hasta 400 Gbps. Además, como medio de fibra, AOC es más liviano y más fácil de manejar que el cobre. Sin embargo, la tecnología viene con algunas limitaciones serias. Los cables AOC deben ordenarse según la longitud y luego reemplazarse cada vez que la CC aumente la velocidad o cambie las plataformas de conmutación. Cada AOC viene como un conjunto completo (al igual que los DAC) y, por lo tanto, en caso de que falle algún componente, se debe reemplazar todo el conjunto. Este es un inconveniente en comparación con los transceptores ópticos y el cableado estructurado, que proporciona la mayor flexibilidad y facilidad operativa.

Quizás lo más importante es que tanto el cableado AOC como el DAC son soluciones punto a punto. Por lo tanto, existen fuera de la red de cableado estructurado, lo que dificulta la escalabilidad, la administración y la eficiencia operativa general. En segundo lugar, como soluciones de cableado fijo, los AOC y los DAC no pueden admitir la flexibilidad que los centros de datos necesitan para admitir redes de servidores de mayor capacidad e implementar diseños de filas de servidores nuevos y más eficientes. Además, cada vez que aumenta la velocidad o cambia un interruptor, debe reemplazar los AOC y DAC.

Óptica enchufable

Mientras tanto, los transceptores ópticos enchufables continúan mejorando para aprovechar las mayores capacidades de las tecnologías de conmutación. En el pasado, un solo transceptor que transportaba cuatro carriles (también conocido como cuádruple de factor de forma pequeño enchufable [QSFP]), permitía a los administradores de DC conectar cuatro servidores a un solo transceptor. Esto dio como resultado una reducción estimada del 30 % en el costo de la red (y, posiblemente, un 30 % menos de consumo de energía) que los conmutadores basados ​​en puertos dúplex. Los conmutadores más nuevos que conectan ocho servidores por transceptor duplican el costo y el ahorro de energía. Mejor aún, cuando se agrega la flexibilidad del cableado estructurado, el diseño general se vuelve escalable. Con ese fin, el IEEE introdujo el estándar P802.3.cm y está trabajando en P802.3.db, que busca definir transceptores creados para conectar servidores a conmutadores.

Óptica coempaquetada

Todavía en las primeras etapas, la óptica coempaquetada (CPO) acerca el motor de conversión eléctrica a óptica al ASIC, eliminando el rastro de cobre en el interruptor. La idea es eliminar las pérdidas eléctricas asociadas con los enlaces de cobre cortos dentro del conmutador para lograr un mayor ancho de banda y un menor consumo de energía. Los defensores de la tecnología argumentan que es la mejor manera de pasar a la plataforma de próxima generación y velocidades más altas mientras se mantiene un presupuesto de energía asequible. Su objetivo es eliminar las últimas pulgadas de cobre del enlace de la red para lograr la eficiencia totalmente óptica de ASIC a ASIC que necesitarán las redes de CC. Es un objetivo ambicioso que requerirá la colaboración de toda la industria y nuevos estándares para garantizar la interoperabilidad.

Hacia dónde nos dirigimos (antes de lo que pensamos)

La marcha hacia 800G y 1.6T continuará; debe hacerlo si la industria quiere tener alguna posibilidad de cumplir con las expectativas de los clientes en cuanto a ancho de banda, latencia, IA, IoT, virtualización y más. Al mismo tiempo, los centros de datos deben tener la flexibilidad para desglosar y distribuir el tráfico desde conmutadores de mayor capacidad de manera que tenga sentido, tanto desde el punto de vista operativo como financiero. Esto sugiere más soluciones de cableado y conectividad que pueden admitir diversas aplicaciones de fibra al servidor, como el cableado estructurado de fibra.

En este momento, según la hoja de ruta de IEEE Ethernet, las infraestructuras de 16 fibras pueden proporcionar un camino limpio hacia esas velocidades más altas mientras hacen un uso eficiente del ancho de banda disponible. El cableado estructurado que utiliza el diseño de 16 fibras también nos permite dividir la capacidad para que un solo conmutador pueda admitir 192 servidores. En términos de latencia y ahorro de costos, las ganancias son significativas. En CommScope, esto es lo que vemos y escuchamos de nuestros clientes de grandes empresas y centros de datos en la nube. La mayoría de ellos han llegado a un punto de inflexión y se están volcando con la fibra porque miran los hiperescaladores y se dan cuenta de lo que se avecina.

La pregunta de $ 64,000 es: ¿Ha dejado finalmente el cobre de ser útil? La respuesta corta es no. Continuará habiendo ciertas aplicaciones de corto alcance y bajo ancho de banda para centros de datos más pequeños donde el bajo precio del cobre supera sus limitaciones de rendimiento. Así también, es probable que los CPO y los transceptores conectables en el panel frontal desempeñen un papel. Simplemente no existe una solución única para todos.

Dicho esto, aquí hay un pequeño consejo para cualquiera que se pregunte si es hora de eliminar el cobre y prepararse para apostar por la fibra. En palabras del novelista Damon Runyan: “La carrera no siempre es para los más rápidos o la batalla para los más fuertes, pero seguro que es la forma de apostar”.

Tres razones por las que los servicios de colocación e interconexión van de la mano

Por: Teri Acuña / Panduit

Algunos analistas de la industria dicen que la industria de la colocación se encuentra en un estado de transición que está siendo impulsada por la adopción empresarial generalizada de todo lo relacionado con SaaS y el deseo de los inquilinos y proveedores de la nube por más servicios de interconexión.

Los servicios de interconexión son las conexiones físicas que permiten el intercambio de datos entre dos o más entidades, o socios, a la mayor velocidad posible. En su reciente Informe de mercado de interconexión de centros de datos , Morder Intelligence predice que el mercado de interconexión de centros de datos alcanzará un valor de 7650 millones de dólares en 2025, frente a los 3480 millones de dólares de 2019.

Dos de los tipos más comunes de servicios de interconexión son las conexiones cruzadas , que son cables físicos que permiten a las organizaciones acceder a redes, proveedores de nube y otros socios comerciales dentro de un centro de datos, y conexiones directas desde un centro de datos a proveedores de nube pública.

Aquí hay tres razones por las que tiene sentido que los servicios de colocación e interconexión vayan de la mano:

  1. Muchos proveedores de colocación operan múltiples centros de datos grandes que están vinculados por conexiones de alta velocidad y también integran múltiples proveedores y proveedores de nube. Para las aplicaciones sensibles a la latencia que requieren que el procesamiento esté lo más cerca posible del punto de entrega, esta arquitectura distribuida proporciona la flexibilidad de implementación que necesitan los inquilinos de los centros de datos de múltiples inquilinos de hoy.
  2. Los proveedores de nube pública como AWS, Microsoft Azure y Google Cloud están buscando asociaciones con proveedores de colocación para brindar a los clientes que usan múltiples proveedores de nube la capacidad de mover datos fácilmente entre proveedores de nube.
  3. Los servicios de interconexión pueden proporcionar operaciones de centros de datos de múltiples inquilinos con oportunidades adicionales de generación de ingresos más allá del espacio, la energía y la refrigeración tradicionales.

Como resultado, ahora es el momento de que los proveedores de colocación ofrezcan a los inquilinos servicios de interconexión que puedan ayudarlos a agilizar la migración entre instalaciones y facilitar el acceso a los ecosistemas de los socios.

Para obtener más información sobre por qué la colocación se está convirtiendo rápidamente en el destino para conectar empresas, proveedores de servicios y plataformas en la nube, descargue el nuevo libro electrónico, Tres consideraciones clave para los proveedores de colocación.

¿Qué es el cloud computing?

Por: CommScope Staff

Todos estos datos, flotando en algún lugar del espacio. Merriam-Webster define la computación en nube como la práctica de almacenar datos informáticos de uso habitual en múltiples servidores a los que se puede acceder a través de Internet. Pienso en la computación en la nube como en un bar de sushi giratorio: toda la comida (datos) que quieras está disponible, pero todavía tienes que escoger un plato de la cinta transportadora para comer. Lo mismo ocurre con la computación en nube. Los datos están “ahí fuera” en los servidores, pero hay que recogerlos a través de Internet. En general, puede adoptar tres formas diferentes:

Nube pública
Nube privada
Nube híbrida

La nube pública describe los servicios de tecnologías de la información (TI) a la carta alojados públicamente por terceros proveedores. Cuando los consumidores de la nube pública se suscriben a los servicios, los proveedores entregan los servicios de forma privada a través de Internet. Los recursos del centro de datos, propiedad o alquilados por los proveedores, son compartidos por todos los suscriptores del servicio. Los servicios de TI suministrados en la nube pública pueden ser de computación, almacenamiento, seguridad de red, bases de datos, aplicaciones de software u otros.

La nube privada describe los servicios informáticos a la carta alojados de forma privada por las propias empresas o por terceros proveedores de servicios gestionados. Cuando los consumidores de la nube privada se suscriben a los servicios, o bien la organización de TI de la empresa presta los servicios a través de la Intranet de la empresa, o bien los proveedores de servicios gestionados despliegan los servicios a través de una conectividad dedicada. En cualquiera de los dos casos, los recursos del centro de datos se dedican exclusivamente al cliente individual. Los servicios de TI disponibles en la nube privada pueden ser ordenadores, almacenamiento, seguridad de red, bases de datos, aplicaciones de software u otros.

La nube híbrida es la combinación y colaboración del despliegue de servicios de TI bajo demanda de proveedores de nube privada y de nube pública. La clave de la nube híbrida es permitir que los datos, aplicaciones o servicios se compartan, migren o colaboren entre la nube privada y la nube pública.

La computación en nube puede significar cosas diferentes para diferentes personas y redes. ¿Cómo utiliza usted la nube?

Fraude de servicios financieros en un mundo pospandémico

Por: Jennifer Vallarautto / Panduit

A medida que las instituciones financieras cambian su enfoque de la continuidad comercial al crecimiento en un mundo posterior a una pandemia, deben fortalecer aún más las defensas para mantener a raya a los estafadores.

Según el  estudio de fraude de identidad 2021 realizado por el informe de Javelin Strategy & Research , el fraude de identidad le costó a los residentes de EE. UU. Un total de alrededor de $ 56 mil millones solo en 2020. Y una investigación reciente de TransUnion encontró que los estafadores de servicios financieros han intensificado sus esfuerzos en 2021. Al comparar los últimos cuatro meses de 2020 con los primeros cuatro meses de 2021, el porcentaje de intentos de fraude digital sospechosos aumentó un 109% en los EE. UU. Y un 149% a traves del globo.

Las razones detrás del aumento del fraude

¿Qué hay detrás del aumento de la actividad fraudulenta? Cambiar el comportamiento del consumidor como resultado de los bloqueos pandémicos, por ejemplo. Desde el inicio de la pandemia, 93 millones de personas en los EE. UU. Se han inscrito en servicios en línea que alguna vez se llevaron a cabo en persona, y el 75% de ellos planea continuar usando estos servicios en el futuro. El cambio al comercio en línea y móvil por parte de los consumidores con menos experiencia digital, como las personas mayores, ha proporcionado una puerta abierta a los estafadores, y no pierden el tiempo en aprovechar la oportunidad. Además, el estrés y el miedo de los consumidores pueden conducir a comportamientos de transacción más riesgosos para todos los consumidores, lo que crea oportunidades para la infección de malware en los dispositivos y el robo de información de identificación personal.

El trabajo a distancia también ha influido. Afectó el comportamiento de los empleados y expuso las brechas en los procesos y sistemas que creaban riesgos de seguridad. Muchas organizaciones no estaban preparadas para este cambio y es posible que no tuvieran recursos tecnológicos protegidos, como una red privada virtual (VPN), que pueda cifrar la información que pasa por Internet.

Nuevos enfoques para combatir el fraude

Afortunadamente, se está produciendo una transformación masiva en los canales digitales y móviles en la forma en que las organizaciones de servicios financieros se relacionan con sus clientes y utilizan la inteligencia artificial. Están acelerando las iniciativas de transformación digital para mejorar la eficiencia y la eficacia de los equipos antifraude existentes, así como para implementar nuevas formas de luchar contra los estafadores.

American Express, por ejemplo, ha empleado un modelo de aprendizaje automático que utiliza varias entradas que se combinan en patrones con algoritmos en evolución en tiempo real para marcar transacciones que tienen una alta probabilidad de ser fraudulentas. Según las estimaciones de la compañía, el enfoque de aprendizaje automático de detección de fraude ha identificado $ 2 millones en posibles incidentes de fraude incrementales anuales. Mastercard aprovecha Dell EMC para combatir el fraude mediante el análisis de datos y la inteligencia artificial. Su sistema de aprendizaje automático de detección de fraude busca patrones de fraude establecidos para identificar patrones de fraude emergentes en tiempo real.

Con datos personales más confidenciales en línea como resultado de la adopción generalizada por parte de los consumidores de todo lo digital y móvil, los estafadores tienen el poder de perpetrar más fraudes digitales. Como resultado, las organizaciones de servicios financieros están redoblando sus esfuerzos para mantenerse un paso por delante. Según un nuevo informe ofrecido por Research Dive, se prevé que el mercado global de detección y prevención de fraude generará unos ingresos de  $ 145,7 mil millones para 2026 , desde un tamaño de mercado de  $ 18,8 mil millones en 2018 .

Cómo se defienden los estafadores

Sin embargo, los estafadores también están aprovechando la inteligencia artificial para romper las soluciones de seguridad tradicionales que incluyen contraseñas, captcha o incluso autenticación biométrica con el uso de tecnología deepfake. Los deepfakes son videos o imágenes creados con software impulsado por inteligencia artificial para mostrar a las personas que dicen y hacen cosas que no dijeron o hicieron. 

El fraude de identidad sintético es una forma sofisticada de fraude en línea que también es difícil de identificar. Los estafadores crean identidades usando información de varias personas para crear una “persona” que no existe, luego usan esta identidad para solicitar cuentas de tarjetas de crédito o completar otras transacciones que ayudan a construir un puntaje de crédito para clientes inexistentes.

Requisitos de infraestructura para combatir el fraude

La mejor estrategia de lucha contra el fraude de su clase que aprovecha la inteligencia artificial y otras tecnologías innovadoras requiere una infraestructura igualmente mejor en su clase para respaldarla. Escribimos en una publicación de blog anterior sobre cómo estos tipos de aplicaciones usan más energía por rack que las aplicaciones promedio porque requieren una utilización mucho mayor del procesador y dependen de procesadores de ejecución más rápida. Esto también aumenta la demanda de refrigeración, lo que aumenta aún más la necesidad de energía.

Panduit proporciona a las organizaciones de servicios financieros infraestructuras centradas en la sostenibilidad que también son robustas, ágiles y pueden escalar bajo demanda.

¿Qué es una pérdida ultrabaja?

Por: James Young / CommScope

La pérdida ultrabaja describe el rendimiento de los aparatos de fibra óptica utilizados en las redes de centros de datos (CC). Los centros de datos siempre se esfuerzan por aumentar la capacidad de brindar servicios a sus usuarios. Como un coche de carreras finamente ajustado, un mayor rendimiento es un desafío de ingeniería sin fin. A medida que aumenta el rendimiento, todos y cada uno de los componentes se someten a una gran tensión y el rendimiento general del automóvil y del equipo depende del rendimiento de las piezas más pequeñas.

Los centros de datos son muy parecidos. La capacidad de CC se basa en el cableado físico de la red de fibra óptica. Esta infraestructura aumenta constantemente la velocidad y la eficiencia, lo que permite un mayor rendimiento de datos. Mantener el flujo de datos ahora depende de preservar la mayor cantidad posible de señales de datos. El cableado y las conexiones de fibra pierden una cierta cantidad de señal, sin embargo, son absolutamente necesarios para llevar la información por la CC y, finalmente, a los usuarios finales. Con el tiempo, el rendimiento de estos componentes ha mejorado. Hoy en día, el estándar de alto rendimiento es la pérdida ultrabaja.

A medida que aumentan las velocidades, los enlaces de datos superan los desafíos de transmisión cada vez más difíciles. Se utiliza más señal disponible para superar estas pérdidas de transmisión, lo que deja menos señal disponible en el enlace. Conservar la señal restante es la mejor manera de proporcionar las conexiones y el cable de fibra entre el equipo activo en la CC. Aumentar la capacidad mientras se mantiene el alcance, la escala y la estructura de la infraestructura física es un desafío constante. Esta es precisamente la razón por la que CommScope ha introducido una nueva plataforma de aparatos de pérdida ultrabaja.

La combinación de aparatos de pérdida ultrabaja con un cable OM5 de gran ancho de banda proporciona la plataforma de fibra multimodo óptima para los centros de distribución empresariales. CommScope proporciona herramientas de diseño y rendimiento de enlace garantizado para eliminar las conjeturas al diseñar para la capacidad de próxima generación en su DC. Al permitir más conexiones y longitudes más largas, la tecnología de fibra dúplex SWDM4 de bajo costo llega incluso a los centros de distribución de empresas más grandes.

Mantenerse al día con la demanda de más capacidad de CC requiere una estrategia de migración de alta velocidad bien planificada . ¿Cuáles son sus planes para las redes de alta velocidad de próxima generación?

¿Qué es el Edge Computing?

Por: CommScope Staff

El Edge Computing es un tema candente en casi todas las conferencias relacionadas con los centros de datos o la nube; sin embargo, siempre que pregunto cómo lo define la gente, la respuesta es “depende”. Me parece bien desarrollar mi propia definición de edge. Edge es el lugar donde las personas, los dispositivos o las “cosas” intercambian datos con la red. La definición tiene algunos puntos.

En primer lugar, el borde es el lugar donde se produce la conexión. Es el lugar donde las personas, los dispositivos o las “cosas” acceden a la red. Si no hay conexión, no es un borde. La conectividad desempeñará un papel fundamental en el borde. La conectividad puede ser inalámbrica, de fibra o de cobre en diferentes formas.

En segundo lugar, el valor del borde son los datos, en muchos casos en tiempo real. La mayoría de los datos en el borde se procesan localmente. El resto de los datos puede pasar al centro de datos para su posterior computación y almacenamiento. Si no hay datos, no es edge.

En tercer lugar, las interacciones en el borde van más allá de los seres humanos y las redes. Los dispositivos o “cosas” desempeñan un papel importante en el borde.

Esta definición no habla de la ubicación o el tamaño del borde. El borde puede estar situado en cualquier lugar (por ejemplo, en una torre de telefonía móvil, en un avión, en un coche, en casa e incluso en la muñeca). El tamaño de las instalaciones de edge computing, a veces denominadas centros de datos edge, puede variar considerablemente. El tamaño del centro de datos de borde puede variar desde 1-2 kW (1 o 2RU) o menos hasta submega vatios (por ejemplo, unas pocas docenas de racks).

Entonces, ¿qué es lo que impulsa el edge computing? Es el equilibrio dinámico entre la latencia causada por la física y la creciente demanda de una mejor experiencia del cliente. A medida que la red se hace más grande y se distribuye más, la latencia aumenta. Esto es simplemente física. Por otro lado, la demanda de mejores experiencias de los clientes y respuestas más rápidas aumenta sin cesar. Amazon informó de que cada 100 milisegundos (ms) de latencia le costaba un 1% en ventas. Del mismo modo, Google descubrió que un retraso adicional de 500 ms en el tiempo de generación de la página de búsqueda disminuía el tráfico en un 20%. Durante la Conferencia de Centros de Datos de Gartner de 2017, Gartner afirmó que un retraso de 7 ms en la realidad virtual o la realidad aumentada provocará mareos a los usuarios.

Se espera que la computación de borde proporcione enormes oportunidades de crecimiento en hardware y software. Los proveedores tradicionales de contenidos, telecomunicaciones y la nube han invertido mucho en edge computing. Hoy en día, las empresas de muchos otros sectores verticales, como la fabricación, el comercio minorista, etc., han empezado a invertir en edge computing. También durante la Conferencia de Centros de Datos de Gartner de 2017, Gartner predijo que el 40% de las grandes empresas integrarán los principios de la computación de borde en sus proyectos de 2021, frente a menos del 1% en 2017.

Es necesario que las empresas desarrollen una estrategia de edge computing para lograr una mayor productividad y una mejor experiencia del cliente. ¿Qué opina sobre el edge computing?

Impulsando la productividad remota con VDI

¿Ha escuchado hablar de VDI? Si aún no ha oido el término VDI, es el acrónimo de Virtual Desktop Infrastructure. En la práctica, es un concepto tecnológico que permite a los usuarios remotos acceder a sus respectivos escritorios y aplicaciones que están alojados en un servidor centralizado.

Técnicamente, funciona segmentando servidores en varios “escritorios virtuales” individuales a los que las personas pueden acceder de forma remota desde cualquier dispositivo y ubicación.

Bueno, esta no es una tecnología nueva, pero el concepto ha ganado mucho espacio en las empresas. Esto es especialmente cierto porque cada vez más organizaciones buscan habilitar modelos de trabajo remoto que sean flexibles y eficientes.

Sin embargo, no es solo este cambio de comportamiento el que ha impulsado la adopción de escritorios y aplicaciones virtuales. Básicamente, podemos enumerar al menos otros cinco beneficios de VDI que contribuyen a este avance:

1. Ofrece acceso remoto seguro a herramientas de productividad usando cualquier tipo de dispositivo. En la práctica, esto significa que un usuario puede acceder a su entorno de trabajo virtual desde una computadora de bajo consumo o un smartphone;

2. Reduce los costos de TI y simplifica la administración del ciclo de vida de equipos y aplicaciones. Como es una solución alojada en el centro de datos de la compañía, lo que hace VDI es entregar una “imagen” única de la aplicación virtualizada en la pantalla del usuario. El costo de administración bajo esta modalidad termina siendo muy baja. Además, el hecho de que esté centralizado permite que la administración se ejecute una sola vez desde un punto central, en lugar de extenderse a través de múltiples terminales físicas y usuarios;

3. Proporciona acceso desde cualquier lugar a información comercial crítica. Aquí es importante tener en cuenta que esta información crítica está alojada en un centro de datos/servidor corporativo. El usuario no descarga datos críticos a su dispositivo, solo trabaja en una “imagen” de este archivo;

4. Mejora el cumplimiento y crea protección para la propiedad intelectual de las organizaciones. Como el usuario trabaja en una imagen, termina manipulando el archivo centralizado. Esto permite la colaboración entre equipos de trabajo con documentación uniforme. Además, como se mencionó anteriormente, la propiedad intelectual no se “diluye” en innumerables versiones.

5. Extiende la vida de la tecnología. Como ya se mencionó, la solución VDI no requiere una gran capacidad de procesamiento en los equipos de escritorio, ya que el trabajo más pesado se realiza en el centro de datos. De esta manera, es posible utilizar equipos más baratos (como thin clients) e incluso terminales que no podrían manejar la misma aplicación si instalada.

Pensando en la actualidad, donde la necesidad de habilitar trabajos remotos es fundamental, el concepto VDI puede traer beneficios y ventajas  para las empresas en cualquier segmento. Sin embargo, hay algunas verticales con un potencial aún mayor para aprovechar la tecnología. La lista incluye empresas de:

  • Salud: Permite habilitar y escalar proyectos de telemedicina, de manera segura y efectiva.
  • Educación: Asegura una experiencia completa para el aprendizaje a distancia de una manera muy interactiva.
  • Gobierno: Ofrece la consistencia y continuidad de los servicios públicos de una manera muy simple, segura y dinámica.

Sin embargo, vemos un importante potencial para fortalecer la tecnología también en  sectores tales como manufactura, servicios financieros, comunicaciones y venta minorista los cuales también logran excelentes resultados con la adopción de tecnologías VDI.

La gran pregunta es que, independientemente de la vertical en la que opera su empresa, el mundo está experimentando una tendencia cada vez más fuerte en el trabajo remoto, y la virtualización de escritorios y aplicaciones responde de manera extraordinaria a estos desafíos.

La capacidad de su organización para cumplir con los requisitos del usuario para acceder a sus escritorios, aplicaciones y datos desde cualquier dispositivo, donde sea que se encuentren y en cualquier momento, mejorará la productividad  y aumentará la satisfacción del usuario.

Cisco tiene una alianza con los principales proveedores de software VDI (Citrix y VMware), para ayudar a los clientes a adoptar una infraestructura robusta, simple y escalable, de forma económica y segura, proporcionando una experiencia excelente para el usuario final.

Con un diseño validado tanto para la línea de servidores UCS como para la hiperconvergencia HyperFlex, la tecnología garantiza un alto rendimiento y velocidad en la implementación de nuevos entornos o la escalabilidad de los entornos existentes.

El mundo está cambiando rápidamente. Sus empleados y clientes están adoptando nuevas formas de hacer su trabajo. Esperan que se le entregue el entorno que necesitan para tener éxito. Habilitar o escalar las iniciativas de VDI proporcionará una plataforma ágil que permitirá a su empresa impulsar la productividad de manera eficiente.