Noticias

Redes de centros de datos: SDDC | Ubuntu

Esta publicación de blog es parte de nuestra serie Datacenter Networking:

En los blogs anteriores, cubrimos la arquitectura y los principales impulsores de la red definida por software. En este, analizamos los efectos de la softwareización en los otros componentes importantes del centro de datos, que culminan en los centros de datos definidos por software (SDDC). SDDC está ocupando un segmento cada vez más grande del área de computación en la nube que originalmente fue asumida por proveedores de servicios de nube pública e hiperescaladores y ahora también está encontrando un hogar con proveedores de servicios de nube privados. Primero, veamos qué factores han influido en el desarrollo de los centros de datos.

En los primeros días, las aplicaciones de TI eran monolíticas y todo estaba alojado en una sola carcasa. Luego, los sistemas de información comenzaron gradualmente a introducir una arquitectura de 3 niveles:

  • Interfaz
  • Back end
  • Base de datos

Estos 3 bloques requerían una infraestructura de red para comunicarse entre sí.

La tendencia entonces fue dividir los servidores de aplicaciones en varios componentes independientes, a saber:

  • Calcular (capacidad informática)
  • almacenamiento

El tráfico de datos entre la CPU y los discos duros, que en el pasado se realizaba a través del bus interno de cada máquina, ahora está en la red.

La virtualización de servidores físicos entre varias unidades lógicas aumentó los requisitos de ancho de banda de cada unidad física conectada a la red.
La última tendencia es virtualizar las funciones de red y desagregar los componentes físicos que las componen. Esto ha aumentado aún más la presión sobre las infraestructuras de los centros de datos.

Publicaciones relacionadas

Efectos de la virtualización

Con el uso cada vez mayor de técnicas de virtualización y la «desagregación» de los componentes de la red, el tráfico dentro del centro de datos (llamado este-oeste) ha aumentado significativamente.

Las arquitecturas de red para centros de datos, que originalmente se diseñaron para el tráfico norte-sur, resultaron inadecuadas. El ancho de banda de acceso siguió aumentando drásticamente (10G, 40G, 100G, 400G) para servir a múltiples instancias en una sola base física.

Como el enrutamiento en la infraestructura se llevó a cabo a un nivel “alto”, observamos que el tráfico intercambiado entre aplicaciones dentro del mismo centro de datos pronto sobresatura las conexiones norte-sur. Casi todo el tráfico, incluido el local, va a los enrutadores «centrales» sin salir del centro de datos.

Para hacer frente a este aumento en el tráfico de datos dentro del centro de datos, se implementó una nueva arquitectura de estructura conocida como «CLOS Fabric». Se basa en nuevos protocolos, elimina el árbol de expansión y optimiza el uso de todos los enlaces.

Por otro lado, la estructura jerárquica «piramidal» de las redes tradicionales de centros de datos tuvo que ser reemplazada por una estructura mucho más plana. Este tipo de arquitectura se llama «Spine and Leaf».

Gracias al rendimiento de la informática y el almacenamiento virtualizados, así como a la SDN, los clientes pueden suscribirse a infraestructuras completas de centros de datos. Los proveedores ya no solo proporcionan almacenamiento y rendimiento del servidor, sino que también ofrecen componentes de red (también conocidos como VNF) como conmutadores, equilibradores de carga o cortafuegos como recursos virtuales que el software puede controlar fácilmente. Por lo tanto, no es de extrañar que no solo los proveedores, sino también cada vez más expertos, vean un centro de datos definido por software como el modelo de centro de datos del futuro. Las siguientes secciones explican por qué este es el caso explicando cómo funciona una red controlada por software.

¿Qué es SDDC?

La virtualización de software y la simple provisión de almacenamiento y computación definidos por software se han establecido desde hace mucho tiempo en la cartera de proveedores de computación en la nube. El modelo futurista de IaaS, en el que el software de nivel superior funciona como unidad de control central, también se ha utilizado para la gestión de infraestructuras de red (SDN) durante algún tiempo. Este control centralizado debería reflejar en última instancia un enfoque basado en modelos desde la red hasta la informática y el almacenamiento.

Un SDDC combina estos tres servicios de infraestructura impulsados ​​por aplicaciones además de una capa de gestión y orquestación para que los usuarios puedan construir su propio centro de datos personalizado. Con el software adecuado, los componentes típicos como enrutadores, conmutadores, equilibradores de carga de servidor o cortafuegos pueden proporcionarse en la red virtual y organizarse individualmente sin tener que comprar hardware dedicado. Por regla general, los proveedores de IaaS se encargan de esto, por lo que también son responsables del mantenimiento y la seguridad de los dispositivos. Si ciertos componentes ya no son necesarios, se pueden eliminar del SDDC en cualquier momento.

Las últimas formas de SDDC también reflejan el impacto de la desagregación de aplicaciones en microservicios y la aparición de máquinas contenedoras. Los contenedores se implementan en clústeres y se administran mediante diversas tecnologías de Kubernetes.

¿Cómo funciona todo?

Como ocurre con todos los recursos de TI definidos por software, la separación de los niveles de control y de datos es una característica importante de los centros de datos definidos por software. Todas las funciones de control se extraen del hardware integrado y se implementan en un software de nivel superior, que luego funciona como el centro de comando del centro de datos virtual. Asume todas las tareas que van más allá del simple procesamiento de datos en el nivel del «plano de datos», por ejemplo, dónde se ejecuta una aplicación o cierto proceso, qué ruta debe tomar un paquete de datos o dónde se deben almacenar los archivos.

La comunicación con los distintos dispositivos se realiza a través de protocolos estandarizados como OpenFlow, BGP o NETCONF. Como resultado, el nivel de control puede controlar y expandir uniformemente las funciones de los componentes de hardware independientemente de su fabricante original. Además, no es necesario realizar cambios en cada dispositivo individualmente, ya que la información correspondiente también se puede transmitir de forma centralizada, automática o con solo unos pocos clics.

¿Qué ventajas puede ofrecer SDDC?

Los objetivos más importantes de los servicios definidos por software incluyen la máxima flexibilidad, automatización y eficiencia. Para lograr estos objetivos, se deben superar las dependencias de hardware y se debe lograr un grado máximo de virtualización. El resultado son infraestructuras de TI sin las limitaciones físicas de los entornos convencionales, que se pueden adaptar de forma flexible a las necesidades del usuario y escalar en consecuencia. Después de la virtualización de las soluciones de red, servidores y almacenamiento masivo, este enfoque se expandió a un centro de datos virtual completo en forma de centro de datos definido por software. Esto ha mostrado varias ventajas sobre los centros de datos tradicionales con hardware dedicado:

  • Alta fiabilidad: Las soluciones SDDC son muy seguras, ya que la arquitectura del software compensa fácilmente las fallas de hardware. Para ello, las cargas de trabajo correspondientes se transfieren a otros componentes en el menor tiempo posible sin tener que acceder manualmente a los dispositivos averiados.
  • Seguridad mejorada: A diferencia de la infraestructura del centro de datos convencional, el modelo SDDC permite que toda la información relevante para la seguridad se vincule a las propias máquinas virtuales. De este modo, prácticamente se pueden descartar las lagunas de seguridad debidas, por ejemplo, a configuraciones inadecuadas. También existen algunas soluciones de seguridad definidas por software que ayudan a implementar la microsegmentación granular que reduce la propagación de las amenazas de este a oeste.
  • Alta seguridad de planificación: El uso de un centro de datos definido por software equipa las infraestructuras de TI para futuros desarrollos tecnológicos, en los que se pueden integrar nuevas funciones con mucha más facilidad. La escalabilidad adecuada también ayuda a aumentar o disminuir los recursos seleccionados en cualquier momento.
  • Gestión de hardware simplificada: SDDC reduce las tecnologías de hardware aisladas y permite la gestión centralizada de todos los componentes integrados. Esto hace que sea más fácil para los proveedores crear y proporcionar recursos, así como su control y monitoreo por parte de los clientes. Los clientes empresariales también se benefician de no tener que comprar sus propios dispositivos.
  • Costos mas bajos: SDDC puede ser más económico que los centros de datos tradicionales por dos razones. Por un lado, gran parte del hardware es más económico debido a la falta de lógica de control. Por otro lado, la escalabilidad simple permite a los clientes mantener los costos lo más bajos posible.
  • Se requieren menos conocimientos específicos del fabricante: La estandarización, los protocolos abiertos y la programación independiente del fabricante no solo significan más flexibilidad, sino también una menor dependencia del conocimiento especializado.

¿Cuáles son los desafíos del SDDC?

Los centros de datos definidos por software aprovechan al máximo las tecnologías de virtualización, lo que puede hacer que la administración sea una tarea abrumadora. Los componentes virtuales y el hardware subyacente deben formar una unidad que sea fácil de administrar y monitorear. En particular, la movilidad y los límites fluidos entre los centros de datos físicos y virtuales plantean grandes desafíos para los operadores. Por ejemplo, las herramientas utilizadas para mediar entre el entorno virtual y físico deben estar perfectamente coordinadas. De lo contrario, un componente virtual puede informar de un error, incluso si se origina en el nivel físico.

La combinación de varios servicios definidos por software (informática, almacenamiento, redes) también es más difícil de lo que parece. Las diversas ofertas de IaaS definidas por software están maduras en diferentes grados y pueden admitir diferentes protocolos e interfaces que también deben combinarse en el SDDC. Esto se refleja en el nivel de hardware, que por un lado debería ser fácil de proporcionar y virtualizar, pero por otro lado también debería admitir la interacción de varios componentes de red, almacenamiento y servidor virtual más allá de sus propios límites materiales. Esta es la única forma en que el centro de datos definido por software puede garantizar el uso de la infraestructura por parte de múltiples inquilinos.

Afortunadamente, Canonical ha encontrado una solución a estos desafíos. Charmed OpenStack de Canonical es una suite completa que proporciona orquestación y gestión impulsadas por modelos para aplicaciones e infraestructuras modernas implementadas en centros de datos abiertos.

Todo lo que necesita para empezar a utilizar OpenStack

Charmed OpenStack de Canonical es una distribución puramente ascendente de OpenStack diseñada para ofrecer la mejor relación calidad-precio con soporte empresarial completo.

Más información>

Ubuntu es la distribución de Linux más popular para nubes públicas, centros de datos y borde con seguridad y cumplimiento integrados para clientes empresariales.

Más información>

¿Que sigue?

El próximo blog está dedicado a OVS y OVN como parte de la pila de red abierta para centros de datos.

Cubre las siguientes publicaciones de esta serie:

  • Redes de centros de datos: OVS y OVN
  • Redes de centros de datos: SmartNIC

LEER  Los nuevos parches de seguridad del kernel de Ubuntu Linux solucionan hasta siete agujeros de seguridad, actualice ahora

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba