Noticias y destacados

VMware Cloud on AWS: comprenda los aspectos básicos (parte 3: expansión de la infraestructura local a la cloud)

En la primera entrada de blog de esta serie, presentamos VMware Cloud on AWS y los principales casos de uso de los clientes. En la segunda entrada de blog de esta serie, profundizamos en los casos de uso de migración a la cloud. En esta tercera parte, me gustaría profundizar en el segundo caso de uso: la expansión del centro de datos, es decir, la extensión de la infraestructura local a la cloud con VMware Cloud on AWS.

Existen múltiples escenarios en los cuales un cliente desearía extender su infraestructura a la cloud, como por ejemplo:

  • Tiene requisitos geográficos relacionados con la capacidad (por ejemplo, reglas de soberanía de los datos o la necesidad de estar más próximo a sus usuarios finales) y no desea invertir en la creación de un centro de datos nuevo.
  • Tiene restricciones de capacidad local para gestionar picos temporales de demanda.
  • Desea gestionar necesidades de capacidad temporal no planificadas o necesita capacidad para proyectos nuevos y no quiere invertir en aprovisionamiento excesivo ni en crear capacidad local nueva.
  • Quiere añadir y extender fácilmente servicios de escritorio locales sin comprar hardware adicional.
  • Necesita desarrollar nuevas aplicaciones que deban integrarse con las aplicaciones locales o acceder a los servicios de cloud nativos.
  • Tiene necesidad de realizar actividades de pruebas y desarrollo en un entorno de cloud que sea operativamente similar a los entornos locales.

Pero cuando los clientes intentan extender su entorno local existente a la cloud, deben hacer frente a muchos desafíos, como los que se explican a continuación.

Desafíos típicos al extender el entorno local a la cloud

  • Interoperabilidad entre los entornos: es necesario rediseñar o refactorizar las aplicaciones, convertir el formato de las máquinas, etc. al migrar a la cloud.
  • Conocimientos, herramientas y procesos incompatibles: los equipos de infraestructura y de operaciones tienen que aprender nuevos conocimientos, adquirir herramientas diferentes y cambiar los procesos existentes para aprovechar al máximo las ventajas de la integración en la cloud pública.
  • Gestión de infraestructuras dispares: herramientas de gestión dispares que funcionan de manera aislada entre los entornos local y de cloud.
  • La movilidad bidireccional de las aplicaciones es compleja y costosa: una vez que las aplicaciones se han migrado a la cloud pública, es prácticamente imposible trasladarlas de nuevo al entorno local sin una labor considerable para deshacer los cambios, lo que hace que la migración sea muy cara y requiera mucho tiempo.
  • Seguridad y control incoherentes: las diferencias entre las infraestructuras locales y de cloud pública limitan la reutilización de los procedimientos y herramientas de seguridad y control establecidos.

 

Instrucciones VMware AWS

Cómo supera estos desafíos VMware Cloud on AWS

  • VMware Cloud on AWS extiende la infraestructura local a la cloud con el mismo hipervisor de vSphere que ejecuta decenas de millones de cargas de trabajo. Está disponible en una instancia de Elastic Compute Cloud (EC2) dedicada y sin sistema operativo en la cloud de AWS, por lo que no es necesario llevar a cabo tareas de rediseño para la migración de las aplicaciones. Permite reducir los costes, el tiempo y la complejidad de la migración, y hace que la migración bidireccional resulte fácil y no sea complicada.
  • Gracias a VMware Cloud on AWS, los clientes pueden utilizar en la cloud los acreditados conocimientos, herramientas y procesos de VMware que ya conocen, así que no es necesario adquirir conocimientos ni comprar herramientas nuevas.
  • VMware vCenter, una herramienta de gestión acreditada y ampliamente utilizada por administradores de infraestructura de todo el mundo para gestionar su infraestructura local de vSphere, es la herramienta de gestión de VMware Cloud on AWS y proporciona operaciones coherentes a los administradores de vCenter.
  • No es necesario rediseñar las aplicaciones para llevar a cabo la migración a VMware Cloud on AWS, lo que permite reducir el tiempo, los costes y la complejidad de la migración, así como realizar una migración bidireccional sin problemas.
  • VMware Cloud on AWS permite a los clientes extender a la cloud las políticas locales de control y de seguridad existentes.

A continuación, vamos a ver las características y prestaciones que ofrece el servicio y que ayudan a extender sin problemas un entorno local a la cloud.

  1. Hybrid Linked Mode
  • Proporciona un solo panel de control para ver y gestionar recursos locales y de cloud en el vCenter del centro de datos definido por software (SDDC) de VMware Cloud on AWS. Con esto se obtiene visibilidad y coherencia operativa en ambos entornos.
  • Hybrid Linked Mode le permite conectar una instancia de vCenter Server en VMware Cloud on AWS con una instancia local de vCenter Server.
  • Si conecta una instancia de vCenter Server de cloud a un dominio que contiene varias instancias de vCenter Server conectadas mediante Enhanced Linked Mode, todas esas instancias se conectan al SDDC de cloud.
  • Hybrid Linked Mode le permite:
  • Iniciar sesión en la instancia de vCenter Server del SDDC con sus credenciales locales.
  • Ver y gestionar los inventarios de los SDDC local y de cloud desde una sola interfaz de vSphere Client.
  • Migrar cargas de trabajo en frío y con vMotion entre el centro de datos local y el SDDC de cloud directamente desde la interfaz de usuario.

 

  1. vCenter Cloud Gateway
  • vCenter Cloud Gateway es un dispositivo que puede descargar e instalar localmente para conectar sus vCenters locales y de cloud.
  • Se une al dominio local de inicio de sesión único (SSO) y le permite configurar Hybrid Linked Mode para gestionar los recursos híbridos desde el centro de datos local.
  • vCenter Cloud Gateway incluye la interfaz de usuario de vSphere, y los clientes pueden utilizar esa interfaz para gestionar tanto su vCenter Server local como el de VMware Cloud on AWS. La experiencia de vCenter Cloud Gateway es idéntica a la de Hybrid Linked Mode en VMware Cloud on AWS, salvo que ahora se ejecuta en el entorno local.
  • Recursos: enlace a la documentaciónentrada de blog relacionada.

 

  1. vCenter Content Library
  • vCenter Content Library es la característica perfecta para mantener sincronizada la disponibilidad de las plantillas, los dispositivos de virtualización abierta (OVA), las imágenes ISO y los scripts entre la implementación local y la del SDDC de cloud.
  • Es posible sincronizar plantillas OVF VMTX y usarlas como origen de implementación o destino de clonación, montar imágenes ISO e incluso realizar la personalización de invitados.
  • Al adoptar Content Library, estará preparado para utilizar todo el potencial de VMware Cloud on AWS desde el primer día.
  • Recursos: enlace a la documentaciónGuía de operaciones: utilizar Content Library.

 

  1. Stretched Clusters:

Instrucciones VMware AWS Cluster

  • En VMware Cloud on AWS, los clústeres estándar se encuentran en una sola región y zona de disponibilidad de Amazon. Esto significa que si se produjera un fallo en una zona de disponibilidad (AZ) de Amazon, se perdería la disponibilidad del clúster.
  • Para las cargas de trabajo que no pueden tolerar el posible fallo de una AZ, los clientes pueden optar por implementar un clúster extendido.
  • Gracias a los clústeres extendidos, la infraestructura de VMware Cloud on AWS protege frente a los fallos de las AZ de AWS a nivel de infraestructura. Extender un clúster de SDDC entre dos AZ de AWS de una misma región significa que, si una AZ deja de funcionar, esto se considera sencillamente un evento de vSphere HA y la máquina virtual se reinicia en la otra AZ, lo que proporciona una disponibilidad de la infraestructura del 99,99 %.
  • Ahora, las aplicaciones pueden abarcar varias AZ de AWS en un clúster de VMware Cloud on AWS.
  • Las principales ventajas de los clústeres extendidos son:
  • Alta disponibilidad con objetivo de punto de recuperación (RPO) cero para las aplicaciones empresariales virtualizadas en vSphere en zonas de disponibilidad (AZ) de AWS, utilizando la agrupación en clústeres extendidos en varias zonas de disponibilidad.
  • Los clústeres extendidos permiten a los desarrolladores centrarse en los requisitos y las funciones de las aplicaciones esenciales, en lugar de en la disponibilidad de las infraestructuras.
  • Mejoran considerablemente la disponibilidad de las aplicaciones sin necesidad de cambiar su diseño.

 

  1. Elastic DRS
  • Elastic DRS le permite establecer políticas para ampliar o reducir automáticamente el SDDC de cloud añadiendo o quitando hosts según la demanda.
  • Utiliza un algoritmo para mantener un número óptimo de hosts aprovisionados a fin de garantizar la utilización del clúster en un nivel elevado, pero conservando el rendimiento deseado de la CPU, la memoria y el almacenamiento.
  • Ofrece recomendaciones para ampliar o reducir el clúster. Un motor de decisiones responde a una recomendación de ampliación aprovisionando un host nuevo en el clúster. Y responde a una recomendación de reducción eliminando el host que menos se utiliza en el clúster.
  • Esta característica se activa a nivel de clúster. El intervalo de supervisión es de 5 minutos.
  • Únicamente la escalabilidad vertical del almacenamiento está activada de forma predeterminada. Es posible optimizarla manualmente para conseguir un rendimiento óptimo y reducir los costes.
  • Puede activar eDRS mediante una política o a través de API basadas en REST para automatizar la configuración de esta política.
  • Recursos: enlace a la documentaciónentrada de blog relacionadaentrada de blog sobre Elastic DRS con API basadas en REST.

 

  1. Expansión o reducción automática del SDDC de cloud según las necesidades
  • Una de las grandes ventajas de utilizar VMware Cloud on AWS es la posibilidad de añadir o quitar hosts o clústeres del SDDC de forma rápida y sencilla.
  • Añadir hosts
  • Puede añadir hosts al SDDC para aumentar el número de recursos informáticos y la capacidad de almacenamiento disponibles en el SDDC. Puede añadir un máximo de 16 hosts por clúster y puede tener 20 clústeres por SDDC.
  • Los hosts se extraen del depósito de servidores de AWS. ESXi está en marcha y totalmente configurado, e incluye todos los VMkernel y las redes lógicas y, a continuación, se añade al SDDC de vCenter. Todo este proceso dura entre 10 y 15 minutos.
  • Cuando el host está conectado a la red y se ha añadido al clúster, el almacén de datos de vSAN se expande automáticamente y permite al clúster consumir la capacidad de almacenamiento nueva y comenzar a sincronizar los objetos de vSAN.
  • Quitar hosts
  • Puede quitar hosts del SDDC siempre y cuando el número de hosts del clúster del SDDC permanezca por encima del mínimo de 3 hosts.
  • Añadir clústeres
  • Puede añadir clústeres a un SDDC de cloud hasta alcanzar el número máximo que tenga configurado en su cuenta. Los clústeres adicionales se crean en la misma zona de disponibilidad que el SDDC inicial.
  • Las redes lógicas que ha creado para el SDDC se comparten automáticamente entre todos los clústeres. Los recursos informáticos y de almacenamiento se configuran de forma similar para todos los clústeres.
  • Quitar clústeres
  • Puede quitar cualquier clúster de un SDDC excepto el clúster inicial, Cluster-1.
  • Cuando se quita un clúster, todas las máquinas virtuales de la carga de trabajo del clúster se detienen inmediatamente y se eliminan todos los datos y la información de configuración. Se pierde el acceso al clúster a través de la API y la interfaz de usuario. Las direcciones IP públicas asociadas a las máquinas virtuales del clúster se liberan.
  1. Gestión de políticas
  • En VMware Cloud on AWS, es posible definir políticas de recursos informáticos que permiten especificar el modo en que vSphere Distributed Resource Scheduler (DRS) debe colocar las máquinas virtuales en los hosts de un depósito de recursos.
  • Actualmente es posible especificar 5 tipos de políticas:
  • Política de afinidad entre máquinas virtuales y hosts
    • Una política de afinidad entre máquinas virtuales y hosts establece una relación de afinidad entre una categoría de máquinas virtuales y una categoría de hosts.
    • Estas políticas pueden ser útiles cuando las licencias basadas en host requieren que las máquinas virtuales que ejecutan ciertas aplicaciones se sitúen en los hosts que tienen licencia para ejecutar dichas aplicaciones.
    • También pueden ser útiles cuando las máquinas virtuales con configuraciones específicas para la carga de trabajo deben situarse en hosts que tengan ciertas características.
  • Política de antiafinidad entre máquinas virtuales y hosts
    • La política de antiafinidad entre máquinas virtuales y hosts permite al usuario especificar relaciones de antiafinidad entre un grupo de máquinas virtuales y un grupo de hosts.
    • Esta política puede ser útil para impedir que se procesen cargas de trabajo de propósito general en hosts que ejecutan aplicaciones que requieren muchos recursos, a fin de evitar los conflictos de recursos.
  • Política de afinidad entre máquinas virtuales
    • Una política de afinidad entre máquinas virtuales permite que el usuario especifique relaciones de afinidad entre máquinas virtuales.
    • Esta política puede ser útil cuando dos o más máquinas virtuales pueden beneficiarse de estar ubicadas en el mismo host para reducir la latencia al mínimo.
  • Política de antiafinidad entre máquinas virtuales
    • Una política de antiafinidad entre máquinas virtuales describe una relación entre una categoría de máquinas virtuales.
    • Una política de antiafinidad entre máquinas virtuales desaconseja la ubicación de máquinas virtuales de la misma categoría en el mismo host.
    • Esta política puede ser útil cuando se desea ubicar máquinas virtuales que procesan cargas de trabajo esenciales en hosts independientes, de modo que el fallo de un host no afecte a las demás máquinas virtuales de la misma categoría.
  • Política para desactivar vMotion en DRS
    • Si se aplica la política para desactivar vMotion en DRS a una máquina virtual, se evita que DRS migre la máquina virtual a otro host, a menos que el host actual falle o se ponga en modo de mantenimiento.
    • Este tipo de política puede ser útil para una máquina virtual que ejecuta una aplicación que crea recursos en el host local y espera que esos recursos sigan siendo locales. Si DRS traslada la máquina virtual a otro host para realizar el equilibrio de carga o para satisfacer los requisitos de reserva, los recursos creados por la application se abandonan y el rendimiento puede degradarse cuando la ubicación de referencia no es la misma.
    • Esta política se aplica después de encender una máquina virtual etiquetada y tiene como objetivo mantener la máquina virtual en su host actual siempre que el host permanezca disponible. La política no afecta a la elección del host en el que se enciende una máquina virtual.
  • Recursos: enlace a la documentaciónentrada de blog relacionada.
  1. Múltiples opciones de interconectividad

 

  • VPN
  • Configure una VPN IPsec para proporcionar una conexión segura al SDDC. Se admiten VPN basadas en rutas y basadas en políticas. Cualquiera de los dos tipos de VPN puede conectarse al SDDC a través de Internet. Una VPN basada en rutas también puede conectarse al SDDC a través de AWS Direct Connect.
  • La característica L2VPN de VMware Cloud on AWS permite extender las redes VLAN. La conexión L2VPN con el servidor NSX-T server utiliza un túnel IPsec. La red extendida L2VPN se utiliza para ampliar las redes de máquinas virtuales y transporta únicamente el tráfico de las cargas de trabajo. Es independiente de las redes de VMkernel utilizadas para el tráfico de migración (gestión de ESXi o vMotion), que utilizan una VPN IPsec independiente o una conexión Direct Connect.
  • Una L2VPN en la puerta de enlace de recursos informáticos puede abarcar hasta 100 redes locales. VMware Cloud on AWS utiliza NSX-T para proporcionar el servidor L2VPN del SDDC de cloud. Las funciones del cliente L2VPN puede proporcionarlas una instancia de NSX Edge independiente que se puede descargar e implementar en el centro de datos local.
  • VMware HCX
  • Proporciona prestaciones de interconectividad multisitio de alto rendimiento al desvincular la infraestructura y permitir las operaciones entre diferentes versiones de vSphere y distintos tipos de red.
  • Ofrece la posibilidad de configurar una topología VPN IPSec multisitio, optimizada para WAN, a fin de proteger la conectividad entre sitios.
  • Permite expandir las redes de capa 2 y extender los centros de datos entre sitios.
  • Realiza migraciones de cargas de trabajo en bloque con vMotion dinámico bidireccional y ofrece la posibilidad de conservar las direcciones IP y MAC.
  • AWS Direct Connect
  • AWS Direct Connect es un servicio facilitado por AWS que permite crear una conexión de alta velocidad y baja latencia entre su centro de datos local y los servicios de AWS.
  • El tráfico de Direct Connect se desplaza por una o varias interfaces virtuales creadas por usted en su cuenta de cliente de AWS. En los SDDC con redes proporcionadas por NSX-T, todo el tráfico de Direct Connect, incluido vMotion, el tráfico de gestión y el tráfico de la puerta de enlace de recursos informáticos, utiliza una interfaz virtual privada. Esta establece una conexión privada entre el centro de datos local y una sola cloud privada virtual (VPC) de Amazon.

Recursos:

Para obtener más información relacionada con VMware Cloud on AWS, consulte estos otros recursos de aprendizaje: