Los servidores se adaptan a los entornos definidos por software » SmartCIO
 

Pages

Categories

Buscar

Una web de MuyComputerPRO Sites


Los servidores se adaptan a los entornos definidos por software

Los servidores se adaptan a los entornos definidos por software

María Guilarte
Por
9 septiembre, 2014
Especiales

Existe desde hace un tiempo una tendencia tecnológica que está cambiando la infraestructura de TI de las empresas. Nos referimos a los entornos definidos por software (Software Defined, SD por sus siglas en inglés), que afectan a las redes (Software Defined Networks), al almacenamiento (Software Defined Storage) o en general a todo el centro de datos (Software Defined Data Center).

En el caso de SDN, las redes definidas por software, cualquier elemento de una red (un conmutador, un router, un firewall) puede considerarse compuesto de dos funciones básicas, a las que nos solemos referir como planos: el plano de control, que decide cómo se transfieren los datos (entre qué dos puertos de un conmutador, hacia qué enlace en un router, si se filtran o no en un firewall…) y el plano de datos, que se encarga de hacer efectivas estas transferencias. Cada elemento de red tiene una instancia de ambos planos; cada plano de control se comunica internamente con su correspondiente plano de datos, y es necesario que los elementos se coordinen entre sí comunicándose su estado.

La principal ventaja de esta tecnología revolucionaria es la agilidad y flexibilidad que aporta a los procesos operacionales, al permitir controlar las ingentes cantidades de información desde un único lugar. La tecnología SDN genera valor al negocio, simplificando el aprovisionamiento y la gestión de los servicios de recursos informáticos, de almacenamiento y de red. Las empresas deben valorar la renovación de la red para integrar la tecnología SDN con la automatización y el Cloud.

Según explican en Think Big, en SDN el plano de control y el de datos se desacoplan totalmente. El elemento del plano de control, el controlador (no se trata de buscar un nombre complicado) y los elementos del plano de datos, los conmutadores (de nuevo el nombre se corresponde con la función), son normalmente elementos separados, incluso físicamente, y se comunican por medio de un protocolo estándar.

Podrían diferenciarse cuatro etapas en la implantación de las redes definidas por software en las empresas:

1. Automatización de redes: En la actualidad, el control de software de nuestras redes se realiza en la propia empresa y, con frecuencia, por medios rudimentarios. Solo si liberamos el código fuente de las interfaces de aplicación (API), empezamos a conseguir la agilidad que necesitamos.

2. Virtualización de redes: Cuando dispongamos de la automatización básica, podrá iniciarse realmente el proceso de separación de la capa 2/3 de la red y la capa física. Aunque esta tecnología todavía está tomando cuerpo, vemos mucho potencial en los controladores basadaos en software que utilizan OpenFlow, el nuevo protocolo SDN, para programar conmutadores virtuales en los hipervisores de software, tecnología que se suele denominar de «superposición».

3. Ampliación de SND a las redes WAN: No solo los centros de datos conseguirán ventajas, ya que nuestras redes WAN pueden controlarse también mediante SND.

4. Las auténticas redes definidas por sofware: En definitiva, el objetivo tiene que ser disponer de una capa física simplificada que solo funcione con OpenFlow y que cuente con APIs estandarizadas para optimizar la forma en que consumimos los recursos de la red.

Por un lado la virtualización de red ofrece la posibilidad de crear redes específicas, pero sin la necesidad de montar nada en físico. Permite crear, modificar, borrar y recuperar configuraciones de red con sencillos pasos. Integrado con la solución de protección de entorno y endpoints (vShield), permite dotar al datacenter virtualizado de una completa solución de red y seguridad.

Por otro, la virtualización del almacenamiento es otro de los grandes cambios actuales y algunos fabricantes empiezan a proporcionar soluciones en materia de virtualización del almacenamiento. El inconveniente es que esta solución tiene que pasar por adquirir cabinas de almacenamiento que permitan virtualizar cabinas de otros fabricantes.

Uno de elementos principales para que esta tecnología despegue de una vez por todas y se instale en las empresas que lo necesitan es que los fabricantes preparen sus servidores. Afortunadamente, estos últimos meses hemos asistido al lanzamiento de nuevos servidores adaptados a esta tecnología.

HP ProLiant Gen9, el futuro de la computación en los centros de datos

El nuevo portfolio de HP viene preparado para las nuevas necesidades que surgen en la empresa. Los servidores están optimizados para la convergencia, el Cloud y los entornos definidos por software. Entre sus últimas características cuentan con:

– Aceleradores PCIe y DDR4 SmartMemory de HP que aumentan la capacidad de computación.

– Gestión convergente a través de servidores, almacenamiento y redes para permitir organizaciones definidas por software.

– Rapidez de instalación, control y mantenimiento del firmware con administración integrada fiable, segura e innovadora, incluyendo UEFI y APIs REST para entornos de cloud híbrido.

– Aceleradores PCIe y adapatadores SmartCache FlexFabric de HP para ofrecer un mayor rendimiento.

DL180_Gen9_8SFF_FTLos servidores HP ProLiant Gen9 abarcan cuatro arquitecturas: blade, rack, tower y scale-out para dar a las organizaciones la capacidad de:

– Triple capacidad de computación y creciente eficiencia a través de múltiples cargas de trabajo a un coste total de propiedad más bajo con la optimización del diseño y la automatización.

– Acelerar la entrega de servicios TI y aumentar la infraestructura de provisión hasta 66 veces más rápido cuando se combina con HP OneView, y las características convergentes de gestión que estarán disponibles a finales de este año.

– Mejorar el rendimiento de la carga de trabajo de las aplicaciones críticas de negocio hasta cuatro veces para impulsar el crecimiento del negocio con un almacenamiento único de HP, la memoria y las innovaciones de redes.

Dell PowerEdge, para ayudar a los clientes a optimizar el cambiante espectro de aplicaciones y los requisitos que exigen las actuales cargas de trabajo

Dell también ha tomado SDN por bandera y ha equipado su última gama de servidores con las últimas características para hacerlos capaces de soportar estas cargas de trabajo. Se trata de cinco servidores compactos en formatos blade, rack y torre que trabajan con redes definidas por software. Los primeros servidores de esta gama están construidos con la última familia de procesadores Intel Xeon E5-2600v3.

13G Family

La nueva tecnología de almacenamiento en el servidor de Dell permite a los clientes:

– Acelerar los datos más importantes, ofreciendo un alto rendimiento gracias al almacenamiento NVMe Express Flash y al despliegue de Dell Fluid Cache para SAN y SanDisk DAS Cache.

– Posicionar grandes conjuntos de datos duplicando el rendimiento RAID con controladores duales PERC9 opcionales.

– Apoyar el almacenamiento definido por software y optimizar la ubicación de los datos proporcionando configuraciones de almacenamiento híbridas en el nodo de computación, lo que habilita las capacidades de ordenación por niveles.

Intel Xeon E5-2600/1600 v3, para responder a los requisitos de cargas de trabajo diversas y las necesidades de los centros de datos, en una rápida y constante evolución

Intel continúa invirtiendo para hacer posible su visión de crear centros de datos automatizados y, en su nueva familia de productos Intel Xeon E5-2600 v3, la compañía ha introducido sensores y funciones de telemetría esenciales que contribuyen a impulsar más aún las infraestructuras definidas por software (SDI). Además mejoran las características y posibilidades de los servidores.

intel xeon

La familia de procesadores Intel Xeon E5-2600 v3 incorpora nuevas funciones que aportan a los sistemas niveles de visibilidad nunca vistos hasta ahora. Así, una nueva función de monitorización del caché ofrece datos a los administradores, permitiéndoles contar con herramientas de orquestación con las que asignar y redistribuir las cargas de trabajo de forma inteligente, lo que resulta en tiempos de ejecución más breves.

Además, ello ofrece la capacidad de realizar análisis de posibles anomalías en el rendimiento que pueden producirse en entornos de nube multitenencia cuando varias cargas de trabajo compiten por acceso a la caché, fruto de una escasa visibilidad sobre las cargas de trabajo que ejecutan los consumidores.