Cuando hablamos de hiperconvergencia, tenemos que hablar necesariamente del término «virtualización» al estar intrínsecamente relacionados. La virtualización no es otra cosa sino la habilidad de ejecutar múltiples sistemas operativos sobre un único sistema físico, compartiendo los recursos hardware subyacentes.

Y, aunque nos pueda parecer un concepto nuevo, realmente no es así, pues como tal formaba parte de la tecnologías de los mainframe allá por la década de los 60, donde se tenían ordenadores muy grandes que realizaban y procesaban una serie de tareas de cómputo.

Tecnología mainframe de los años 60

El concepto de esta tecnología era el de dividir el ordenador en múltiples máquinas virtuales para que diferentes tareas se pudieran ejecutar por separado e independientemente en el mismo mainframe. Si una máquina virtual o tarea tuviera un problema, las otras máquinas virtuales no se verían afectadas.

Tareas y máquinas virtuales en la tecnología mainframe

Como vemos, el concepto base de esta tecnología es el mismo que lo que hoy en día entendemos como «virtualización».

Más adelante, en la década de los 90, empezaron a ser muy populares los servidores Intel/AMD (conocidos como servidores “x86”), donde cada servidor ejecutaba sistemas operativos como Microsoft, Linux o Netware, y las empresas ponían un sistema operativo y una aplicación en cada servidor. De un par de servidores, si las empresas crecían, podían pasar a seis servidores, veinte… y, en ocasiones, a cincuenta o más servidores.

Década de los 90: un servidor para cada aplicación

Por consiguiente, la electricidad y el espacio que ocupaban estos servidores (footprint) empezó a convertirse en un problema.

Y aquí llegaron los fabricantes “al rescate”, en la década de los 2000. Lo que hicieron estos fabricantes fue centrarse en hacer servidores pequeños, con servidores de factores de forma de rack y blade. Se ayudó algo en el problema de espacio pero la electricidad y el calor seguían siendo un problema.

Servidores en formato blade

En tanto que los servidores iban siendo más rápido, la propia utilización del servidor bajó (la utilización media solía estar entre el 4 y 10%) pero todavía se utilizaba un servidor para cada aplicación.

Y la virtualización vino a resolver estos desafíos. Es decir, aplicar ese concepto de virtualización de los mainframes de los 60 a los servidores Intel y AMD, utilizando el software de virtualización para hacer que los servidores físicos ejecutaran varios sistemas operativos y aplicaciones o instancias.

Aplicación del concepto de los mainframes a los servidores Intel/AMD

Por tanto, aquí llegamos a la arquitectura que hoy entendemos como virtualización como tal, donde vamos a tener servidores físicos que, gracias a la adición de una capa para virtualización llamada «hipervisor», va a poder estar ejecutando un numero de máquinas virtuales, cada una con su propio sistema operativo y aplicaciones, cada una independiente de las demás, pero todas compartiendo los recursos hardware del servidor físico subyacente.

Concepto de virtualización actual

Como dijimos antes, la virtualización vino a dar respuesta a los desafíos existentes. Sin embargo, todos los procesos de transformación digital de las diferentes empresas, así como nuevas tecnologías y soluciones como el IoT y Big Data, requerían mayor infraestructura física tanto de cómputo como de almacenamiento. Es decir, esas nuevas soluciones crearon nuevos problemas.

Y aquí surgió la hiperconvergencia, arquitectura que viene desarrollándose e implantándose con éxito en los últimos años. ¿Y en qué consiste? En combinar cómputo, almacenamiento y redes (además del propio entorno de virtualización) dentro de un único sistema. Con esto, conseguimos dar solución también a esos problemas tanto de complejidad a la hora de gestionar la infraestructura como a la hora de actualizar cada componente por separado.

Pero en HPE vamos más allá: vamos tener una inteligencia artificial que nos permita analizar de forma predictiva todo lo que vamos a hacer, con HPE InfoSight. Y vamos a simplificar la gestión porque todo se va a gestionar desde la consola del vCenter, es decir, la propia herramienta para gestionar nuestro entorno virtualizado, lo que nos permite tener una abstracción definida por software que simplifica y facilita todas las operaciones incorporando herramientas de automatización para simplificar toda la gestión. Por tanto, así lo conseguimos hacer todo mucho más sencillo y vamos a conseguir maximizar la agilidad de nuestra empresa.

 Dentro de HPE tenemos un portfolio que nos ofrece dos soluciones para infraestructura hiperconvergente: HPE SimpliVity y HPE Alletra dHCI.

Hiperconvergencia con HPE

A la izquierda tenemos la solución hiperconvergente más simple con HPE Simplivity, que nos permite tener una funcionalidad distribuida dentro de diferentes datacenters o entornos remotos, ofreciéndonos una alta disponibilidad y protección de toda la información, con backups integrados en el propio kernel.

 Y a la derecha tenenos HPE Alletra dHCI, que es una solución desagregada (por eso la d de dHCI). Una solución que está más enfocada un entorno más orientado al máximo rendimiento, incluso para cargas que no sean 100% virtualizadas, donde podemos crecer de manera independiente en cómputo o en almacenamiento.

Toda esta experiencia de hiperconvergencia vamos a tener la posibilidad de consumirla como servicio (pagar únicamente por lo que consumamos) dentro de nuestro entorno, gracias a HPE GreenLake. Esto nos va permitir crecer y decrecer para que nosotros nos centremos en la virtualización y en la gestión de nuestras aplicaciones como tal, para que podamos sacarle el mayor partido.

Esperamos que os haya resultado interesante este viaje por la historia de la virtualización e hiperconvergencia y estaremos encantados de leeros en los comentarios. ¡Nos vemos en próximas entradas!

Comparte este artículo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *