EL BIEN GUARDADO SECRETO DE LA VIRTUALIZACIÓN
* Por Helcio Beninatto, Presidente de Unisys en Latinoamérica y VP de
Enterprise Services para la región.
Pocas
tecnologías han obtenido tanta atención a lo largo de la década pasada como la
virtualización de servidores. Y por un buen motivo. Hace diez años, la
organización promedio sufría de problemas graves de servidores dispersos.
"Una aplicación, un servidor" fue el grito de batalla entonces. La
seguridad y el desempeño previsible tuvieron prioridad sobre la eficiencia y la
utilización de los servidores.
Los
hipervisores y las máquinas virtuales han ayudado a poner orden en este
asunto. Al permitir que múltiples
aplicaciones compartan memoria, poder de procesamiento y otros recursos en el
mismo servidor físico host, la virtualización ha reducido los costos y ha hecho
que los centros de TI sean más ágiles. ¿Necesita poder de cómputo para una
nueva aplicación de negocios? ¡Simplemente obtenga una máquina virtual en su
servidor host y listo! Se pondrá en marcha.
Pero
existe un lado oscuro de la virtualización. Es un secreto que los grandes
centros de TI conocen bien pero que casi nunca mencionan a la prensa, y
ciertamente no es culpa de los vendedores que ofrecen soluciones de
virtualización. El secreto bien guardado consiste en lo siguiente: Las
tecnologías de virtualización tradicionales son magníficas para consolidar el
trabajo de recursos pero no son nada adecuadas para las aplicaciones que las
organizaciones dependen para ejecutar sus procesos más importantes, delicados y
críticos para el negocio - como aquellos que guían las relaciones con los
clientes, las transacciones financieras y las cadenas de suministro: aplicaciones
de misión crítica, en otras palabras.
Los
motivos tienen que ver, en gran medida, con el desempeño y la seguridad. La
virtualización trabaja bajo el principio de compartir recursos. Los recursos de
cómputo y de memoria de los servidores físicos se agrupan en un entorno
virtual. Las diferentes aplicaciones posteriormente van a esa agrupación para
competir por recursos cuando los necesiten.
Ese
principio trabaja bien para aplicaciones de nivel más bajo que no requieren
muchos recursos. Las aplicaciones de misión más crítica no juegan este juego
tan bien. Se sabe, por ejemplo, que las aplicaciones de planificación de
recursos empresariales (ERP) requieren de muchos recursos. Colóquelas en un
entorno compartido y de repente usted tendrá un escenario darviniano donde las
aplicaciones mayores toman todos los recursos y crear cuellos de botella para
todo mundo.
La
seguridad y la conformidad representan la segunda gran área de preocupación
cuando tiene que ver con colocar aplicaciones de misión crítica en entornos
virtualizados. Debido a que los servidores virtuales comparten recursos, es más
difícil (si no imposible) aislar o endurecer aplicaciones y cargas de trabajo
específicas para seguridad. Por lo que auditar dichas aplicaciones para estar
en conformidad llega a ser un problema.
Por
todos estos motivos, la virtualización ha golpeado el techo cuando tiene que
ver con el mundo de aplicaciones de misión crítica. Gartner estima que
aproximadamente 70% de los entornos de servidor fueron virtualizados en el
2013. El restante 30%, que representa en gran medida cargas de trabajo de misión
crítica complejas, de transacciones intensas, permanece sin ser tocado por la
virtualización.
Particionamiento seguro: una tercera
vía
Hasta
hace poco, los directores de informática que intentan reducir costos y aumentar
la flexibilidad de sus aplicaciones de misión crítica, han enfrentado una
elección difícil: tomar el riesgo de virtualizar estas cargas de trabajo y
esperar que no se topen con contención de recursos, o mantener sus aplicaciones
de misión crítica apartadas en servidores dedicados, caros y subutilizados; lo
que realmente no es una opción.
Pero
con la aparición del cómputo en estructura, que utiliza interconexiones de alta
velocidad para enlazar holgadamente recursos de cómputo en entornos elásticos,
las organizaciones ven una nueva alternativa a la virtualización, una que
entrega ahorros y flexibilidad de servidores virtualizados sin sacrificar
rendimiento y seguridad.
Esa
opción, coloquialmente llamada "particionamiento seguro", implica
crear particiones dedicadas dentro de un entorno de estructura basado en
procesadores estándar Intel x86. Estas particiones son dedicadas para servir a
una aplicación de misión crítica específica, proporcionando toda la memoria,
poder de cómputo, almacenamiento y otros recursos necesitados por aquellas
cargas de trabajo para operar de manera segura y a niveles de desempeño y
confiabilidad de misión crítica. Este
abordaje elimina la competencia por recursos.
En
esencia, estas particiones actúan como particiones conectadas directamente en
un servidor físico, pero debido a que se basan en software y residen en un
entorno de estructura de alta velocidad, ellos obtienen la ventaja de contar
con una flexibilidad extrema. Las particiones seguras pueden ser juntadas y
suministradas en minutos, y posteriormente desmontadas rápidamente cuando ya no
se necesitan. Una partición segura también puede servir a usuarios finales y
ubicaciones geográficamente dispersas. Los resultados son menos servidores
físicos y ahorros significativos.
Todo
esto sin sacrificar la seguridad. Las particiones seguras pueden ser aisladas o
pueden ser fortalecidas para cargas de trabajo altamente sensibles. Y de nuevo,
todo esto puede ser hecho a través de software, no de hardware.
Para
el restante 30% de entornos de TI que no han sido virtualizados, estas son
buenas noticias. Los directores de informática ya no deben hacer concesiones en
relación a sus aplicaciones de misión crítica. Pueden conseguir los beneficios
de la virtualización a un costo razonable sin sacrificar seguridad y desempeño.
* Helcio Beninatto es Presidente de Unisys en Latinoamérica y VP de
Enterprise Services para la región.
No hay comentarios:
Publicar un comentario