Por Rodrigo Parreira, CEO, Logicalis América Latina

170327-8

La aparición de empresas como Google, Facebook, Amazon y Twitter, entre otras, produjeron un cambio muy importante en la dinámica del mercado global de TI. Estas compañías operan en una escala masiva en lo que se refiere a la cantidad de información y datos que procesan y almacenan en tiempo real. Asimismo, tienen una demanda prácticamente infinita de infraestructura: servidores, routers, sistemas de almacenamiento, etc. Para darnos una idea, el mecanismo de búsqueda de Google reproduce en sus servidores, en tiempo real y con varias capas de redundancia, toda Internet.

Entendiendo que esta cantidad de información crece exponencialmente a partir de los diferentes usos de una red con cada vez más penetración, surgen las siguientes preguntas: ¿Cómo ganan escala? ¿Cómo consiguen desarrollar su infraestructura y sus centros de datos? ¿De dónde vienen todos estos recursos financieros que se transforman en un volumen prácticamente ilimitado de CAPEX?

La verdad es que estas empresas han creado, a lo largo del tiempo, un concepto sumamente innovador en términos de arquitectura de TI. Desarrollaron internamente sus propias infraestructuras, fuertemente virtualizadas y basadas en software. Para estas empresas tiene mucho más sentido, en lugar de comprar e instalar un equipo de almacenamiento, por ejemplo, desarrollar una aplicación que se ejecute en un servidor genérico y que actúe, para todos los efectos, como un elemento de almacenamiento. De esta manera servidores, redes y firewalls virtualizados se han convertido en los elementos clave de estas infraestructuras, que son ejecutadas, en gran parte, sobre las llamadas white boxes, o sea, máquinas genéricas económicas y de consumo masivo.

Además de los claros beneficios económicos y de escala, estas arquitecturas virtualizadas demostraron ser sumamente flexibles y se adaptaron, de manera casi nativa, a operaciones en nubes, ya sean privadas o híbridas, permitiendo asignaciones dinámicas de recursos, movimientos automatizados de carga entre varios ambientes y aprovisionamiento simplificado de recursos.

En este momento, esta tendencia empieza a transformarse en mainstream. Grandes corporaciones (bancos, industrias, operadores de telecomunicaciones, entre otras) empiezan a preguntarse: “Si estas arquitecturas funcionan para los gigantes de Internet, ¿por qué no funcionarían para mi empresa?” Esta comprensión también evoluciona en el contexto de un mercado cada vez más maduro en lo que se refiere al desarrollo y adopción de plataformas abiertas de software. Varias iniciativas desarrolladas en los últimos 10 años –como KVM, Openstack, Open Nebula, Open Daylight, entre otras– de una manera u otra se relacionan a este proceso, con mayores o menores grados de madurez, y movilizan a miles de desarrolladores en comunidades virtuales integradas globalmente.

Mirando hacia el futuro, vemos una dificultad cada vez más fuerte de establecer las fronteras entre hardware y software. Analizando este proceso más profundamente, y tomando en cuenta el rol crucial representado por las plataformas de software libre en este proceso, se trata, efectivamente, de un reemplazo de infraestructuras físicas por servicios. Es exactamente eso, porque la adopción de software abierto supone necesariamente un contenido grande de servicios de soporte, configuración, desarrollo y mantenimiento. hardware e infraestructuras que se transforman, a largo plazo, en servicios – ¡esta es la real tendencia!.