Corría el año 1944, todavía con la II Guerra Mundial como telón de fondo, cuando una sala de la Universidad de Harvard se llenó, pero no de estudiantes, sino de un gigantesco dispositivo electrónico que nadie había visto hasta entonces. Un ingente equipo informático que, con el tiempo, se convertiría en el primer gran despliegue de la informática moderna y en el corazón de la vida digital que hemos disfrutado en estos setenta años de vida.
El protagonista de las miradas de los atónitos profesores y estudiantes era el The Harvard Mark I, que no dejaba de ser una inmensa calculadora gigante -ASCC (Automatic Sequence Controlled Calculator)- capaz de ejecutar las cuatro operaciones aritméticas básicas, de trabajar en paralelo y de operar con hasta 23 decimales. Puede parecer algo ínfimo hoy en día, pero en 1944 todo eso costó un ingente esfuerzo de más de cinco años de trabajo, más de 750.000 componentes empleados en el equipo y 800 kilómetros de cable instalado.
Y lo que es más importante, fue el inicio de la 'era del mainframe'. Allá por los años 50 y 60, estos equipos se hicieron extraordinariamente populares. Eran de gran tamaño (ocupaban lo mismo que un armario gigante, además de una sala entera para sus sistemas de refrigeración, alimentación y ventilación) y que, por no tener, no poseían ni una interfaz de uso con la que poder configurarlos. Con el tiempo, fueron integrando discos duros magnéticos, desterrando las tarjetas perforadas, e incorporando los transistores que darían pie a la siguiente evolución de la computación moderna.
[Michael Feathers: "No nos dejemos llevar por el brillo de lo nuevo y fingir que la tecnología antigua no existe"]
Dispositivos que, aunque parezcan obsoletos -y se les haya tratado de matar sucesivas veces- siguen estando en el corazón de la mayoría de grandes corporaciones de todo el mundo. No en vano, en torno a un 80% de las organizaciones españolas mantiene en su core de negocio sistemas antiguos, como es el caso del mainframe. Sin olvidar que 96 de los 100 mayores bancos del mundo usan mainframe en su operativa crítica o que la mayoría de firmas de retail y telco mantienen estas máquinas para asegurar que sus infinitas transacciones se ejecuten sin sobresalto alguno.
Pese a ello, a principios de los 2010 hubo una nueva oleada de voces pidiendo su muerte, eliminar al mainframe de la faz de la Tierra. Estos dispositivos no sólo no se veían como algo poco estratégico, sino que se enfrentaban a una falta de innovación clara (un "segmento apático" llegó a ser definido por altas voces del sector), con dudas sobre el compromiso del gran fabricante de estos equipos (IBM) y con unos analistas, que situaban de forma recurrente al mainframe en la categoría de tecnologías medievales.
Y todo quedó en nada. Ahora hasta las más prestigiosas firmas de análisis, como Gartner e IDC, reconocen la importancia de los entornos heredados y apuestan por mantenerlos, modernizarlos y hacerlos convivir con el resto de propuestas de nuevo cuño. Y eso pese a que Gartner, durante décadas, defendió la necesidad de reducir las inversiones en mainframe para aupar otro concepto, el de cliente-servidor. Irónicamente, este último es quien está viéndose directamente amenazado por la democratización de los grandes hiperescalares en la nube.
¿Qué puede llevar a las empresas a seguir confiando en sistemas de hace setenta años? ¿Qué motivo habrá para que estos ingentes equipos, añejos y nada atractivos, sigan siendo imprescindibles en muchas empresas? ¿Podemos reemplazarlos por alternativas más modernas, ya sea en forma de nuevas generaciones de servidores o, directamente, en la nube?
El valor del 'mainframe'
Hemos de aceptar que lo viejo, a veces, es simplemente mejor, tanto en términos de seguridad (según un estudio de Vanson Bourne, el 78% de los CIO asegura que los mainframe son más seguros que las tecnologías modernas) como de eficiencia en procesos transaccionales (IBM cuenta una nueva generación de mainframes capaces de llevar a cabo más de 12.000 millones de transacciones encriptadas al día).
Pero hay más motivos para defender la supervivencia del mainframe, su hueco en nuestros corazones y su función clave en el ecosistema TIC actual. Un exdirectivo de alto nivel de esta industria, Chris O'Malley, explicaba en una conversación que mantuvimos en 2018 que "el valor del mainframe se vuelve clave en rendimiento de cargas de procesamiento porque es el más económico en estos términos, pero también en que nunca se cae, su enorme fiabilidad. Cuando estamos manejando tanta cantidad de datos, como sucede con las transacciones bancarias, esto es lo que realmente importa".
En ese sentido, IDC, en un informe de 2019, señala que los 'mainframe transformadores' (término acuñado para los que han sido dotados de agilidad e integración con el resto de sistemas modernas) pueden producir hasta seis euros de beneficio por cada uno de inversión, con un coste operativo un 19% menor y hasta un 43% mayor disponibilidad que la media.
"Hay cosas en las que el mainframe es realmente insuperable, cuando se trata de un alto volumen de transacciones y se requiere alta seguridad. Ahí es casi imbatible, nadie puede decir que funcionaría mejor en un entorno distribuido o en la nube. Pero a lo mejor hay otras aplicaciones, no tan críticas para el negocio, que no requieren esa actualización constante, que estarían mejor en otros sistemas", detalla a su vez Petra Goude, Global Practice Leader & Core Enterprise and zCloud en Kyndryl.
La supervivencia del 'mainframe'
"Ha habido mucho debate sobre el futuro, que es como un péndulo, parece que de una año para otro todo cambia. Si escuchas a algunos proveedores te dirán que todo va a salir de ahí y subirse a la nube, si hablas con otros seguramente te dirán que nada se moverá. Pero el mainframe siempre permanece", explica Goude., explica Goude. "Al final se trata de cómo capturar el valor de algo en lo que has invertido millones durante setenta años, lo que obliga a posiciones más equilibradas y a conversaciones más saludables sobre entornos híbridos".
"Todos los mainframe que existen hoy en día están ejecutando una carga de trabajo de misión crítica; ya sea un sistema de registros, logística o sistema financiero bancario, el mainframe es la sangre de muchas empresas".
Goude considera que el mainframe está "para quedarse durante mucho tiempo" si se apuesta por este enfoque, aunque eso no evita que muchas de las cargas de trabajo actualmente ejecutadas en estas máquinas acaben por buscar nuevos vientos en tecnologías más modernas. Al respecto, la experta admite la mayor y apela a entender bien qué cargas pueden todavía sacar provecho del mainframe y para cuales, empero, es un lastre.
Asimismo, en el pasado las empresas tendían a mantener los mainframe como una isla aislada, un monolito separado del resto de sistemas de la compañía. "Sin embargo, hoy en día, cualquier persona que opere en este campo sabe que debe optimizar todo el entorno que lo rodea, favoreciendo su integración con los hiperescalares en la nube y asegurándose de que usan las herramientas DevOps correctas", afirma Petra Goude a D+I.
Un camino con la hibridación por bandera que es, inexorable e inevitablemente más complejo al aunar en un mismo paraguas entornos de mainframe, centros de datos al uso y cargas en la nube. "Cualquier cosa híbrida se vuelve más complicada. Todos cuando llegó el 'cloud' hablaban de simplicidad, cuando en realidad no lo es. La clave es gestionar esas infraestructuras híbridas, siendo diligentes, para poder automatizar tareas, para agregar valor, para tender puentes y conseguir una visión holística del funcionamiento TIC de la empresa".
Futuro por encima de cualquier duda
Parece, a tenor de todo lo planteado, que los mainframe podrían llegar a cumplir su centenario en plena forma. ¿Estamos ante un evidente pero obviado ejemplo de eterna juventud tecnológica?
"Una persona de mi equipo me preguntó qué opinaba de los Porsche. Y dije que me parece un coche moderno. Lo mismo que la gente pensaba hace 60 años, cuando los Porsche ya eran geniales. Es como el mainframe: era maravilloso entonces y es maravilloso ahora; todo depende de cómo modernizamos las cargas de trabajo que se ejecutan en ellos", presume Petra Goude.
"Los sistemas del back-end siguen funcionando en mainframe, por mucho que por delante las compañías vayan a la nube", explicaba O'Malley, quien sentenciaba: "Incluso cuando Amazon usa su cloud, en realidad tiene un mainframe detrás gestionando las transacciones. Indirectamente estás usando el mainframe cuando crees que estás en un entorno tan moderno como la nube".
El poder de atracción para desarrolladores jóvenes.
Durante mucho tiempo, COBOL (el lenguaje de referencia usado en aplicaciones 'legacy' que corren sobre los mainframe) ha sido el patito feo de los lenguajes de programación. Nadie quería estudiarlo, mucho menos trabajarlo y más escasos si cabe eran quienes querían mejorarlo y actualizarlo.
Sin embargo, la situación parece haber dado un giro radical. Kyndryl es la mayor sustentadora de los entornos mainframe en el mundo, ejecutando 6,2 millones de interacciones por segundo en 500 clientes, alrededor del 50% del mercado estimado para esta tecnología. Su equipo dedicado a estos sistemas se compone de 8.500 personas con una edad media de 35 años.
"Los más jóvenes quieren trabajar con cosas geniales, esa es la forma de atraerles. Tenemos grandes centros en Hungría, República Checa, Polonia o Brasil. Nosotros les ponemos a trabajar con los datos de las empresas más grandes e importantes del mundo, interconectando estos entornos con la nube o Java, a los que están acostumbrados", explica su directiva, Petra Goude.