Introducción a los Mainframes

Autor: Kujaku | El martes 11 de julio del 2006 @ 18:17.

Bueno, voy a explicar un poco todo este fenómeno del mainframe. A nivel introductorio, un mainframe ha sido tradicionalmente un ordenador pensado para el trabajo de proceso por lotes o BATCH. Este sistema se caracteriza en el tratamiento de grandísimos volúmenes de información, teniendo una entrada de datos, un proceso interno, y una salida de datos.

Un típico proceso BATCH en un banco es por ejemplo, el cierre diario de cuentas, en el que el sistema va leyendo los ficheros de cuentas bancarias, lee el fichero de movimientos (Datos de entrada) y los procesa para actualizar el saldo y plasmar esos movimientos en la cuenta, cuya salida, puede ser el propio fichero de cuentas actualizado, y unos extractos que te llegan a casa por correo.

Y donde digo movimientos del banco, digo el proceso de generación de las nóminas de una empresa de 200.000 empleados, por ejemplo. Es decir, un Batch es un proceso repetitivo que se realiza con millones de fragmentos de información.

En los años 50, los pocos ordenadores que existían tenían un diseño de un padre y una madre, de tal forma que programar para un mainframe ENIAC no tenía absolutamente nada que ver con el UNIVAC, aunque ambos tenían una arquitectura basada en la arquitectura de John Von Newmann, el padre de la informática, que se basaba en una arquitectura de memoria principal de datos e instrucciones y una serie de buses de datos, de entrada y Salida, y de Control. Por aquel entonces además, los ordenadores costaban muchos "trillones" de dolares, con lo que sólo se lo podían costear gobiernos y únicamente para usos militares.

Estos ordenadores se programaban para un propósito específico y su reprogramación era casi una utopía por el altísimo coste derivado de cambiar cables (si, por aquel entonces muchos programas funcionaban conectado y desconectando cables en paneles con enchufes, al estilo de las tradicionales operadoras de teléfonos) y reestructurar la lógica de la máquina para realizar otros propósitos era también un cristo.

Pero no fue hasta el año 1964 y con la llegada del transistor y por lo tanto, el destierro final de la válvula de vacío (elemento tosco, que consumía grandísimas cantidades de energía), cuando IBM por primera vez en la Historia de los ordenadores, creo un antes y un después: el Mainframe IBM System/360.

Este sistema era el primer ordenador de propósito general en el que se podían cargar programas de muy diversa índole, y además su diseño modular sentó las bases de la informática tal y como la conocemos. Por propósito general, se entiende que puedes correr cualquier tipo de programa, ya sea una generación de nominas, una gestión de almacenes o jugar al space invaders, sin cambiar absolutamente nada de hardware, solo cargando el programa adecuado, desde tarjeta perforada o cinta magnética.

De hecho, existe gente que con el ruido de las impresoras, hacían programas que interpretaban "El Danubio Azul" o "Singing In The Rain" en función de los caracteres impresos en ese momento. Si, en aquella época ya existían los frikis.

A partir de esa fecha, y con la llegada el microprocesador, los costes se redujeron muchísimo y los mainframes empezaron a comercializarse a nivel de empresa, donde todos los procesos de producción Batch como nóminas, control de almacenes, etc, se volvieron muy eficaces y por lo tanto, ahorraron ingentes cantidades de dinero y tiempo en cosas que antes se hacían de manera manual, por lo que el coste a pesar de ser desorbitado, las empresas lo pagaban con sumo gusto porque para ellos les ahorraba muchos miles de millones al año.

En los año 70-80, a IBM le salieron muchos competidores, entre los que cabe destacar Honeywell-Bull, Amdahl, Hitachi Data Systems, Control Data Corp, Fujitsu, etc, en los que cada uno vendía diferentes tipos de mainframe pero al final todos tenían la misma arquitectura basada en las máquinas de IBM. Cada una tenía su propio sistema operativo, su multiprogramación y su memoria virtual, pero vamos, funcionaban prácticamente de la misma manera.

Sin duda y a mi juicio, los años 80 fueron los de la época dorada del mainframe, su apogeo total, ya que estas máquinas bajaron su precio hasta 2 o 3 millones de euros y por consiguiente, miles de empresas adoptaron esa forma de trabajar. Mas de 15.000 terminales tradicionales podían estar conectados a estos monstruos y en esa época salió el procesamiento interactivo, donde 15.000 usuarios podían interactuar con la máquina en sesiones de pantallas dando un buen tiempo de respuesta, realizando miles y miles de transacciones por segundo, consultas concurrentes a enormes bases de datos, debido a que el S.O. era una pieza de gran precisión programada al milímetro -no como la mierda del Windows ese- ;).

Cabe decir que el proceso interactivo ya era célebre en los años 70, pero el altísimo coste de los terminales (entre 12.000 y 20.000 euros de los de entonces) hacia que el tener terminales fuera un lujo demasiado caro en aquella época.

En la década de los 90, el uso de mainframe empezó a sustituirse por el fenómeno Downsizing, que era un vano intento de descentralizar en arquitecturas mas baratas toda la lógica del negocio. Algunas lo hicieron medianamente bien, y otras se estrellaron, ya que estar acostumbrado a trabajar en una arquitectura robusta, que no se cuelga, rápida y eficaz y con una programación determinada, y pasar a un entorno mas abierto y barato y pretender que te de el mismo servicio que un mainframe, es algo casi imposible.

Fue en ese momento cuando Hitachi, Amdahl, CDC, Bull, abandonaron la producción de esas máquinas ya que IBM abarató los costes de tal manera para hacer frente a ese fenómeno del downsizing y evitar la caída de las ventas (el principal problema por el que se llevo a acabo la decisión del Downsizng era simple y llanamente por ahorrarse algo de dinero), que no pudieron hacer frente a ofertas mejores y por lo tanto, dejaron de comercializarse. Aun hay algunas empresas en las que he visto que todavía tienen un vetusto Bull DPS700 con GCOS7 de S.O., pero todas ellas están en un proceso de abandono de esa tecnología o de la aplicación que mantenía esa máquina para sustituirla por otra.

Pero vamos, aun en pleno Siglo 21, hay miles de empresas que todavía usan mainframe, y algunas que han pasado por el Downsizing han vuelto de nuevo al mainframe por su robustez e incolgabilidad. Y los precios han bajado muchisimo, por 1 millón de Euros te puedes comprar un mainframe completo, muy potente y con muchos Terabytes de disco duro.

Hasta aquí la "pequeña" introducción. En otra ocasión, me meteré a explicar todos periféricos que habían por aquellas épocas y cuales se han quedado para no morir, y de que modo ha influido en la informática actual.

Comentarios