Seymour Cray y la supercomputadora

Muchos de nosotros estamos familiarizados con las computadoras. Es probable que esté usando uno ahora para leer esta publicación de blog, ya que dispositivos como computadoras portátiles, teléfonos inteligentes y tabletas son esencialmente la misma tecnología informática subyacente. Las supercomputadoras, por otro lado, son algo esotéricas, ya que a menudo se las considera máquinas gigantescas, costosas y de succión de energía desarrolladas, en general, para instituciones gubernamentales, centros de investigación y grandes empresas.

Tomemos como ejemplo Sunway TaihuLight de China, actualmente la supercomputadora más rápida del mundo, según el ranking de supercomputadoras del Top500. Se compone de 41,000 chips (solo los procesadores pesan más de 150 toneladas), cuesta alrededor de $ 270 millones y tiene una potencia de 15,371 kW. En el lado positivo, sin embargo, es capaz de realizar miles de millones de cálculos por segundo y puede almacenar hasta 100 millones de libros. Y al igual que otras supercomputadoras, se utilizará para abordar algunas de las tareas más complejas en los campos de la ciencia, como el pronóstico del tiempo y la investigación de drogas.

 

Cuando se inventaron las supercomputadoras

La noción de una supercomputadora surgió por primera vez en la década de 1960 cuando un ingeniero eléctrico llamado Seymour Cray, se embarcó en la creación de la computadora más rápida del mundo. Cray, considerado el “padre de la supercomputación”, había dejado su puesto en el gigante de la informática empresarial Sperry-Rand para unirse a la recién formada Control Data Corporation para poder concentrarse en el desarrollo de computadoras científicas. El título de la computadora más rápida del mundo se celebró en ese momento por el “Stretch” de IBM 7030, uno de los primeros en usar transistores en lugar de tubos de vacío.

En 1964, Cray presentó el CDC 6600, que presentaba innovaciones como el cambio de transistores de germanio a favor del silicio y un sistema de enfriamiento basado en freón. Más importante aún, funcionó a una velocidad de 40 MHz, ejecutando aproximadamente tres millones de operaciones de punto flotante por segundo, lo que la convirtió en la computadora más rápida del mundo. A menudo considerado como el primer superordenador del mundo, el CDC 6600 era 10 veces más rápido que la mayoría de las computadoras y tres veces más rápido que el IBM 7030 Stretch. El título fue finalmente cedido en 1969 a su sucesor, el CDC 7600.

 

Seymour Cray va solo

En 1972, Cray dejó Control Data Corporation para formar su propia compañía, Cray Research. Después de un tiempo de recaudación de capital inicial y financiamiento de los inversores, Cray presentó el Cray 1, que nuevamente elevó el nivel de rendimiento de la computadora por un amplio margen. El nuevo sistema funcionó a una velocidad de reloj de 80 MHz y realizó 136 millones de operaciones de punto flotante por segundo (136 megaflops). Otras características únicas incluyen un nuevo tipo de procesador (procesamiento de vectores) y un diseño en forma de herradura con velocidad optimizada que minimiza la longitud de los circuitos. El Cray 1 se instaló en el Laboratorio Nacional de Los Alamos en 1976.

En la década de 1980, Cray se había establecido como el nombre preeminente en la supercomputación y se esperaba que cualquier lanzamiento nuevo derrocara sus esfuerzos anteriores. Entonces, mientras Cray estaba ocupado trabajando en un sucesor del Cray 1, un equipo separado de la compañía lanzó el Cray X-MP, un modelo que fue presentado como una versión más “limpia” del Cray 1. Compartía lo mismo diseño en forma de herradura, pero contaba con múltiples procesadores, memoria compartida y a veces se describe como dos Cray 1 unidos entre sí como uno. El Cray X-MP (800 megaflops) fue uno de los primeros diseños de “multiprocesador” y ayudó a abrir la puerta al procesamiento paralelo, en el que las tareas informáticas se dividen en partes y se ejecutan simultáneamente por diferentes procesadores.

El Cray X-MP, que se actualizaba continuamente, sirvió como portador estándar hasta el tan esperado lanzamiento del Cray 2 en 1985. Al igual que sus predecesores, el último y mejor Cray adquirió el mismo diseño en forma de herradura y Diseño básico con circuitos integrados apilados juntos en placas lógicas. Esta vez, sin embargo, los componentes estaban tan apretados que la computadora tuvo que sumergirse en un sistema de enfriamiento líquido para disipar el calor. El Cray 2 vino equipado con ocho procesadores, con un “procesador en primer plano” a cargo de manejar el almacenamiento, la memoria y dar instrucciones a los “procesadores en segundo plano”, a quienes se les asignó el cálculo real. En total, empacó una velocidad de procesamiento de 1.9 mil millones de operaciones de punto flotante por segundo (1.9 Gigaflops), dos veces más rápido que el Cray X-MP.

 

Surgen más diseñadores de computadoras

No hace falta decir que Cray y sus diseños gobernaron la era temprana de la supercomputadora. Pero no fue el único que avanzó en el campo. A principios de los años 80 también surgieron computadoras masivamente paralelas, impulsadas por miles de procesadores, todos trabajando en conjunto para romper las barreras de rendimiento. Algunos de los primeros sistemas multiprocesadores fueron creados por W. Daniel Hillis, a quien se le ocurrió la idea como estudiante graduado en el Instituto de Tecnología de Massachusetts. El objetivo en ese momento era superar las limitaciones de velocidad de tener cálculos de CPU directos entre los otros procesadores mediante el desarrollo de una red descentralizada de procesadores que funcionara de manera similar a la red neuronal del cerebro. Su solución implementada, presentada en 1985 como Connection Machine o CM-1, presentaba 65.536 procesadores interconectados de un solo bit.

Los principios de los 90 marcaron el principio del fin del dominio de Cray sobre la supercomputación. Para entonces, el pionero de la supercomputación se había separado de Cray Research para formar Cray Computer Corporation. Las cosas comenzaron a ir mal para la empresa cuando el proyecto Cray 3, el sucesor previsto para el Cray 2, se encontró con una gran cantidad de problemas. Uno de los principales errores de Cray fue optar por semiconductores de arseniuro de galio, una tecnología más nueva, como una forma de lograr su objetivo declarado de una mejora de doce veces en la velocidad de procesamiento. Finalmente, la dificultad de producirlos, junto con otras complicaciones técnicas, terminó retrasando el proyecto durante años y resultó en que muchos de los clientes potenciales de la compañía finalmente perdieron interés. En poco tiempo, la compañía se quedó sin dinero y se declaró en bancarrota en 1995.

Las luchas de Cray darían paso a un cambio de guardia, ya que los sistemas informáticos japoneses competidores llegarían a dominar el campo durante gran parte de la década. NEC Corporation, con sede en Tokio, apareció por primera vez en 1989 con el SX-3 y un año después presentó una versión de cuatro procesadores que se convirtió en la computadora más rápida del mundo, solo para ser eclipsada en 1993. Ese año, el túnel de viento numérico de Fujitsu , con la fuerza bruta de 166 procesadores vectoriales se convirtió en la primera supercomputadora en superar los 100 gigaflops (Nota al margen: para darle una idea de la rapidez con que avanza la tecnología, los procesadores de consumo más rápidos en 2016 pueden hacer fácilmente más de 100 gigaflops, pero en el tiempo, fue particularmente impresionante). En 1996, el Hitachi SR2201 subió la apuesta con procesadores 2048 para alcanzar un rendimiento máximo de 600 gigaflops.

 

Intel se une a la carrera

Ahora, ¿dónde estaba Intel? La compañía que se había establecido como el fabricante de chips líder en el mercado de consumo realmente no causó sensación en el ámbito de la supercomputación hasta finales de siglo. Esto se debió a que las tecnologías eran en conjunto animales muy diferentes. Las supercomputadoras, por ejemplo, fueron diseñadas para atascar la mayor potencia de procesamiento posible, mientras que las computadoras personales tenían que ver con la eficiencia de las capacidades de enfriamiento mínimas y el suministro de energía limitado. Entonces, en 1993, los ingenieros de Intel finalmente se lanzaron al tomar el enfoque audaz de ir masivamente paralelos con el procesador 3.680 Intel XP / S 140 Paragon, que en junio de 1994 había alcanzado la cima de la clasificación de supercomputadoras. Fue la primera supercomputadora de procesadores paralelos masivos en ser indiscutiblemente el sistema más rápido del mundo.

Hasta este punto, la supercomputación ha sido principalmente el dominio de aquellos con el tipo de bolsillos profundos para financiar proyectos tan ambiciosos. Todo eso cambió en 1994 cuando los contratistas del Centro de Vuelo Espacial Goddard de la NASA, que no tenían ese tipo de lujo, idearon una forma inteligente de aprovechar el poder de la computación paralela al vincular y configurar una serie de computadoras personales utilizando Una red Ethernet. El sistema de “clúster Beowulf” que desarrollaron estaba compuesto por 16 procesadores 486DX, capaces de operar en el rango de gigaflops y su construcción costó menos de $ 50,000. También tenía la distinción de ejecutar Linux en lugar de Unix antes de que Linux se convirtiera en el sistema operativo elegido por las supercomputadoras. Muy pronto, a los aficionados al bricolaje en todas partes se les siguieron planos similares para establecer sus propios grupos de Beowulf.

Después de entregar el título en 1996 al Hitachi SR2201, Intel regresó ese año con un diseño basado en el Paragon llamado ASCI Red, que estaba compuesto por más de 6,000 procesadores Pentium Pro de 200MHz. A pesar de alejarse de los procesadores de vectores en favor de los componentes estándar, el ASCI Red obtuvo la distinción de ser la primera computadora en romper la barrera de un billón de flops (1 teraflops). En 1999, las actualizaciones le permitieron superar tres billones de flops (3 teraflops). El ASCI Red se instaló en los Laboratorios Nacionales Sandia y se usó principalmente para simular explosiones nucleares y ayudar en el mantenimiento del arsenal nuclear del país.

Después de que Japón retomara el liderazgo de la supercomputación durante un período con el simulador de tierra NEC de 35.9 teraflops, IBM llevó la supercomputación a alturas sin precedentes a partir de 2004 con el Blue Gene / L. Ese año, IBM presentó un prototipo que apenas superaba al Simulador de la Tierra (36 teraflops). Y para 2007, los ingenieros aumentarían el hardware para llevar su capacidad de procesamiento a un pico de casi 600 teraflops. Curiosamente, el equipo fue capaz de alcanzar tales velocidades con el enfoque de usar más chips que tenían una potencia relativamente baja, pero más eficientes energéticamente. En 2008, IBM volvió a comenzar cuando encendió el Roadrunner, la primera supercomputadora que superó un billón de operaciones de coma flotante por segundo (1 petaflops).

la fuente

Leave a Reply

Your email address will not be published. Required fields are marked *