Sindicato Nacional de Trabajadores de la Educación

No.

12

(doce)

SECCIÓN

páginas

de la 83 a la 85 de 112

... el rollo

Guadalajara, México - Febrero de 2000

Principal | Índice


¿Hacia dónde va el cómputo de alto rendimiento?

Juan Manuel de Santos Ávila*

* Director del Centro de Cómputo de Alto Rendimiento (CENCAR) de la Universidad de Guadalajara.

En los últimos 40 años han ocurrido incrementos dramáticos en la velocidad de cómputo. Mucho de ello se debe al uso de componentes electrónicos inherentemente más rápidos. Así, desde los tubos y relés, pasando por transistores y luego por la integración de pequeña, media y gran escala, hemos atestiguado el crecimiento en tamaño y rango de los problemas computacionales susceptibles de ser resueltos. Así, el supercómputo hasta finales de los años ’80 tenía como punteras a máquinas con veloces procesadores vectoriales. Sin embargo la velocidad de estos procesadores, si bien ha crecido en los últimos años, tiene un límite físico dado por la velocidad de la luz en el vacío. Esta velocidad es aproximadamente igual a 3 x 108 metros/seg. Si deseamos que un aparato electrónico realice 1012 operaciones por segundo, encontraremos que le toma más tiempo a la señal viajar entre dispositivos situados medio milímetro de distancia, que lo que le toma a cada uno de ellos procesar la señal. Desgraciadamente, la física impone también límites al tamaño y distancias mínimas entre dispositivos, pues hay un punto en que comienzan a interaccionar reduciendo no solo su velocidad sino también su confiabilidad. Por ello, pareciera que la única solución al problema es el paralelismo. Aquí la idea es que si varias operaciones se realizan simultáneamente, entonces el tiempo de realización de una tarea completa es reducido significativamente. Sólo en los últimos 15 años ha devenido el paralelismo en una opción realmente atractiva. De hecho, hoy prácticamente todos los fabricantes de supercomputadoras producen máquinas con procesamiento paralelo.

Encabezando la lista de las 500 más rápidas (Top 500) supercomputadoras en el mundo (nov. 1998) está la máquina de 1 teraflop (1 x 1012 operaciones de punto flotante) conocida como ASCI Red, producida por Intel, la cual integra 9152 procesadores y está instalada en los Laboratorios Nacionales de Sandia, en Albuquerque, Nuevo México, EE.UU. Actualmente hay dos contendientes al puesto de la máquina más rápida del mundo, ambas pretendiendo por diseño alcanzar o acercarse a los 4 teraflops, y financiadas por el Departamento de Energía de los Estados Unidos. Por una parte IBM recibió un contrato por 94 millones de dólares en 1996 para construir la "Blue Pacific" en los Laboratorios Livermore. Dicha máquina es un sistema mamuth IBM RS/6000 con 1464 "nodos" o unidades de procesamiento individuales, cada una con 4 procesadores, para dar un total de 5868 procesadores. Blue Pacific tiene 2.6 terabytes de memoria y 75 terabytes de almacenamiento en línea. La computadora es grande también, ocupando 8,000 pies cuadrados, con un peso de 105,000 libras y usando 4 millas de cable. La RS/6000 pertenece a una sólida línea de servidores de IBM; la arquitectura usada en Blue Mountain es la misma que en la "Deep Blue", la famosa computadora jugadora de ajedrez. Por otra parte, Silicon Graphics, compañía con una enorme presencia en el área de supercómputo a través de su división Cray Research, está trabajando con el Laboratorio Nacional de los Álamos en otra máquina de 4 teraflops llamada "Blue Mountain" (6144 procesadores). Se espera que estas máquinas encabecen el próximo año la lista del "Top 500". Más aún, nuevas computadoras están en la mesa de diseño como parte de la iniciativa del Departamento Americano de Energía, "Accelerated Strategic Computing Initiative"; en febrero de 1998, DOE anunció que la IBM ganó otro contrato, éste para la construcción de una máquina de 10 teraflops llamada "Option White" en Livermore. Actualmente está en concurso un proyecto de construcción de una máquina de 30 teraflops para el Laboratorio Nacional de los Álamos. Para el término de este programa, que abarca una década y una inversión de mil millones de dólares, se espera construir una máquina de 100 teraflops.

IBM asegura que con su arquitectura paralela escalable (SP) pueden construirse máquinas hasta de 1,000 teraflops (1x1015 flops) –un petaflop–. Sería por tanto muy sensato y conservador esperar que para el 2010 las máquinas de 100 teraflops o más, masivamente paralelas, dominen el espectro de las "Top 10". No sería de esperarse que estas máquinas estuviesen dedicadas a la academia, sino, como actualmente sucede, a simulaciones de armas nucleares y deleites similares. Por ejemplo, a mediados de octubre de este año, la Blue Mountain de SGI/Cray, usando un sexto de su capacidad total realizó simulaciones de armas nucleares en donde analizó la física del "fenómeno" en un "área" –entiéndase "el mundo"– dividida en 30 millones de zonas. La tan usada, llevada y traída, Cray Y-MP fue sólo capaz de realizar la simulación con 2.5 millones de zonas.

En el rango de poder medio, más popular en los círculos académicos, la compañía SUN se asienta en un firme segundo lugar en número (con 126 plataformas, un 14% más desde junio de 1998) de plataformas instaladas listadas en el "TOP 500" de noviembre de 1998, sólo después de SGI/Cray. Hay que apuntar que esta lista ha sido compilada semianualmente desde 1993 para facilitar el establecimiento de colaboraciones, el intercambio de datos y software y para proporcionar un mejor entendimiento del mercado de cómputo de alto rendimiento. El modelo más exitoso en la nueva lista "TOP 500" es la SUN HPC 10000, "Starfire", con 123 instalaciones; después la Origin 2000 de SGI con 102 instalaciones y luego el sistema IBM SP PC604 con 49 instalaciones. Los resultados de "TOP500" son compilados por expertos en cómputo de alto rendimiento, científicos, fabricantes y la comunidad Internet en general, quienes responden un cuestionario detallado. Los sistemas de cómputo son clasificados por su eficiencia ante la prueba conocida como "LINPACK Benchmark", una métrica de uso muy extendido que enfatiza el rendimiento de punto flotante.

¿Qué tipo de cómputo nos espera para el siguiente siglo? La metacomputadora. En 1987 Larry Smarr entonces director del NCSA, acuñó la palabra "metacomputadora" para designar su concepto de un ambiente de cómputo interconectado y coherente: una colección de computadoras conectadas por tecnología de punta y "balanceadas" de tal forma que, para el usuario individual, luzca y funcione como una sola computadora. Las partes constitutivas de una metacomputadora podrían estar distribuidas localmente, o bien entre varios edificios o, si se quiere, entre varios continentes. Así, la metacomputadora del mañana no sólo transformaría la forma en que los científicos e ingenieros realizan investigación sino la forma en que el ciudadano común vive y trabaja. Ya fuera accesando desde un laboratorio u oficina, desde una PC o inalámbricamente desde una laptop –o una "palm computer"–, el usuario tendría acceso al poder computacional de varias o muchas computadoras, posiblemente a miles de kilómetros de distancia, con tanta facilidad como hoy se accede a Internet. Por supuesto, una red de computadoras transcontinental y fácil de usar presenta tremendos retos, pero actualmente varios centros de cómputo de alto rendimiento de los EE.UU. exploran maneras de integrar los diferentes recursos computacionales. De hecho, tales esfuerzos están ligados a la creación de interconexiones de alta velocidad e Internet II es un paso en esta dirección, donde se manejaran velocidades inicialmente de 2.4 Gb/seg. y posteriormente de 9.6 Gb/seg. Con la creación del CUDI, México dará sus primeros pasos hacia esa integración global –la o las metacomputadoras–, esperando una conectividad interna inicial de 155 Mb/s. Cabría esperar que, para el 2010, México estuviera entrando en la etapa de construcción de grandes supercarreteras de información con velocidades cercanas a 1 Gb.

Estas tecnologías no sólo apuntan al machacado intensivo de números (number crunching) sino que permiten el empleo ágil de tecnologías hoy en pañales, como son la teleconferencia mediada por computadora, la colaboración remota y más allá, la teleinmersión, donde académicos de diversas partes del mundo podrán trabajar en un problema "sensorializado" por medio de realidad virtual. Es por ello importante capacitar grupos en las partes esenciales de estas tecnologías, incluyendo técnicas de visualización y multimedia.

Finalmente, hay que apuntar que los nuevos microprocesadores de las máquinas de escritorio son ya tan rápidos como nodos aislados de un procesador masivamente paralelo (MPP). Así, investigadores de diversas partes del mundo han armado supercomputadoras a partir de estaciones de trabajo o hasta computadoras personales. Basten dos ejemplos. El astrofísico Mike Warren al no poder obtener tiempo de supercómputo en el Laboratorio Nacional de los Álamos, armó una. Tomó 140 computadoras con procesadores Alpha 2164A a 533 Mhz de Digital, bajo sistema operativo Linux, las conectó con tarjetas ordinarias Ethernet y las llevó a un total combinado de 35.8 Gb de memoria. Ahora tiene una computadora que puede realizar 48,500 millones de cálculos por segundo (48.5 Gflops) a un costo de 313,000 USD. Se espera que una vez evaluado su desempeño se ubique alrededor del puesto 100 en la lista del "TOP 500". Por otra parte, en UCLA, se implantó el proyecto "Appleseed" que actualmente es un "cluster" de 8 computadoras Power Mac G3 de 266 Mhz, interconectadas por Ethernet 100 base T, que tiene el mismo poder de cómputo de la que hace diez años era el tope de línea de las supercomputadoras, la Cray Y-MP, a un costo de 45 USD por Megaflop (cerca de 30,000 USD para un sistema de 8 nodos incluyendo hardware y software), alcanzando velocidades superiores a los 50 Mflops por nodo. A diferencia de "clusters" basados en Unix, no se requieren habilidades especiales en sistemas operativos para armar y operar el "cluster". De hecho, durante la semana las máquinas se utilizan individualmente y durante fines de semana (o por las noches si se requiere) se integran como "supercomputadora". El departamento de Estadística Matemática de UCLA está planeando integrar un laboratorio de iMac que en el día dará atención a alumnos (en modo de máquinas individuales) y por la noche se convertirá en supercomputadora, corriendo códigos paralelos.

Principal | Índice