Evolución e importancia del supercómputo
El supercómputo se ha mantenido en un desarrollo
constante. La clasificación Top500, que lista dos veces por año a
las consideradas como las 500 computadoras más potentes del planeta,
ha registrado desde 1995, con sólo dos excepciones, más de 400 nuevos
equipos cada año, llegando a los máximos de 588 y 578 en 2007 y 2008,
respectivamente. Además, a nivel internacional, tan sólo en la última
década se produjeron proyectos de supercómputo de gran impacto, como
el Earth Simulator en Japón, que en 2002 quintuplicó la capacidad
de la que hasta entonces era la supercomputadora más grande del mundo,
y se convirtió en una herramienta poderosísima para estudiar fenómenos
planetarios, como el clima y los sismos. Otro ejemplo es el proyecto
Blue Gene, del Departamento de Energía de los Estados Unidos, que
entre 2004 y 2005 cuadruplicó su capacidad, usando cientos de miles
de procesadores de 700 MHz, colocándose como la máquina más poderosa
del mundo durante 3 años consecutivos. Un ejemplo más es la supercomputadora
RoadRunner, que en 2008 se convirtió en la primera computadora en
romper la barrera de los mil billones de operaciones por segundo
(Petaflop/s), de acuerdo a la prueba de rendimiento linpack.

Figura 2. Número de supercomputadoras nuevas que se
han añadido a la lista Top500 desde 1994.
La preocupación por mantener el avance en el supercómputo, que permita proveer un soporte para la innovación científica y tecnológica, se ha mostrado en varios países. Por ejemplo, en Estados Unidos, el grupo asesor especial denominado President’s Information Technology Advisory Committee (PITAC), entregó en 2005 el informe titulado “Computacional Science: Ensuring America’s Competitiveness”, en el que establece que las ciencias computacionales; es decir, las ciencias que se apoyan en el uso de la computación para su desarrollo, es uno de los campos tecnológicos más importantes del siglo XXI, debido a que permite realizar estudios de fenómenos y procesos extremadamente complejos, tales como la fusión nuclear, el plegado de proteínas, la organización atómica de nanomateriales y la dispersión global de enfermedades. En dicho informe se afirma también que el uso de cómputo avanzado es crítico para mantener el liderazgo científico, la competitividad económica y la seguridad de aquel país. Asimismo, la Nacional Science Foundation (NSF) ha dado continuidad a los programas de supercómputo que iniciaron con la fundación, en 1985, de los primeros centros de supercómputo: el Nacional Centerfor Supercomputing Applications y el San Diego Supercomputing Center. Al programa de fundación de centros siguieron el programa PACI (Partnershipfor Advanced Computacional Infrastructure) y el programa TeraGrid, que en los últimos 10 años proveyó más de 250 millones de dólares para fortalecer la infraestructura académica de supercómputo en los Estados Unidos.
Recientemente, la NSF creó en su estructura la Office of Ciberinfrastructure (OCI), para coordinar los esfuerzos que fortalezcan la ciencia computacional, el supercómputo y las tecnologías afines.
Visiones y esfuerzos similares se han presentado en Europa, con la creación, en 2006, del HPC in Europe Task Force (HET), y los proyectos “Partnership for Advanced Computing in Europe (PRACE)”, “Distributing European Infrastructure for Supercomputing Applications (DEISA)” y “HPC-Europa2”. Por ejemplo, en un documento publicado por HET en 2007 se menciona que “… al momento, no existe ningún recurso computacional en Europa que pueda equiparar las capacidades existentes en Estados Unidos o en Japón. Esta es una situación intolerable para la competitividad de las ciencias computacionales en Europa …”. Por otro lado, China pasó de tener un equipo de supercómputo en 1995 a tener 21 en 2009. Mientras que, en Rusia, junio de 2009, el presidente Medvedev criticó a la industria computacional de su país por no tener presencia en el desarrollo del supercómputo, y a la industria en general por perder competitividad al no aprovechar estas tecnologías.
En el ámbito mexicano, 2003, la industria petrolera instaló tres equipos que ocuparon los lugares 83, 84 y 85 en el Top500, siendo los lugares más altos en esta clasificación que se han conseguido en el país. Más tarde, la UNAM y la UAM colocaron equipos en los lugares 126 (2006) y 225 (2008), respectivamente. Otras entidades académicas, como el IPICYT, el CICESE y la Universidad de Sonora, también han establecido centros de cómputo de alto rendimiento. Otras han manifestado un gran interés en hacerlo. Por otro lado, el CONACYT financió recientemente 3 proyectos de laboratorios de supercómputo: la Delta Metropolitana de Cómputo de Alto Rendimiento, el Centro Nacional de Supercómputo del IPICYT y el Laboratorio Nacional de Grids.
|