Ensenada, Baja California, México, 19 de marzo de 2014. Si bien 90 por ciento del uso de supercómputo en México está orientado a proyectos de investigación y academia, las aplicaciones en la industria, en procesos de manufactura y en la solución de problemas de la vida diaria, como la modelación de desastres naturales o la planificación energética, está creciendo en los países latinoamericanos, donde destacan México y Brasil como los más desarrollados.
Lo anterior se desprende de la información proporcionada por los doctores César Díaz Torrejón y Sergio Nesmachnow, directores respectivamente del Centro Nacional de Supercómputo (CNS) de México, y del Centro Multidisciplinario de Cómputo de Alto Desempeño de Uruguay, durante una conferencia de prensa celebrada hoy en el marco del quinto Congreso Internacional de Supercómputo en México (ISUM 2014), que se realiza en esta ciudad, organizado por el CICESE.
César Díaz consideró que el supercómputo en México tiene una tradición larga. Empezó con un proyecto de la UNAM en 1992, cuando adquirieron la primera supercomputadora que Estados Unidos vendió fuera de su propio territorio, y que requirió incluso el establecimiento de acuerdos binacionales para restringir el uso de este equipo a países vetados por aquel país.
A partir de ahí, el uso de estos equipos se había enfocado sólo hacia áreas académicas, sobre todo en proyectos de ciencia básica. Sin embargo, consideró, ahora se tiene un enfoque más hacia la vida real, hacia los procesos de manufactura en la industria, o la modelación de asuntos o temas que están generando una gran cantidad de datos y que requieren la toma de decisiones rápidas, como la prevención de desastres.
Si bien se ha avanzado bastante, México cuenta con apenas seis centros de supercómputo con capacidades bien diferenciadas. Están en la UNAM, el CICESE, la Universidad Autónoma Metropolitana, el CINVESTAV, la Universidad de Sonora y el propio CNS, alojado en el Instituto Potosino de Investigación en Ciencia y Tecnología (IPICYT).
De ellos, sólo el CNS tiene una doble función: atiende a la academia a través de un laboratorio nacional, y a la industria, a través de un proyecto en el que cualquier investigador les puede resolver un problema utilizando esta infraestructura.
Sergio Nesmachnow, por su parte, habló sobre la iniciativa High Performance Computing Latinoamerica, con la que se busca el desarrollo de esta disciplina no solamente hacia el interior de las universidades y el sector académico, sino para brindar soluciones en otros entornos.
Por ejemplo, Uruguay no tiene petróleo, por lo que el tema de la planificación energética es fundamental; necesitan determinar cuánta energía se puede generar con recursos renovables, y en eso ocupan parte de su infraestructura de cómputo. Lo mismo hacen Argentina, Brasil y Chile, a través del procesamiento de imágenes satelitales que proveen información sobre nubosidad, viento y otros parámetros ambientales, permitiendo así conocer el mejor momento para encender, por ejemplo, generadores de varios tipos.
El supercómputo permite reducir los tiempos de ejecución, hacerlo prácticamente en línea, mejorando así la toma de decisiones de las empresas que manejan la energía en estos países.
Respecto a la idea de cómo unificar las unidades de supercómputo en Latinoamérica, dijo que hasta 2012 manejaban dos conferencias por año en las que coincidían los especialistas de la región: una se realizaba en el norte, y otra en el sur. Ahora existe un acuerdo para unificar las comunidades, y las reuniones serán una por año: en 2014 en el sur, en Valparaíso, Chile, y el siguiente en el norte, muy probablemente en México. Se espera así “nuclear” o agrupar a 20 países latinoamericanos.
Sobre el uso que en este momento se le está dando al supercómputo en México, César Díaz comentó que 90 por ciento corresponde a proyectos de investigación, y el 10 por ciento restante a proyectos de la industria.
De ese 90 por ciento académico, 95 por ciento es en temas de física y química cuántica, fundamentalmente sistemas moleculares y del estado sólido; el resto lo usan astrofísicos y oceanógrafos, aunque se nota un crecimiento en temas de bioinformática.
Dijo también que además del precio de estos equipos, que pueden oscilar entre decenas de miles hasta varios millones de dólares, una limitante para las instituciones es el costo de operación y mantenimiento. Además, agregó, son dispositivos con una vida útil muy corta, de 4 a 5 años, basada en la relación costo-beneficio de su operación.