Ensenada, Baja California, México, 10 de noviembre de 2017. “Estamos en un momento muy crítico para el supercómputo en general y para el desarrollo de la ciencia y tecnología en nuestro país. Se está haciendo una brecha enorme entre lo que tenemos nosotros (en infraestructura y masa crítica) y lo que está pasando en Europa, en Asia, en Estados Unidos. El diferencial se ha hecho enorme, y creo muy importante que podamos definir a muy corto plazo una verdadera política respecto a cómo queremos fortalecer, crecer y consolidar el supercómputo en México”.
Esto lo señaló el Dr. Isidoro Gitler, director del Centro de Supercómputo ABACUS del CINVESTAV-IPN (que alberga el equipo más potente en Latinoamérica), quien si bien destacó el crecimiento que están teniendo distintos centros a partir de los llamados laboratorios nacionales de supercómputo que, por regiones geográficas, se están gestando en México, es una iniciativa que, por su dimensión, resulta pequeña si se compara con lo que está sucediendo a escala mundial.
Entrevistado en el marco de la reunión anual 2017 que celebró en el CICESE la Red Mexicana de Supercómputo (Red MexSu), Isidoro Gitler dijo que “lo que no hemos resuelto todavía y es fundamental, es una infraestructura robusta de carreteras informáticas (con la que) podamos comunicarnos con el CICESE de una manera rápida y eficaz, con la UNAM, con la gente que está en Puebla, con la que está en Chiapas, para crear las sinergias de investigación que se necesitan”.
Habló de una revolución que todo el mundo comenta, de los nuevos paradigmas del conocimiento. “Si pensamos que dentro de muy poco vamos a tener supercomputadoras que hagan 10 a la 18 operaciones por segundo (esto es, una cifra equivalente a un 10 seguido por 18 ceros), son cantidades que poca gente se sienta un momento a tratar de entender qué implican, pues son más del tiempo (en años) que lleva el universo. Y eso lo hacen en un segundo. Lo que vamos a poder estudiar, los problemas complejos que vamos a poder resolver con esa capacidad de cómputo, para mí es algo todavía inimaginable. Por eso creo que es fundamental enfocarnos. Estamos en un momento en el que debemos tomar decisiones muy serias para ver cuál va a ser el rumbo que tomaremos con esas problemáticas”.
Sobre la reunión anual de la Red MexSu (una red temática de CONACYT), su responsable técnico, el Dr. Raúl Rivera Rodríguez, dijo que se realizó aquí del 8 al 10 de noviembre y que participaron los principales laboratorios nacionales de supercómputo, centros de investigación y universidades que hacen uso de este entorno en México, así como investigadores y el personal que impulsa y administra los recursos.
Comentó que la red elaboró un estudio de factibilidad y recomendó sobre lo que debe ser el crecimiento del supercómputo en México. Entre estas recomendaciones destaca lo inviable de crear un solo centro nacional de supercómputo, por lo complicado que resultaría traspasar la información y resultados. En su lugar, plantearon contar con centros de supercómputo por regiones (noroeste, noreste, occidente, central y sur del país).
“Obviamente ya hay pequeños esfuerzos, como el del sistema que tenemos en el CICESE, el de la UNISON, el de la Universidad de Guadalajara (donde se está construyendo el centro de supercómputo regional de occidente por recomendación de la red), en el IPICYT en San Luis Potosí, y obviamente ABACUS en el CNVESTAV-IPN, y Miztli, de la UNAM.
Dijo que por cuestiones de conectividad (11 giga bites por segundo –Gbps–) y por ser Ensenada un polo científico y académico, “vemos muy viable que un centro regional de supercómputo (el del noroeste) esté en el CICESE”.
Esta capacidad a la que hace referencia Raúl Rivera, quien es director de Telemática en este centro de investigación, creció significativamente en cinco años y pasó de 211 núcleos en 2011, a 3 mil 500 en 7 clusters hacia finales de 2016, que equivalen a cerca de 200 teraflops. Sin embargo, como está fragmentada, la capacidad real equivale a un tercio de la que tiene actualmente el centro ABACUS, que suma 430 teraflops.
¿Y qué significa tener 430 teraflops de capacidad? Isidoro Gitler hace la analogía: es como tener 25 mil laptops trabajando simultáneamente. La velocidad de comunicación entre sus componentes sería equivalente a transmitir 13 DVD en un parpadeo, y podría almacenar 6 mil veces todos los volúmenes que hay en la biblioteca “José Vasconcelos” de la Ciudad de México, la más grande del país.
En este panorama, la principal limitante para desarrollar el supercómputo en México que identificó el Dr. Rivera (y que coincide con la apreciación de Isidoro Gitler) es la red de comunicaciones, que “en general es un problema nacional. En México todavía nos hace falta mucho para que este tipo de aplicaciones puedan ejecutarse a través de la red, remotamente”.
Mencionó también como limitantes “la falta de inversión o fluidez para poder apoyar a los centros de supercómputo, para que crezcan sus capacidades. Y la formación de recursos humanos especializados en administrar estos grandes equipos. En todo el aparato de gestión del equipo de supercómputo hay muy poca gente”.
Esto es importante porque los usuarios del supercómputo son generalmente investigadores especializados en otras áreas de ciencia. Ellos llegan con un problema a resolver y su algoritmo. Pero necesitan que alguien con nivel de doctorado lo ejecute adecuadamente, y para ello hay que paralelizar el programa, optimizarlo.
Reflexionó que todas las áreas de la ciencia están usando supercómputo actualmente. Y en esto coincidió el Dr. Gitler, quien consideró que la supercomputación es siempre interdisciplinaria e interinstitucional, “son sus componentes básicos. Se dice además que el tercer pilar (de la investigación) ahora es la computación. El primero era la teoría, el segundo la experimentación y ahora el supercómputo. Eso está cambiando totalmente los paradigmas”.