18/2014 México requiere desarrollar su infraestructura de supercómputo para impulsar su colaboración científica global

Ensenada, Baja California, México, 21 de marzo de 2014. México requiere de más capital humano e inversión financiera para impulsar el desarrollo tecnológico de sus redes de cómputo de alto desempeño (HPC), ya que son la llave para incluirse como colaborador global en los megaproyectos científicos de escala mundial que exige el avance de la ciencia contemporánea.

Así lo aseguró Alberto Di Meglio, director de Tecnología del openlab del CERN, instancia público privada que se encarga del desarrollo de soluciones tecnológicas para el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) de la Organización Europea para la Investigación Nuclear (CERN), una de las máquinas más avanzadas tecnológicamente en la historia de la humanidad, quien se presentó en el ISUM 2014 en Ensenada gracias al patrocinio de Intel.

“Los días en los que una sola institución o incluso un país podían realizar avances científicos por sí solos son cosa del pasado. Hoy se necesita la colaboración global, hacer el tipo de investigación que no puede lograr una sola persona o equipo, lo importante es colaborar en proyectos globales y aportar tu propia experiencia,” señaló Di Meglio.

En el CERN, el openlab se asegura de trabajar en sinergia con las empresas informáticas líderes del mundo para garantizar que su capacidad informática pueda catapultar el procesamiento de toda la información generada por el LHC.

Con un equipo multidisciplinario conformado por más de 2 mil físicos de 34 países, los experimentos conducidos en el LHC permitieron confirmar el pasado 4 de julio de 2012 la existencia del bosón de Higgs, conocida como la ‘partícula de la masa’, que explica el origen de cómo adquieren masa las partículas subatómicas, y que cambió para siempre el campo de la física. Es por ello que el enfoque de los países emergentes, como México o Brasil, debe dirigirse en desarrollar su infraestructura tecnológica para poder lograr colaboraciones significativas a la ciencia, aunque demanda un gran esfuerzo técnico y financiero.

“El ‘Big Data’ es el resultado de la ‘Big Science’, o ciencia a gran escala, que es la que se refiere a las ciencias que requieren de la interpretación rápida de grandísimos volúmenes de información que una sola persona o máquina no podría realizar,” dijo Di Meglio.

Las infraestructuras de supercómputo de varios países como China y Estados Unidos son impresionantes en sí mismas, medidas con máquinas como Tianhe-2, una supercomputadora china con capacidad de 33.86 petaFlops, o 33.86 cuadrillones de operaciones por segundo. Aunque la capacidad del país está todavía en los límites de decenas de teraFlops, ya se cuenta con un Centro Nacional de Supercómputo, y eventos como ISUM 2014 demuestran el interés de México por avanzar en el tema del supercómputo y el HPC, y es necesario impulsar la formación de más ingenieros, programadores y científicos capaces de utilizar la infraestructura y resolver problemas, y además retenerlos en el país.

“Es un trabajo muy fuerte que hay que hacer, incluso nosotros en Italia estamos trabajando todavía en resolver temas como la fuga de cerebros a otros países de Europa; hay muchas cosas que hay que resolver,” dijo.

Casi 400 personas participaron en las actividades del congreso ISUM 2014, que concluyó este viernes 21 de marzo con un taller tecnológico en el que participaron además 60 asistentes.

Durante los tres días de ISUM 2014 se realizaron 48 presentaciones de trabajos, cuatro presentaciones de carteles académicos, seis conferencias magistrales académicas y 9 conferencias magistrales sobre tecnología, así como una mesa redonda sobre los usos del HPC en México con representantes de cuatro diferentes industrias del país.

Nueve empresas participaron en la Expo Tecnológica, y se contó con el apoyo de 16 empresas patrocinadoras, informó José Lozano, representante del Comité Organizador del ISUM 2014 por parte del CICESE.