El futuro del supercómputo en México: ISUM2017
Fuente: Agencia Informativa Conacyt, Montserrat Muñoz
En entrevista para la Agencia Informativa Conacyt, el doctor Luis Alberto Gutiérrez Díaz de León, coordinador general de Tecnologías de Información de la Universidad de Guadalajara (UdeG), señaló que el supercómputo es la “suma de recursos de alto procesamiento de cómputo utilizado para atender diferentes herramientas que aportan a las investigaciones”.
“Al tener grandes capacidades de procesamiento y almacenamiento, aceleran la entrega de resultados de las investigaciones”, dijo, a la vez que añadió que esta inmediatez puede provocar, a nivel global, un potenciamiento de descubrimientos y avances en distintas áreas de la ciencia.
El catedrático afirmó que contar con estas herramientas es fundamental para la investigación en México, que puede beneficiar áreas como la medicina, astronomía, farmacéutica, química, física, y hasta cinematografía, entre otras.
A pesar de que son varias las instituciones que ofrecen servicios de supercómputo a través de centros especializados —la Universidad Nacional Autónoma de México (UNAM), el Centro de Investigación y de Estudios Avanzados (Cinvestav) y el Instituto Potosino de Investigación Científica y Tecnológica (Ipicyt), por mencionar algunos—, en México no existe una infraestructura que califique como supercomputadora, acorde con los doctores Raúl Rivera Rodríguez y Raúl Gilberto Hazas Izquierdo, investigadores adscritos al Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE) y la Universidad de Sonora (Unison), respectivamente.
Ello, ya que ninguno de los equipos mexicanos califica dentro del proyecto Top500 Supercomputing Sites, el cual enlista las 500 supercomputadoras más potentes del mundo. Además, este tipo de tecnología se vuelve prácticamente obsoleta luego de aproximadamente cuatro años, debido a la innovación tecnológica siempre presente en este sector, según comentaron los expertos.
Formación de recursos humanos, el primer paso
Algunas universidades, como la UNAM y la UdeG, ya ofertan programas de posgrados enfocados en el supercómputo. A decir del doctor Gutiérrez Díaz de León, en la formación de recursos humanos para supercómputo se deben priorizar dos áreas: la preparación como administrador y gestor de proyectos de supercómputo y como enlace entre las diferentes líneas de investigación y las herramientas de cómputo de alto rendimiento (HPC, por sus siglas en inglés).
El catedrático adelantó que la UdeG planea invertir en un equipo de supercómputo en el año en curso; al momento se está levantando un censo para conocer las necesidades de los investigadores en materia de HPC.
“Capacidades tenemos muchas, hay que traer oportunidades y explotar esos talentos”, señaló Gutiérrez Díaz de León.
Un centro de supercómputo sostenible
El supercómputo debe tener prioridad puesto que necesitamos que el país deje de depender de otros países. Necesitamos generar nuestro propio conocimiento”, comentó el doctor Alfredo Cristóbal Salas, investigador de la Universidad Veracruzana (UV).
Sin embargo, el investigador señaló que debe existir un equilibrio entre la utilización de fondos públicos y privados, estos últimos obtenidos a través de servicios a la industria de la región.
Coincidió en ello el doctor César Carlos Díaz Torrejón, director adjunto de Innovación Tecnológica de la Benemérita Universidad Autónoma de Puebla (BUAP), quien aseguró que la decisión para crear un centro de supercómputo debe estar respaldada por diferentes actores, entre estos, el gobierno estatal, municipal, la academia y la iniciativa privada.
En tanto, el actuario José Fabián Romo Zamudio, director de Sistemas y Servicios Institucionales de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) de la UNAM, señaló que la inversión para crear un centro de supercómputo debe pensarse también en función del mantenimiento de los equipos y de la formación de recursos humanos.
Romo Zamudio acotó que antes de adquirir un equipo para crear un centro de supercómputo de una institución, este debe ir en función de los proyectos que se realizarán y de los servicios que se planean ofrecer tanto a la comunidad académica como a otras instancias.
Como ejemplo puso la supercomputadora de la UNAM Miztli, la cual funciona desde 2013 y tiene una capacidad de procesamiento de 220 teraflops por segundo, equivalente a 220 billones de operaciones aritméticas por segundo.
Comentó que en 2016, este equipo se utilizó para apoyar 120 proyectos de la máxima casa de estudios, en áreas como química, astronomía y física de partículas. Asimismo, que la máquina tiene 97 por ciento de ocupación promedio anual y que para 2017 se proyecta será utilizada para el desarrollo de más de un centenar de investigaciones.
Supercómputo, un tema de colaboración
En tanto, el doctor Raúl Rivera Rodríguez, quien también se desempeña como responsable técnico y presidente del comité tecnológico académico de la Red Mexicana de Supercómputo (Redmexsu), señaló que el supercómputo existe en México desde hace más de 30 años.
Rivera Rodríguez urgió a que exista colaboración entre los diferentes centros de investigación y universidades para crear un clúster de supercómputo competente en distintas áreas, buscando las fortalezas de cada grupo de trabajo.
“No todo se soluciona a punta de hardware”, mencionó el investigador José Fabián Romo Zamudio. “Necesitamos colaboración interna para avanzar cada vez más en supercómputo”, concluyó.