Discuten expertos internacionales sobre retos del supercómputo, en la UdeG
Fuente: Julio Ríos, UdeG
La Jornada Universitaria de Supercómputo es un espacio de diálogo y colaboración donde se promueve el uso y aprovechamiento del cómputo de alto rendimiento en la academia, la industria y el gobierno, como una herramienta para dar solución a necesidades a través del desarrollo de aplicaciones científicas, analíticas y de inteligencia artificial, con ello acelerar y transformar los problemas complejos que demanda la sociedad.
La Jornada que buscan ser un espacio de reflexión para generar y compartir ideas a través de los diálogos entre expertos y líderes del mundo en la industria y la academia. El titular de la Coordinación General de Tecnologías de la Información (CGTI), doctor Luis Alberto Gutiérrez Díaz de León, señaló que las computadoras han evolucionado hasta el grado de que son capaces de resolver desafíos técnicos y científicos de alto desempeño, e incluso, para el estudio del universo.
Recordó que la primera computadora en México y América Latina llegó en 1968, a la UNAM, y con ello inició formalmente la era de la computación en esta región del continente. No obstante, la era del supercómputo se dio a partir de 1991 y, desde entonces, las instituciones de educación superior han hecho esfuerzos por incorporar programas de investigación científica en esta disciplina, con resultados interesantes.
“Nuestra Casa de Estudio inauguró y habilitó el año pasado el Centro de Análisis y Datos en Supercómputo (CADS), que alberga a la supercomputadora Leo Atrox, conformada por 150 nodos de cómputo, que permite realizar 500 millones de operaciones en un segundo, y si hacemos una analogía, esto equivale aproximadamente a toda la comunidad universitaria al mismo tiempo calculando, desde su teléfono móvil, operaciones de manera simultánea, coordinados hacia un objetivo común”, detallo Gutiérrez Díaz de León.
Dijo que esta innovadora tecnología no se concentra sólo en temas académicos, sino que se está aplicando también en otras áreas como el Blockchain, la agencia artificial, el Big data, entre otros. Todos estos temas se tratarán en las conferencias y talleres de esta jornada.
Gutiérrez Díaz de León explicó que la UdeG cuenta con más de mil 200 miembros del Sistema Nacional de Investigadores (SIN) y ha aportado investigación en materia de supercómputo con decenas de proyectos sobre ciencias computacionales, energía, analítica, finanzas, ciencias exactas, ciencias naturales, medicina, biotecnología, entre otras. Actualmente, alberga proyectos conjuntos con el Gobierno de Jalisco, la UAEM y el Instituto para el Desarrollo de la Innovación, la Tecnología en la Pequeña y Mediana Empresa, y la Universidad de Madison, Wisconsin, en Estados Unidos de América.
El Vicerrector Ejecutivo de la UdeG, doctor Héctor Raúl Solís Gadea, señaló que, durante dos días, expertos en tecnología compartirán puntos de vista, y que es de interés de la Universidad impulsar el supercómputo y, al mismo tiempo, humanizar a los expertos en las ciencias duras.
“No hay una fractura entre el conocimiento que nos ofrecen las herramientas analíticas digitales contemporáneas y el conocimiento propio de la ética y la filosofía. La filosofía puede ser mejor si voltea a la ciencia de los datos. No esperemos recetas mágicas para resolver nuestros problemas, sino conocimientos y conclusiones de los hechos que nos vuelvan más maduros, más conscientes de lo que estamos haciendo en la vida, en el planeta”, declaró.
Predicción de fenómenos naturales: reto para el supercómputo
La analítica de datos con base en hechos históricos para poder predecir fenómenos naturales, es uno de los desafíos para la disciplina del supercómputo en el siglo XXI, dijo en su conferencia inaugural el doctor Kengo Nakajima, miembro de la División de Supercómputo del Centro de Tecnologías de Información, de la Universidad de Tokio; quién habló de los sistemas para la era 5.0 y los métodos de innovación que se utilizan en Japón para estos fines.
Uno de éstos ha sido el nuevo Sistema BDEC, gracias al cual se han podido monitorear tifones y terremotos.
“Necesitábamos desarrollar nuevos sistemas para la era del 5.0. Con este sistema se espera obtener un mejor rendimiento en abril de 2021, aunque hoy apenas hablamos de prototipos: el BDEC System, que en 2021 arranca, tiene características heterogéneas con nodos externos e internos. Se conecta a redes externas para adquirir y analizar datos, y además cuenta con un nodo de integración”, describió Nakajima.
El Sistema BDEC trabaja con sistemas Fast file, Shared, Internal nodes, External nodes y los ya mencionados nodos de integración, que son clave en esta tecnología de alto rendimiento.
El experto japonés concluyó: “La predicción del futuro, a partir de estas tecnologías, es un gran reto. Si pudiéramos generar tecnologías que fueran diez pasos adelante, podríamos reducir significativamente distintas consecuencias”.