Apolo, entre los duros de la computación científica
Ubicado en la Universidad Eafit, en Medellín, este centro puede procesar 386.94 billones de instrucciones por segundo, la cantidad suficiente para desarrollar grandes avances en investigación. Expertos explican su funcionamiento.
Paula Casas
Los laboratorios se habrían demorado 120 años en procesar toda la información necesaria para desarrollar un medicamento que cure la leishmaniasis, una infección transmitida por un mosquito, que es estudiado por investigadores de la Universidad de Antioquia, en Medellín. Sin embargo, gracias a la tecnología de un supercomputador de la Universidad Eafit, en la misma ciudad, el estudio solo tardó dos años en realizar el cálculo computacional. ¿Cómo se ahorraron más de un siglo?
La respuesta está en el supercomputador. Su funcionamiento depende de una red ultrarrápida de varios servidores que están conectados a alta velocidad y que, además, están coordinados para trabajar como una sola máquina que ejecuta las instrucciones de manera simultánea y paralela. Juan Guillermo Lalinde, coordinador científico del Centro de Computación Científico Apolo de la Universidad Eafit, lo explica de una manera más sencilla.
Para multiplicar dos matrices de 100 x 100 es necesario realizar diez millones de cálculos. Sin embargo, con un supercomputador cada uno de los 10.000 valores del resultado se podrían calcular sin depender de los demás.
¿Cómo se haría? Lalinde cuenta que una máquina con 10.000 núcleos podría dedicar un núcleo a cada elemento del resultado y así, al hacer el procedimiento en paralelo, en vez de ejecutar los diez millones de cálculos en un solo núcleo, se llevarían a cabo 100 cálculos en los 10.000 núcleos. “Una operación que hace que el resultado se pueda obtener en una diezmilésima parte del tiempo que tomaría secuencialmente”, añade.
En términos más cotidianos, el funcionamiento de un supercomputador se podría comparar con el de un carro de Fórmula 1, que, con su velocidad, podría recorrer más kilómetros por hora que un auto convencional, como un Nissan March.
Para Journal of Computer Engineering, revista especializada en tecnología, “la computación de alto rendimiento acumula poder informático de una forma que pueda desenvolverse muchísimo mejor de lo que puede hacer una computadora de escritorio típica para resolver grandes problemas en ciencia, ingeniería o negocios. Este tipo de máquinas, que también cuentan con procesadores, memoria, discos y sistema operativo, son grupos de computadoras. Algo así como un pulpo de muchos cerebros”.
Por eso, esta tecnología es muy útil para probar la aerodinámica, predecir el cambio climático, hacer ensayos clínicos sin pacientes, estudiar materiales e, incluso, predecir si una estructura funcionará antes de ser construida. Una máquina de ese estilo funciona en la Universidad Eafit. Se trata de Apolo, uno de los centros de computación científica más importantes de América Latina.
Esta infraestructura se instaló hace siete años en conjunto con la Universidad Purdue (EE. UU.) con el propósito de analizar, en lapsos cortos de tiempo, grandes volúmenes de información, y realizar simulaciones y modelos.
Una de esas simulaciones se hizo en el Valle de Aburrá. “Realizamos simulaciones 2D de terremotos que se pueden presentar en la subregión para poder entender de qué forma, por ejemplo, influye la topografía o los diferentes materiales que se encuentran en su subsuelo, y así evitar una posible catástrofe”, dice Ricardo Serrano, del grupo de investigación en mecánica aplicada.
En el centro de cómputo Apolo se pueden procesar 386.94 billones de instrucciones por segundo. No obstante, según Lalinde “no se trata solo de tener estas máquinas, sino de contar con personas capaces de manejarlas. Cuando un investigador necesita utilizar los recursos del centro, se concreta una reunión para evaluar las necesidades y cómo se pueden atender de la mejor manera. Si se determina que una buena alternativa es el uso de los recursos del centro, se instala el software y se configura para hacer un uso eficiente de los supercomputadores. En caso de ser necesario, se capacita al usuario y se le explica cómo desarrollar los procesos. Luego entra el equipo humano de Apolo, quienes apoyan todo el proceso y monitorean permanente los supercomputadores para resolver cualquier problema que se pueda presentar”.
El centro Apolo, que ya tiene dos supercomputadores (el Apolo 2 y Cronos), se ha convertido en un referente internacional. Hace poco, su equipo de computación, liderado por Lalinde, consiguió clasificar entre las veinte mejores universidades del mundo para representar a América Latina en una de las competencias de supercómputo más importantes del mundo: el ASC19 Student Supercomputer Challenge, en China.
En el torneo se enfrentaron a prestigiosas universidades de China y Estados Unidos, y, pese a que no ganaron, se llevaron un trofeo por obtener un excelente resultado en uno de los seis retos, que era de biología computacional. “La prueba consistía en analizar cadenas de ADN. Optimizamos esta aplicación para que el proceso pudiera completarse en menos de treinta minutos para cada una de las cadenas”, asegura Sebastián Patiño Barrientos, estudiante de ingeniería de sistemas y uno de los participantes.
Luego del reto, donde los estudiantes midieron sus destrezas para programar en supercomputadores, se dieron cuenta de que Colombia se puede convertir en una potencia en esta materia. Además del Apolo, hay otros centros. En la Universidad Industrial de Santander (UIS) está el Guane-1 y el Centro de Bioinformática y Biología Computacional (Bios) tiene un supercomputador dedicado a la biotecnología que es capaz de analizar en solo quince minutos el genoma de una bacteria. Un estudio que podría demorar veinte días.
Los laboratorios se habrían demorado 120 años en procesar toda la información necesaria para desarrollar un medicamento que cure la leishmaniasis, una infección transmitida por un mosquito, que es estudiado por investigadores de la Universidad de Antioquia, en Medellín. Sin embargo, gracias a la tecnología de un supercomputador de la Universidad Eafit, en la misma ciudad, el estudio solo tardó dos años en realizar el cálculo computacional. ¿Cómo se ahorraron más de un siglo?
La respuesta está en el supercomputador. Su funcionamiento depende de una red ultrarrápida de varios servidores que están conectados a alta velocidad y que, además, están coordinados para trabajar como una sola máquina que ejecuta las instrucciones de manera simultánea y paralela. Juan Guillermo Lalinde, coordinador científico del Centro de Computación Científico Apolo de la Universidad Eafit, lo explica de una manera más sencilla.
Para multiplicar dos matrices de 100 x 100 es necesario realizar diez millones de cálculos. Sin embargo, con un supercomputador cada uno de los 10.000 valores del resultado se podrían calcular sin depender de los demás.
¿Cómo se haría? Lalinde cuenta que una máquina con 10.000 núcleos podría dedicar un núcleo a cada elemento del resultado y así, al hacer el procedimiento en paralelo, en vez de ejecutar los diez millones de cálculos en un solo núcleo, se llevarían a cabo 100 cálculos en los 10.000 núcleos. “Una operación que hace que el resultado se pueda obtener en una diezmilésima parte del tiempo que tomaría secuencialmente”, añade.
En términos más cotidianos, el funcionamiento de un supercomputador se podría comparar con el de un carro de Fórmula 1, que, con su velocidad, podría recorrer más kilómetros por hora que un auto convencional, como un Nissan March.
Para Journal of Computer Engineering, revista especializada en tecnología, “la computación de alto rendimiento acumula poder informático de una forma que pueda desenvolverse muchísimo mejor de lo que puede hacer una computadora de escritorio típica para resolver grandes problemas en ciencia, ingeniería o negocios. Este tipo de máquinas, que también cuentan con procesadores, memoria, discos y sistema operativo, son grupos de computadoras. Algo así como un pulpo de muchos cerebros”.
Por eso, esta tecnología es muy útil para probar la aerodinámica, predecir el cambio climático, hacer ensayos clínicos sin pacientes, estudiar materiales e, incluso, predecir si una estructura funcionará antes de ser construida. Una máquina de ese estilo funciona en la Universidad Eafit. Se trata de Apolo, uno de los centros de computación científica más importantes de América Latina.
Esta infraestructura se instaló hace siete años en conjunto con la Universidad Purdue (EE. UU.) con el propósito de analizar, en lapsos cortos de tiempo, grandes volúmenes de información, y realizar simulaciones y modelos.
Una de esas simulaciones se hizo en el Valle de Aburrá. “Realizamos simulaciones 2D de terremotos que se pueden presentar en la subregión para poder entender de qué forma, por ejemplo, influye la topografía o los diferentes materiales que se encuentran en su subsuelo, y así evitar una posible catástrofe”, dice Ricardo Serrano, del grupo de investigación en mecánica aplicada.
En el centro de cómputo Apolo se pueden procesar 386.94 billones de instrucciones por segundo. No obstante, según Lalinde “no se trata solo de tener estas máquinas, sino de contar con personas capaces de manejarlas. Cuando un investigador necesita utilizar los recursos del centro, se concreta una reunión para evaluar las necesidades y cómo se pueden atender de la mejor manera. Si se determina que una buena alternativa es el uso de los recursos del centro, se instala el software y se configura para hacer un uso eficiente de los supercomputadores. En caso de ser necesario, se capacita al usuario y se le explica cómo desarrollar los procesos. Luego entra el equipo humano de Apolo, quienes apoyan todo el proceso y monitorean permanente los supercomputadores para resolver cualquier problema que se pueda presentar”.
El centro Apolo, que ya tiene dos supercomputadores (el Apolo 2 y Cronos), se ha convertido en un referente internacional. Hace poco, su equipo de computación, liderado por Lalinde, consiguió clasificar entre las veinte mejores universidades del mundo para representar a América Latina en una de las competencias de supercómputo más importantes del mundo: el ASC19 Student Supercomputer Challenge, en China.
En el torneo se enfrentaron a prestigiosas universidades de China y Estados Unidos, y, pese a que no ganaron, se llevaron un trofeo por obtener un excelente resultado en uno de los seis retos, que era de biología computacional. “La prueba consistía en analizar cadenas de ADN. Optimizamos esta aplicación para que el proceso pudiera completarse en menos de treinta minutos para cada una de las cadenas”, asegura Sebastián Patiño Barrientos, estudiante de ingeniería de sistemas y uno de los participantes.
Luego del reto, donde los estudiantes midieron sus destrezas para programar en supercomputadores, se dieron cuenta de que Colombia se puede convertir en una potencia en esta materia. Además del Apolo, hay otros centros. En la Universidad Industrial de Santander (UIS) está el Guane-1 y el Centro de Bioinformática y Biología Computacional (Bios) tiene un supercomputador dedicado a la biotecnología que es capaz de analizar en solo quince minutos el genoma de una bacteria. Un estudio que podría demorar veinte días.