Analizar la información de las estrellas, un problema donde se cruzan el Big Data y la astrofísica

Fuente: AP
Se la llama astroinformática: y es el cruce de los avances en astronomía con la tecnología necesaria para procesar todo ese caudal de información
(0)
17 de abril de 2017  • 13:07

La nueva "biblioteca de Alejandría" y corazón del saber universal ya no será una ciudad de Oriente Medio sino el Cosmos y la forma de almacenar ese gigantesco Big Data se llama astroinformática, según el físico chileno Jorge Ibsen, que dirige el departamento de computación e informática de ALMA, el enorme radiotelescopio de 66 antenas instalado a 5000 metros de altura en el desierto de Atacama.

Debido a sus condiciones atmosféricas, los cielos del norte de Chile están considerados los mejores del mundo para la observación astronómica: el país trasandino concentra actualmente el 40% de la capacidad mundial de observación astronómica y para 2024 se calcula que alcanzará el 70 % gracias a avanzados telescopios como el European Extremely Large Telescope (E-ELT) y el Large Synoptic Survey Telescope (LSST).

Pero la abundancia de instalaciones astronómicas requiere también del desarrollo de algoritmos y programas inteligentes que analicen esta ingente cantidad de información.

Y ahí es donde surge la astroinformática, un conocimiento interdisciplinario en el que colaboran astrónomos, matemáticos e ingenieros estadísticos.

Ibsen dirige desde 2010 el departamento de computación e informática de ALMA, el gigantesco radiotelescopio de 66 antenas instalado a 5000 metros de altura en la planicie de Chajnantor, en el desierto de Atacama.

"El Atacama Large Millimeter Submillimeter Array (ALMA) produce 0,25 petabytes (equivalentes a 250 billones de bytes) al año", explica este investigador, que durante casi 20 años trabajó en el área de informática y desarrollo de software del Observatorio Europeo Austral (ESO). "Ahora bien, el Large Sinoptic Survey Telescope (LSST) que se construye en (la provincia chilena de) La Serena y estará operativo en el año 2022, producirá 10 petabytes al año. Y el telescopio que se instalará en Australia, el Square Kilometer Array (SKA), producirá 6,5 exabytes al año (equivalentes a 6500 millones de gigabytes)".

"Necesitamos disponer de una tecnología que permita alojar todos estos datos y una granja de computadoras que los procesen con recetas algorítmicas", apostilla.

Cuando el LSST concluya su trabajo, los científicos dispondrán de una historia completa de la evolución, una especia de película del Cosmos tomada a lo largo de diez años.

"Es como una foto instantánea de toda la historia de la Humanidad. Lo que estamos haciendo es una Biblioteca de Alejandría de datos científicos".

El European Extremely Large Telescope (E-ELT), es el telescopio óptico-infrarrojo más grande del mundo, que se construye en el cerro Armazones y estará operativo el año que viene. "Es el equivalente a lo que ocurrió cuando Galileo pasó de observar el cielo con sus ojos a disponer de un telescopio. De esa escala evolutiva estamos hablando", asegura Ibsen.

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Usa gratis la aplicación de LA NACION, ¿Querés descargala?