La red de computación ‘Grid’ del LHC bate varios récords

La primera prueba a gran escala con todos los elementos clave de la Red de Computación Mundial del LHC (Worldwide LHC Computing Grid) ha demostrado el buen funcionamiento de esta gran infraestructura, que ha cumplido con los objetivos planteados por los responsables del Laboratorio Europeo de Física de Partículas (CERN). Durante la demostración se han batido récords de velocidad en la exportación e importación de los datos entre los distintos puntos de la red, así como en la tasa de transferencia de la información.

La red de computación ‘Grid’ del LHC bate varios récords
Imagen: WLCG/CERN

Los preparativos para que empiece a funcionar de nuevo el Gran Colisionador de Hadrones (LHC), el acelerador de partículas más grande del mundo, ya se han puesto en marcha. Uno de los sistemas más importantes que se necesitan para respaldar los experimentos en los que se usará esta enorme máquina es la Red de Computación Mundial del LHC (WLCG, por sus siglas en inglés: Worldwide LHC Computing Grid). El objetivo de este proyecto, una colaboración a escala global de más de 140 centros de computación en 33 países, es construir y mantener una infraestructura de almacenamiento y análisis de datos para la comunidad de físicos de altas energías que trabajarán en el gran colisionador.

Tras meses de preparativos y dos intensas semanas de funcionamiento durante 24 horas al día, “los experimentos del LHC están de enhorabuena por haber alcanzado un nuevo conjunto de objetivos cuyo fin es demostrar que la recogida de datos del LHC está totalmente lista para empezar a funcionar a finales de este año, según lo previsto”, señala el CERN en una nota en relación al ensayo global con la grid.

Aunque los últimos años ha habido varias pruebas de procesamiento de datos a gran escala, ésta ha sido la primera demostración en la que han intervenido todos los elementos clave, desde la recogida de datos hasta el análisis. Se han batido récords de todo tipo: capacidad de recogida de datos, velocidades de importación y exportación de información entre los diversos “sitios grid” de la red, así como un trabajo enorme de análisis, simulación y reprocesamiento.

Uno de los experimentos del LHC, el ATLAS, por sí solo ha realizado cerca de un millón de análisis y ha conseguido 6 GB/s de "tráfico grid", el equivalente a los datos que puede almacenar un DVD por segundo, mantenidos además durante largos periodos de tiempo. Este resultado es especialmente útil ahora porque coincide con la transición de las grids hacia infraestructuras electrónicas sostenibles a largo plazo, lo que tiene una importancia vital para proyectos de larga duración como los del LHC.

Con la puesta en marcha del LHC en pocos meses es de esperar que se produzca un gran aumento del número de usuarios de la tecnología grid, pasando de los varios cientos de usuarios únicos actuales a los varios miles previstos para cuando comience la recogida y el análisis de los datos. Esto sólo puede realizarse mediante una racionalización significativa de las operaciones y una simplificación de la interacción de los usuarios finales con la grid.

Los responsables del proyecto han desarrollado el programa de testeo STEP’09 (Scale Testing for the Experiment Programme), que incluía pruebas a gran escala de situaciones de análisis de usuarios finales, entre las que figuraban las infraestructuras “de apoyo comunitario”, mediante las que se instruye y capacita a la comunidad para que, en gran medida, se apoye a sí misma, con el respaldo de un grupo de expertos en programas y grid.

En general, la computación grid (“rejilla”, en inglés) conecta ordenadores distribuidos por una extensa zona geográfica. De la misma forma que la web (World Wilde Web) permite acceder a la información, la computación grid permite acceder a recursos informáticos. Estos recursos incluyen: capacidad de almacenamiento de datos, potencia de procesamiento, sensores, herramientas de visualización, etc. Las grid pueden combinar los recursos de miles de ordenadores diferentes para crear un poderoso recurso informático masivo, accesible desde la comodidad de un ordenador personal y útil para diversas aplicaciones, como la ciencia o los negocios.

--------------------------------------------------------------------------------

Comentarios de algunos responsables del proyecto:

Sergio Bertolucci, director de investigación e informática del CERN*: “Los cuatro experimentos del LHC (ATLAS, CMS, ALICE y LHCb) han demostrado su capacidad para manejar sus tasas de datos nominales simultáneamente. Por primera vez, todos los aspectos de la informática de los experimentos han funcionado al mismo tiempo: la simulación, el procesamiento de datos y el análisis. Esto les hace confiar en que serán capaces de analizar eficazmente los primeros datos procedentes del LHC que lleguen a finales de este año”.

Bob Jones, director del proyecto EGEE (Enabling Grids for E-sciencE): “Un logro tan significativo es un testimonio valioso sobre el estado de madurez de la infraestructura del EGEE y su capacidad para interactuar con importantes infraestructuras grid de otras partes del mundo. Garantizar que este nivel de servicio se mantiene de forma ininterrumpida mientras realizamos la transición del EGEE al EGI (European Grid Initiative) es claramente esencial para nuestros usuarios, incluidas las comunidades insignia como High Energy Physics”.

Ruth Pordes, directora ejecutiva del consorcio Open Science Grid: “Este es otro paso significativo para demostrar que las infraestructuras compartidas pueden ser empleadas por distintas comunidades de producción científica simultáneamente. ATLAS y CMS no sólo están demostrando la utilidad de OSG (Open Science Grid), sino que están contribuyendo al desarrollo de instalaciones distribuidas a escala nacional en EE UU para otras ciencias”.

David Britton, director del proyecto GridPP (UK Computing for Particle Physics): “En Reino Unido, STEP’09 ha funcionado muy bien en la mayoría de los sitios, lo que nos ha permitido centrarnos en comprender el rendimiento y ajustar la infraestructura. El Nivel-1 en RAL ha funcionado extraordinariamente bien, con tan sólo una única intervención fuera del horario durante el periodo de dos semanas. Se ha obtenido información valiosa sobre el rendimiento de las unidades de cinta en condiciones de trabajo realistas. La red OPN se ha puesto a prueba añadiendo tráfico UDP adicional a los datos de STEP'09, y el sistema de ‘reparto justo’ se ha ajustado con éxito para equilibrar la carga entre los distintos experimentos”.

Gonzalo Merino, gerente del centro de Nivel 1 en Barcelona: “El sitio español del WLCG cumple los objetivos de STEP’09. Ha sido un ejercicio valioso dado que gran parte del flujo de trabajo de los experimentos se ha probado simultáneamente a una escala sin precedentes, muy por encima de los valores nominales de la recogida de datos del LHC. El Nivel-1 del PIC ha proporcionado un servicio muy estable y fiable a una escala que bate récords: un intercambio de hasta 80 Terabytes al día con otros sitios del WLCG y un procesamiento de datos a más de 2 Gbytes por segundo. Esto nos hace confiar en que los sitios españoles del WLCG están listos para la recogida de datos”.

David Foster, jefe de la actividad de la Red Óptica Privada del LHC: “La Red Óptica Privada del LHC que transporta datos entre los distintos centros ha demostrado su capacidad tanto en términos de rendimiento como de resistencia durante el STEP’09. Las nuevas posibilidades que surgen en el rango de los 40 Gbps y 100 Gbps deberían permitirnos estar a la altura de las necesidades de distribución de datos de los experimentos del LHC”.

Fuente: SINC/CERN
Derechos: Creative Commons

Solo para medios:

Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.

Artículos relacionados