Investigadores del Instituto de Física Corpuscular (Valencia) participan en un proyecto que utiliza programas de código libre para mejorar la clasificación de las colisiones atendiendo a las necesidades de los científicos. Se probará en enero con los datos del primer ciclo de funcionamiento del experimento ATLAS del LHC, y se implementará en el experimento a lo largo de 2015, cuando el acelerador de partículas del CERN funcionará al doble de energía, incrementando por cinco los datos.
La organización European Grid Infrastructure (EGI) ha seleccionado un software desarrollado por físicos españoles para abrir el acceso de investigadores a grandes recursos de computación. El sistema ha probado su utilidad para gestionar los datos del experimento LHCb del Gran Colisionador de Hadrones (LHC) del CERN.
Conviene familiarizarse con palabras como grid, cloud, middelware y big data porque son el lenguaje de la próxima etapa de la ciencia. Hoy la física de partículas, la genómica y la astrofísica generan cantidades de datos tan inabarcables que, para exprimir la información que contienen, los investigadores necesitan nuevas herramientas colaborativas. Ignacio Blanquer (Valencia, 1969), miembro de la Red Española de e-Ciencia y profesor de la Universidad Politécnica de Valencia, ha explicado a SINC las claves del llamado ‘cuarto paradigma’ durante una jornada organizada por la Fundación Ramón Areces.
El profesor Ignacio Blanquer de la UPV. / Fundación Ramón Areces
La computación grid ha resultado esencial para analizar los resultados de los experimentos ATLAS y CMS del CERN, que este mes ha anunciado el posible descubrimiento del bosón de Higgs. Entre las instituciones europeas que colaboran en la gestión y análisis de la ingente cantidad de datos que está detrás del hallazgo figura el Centro de Supercomputación de Galicia.
El Laboratorio Europeo de Física de Partículas (CERN) ha firmado un contrato con el Centro Wigner de Investigación en Física de Hungría que ampliaría sustancialmente las capacidades del Tier-0 de la red de computación GRID del LHC, además de asegurar sus operaciones. Este nivel o tier sumará más de 35 petabytes de capacidad de almacenamiento en disco de datos del LHC.
La distribución de la familia de los scombridae en Australia, según AquaMaps.
El Ejercicio de Gran Escala STEP’09 llevado a cabo con la gigantesca Grid de tratamiento de datos WLCG (Worldwide LHC Computing Grid Project) del LHC ha contado con la participación del Port d’Informació Científica (PIC), situado en la Universitat Autònoma de Barcelona (UAB). Las pruebas de conexión realizadas con este centro, uno de los 11 de primer nivel del proyecto, han arrojado récords de rendimiento.
Un equipo de investigadores de la Universidad de Santiago de Compostela (USC) está trabajando en el desarrollo de un laboratorio virtual para la Red Nacional de Teledetección Oceanográfica. El proyecto, financiado por el Plan Nacional de I+D+i, se está realizando en colaboración con el Centro de Supercomputación de Galicia (CESGA). También participan el Instituto Canario de Ciencias Marinas y el AZTI, un centro tecnológico vasco especializado en investigación marina y alimentaria.
Granja de ordenadores del Centro de Cálculo del CERN