Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Poniendo a prueba la elegancia de la teoría física

El autor explica los principales desafíos que el LHC está generando entre la comunidad científica. El Modelo Estándar sobre el que se fundamenta la física sigue incompleto, la hipótesis que explicaría por qué las partículas del mismo tienen masa sigue sin ser verificada. Por otra parte, el modelo no da respuesta a muchas hipótesis atractivas que la física cuántica ha planteado, por ejemplo, la existencia de la supersimetría, que podría explicar el misterio de la materia extraña. Razonamientos muy generales apuntan a que en algún momento aparecerán nuevos fenómenos solamente explicables más allá del modelo, y esto podría muy bien ocurrir en el LHC.

Enrique Fernández. Foto: CERN.

Si uno sale de la ciudad suiza de Ginebra en dirección oeste, hacia las cercanas montañas del Jura, seguramente no se percatará de que bajo sus pies existe un túnel gigantesco, de 27 Km. de circunferencia, en el cual está albergado uno de los más sofisticados y costosos instrumentos científicos que se hayan construido nunca. Se trata del Gran Colisionador de Hadrones, conocido por las siglas LHC (de Large Hadron Collider, en inglés). Después de muchos años de planificación y construcción, esta máquina está a punto de entrar en funcionamiento.

El LHC es el último eslabón de una carrera que empezó fundamentalmente al término de la segunda guerra mundial. Una vez entendida a grandes rasgos la estructura atómica y nuclear, los físicos empezaron a darse cuenta de la existencia de otras partículas, distintas de los protones, neutrones y electrones que componen los átomos ordinarios. Estas partículas fueron observadas al estudiar la radiación cósmica, consistente en su mayor parte de protones muy energéticos que nos llegan del espacio. Los rayos cósmicos chocan con la atmósfera, o con un detector, y en el choque se producen partículas nuevas.

La invención de los aceleradores y los avances técnicos en su construcción y en instrumentos de detección, permitió continuar los estudios de los rayos cósmicos de manera controlada, lo que llevó a la identificación de decenas de nuevas partículas llamadas genéricamente partículas elementales o partículas subatómicas. Durante los años ‘60 y comienzo de los ‘70 la situación llegó a ser confusa, nadie era capaz de explicar la proliferación de partículas elementales. Al final, como en otros ámbitos de la ciencia, fue una hipótesis reduccionista la que permitió el progreso.

Hoy creemos que toda la materia ordinaria, la de los átomos de los elementos, desde los del aire que respiramos hasta los de la materia en el centro del sol, están compuestos de cuatro partículas realmente elementales, dos quarks (llamados u y d) y dos leptones (el electrón y el neutrino electrónico). Elemental significa aquí sin estructura aparente. Cada una de estas cuatro partículas tiene dos "réplicas", también elementales, con idénticas propiedades, excepto que de mayor masa. Las partículas subatómicas de las que antes hablábamos son agregados, generalmente muy inestables, de estos componentes elementales.

El gran avance en la física de partículas ha sido entender la manera en que estos componentes elementales interaccionan entre sí. La interacción, a esta escala puramente cuántica, no ocurre de manera continua, sino mediante el intercambio de cuantos de interacción, los cuales son a su vez partículas, a las que podríamos llamar ‘partículas de interacción’. Si dos protones chocan, lo que ocurra va a depender de cómo interaccionan los quarks que los forman. El que un neutrón libre se desintegre, con una determinada vida media, también depende de la manera en que los componentes interaccionan. Y de la interacción depende también, en último término, que una determinada estrella brille más o menos. Las teorías de la interacción son técnicamente lo que se denomina ‘teorías cuánticas de campos’, y al conjunto de ellas, con los ingredientes de quarks y leptones mencionado, se le denomina el Modelo Estándar (ME).

La formulación del ME comenzó en los años ‘40 con la llamada electrodinámica cuántica y culminó en los años ‘70. Desde entonces se han hecho enormes avances en las medidas de propiedades de las partículas y sus interacciones que no han hecho más que asentar de manera más y más sólida al ME.

El ME es un gran edificio conceptual, sin duda comparable a otras grandes teorías en física, como la ley de gravitación universal de Newton o las leyes de Maxwell de la electrodinámica clásica. Pero no está completo. En un aspecto ello es muy claro: los cuantos de interacción deberían ser pura energía, no tener masa, como ocurre con el cuanto de la interacción electromagnética, el fotón. Pero algunos tienen masa, de hecho muy grande. La hipótesis es ésta: se debe a la existencia de un campo de otro tipo, llamado campo escalar o campo de Higgs. De hecho, las masas de todas las partículas de materia, los quarks y leptones, es debida a su interacción con el campo de Higgs que está en todo el espacio.

Si esta hipótesis es cierta deberá existir una partícula, llamada bosón de Higgs, con propiedades que están bastante determinadas por lo que ya sabemos. Por ejemplo, sabemos que la masa del Higgs tiene que estar entre unos determinados valores y que una vez producida se desintegra de determinadas maneras. De ello se desprende que es posible producirla y detectarla en el LHC.

Hasta que no se aclare este aspecto el ME no estará completo, y, si la partícula no se observa habrá que modificarlo de alguna manera que nadie sabe.

Pero hay otras razones para pensar que el ME debe "fallar" en algún momento. Éstas tienen que ver con cuestiones de las cuales a los físicos les gusta hablar aunque sientan cierto miedo al hacerlo. Estas cuestiones son de tipo estético, argumentos basados en la elegancia interna de las teorías, o en criterios tales que los valores de ciertas cantidades sean o no "naturales". Son criterios que han jugado un papel muy importante en el desarrollo de la física, aunque no sean estrictamente cuantitativos.

Por ejemplo, ocurre que, incluso aunque haya un bosón de Higgs y ello explique la masa de las partículas, incluida la del propio bosón, el cálculo de ésta da un resultado adecuado solamente si algunos términos del mismo, que son muy grandes, se compensan de manera fortuita, no "natural", con otros que son también muy grandes pero de signo contrario. Pero ¿qué es fortuito y qué no? La naturaleza es lo que es, nada más. Pues bien, hay maneras de explicar que esta cancelación fortuita no es tal, sino que se deriva de la existencia de una simetría superior llamada supersimetría. La supersimetría relaciona las partículas del ME, tanto las de materia como las de interacción, con otras partículas hipotéticas que tienen propiedades idénticas, excepto la masa y el llamado espín. El espín es una cantidad puramente cuántica asociada a las partículas que tiene las unidades de momento angular (es como si las partículas estuviesen girando sobre si mismas). Las partículas de materia, como los quarks, tienen espín fraccionario en determinadas unidades, y sus asociadas supersimétricas lo tienen entero. Para las partículas de interacción ocurre lo contrario: su espín es entero mientras que para sus asociadas supersimétricas sería fraccionario. Dicho así parece que estemos contradiciendo la ley de Ockham, la cual dice que en igualdad de condiciones la hipótesis más sencilla es probablemente la correcta. Pero este no es el caso. La introducción de la supersimetría "arregla" muchos otros problemas de tipo conceptual, más allá de las teorías del Modelo Estándar.

Una muy notoria podría ser la siguiente. Medidas astronómicas indican que la masa total de las estructuras más grandes del universo, las galaxias y los cúmulos de galaxias, es mayor que la que vemos brillar en las estrellas que las forman. Otros argumentos independientes, cosmológicos, tales como la abundancia de los elementos primordiales creados en los primeros instantes después del big bang, que podemos medir hoy, nos indican también que hay más masa de la visible y que además esa masa debe estar formada por partículas que no son las partículas de materia normal, los quarks del ME. A esa masa se la denomina no-bariónica. ¿Podría estar formada por partículas supersimétricas? La hipótesis es muy atractiva pues hay algunas coincidencias en las propiedades esperadas de materia oscura y de partículas supersimétricas. En el LHC será posible producir estas partículas directamente y estudiar sus propiedades, siempre que su masa, sobre la que la teoría no dice nada, por cierto, no sea demasiado grande.

Desde hace unos años también nos hemos dado cuenta de que el universo parece expandirse de manera acelerada. A la causa posible se la denomina "energía oscura" pero nadie sabe nada sobre su naturaleza. Una explicación posible de la energía oscura está relacionada con el campo de Higgs, o de manera más general con las teorías cuánticas de campos. El punto clave es el concepto de vacío cuántico en el cual la densidad de energía no es cero, como la palabra vacío parece indicar. La hipótesis más plausible para la energía oscura es que sería la energía asociada al vacío cuántico. De hecho el que debe de haber una energía asociada al vacío cuántico se sabe desde hace años. Pero el cálculo de la misma basado en los campos (en las interacciones) que conocemos da un resultado tremendamente descabellado: el universo se expandiría tan rápido que desaparecería casi inmediatamente. La situación no deja de ser curiosa. Como el resultado es tan absurdo todo el mundo pensó que tendría que haber algo de lo que nos estamos olvidando que hiciese que la energía asociada al vacío fuese cero. Pero ahora vemos experimentalmente que podría existir efectivamente una energía asociada al vacío, pero muy pequeña. La pregunta es entonces otra: ¿por qué tan pequeña?. Sobre esto es poco probable que el LHC pueda decir algo, pero nunca se sabe.

Otro tema general tiene también que ver con el universo cuántico. Una consecuencia muy profunda de las teorías cuánticas de campo es que cada partícula tiene una correspondiente antipartícula, con idéntica masa pero con las cargas opuestas. Las leyes son totalmente simétricas y microscópicamente esta simetría está muy bien comprobada cuando realizamos experimentos con partículas. Pero la materia ordinaria está formada por protones, neutrones (ambos compuestos por quarks) y electrones, y no por sus antipartículas. Éstas, antiprotones, antineutrones y antielectrones pueden producirse en el laboratorio, de hecho en el CERN se ha producido anti-hidrógeno (átomos formados por un antiprotón y un antielectrón). Pero en la materia natural las antipartículas no parecen estar presentes. En el mundo macroscópico hay una asimetría manifiesta entre materia y antimateria, al menos en nuestra zona del cosmos. Sin embargo, sabemos que durante el big bang deberían coexistir partículas y antipartículas en iguales cantidades, ¿por qué ahora no? Esto es algo no entendido totalmente y con los experimentos del LHC quizás podamos entenderlo un poco mejor.

Los problemas anteriores son algunos de los más llamativos, pero en modo algunos son los únicos. En los experimentos del LHC participan miles de personas y, aunque a alguien de fuera del campo le pueda parecer extraño, hay trabajo para todas. Existen infinidad de medidas que se pueden realizar y todas son importantes. Una y otra vez en la historia de la ciencia los descubrimientos pueden aparecer en el sitio menos esperado. Desde un punto de vista tecnológico tanto el acelerador como los detectores son extremadamente complejos. En uno de estos detectores hay millones de señales que hay que registrar, cientos de veces cada segundo. El tráfico de datos entre detector y los ordenadores que lo controlan es similar al de toda la red telefónica de un país entero. Y ocurre además que no hay estándar, casi toda la tecnología es nueva, no comercial. De hecho, el costo de estos experimentos es muy alto y una de las razones, quizás la principal, de que los gobiernos los financien es, en último término, el motor que suponen para ciertas tecnologías.

Para algunos, los constructores del LHC y de los detectores, el trabajo está a punto de concluir. Atrás quedan cientos de miles de horas empleadas en la empresa. Pero para otros la aventura empieza ahora. Nadie sabe a ciencia cierta (nunca mejor dicho) lo que puede ocurrir, es literalmente un viaje a terra incognita.

Enrique Fernández (Asturias, 1948) es director del Comité de Política Científica (SPC, por sus siglas en inglés) del CERN, Catedrático de la Universidad Autónoma de Barcelona e investigador del Instituto de Física de Altas Energías de Barcelona. Es licenciado y doctor por la Universidad Complutense de Madrid y Ph.D. en Purdue University, Indiana, EE.UU. Ha sido postdoc en Argonne National Laboratory, Illinois y en Stanford Linear Accelerator Center, California, e Investigador en la Universidad de Colorado en Boulder, Colorado, en EE.UU. Su trabajo actual se centra en un experimento de cosmología para medir el efecto de la energía oscura en la expansión del universo.

-----------------------------------

Más información:

LEYES DE NEWTON. Sir Isaac Newton, (1643,1727) escribió la ley de la gravitación universal y estableció las bases de la mecánica a través de las tres leyes que llevan su nombre.

La primera ley de Newton o ley de la inercia afirma: "Todo cuerpo preservará en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado por fuerzas impresas a cambiar su estado". En ella, Newton afirma que un cuerpo sobre el que no actúan fuerzas permanecerá en reposo o moviéndose a velocidad constante eternamente.

La segunda ley de Newton o ley de la interacción y la fuerza dictamina: "El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime". Es decir, que una fuerza se puede expresar como la masa que la ejerce multiplicada por la variación en la velocidad respecto al tiempo ( F = m * a).

La tercera ley de Newton o ley de de acción-reacción señala: "Con toda acción ocurre siempre una reacción igual y contraria; las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentidos opuestos". Cualquier fuerza en la que no haya movimiento tras ser aplicada implica una fuerza igual y de sentido contrario. Por ejemplo, al golpear una mesa, ésta nos golpea a nosotros con la misma energía.

LEYES DE MAXWELL. Las ecuaciones de James Clerk Maxwell (1831-1879) demostraron que la electricidad, el magnetismo y hasta la luz son manifestaciones del campo electromagnético. A partir de entonces, las leyes y ecuaciones clásicas de electricidad y magnetismo se convirtieron en casos simplificados de las ecuaciones de Maxwell. Su trabajo sobre electromagnetismo ha sido llamado la "segunda gran unificación en física", después de la primera llevada a cabo por Newton.

La primera ley define los campos eléctricos, la segunda explica porqué los campos magnéticos, al contrario de los eléctricos, no pueden tener monopolos (si rompemos un imán, siempre tiene polos, mientras que podemos tener cargas eléctricas aisladas), mientras que la tercera y la cuarta relacionan ambos campos expresando su relación y cómo cada uno de ellos implica la existencia del otro cuando alguno de ellos varía con el tiempo.

Las ecuaciones de Maxwell sirvieron a Einstein para desarrollar su principio de relatividad, que prefirió estos resultados a los de Galileo para el movimiento.

TEORÍA DE OCKHAM. Según la teoría filosófica Guillermo de Ockham, un fraile franciscano de finales del siglo XIV, “en igualdad de condiciones, la solución más sencilla es probablemente la correcta”. Conocida como ‘La navaja de Ockham’, forma la base del reduccionismo metodológico, y ha sido una regla básica para el desarrollo de la ciencia y la filosofía. La naturaleza da muestras de que sus simetrías y las leyes se basan en estas simetrías, aunque en ningún caso la naturaleza implica simplicidad. Las leyes naturales no tienen por qué ser simples, aunque si nos encontramos ante dos teorías que cumplen las mismas leyes, debemos preferir la menos compleja.

TEORÍA CUÁNTICA DE CAMPOS. Esta teoría fue desarrollada desde finales de los años 20 a los 50 por grandes pensadores, entre los que destacan Dirac, Pauli, Schwinger y Feyman, y en ella se aplican las reglas cuánticas a los campos clásicos de la física. La teoría cuántica del campo electromagnético es la teoría probada experimentalmente con mayor precisión en la historia. Esta teoría corrige deficiencias de la mecánica cuántica, ya que ésta no tiene en cuenta la teoría de la relatividad de Einstein, ni tampoco que las partículas cuánticas del mismo tipo (existen dos tipos según su spin o momento angular interno, fermiones y bosones) son indistinguibles. La incorporación de estas dos nuevas características a la mecánica cuántica es lo que se llamó segunda cuantificación.

TEORÍA DE CUERDAS. Jöel Scherk y John Schwuarz hicieron en 1974 una primera formulación de la teoría de cuerdas, que actualmente es el modelo fundamental de la física más consistente para intentar explicar todas las fuerzas de la naturaleza por si sola: la fuerza de gravedad, la electromagnética, la interacción nuclear fuerte y la nuclear débil.

En ella se dice que todas las partículas fundamentales son expresiones de un objeto unidimensional llamado cuerda. Lo que hace que veamos una partícula u otra es la forma en la que vibra esa cuerda. La diferencia con las anteriores teorías es que éstas tomaban a todas las partículas como objetos sin dimensión, como simples partículas puntuales. La mayor dificultad de comprensión que plantea esta teoría es que el número de dimensiones en el que 'viven' estas cuerdas son nueve espaciales más el tiempo. En ella, las seis dimensiones extra tendrían unas dimensiones tan pequeñas que serían inobservables en la práctica y, por tanto, las cuerdas se ven también como partículas sin dimensión.

SUPERSIMETRÍA. La supersimetría es una transformación matemática que relaciona las partículas de distintos tipos (fermiones y bosones), que empezó a desarrollarse en los años 70. Las partículas fermiónicas son las que generalmente tienen masa y las bosónicas las que hacen de mediadoras con las fuerzas existentes en la naturaleza. Aunque no se encontró una forma de hacer tal transformación, la idea sirvió para otros pensadores que quisieron unificar todas las fuerzas y pensaron que cuando nació el Universo solo debió existir una fuerza de la que luego se desacoplaron las que hoy conocemos. Para ellos, postularon que toda partícula tiene una partícula supersimétrica como compañera. Nunca se ha observado ninguna (suponiendo que existan) debido a que todavía no se han acelerado partículas que alcancen energías en las que se manifiestan. Es una teoría que se complementa con las teorías de la Gran Unificación.

Fuente: SINC
Derechos: Creative Commons