Cosmología

Cosmología, campo de estudio que reúne las ciencias naturales, en particular la astronomía y la física, en un esfuerzo conjunto por comprender el universo físico como un todo unificado.

Si uno mira hacia arriba en una noche clara, verá que el cielo está lleno de estrellas. Durante los meses de verano en el hemisferio norte, una tenue banda de luz se extiende de horizonte a horizonte, una franja de blanco pálido que atraviesa un fondo de negro intenso. Para los antiguos egipcios, era el Nilo celestial, que fluía a través de la tierra de los muertos gobernada por Osiris. Los antiguos griegos lo comparaban con un río de leche. Los astrónomos saben ahora que la banda está compuesta en realidad por innumerables estrellas en un disco aplanado que se ve de canto. Las estrellas están tan cerca las unas de las otras a lo largo de la línea de visión que el ojo humano tiene dificultades para discernir los miembros individuales. A través de un gran telescopio, los astrónomos encuentran miríadas de sistemas similares esparcidos por las profundidades del espacio. Llaman a estas vastas colecciones de estrellas galaxias, por la palabra griega que significa leche, y llaman a la galaxia local a la que pertenece el Sol la Vía Láctea o simplemente la Galaxia.

El Sol es una estrella alrededor de la cual giran la Tierra y los demás planetas y, por extensión, toda estrella visible en el cielo es un sol por derecho propio. Algunas estrellas son intrínsecamente más brillantes que el Sol; otras, más débiles. Se recibe mucha menos luz de las estrellas que del Sol porque todas ellas están mucho más lejos. De hecho, la Vía Láctea parece estar densamente poblada sólo porque son muchas. Las separaciones reales de las estrellas son enormes, tan grandes que es convencional medir sus distancias en unidades de lo que la luz puede viajar en un tiempo determinado. La velocidad de la luz (en el vacío) es igual a 3 × 1010 cm/seg (centímetros por segundo); a esa velocidad, es posible dar siete vueltas a la Tierra en un solo segundo. Así, en términos terrestres, el Sol, que se encuentra a 500 segundos-luz de la Tierra, está muy lejos; sin embargo, incluso la siguiente estrella más cercana, Próxima Centauri, a una distancia de 4,3 años-luz (4,1 × 1018 cm), está 270.000 veces más lejos todavía. Las estrellas que se encuentran en el lado opuesto de la Vía Láctea con respecto al Sol tienen distancias del orden de 100.000 años-luz, que es el diámetro típico de una gran galaxia espiral.

Si el reino de las estrellas parece vasto, el de las galaxias lo es aún más. Las galaxias más cercanas al sistema de la Vía Láctea son la Gran y la Pequeña Nube de Magallanes, dos satélites irregulares de la galaxia visibles a simple vista en el hemisferio sur. Las Nubes de Magallanes son relativamente pequeñas (contienen unas 109 estrellas) en comparación con la Galaxia (con unas 1011 estrellas), y se encuentran a una distancia de unos 200.000 años luz. La galaxia más grande comparable a la Galaxia es la Galaxia de Andrómeda (también llamada M31 porque fue la 31ª entrada en un catálogo de objetos astronómicos compilado por el astrónomo francés Charles Messier en 1781), y se encuentra a una distancia de unos 2.000.000 de años luz. Las Nubes de Magallanes, la Galaxia de Andrómeda y el sistema de la Vía Láctea forman parte de un conjunto de unas dos docenas de galaxias vecinas conocido como Grupo Local. La Galaxia y M31 son los miembros más grandes de este grupo.

La Galaxia y M31 son galaxias espirales, y se encuentran entre las más brillantes y masivas de todas las galaxias espirales. Sin embargo, las galaxias más luminosas y brillantes no son espirales, sino elípticas supergigantes (también llamadas galaxias cD por los astrónomos por razones históricas que no son especialmente esclarecedoras). Las galaxias elípticas tienen formas redondeadas en lugar de las distribuciones aplanadas que caracterizan a las galaxias espirales, y tienden a aparecer en cúmulos ricos (los que contienen miles de miembros) en lugar de en los grupos sueltos que favorecen las espirales. Las galaxias miembros más brillantes de los cúmulos ricos se han detectado a distancias superiores a varios miles de años luz de la Tierra. La rama del saber que se ocupa de los fenómenos a escala de muchos millones de años-luz se llama cosmología, un término derivado de la combinación de dos palabras griegas, kosmos, que significa “orden”, “armonía” y “el mundo”, y logos, que significa “palabra” o “discurso”. La cosmología es, en efecto, el estudio del universo en general.

La expansión cosmológica

Cuando se observa el universo a gran escala, surge una nueva y dramática característica, que no está presente en las escalas pequeñas: la expansión cosmológica. A escala cosmológica, las galaxias (o, al menos, los cúmulos de galaxias) parecen alejarse unas de otras con una velocidad de recesión aparentemente proporcional a la distancia del objeto. Esta relación se conoce como la ley de Hubble (en honor a su descubridor, el astrónomo estadounidense Edwin Powell Hubble). Interpretada de la forma más sencilla, la ley de Hubble implica que hace 13.800 millones de años toda la materia del universo estaba estrechamente empaquetada en un estado increíblemente denso y que entonces todo explotó en un “big bang”, cuya firma se escribió finalmente en las galaxias de estrellas que se formaron a partir de los restos de materia en expansión. Esta interpretación del origen del universo como consecuencia del big bang cuenta con el apoyo científico de los radiotelescopios, que han detectado un fondo constante y uniforme de radiación de microondas. Se cree que el fondo cósmico de microondas es un remanente fantasmal de la feroz luz de la bola de fuego primigenia, reducida por la expansión cósmica a una sombra de su antiguo esplendor, pero que sigue impregnando todos los rincones del universo conocido.

Sin embargo, la interpretación simple (y más común) de la ley de Hubble como una recesión de las galaxias en el tiempo a través del espacio, contiene una noción engañosa. En cierto sentido, como se precisará más adelante en el artículo, la expansión del universo no representa tanto un movimiento fundamental de las galaxias en un marco de tiempo y espacio absolutos, sino una expansión del tiempo y el espacio mismos. A escala cosmológica, el uso de los tiempos de viaje de la luz para medir las distancias adquiere un significado especial porque las longitudes se vuelven tan vastas que incluso la luz, viajando a la velocidad más rápida alcanzable por cualquier entidad física, tarda una fracción significativa de la edad del universo (13.800 millones de años) en viajar desde un objeto hasta un observador. Por tanto, cuando los astrónomos miden objetos a distancias cosmológicas del Grupo Local, están viendo los objetos tal y como existían durante una época en la que el universo era mucho más joven de lo que es hoy. En estas circunstancias, Albert Einstein enseñó en su teoría de la relatividad general que el campo gravitatorio de todo lo que hay en el universo deforma de tal manera el espacio y el tiempo que requiere una reevaluación muy cuidadosa de cantidades cuya naturaleza aparentemente elemental se da normalmente por sentada.

La naturaleza del espacio y del tiempo

¿Finito o infinito?

Una cuestión que se plantea al contemplar el universo en general es si el espacio y el tiempo son infinitos o finitos. Tras muchos siglos de reflexión por parte de algunas de las mejores mentes, la humanidad aún no ha llegado a respuestas concluyentes a estas cuestiones. La respuesta de Aristóteles fue que el universo material debe ser espacialmente finito, ya que si las estrellas se extendieran hasta el infinito, no podrían realizar una rotación completa alrededor de la Tierra en 24 horas. Por tanto, el espacio también debe ser finito, ya que no es más que un receptáculo para los cuerpos materiales. En cambio, los cielos deben ser temporalmente infinitos, sin principio ni fin, ya que son imperecederos y no pueden crearse ni destruirse.

Salvo en lo que respecta a la infinidad del tiempo, estos puntos de vista llegaron a ser enseñanzas religiosas aceptadas en Europa antes del período de la ciencia moderna. La persona más notable que expresó públicamente sus dudas sobre el espacio restringido fue el filósofo-matemático italiano Giordano Bruno, que planteó la pregunta obvia de que, si hay un límite o borde del espacio, ¿qué hay al otro lado? Por su defensa de una infinidad de soles y tierras, fue quemado en la hoguera en 1600.

En 1610, el astrónomo alemán Johannes Kepler aportó una profunda razón para creer que el número de estrellas en el universo tenía que ser finito. Si hubiera infinidad de estrellas, argumentó, el cielo estaría completamente lleno de ellas y la noche no sería oscura. En el siglo XVIII, los astrónomos Edmond Halley, de Inglaterra, y Jean-Philippe-Loys de Chéseaux, de Suiza, volvieron a discutir este punto, pero no se popularizó como paradoja hasta que el alemán Wilhelm Olbers se ocupó del problema en el siglo XIX. La dificultad se hizo potencialmente muy real con la medición del astrónomo estadounidense Edwin Hubble de la enorme extensión del universo de galaxias con su homogeneidad e isotropía a gran escala. Sin embargo, su descubrimiento de la recesión sistemática de las galaxias le proporcionó una escapatoria. Al principio se pensó que el efecto de corrimiento al rojo bastaría para explicar por qué el cielo es oscuro por la noche, es decir, que la luz de las estrellas de las galaxias lejanas se desplazaría al rojo a longitudes de onda largas más allá del régimen visible. Sin embargo, el consenso moderno es que una edad finita del universo es un efecto mucho más importante. Incluso si el universo es espacialmente infinito, los fotones de galaxias muy lejanas simplemente no tienen tiempo de viajar a la Tierra debido a la velocidad finita de la luz. Existe una superficie esférica, el horizonte de sucesos cósmico (13.800 millones de años-luz de distancia radial desde la Tierra en la época actual), más allá de la cual no se puede ver nada, ni siquiera en principio; y el número (aproximadamente 1010) de galaxias dentro de este horizonte cósmico, el universo observable, son demasiado pocas para que el cielo nocturno brille.

Cuando uno mira a grandes distancias, está viendo las cosas como eran hace mucho tiempo, de nuevo porque la luz tarda un tiempo finito en viajar a la Tierra. A lo largo de estos grandes espacios, ¿se mantienen necesariamente las nociones clásicas de Euclides sobre las propiedades del espacio? La respuesta dada por Einstein fue: No, la gravitación de la masa contenida en regiones cosmológicamente grandes puede deformar las percepciones habituales del espacio y el tiempo; en particular, el postulado euclidiano de que las líneas paralelas nunca se cruzan no tiene por qué ser una descripción correcta de la geometría del universo real. En 1917, Einstein presentó un modelo matemático del universo en el que el volumen total del espacio era finito pero no tenía límites ni bordes. El modelo se basaba en su teoría de la relatividad general, que utilizaba un enfoque más generalizado de la geometría ideado en el siglo XIX por el matemático alemán Bernhard Riemann.

La gravitación y la geometría del espacio-tiempo

El fundamento físico de la visión de Einstein sobre la gravitación, la relatividad general, se basa en dos descubrimientos empíricos que él elevó a la categoría de postulados básicos. El primer postulado es el principio de relatividad: la física local se rige por la teoría de la relatividad especial. El segundo postulado es el principio de equivalencia: un observador no puede distinguir localmente entre gravedad y aceleración. La motivación del segundo postulado proviene de la observación de Galileo de que todos los objetos -independientemente de su masa, forma, color o cualquier otra propiedad- se aceleran a la misma velocidad en un campo gravitatorio (uniforme).

La teoría de la relatividad especial de Einstein, que desarrolló en 1905, tenía como premisas básicas (1) la noción (que también se remonta a Galileo) de que las leyes de la física son las mismas para todos los observadores inerciales y (2) la constancia de la velocidad de la luz en el vacío, es decir, que la velocidad de la luz tiene el mismo valor (3 × 1010 centímetros por segundo [cm/seg], o 2 × 105 millas por segundo [millas/seg]) para todos los observadores inerciales, independientemente de su movimiento con respecto a la fuente de luz. Evidentemente, esta segunda premisa es incompatible con los preceptos euclidianos y newtonianos de espacio absoluto y tiempo absoluto, lo que dio lugar a un programa que fusionaba el espacio y el tiempo en una única estructura, con las consecuencias conocidas. La estructura espacio-temporal de la relatividad especial suele llamarse “plana” porque, entre otras cosas, la propagación de los fotones se representa fácilmente en una hoja de papel cuadriculado plana con cuadrados de igual tamaño. Dejemos que cada marca en el eje vertical represente un año-luz (9,46 × 1017 cm [5,88 × 1012 millas]) de distancia en la dirección del vuelo del fotón, y que cada marca en el eje horizontal represente el paso de un año (3,16 × 107 segundos) de tiempo. La trayectoria de propagación del fotón es entonces una línea de 45° porque vuela un año-luz en un año (con respecto a las mediciones de espacio y tiempo de todos los observadores inerciales sin importar la velocidad a la que se mueven con respecto al fotón).

El principio de equivalencia de la relatividad general permite que la estructura espacio-temporal localmente plana de la relatividad especial se deforme por la gravitación, de modo que (en el caso cosmológico) la propagación del fotón a lo largo de miles de millones de años luz ya no puede trazarse en una hoja de papel globalmente plana. Ciertamente, la curvatura del papel puede no ser aparente cuando se examina sólo un pequeño trozo, dando así la impresión local de que el espacio-tiempo es plano (es decir, satisface la relatividad especial). Sólo cuando se examina el papel cuadriculado de forma global, se observa que está curvado (es decir, que satisface la relatividad general).

En el modelo del universo de Einstein de 1917, la curvatura se produce sólo en el espacio, con el papel cuadriculado enrollado en un cilindro sobre su lado, un bucle alrededor del cilindro en tiempo constante que tiene una circunferencia de 2πR-la extensión espacial total del universo. Nótese que el “radio del universo” se mide en una “dirección” perpendicular a la superficie espacio-temporal del papel cuadriculado. Dado que el eje espacial anillado corresponde a una de las tres dimensiones del mundo real (cualquiera servirá, ya que todas las direcciones son equivalentes en un modelo isotrópico), el radio del universo existe en una cuarta dimensión espacial (no el tiempo) que no forma parte del mundo real. Esta cuarta dimensión espacial es un artificio matemático introducido para representar en forma de diagrama la solución (en este caso) de ecuaciones para un espacio tridimensional curvo que no necesita referirse a otras dimensiones que no sean las tres físicas. Los fotones que viajan en línea recta en cualquier dirección física tienen trayectorias que van en diagonal (en ángulos de 45° con respecto a los ejes del espacio y del tiempo) de esquina a esquina de cada pequeña celda cuadrada de la cuadrícula espacio-temporal; así, describen trayectorias helicoidales en la superficie cilíndrica del papel cuadriculado, dando una vuelta tras recorrer una distancia espacial 2πR. En otras palabras, volando siempre hacia delante, los fotones volverían al punto de partida tras recorrer una distancia finita sin llegar nunca a un borde o límite. La distancia al “otro lado” del universo es, por tanto, πR, y estaría en todas y cada una de las direcciones; el espacio estaría cerrado sobre sí mismo.

Ahora bien, salvo por analogía con la superficie bidimensional cerrada de una esfera que está uniformemente curvada hacia un centro en una tercera dimensión que no se encuentra en ninguna parte de la superficie bidimensional, ninguna criatura tridimensional puede visualizar un volumen tridimensional cerrado que esté uniformemente curvado hacia un centro en una cuarta dimensión que no se encuentra en ninguna parte del volumen tridimensional. Sin embargo, las criaturas tridimensionales podrían descubrir la curvatura de su mundo tridimensional realizando experimentos de prospección de suficiente alcance espacial. Podrían dibujar círculos, por ejemplo, fijando con tachuelas un extremo de una cuerda y trazando a lo largo de un único plano el lugar descrito por el otro extremo cuando la cuerda se mantiene siempre tensa en medio (una línea recta) y es recorrida por un topógrafo. En el universo de Einstein, si la cuerda fuera corta en comparación con la cantidad R, la circunferencia del círculo dividida por la longitud de la cuerda (el radio del círculo) sería casi igual a 2π = 6,2837853…, engañando así a las criaturas tridimensionales para que piensen que la geometría euclidiana ofrece una descripción correcta de su mundo. Sin embargo, la relación entre la circunferencia y la longitud de la cuerda sería inferior a 2π cuando la longitud de la cuerda fuera comparable a R. De hecho, si se pudiera tirar de una cuerda de longitud πR hasta la antípoda de un universo con curvatura positiva, la relación sería cero. En pocas palabras, en el extremo tensado la cuerda podría verse barriendo un gran arco en el cielo desde el horizonte hasta el horizonte y viceversa; sin embargo, para hacer que la cuerda haga esto, el topógrafo en el otro extremo sólo necesita caminar alrededor de un círculo de circunferencia desvanecidamente pequeña.

Para entender por qué la gravitación puede curvar el espacio (o, más generalmente, el espacio-tiempo) de formas tan sorprendentes, considere el siguiente experimento mental, concebido originalmente por Einstein. Imaginemos un ascensor en el espacio libre que acelera hacia arriba, desde el punto de vista de una mujer en el espacio inercial, a una velocidad numéricamente igual a g, el campo gravitatorio en la superficie de la Tierra. Dejemos que este ascensor tenga ventanas paralelas en dos lados y que la mujer dirija un breve pulso de luz hacia las ventanas. Verá que los fotones entran cerca de la parte superior de la ventana cercana y salen cerca de la parte inferior de la ventana lejana, porque el ascensor se ha acelerado hacia arriba en el intervalo que la luz tarda en recorrer el ascensor. Para ella, los fotones viajan en línea recta, y es simplemente la aceleración del ascensor la que ha hecho que las ventanas y el suelo del ascensor se curven hacia arriba en la trayectoria de vuelo de los fotones.

Supongamos ahora que un hombre se encuentra en el interior del ascensor. Como el suelo del ascensor le acelera hacia arriba a una velocidad g, puede pensar -si decide considerarse inmóvil- que está parado en la superficie de la Tierra y que es atraído hacia el suelo por su campo gravitatorio g. En efecto, de acuerdo con el principio de equivalencia, sin mirar por las ventanas (el exterior no forma parte de su entorno local), no puede realizar ningún experimento local que le informe de lo contrario. Dejemos que la mujer emita su pulso de luz. El hombre ve, al igual que la mujer, que los fotones entran cerca del borde superior de una ventana y salen cerca del borde inferior de la otra. Y al igual que la mujer, sabe que los fotones se propagan en línea recta en el espacio libre. (Por el principio de relatividad, deben coincidir en las leyes de la física si ambos son observadores inerciales). Sin embargo, como realmente ve que los fotones siguen una trayectoria curvada con respecto a él, concluye que deben estar curvados por la fuerza de la gravedad. La mujer trata de decirle que no existe tal fuerza; él no es un observador inercial. Sin embargo, tiene la solidez de la Tierra bajo sus pies, así que insiste en atribuir su aceleración a la fuerza de la gravedad. Según Einstein, ambos tienen razón. No es necesario distinguir localmente entre la aceleración y la gravedad: ambas son, en cierto sentido, equivalentes. Pero si es así, entonces debe ser cierto que la gravedad -la “verdadera” gravedad- puede curvar la luz. Y, efectivamente, puede hacerlo, como han demostrado muchos experimentos desde la primera discusión de Einstein sobre el fenómeno.

El genio de Einstein fue incluso más allá. En lugar de hablar de que la fuerza de la gravitación ha doblado los fotones en una trayectoria curva, ¿no sería más fructífero pensar que los fotones siempre vuelan en línea recta -en el sentido de que una línea recta es la distancia más corta entre dos puntos- y que lo que realmente ocurre es que la gravitación dobla el espacio-tiempo? En otras palabras, tal vez la gravitación sea un espacio-tiempo curvado, y los fotones vuelan a lo largo de las trayectorias más cortas posibles en este espacio-tiempo curvado, dando así la apariencia de estar doblados por una “fuerza” cuando uno insiste en pensar que el espacio-tiempo es plano. La utilidad de adoptar este enfoque es que se convierte en automático que todos los cuerpos de prueba caen a la misma velocidad bajo la “fuerza” de la gravitación, ya que simplemente están produciendo sus trayectorias naturales en un espacio-tiempo de fondo que está curvado de cierta manera independiente de los cuerpos de prueba. Lo que para Galileo y Newton era un pequeño milagro se convierte en lo más natural del mundo para Einstein.

Para completar el programa y ajustarse a la teoría de la gravitación de Newton en el límite de la curvatura débil (campo débil), la fuente de la curvatura del espacio-tiempo tendría que atribuirse a la masa (y a la energía). La expresión matemática de estas ideas constituye la teoría de la relatividad general de Einstein, uno de los más bellos artefactos de pensamiento puro jamás producidos.
Obsérvese, pues, que la visión del mundo de Einstein no es una mera modificación cuantitativa de la imagen de Newton (que también es posible por una vía equivalente utilizando los métodos de la teoría cuántica de campos), sino que representa un cambio cualitativo de perspectiva. Y los experimentos modernos han justificado ampliamente la fecundidad de la interpretación alternativa de Einstein de la gravitación como geometría y no como fuerza. Su teoría habría encantado sin duda a los griegos.

Cosmologías relativistas

El modelo de Einstein

Para derivar su modelo cosmológico de 1917, Einstein hizo tres suposiciones que quedaban fuera del alcance de sus ecuaciones. La primera fue suponer que el universo es homogéneo e isótropo en lo grande (es decir, igual en todas partes por término medio en cualquier instante del tiempo), una suposición que el astrofísico inglés Edward A. Milne elevó más tarde a toda una perspectiva filosófica al denominarla principio cosmológico. Dado el éxito de la revolución copernicana, esta perspectiva es natural. El propio Newton lo tenía implícitamente en mente cuando asumió que el estado inicial del universo era el mismo en todas partes antes de que se desarrollara “ye Sun and Fixt stars”.

La segunda suposición fue suponer que este universo homogéneo e isótropo tenía una geometría espacial cerrada. Como se ha descrito anteriormente, el volumen total de un espacio tridimensional con curvatura positiva uniforme sería finito, pero no tendría bordes ni límites (para ser coherente con la primera suposición).

La tercera suposición de Einstein era que el universo en su conjunto es estático, es decir, que sus propiedades a gran escala no varían con el tiempo. Esta suposición, hecha antes del descubrimiento observacional de Hubble sobre la expansión del universo, también era natural; era el enfoque más sencillo, como había descubierto Aristóteles, si se quiere evitar la discusión sobre un evento de creación. De hecho, el atractivo filosófico de la noción de que el universo, en promedio, no sólo es homogéneo e isotrópico en el espacio, sino también constante en el tiempo, era tan atractivo que una escuela de cosmólogos ingleses -Hermann Bondi, Fred Hoyle y Thomas Gold- lo llamaría el principio cosmológico perfecto y llevaría sus implicaciones en la década de 1950 hasta el último refinamiento en la llamada teoría del estado estacionario.

Para su gran disgusto, Einstein descubrió en 1917 que, con sus tres supuestos adoptados, sus ecuaciones de la relatividad general -tal y como estaban escritas originalmente- no tenían soluciones significativas. Para obtener una solución, Einstein se dio cuenta de que tenía que añadir a sus ecuaciones un término adicional, que vino a llamarse la constante cosmológica. Si se habla en términos newtonianos, la constante cosmológica podría interpretarse como una fuerza repulsiva de origen desconocido que podría equilibrar exactamente la atracción de la gravitación de toda la materia en el universo cerrado de Einstein e impedir su movimiento. Sin embargo, la inclusión de dicho término en un contexto más general significaba que el universo en ausencia de cualquier masa-energía (es decir, consistente en el vacío) no tendría una estructura espacio-temporal que fuera plana (es decir, no habría satisfecho exactamente los dictados de la relatividad especial). Einstein sólo estaba dispuesto a hacer ese sacrificio a regañadientes y, cuando más tarde se enteró del descubrimiento de la expansión del universo por parte de Hubble y se dio cuenta de que podría haberlo predicho si hubiera tenido más fe en la forma original de sus ecuaciones, lamentó la introducción de la constante cosmológica como el “mayor error” de su vida. Irónicamente, las observaciones de supernovas lejanas han demostrado la existencia de la energía oscura, una fuerza repulsiva que es el componente dominante del universo.

El modelo de De Sitter

Fue también en 1917 cuando el astrónomo holandés Willem de Sitter reconoció que podía obtener un modelo cosmológico estático que difería del de Einstein simplemente eliminando toda la materia. La solución permanece estacionaria esencialmente porque no hay materia que se mueva. Si se reintroducen algunas partículas de prueba en el modelo, el término cosmológico las impulsaría a alejarse unas de otras. Los astrónomos empezaron a preguntarse si este efecto no podría subyacer a la recesión de las galaxias espirales.

Los modelos de Friedmann-Lemaître

En 1922 Aleksandr A. Friedmann, meteorólogo y matemático ruso, y en 1927 Georges Lemaître, clérigo belga, descubrieron de forma independiente soluciones a las ecuaciones de Einstein que contenían cantidades realistas de materia. Estos modelos evolutivos se corresponden con las cosmologías del Big Bang. Friedmann y Lemaître adoptaron el supuesto de Einstein de homogeneidad espacial e isotropía (el principio cosmológico). Sin embargo, rechazaron su suposición de la independencia del tiempo y consideraron tanto los espacios con curvatura positiva (universos “cerrados”) como los espacios con curvatura negativa (universos “abiertos”). La diferencia entre los planteamientos de Friedmann y Lemaître es que el primero fijó la constante cosmológica en cero, mientras que el segundo mantuvo la posibilidad de que tuviera un valor distinto de cero. Para simplificar la discusión, aquí sólo se consideran los modelos de Friedmann.

La decisión de abandonar un modelo estático significa que los modelos de Friedmann evolucionan con el tiempo. Así, los trozos de materia cercanos tienen fases de recesión (o contracción) cuando se separan (o se acercan) unos a otros con una velocidad aparente que aumenta linealmente con el incremento de la distancia. Los modelos de Friedmann se anticiparon así a la ley de Hubble antes de que ésta se formulara sobre una base observacional. Sin embargo, fue Lemaître quien tuvo la suerte de derivar los resultados en el momento en que la recesión de las galaxias se reconocía como una observación cosmológica fundamental, y fue él quien aclaró la base teórica del fenómeno.

La geometría del espacio en los modelos cerrados de Friedmann es similar a la del modelo original de Einstein; sin embargo, existe una curvatura en el tiempo además de una en el espacio. A diferencia del modelo de Einstein, en el que el tiempo transcurre eternamente en cada punto espacial en una línea horizontal ininterrumpida que se extiende infinitamente hacia el pasado y el futuro, en la versión de Friedmann de un universo cerrado hay un principio y un final del tiempo cuando la materia se expande o se recomprime hasta densidades infinitas. Estos instantes se denominan instantes del “big bang” y del “big squeeze”, respectivamente. El diagrama espacio-temporal global para la mitad de las fases de expansión-compresión puede representarse como un barril tumbado de lado. El eje espacial corresponde de nuevo a una dirección cualquiera del universo y envuelve el barril. Por cada punto espacial pasa un eje temporal que se extiende a lo largo del barril en su superficie (espacio-temporal). Como el barril está curvado tanto en el espacio como en el tiempo, los pequeños cuadrados de la cuadrícula de la hoja curva de papel cuadriculado que marca la superficie espacio-temporal son de tamaño no uniforme, y se estiran para hacerse más grandes cuando el barril se ensancha (el universo se expande) y se encogen para hacerse más pequeños cuando el barril se estrecha (el universo se contrae).

Hay que recordar que sólo la superficie del barril tiene significado físico; la dimensión fuera de la superficie hacia el eje del barril representa la cuarta dimensión espacial, que no forma parte del mundo real tridimensional. El eje espacial rodea el barril y se cierra sobre sí mismo tras recorrer una circunferencia igual a 2πR, donde R, el radio del universo (en la cuarta dimensión), es ahora una función del tiempo t. En un modelo cerrado de Friedmann, R comienza igual a cero en el tiempo t = 0 (no se muestra en el diagrama del barril), se expande hasta un valor máximo en el tiempo t = tm (la mitad del barril), y se vuelve a contraer a cero (no se muestra) en el tiempo t = 2tm, con el valor de tm dependiente de la cantidad total de masa que existe en el universo.

Imaginemos ahora que las galaxias residen en marcas de tic igualmente espaciadas a lo largo del eje espacial. Cada galaxia, por término medio, no se desplaza espacialmente con respecto a su marca de graduación en la dirección espacial (anular), sino que es arrastrada horizontalmente por la marcha del tiempo. El número total de galaxias en el anillo espacial se conserva a medida que cambia el tiempo y, por tanto, su espaciado medio aumenta o disminuye a medida que aumenta o disminuye la circunferencia total 2πR del anillo (durante las fases de expansión o contracción). Así, sin que en cierto sentido se muevan realmente en la dirección espacial, las galaxias pueden ser arrastradas por la expansión del propio espacio. Desde este punto de vista, la recesión de las galaxias no es una “velocidad” en el sentido habitual de la palabra. Por ejemplo, en un modelo cerrado de Friedmann, podría haber galaxias que comenzaron, cuando R era pequeño, muy cerca del sistema de la Vía Láctea en el lado opuesto del universo. Ahora, 1010 años después, siguen estando en el lado opuesto del universo pero a una distancia mucho mayor que 1010 años luz. Alcanzaron esas distancias sin haber tenido que moverse (en relación con cualquier observador local) a velocidades superiores a la de la luz; de hecho, en cierto sentido, sin haber tenido que moverse en absoluto. La velocidad de separación de las galaxias cercanas puede pensarse como una velocidad sin confusión en el sentido de la ley de Hubble, si se quiere, pero sólo si la velocidad inferida es mucho menor que la velocidad de la luz.

Por otra parte, si la recesión de las galaxias no se ve en términos de una velocidad, entonces el corrimiento al rojo cosmológico no puede verse como un desplazamiento Doppler. ¿Cómo surge entonces? La respuesta está contenida en el diagrama de barril cuando se observa que, a medida que el universo se expande, cada pequeña celda de la red espacio-temporal también se expande. Consideremos la propagación de una radiación electromagnética cuya longitud de onda abarca inicialmente exactamente una longitud de celda (para simplificar la discusión), de modo que su cabeza se encuentra en un vértice y su cola en un vértice posterior. Supongamos que una galaxia elíptica emite una onda de este tipo en un momento t1. La cabeza de la onda se propaga de esquina a esquina en las pequeñas cuadrículas que parecen localmente planas, y la cola se propaga de esquina a esquina un vértice hacia atrás. En un momento posterior t2, una galaxia en espiral comienza a interceptar la cabeza de la onda. En el momento t2, la cola sigue estando un vértice más atrás y, por tanto, el tren de ondas, que sigue conteniendo una longitud de onda, abarca ahora un espacio de rejilla actual. En otras palabras, la longitud de onda ha crecido en proporción directa al factor de expansión lineal del universo. Dado que la misma conclusión se habría mantenido si hubieran intervenido n longitudes de onda en lugar de una, toda la radiación electromagnética procedente de un objeto dado mostrará el mismo corrimiento al rojo cosmológico si el universo (o, equivalentemente, el espaciado medio entre galaxias) era menor en la época de transmisión que en la de recepción. Cada longitud de onda se habrá estirado en proporción directa a la expansión del universo entre ambas.

Una velocidad peculiar no nula para una galaxia emisora con respecto a su marco cosmológico local puede tenerse en cuenta mediante el desplazamiento Doppler de los fotones emitidos antes de aplicar el factor de corrimiento al rojo cosmológico; es decir, el corrimiento al rojo observado sería un producto de dos factores. Cuando el corrimiento al rojo observado es grande, se suele suponer que la contribución dominante es de origen cosmológico. Cuando esta suposición es válida, el corrimiento al rojo es una función monótona tanto de la distancia como del tiempo durante la fase de expansión de cualquier modelo cosmológico. Así, los astrónomos suelen utilizar el corrimiento al rojo z como indicador abreviado tanto de la distancia como del tiempo transcurrido. A partir de esto, la afirmación “el objeto X se encuentra en z = a” significa que “el objeto X se encuentra a una distancia asociada al corrimiento al rojo a”; la afirmación “el evento Y ocurrió en el corrimiento al rojo z = b” significa que “el evento Y ocurrió hace un tiempo asociado al corrimiento al rojo b”.

Los modelos abiertos de Friedmann difieren de los modelos cerrados tanto en su comportamiento espacial como temporal. En un universo abierto el volumen total del espacio y el número de galaxias que contiene son infinitos. La geometría espacial tridimensional es de curvatura negativa uniforme en el sentido de que, si se dibujan círculos con longitudes de cuerda muy grandes, la relación entre las circunferencias y las longitudes de cuerda son mayores que 2π. La historia temporal comienza de nuevo con la expansión a partir de un big bang de densidad infinita, pero ahora la expansión continúa indefinidamente, y la densidad media de la materia y la radiación en el universo acabaría por volverse desvanecidamente pequeña. El tiempo en este modelo tiene un principio pero no un final.

El universo de Einstein-de Sitter

En 1932, Einstein y de Sitter propusieron que la constante cosmológica se fijara en cero, y derivaron un modelo homogéneo e isótropo que proporciona el caso de separación entre los modelos cerrado y abierto de Friedmann; es decir, Einstein y de Sitter asumieron que la curvatura espacial del universo no es ni positiva ni negativa, sino nula. La geometría espacial del universo de Einstein-de Sitter es euclidiana (volumen total infinito), pero el espacio-tiempo no es globalmente plano (es decir, no es exactamente el espacio-tiempo de la relatividad especial). El tiempo comienza de nuevo con un big bang y las galaxias retroceden para siempre, pero la tasa de recesión (la “constante” de Hubble) llega asintóticamente a cero a medida que el tiempo avanza hacia el infinito. Dado que la geometría del espacio y las propiedades evolutivas gruesas están definidas de forma única en el modelo de Einstein-de Sitter, muchas personas con inclinación filosófica lo consideraron durante mucho tiempo el candidato más adecuado para describir el universo real.

Universos ligados y no ligados y la densidad de cierre

Los diferentes comportamientos de separación de las galaxias a grandes escalas de tiempo en los modelos cerrados y abiertos de Friedmann y en el modelo de Einstein-de Sitter permiten un esquema de clasificación diferente al basado en la estructura global del espacio-tiempo. La forma alternativa de ver las cosas es en términos de sistemas gravitacionales ligados y no ligados: los modelos cerrados en los que las galaxias se separan inicialmente pero luego vuelven a juntarse representan universos ligados; los modelos abiertos en los que las galaxias continúan separándose para siempre representan universos no ligados; el modelo de Einstein-de Sitter en el que las galaxias se separan para siempre pero se detienen lentamente en el tiempo infinito representa el caso crítico.

La ventaja de esta visión alternativa es que centra la atención en las magnitudes locales en las que es posible pensar en los términos más sencillos de la física newtoniana: las fuerzas de atracción, por ejemplo. En esta imagen, resulta intuitivo que la característica que debería distinguir si la gravedad es capaz o no de detener una determinada tasa de expansión depende de la cantidad de masa (por unidad de volumen) presente. En efecto, así es; los formalismos newtoniano y relativista dan el mismo criterio para la densidad crítica, o de cierre (en masa equivalente de materia y radiación) que separa los universos cerrados o ligados de los abiertos o no ligados. Si la constante de Hubble en la época actual se denota como H0, entonces la densidad de cierre (correspondiente a un modelo de Einstein-de Sitter) es igual a 3H02/8πG, donde G es la constante gravitacional universal tanto en la teoría de la gravedad de Newton como en la de Einstein. El valor numérico de la constante de Hubble H0 es de 22 kilómetros por segundo por millón de años luz; la densidad de cierre es entonces igual a 10-29 gramos por centímetro cúbico, el equivalente a unos seis átomos de hidrógeno de media por metro cúbico de espacio cósmico. Si la media cósmica real es mayor que este valor, el universo está ligado (cerrado) y, aunque actualmente se está expandiendo, terminará en un aplastamiento de proporciones inimaginables. Si es menor, el universo está sin límites (abierto) y se expandirá para siempre. El resultado es intuitivamente plausible, ya que cuanto menor sea la densidad de masa, menor será el papel de la gravitación, por lo que el universo se acercará más a la expansión libre (suponiendo que la constante cosmológica sea cero).

Se estima que la masa de las galaxias observada directamente, cuando se promedia sobre las distancias cosmológicas, es sólo un pequeño porcentaje de la cantidad necesaria para cerrar el universo. La cantidad contenida en el campo de radiación (la mayor parte de la cual se encuentra en el fondo cósmico de microondas) contribuye de forma insignificante al total en la actualidad. Si esto fuera todo, el universo estaría abierto y sin límites. Sin embargo, la materia oscura que se ha deducido a partir de varios argumentos dinámicos es aproximadamente el 23% del universo, y la energía oscura aporta la cantidad restante, lo que hace que la densidad de masa media total alcance el 100% de la densidad de cierre.

El big bang caliente

Dada la temperatura de radiación medida de 2.735 kelvins (K), se puede demostrar que la densidad de energía del fondo cósmico de microondas es unas 1.000 veces menor que la densidad de energía en reposo media de la materia ordinaria del universo. Por tanto, el universo actual está dominado por la materia. Si se retrocede en el tiempo hasta el corrimiento al rojo z, las densidades numéricas medias de las partículas y los fotones eran ambas mayores por el mismo factor (1 + z)3 porque el universo estaba más comprimido por este factor, y la relación de estos dos números habría mantenido su valor actual de aproximadamente un núcleo de hidrógeno, o protón, por cada 109 fotones. Sin embargo, la longitud de onda de cada fotón era más corta por el factor 1 + z en el pasado que ahora; por lo tanto, la densidad de energía de la radiación aumenta más rápido por un factor de 1 + z que la densidad de energía en reposo de la materia. Así, la densidad de energía de la radiación llega a ser comparable a la densidad de energía de la materia ordinaria a un desplazamiento al rojo de aproximadamente 1.000. A desplazamientos al rojo superiores a 10.000, la radiación habría dominado incluso sobre la materia oscura del universo. Entre estos dos valores, la radiación se habría desacoplado de la materia al recombinarse el hidrógeno. No es posible utilizar fotones para observar corrimientos al rojo superiores a 1.090 aproximadamente, porque el plasma cósmico a temperaturas superiores a 4.000 K es esencialmente opaco antes de la recombinación. Se puede pensar en la superficie esférica como una “fotosfera” invertida del universo observable. Esta superficie esférica de última dispersión tiene probablemente ligeras ondulaciones que explican las ligeras anisotropías observadas hoy en el fondo cósmico de microondas. En cualquier caso, las primeras etapas de la historia del universo -por ejemplo, cuando las temperaturas eran de 109 K y superiores- no pueden ser examinadas por la luz recibida a través de ningún telescopio. Hay que buscar pistas comparando el contenido de materia con los cálculos teóricos.

Para ello, afortunadamente, la evolución cosmológica de los universos modelo es especialmente sencilla y susceptible de ser calculada a desplazamientos al rojo muy superiores a 10.000 (o a temperaturas sustancialmente superiores a 30.000 K), ya que las propiedades físicas del componente dominante, los fotones, son entonces completamente conocidas. En un universo primitivo dominado por la radiación, por ejemplo, la temperatura de radiación T se conoce con mucha precisión en función de la edad del universo, el tiempo t después del big bang.

La nucleosíntesis primordial

Según las consideraciones expuestas anteriormente, en un tiempo t inferior a 10-4 segundos, la creación de pares de materia-antimateria habría estado en equilibrio termodinámico con el campo de radiación ambiental a una temperatura T de unos 1012 K. Sin embargo, había un ligero exceso de partículas de materia (por ejemplo, protones) en comparación con las de antimateria (por ejemplo, antiprotones) de aproximadamente unas partes en 109. Esto se sabe porque, a medida que el universo envejecía y se expandía, la temperatura de la radiación habría bajado y cada antiprotón y cada antineutrón se habrían aniquilado con un protón y un neutrón para dar dos rayos gamma; y más tarde cada antielectrón habría hecho lo mismo con un electrón para dar dos rayos gamma más. Después de la aniquilación, sin embargo, la relación entre el número de protones y fotones restantes se conservaría en la expansión posterior hasta el día de hoy. Como se sabe que esa relación es de una parte por 109, es fácil calcular que la asimetría original entre materia y antimateria debe haber sido de unas pocas partes por 109.

En cualquier caso, después de la aniquilación protón-antiprotón y neutrón-antineutrón, pero antes de la aniquilación electrón-antielectrón, es posible calcular que por cada exceso de neutrón había unos cinco protones en exceso en equilibrio termodinámico entre sí a través de las interacciones neutrino y antineutrino a una temperatura de unos 1010 K. Cuando el universo alcanzó una edad de unos pocos segundos, la temperatura habría descendido significativamente por debajo de 1010 K, y se habría producido la aniquilación electrón-antielectrón, liberando a los neutrinos y antineutrinos para que fluyeran libremente por el universo. Sin reacciones neutrino-antineutrino para reponer su suministro, los neutrones habrían empezado a decaer con una vida media de 10,6 minutos en protones y electrones (y antineutrinos). Sin embargo, a una edad de 1,5 minutos, mucho antes de que la desintegración de neutrones llegara a su fin, la temperatura habría descendido a 109 K, lo suficientemente baja como para permitir que los neutrones fueran capturados por protones para formar un núcleo de hidrógeno pesado, o deuterio. (Antes de ese momento, la reacción aún podría haber tenido lugar, pero el núcleo de deuterio se habría roto inmediatamente bajo las altas temperaturas reinantes). Una vez formado el deuterio, se inició una cadena de reacciones muy rápidas que ensamblaron rápidamente la mayoría de los neutrones y los núcleos de deuterio con protones para dar lugar a núcleos de helio. Si se ignora la desintegración de los neutrones, una mezcla original de 10 protones y dos neutrones (un neutrón por cada cinco protones) se habría reunido en un núcleo de helio (dos protones más dos neutrones), dejando más de ocho protones (ocho núcleos de hidrógeno). Esto equivale a una fracción de masa de helio de 4/12 = 1/3, es decir, el 33%. Un cálculo más sofisticado que tiene en cuenta la desintegración simultánea de los neutrones y otras complicaciones da como resultado una fracción de masa de helio cercana al 25% y una fracción de masa de hidrógeno del 75%, que se aproximan a los valores primordiales deducidos de las observaciones astronómicas. Este acuerdo constituye uno de los principales éxitos de la teoría del Big Bang caliente.

La abundancia de deuterio

No todo el deuterio formado por la captura de neutrones por protones reaccionaría posteriormente para producir helio. Cabe esperar que quede un pequeño residuo, cuya fracción exacta depende sensiblemente de la densidad de la materia ordinaria existente en el universo cuando éste tenía unos minutos de vida. Se puede dar la vuelta al problema: dados los valores medidos de la abundancia de deuterio (corregidos por diversos efectos), ¿qué densidad de materia ordinaria tiene que estar presente a una temperatura de 109 K para que los cálculos de la reacción nuclear reproduzcan la abundancia de deuterio medida? La respuesta es conocida, y esta densidad de materia ordinaria puede ampliarse mediante simples relaciones de escala desde una temperatura de radiación de 109 K hasta una de 2,735 K. Así se obtiene una densidad actual prevista de materia ordinaria que puede compararse con la densidad que se infiere que existe en las galaxias cuando se promedia en grandes regiones. Ambas cifras se encuentran en un factor de unos pocos entre sí. En otras palabras, el cálculo del deuterio implica que gran parte de la materia ordinaria del universo ya se ha visto en las galaxias observables. La materia ordinaria no puede ser la masa oculta del universo.

El universo muy temprano

Nucleosíntesis inhomogénea

Una posible modificación se refiere a los modelos de la llamada nucleosíntesis inhomogénea. La idea es que en el universo primitivo (el primer microsegundo) las partículas subnucleares que más tarde constituyeron los protones y los neutrones existían en estado libre como plasma de quark-gluones. A medida que el universo se expandía y se enfriaba, este plasma de quarks-gluones sufría una transición de fase y se reducía a protones y neutrones (tres quarks cada uno). En los experimentos de laboratorio de transiciones de fase similares -por ejemplo, la solidificación de un líquido en un sólido- en los que intervienen dos o más sustancias, el estado final puede contener una distribución muy desigual de las sustancias constituyentes, un hecho aprovechado por la industria para purificar ciertos materiales. Algunos astrofísicos han propuesto que una separación parcial similar de neutrones y protones puede haber ocurrido en el universo primitivo. Las bolsas locales en las que abundaban los protones podían tener pocos neutrones y viceversa en las que abundaban los neutrones. Las reacciones nucleares pueden entonces haber ocurrido de forma mucho menos eficiente por núcleo de protones y neutrones de lo que se explica en los cálculos estándar, y la densidad media de la materia puede aumentar en consecuencia -quizás incluso hasta el punto de que la materia ordinaria pueda cerrar el universo actual. Desgraciadamente, los cálculos realizados según la hipótesis inhomogénea parecen indicar que las condiciones que conducen a las proporciones correctas de deuterio y helio-4 producen demasiado litio-7 primordial para ser compatibles con las mediciones de las composiciones atmosféricas de las estrellas más antiguas.

Asimetría materia-antimateria

Una cifra curiosa que apareció en la discusión anterior fue la asimetría de unas pocas partes en 109 inicialmente entre la materia y la antimateria (o lo que es lo mismo, la proporción 10-9 de protones y fotones en el universo actual). ¿Cuál es el origen de un número tan cercano a cero pero no exactamente cero?

En un tiempo, la pregunta planteada anteriormente se habría considerado fuera del alcance de la física, porque se pensaba que el número neto de “bariones” (a efectos actuales, protones y neutrones menos antiprotones y antineutrones) era una cantidad conservada. Por tanto, una vez que existe, siempre existe, en el pasado y en el futuro indefinidos. Sin embargo, los avances en la física de partículas durante la década de 1970 sugirieron que el número neto de bariones puede sufrir alteraciones. Ciertamente, se mantiene prácticamente en las energías relativamente bajas accesibles en los experimentos terrestres, pero puede que no se conserve en las energías casi arbitrariamente altas con las que las partículas pueden haber sido dotadas en el universo primitivo.

Se puede establecer una analogía con los elementos químicos. En el siglo XIX, la mayoría de los químicos creían que los elementos eran cantidades estrictamente conservadas; aunque los átomos de oxígeno e hidrógeno pueden combinarse para formar moléculas de agua, los átomos originales de oxígeno e hidrógeno siempre pueden recuperarse por medios químicos o físicos. Sin embargo, en el siglo XX, con el descubrimiento y la elucidación de las fuerzas nucleares, los químicos se dieron cuenta de que los elementos se conservan si están sometidos únicamente a fuerzas químicas (de origen básicamente electromagnético); pueden transmutarse mediante la introducción de fuerzas nucleares, que entran característicamente sólo cuando se dispone de energías por partícula mucho más altas que en las reacciones químicas.

De manera similar resulta que a energías muy altas pueden entrar nuevas fuerzas de la naturaleza para transmutar el número neto de bariones. Un indicio de que tal transmutación puede ser posible reside en el hecho notable de que un protón y un electrón parecen a primera vista entidades completamente diferentes, y sin embargo tienen, por lo que se puede decir con una precisión experimental muy alta, cargas eléctricas exactamente iguales pero opuestas. ¿Es esto una fantástica coincidencia o representa una profunda conexión física? Es evidente que existe una conexión si se puede demostrar, por ejemplo, que un protón es capaz de descomponerse en un positrón (un antielectrón) y en partículas eléctricamente neutras. Si esto fuera posible, el protón tendría necesariamente la misma carga que el positrón, ya que la carga se conserva exactamente en todas las reacciones. A su vez, el positrón tendría necesariamente la carga opuesta al electrón, ya que es su antipartícula. De hecho, en cierto sentido, puede decirse que el protón (un barión) no es más que la versión “excitada” de un antielectrón (un “antileptón”).

Motivados por esta línea de razonamiento, los físicos experimentales buscaron con ahínco durante la década de 1980 pruebas de la desintegración del protón. No encontraron ninguna y establecieron un límite inferior de 1032 años para la vida del protón si es inestable. Este valor es mayor que lo que los físicos teóricos habían predicho originalmente sobre la base de los primeros esquemas de unificación de las fuerzas de la naturaleza. Las versiones posteriores pueden acomodar los datos y seguir permitiendo que el protón sea inestable. A pesar de que los experimentos de desintegración de protones no fueron concluyentes, algunos de los aparatos acabaron teniendo un buen uso astronómico. Se convirtieron en detectores de neutrinos y proporcionaron una valiosa información sobre el problema de los neutrinos solares, además de proporcionar los primeros registros positivos de neutrinos procedentes de la explosión de una supernova (concretamente, la supernova 1987A).

Con respecto al problema cosmológico de la asimetría materia-antimateria, un enfoque teórico se basa en la idea de una gran teoría unificada (GUT), que pretende explicar las fuerzas electromagnética, nuclear débil y nuclear fuerte como una única gran fuerza de la naturaleza. Este enfoque sugiere que una colección inicial de partículas muy pesadas, con un número de bariones y leptones nulo, puede decaer en muchas partículas más ligeras (bariones y leptones) con la media deseada para el número neto de bariones (y el número neto de leptones) de unas pocas partes por 109. Se supone que este acontecimiento se produjo en un momento en el que el universo tenía quizás 10-35 segundos de antigüedad.

Otro enfoque para explicar la asimetría se basa en el proceso de violación del CP, o violación de las leyes de conservación combinadas asociadas con la conjugación de cargas (C) y la paridad (P) por parte de la fuerza débil, que es responsable de reacciones como la desintegración radiactiva de los núcleos atómicos. La conjugación de la carga implica que cada partícula cargada tiene una contraparte de antimateria con carga opuesta, o antipartícula. La conservación de la paridad significa que la izquierda y la derecha y el arriba y el abajo son indistinguibles en el sentido de que un núcleo atómico emite productos de desintegración hacia arriba con la misma frecuencia que hacia abajo y hacia la izquierda con la misma frecuencia que hacia la derecha. Con una serie de suposiciones discutibles pero plausibles, se puede demostrar que el desequilibrio o asimetría observada en la relación materia-antimateria puede haberse producido por la ocurrencia de la violación CP en los primeros segundos después del big bang. Se espera que la violación CP sea más prominente en la desintegración de las partículas conocidas como mesones B. En 2010, los científicos del Laboratorio Nacional de Aceleradores Fermi, en Batavia (Illinois), detectaron finalmente una ligera preferencia de los mesones B por decaer en muones en lugar de antimuones.

La superunificación y la era de Planck

¿Por qué una fracción neta de bariones inicialmente nula debería ser más atractiva estéticamente que 10-9? La motivación subyacente es quizás la empresa más ambiciosa que se ha intentado en la historia de la ciencia: el intento de explicar la creación de todo a partir de la nada. En otras palabras, ¿es posible la creación de todo el universo a partir del vacío?

La prueba de tal acontecimiento reside en otro hecho notable. Se puede estimar que el número total de protones en el universo observable es un número entero de 80 dígitos. Por supuesto, nadie conoce los 80 dígitos, pero para el argumento que vamos a presentar, basta con saber que existen. El número total de electrones en el universo observable es también un número entero de 80 cifras. Lo más probable es que estos dos enteros sean iguales, dígito a dígito, si no exactamente, casi. Esta deducción se deriva del hecho de que, según los astrónomos, la carga eléctrica total del universo es cero (de lo contrario, las fuerzas electrostáticas superarían a las gravitacionales). ¿Es otra coincidencia o representa una conexión más profunda? La aparente coincidencia se convierte en algo trivial si todo el universo se creó a partir de un vacío, ya que éste tiene, por definición, una carga eléctrica nula. Es un tópico que no se puede obtener algo a cambio de nada. La cuestión interesante es si se puede obtener todo a cambio de nada. Evidentemente, este es un tema muy especulativo para la investigación científica, y la respuesta definitiva depende de una interpretación sofisticada de lo que significa “nada”.

Las palabras “nada”, “vacío” y “vacío” suelen sugerir un espacio vacío sin interés. Sin embargo, para los físicos cuánticos modernos, el vacío ha resultado ser rico en comportamientos complejos e inesperados. Lo conciben como un estado de energía mínima en el que las fluctuaciones cuánticas, de acuerdo con el principio de incertidumbre del físico alemán Werner Heisenberg, pueden dar lugar a la formación temporal de pares partícula-antipartícula. En el espacio-tiempo plano, la destrucción sigue de cerca a la creación (se dice que los pares son virtuales) porque no hay ninguna fuente de energía que dé al par una existencia permanente. Todas las fuerzas conocidas de la naturaleza que actúan entre una partícula y una antipartícula son atractivas y arrastrarán al par para que se aniquilen mutuamente. Sin embargo, en el espacio-tiempo en expansión del universo primitivo, las partículas y las antipartículas pueden separarse y formar parte del mundo observable. En otras palabras, el espacio-tiempo fuertemente curvado puede dar lugar a la creación de pares reales con masa-energía positiva, un hecho demostrado por primera vez en el contexto de los agujeros negros por el astrofísico inglés Stephen W. Hawking.

Sin embargo, la imagen de Einstein de la gravitación es que la curvatura del espacio-tiempo en sí es una consecuencia de la masa-energía. Ahora bien, si el espacio-tiempo curvado es necesario para dar origen a la masa-energía y si la masa-energía es necesaria para dar origen al espacio-tiempo curvado, ¿qué surgió primero, el espacio-tiempo o la masa-energía? La sugerencia de que ambos surgieron de algo aún más fundamental plantea una nueva pregunta: ¿Qué es más fundamental que el espacio-tiempo y la masa-energía? ¿Qué puede dar lugar tanto a la masa-energía como al espacio-tiempo? Nadie sabe la respuesta a esta pregunta, y tal vez algunos sostengan que la respuesta no debe buscarse dentro de los límites de la ciencia natural.

Hawking y el cosmólogo estadounidense James B. Hartle han propuesto que tal vez sea posible evitar un comienzo del tiempo haciéndolo pasar por imaginario (en el sentido de las matemáticas de los números complejos) en lugar de dejarlo aparecer o desaparecer de repente. Más allá de cierto punto en su esquema, el tiempo puede adquirir la característica de otra dimensión espacial en lugar de referirse a algún tipo de reloj interno. Otra propuesta afirma que, cuando el espacio y el tiempo se acercan a valores suficientemente pequeños (los valores de Planck; véase más adelante), los efectos cuánticos hacen que no tenga sentido atribuir ninguna noción clásica a sus propiedades. El enfoque más prometedor para describir la situación procede de la teoría de las “supercuerdas”.

Las supercuerdas representan un ejemplo de una clase de intentos, clasificados genéricamente como teoría de la superunificación, para explicar las cuatro fuerzas conocidas de la naturaleza -gravitacional, electromagnética, débil y fuerte- sobre una única base unificadora. Todos estos esquemas tienen en común el postulado de que la mecánica cuántica y la relatividad especial subyacen en el marco teórico. Otra característica común es la supersimetría, la noción de que las partículas con valores semienteros del momento angular de espín (fermiones) pueden transformarse en partículas con espines enteros (bosones).

El rasgo distintivo de la teoría de supercuerdas es el postulado de que las partículas elementales no son meros puntos en el espacio, sino que tienen una extensión lineal. La dimensión lineal característica viene dada por una determinada combinación de las tres constantes más fundamentales de la naturaleza: (1) la constante de Planck h (llamada así por el físico alemán Max Planck, fundador de la física cuántica), (2) la velocidad de la luz c, y (3) la constante gravitatoria universal G. La combinación, denominada longitud de Planck (Gh/c3)1/2, equivale aproximadamente a 10-33 cm, mucho más pequeña que las distancias a las que pueden sondearse las partículas elementales en los aceleradores de partículas de la Tierra.

Las energías necesarias para aplastar las partículas a una distancia de una longitud de Planck estaban disponibles en el universo en un tiempo igual a la longitud de Planck dividida por la velocidad de la luz. Este tiempo, llamado tiempo de Planck (Gh/c5)1/2, equivale aproximadamente a 10-43 segundos. En el tiempo de Planck, se cree que la densidad de masa del universo se aproxima a la densidad de Planck, c5/hG2, aproximadamente 1093 gramos por centímetro cúbico. Dentro de un volumen de Planck hay una masa de Planck (hc/G)1/2, aproximadamente 10-5 gramos. Un objeto de tal masa sería un agujero negro cuántico, con un horizonte de sucesos cercano tanto a su propia longitud Compton (distancia sobre la que una partícula es mecánicamente cuántica “borrosa”) como al tamaño del horizonte cósmico en el tiempo de Planck. En estas condiciones extremas, el espacio-tiempo no puede ser tratado como un continuo clásico y debe recibir una interpretación cuántica.

Esto último es el objetivo de la teoría de supercuerdas, que tiene como una de sus características la curiosa noción de que las cuatro dimensiones espacio-temporales (tres dimensiones espaciales más una dimensión temporal) del mundo familiar pueden ser una ilusión. El espacio-tiempo real, de acuerdo con esta imagen, tiene 26 o 10 dimensiones espacio-temporales, pero todas estas dimensiones, excepto las cuatro habituales, están de alguna manera compactadas o enroscadas hasta un tamaño comparable a la escala de Planck. Así, la existencia de estas otras dimensiones ha escapado a la detección. Es de suponer que sólo durante la era de Planck, cuando las cuatro dimensiones espacio-temporales habituales adquieran sus escalas naturales de Planck, se revele plenamente la existencia de algo más fundamental que las ideas habituales de masa-energía y espacio-tiempo. Desgraciadamente, los intentos de deducir algo más cuantitativo o físicamente esclarecedor de la teoría se han empantanado en las intrincadas matemáticas de este difícil tema. En la actualidad, la teoría de supercuerdas sigue siendo más un enigma que una solución.

Inflación

Una de las contribuciones más duraderas de la física de partículas a la cosmología es la predicción de la inflación realizada por el físico estadounidense Alan Guth y otros. La idea básica es que a altas energías la materia se describe mejor mediante campos que por medios clásicos. La contribución de un campo a la densidad de energía (y, por tanto, a la densidad de masa) y a la presión del estado de vacío no tiene por qué ser nula en el pasado, aunque lo sea hoy. Durante la época de la superunificación (era de Planck, 10-43 segundos) o de la gran unificación (era de la GUT, 10-35 segundos), el estado de menor energía para este campo puede haber correspondido a un “falso vacío”, con una combinación de densidad de masa y presión negativa que resulta gravitatoriamente en una gran fuerza de repulsión. En el contexto de la teoría de la relatividad general de Einstein, el falso vacío puede pensarse alternativamente como la aportación de una constante cosmológica unas 10100 veces mayor de lo que puede ser hoy. La fuerza de repulsión correspondiente hace que el universo se infle exponencialmente, duplicando su tamaño aproximadamente una vez cada 10-43 o 10-35 segundos. Tras al menos 85 duplicaciones, la temperatura, que comenzó a 1032 o 1028 K, habría descendido a valores muy bajos, cercanos al cero absoluto. A bajas temperaturas, el verdadero estado de vacío puede tener menor energía que el falso estado de vacío, de forma análoga a como el hielo sólido tiene menor energía que el agua líquida. Por tanto, el sobreenfriamiento del universo puede haber inducido una rápida transición de fase del estado de falso vacío al estado de vacío verdadero, en el que la constante cosmológica es esencialmente cero. La transición habría liberado el diferencial de energía (similar al “calor latente” que libera el agua cuando se congela), que recalienta el universo hasta alcanzar altas temperaturas. De este baño de temperatura y de la energía gravitatoria de la expansión habrían surgido entonces las partículas y antipartículas de las cosmologías del big bang no inflacionario.

La inflación cósmica tiene una serie de propósitos útiles. En primer lugar, el drástico estiramiento durante la inflación aplana cualquier curvatura inicial del espacio, por lo que el universo después de la inflación se parecerá mucho a un universo de Einstein-de Sitter. En segundo lugar, la inflación diluye tanto la concentración de cualquier monopolo magnético que aparezca como “nudo topológico” durante la era GUT que su densidad cosmológica caerá a valores insignificantes y aceptables. Por último, la inflación proporciona un mecanismo para entender la isotropía general del fondo cósmico de microondas porque la materia y la radiación de todo el universo observable estaban en buen contacto térmico (dentro del horizonte de sucesos cósmico) antes de la inflación y, por tanto, adquirieron las mismas características termodinámicas. La inflación rápida llevó a diferentes porciones fuera de sus horizontes de sucesos individuales. Cuando la inflación terminó y el universo se recalentó y reanudó su expansión normal, estas diferentes porciones, a través del paso natural del tiempo, reaparecieron en nuestro horizonte. Y a través de la isotropía observada en el fondo cósmico de microondas, se infiere que siguen teniendo las mismas temperaturas. Por último, las ligeras anisotropías del fondo cósmico de microondas se produjeron debido a las fluctuaciones cuánticas de la densidad de masa. Las amplitudes de estas pequeñas fluctuaciones (adiabáticas) permanecieron independientes de la escala comoving durante el periodo de inflación. Después crecieron gravitatoriamente por un factor constante hasta la era de la recombinación. Los fotones de microondas cósmicos vistos desde la última superficie de dispersión deberían, por tanto, mostrar un espectro de fluctuaciones invariable a escala, que es exactamente lo que observó el satélite Cosmic Background Explorer.

Por muy influyente que haya sido la inflación para guiar el pensamiento cosmológico moderno, no ha resuelto todas las dificultades internas. La más grave se refiere al problema de una “salida airosa”. A menos que el potencial efectivo que describe los efectos del campo inflacionario durante la era GUT corresponda a una colina extremadamente suave (desde cuya cima el universo rueda lentamente en la transición del falso vacío al verdadero vacío), la salida a la expansión normal generará tanta turbulencia e inhomogeneidad (a través de violentas colisiones de “paredes de dominio” que separan las burbujas del verdadero vacío de las regiones del falso vacío) como para hacer inexplicables las pequeñas amplitudes observadas para la anisotropía de la radiación cósmica de fondo de microondas. Disponer de una pendiente lo suficientemente pequeña para el potencial efectivo requiere un grado de ajuste fino que la mayoría de los cosmólogos consideran filosóficamente objetable.

La teoría del estado estacionario y otras cosmologías alternativas
La cosmología del Big Bang, aumentada por las ideas de la inflación, sigue siendo la teoría preferida por casi todos los astrónomos, pero, aparte de las dificultades comentadas anteriormente, no se ha alcanzado ningún consenso sobre el origen en el gas cósmico de las fluctuaciones que se cree que producen las galaxias, cúmulos y supercúmulos observados. La mayoría de los astrónomos interpretarían estas deficiencias como indicaciones de que el desarrollo de la teoría está incompleto, pero es concebible que se necesiten modificaciones importantes.

Uno de los primeros problemas con los que se encontraron los teóricos del Big Bang fue la aparente gran discrepancia entre el tiempo de Hubble y otros indicadores de la edad cósmica. Esta discrepancia se resolvió mediante la revisión de la estimación original de Hubble para H0, que era aproximadamente un orden de magnitud demasiado grande debido a la confusión entre las estrellas variables de la Población I y II y entre las regiones H II y las estrellas brillantes. Sin embargo, la aparente dificultad motivó a Bondi, Hoyle y Gold a ofrecer la teoría alternativa de la cosmología de estado estacionario en 1948.

En ese año, por supuesto, se sabía que el universo estaba en expansión; por tanto, la única forma de explicar una densidad de materia constante (en estado estacionario) era postular la creación continua de materia para compensar la atenuación causada por la expansión cósmica. Este aspecto era físicamente muy poco atractivo para muchas personas, que consciente o inconscientemente preferían que toda la creación se completara prácticamente en un solo instante en el big bang. En la teoría del estado estacionario, la edad media de la materia en el universo es un tercio del tiempo de Hubble, pero cualquier galaxia dada podría ser más vieja o más joven que este valor medio. Por tanto, la teoría del estado estacionario tenía la virtud de hacer predicciones muy específicas, y por esta razón era vulnerable a la refutación observacional.

El primer golpe lo asestó el astrónomo británico Martin Ryle con el recuento de fuentes de radio extragalácticas durante los años cincuenta y sesenta. Estos recuentos utilizaron los mismos métodos comentados anteriormente para los recuentos de estrellas del astrónomo holandés Jacobus Kapteyn y los recuentos de galaxias de Hubble, salvo que se utilizaron radiotelescopios. Ryle encontró más radiogalaxias a grandes distancias de la Tierra de las que pueden explicarse bajo el supuesto de una distribución espacial uniforme sin importar el modelo cosmológico que se asumiera, incluyendo el de estado estacionario. Esto parecía implicar que las radiogalaxias debían evolucionar a lo largo del tiempo en el sentido de que había fuentes más potentes en el pasado (y, por tanto, observables a grandes distancias) que en la actualidad. Esta situación contradice un principio básico de la teoría del estado estacionario, que sostiene que todas las propiedades a gran escala del universo, incluida la población de cualquier subclase de objetos como las radiogalaxias, deben ser constantes en el tiempo.

El segundo golpe llegó en 1965 con el anuncio del descubrimiento de la radiación cósmica de fondo de microondas. Aunque hoy en día tiene pocos adeptos, se considera que la teoría del estado estacionario ha sido una idea útil para el desarrollo del pensamiento cosmológico moderno, ya que estimuló muchos trabajos en este campo.

En varias ocasiones, se han ofrecido otras teorías alternativas como desafíos a la visión predominante del origen del universo en un big bang caliente: la teoría del big bang frío (para explicar la formación de las galaxias), la cosmología simétrica de la materia y la antimateria (para evitar una asimetría entre la materia y la antimateria), la cosmología de G variable (para explicar por qué la constante gravitatoria es tan pequeña), la cosmología de la luz cansada (para explicar el corrimiento al rojo) y la noción de átomos que se encogen en un universo que no se expande (para evitar la singularidad del big bang). La motivación de estas sugerencias es, como se indica en los comentarios entre paréntesis, remediar algún problema percibido en la imagen estándar. Sin embargo, en la mayoría de los casos, el remedio ofrecido es peor que la enfermedad, y ninguna de las alternativas mencionadas ha ganado muchos adeptos. La teoría del big bang caliente ha ascendido a la primacía porque, a diferencia de sus muchos rivales, intenta abordar no hechos individuales aislados sino toda una panoplia de cuestiones cosmológicas. Y, aunque algunos de los resultados buscados siguen siendo difíciles de alcanzar, todavía no se ha descubierto ninguna debilidad evidente.