En Cosmología existen distancias que tienen propiedades características fundamentales, cuyo conocimiento es          indispensable. Se trata de los Horizontes Cosmológicos y otras magnitudes, de las que trataremos en ente ensayo.  

Radio de Hubble. Distancia a la que la velocidad de recesión de una galaxia es igual a la velocidad de la luz. La velocidad de recesión de una galaxia viene dada por la relación v = dr/dt = H r. H es la constante de Hubble y r es la distancia comóvil radial.
Igualando a la velocidad de la luz tenemos que

rH = c/H = 3000 h-1 Mpc, con h = H/100 .

Horizonte de partículas (radio del Universo observable). Distancia a los objetos más lejanos que podemos observar en principio debido al viaje finito de la luz desde el Big Bang. Esos objetos tendrán un desplazamiento al rojo virtualmente infinito. La distancia puede ser definida como la distancia recorrida por la luz c dt amplificada por la expansión del Universo en una cantidad directamente proporcional al cambio del factor de escala a(t0)/a(t) = 1/a(t) = (1+z).

El horizonte de partículas representa el radio del universo observable.

Radio del universo visible. La radiación electromagnética más primitiva que podemos observar, el fondo cósmico de microondas, proviene de la época en la que los electrones se combinaron con protones para formar hidrógeno (a unos 3000 grados) y corresponde a un desplazamiento al rojo de unos 1100, cuando el Universo tenía unos 300000 años de edad.

Horizonte de eventos. Corresponde a la distancia de los objetos más lejanos que podremos observar en un futuro arbitrariamente lejano. El horizonte de eventos separa aquellos objetos en su interior que podremos observar en algún momento, de aquellos objetos que jamás podrán ser observados por hallarse fuera del cono de luz futuro del observador. Los modelos de Universo donde la integral converge tienen un horizonte de eventos característico, donde tmáx es el tiempo de expansión futuro que puede ser infinito o finito (por ejemplo en un Universo donde empieza una fase de contracción) y t0 es la edad del universo en el momento de la observación.

          Veamos las características de estas distancias especiales en diferentes modelos de Universos. Empecemos por un           caso  matemáticamente sencillo (veremos que conceptualmente no lo es tanto):

 

F = p h c A/(480 a4)

siendo h la constante de Planck y c la velocidad de la luz
Esta fuerza minúscula fue medida en 1996 por Steven Lamoreaux dentro de un margen de error del 5% con respecto a la predicción teórica.

  • CMB (Cosmic Microwave Background ó Fondo Cósmico de Microondas)
    • Ecuaciones de campo de la Relatividad General. La Relatividad General es una teoría métrica de la gravedad. Esto significa esencialmente que la gravedad queda caracterizadas por las propiedades geométricas del espacio-tiempo a través de  lo que denominamos el elemento de línea. Este elemento de línea queda a su vez determinado por la distribución de materia y energía. La forma de caracterizar la distribución de materia y energía es mediante un objeto matemático que denominamos tensor de segundo rango energía-impulso (T). Las propiedades geométricas del espacio-tiempo vienen expresadas por una objeto matemático análogo que denominamos tensor de Einstein (G). El Tensor de Einstein es una medida de la curvatura espacio-temporal que no es más que una función del elemento de línea. La ecuación de campo de Einstein puede ser escrita como G = 8 p G T., siendo G la constante de gravitación universal.
  •  
  • En realidad ésta representa un sistema de 10 ecuaciones con diez incognitas. La traducción en lenguaje común de esta ecuación podría ser algo así como: las partículas en caída libre tienden a seguir geodésicas. Estas geodésicas se separan o se alejan con una determinada velocidad que es proporcional a la intensidad de la curvatura (fuerzas de marea) en la dirección perpendicular al movimiento de la partícula. La suma de la intensidad de la curvatura espacio-temporal medida dentro de un volumen pequeño (infinitesimal) en las tres direcciones espaciales, es proporcional a la energía contenida en el interior de dicho volumen más la presión ejercida en cada una de las direcciones espaciales. Afortunadamente la resolución de las ecuaciones de Einstein se simplifican en gran medida debida a propiedades de simetría. En Cosmología, por ejemplo, se utilizan unas soluciones muy simples donde las propiedades de la materia y energía son similares a las de un fluido homogéneo e isótropo caracteriazado sólamente por la densidad y la presión. Estas soluciones denominadas de Friedmann-Robertson-Walker llevan de forma sencilla a un elemento de línea característico de un espacio en expansión y a las ecuaciones de evolución del Universo o ecuación de Friedmann. Más información en The Einstein Field Equations, John Baez home Page,  Kip S. Thorne 1994. Agujeros negros y tiempo curvo. Crítica. 1995 y Wheeler 1990 Un viaje por la gravedad y el espacio-tiempo. Alianza 1994.
    • Electrónvoltio (eV). En Ffísica de partículas, se acostumbra a dar las masas de las partículas en unidades de energía, puesto que existe una relación sencilla entre estas dos magnitudes dada por la más famosa de las ecuaciones de la física, E = mc2. 1 eV es la energía que adquiere un electrón sometido a una diferencia de potencial de un voltio. Por ejemplo, la masa del electón expresada en estas unidades es de 0,51 MeV (megaeV o millones de eV) y la del protón 938.27 MeV.
    • Espectro. Descomposición de la luz en sus diferentes longitudes de onda. Los astrónomos en general no miran por sus telescopios, sino que la luz recogida pasa por un espectrógrafo, que descompone la luz en sus diferentes longitudes de onda, frecuencias o "colores". Cada tipo de átomo o ión puede emitir o absorber determinada longitudes de onda. Por ejemplo, los átomos en las capas "frias" exteriores de una estrella absorben la luz que proviene de regiones interiores de ésta, produciendo líneas oscuras de absorción a través del espectro. Dichas líneas pueden usarse para identificar los átomos que forman la estrella.
    • Flujo. Potencia por unidad de area. Por ejemplo, el flujo de energía procedente del Sol que incide sobre la Tierra es de 1367 Vatios (W) por metro cuadrado de superficie. La potencia total es dividia habitualmente en bandas de frecuencia o bandas de longitud de onda que se mide en W m-2 Hz.
    • Gravedad Conforme. Gravedad conforme es una modificación de la Relatividad General que no afecta a la estructura geométrica básica de la teoría pero sí que se aparta de ésta en cómo la masa-energía afecta a la estructura geómetrica espacio-temporal. En términos aproximados, podemos decir que ésta lleva a bajas energía a un potencial newtoniano del tipo V(r) = -a/r + b r (con a y b constantes), a diferencia de la Relatividad General, que lleva a un potencial del tipo V(r) = -a/r,  que implica una fuerza inversamente proporcional al cuadrado de la distancia.
  • V. Perlick and C. Xu, Astrophys. J., vol. 449, pp. 47-51(1995). muestran que el tipo de métrica propuesta por Mannheim para el Sistema Solar no es la solución que ofrece gravedad conforme para el exterior de una masa definida positivamente como la del Sol. Gravedad conforme no es por tanto una alternativa viable a la TGR en escalas astronómicas. De hecho, parece ser que todas la teorias gravitatorias que derivan de una acción basadas en el cuadrado de la curvatura, sufren el mismo problema, como han mostrado E. Pechlaner and R. Sexl, Comm. Math. Phys., vol 2, pp. 165-175 (1966) y P. Havas, Gen. Rel. Grav., vol. 8, pp. 631-645 (1977). Sin embargo, podrían existir alguna otra Teoría de la Gravedad consistente basada en la métrica de Mannheim y así ajustar las observaciones. El artículo Mannheim, P.D. 1993. Open questions in classical gravity. resulta ciertamente de gran interés. Aguirre y otros 2001 han publicado un interesante artículo donde establecen los test observacionales mínimos que tiene que superar cualquier propuesta de modificación a grandes distancias de la gravedad clásica de Newton-Einstein. Por otro lado White & Kochanek 2001 encuentran ciertas desventajas en las alternativas frente a la materia oscura.
    • Homogeneidad e isotropía. Entendemos por homogeneidad la imposibilidad de distinguir características especiales entre dos volúmenes de espacio diferentes y por isotropía la invarianza de las características del Universo con la dirección en que miremos. ¿Podría existir un Universo homogéneo pero anisótropo?. ¿Y un Uuniverso isótropo pero inhomogéneo?.
    • Luminosidad. Potencia total emitida por una fuente de luz en un determinado rango de frecuencias.
    • MACHO (MAssive Compact Halo Objects)
    • Magnitud. Escala usada por los astrónomos para medir el flujo. Cada 5 unidades de magnitud corresponden a una caída del flujo de 100 veces. Por ejemplo, el Sol tiene una magnitud de -26.5, mientras que Sirio, la estrella más brillante de la noche, tiene magnitud -1.6. Las estrellas más débiles a simple vista tienen una magnitud de 6.
    • Masa de Planck. Masa resultante de la combinación apropiada de las tres constantes fundamentales h (constante de Planck), c (velocidad de la luz) y G (constante de gravitación universal)  (h c/G)1/2 ~1019 GeV ~10-5 g. Esta cantidad de masa colocada dentro de una longitud de Planck (h G/c3)1/2 ~ 10-33 cm, crearía una densidad del orden de ¡1093 g/cm3! que sería la densidad del Universo cuando tenía unos 10-43 segundos, el tiempo de Planck.
    • Materia bariónica. Materia normal formada por protones y neutrones.
    • Materia oscura caliente (del inglés Hot Dark Matter, abreviada HDM) es cualquier tipo de partículas poco masivas que se mueven a velocidades cercanas a la de la luz.
    • Materia oscura fría (del inglés Cold Dark Matter, abreviada CDM) es cualquier tipo de partículas relativamente masivas que se mueven a velocidades mucho menores que la velocidad de la luz.
    • Megaparsec (Mpc). Unidad de distancia equivale a unos 3,26 millones de años luz. Un megaparsec no es más que un millón de parsecs.
    • MOND (MOdified Newtonian Dynamics). Teoría alternativa a la dinámica Newtoniana propuesta por Mordehai Milgrom (1983. ApJ. 270,365) y que consiste básicamenteen modificar la segunda ley de Newton de la forma F = m a2/a0, es decir que la fuerza sería proporcional al cuadrado de la aceleración y se introduciría una constante a0 ~ c H0 ~ 1.2 10-8 cm/s2 con unidades de aceleración para salvar la coherencia de la ley. La motivación de esta modificación es la de explicar la elevada velocidad de rotación que se mantiene casi constante en la parte externa del disco de las galaxias espirales. Sin embargo, el gran problema de esta teoría es que no tiene una extensión relativista y que quizás esté en conflico con el Principio de Equivalencia en su versión fuerte (ver Mendes & Opher 2001 y las referencias allí contenidas). Parece ser que MOND tiene problemas para explicar variación radial de la temperatura en cúmulos de galaxias y predice nubes de gas fuertemente absorbentes en Ly a más densas y pequeñas de los observado (Aguirre y otros  2001). También Aguirre y otros 2001 han publicado un interesante artículo donde establecen los test observacionales mínimos que tiene que superar cualquier propuesta de modificación a grandes distancias de la gravedad clásica de Newton-Einstein. Por otro lado White & Kochanek 2001 encuentran ciertas desventajas en las alternativas frente a la materia oscura y la ley de Milgrom (el hecho de que los efectos de la materia oscura predominen en escalas donde las aceleraciones son del orden de c H0 ) puede obtenerse desde los escenarios con materia oscura fría (Kaplinghat & Turner 2001).  Milgron no está de acuerdo con este último estudio  (Milgron 2001)
          
    • Monopolo magnético es una partícula cuya existencia se predice en las GUT o teorías de gran unificación de la Física de partículas. Pero los modelos de los estados inciales del Universo arrojan una densidad de estas partículas que está muy por encima de lo que evidencian las observaciones, que es más bien la inexistencia de estas curiosasidades subatómicas. El modelo inflacionario reduce la densidad de estas partículas a aproximadamente a "una" dentro del radio de Hubble . Curiosamente, sólo se ha proclamado la detección de un solo monopolo en la historia de la Ciencia por un físico de origen hispano, un tal Cabrera, en un día de San Valentín. Algunos han hecho muchas bromas con esta coincidencia anecdótica, pues ni las GUT están observacionalmente respaldadas, ni la observación de Cabrera es relevante. ¿O estaba Cabrera en el lugar y en el momento adecuados para atrapar al único monopolo del Universo?...
    • Nanómetro (nm). Unidad de longitud equivalente a una mil millonésima de metro (10-9 m).
    • Parámetro de densidad W es la relación numérica entre la densidad del Universo y la densidad crítica.
    • Partículas virtuales. Uno de los primeros pasos en el desarrollo de la teoría cuántica fue la idea de Planck de asignar niveles discretos de energía a los osciladores armónicos (básicamente una carga eléctrica oscilando como un muelle) que idealmente producían el campo electromagnético en las paredes perfectamente absorbentes de una cavidad en la que se alcanza el equilibrio térmico (un cuerpo negro). Cada salto entre dos de estos niveles emite o absorbe una cantidad discreta de energía que denominamos fotón. La suma de las diferentes cantidades (diferentes intensidades) de todos los tipos de fotones emitidos (a diferentes frecuencias) forman el campo electromagnético dentro de la cavidad. Podemos decir entonces que el campo electromagnético está compuesto por unas partículas que denominamos fotones.
    •  
    • Pero sabemos que el campo electromagnético de un partícula cargada como un electrón ineractua con el campo electromagnético de otra partícula cargada. Esta interacción no es más que una transferencia de momento y energía entre las partículas, que también se produce en cantidades discretas. Dicho de otra manera, podemos aplicar la misma idea de Planck y suponer que existen idealmente un conjunto de osciladores armónicos en cada partícula que puede emitir o absorber cantidades discretas de energía que denominamos fotones virtuales. Podemos describir entonces una interacción entre partículas cargadas utilizando un diagrama de intercambio de estos fotones virtuales, denominado diagrama de Feynman.        

    Las líneas de guiones representan dos partículas cargadas del mismo signo que se acercan una a otra, inercambian un fotón virtual (lineas onduladas) produciéndose un intercambo de momento que produce una fuerza de repulsión.
    Esta explicación, aunque sencilla de entender, tiende a hacernos pensar que las partículas virtuales se comportan como partículas en el sentido clásico, pero esa idea no es correcta. De hecho, las partículas virtuales no son observables y son en principio una construcción teórica para describir fenómenos observados tal y como la interacción de dos partículas. Una explicación más divulgativa puede ser hallada aquí.

    • Quintaesencia. Quintaesencia es una generalización del concepto de constante cosmológica. Una constante cosmológica pura se relaciona habitualmente con la densidad de energía de vacío que surge de manera natural en las teorías cuánticas de campos. La densidad de energía de vacío, por su propia naturaleza, no cambia con el tiempo y está uniformemente distribuída en el espacio. La ecuación de estado que relaciona la presión P con la densidad r (recordemos, por ejemplo, que la ecuación de estado para un gas ideal a temperatura constante sería la ecuación de Clapeyron P=Kr), para la constante cosmológica es P = - r , lo que significa que la expansión aumenta la cantidad de energía de vacío y ésta tiene que ejercer una presión negativa. Esto puede generalizarse suponiendo que existe un campo que produce una densidad de energía que varía con el tiempo y que no tiene por qué estar uniformemente distribuída, de tal manera que podemos poner su ecuación de estado como P / r = w con -1 < w < 0 con objeto de que no contradiga las observaciones, y siendo  w una función del parámetro de expansión. Para un explicación semi-divulgativa de dos de los inventores del concepto ver Robert R Caldwell and Paul J Steinhardt 2000.
    • Recombinación. Momento en el que los electrones se combinaron con los protones para formar átomos de hidrógeno. Esto ocurrió cuando la temperatura del Universo descendió hasta unos 3000 K, unos pocos cientos de miles de años después del Big Bang a un desplazamiento al rojo z ~ 1100. El calificativo de recombinación es ciertamente una mala elección, puesto que este hecho ocurrió una sola vez en la historia del Uuniverso. Aún así se sigue usando por costumbre.
    • Supernovas. La muerte de estrellas masivas terminan en grandes explosiones que constituyen los eventos más luminosos del Universo actual, compitiendo en brillo con la mismísima galaxia de la que la estrella forma parte. Según sea su estrella precursora, se distinguen dos tipos de supernovas:
  •  
    • Supernovas de tipo I. Son explosiones de enanas blancas (de unas 1,4 masas solares)  situadas en sistemas binarios. La acreción de materia que se produce desde la estrella compañera hace que la enana blanca alcance el límite superior de masa (conocido como límite de Chandrasekhar) donde pierde su estabilidad. Entonces la estrella empieza a colapsar y la compresión propicia la combustión explosiva del carbono que produce una destrucción total de la estrella. La radiación que se emite procede principalmente de la descomposición radiactiva del níquel y el cobalto producidos en la explosión.
  •  
  • Dentro de este tipo se distingue especialmente el tipo Ia por un espectro que presenta ausencia de líneas del hidrógeno y la presencia de una banda de absorción muy fuerte en el rojo a unos 6100 Å correspondiente al Si II (átomo de silicio que ha perdido sus dos electrones más externos). El pico de luminosidad de este tipo de supernovas está relacionado con la rapidez de debilitamiento de su brillo de una manera muy regular en diferentes supernovas. Cuando se aplica esta correlación, la luminosidad relativa (magnitud) de una supernova de tipo Ia puede determinarse dentro de un intervalo de error del 10 al 20%. Su utilidad en Cosmología residide en el hecho de que se pueden utilizar como candelas estándar (fuentes de luz de brillo intrínseco conocido) para medir distancias extragalácticas relativas con alta precisión.
  •  
  • Supernovas de tipo II. Ocurren en estrellas masivas (más de unas 8 masas solares) que queman carbono de manera no explosiva y evolucionan hacia una configuración con un núcleo de hierro degenardo rodeado a modo de capas de cebolla por elementos más ligeros. Una inestabilidad en el núcleo de hierro debida a la captura de electrones y a una disociación endotérmica del hierro provoca el colapso del núcleo y la expulsión simultánea de las capas externas, dejando como residuo una estrella de neutrones o un agujero negro.
    Más detalles en Formación de elementos en los interiores estelares, estrellas supernovas y Supernovas (Particle Physics and Astronomy Research Council. Royal Greenwich Observatory)
  •  
  • Survey de galaxias. Un survey no es más que una clasificación sistemática de propiedades galácticas directamente observables como sus coordenadas (declinación y acensión recta), su magnitud y desplazamiento al rojo. Los enlaces a los surveys más importantes que se están llevando a cabo en la actualidad pueden encontrarse aquí.
    • Teorías de Gran Unificación (abreviadas en inglés GUTs). Teorías que tratan de unificar las todas las interacciones conocidad a excepción de la gravitación: electromagnética, nuclear débil y nuclear fuerte. Suponiendo que sea posible una Gran Unificación de todas las interacciones, entonces todas las interacciones que observamos no son más que diferentes aspectos de la misma teoría unificada. Sin embargo, ¿cómo puede éste ser el caso, cuando las interacciones fuerte, débil y electromagnética son tan diferentes en intensidad y efecto? Aunque parezca extraño, los datos y la teoría actuales sugieren que estas variadas fuerzas confuyen hacia una única fuerza, cuando las partículas afectadas están a energías suficientemente altas. De hecho, desde los años 60 existe una teoría unificada de las interacciones electromagnética y débil (conocida obvimente como electrodébil) y actualmente existen diferentes propuestas de GUT, de tal forma que algunas propiedades del comportamiento de las partículas a energía del orden de 1016 GeV son conocidas y se pueden aplicar al estudio del Universo cuando este tenía unos meros 10-35 segundos.
    • Tiempo de Planck. Intervalo de tiempo resultante de la combinación apropiada de las tres constantes fundamentales h (constante de Planck), c (velocidad de la luz) y G (constante de gravitación universal), por lo que se considera la unidad natural de tiempo:   tP = (h G/c5)1/2 ~ 10-43 s

                                                                                                    

                                                                                                                        © 1993 Javier de Lucas

    1