Las teorías que describen el estado actual de conocimientos [ya comprobados experimentalmente] sobre las interacciones fundamentales son:  


MODELO ESTÁNDARD de FÍSICA de PARTÍCULAS [MEFP]

Grupo de simetrías GMEFP = SU(3)cxSU(2)xU(1)Y


Teoría ELECTRODÉBIL
[EWT=
ElectroWeak Theory]
ó
Modelo de WEINBERG-SALAM-GLASHOW
Grupo de simetrías SU(2)xU(1)
Postulado en 1968 por Sheldon Lee Glashow, Abdus Salam y Steven Weinberg, confirmado en 1983 (Premio Nobel 1984 Carlo Rubia y Simon Van Der Meer).   Describe la unificación de la QED y las interacciones débiles.


 
ELECTRODINÁMICA CUÁNTICA
[QED = Quantum ElectroDynamics]
describe la interacción electromagnética entre todas las partículas que posean "carga eléctrica" (electricidad, magnetismo, etc.); también describe los fenómenos puramente electromagnéticos  (ondas electromagnéticas, etc.) Las partículas transmisoras de la interacción son los fotones. Grupo local de simetrías U(1).
  
Teoría de las INTERACCIONES DÉBILES
describe el decaimiento de partículas y el decaimiento radiactivo del núcleo atómico.  Las partículas transmisoras de la interacción son los bosones W+,W_, Z0


CROMODINÁMICA CUÁNTICA[QCD = Quantum  ChromoDynamics])
describe las interacciones fuertes (responsables de que el núcleo atómico no se desintegre debido a la repulsión eléctrica entre protones, y de otros fenómenos observados en los aceleradores de partículas).   Los entes físicos fundamentales de esta teoría son los quarks (que forman a la materia y que poseen carga eléctrica y carga de color) y los gluones (que son las partículas transmisoras de la fuerza, y también poseen carga de color, por lo que pueden interactuar entre ellos).
Grupo local de simetrías SU(3)
c.

La QCD tiene problemas en describir la interacción fuerte a bajas energías [ = grandes distancias], ya que la carga de color es muy intensa a éstas energías [
regimen de acoplamiento fuerte] y no se pueden usar métodos perturbativos de aproximación en la teoría, lo cual complica mucho tratar de obtener información de la misma; no es posible entonces estudiar fenómenos como el confinamiento [la unión de quarks y gluones para formar a los neutrones, protones, etc]. Pero en el rango de altas energías [ = pequeñas distancias] que existe en los aceleradores de partículas la interacción se hace "menos fuerte" [regimen de acoplamiento débil; la carga de color, que depende de la energía, se hace más débil y se dice entonces que la teoría es "asintóticamente libre"] y ahora si es posible usar en la QCD métodos aproximativos.   En estas escalas de energía las partículas formadas por quarks y gluones [mesones y bariones] casi no interactúan a través de la carga de color, y las interacciones electromagnéticas son las que dominan, aunque aun asi se comportan como partículas libres, lo cual no ayuda mucho a la comprensión del fenómeno del confinamiento, que es lo que realmente interesa.  

TEORÍA  de  GRAVITACIÓN
RELATIVIDAD GENERAL de Einstein
[GR=
General Relativity]

describe a la gravedad en términos geométricos, como una consecuencia de la curvatura del espacio-tiempo, la cual es a su vez producida por la sola existencia de los entes físicos (campos, partículas) cuya materia/energía juega el papel de la "carga" gravitacional.  Se cree que la RG deja de ser válida a escalas de energía del orden de 1019GeV [energía de Planck], debido a que a dichas escalas los efectos cuánticos empiezan a tomar relevancia.   En la versión cuántica "lineal" de la GR, donde se ignora el comportamiento no-lineal de la teoría, se postula que las partículas transmisoras de la interacción (lineal) son los gravitones.

Su grupo de simetrías es Diff[M] =
grupo de Difeomorfismos (reparametrizaciones) del espacio base "M", y se dice que la teoría es generalmente covariante, lo cual significa que es independiente de la geometría del espacio de fondo, o sea, del espacio base (i.e., el espacio físico) sobre el cual se construye su formulación matemática (es decir, el espacio en el cual los fenómenos físicos
se desarrollan, desenvuelven, toman lugar, ocurren);  en lenguaje técnico se dice que es invariante ante el grupo  Diff[M]. La invariancia ante el grupo Diff[M] es de extrema importancia, por lo que se debe hacer énfasis en este punto. Las transformaciones (o difeomorfismos) de Diff[M] pueden ser vistas como transformaciones pasivas y activas:

a)
transf. pasivas:  son sólo transformaciones de coordenadas.   Supongamos que estamos situados en una región del espacio físico en la cual hemos definido un marco de refencia, "K", y un punto 'p' cualquiera del espacio tendrá unas coordenadas (p1, p2, p3) respecto a "K" ; una transformación pasiva consiste en realizar una simple "transformación de coordenadas", lo cual nos llevará a otro sistema de coordenadas " K' " con respecto al cual el mismo punto 'p' tendrá unas coordenadas (p'1, p'2, p'3), y la invariancia ante este tipo de transformación (invariancia ante difeomorfismos pasivos) significa que existe la libertad de elegir cualquier conjunto de coordenadas de referencia y que las ecuaciones de la dinámica (ecuaciones de movimiento = EDM) de la teoría son las mismas en cualquiera de los sistemas de referencia relacionados mediante este tipo de transformaciones.  Ningún marco de referencia es especial (p.ej., las coordenadas cartesianas no son más importantes que las coord. esféricas).   Un punto del espacio-tiempo se define solo por lo que físicamente ocurre ahi, y no por su localización con respecto a algún sistema de coordenadas especial.
  
b)
transf. activas: la invariancia ante una transformación activa es algo un poco más sutil. Esta vez el marco de referencia "K" permanece fijo; la transf. activa consiste en realizar un cambio de un punto cualquiera del espacio 'p', con coordenadas (p1, p2, p3) respecto a este marco de referencia, a otro punto cualquiera 'q', con coordenadas (q1, q2, q3) respecto al mismo marco de referencia.  Supongamos ahora que, antes del cambio activo, teníamos una solución (o configuración)  de las EDM de la teoría, F(p) = F(p1, p2, p3), y que luego del cambio tenemos F(q) = F(q1, q2, q3).   La invariancia ante este cambio (invariancia ante difeomorfismos activos) se basa en lo sig.:  se hace la identificación  F'(p1, p2, p3) = F(q1, q2, q3)  y se interpreta como si no se hubiese realizado el cambio de puntos, y lo que realmente ha sucedido es que ha surgido una "nueva" solución (configuración), F'(p) de las EDM en el mismo punto.   La invariancia aparece entonces si, aun cuando F(p) y F'(p) sean matemáticamente diferentes, ambas representan la misma situación física, y por lo tanto,   F'(p) es físicamente equivalente a F(p).  Asi, es posible formar el conjunto todas las configuraciones equivalentes a F(p) que pueden ser obtenidas mediante una transformación activa,  las cuales representarán la misma situación física.

Se ha tratado de construir una versión cuántica consistente de la GR [Canonical Quantum Gravity, Euclidean Quantum Gravity, Simplicial Quantum Gravity, etc.],  pero aquellos intentos resultaron en teorías que no eran satisfactorias ya que poseían muchas incoherencias matemáticas.  En años recientes han surgido nuevas ideas más prometedoras [Quantum Loop Gravity, String theories, Non-Commutative theories, etc.] que al parecer han logrado ir más allá que los modelos anteriores en lo referente a la unión entre la física cuántica y la GR, pero tales intentos están en su etapa de desarrollo y aún falta mucho por investigar.      


Las QFT convencionales poseen limitaciones
Es necesario conocer  cuáles son  las limitaciones y el rango de validéz de estas teorías para así evitar (hasta donde sea posible) caer en errores en sus posibles aplicaciones, por lo que se citarán algunos ejemplos de tales limitaciones:
  • los métodos de cuantización no han sido formulados en forma "generalmente covariante" (es decir, no se han podido formular de tal manera que sean independientes del espacio físico de fondo en el cual ocurren los fenómenos).  Existe un conjunto de métodos que permiten obtener la versión cuántica de una teoría clásica (por ejemplo:  la Electrodinámica Clásica de Maxwell se cuantiza para obtener a la QED), por lo que el camino general a seguir en la construcción de una teoría cuántica cualquiera es formular 1ro la teoría en términos clásicos (o sea, no-cuánticos), y luego "cuantizarla" utilizando tales métodos convencionales. Todos estos han sido formulados en un espacio de fondo plano, es decir, hasta ahora todos los fenómenos físicos (propagación de partículas libres, interacciones entre capos y partículas, etc.) que las teorías cuánticas (como las QFT) describen, se desarrollan o se desenvuelven en un "espacio de fondo" que es plano (llamado "espacio de Minkowski").   Cómo se describen los fenómenos de propagación e interacción de partículas/campos cuando el espacio en el cual suceden tales fenómenos no es plano, sino curvo?   Es decir, cómo afecta la curvatura dinámica del espacio-tiempo (i.e., la gravedad) a tales fenómenos cuánticos?   La formulacion de las QFT en espacios curvos dinámicos (i.e., la gravedad no es constante), sin hacer aproximaciones, representa hoy dia un problema aun no resuelto de forma completa.   Incluso nuevas teorías como las SuperCuerdas/Branas aun no son capaces de dar una solución completa y satisfactoria a este problema.    La única nueva teoría (no-convencional) que logra formular un método de cuantización, que es independiente del espacio físico sobre el cual se desenvuelven los fenómenos, ha sido la Loop-Quantum Gravity (de la cual se hablará más adelante);   sin embargo, esta teoría involucra sólo al campo gravitacional y la incorporación de "materia" (fermiones, campos de norma, etc.) aun sigue siendo algo problemática, aunque se han realizado progresos considerables al respecto.     
  • las QFT heredan los mismos problemas filosóficos y de estructura formal que afectan a la Mecánica Cuántica  y originan, a su vez, nuevos problemas [nuevas y diferentes interpretaciones del formalismo matemático de la física cuántica,   cómo se definen las partículas virtuales en un espacio curvo no-trivial?,  etc.],  
  • algunas no son "renormalizables", es decir, algunas poseen/predicen que ciertas cantidades (de mucha importancia para contrastar la teoría con el experimento) son INFINITAS (o "divergentes", es decir, "tienden o divergen hacia el infinito"),  y no se pueden usar los poderosos métodos (Perturbativos) de Regularización-Renormalización [MPRR] exitentes para "redefinir" a tales cantidades  y asi eliminar ó esconder dichos infinitos de tal manera que no afecten el poder predictivo de la teoría.    Es claro que tales métodos se basan a su vez en aproximaciones perturbativas (ver cuadro adjunto), por lo que no poder aplicar los MPRR a una teoría dada no significa que dicha teoría no sirva;   lo que significa es que no se las puede analizar bajo el punto de vista perturbativo, ya que con dichas aproximaciones no es posible eliminar/esconder a las divergencias, y por lo tanto no es posible hacer predicciones contrastables con los experimentos;   es necesario entonces idear otros métodos de análisis;  
  • todas se basan en métodos perturbativos (ver complemento adjunto) para estudiar fenómenos altamente complicados,  lo cual en la mayoría de los casos no es satisfactorio ya que la física involucrada es mucho más complicada y los intentos hasta ahora realizados por ir más allá del régimen perturbativo (i.e.,  trabjar en el régimen no-perturbativo con constante de acoplamiento fuerte) poseen problemas:  por ejemplo, el método no-perturbativo de los Modelos de Retículos ["Lattice Models" - LM] consiste en suponer que el espacio-tiempo, en el cual se desarrollan los fenómenos, puede ser representado por un retículo o "malla" en cuyos vértices se pueden poner a las partículas y las interacciones se propagan a lo largo de las líneas que unen a los vértices; el espacio - tiempo es entonces un ente matemático "discreto" (es decir, no-contínuo) y finito, y cuando el espacio entre los vértices ("a") se hace cero ("a ---> 0"), se recupera la descripción del espacio - tiempo como un ente matemático contínuo.   Este tipo de modelos es útil para hacer cálculos en super - computadoras, aunque el tiempo de cómputo consumido es muy largo (algunos cálculos duran años!); sin embargo, los cálculos no-perturbativos realizados con estos LM son muy limitados, además de que hay una clara pérdida de varias de las simetrías originales (lo cual no es conveniente) que la teoría posee cuando es formulada en un espacio-tiempo contínuo (por ejemplo, el espacio-tiempo continuo tiene la simetría de traslación, pero el espacio-tiempo representado por los LM no posee tal simetría),  cuando se trabaja con fermiones en los vértices y se toma el límite hacia el continuo ("a ---> 0"),  su número se duplica,  etc.    Existen serios intentos para formular nuevos métodos que permitan construir espacios discretos y finitos sobre los cuales construir teorías y analizarlas en el régimen no-perturbativo, tales como el uso de espacios no-conmutativos en Física Difusa (sobre la cual se hablará más adelante).
  •  
TEORIA PERTURBATIVA
Es un método que consiste en describir a un sistema físico [SF] dado mediante un modelo ideal ó un modelo cuya física ya es satisfactoriamente conocida.   Aun cuando dicho modelo no describa satisfactoriamente al sistema físico que se quiere estudiar, el modelo representará la aproximación de orden cero de dicho sistema.  Luego, se "
mejora" dicho modelo introduciendo/añadiendo poco a poco "perturbaciones", o sea, los efectos que van haciendo que el modelo en cuestion se parezca cada vez más y más al sistema físico real que se quiere estudiar.  Por ejemplo:  para estudiar la rotación y forma de la Tierra, se puede usar el modelo ideal de una esfera en rotación; pero la Tierra no es una esfera, sino un geoide, por lo que dicha forma se puede introducir en el modelo a través de perturbaciones tales que hagan que la esfera cambie a la forma deseada, y asi estudiar la física de la rotación terrestre a través de dicho modelo.  

Supongamos ahora que el SF real está descrito matemáticamente por una función H. Supongamos que el modelo está descrito por H
0. Entonces, en la aproximación de orden cero tendremos que H ~ H0. Las perturbaciones se describirán por  H1, H2, H3, etc. Asi, la aproximación de 1er orden se representa añadiendo la 1ra perturbación a H0 , es decir, el SF, en la aproximación de orden 1, estará ahora representado por  H ~ H0 +  H1.  En la aproximación de orden 2 (o de 2do orden), el SF será   H ~ H0+  H1 + H2, y asi sucesivamente. Para que esta técnica de aproximación funcione es ABSOLUTAMENTE NECESARIO que tales perturbaciones sean cada vez más y más pequeñas, es decir que  H1  >  H2 >  H3 >..., de lo contrario la técnica no funciona!

Por ejemplo, cuando los astrónomos y matemáticos de siglos pasados estudiaban las órbitas de los planetas utilizando la física de Newton se dieron cuenta de que algo perturbaba dichas trayectorias y que las mismas no eran círculos o elipses perfectas (modelos ideales cuyo comportamiento se conoce de forma exacta), y por eso descubrieron la existencia de otros planetas, los cuales ejercen "perturbaciones pequeñas" sobre las órbitas de los planetas conocidos!   Otro ejemplo:  en QED  es posible hacer aproximaciones  para estudiar ciertos fenómenos físicos, ya que H
1, H2, H3, etc.,  dependen  de potencias de la constante de acoplamiento, la cual es menor que 1, por lo cual  se cumple que  H1  >  H2 >  H3 >..., etc., ya que una cantidad menor que 1, elevada a cualquier potencia seguirá siendo menor que 1, y a medida que  la potencia aumenta dicha cantidad se irá haciendo cada vez menor.

Pero no todo en el Universo es tan fácil. No todo cuanto hay en el Universo puede estudiarse utilizando la teoría de perturbaciones, ya que no siempre es posible agregar perturbaciones pequeñas a un modelo ideal.  Todo lo contrario. La mayor parte de los fenómenos del Universo no pueden estudiarse usando esta técnica.  Por ejemplo, la QCD  posee una constante de acople mayor que 1, por lo que  si se intenta usar aproximaciones en las que  H
1, H2, H3, etc., dependen  de potencias de la constante de acoplamiento,  las mismas irán creciendo cada vez más y no se cumplirá  la condición  H1  >  H2 >  H3 >..., etc.

¿Qué pasa cuando no es posible agregar perturbaciones pequeñas a un modelo dado?  No queda otro remedio que tratar de usar métodos NO-PERTURBATIVOS [MNP], es decir, métodos / técnicas que no utilicen la teoría de perturbaciones antes mencionada. Existen algunos que se basan en el uso de simetrías, otros se basan en utilizar equivalencias duales entre diferentes formulaciones de una misma teoría, etc.   Sin embargo,  los MNP no son fáciles de inventar ni de implementar.  

Algunos problemas del MODELO ESTANDAR

Es muy importante enfatizar y dejar muy claro que el MEFP  ha tenido mucho éxito en lo que se refiere a la descripción-explicación de los datos experimentales y en lo que se refiere a ciertas predicciones que ya han sido espectacularmente confirmadas (descubrimiento de la partícula J/Psi --1976--, el descubrimiento de los bosones intermedios de la interacción débil --1983--, descubrimiento del quark top --1994--, etc.);  sin embargo,  la filosofía que se sigue es que al conocer las limitaciones de todas las teorías se llega a la conclusión de que las mismas están incompletas, y uno de los trabajos de la física teórica es completar, o al menos tratar de mejorar, lo que ya se tiene. Tanto el MEFP como la RG son teorías efectivas, es decir, no se las considera como teorías básicas fundamentales válidas en todos los rangos de energía posibles;  se las considera como teorías aproximadas (descriptivas, fenomenológicas) válidas sólo en un rango de energía determinado.   Este hecho no les resta mérito en ninguna forma posible.   Es necesario entonces conocer los problemas de estas teorías para asi luego abordar los caminos que se han seguido para tratar de mejorarlas:   

La estructura interna del MEFP no parece ser la más simple   

Existe un número muy grande de parámetros [19 = la masa de 6 quarks + la masa de 3 leptones + 3 cargas + la masa de los bosones W y Z + la masa del Higgs + 4 elementos de la matriz de mezcla de Cabibbo-Kobayashi-Masakawa (la cual da la "probabilidad" de que los quarks se transformen entre si), y este número aumenta si se toma en cuenta la reciente conirmación de que los 3 neutrinos deben tener masa, junto con otros 6 parámetros de la matriz de mezcla de Maki-Nakagawa-Sakata] que no pueden ser predichos por el modelo, y que deben ser obtenidos como datos experimentales, lo cual sugiere que el MEFP es incompleto, ya que se espera que una teoría realmente "fundamental"  tenga un número muy reducido de parámetros libres (cero, si fuese posible!) y que pueda predecir el valor de cualquier otra cantidad.    Cualquier teoría que pretenda generalizar al MEFP debería, por lo tanto, tener menos parámetros libres.    Hasta ahora, dado el estado actual de conocimientos, la única teoría candidata a generalizar al MEFP que cumple con dicho requisito es la Teoría de SuperCuerdas/Branas (con 1 solo parámetro libre, por ahora).
 
 Posible Unificación de las cargas

Estudios teóricos basados en los MPRR indican que las 3 "constantes" de acoplamiento del MEFP casi se unifican en una sola a una energía de aprox. 1016 GeV (ver figura, a), lo cual sugiere fuertemente que a tal escala de energía debe existir una teoría más fundamental que el MEFP , la cual sólo posee 1 carga o constante de acoplamiento y, por lo tanto, sólo existe 1 sola fuerza, y las 3 interacciones fundamentales descritas por el MEFP no son más que diferentes manifestaciones (a bajas energías) de 1 única interacción que sólo se muestra a altas energías.   Sin embargo, cálculos basados sólo en el MEFP no logran hacer que las 3 "constantes" (o "cargas")  se unan en un solo punto!   Una teoría que pretenda ser la generalización/extensión del MEFP debe reproducir este comportamiento de las 3 cargas y si pretende ser un esquema unificador debería también lograr que las 3 cargas se unan en 1 solo punto.   Por cada grupo de simetrías existe una carga o constante de acoplamiento, y como en el MEFP hay 3 grupos de simetrías, entonces el MEFP posee 3 constantes de acoplamiento. Para lograr una unificación es necesario entonces que exista 1 solo grupo de simetrías con 1 sola carga, y los 3 grupos mencionados deben ser sub-grupos dicho grupo unificador. Surgen entonces las Teorías de Gran Unificación [GUTs] que atacan el problema de la unificación postulando un grupo de simetrías que englobe a los grupos del MEFP; sin embargo, como se aclarará más adelante, las GUTs tienen a su vez problemas que impiden que las teorías de este tipo hasta ahora propuestas sean candidatas serias a convertirse en el esquema unificador buscado.  Hasta donde alcanzan los conocimientos del autor de este artículo introductorio al tema,  existen otros 2 mecanismos que logran la unificación de las cargas:  al modificar al MEFP introduciéndo la idea de Super-Simetría (la cual se explicará más adelante), lo cual origina otras extensiones del MEFP como la llamada "Minimal Supersymmetric Standard Model" [MSSM]  (ver figra, b), y otras extensiones llamadas GUTs Supersimétricas (ver más adelante);   el otro mecanismo  está basado en la idea de que en el Universo existen dimensiones extras (del cual se hablará más adelante).

 
El MEFP no puede explicar por qué existen "familias " de partículas
Familia
Leptons
Quarks
I
(e, ve)
(u, d)
II
(mu, vmu)
(c,s)
III
(tau, vtau)
(t,b)
 

En la tabla anterior, las 3 familias de fermiones (cada una compuesta por 2 leptones y 2 quarks) son idénticas en cada propiedad, excepto en su masa. Esto sugiere que podrían existir más simetrías de las que se postulan en el MEFP, o que todos los fermiones están a su vez compuestos por entes más fundamentales.
 
El problema de la Constante Cosmológica

La existencia del vacío cuántico = vc (i.e., es el estado de menor energía de un sistema físico descrito por la física cuántica) se considera como un hecho bien establecido.  Cálculos realizados usando el MEFP predicen que la energía del vc (al tomar en cuenta la existencia de todos los sistemas físicos --campos y partículas-- descritas por el MEFP) es inmensamente grande (~ 10120).   Si tales cálculos fuesen correctos, existirían efectos observables a simple vista:  por ejemplo,  la densidad de energía del vc sería tal grande que produciría en todos lados una curvatura del espacio-tiempo tan grande que el Universo tal y como lo conocemos no existiría.   Sin embargo, observaciones astrofísicas indican que la curvatura promedio del Universo es casi plana (i.e., el Universo es plano), lo cual indica que la constante debe ser cero o casi cero!    Esto sugiere fuertemente que el MEFP no puede estar completo;  algo debe faltar, tal que la solución de esta incógnita sea totalmente natural.   Viendo las cosas desde otra perspectiva, la teoría correcta que generalice al MEFP debe ser tal que, mediante algún mecanismo conveniente, cancele el valor de ~ 10120  para que la constante sea cero o casi cero, lo cual constituiría un logro realmente espectacular!     Una de las posibles soluciones es la posible existencia de super-simetría, sin embargo, como se verá más adelante, tampoco parece ser la solución perfecta.   

No se pueden explicar las oscilaciones (y masa) de los neutrinos ["problema de Mezcla de sabores" = "Flavor-mixing problem"]

La transformación de una especie de neutrino en otra fue recientemente confirmada en los experimentos de Super-Kamiokande y de SNO. Este fenómeno se conoce como "mezcla de sabores" y consiste en que las partículas de un tipo se pueden transformar (oscilar), bajo ciertas condiciones, en partículas de la misma especie, pero con propiedades diferentes (por ejemplo,  un neutrino-electrón se puede transformar en un neutrino-mu, y se argumenta que debido a esto se resuelve el problema de los neutrinos perdidos del Sol, problema que duró unos 50 años!), lo cual ocurre si y sólo si las partículas involucradas tienen masa, no importa si ésta es o no muy pequeña.   Y el MEFP no contempla tal mezcla, ya que se postula desde el principio que los neutrinos no tienen masa.   Se cree que se requiere nueva física para poder explicar esto, por lo que se han propuesto experimentos para verificar estas creencias [Omar Miranda Romagnoli, Juan Barranco].

Origen del rompimiento (espontáneo ó dinámico) de simetría Electrodébil  y  "origen" de la masa  

Por conveniencia teórica, las teorías que describen a la física de partículas fundamentales se construyen tal que ningún campo/partícula posea masa.   En esta forma las teorías poseen varias simetrías, las cuales no existirían si las partículas/campos tuviesen masa.   Sin embargo,  en el mundo real las partículas (libres) si poseen la propiedad llamada "masa".    Cómo reconciliar entonces las construcciones teóricas con lo observado? Cómo darle masa a las partículas/campos sin estropear toda la construcción teórica?   Al introducir masa, instantáneamente se está rompiendo determinada simetría de la teoría, por lo que se debe buscar la forma de que tal rompimiento de simetrías ocasione el menor daño posible a la teoría.    Una forma de hacerlo es mediante el Mecanismo de Higgs (por Peter Higgs, 1966, F. Englert y Robert H. Brout): se postula la existencia de una partícula/campo escalar fundamental (i.e., una partícula que no está compuesta por otras más fundamentales) omnipresente en el Universo, la cual bajo ciertas condiciones interactúa con las demás partículas/campos originando, a través de dicha interacción, a la masa de cada una de ellas, y rompiendo espontáneamente ciertas simetrías (SSB).    La unificación  del Electromagnetismo y de las interacciones débiles en la Teoría Electrodébil utiliza este mecanismo, y dicha teoría ya fue confirmada en 1983, con el descubrimiento de los bosones W+-  y   Zo.    Sin embargo, aun no se ha encontrado al bosón de Higgs.    Se cree que su masa (la cual surge debido a que auto-interacciona) debe ser mayor que los 114 GeV (ya que valores menores han sido descartados por experimentos en el CERN);  se cree que podría ser un poco más pesado/masivo que el quark top (masa = 174.3 ± 5.1 GeV) [Piotr Kielanowski & Rebeca Juárez].   El problema es que aun no se ha detectado ninguna partícula escalar, ni mucho menos el bosón escalar de Higgs.  Por otro lado, introducir un campo escalar fundamental en las QFT convencionales es problemático ya que su masa es afectada por fenómenos cuánticos de tal forma que su masa aumenta de una forma descontrolada;   esto a su vez se traduce en que debe poseer una constante de acople muy fuerte a bajas energías, lo cual produciría efectos observables y por ende ya se hubiese detectado, sin embargo, es claro que esto no concuerda con la realidad. Surgen entonces posibles alternativas al mecanismo de Higgs: podría ser entonces que el rompimiento de simetría sea producido por nuevas simetrías aun no descubiertas [si existen simetrías como la super-simetría (ver más adelante), el problema originado al introducir campos escalares fundamentales desaparece ya que se introducen nuevas partículas/campos y nuevas formas de interactuar, tal que cancelan el efecto producido por los procesos cuánticos que modifican la masa del Higgs], o por campos escalares compuestos [los "condensados fermiónicos = sistema compuesto por un par fermión-antifermión, el cual visto como un todo es igual a una partícula escalar"]  postulados por las teorías de Tecnicolor y Tecnicolor Extendido  [Rodrigo Pelayo, Arnulfo Zepeda], aunque las predicciones de algunos de estos modelos no concuerdan con los datos observados, o que el rompimiento de simetrías no sea espontáneo , sino que se origine por la misma dinámica no-lineal de la teoría [Dynamical symmetry breaking], etc.   Por otro lado, resulta interesante el hecho de que los datos recopilados hasta la fecha parecen favorecer la posible existencia de un escalar fundamental, de masa no muy grande.

Origen de la violación de la simetría CP

Se creía que si se cambiaban las partículas por sus antipartículas (conjugación de carga) y también se cambiaba otra propiedad (paridad) que tiene que ver con la forma en que tales partículas están "orientadas" con respecto a su dirección de propagación, la física (de las interacciones débiles) que describe a tales conjuntos de partículas no cambiaba.    Sin embargo,  la violación (de la creencia de la existencia) de tal simetría, se ha observado experimentalmente en el decaimiento de los mesones Ko (1964), B-antiB.   Aunque es posible explicar esta violación dentro del marco del MEFP, hay razones para creer que el origen de la misma se debe a nueva física que sólo se manifiesta a más altas energías y que la causa está relacionada con la asimetría entre materia y antimateria observada en el Universo. Por la "regla" fenomenológica "a mayor energía aparecen más simetrías", se cree que (si el Big Bang es correcto) en el Universo debió existir iguales cantidades de materia y antimateria.   ¿Por qué entonces se observa más materia que anti-materia en el Universo?    Hoy día aun no se sabe con certeza qué es lo que origina tal violación de CP.

Problema de las Jerarquías de escalas

Este problema está intimamente relacionado con el bosón escalar de Higgs.   Como se mencionó anteriormente, según las QFT convencionales, fenómenos cuánticos ocasionan que la masa de un campo escalar fundamental crezca sin control; si tal masa, mH, es tan grande como la escala de energías donde ocurre la unificación de la QED con la teoría de interacciones débiles (lo cual origina a la teoría ElectroDébil = EW), o sea,   mH ~ mEW ~ 102 GeV, debido a tales correcciones cuánticas, podría crecer hasta la escala de Gran Unificación (1016 GeV) o hasta la escala de Planck (1019 GeV),   mH ~ mEW ~ mPlanck.    Sin embargo, las teorías que tratan de unificar a las fuerzas fundamentales preveen que la masa del Higgs no debe ser mayor a unos cuantos cientos de GeV [recuérdese que la masa se puede medir en unidades de energía gracias a  m = E / c2], de manera que mH << mPlanck.   Para mantener la masa del Higgs dentro de una escala de energías conveniente es necesario "ajustar las cosas artificialmente", ya que no se conoce un mecanismo natural   que impida que el Higgs adquiera una  masa tan grande.   Si tales correcciones cuánticas a la masa del Higgs ocasionan tal problema y el Higgs es el responsable de darle masa a las demás partículas, entonces sería natural esperar que las masas de todas las partículas también sean grandes, tanto como la energía Planck.     Sin embargo,  tal inconsistencia no es observada:  la masa de las partículas es muy pequeña en comparación con la escala de energía de la Gran Unificación (GU) o con la escala de Planck.   Existe entonces una jerarquía de escalas de energías (E), dada por  EEW << EGU << EPlanck, que no puede explicarse usando al MEFP (el cual es una QFT convencional), ya que las correcciones cuánticas mezclan tales escalas haciéndolas indistinguibles y tal jerarquía no debería existir, o sea,  EEW  ~ EGU  ~ EPlanck .  A este dilema se le llama "problema de las jerarquías".    Además, las masas están relacionadas con ciertas constantes de acoplamiento:  (mEW)2 ~ 1/ GF   y (mPlanck)2 ~  1/ GN,  donde   GF = constante de acoplamiento de la teoría EW (la cual refleja la intensidad con que ocurre la interacción EW), y  GN = constante de Newton (la cual refleja la intensidad de la interacción gravitatoria),  por lo que  la jerarquía   mH << mPlanck   se traduce en una jerarquía entre las constantes de acoplamiento,  GN << GF,  lo cual origina la pregunta de por qué la constante de Newton es mucho menor que la EW?, o equivalentemente, por qué la interacción gravitacional es más débil que la interacción EW?. Debido a las correcciones cuánticas,  ambas interacciones deberían ser casi iguales, GN  ~  GF , lo cual es contrario a los datos observados.  Los intentos para solucionar este problema sugieren que debería exisitr nueva física a escalas de energías del orden 1000 GeV  ( = 1 TeV), las cuales se podrán alcanzar en los aceleradores Tevatron (Fermilab), RHIC (Brookhaven),  LHC (CERN).  

NUEVAS  TEORÍAS 

Todos estos problemas indican que el MEFP no es una teoría completa,  y por lo tanto debe ser una teoría efectiva,   Seff MEFP,  lo cual a su vez significa que debe existir una teoría  SMEFP  más completa que generalize/extienda al MEFP.    Pero,  cuál es esa teoría?    
   
Antes de proseguir, es necesario enfatizar que ninguna de las teorías que pretenden de extender al MEFP ha sido confirmada experimentalmente, por lo que constituyen sólo "posibilidades". No hay ninguna garantía de que alguna de éstas sea la correcta, aun cuando alguna pudiera parecer  más atractiva y prometedora que otras... tampoco hay garantías de que la teoría correcta esté entre las que se conocen actualmente.   El comportamiento del Universo es independiente de lo que los teóricos puedan proponer  [esta afirmación puede tener un carácter filosófico y es debatible dentro del marco de la interpretación de Copenhagen de la Mecánica Cuántica, pero no se abordará tal tema en este artículo] y no necesariamente la teoría/modelo más simple es la que realmente describe a la Naturaleza.

  

Este es uno de los riesgos de trabajar en Física Teórica (de frontera), ya que cabe la posibilidad de invertir una cantidad considerable de tiempo/trabajo en una idea que al principio pudiera dar la impresión de tener un gran potencial, y que al paso del tiempo se demuestra que la misma no era lo que se esperaba.   Por tal razón, creemos firmemente que para "sobrevivir dentro del negocio" hay que mantener la mente abierta ante ideas nuevas (y razonables, por supuesto!), independientemente de cuál sea nuestra especialización y de cuánto tiempo hayamos invertido trabajando en tal o cual idea, de lo contrario se corre el riesgo de perderlo todo.

Mantener tal actitud hace inevitable el "tratar" de estudiar (y/o mantenerse informado sobre) otras áreas de investigación, aun cuando sea un nivel no muy profundo de especialización, y hace obligatorio el mantener los pies firmes sobre el sólido soporte que brinda la física experimental.   Si lo que se busca es "estabilidad", lo mejor es optar por una especialización en Física Experimental Aplicada.    En lo referente a la investigación de nueva física, es importante recalcar que aun cuando es absolutamente cierto que existen muchos fenómenos por investigar dentro del marco de la física conocida sin necesidad de postular nuevas ideas, también es cierto que hoy por hoy existe un considerable  y creciente énfasis en la verificación experimental de tales nuevas hipótesis.
A continuación veamos una breve lista (no exhaustiva) de algunas de éstas teorías.  

Ideas basadas en la búsqueda de más simetrías

TEORIAS DE GRAN UNIFICACION [GUT's = Grand Unified Theories]

Son las teorías que tratan de unificar la QCD con la Electrodébil, sin incluir a la GR, bajo la filosofía de que sólo es necesario postular nuevas simetrías, utilizando principalmente el formalismo de los  Grupos de Simetrías.   Se postula, como se mencionó anteriormente, que tal unificación (1016 GeV = 1.16 x 1029 Kelvin) ocurre a una escala de energía del Universo (o en su defecto, en un acelerador de partículas que pueda alcanzar tal escala) más alta que la actual de 2.79 Kelvin = 0.24 meV.  Estas teorías también  están basadas en las QFT convencionales,  y por lo tanto, han heredado los mismos problemas inherentes a tal estructura fisico-matemática, de manera que las primeras GUT's ya fueron abandonadas [por ejemplo: la GUT basada en el grupo SU(5) , el Modelo de Georgi-Glashow, el cual predecía que el protón puede decaer o desintegrarse en un tiempo que es posible observar en un laboratorio, lo cual contradice a los datos experimentales recopilados hasta ahora] o modificadas de acuerdo a las exigencias de nuevos problemas; algunos introducen más parámetros que los del MEFP, con varias constantes de acoplamiento y, por ende, no son realmente una unificación (una unificación real postularía 1 constante de acople, o sea, 1 sola fuerza), etc.    Han surgido otros intentos basados en simetrías más complicadas. Ejemplos:  i)  el Modelo de Pati-Salam basado en el grupo de simetrías SU(4) x SU(2)L x SU(2)R,  ii) otros modelos con simetrías del grupo E6, iii) del grupo E8,  iv) Modelo de Georgi-Fritzsch-Minkowski con grupo de simetrías SO(10),  v) otros con simetrías del SO(32),  vi) o simetrías del grupo SU(3)q x SU(3)L x  SU(2) x SU(2) x U(1), sugerido por Ernest Ma, en el cual los leptones también poseen carga de color, igual que los quarks! ,  vii) otro modelo de Ma basado en SU(3)4 x SU(3)6  en el cual logra unificar las constantes de acoplamiento, viii) otros basados en el grupo SU(6)4 x Z4.  No es claro aun si la sola idea de buscar las "simetrías adecuadas" basta para encontrar la elusiva unificación, aunque aun hoy dia se sigue explorando esta posibilidad;  por otro lado, algunos de los problemas que tienen las GUT's se han podido resolver solo gracias a la introducción de un nuevo tipo de simetría: la Supersimetría.     

TEORIAS SUPERSIMETRICAS DE GRAN UNIFICACION [SUSY-GUT's = SUperSYmmetric GUT's]

Nuevas versiones de las GUTs que incorporan la idea de supersimetría[SS], las cuales resuelven buena parte de los problemas anteriormente mencionados [por ejemplo: la ya mencionada unión de las 3 constantes de acoplamiento a altas energías constituye un motivo muy fuerte para postular la existencia de la SS];  algunas de las críticas a éste tipo de intentos por alcanzar la unificación son:   aún continúan tratando a las partículas como entes puntuales y no incorporan a la gravedad. Las transformaciones de los grupos de simetrías utilizados por éstas teorías son  rígidas (i.e., no dependen del espacio-tiempo de fondo, en el cual se desarrollan los fenómenos físicos), y si esta condición se "relaja", permitiendo que las transformaciones sean locales (i.e., dependen de espacio-tiempo de fondo), se obtienen las llamadas teorías de SuperGravedad (de las que se hablará más adelante).

[SS]   SUPERSIMETRIA [SUSY = SUperSYmmetry]

Descubierta en 1971;  re-descubierta nuevamente, de forma independiente en 1972, 1973 y 1974) se basan en una extensión no-trivial de las simetrías del grupo de Poincarè (grupo de transformaciones de rotación y traslación del espacio-tiempo plano, 4-Dimensional), la cual agrupa simetrías "externas" (propias del espacio-tiempo que sirve de base, o fondo, estático donde ocurren los procesos físicos) y simetrías "internas" (propias de los procesos físicos en sí).  El concepto de susy surgió gracias al desarrollo de las teorías de supercuerdas (ver más adelante), sin embargo, la evolución posterior del mismo ocurrió casi independiente de su origen. Según esta idea por cada partícula descrita por el MEFP existe una correspondiente "partícula compañera" (o "super-partner particle"), con las mismas propiedades pero con spín diferente.    El compañero supersimétrico de un bosón "normal" del MEFP es un fermión, cuyo nombre es igual al de su bosón compañero mas el sufijo "-ino" y el compañero supersimétrico de un fermión "normal" del MEFP es un bosón , cuyo nombre es igual al de su fermión compañero mas el prefijo "s-";    por ej., los compañeros supersimétricos del electrón (fermión), muón (fermión), fotón (bosón), gravitón (bosón), del MEFP son, respectivamente, el selectrón (bosón), el smuón (bosón), el fotino (fermión), el gravitino (fermión), etc.    La SS permite que los fermiones pueden transformarse en bosones y viceversa, es decir,  en una teoría super-simétrica todos los bosones y los fermiones postulados pueden transformarse  entre sí.  En una teoría supersimétrica el número de bosones es igual al número de fermiones;    esto tiene la ventaja de que permite la cancelación de muchas anomalías, liberando asi a la teoría de esta enfermedad. Esta misma propiedad permite que puedan existir bosones escalares fundamentales en la teoría que incluya esta simetría (teorías supersimétricas), ya que impide que las correcciones cuánticas, mencionadas anteriormente,  mezclen las escalas de energía, y por lo tanto, en este tipo de teorías el problema de las jerarquías no existe.     El  grado de susy  de una teoría dada se mide por un número, N , cuyo valor está entre 0 (sin susy)  y  8 (máxima susy), el cual proporciona información sobre el número de estados supersimétricos (i.e., número de partículas/campos supersimétricos diferentes que pueden existir, según la teoría) que en algunas es 2N con un spin (S) máximo permitido Smax = N / 2,  y en otras es 22N  con  Smax = Sminimo +  N / 2.  Entre más pequeño sea este número mejor, ya que una teoría asi caracterizada se acerca más al concepto de "teoría realista".    Sin embargo,   el grado de susy de una teoría está intimamente ligado a la dimensionalidad del espacio-tiempo postulada por  dicha  teoría, es decir, la dimensionalidad del espacio-tiempo restringe los valores que  N  puede tener.     El Universo observable no es supersimétrico, por lo que uno de los problemas más importantes concerniente a este tipo de teorías es que (asumiendo que el Universo fue alguna vez supersimétrico) aun no se sabe cuál es el mecanismo que el Universo utiliza para romper la supersimetría.   Es claro que la susy no necesariamente es la respuesta (teórica) correcta a todos los problemas del MEFP, sin embargo, también es claro que la idea de la existencia de este tipo de simetría puede (si fuese la respuesta correcta!) resolver muchos de estos problemas de un solo golpe.    En cierto sentido, la susy es análoga a la idea de la Inflación en Cosmología.    Otro aspecto de la susy es que, si existiese,  podría resolver el problema de la constante cosmológica, ya que al existir iguales cantidades de bosones y fermiones,  la energía del vacío cuántico tendría una cantidad de energía (positiva o negativa) debido a los bosones que se cancelaría con una cantidad igual de energía (negativa o positiva) debido a los fermiones, lo cual daría como resultado que dicha constante es cero!    El problema radica en que, como se mencionó anteriormente, el Universo NO ES supersimétrico, y por ende la susy debe estar rota, por lo que el problema de las constante cosmológica aun persiste.  Otra inconveniencia de la susy es que introduce 124 parámetros, y uno esperaría que si la susy es la respuesta correcta, cualquier extensión susy que pretenda lograr la unificación debería tener menos parámetros que el MEFP.     

TEORÍA de los pequeños HIGGS  ["Little Higgs" theories = LHT]

Nueva clase de teorías (Nima Arkani-Hamed, Andrew Cohen, Howard Georgi, 2001) basadas en una simetría no-lineal (ó "nonlinearly realized symmetry").   Este tipo de simetrías no-lineales y su uso para resolver problemas de corecciones cuánticas a la masa de campos escalares fue estudiado por anteriormente por Jeffrey Goldstone (1961). Y Arkani-Hamed, Cohen y Georgi son los 1ros en aplicar este tipo de simetrías a una extensión del MEFP y resolver el problema de las jerarquías.    Es una simetría parecida a la susy entre fermiones y bosones, solo que no se introduce un fermión compañero para cada bosón "normal", ni un bosón compañero para cada fermión "normal", sino que se postula fermión compañero para cada fermión "normal", y  un bosón compañero para cada bosón "normal", con propiedades diferentes a aquellas postuladas por la susy.   Se les llama "pequeños Higgs"  porque se generan bosones de Higgs con una masa muy pequeña.  Ahora bien,  la masa de estos escalares de Higgs es estable y no sufre de correcciones cuánticas ya que los "efectos nocivos" producidos por ciertas partículas son cancelados por otras, bajo la misma filosolfía que la susy, solo que la manera en que se hace es diferente:  la cancelación ocurre entre partículas con el mismo spin, o sea, los efectos nocivos producidos por fermiones son canceladas por fermiones, y los producidos por bosones son cancelados por bosones.     Por ende, el problema de las jerarquías no existe.  Sin embargo, las LHT distan aun de ser teorías completas y las masas y propiedades de las nuevas partículas son modelo-dependientes.    Aun asi, es posible realizar algunas predicciones generales: i) deben existir 1 o varios escalares de Higgs con masas cerca a los varios cientos de GeVs [ = Giga-electrón-Voltios], ii)  debe existir, al menos, 1 nuevo fermión pesado con una masa menor que  2 TeV [= Tera-eV], la cual es necesaria para cancelar la corrección cuántica a la masa del Higgs causada por los quarks top (fermiones cancelando los efectos de otros fermiones), iii) debe existir nuevos bosones de norma con masas del orden de los TeV para cancelar las correcciones cuánticas a la masa del Higgs causada por  las interacciones débiles y electromagnéticas (bosones cancelando los efectos de otros bosones).     Debido a la proximidad de la terminación del LHC,  actualmente se están haciendo estudios sobre la fenomenología de este tipo de teorías.   Incluso se ha propuesto una nueva partícula (el "lpop") como un candidato para la Materia Oscura.     Por otro lado, aun no es completamente claro que este tipo de teorías sea realmente una alternativa a la susy, ya que en algunas LHT se postula que la susy no es necesaria a la escala de energía de TeVs,  pero quizás si se necesite a escalas de energías mayores a los 10 TeVs.   

Ideas basadas en modificar al espacio físico de fondo

TEORIAS DE KALUZA-KLEIN [KK = Kaluza-Klein]

Otra idea que surge de los intentos de unificación, para poder incorporar a la gravitación dentro del esquema,  es aumentar el número de dimensiones del espacio-tiempo.   Esta idea no es nueva, ya que en 1919 fue introducida por Theodor Kaluza y luego independientemente por  Oscar Klein (1924) y  en un intento por unificar la GR con el Electromagnetismo de Maxwell utilizando un modelo de 5 dimensiones.   Las versiones modernas de esta antigua idea son las llamadas teorías KK, las cuales basándose también en la búsqueda de nuevas simetrías, intentan unificar las fuerzas conocidas.  En este tipo de teorías, el hecho de que no observamos las dimensiones extras se intenta explicar postulando que las mismas son finitas e increíblemente pequeñas.    Otra propiedad es que al postular una KK en un espacio de, digamos, 6D, es posible obtener a las demás fuerzas fundamentales como la manifestación de la gravedad 6D, actuando en nuestro espacio de 4D, es decir, las otras fuerzas no son realmente "fundamentales", sino que con ciertas componentes de la gravedad 6D que se manifiestan en nuestro espacio de 4D. Otro rasgo característico consiste en que el origen, o la causa, de algunas de las propiedades de la materia que habita en las dimensiones normales puede ser relacionado directamente con las propiedades geométricas de las dimensiones extras ocultas.
  Sin embargo, la sola idea de la existencia de dimensiones extras no parece ser suficiente (por lo menos, hasta donde los conocimientos actuales lo indican) como para construir una teoría unificada consistente de las 4 interacciones, o al menos de las no-gravitacionales.   Por tal razón,  la idea de aumentar las dimensiones del espacio físico de fondo se ha complementado hoy dia con otras ideas, y hoy por hoy existen nuevas versiones de las KK  tales como:  
Non-Abelian KK, SUSY-KK, se ha incorporado las ideas de las KK dentro de las teorías de SuperGravedad (KK-SUGRA, es decir, SUGRAs en dimensiones mayores que 4), SuperCuerdas (ver más adelante); con los nuevos escenarios cosmológicos que postulan dimensiones extras que no son pequeñas (ver más adelante) se han propuesto KK con algunas de sus dimensiones extras grandes ("non-compactified KK theories"),  KK 5-Dimensionales no compactas,  etc.     

DIMENSIONES EXTRA NO-COMPACTAS  [NON-COMPACT EXTRA DIMENSIONS = NCED]

Ideas que incluyen a la gravedad

TEORIAS DE SUPERGRAVEDAD [SUGRA = SuperGravity Theories]

También surgen en 1971 y son un intento de unificar la gravedad con las SUSY GUT's en 4-Dimensiones, lo cual se logra postulando que las transformaciones de los grupos de susy son locales, en lugar de rígidas;  por otro lado, el formalismo matemático usado sigue siendo perturbativo.  Otro problema es que estos modelos no son renormalizables, por lo que antes de 1984 los mismos no eran considerados como candidatos realistas  para describir la tan anhelada unificación total. Sin embargo, la SUGRA en 11-dimensiones [11D] (un tipo de KK-Sugra)  jugó, y aun lo hace, un papel muy importante, incluso antes de la aparición de las teorías de Supercuerdas (ver más adelante), en el desarrollo de las branas y en el desarrollo de la teoría M (ver más adelante). Pero, con el surgimiento de las teorías de cuerdas, luego de 1984,  muchas KK-sugra's en 10D se interpretan como teorías efectivas obtenidas a partir de teorías de cuerdas/branas , en 10D, más fundamentales, por lo que su condición de no-renormalizabilidad ya no es obstáculo para su aceptación.   En otras palabras, las sugra's 10D no son más que teorías de cuerdas/branas 10D, pero con muchos menos grados de libertad, a bajas energías y en el régimen de acoplamiento débil.    Con el surgimiento de las supercuerdas,  el desarrollo de las sugra's pasó a jugar un papel "secundario", sin embargo, la comunidad de teóricos que habían trabajado en las sugra's mucho antes de que las cuerdas fuesen el centro de atención, se mantuvo firme en el estudio de estas teorías, lo cual dió como resultado de que la SUGRA 11D  desplazara a las supercuerdas, en los 90's,  y se convirtiese en un formalismo matemático más fundamental, ya que se cree que dicha sugra es la teoría efectiva, a bajas energías, de una teoría más profunda (aun desconocida), la Teoría-M 11D, a partir de la  cual es posible obtener a las teorías de cuerdas/branas 10D como casos especiales.     En las sugra's,  el gravitón  (que no es más que la hipotética partícula que "supuestamente" describe a la gravedad a muy bajas energías y en acople débil, es decir, cuando la gravedad es muy débil) posee un compañero fermiónico supersimétrico llamado gravitino, el cual es un fermión de Rarita-Schwinger. Otro aspecto importante de este tipo de teorías es que, a nivel perturbativo, representan  una versión modesta de una teoría cuántica de gravedad acoplada con materia a muy bajas energías y en acople débil,  aun cuando sean no-renormalizables, si se las considera como teorías efectivas provenientes de teorías de cuerdas-branas o de la supuesta teoria M.    A nivel perturbativo, esto es un logro importante, ya que como se mencionó anteriormente, la cuantización de la gravedad y su unificación con otras fuerzas siempre ha sido un problema no-trivial.     Sin embargo,  el nivel perturbativo no es suficiente, y es necesario avanzar hacia una formulación no-perturbativa de tal versión de teoría cuántica de la gravedad.

 TEORIAS DE SUPERCUERDAS/TEORÍA-M [TSC/TM]

En 1984 surgen las TSC que establecen (dentro de un marco perturbativo) 10 u 11 dimensiones para el espacio-tiempo y se basan en la idea de que las partículas ya no son "entes puntuales",  sino que las partículas son pequeñas "cuerdas" [fundamental strings ó F-strings] con una longitud que podría ser de 10-33 cm (llamada Longitud de Planck), las cuales tienen diferentes "modos" o "frecuencias" de vibración y cada modo de vibración representa a una partícula diferente.  Luego, en el transcurso de 10 años de investigación, se van descubriendo  una serie de simetrías ocultas [DUALIDADES] gracias a las cuales ahora se sabe que las 5 TSC que surgieron son realmente casos particulares de 1 sola teoría más general, 11D, la Teoría M, de la cual aun no se tiene la formulación matemática completa y sólo se dispone de una aproximación perturbativa, llamada SUGRA 11D.  También se descubre que las cuerdas no son las únicas entidades físicas fundamentales y que existen "entidades extendidas" [Branas] que ocupan un cierto volumen en el espacio-tiempo, y que ya no existe una clara definición sobre cuáles son las entidades fundamentales de éstas teorías ya que debido a la existencia de dualidades, en una teoría dada las F-strings pueden ser los entes fundamentales y las branas pueden ser los objetos secundarios, y en otra teoría dual a la anterior son las branas las entidades fundamentales y las F-strings son las secundarias.   Las teorías de cuerdas y branas son las únicas que,   hasta ahora [lo cual indica claramente la posibilidad de que en un futuro surgan otras que lo logren!], han logrado proponer un marco unificatorio para todas las fuerzas, incluyendo a la gravedad, de una manera matemáticamente consistente (aunque lo hacen dentro de un esquema perturbativo).  La "unificación" consiste en que todas las partículas , o más bien, todo cuanto existe son cuerdas/branas, y todas las constantes de acoplamiento del MEFP están determinadas por los valores que pueda tomar un simple campo escalar (spin 0).  Las TSC/TM  continen dentro de su formalismo matemático los métodos de las KK,  la SUSY,  a las SUGRA y a la Geometría No-Commutavita (ver más adelante).   Sin embargo, entre sus grandes deficiencias es que la dinámica (de las entidades físicas) aun se describe sólo de manera aproximada, perturbativamente, y también aun no se ha logrado construir una formulación de las TSC/TM que sea independiente del espacio-tiempo de fondo.        

TEORÍA de GRAVEDAD CUÁNTICA CANÓNICA  (ó  LOOP QUANTUM  GRAVITY) [LQG]

Es la única  teoría conocida hasta ahora [desarrollada en los 80's por Ashoke Sen, Abay Ashtekar, Lee Smolin, Carlo Rovelli, Fotini Markopoulou, etc.] que logra quantizar de manera consistente a la gravedad, sin usar aproximaciones perturbativas y sin postular dimensiones extra (ya que se argumenta que no hay evidencia experimental ni necesidad teórica para postularlas).  En esta formulación se insiste desde el principio en no introducir hipótesis "extrañas" que no tengan fundamentos experimentales ya comprobados, por lo que únicamente se asumen los principios adoptados por la Relatividad General einsteniana y las QFT convencionales.  Sólo se asume que éstas 2 formulaciones teóricas son válidas a muy altas energías.  La LQG está formulada desde el principio de manera no-perturbativa, lo cual representa una gran ventaja sobre aquellas teorías que tratan el problema de unificar a la GR con la física cuántica usando métodos perturbativos.    La otra gran ventaja es que, al igual que la GR, es generalmente covariante, lo cual significa (como ya se mencionó anteriormente) que es independiente del espacio de fondo.    La formulación original de esta teoría sólo involucra a la gravedad  y no pretende ser un esquema unificado de todas las fuerzas;  en otras palabras,  se ataca de manera directa al problema de la cuantizacion de la "curvatura del espacio-tiempo" ( = gravedad).    La geometría de un espacio-tiempo estático (curvo o plano) se le representa por medio de ciertos gráficos llamados "Spin Networks", y la de un espacio-tiempo dinámico (evolutivo, cambiante) se le representa mediante una generalización de los gráficos anteriores, llamados "Spin Foams", los cuales son Spin-Networks evolucionando en el "tiempo cuantizado" (ver más adelante).    En las nuevas formulaciones, se han logrado incluir/estudiar a la materia/campos fermiónicos y bosónicos de norma, de manera que ahora también se tiene materia/campos interactuando con la gravedad cuantizada, y se han logrado construir  QFT sobre estos grafos.  

¿Qué significa que la gravedad (la curvatura del espacio-tiempo) esté cuantizada?
Los resultados de la LQG predicen que existe un volumen mínimo, Vm, (aprox. 10-99 cm3, i.e., la Long. de Planck al cubo), y por lo tanto, su frontera, i.e., su área también será mínima, Am (aprox. 10-66 cm2, i.e., la Long. de Planck al cuadrado). Ningún ente físico puede tener un volumen inferior a   Vm.   Si se toma una región cualquiera del espacio, la misma tendrá entonces un volumen que será algún múltiplo del volumen mínimo, y el área de dicha región será algún múltiplo del área mínima.  Si se usa la palabra "átomo" para describir a un ente fundamental, indivisible, "que no puede ser reducido a algo menor", entonces, este Vm será el "átomo del espacio";  en 1 cm3  de espacio existirán entonces 1099   Vm.  El tiempo también está cuantizado:  cualquier evolución o cambio de la geometría del espacio o cualquier proceso físico que involucre materia/campos sólo puede ocurrir en cierto número de intervalos y no pueden ocurrir de forma contínua.   Analogía: es como si se tuviera un film cinematográfico, y todo el film representara un proceso físico;  la sucesión de cuadros del film representa la evolución, la cual ocurre cuadro a cuadro;  si se empieza con el cuadro no.1, dicha escena durará cierto intervalo de tiempo y no cambiará... cuando dicho intervalo termine, sucede otro cambio, otro cuadro (el no.2) se presenta y durará sin cambiar otro intervalo de tiempo dado... cuando dicho intervalo termina, entonces otro cambio ocurre y se presenta el cuadro no.3, y asi sucesivamente.    El intervalo mínimo es aprox. 10-44 s, el tiempo de Planck,  y no puede ocurrir nada que dure un tiempo menor que este intervalo mínimo.     

Uno de los problemas más importantes que al parecer   no se ha logrado solucionar es que no se ha podido recuperar a la Relatividad General  cuando el espacio cuantizado pasa a ser un espacio "contínuo" a bajas energías.  A pesar de éste y estos problemas y aunque aun es una teoría incompleta, se ha empezado a realizar predicciones usando las recientes versiones de la LQG, lo cual indica cuán avanzadas están las investigaciones en este área:  se ha estudiado cómo generar asimetría entre la materia y la anti-materia (la violación de la simetría CP mencionada anteriormente),  se ha estudiado la posible violación de la simetría de Lorentz y su relación con la oscilación de los neutrinos y la física de los rayos cósmicos ultraenergéticos recientemente detectados,  se han construído cierto modelos cosmológicos (Loop Quantum Cosmology) y el estudio de la singularidad del Big Bang (dando como resultado que tal estado no existe), estudio de Agujeros Negros (se ha logrado reproducir la fórmula de Bekenstein-Hawking sobre la entropía y el área del AN, y también se ha logrado reproducir la Radiación de Hawking), construcción de modelos inflacionarios,  se han construído modelos de Sugra con Spin-Foams y Spin-Foams-Supersimétricos,  se han hecho comparaciones de resultados obtenidos en Espacios No-Conmutativos 2D y LQG y  también se están desarrollando ideas concernientes a la construcción de modelos de unificación.  

                                         © 2003 Xavier Amador y Javier de Lucas