En los últimos veinte años (más específicamente a partir de 1985), gran parte de los físicos teóricos de altas energías fueron atraídos por las propiedades de la teoría de cuerdas. El motivo de esta atracción es que la teoría de cuerdas o supercuerdas es el primer candidato posible para una teoría final. Por eso ha sido llamada Teoría del Todo o Teoría Final.

¿Qué significa una teoría final? La física busca verdades universales sobre la naturaleza. Cuando estas verdades se encuentran, se trata de explicarlas en base a principios más profundos, a verdades más fundamentales, a partir de las cuales poder deducir las anteriores. El punto inicial de todas las explicaciones es lo que se entiende por teoría final.

Esta reducción a principios cada vez más elementales, más básicos, se ha dado en la física históricamente a través de unificaciones de teorías previas. Esta tendencia a la descripción unificada de fenómenos considerados previamente independientes, la búsqueda de principios aglutinadores, permitió persistentemente explicar más hechos que los contenidos originalmente en las partes que se intentaba ensamblar.

Este sueño de encontrar un principio básico a partir del cual poder explicar el universo no comienza en el siglo XX. La Humanidad ha buscado, desde épocas muy remotas, explicar las diversas manifestaciones de la naturaleza como diferentes aspectos de un mismo fenómeno (o conjunto de fenómenos). En Occidente el origen de estas ideas se remonta a los presocráticos (los elementos fundamentales eran para ellos agua, aire, tierra, fuego). La primera teoría final fue el atomismo griego, construido por Leucipo y Demócrito en el siglo V a.C. Pero hay una diferencia muy importante entre estas teorías antiguas y las modernas teorías científicas: la actual exigencia de verificación experimental. Una explicación científica moderna debe contener una comprensión cuantitativa de los fenómenos. En la actualidad la búsqueda de la teoría final se realiza en el contexto de la física de altas energías.

Todavía no tenemos esta teoría, y ni siquiera estamos cerca de descubrirla. Sólo tenemos algunos indicios que vamos a tratar de describir en esta charla.

Esta conferencia está organizada de la siguiente manera:

En la primera parte vamos a describir brevemente la teoría de cuerdas, indicando sus diferencias con teorías anteriores y resumiendo de qué manera resuelve los problemas de estas teorías previas. En esta parte vamos a utilizar algunos conceptos e ideas que tal vez no les resulten familiares a algunos de Uds. Pero en la segunda parte volveremos sobre ellos y trataremos de ir clarificándolos.

Luego haremos una breve historia de la física del siglo XX para tratar de explicar por qué la búsqueda de la teoría final se da en el contexto de la física de altas energías y para analizar los aspectos básicos de las principales unificaciones logradas. Veremos en un ejemplo sencillo, de qué manera la física relevante a altas energías nos permite comprender la naturaleza y qué tipo de preguntas trata de responder la teoría de cuerdas.

Las que les mostré son cuerdas ordinarias. Las cuerdas fundamentales a las que nos referimos en esta charla, al igual que aquellas, son objetos unidimensionales. En esto, constituyen una importante ruptura con las teorías previas que, invariablemente, modelaban la materia en términos de partículas puntuales. El tamaño de las cuerdas fundamentales es extremadamente pequeño (de la escala de Planck: 10-33 cm), pero lo importante es que no son puntuales, tienen una dimensión.

Pueden ser abiertas, con extremos o cerradas.

Por supuesto las cuerdas ordinarias (estas que tengo aquí) están compuestas de partículas como protones, neutrones y electrones, pero estas nuevas cuerdas fundamentales son diferentes; ellas son las cosas de las que están hechas los protones y neutrones.

A medida que viajan en el espacio y el tiempo las cuerdas vibran. Cada cuerda se puede encontrar en cualquier estado posible de infinitos estados de vibración, como los tonos de una cuerda de violín.

Las cuerdas se supone que son muy pequeñas, entonces cuando se las mira de lejos, parecen partículas puntuales. Como una cuerda puede estar en cualquiera de infinitos modos de vibración es como una partícula que puede pertenecer a cualquiera de un número infinito de especies correspondiente al modo en que la cuerda está vibrando. Los distintos armónicos de una cuerda de violín son esenciales para la riqueza del sonido y corresponden a diferentes sonidos. En el caso de las cuerdas fundamentales que nos ocupan, los distintos armónicos corresponden a diferentes partículas elementales: el electrón, el gravitón, el fotón y todas las demás, de la misma manera que los distintos tonos de la cuerda de violín.

Por esta propiedad, la de contener todas las partículas de la naturaleza de manera consistente con la mecánica cuántica, incluyendo el gravitón, la teoría de cuerdas fue denominada “teoría de todo”.

Las teorías previas que modelaban la materia en base a partículas puntuales se llaman teorías cuánticas de campos. El lenguaje de estas teorías son estos dibujos, llamados diagramas de Feynman, que describen las interacciones de partículas.

Los diagramas de Feynman pueden pensarse como la historia real de partículas puntuales que se propagan en el espacio y el tiempo y que se unen y se separan en los puntos de interacción. Uno de los problemas más serios de la física de partículas es el de los infinitos que se originan en estos puntos de interacción (las masas y las cargas de las partículas que interactúan resultan infinitos).

Consideremos por ejemplo un electrón. El electrón es fuente (origen) de campos eléctrico, magnético y gravitatorio. La energía de sus campos eléctrico y gravitatorio es infinita. Las teorías de campos que describen partículas puntuales están plagadas de cantidades de magnitud infinita (divergencias). Estos infinitos son molestos pero pueden “absorberse” en algunas teorías cuánticas mediante redefiniciones y finalmente, los objetos físicos (carga, masa, energía), resultan bien definidos. Sin embargo, esta “renormalización” (como se denomina el proceso de sustracción de infinitos) no se puede realizar para el campo gravitatorio del electrón, si éste se considera una partícula puntual. Las teorías cuánticas de campos son inconsistentes (no renormalizables) en presencia de la gravedad. En particular la teoría de campos cuántica de la gravedad es no renormalizable (o no es renormalizable). Las teorías de partículas puntuales también presentan otras enfermedades llamadas “anomalías” (de las que no vamos a hablar).

La diferencia crucial con las teorías de cuerdas es que, mientras en el caso de las partículas hay un punto bien definido, en el que ocurre la división, cuando una cuerda se separa en dos no hay una noción bien definida de cuándo y dónde esto sucede. Esta diferencia tiene muchas consecuencias. En primer lugar, en la teoría de cuerdas el electrón ya no es puntual, sino una pequeña cuerda vibrante. La dimensión extra de la cuerda permite darle sentido al campo gravitatorio del electrón. Y lo mismo sucede con todas las partículas elementales, que en la teoría de cuerdas son pequeñas cuerdas vibrantes. Tampoco las cuerdas tienen “anomalías”, como aparecen en las teorías de campos de partículas.

El entusiasmo creció cuando se mostró que el límite de partículas de una de esas teorías tenía un parecido notable con el Modelo Estándar de las interacciones fundamentales y reproducía la Relatividad General. Estas son las teorías aceptadas actualmente para describir las interacciones fundamentales, en el sentido que han pasado todos los tests experimentales a que han sido sometidas.

Estas propiedades fueron establecidas en 1985, año en que se produjo la llamada Primera Revolución de las Cuerdas.

Aunque se puede pensar en muchas posibles teorías de cuerdas resulta que hasta el año 1995 sólo cinco tipos específicos pasaban el test de consistencia matemática. En ese año comenzaron a descubrirse relaciones entre estas cinco teorías (simetrías de dualidad) que permiten suponer actualmente la existencia de una única teoría, la teoría M, de la cual las cinco teorías de supercuerdas se obtienen bajo ciertas condiciones particulares. Esto es otra mejora sustancial respecto de las teorías de partículas anteriores, que son muchísimas. Es una mejora con respecto a las predicciones que puede hacer la teoría, porque al estar muy acotada por cuestiones de consistencia matemática, la verificación experimental de estas predicciones se transforma en un test decisivo para la viabilidad de la teoría. No es posible hacerle modificaciones sin violar los principios básicos que sustentan la teoría. Tan importante fue el descubrimiento de estas simetrías de dualidad que 1995 se considera el año de la Segunda Revolución de las Cuerdas.

Pero no todo es tan bonito. Hay algunos importantes problemas.

Las 5 teorías son consistentes en un espacio de 9 dimensiones (más el tiempo, es decir 10 dimensiones espacio-temporales) y la teoría M parece vivir en un espacio de 10 dimensiones (11 dimensiones espacio-temporales).

Cualquier análisis de viabilidad u obtención de predicciones experimentales requiere comprender cómo se relaciona la física en 3 dimensiones, las 3 dimensiones cotidianas, las que percibimos en nuestro universo (más el tiempo), con la física en 9 o 10 dimensiones. Para poder extraer conclusiones realistas es necesario suponer que 6 (o 7) de estas dimensiones son invisibles y sólo se manifiestan 4 (3 espaciales y el tiempo). La aparición de un número mayor de dimensiones que las que podemos apreciar cotidianamente, no es nueva. Vamos a ver más adelante que el primer intento de unificación realizado en el siglo XX, que pretendía describir la gravedad y el electromagnetismo en un marco común, unificado, requería un espacio de 4 dimensiones (además del tiempo, es decir 5 dimensiones espacio-temporales). La idea es que la dimensión extra es muy pequeña y está enrollada: como si miráramos un caño de lejos: parece ser una línea. Pero si nos acercamos se ve que en realidad tiene una estructura en otra dimensión.

Pero el problema en la teoría de cuerdas es que las predicciones experimentales dependen de cómo sean las 6 (o 7) dimensiones extra, de cómo se realice esta “compactificación” (nombre técnico que describe este proceso de enrollar las dimensiones). Y aquí está uno de los problemas más importantes que todavía deben ser resueltos: existen muchas, demasiadas, posibilidades de realizar esta transición de 10 (u 11) a 4 dimensiones. Y muchas de ellas son consistentes con la fenomenología observada experimentalmente. En su estado actual, la teoría no permite elegir entre distintas soluciones de otra manera que no sea el contraste con el experimento, cual es la versión que ajusta mejor a la naturaleza; pero no hay un criterio, un principio, para decidir si una es mejor que la otra en 4 dimensiones. Esto lleva a pensar que, en realidad, todavía no existe una buena formulación de la teoría. En particular, los cálculos pueden hacerse sólo de manera aproximada, de una forma llamada “perturbativa”. Es posible que una formulación que produzca resultados exactos elimine muchas de estas soluciones aproximadas. La esperanza es que elimine todas excepto una: la que corresponde a la naturaleza. A partir de 1995 se han descubierto varias propiedades de esta supuesta teoría, llamada teoría M. Se encontraron ciertas relaciones entre las 5 teorías consistentes de supercuerdas en 9 dimensiones y los miles de teorías de partículas que se derivan de ellas en 3 dimensiones.

Además de cuerdas, la teoría M contiene otros objetos extendidos de mayor dimensionalidad (membranas de 2 dimensiones, objetos de 3 o más dimensiones espaciales), igualmente fundamentales. Todos ellos viviendo en 11 dimensiones.

La idea que existe actualmente entre los físicos de cuerdas es que no se conocen todavía los principios fundamentales que sustentan las ecuaciones.

Hasta aquí hicimos una descripción superficial de la teoría de cuerdas. Tratemos ahora de profundizar un poco más y de aclarar algunos conceptos que hemos usado sin explicar. Para ello parece conveniente hacer una breve historia de la física, con especial atención a la física moderna contemporánea y en particular a la situación existente en el momento de la formulación de la teoría de cuerdas.

Empecemos con el nacimiento de la física.

La mecánica de Newton, en el siglo XVII, marca el comienzo de la ciencia moderna. Newton comenzó el sueño moderno de una teoría final. La mecánica newtoniana postula la unicidad de las leyes que rigen el movimiento de los cuerpos celestes y el de los terrestres, la unicidad de las leyes del movimiento y de la gravitación universal. No es casual que la gravedad marque el comienzo. Es la más familiar de las fuerzas, la única fuerza universal, es decir que actúa entre todas las partículas sin excepción (todos sabemos que si soltamos cualquier objeto que estamos sosteniendo, este cae por la fuerza de la gravedad). Su fuente (el origen de esta fuerza) es la masa de la partícula (de la Tierra en el caso de los objetos que caen) y su intensidad es proporcional a ella. La gravedad es atractiva y de “largo alcance” pues actúa a grandes distancias (incluso intergalácticas, cosmológicas).

Newton concebía la gravedad como una “acción a distancia”, es decir una partícula actúa sobre otra directa e instantáneamente a través del espacio, con una fuerza proporcional al producto de las masas de las partículas y que disminuye como el cuadrado de la distancia que las separa.

La concepción moderna postula en cambio que la gravedad es geometría. En efecto, la teoría de la relatividad de Einstein concibe al campo gravitatorio como un campo de distorsión geométrica o una curvatura del espacio-tiempo. En la Teoría Especial de la Relatividad (1905) Einstein modificó las nociones de espacio y de tiempo absolutos de Newton, introduciendo el concepto de espacio-tiempo, en que el tiempo aparece como una dimensión más, en un pie de igualdad con las dimensiones espaciales. Y en su Teoría de Relatividad General (1915) trató de encajar la teoría de la gravedad en esta nueva visión. Tenía para ello algunos indicios, por ejemplo el notable descubrimiento de Galileo que el movimiento de cuerpos pequeños debido a la gravedad es independiente de la naturaleza de los cuerpos. Esto le sugirió que la gravedad podría ser una propiedad del propio espacio-tiempo. Muy brevemente, en lugar de la imagen newtoniana de la gravitación como una atracción entre todos los cuerpos masivos, la RG describe la gravitación como un efecto de la curvatura del espacio-tiempo producida por la materia y la energía. El concepto de campo, muy importante en la descripción de todas las fuerzas, se basa en la noción de que toda partícula es la fuente de un campo tal que cualquier otra partícula que se encuentre dentro de su rango de acción experimenta una fuerza proporcional a la intensidad del campo en ese punto. Todas las partículas originan un campo gravitatorio. Así por ejemplo, el Sol curva el espacio-tiempo a su alrededor y la órbita terrestre es consecuencia de este efecto geométrico.

La RG resolvió un antiguo conflicto de la teoría de Newton: la precesión del perihelio de Mercurio. Y predijo nuevos fenómenos que fueron observados con posterioridad a la formulación de la teoría: la curvatura en la trayectoria de los rayos de luz producida por el Sol, predicha por la teoría, fue medida por primera vez en 1919. Desde entonces se han acumulado más pruebas y hoy podemos afirmar que la RG es la teoría que describe satisfactoriamente el campo gravitatorio.

Es interesante analizar en más detalle estas dos teorías. La física de Newton explica virtualmente todos los movimientos observados en el sistema solar, pero a costa de introducir algunas suposiciones arbitrarias. Por ejemplo volvamos a la ley del cuadrado inverso. En la teoría de Newton no hay nada que obligue particularmente a esta ley. Newton desarrolló esta idea para explicar hechos conocidos sobre el sistema solar, como por ejemplo la ley de Kepler entre el tamaño de las órbitas planetarias y el tiempo que les lleva a los planetas dar una vuelta alrededor del Sol. Si se reemplazara el dos por un tres o un 5.8 nada cambiaría en el marco conceptual de la teoría (aunque las observaciones no podrían explicarse). En la teoría de Einstein en cambio no hay tanta arbitrariedad. Para cuerpos en movimiento lento en campos gravitacionales débiles, para los cuales se puede hablar de una fuerza gravitacional newtoniana, la RG requiere que esta fuerza vaya como el cuadrado inverso (RG=>Newton).

No es posible en la RG ajustar la teoría para obtener otra cosa que no sea la ley del cuadrado inverso sin violar alguno de los principios básicos de la teoría. También enfatizó el propio Einstein que el hecho que la fuerza de gravedad sobre objetos pequeños sea proporcional a su masa y no dependa de ninguna otra propiedad del objeto es muy arbitrario en la teoría de Newton. La fuerza gravitacional podría haber dependido de la composición química, el tamaño o la forma del objeto sin afectar la base conceptual de la teoría newtoniana. En la teoría de Einstein la fuerza que la gravedad ejerce sobre cualquier objeto debe ser proporcional a su masa e independiente de cualquier otra propiedad. Si no fuera así no se podría interpretar la gravitación como un efecto geométrico de la curvatura del espacio-tiempo. La teoría de Einstein es más rígida.

Retomemos la línea histórica. Las siguientes fuerzas estudiadas cronológicamente fueron la electricidad y el magnetismo. Si bien estos fenómenos eran conocidos desde la antigüedad, a finales del siglo XIX fueron concebidos en el marco de una teoría común. La carga eléctrica es la fuente (el origen) de estas fuerzas, y por eso no es esta una interacción universal como la gravitatoria, sino que sólo actúa entre partículas cargadas. Su intensidad es enorme comparada con la gravitatoria (la fuerza gravitatoria entre un electrón y un protón, por ejemplo, es unas 1040 veces más débil que la fuerza eléctrica entre ellos), pero como las cargas son positivas y negativas hay una tendencia a la cancelación, y por eso la gravedad domina el universo a grandes escalas.

El electromagnetismo fue formulado por Maxwell (alrededor de 1850) al descubrir que la electricidad y el magnetismo son en realidad distintos aspectos del campo electromagnético. Un cuerpo cargado eléctricamente crea un campo electromagnético que ejerce fuerzas eléctrica y magnética sobre otros cuerpos cargados. Maxwell calculó que la velocidad de propagación de un campo electromagnético es la de la luz y propuso entonces que la luz es un fenómeno electromagnético. Como las cargas pueden oscilar con cualquier frecuencia Maxwell concluyó que la luz visible forma sólo una pequeña parte de todo el espectro de radiación electromagnética (que hoy sabemos que incluye ondas de radio, luz UV, infrarroja, rayos X, etc.).

Con esta teoría se alcanzó una sensación de completitud. A fines del siglo XIX se pensaba que sólo había que calcular más precisamente, aproximar con más cifras decimales, pero que no había más principios ni leyes por descubrir. La gravedad y el electromagnetismo son efectivamente las más familiares de las interacciones fundamentales y con estas leyes podían explicarse todos los fenómenos cotidianos.

Como ya dijimos, la primera teoría unificadora en el siglo XX involucraba la gravitación de Einstein y el electromagnetismo de Maxwell. Se hizo en el marco de una idea que actualmente se retoma en la teoría de cuerdas: aumentar el número de dimensiones del espacio-tiempo.

El primer intento de unificación en la física de este siglo se remonta a 1921 cuando Kaluza, poco después que Einstein publicara su teoría de la relatividad, propuso unificar las interacciones gravitatorias y electromagnéticas agregando una dimensión extra al espacio-tiempo. Kaluza escribió las ecuaciones del campo gravitatorio en 5 dimensiones, agregando simplemente una dimensión espacial imaginaria. El resultado fue muy interesante: vistas en 4 dimensiones (compactificando una dimensión, como explicamos antes) las ecuaciones de Einstein reproducen las ecuaciones gravitatorias y además otro conjunto de ecuaciones que resultan ser precisamente las ecuaciones de Maxwell para el campo electromagnético. Así, formulando la RG en 5 dimensiones se pueden obtener la gravedad y el electromagnetismo en una única teoría. Sin embargo, nosotros sólo percibimos 4 dimensiones. La interpretación de esta dimensión extra, propuesta por Klein en 1926, es que la dimensión extra es muy pequeña y está enrollada, pero no dentro del espacio cuatridimensional, sino de manera tal que lo extiende. Klein calculó la circunferencia de esta dimensión enrollada alrededor de la quinta dimensión y resultó ser de 10-33 cm (la longitud de Planck), es decir mucho más pequeña que cualquier estructura que se haya observado, incluso en la física de las partículas subnucleares.

Con el descubrimiento de las interacciones fuertes y débiles alrededor de 1930 la teoría de Kaluza-Klein perdió mucho de su atractivo: una teoría unificada debería contener cuatro fuerzas, no sólo dos. Las 5 dimensiones eran insuficientes. En realidad para incluir estas dos fuerzas adicionales en una idea semejante, hacen falta justamente 10 u 11 dimensiones. La misma cantidad que requiere la teoría de cuerdas.

Pero retomemos el hilo histórico. Dijimos que a finales del siglo XIX había entre los físicos una sensación de que ya podían explicarse todos los fenómenos conocidos en base a las leyes de Newton y el electromagnetismo de Maxwell. Pero en 1895 se descubrieron los rayos X, en 1896 la radiactividad, Thompson descubrió el electrón en 1897 y esto indicó que había nuevas cosas por descubrir estudiando radiación de distintos tipos. En 1905 Einstein presentó la teoría especial de la relatividad, pero además sugirió un nuevo método para demostrar la existencia de los átomos e interpretó resultados anteriores sobre la radiación calórica en términos de una nueva partícula que más tarde se llamó fotón. Se sucedieron entonces una serie de importantes avances: en 1911 Rutherford presentó su modelo atómico, semejante al sistema solar (pequeños núcleos rodeados de nubes de electrones); en 1913 Bohr explicó el espectro del átomo más sencillo, el hidrógeno. De nuevo se empezó a pensar en la posibilidad de una teoría unificadora de toda la física. Y el marco adecuado lo proveyó uno de los hitos más importantes de la física del siglo XX: el descubrimiento de la mecánica cuántica en 1900.

La mecánica cuántica introdujo la modificación más radical en el pensamiento físico: las partículas y fuerzas newtonianas fueron reemplazadas por funciones de onda y probabilidades y esto hizo posible calcular las propiedades, no sólo de los átomos individuales y sus interacciones con la radiación, sino también de átomos combinados en moléculas. Se hizo evidente que las reacciones químicas son lo que son por las interacciones eléctricas de los electrones y núcleos atómicos. Tan importante es la mecánica cuántica en la física moderna que toda la física se divide, a partir de ella, en clásica (o no cuántica) y cuántica.

Una de las primeras aplicaciones de la MC fue calcular que la energía de los campos magnéticos y eléctricos en un rayo de luz viene en paquetes que se comportan como partículas. En consecuencia justifica los fotones de Einstein.

Otro ingrediente de esta teoría es el resultado de Dirac de 1928 según el cual la descripción de los electrones en términos de funciones de onda es consistente con la teoría especial de la relatividad. Una consecuencia de esta observación de Dirac es que para cada tipo de partícula cargada (como el electrón) debe haber otra especie con igual masa pero carga opuesta: la antimateria. En 1932 se midió el positrón (la antipartícula del electrón).

La teoría cuántica de los electrones y los fotones es la QED. La QED se usó en los años veinte y principios de los treinta para calcular varios fenómenos (colisiones de fotones con electrones, de un electrón con otro, la aniquilación o producción de un electrón y un positrón) con resultados sorprendentemente de acuerdo con el experimento.

Pero pronto apareció un nuevo problema: los primeros cálculos cuánticos de energías atómicas habían dado resultados coincidentes con los experimentos. Pero cuando la mecánica cuántica se aplicó no sólo a los electrones en los átomos sino a los campos eléctricos y magnéticos que producen, resultó que el electrón tenía energía infinita. Aparecieron otros infinitos en los cálculos y por cuatro décadas este resultado absurdo pareció el obstáculo más grande para el progreso de la física.

A mediados de los años treinta se consideraba que la QED era sólo una aproximación a la teoría completa, válida sólo para procesos que involucran fotones, electrones y positrones de energía suficientemente baja. Había problemas de consistencia interna debido a la aparición de los infinitos.

La solución al problema de los infinitos apareció a fines de los años cuarenta y resultó consecuencia de otra unificación. En 1940 fue posible unificar la Mecánica Cuántica con la Relatividad Especial. Los principios de estas dos teorías son casi incompatibles entre sí y pueden coexistir sólo en un tipo muy limitado de teorías. En la mecánica cuántica no relativista podíamos imaginar cualquier tipo de fuerzas entre los electrones y los núcleos atómicos, pero esto no es posible en una teoría relativista. Las fuerzas o interacciones entre partículas sólo pueden aparecer por intercambio de otras partículas. Todas estas partículas son paquetes de energía o “cuantos” de varios tipos de campos.

Hay un campo para cada especie de partícula elemental. Hay un campo eléctrico cuyos cuantos son los electrones, hay un campo electromagnético cuyos cuantos son los fotones. No hay campo del núcleo atómico o de los protones y neutrones, pero sí hay de los quarks, las partículas que componen el núcleo. Las ecuaciones de una teoría de campos, tratan con campos no con partículas. Las partículas aparecen como manifestaciones de estos campos.

La solución que encontraron los físicos al problema de los infinitos gobernó desde entonces el curso de la física. Los electrones libres y en los átomos están siempre emitiendo y reabsorbiendo fotones que afectan su masa y su carga y las hacen infinitas. Para poder explicar la carga y masa observadas (que son finitas), la masa y carga desnudas que aparecen en las ecuaciones deben ser infinitas. La energía total del átomo es entonces la suma de dos términos, ambos infinitos: la energía desnuda que es infinita porque depende de la masa y carga desnudas, y el corrimiento calculado por las emisiones y reabsorciones de fotones que es infinito porque recibe contribuciones de fotones de energía ilimitada. Esto permitió preguntarse si es posible que estos dos infinitos se cancelen dejando un resultado finito, y la respuesta es afirmativa.

Los cálculos de estos procesos en 1948 eran terriblemente complicados porque daban el resultado como una suma de términos que individualmente violaban la relatividad especial, siendo sólo la respuesta final consistente con la teoría de la relatividad. Mientras tanto, Richard Feynman y otros físicos estaban desarrollando independientemente métodos mucho más simples de cálculo, consistentes en cada paso con la relatividad. Feynman desarrolló los diagramas que llevan su nombre y que ya vimos. Se usaron estas técnicas para hacer otros cálculos, algunos de ellos daban una coincidencia espectacular con el experimento. Por ejemplo, el electrón tiene un pequeño campo magnético, originalmente calculado en 1928 por Dirac sobre la base de su teoría cuántica relativista del electrón. Schwinger había realizado cálculos aproximados del desplazamiento en la intensidad del campo magnético del electrón causado por procesos en que fotones son emitidos y reabsorbidos. Los cálculos fueron continuamente refinados desde entonces, y el resultado moderno es que el campo magnético del electrón aumenta por emisiones y reabsorciones de fotones y efectos similares por un factor 1.00115965214 (con un error de 3 en el último dígito) sobre la vieja predicción de Dirac que había ignorado estos efectos. Casi simultáneamente con los cálculos de Schwinger, experimentos realizados en la Universidad de Columbia indicaban que el campo magnético del electrón es en realidad un poco mayor que el viejo resultado de Dirac y justamente en la cantidad calculada por Schwinger. Un experimento reciente da un factor 1.001159652188, con un error de 4 en el último dígito. La coincidencia numérica entre teoría y experimento es quizás la más impresionante de toda la ciencia.

Con semejante éxito no es sorprendente que la QED se haya convertido en la teoría correcta de los fotones y electrones. Sin embargo, a pesar del éxito experimental de la teoría, y aunque los infinitos se cancelan cuando se los trata adecuadamente, el hecho de que aparezcan produce cierta desconfianza. Dirac en particular se refería a la renormalización como si se estuviera barriendo los infinitos debajo de la alfombra. El requerimiento de una teoría completamente finita es parecido a otros varios juicios estéticos que los físicos teóricos siempre tienen que hacer.

Entonces, encontrar teorías que no tengan infinitos parece ser un camino apropiado para avanzar en la búsqueda de la teoría final. Actualmente la teoría de cuerdas parece ser el único modo de evitar los infinitos cuando se quiere unificar la mecánica cuántica con la relatividad general.

El siguiente gran progreso realizado por la teoría cuántica de campos fue la unificación del electromagnetismo con la teoría nuclear débil.

Las otras dos interacciones fundamentales (además de la gravitatoria y la electromagnética) son la fuerte y la débil. Estas fuerzas no son observables directamente en la vida cotidiana, ya que actúan a escala subatómica. La primera es responsable de mantener unidos protones y neutrones (explica por qué no se separan los protones del núcleo atómico debido a la fuerza de repulsión eléctrica y no se desintegra el núcleo atómico, pero actúa también entre otras partículas pesadas llamadas hadrones. Es de “corto alcance” (se extingue más allá de 10-13 cm) y su fuente es el color, equivalente de la carga eléctrica, que en este caso es de 3 tipos: rojo, verde y azul.

La fuerza débil, mucho más débil que la electromagnética pero mucho más fuerte que la gravitatoria, se manifiesta especialmente en la transmutación de partículas. Fue postulada inicialmente para explicar el decaimiento beta, un tipo de radiactividad de ciertos núcleos atómicos inestables.

En un decaimiento beta típico un neutrón se convierte en un protón, un electrón y un antineutrino, a través de un cambio de sabor (equivalente a la masa, carga o color en las otras fuerzas) de un quark. La fuerza nuclear débil no es tan importante en nuestra vida cotidiana como las fuerzas magnéticas, eléctricas o gravitatorias, pero juega un papel decisivo en las cadenas de reacciones nucleares que generan energía y producen los elementos químicos en los núcleos de las estrellas. Esto es algo que ninguna otra fuerza puede permitir que suceda. La fuerza nuclear fuerte que mantiene los protones y neutrones juntos en el núcleo y la fuerza electromagnética que trata de separar los protones, no pueden cambiar las identidades de estas partículas, y la fuerza gravitatoria ciertamente no puede hacer nada de este tipo; entonces la observación de neutrones cambiando a protones y viceversa proveyeron la evidencia de un nuevo tipo de fuerza en la naturaleza. Como su nombre lo indica, la fuerza débil es más débil que la electromagnética o la nuclear fuerte.

En 1957 la teoría de las interacciones débiles estaba establecida en el contexto de la teoría cuántica de campos, pero había un sentimiento de insatisfacción. Los problemas no eran experimentales sino teóricos. Aunque la teoría funcionaba bien para el decaimiento beta, al ser aplicada a otros procesos más exóticos aparecían nuevamente infinitos (por ejemplo la probabilidad de colisión de un neutrino con un antineutrino). Los experimentos no podían hacerse, pero obviamente los resultados infinitos no podían coincidir con ningún resultado experimental. Estos infinitos ya habían aparecido en la Electrodinámica cuántica (QED), pero en 1940 se había mostrado que se cancelan en esta teoría, es decir, la QED es renormalizable. Pero la teoría de Fermi que describía las interacciones débiles no lo era.

Otro problema con esta teoría era que tenía muchos elementos arbitrarios. La forma básica de la interacción débil se había inferido básicamente del experimento pero podría haber sido muy diferente, aun sin violar ningún principio físico conocido.

La solución la encontraron Weinberg y Salam y por esto recibieron el premio Nobel de física en 1979. Así como la fuerza electromagnética entre partículas cargadas es causada por el intercambio de fotones, una fuerza débil no podría actuar instantáneamente en un punto del espacio. Weinberg y Salam propusieron la existencia de nuevas partículas, W y Z, nuevas partículas mensajeros que no podían ser no masivas como los fotones, pero se introducían en la teoría del mismo modo. Esto hizo que la teoría se hiciera renormalizable como la QED. Al hacerlo se vio que no era sólo una teoría de las interacciones débiles sino una teoría unificada con las fuerzas electromagnéticas, que se llamó teoría electrodébil.

La verificación experimental llegó mucho después. En 1983 se descubrieron las partículas W y en 1984 la partícula Z, cuya existencia y propiedades habían sido predichas correctamente por la teoría electrodébil en 1968.

Al unificar el electromagnetismo con las interacciones débiles, esta teoría no sólo permitió eliminar inconsistencias de la teoría débil previa, sino que predijo la existencia de nuevas partículas (los bosones W± y Z), observadas experimentalmente en 1983.

En los años sesenta, Gell-Mann y Zweig trataban de reducir el enorme zoológico de partículas conocidas. Propusieron que casi todas estas partículas estaban compuestas de unas pocas partículas simples, más elementales, llamadas quarks. La idea iba en la misma dirección que los físicos estaban acostumbrados a pensar; era un paso más en la tradición que comenzaron Leucipo y Demócrito, de tratar de explicar estructuras complicadas en términos de constituyentes más simples y más pequeños. Los quarks se aplicaron en los años sesenta a una gran variedad de problemas físicos relacionados con las propiedades de los neutrones, protones y mesones y todas las otras partículas supuestamente hechas de quarks, y generalmente la teoría funcionaba bastante bien. Pero incluso los mejores intentos experimentales de los años sesenta y setenta de extraer los quarks de las partículas que supuestamente los contenían, fracasaron. Esto parecía imposible. Desde que Thompson sacó los electrones de los átomos siempre había sido posible romper cualquier sistema compuesto como una molécula en átomos o un núcleo en las partículas individuales que lo componen. Pero parece imposible aislar los quarks.

La teoría de los quarks empezó a tener sentido con la elaboración de la cromodinámica cuántica en los años setenta, nuestra moderna teoría de las interacciones fuertes. Esta teoría prohíbe cualquier proceso en que un quark libre pueda ser aislado (confinamiento). La teoría de quarks y gluones se llamó cromodinámica cuántica y fue aceptada rápidamente como la teoría de las interacciones nucleares fuertes.

La idea de que los quarks y gluones no pueden observarse aisladamente es parte de los principios aceptados por la física de partículas elementales, pero aún así describimos los neutrones, protones y mesones como compuestos por quarks.

¡ALTO!

¿De qué manera comprender estas fuerzas nos permite comprender la naturaleza? Consideremos para ilustrar estas ideas un pedazo de tiza. La tiza es una sustancia familiar, sobre todo para los docentes.

La tiza

La tiza es blanca. ¿Por qué? Todos sabemos que los colores del arco iris se asocian con luz de determinada longitud de onda: más largas al rojo, más cortas al violeta y azul. Cuando la luz choca contra un objeto opaco como la tiza sólo una parte se refleja; el resto es absorbido: una sustancia de determinado color lo es porque absorbe ondas de ciertas longitudes de onda: vemos el color que refleja. La tiza absorbe en el infrarrojo y el ultravioleta, que son rangos del espectro invisibles y refleja todos los otros.

¿Pero por qué? ¿Por qué la tiza absorbe las longitudes de onda invisibles y refleja todas las visibles?

La respuesta tiene que ver con las energías de los átomos y la luz. Los fotones de la luz no tienen masa o carga pero tienen cierta energía, inversamente proporcional a la longitud de onda de la luz. Los estados de un átomo son discretos, definidos: no se pueden cambiar excepto en ciertas cantidades definidas. Normalmente un átomo está en su estado de mínima energía; cuando absorbe luz salta a un estado de mayor energía y de menor energía cuando emite. Entonces sólo absorbe o emite fotones de esas energías particulares.

La tiza es blanca porque las moléculas que la componen no tienen un estado al que puedan saltar absorbiendo fotones de cualquier color de luz visible.

¿Por qué? ¿Por qué los átomos y moléculas vienen en estados discretos con energía definida? ¿Por qué la luz viene en fotones de energía definida? Estas preguntas se respondieron en 1920 con la Mecánica Cuántica. Las partículas de un átomo se describen en Mecánica Cuántica con funciones de onda. Es como una onda de luz o sonido pero su magnitud da la probabilidad de encontrar a las partículas en un determinado lugar.

Las moléculas de carbonato de calcio que forman la tiza no tienen electrones que puedan cambiar su energía absorbiendo luz visible. Los fotones también sólo pueden existir en determinadas energías.

¿Y por qué? ¿Por qué las ecuaciones de la MC que gobiernan a las partículas en los átomos son así? ¿Por qué la materia consiste de átomos, electrones y núcleos? ¿Por qué hay algo como la luz?

Las respuestas nos remontan al Modelo Estandar y para eso fue necesaria la reconciliación de la Mecánica Cuántica con la Relatividad Especial en 1940. Los principios de estas dos teorías son casi incompatibles entre sí y pueden coexistir sólo en un tipo limitado de teorías. En la mecánica cuántica no relativista podíamos imaginar casi cualquier tipo de fuerza entre electrones y núcleos pero esto no es así en una teoría relativista. Las fuerzas entre partículas sólo pueden aparecer por intercambio de otras partículas. Todas estas partículas son paquetes de energía o “cuantos” de varios tipos de campos. Un campo (eléctrico o magnético) es una deformación del espacio. Hay un tipo de campo para cada especie de partícula elemental.

¿Por qué? ¿Por qué el mundo consiste sólo de estos campos: los quarks, electrones, fotones,...? ¿Por qué tienen las propiedades que les atribuye el modelo estándar? Y ¿por qué la naturaleza obedece los principios de la relatividad y la mecánica cuántica?

Perdón, estas preguntas todavía no tienen respuesta.

Ahora que entendemos cómo funciona empezamos a preguntarnos por qué. ¿Por qué hay un neutrón y un protón, uno neutro y otro cargado con casi la misma masa y mucho más masivo que el electrón? Para eso debemos ver los detalles del modelo estándar. Los quarks más livianos se llaman u (up) y d (down) y tienen cargas +2/3 y -1/3 (en unidades en que la carga del electrón es -1). Los protones consisten de dos u y un d y entonces tienen carga 2/3+2/3-1/3=1. Los neutrones consisten de un u y dos d: entonces su carga es 2/3-1/3-1/3=0. Las masas de los neutrones y protones son casi iguales porque se originan en fuerzas fuertes que mantienen a los quarks unidos y estas fuerzas son iguales para un u y un d. El electrón es más liviano porque no siente estas fuerzas fuertes. Todos los quarks y electrones son paquetes de energía de varios campos y sus propiedades se siguen de las propiedades de estos campos.

De nuevo llegamos al Modelo Standard. Cualquier cadena de preguntas sobre la tiza nos lleva al Modelo Standard. Vayamos ahora en otra dirección: ¿Por qué hay suficiente calcio, carbono y oxígeno aquí en la tierra para formar la tiza? Estos elementos existen en todo el universo, fueron creados en las estrellas. Usando el modelo del big bang y el Modelo Standard podemos calcular que la materia se formó en los primeros minutos del universo y que se formó en la proporción de ¾ partes de H y ¼ de He y muy pocos otros elementos livianos. Este es el material crudo del que se formaron los elementos más pesados en las estrellas. Cálculos de reacciones nucleares en estrellas muestran que los elementos más abundantes son aquellos cuyos núcleos están más ligados y estos elementos incluyen carbono, oxígeno y calcio. Las estrellas mandan este material al medio interestelar de varios modos: vientos estelares y explosiones de supernovas. Y en este medio, rico en constituyentes de tiza, se forman las estrellas de segunda generación como el Sol, y sus planetas. Este escenario depende de que haya habido un big bang hace 13 mil millones de años.

Siempre que hemos seguido las cadenas de preguntas sobre fuerzas y materia suficientemente lejos, las respuestas se han encontrado en el modelo standard de las partículas elementales y la relatividad general. Los físicos experimentales y astrónomos han reportado cada vez mejor coincidencia entre sus resultados y observaciones y las predicciones del modelo estándar y la RG. Entonces, ¿por qué hay esta sensación de pesimismo?

En primer lugar, el modelo standard describe las fuerzas electromagnética y nucleares fuerte y débil, pero no incluye la gravedad. Hay obstáculos matemáticos muy fuertes para describir la gravitación en el mismo lenguaje que las otras fuerzas, en el lenguaje de la teoría cuántica de campos. En segundo lugar, aunque las interacciones nucleares fuertes están incluidas en el Modelo Standard, aparecen como algo bastante diferente de las fuerzas electromagnéticas y nucleares débiles, no como parte de una teoría unificada. Finalmente, el MS contiene muchas características que no son dictadas por principios fundamentales, sino que deben ser tomadas del experimento. Estas características aparentemente arbitrarias incluyen un menú de partículas, varias constantes como cocientes de masas, e incluso los propios principios. Podríamos imaginarnos que cualquiera o todas de estas características podrían ser distintas.

El MS y la RG no son claramente la respuesta final.

¿Por qué la unificación se da a altas energías? Cuanto más profunda es la estructura a analizar, mayor es la energía necesaria. La idea que dominó las unificaciones que desembocaron en el MS es que las fuerzas intrínsecas de las 3 interacciones (débil, fuerte y electromagnética) son iguales a alguna energía muy alta y se diferencian a energías menores. Las diferentes identidades que manifiestan estas fuerzas a bajas energías se funden en una única interacción a energías más altas. Pero esta energía de unificación puede ser muy diferente de las que se alcanzan en los experimentos presentes. Hay 3 fuerzas intrínsecas independientes en el MS, entonces no es una condición trivial que haya alguna energía a la cual estas fuerzas sean iguales. La energía predicha es muy alta (1016 GeV)(los aceleradores sólo llegan hasta ~cientos GeV) (escala de unificación electrodébil ~ 80 GeV).

(1MeV= 10^6 eV; 1 GeV = 10^9 eV; 1 TeV = 10^12 eV).

Este parece un número muy grande, pero en la física teórica hay otra energía muy grande que aparece naturalmente en cualquier teoría que intente unificar la gravedad con las otras fuerzas. En condiciones ordinarias, la fuerza de gravedad es mucho más débil que las otras 3. Nunca se ha observado ningún efecto de las fuerzas gravitatorias entre las partículas dentro de un único átomo o molécula, y no hay demasiada esperanza de que alguien podrá hacerlo. Pero según la RG, la gravedad se produce y actúa tanto sobre energía como sobre masa. Este es el motivo por el que los fotones que tienen energía pero no masa se curvan por el campo gravitatorio del Sol. A energías suficientemente altas la fuerza de gravedad entre dos partículas elementales se hace tan fuerte como cualquier otra fuerza entre ellas. La energía a la que esto sucede es 1019 GeV, llamada energía de Planck, es la que tuvo lugar en el big bang.

Podemos aplicar las ecuaciones de la MC a las ecuaciones de la RG, pero volvemos al problema de los infinitos. Cada infinito se puede cancelar agregando nuevos términos, pero así se llega a una teoría con infinitas constantes desconocidas que puede ser útil para calcular procesos a energías relativamente bajas, a las que los términos que hay que agregar son despreciables, pero pierde poder predictivo cuando se la aplica a la escala de Planck.

Por supuesto, estas energías no pueden alcanzarse experimentalmente, pero para poder considerar una teoría como satisfactoria no sólo tiene que reproducir los resultados de los experimentos sino hacer predicciones para experimentos que en principio sean plausibles. En este sentido la RG está en la misma situación en que estaba la teoría débil antes de la formulación de la teoría electrodébil a fines de los años sesenta: la RG funciona bien cuando puede ser comprobada experimentalmente pero contiene contradicciones internas que muestran que debe ser modificada.

El valor de la energía de Planck nos pone frente a un nuevo problema formidable. Esta energía tremendamente grande aparece a un nivel tan profundo que podemos suponer que la energía de Planck es la unidad fundamental de energía que aparecerá en la teoría final.

Como el MS no incluye la gravedad pensamos hoy que es una aproximación de bajas energías de la teoría unificada fundamental y que pierde su validez a energías como la de Planck. Ahora se piensa que las ecuaciones del MS no son del tipo sencillo de las que son renormalizables sino que en realidad contienen todos los términos compatibles con las simetrías de la teoría. El motivo por el que las teorías renormalizables funcionan tan bien sería que todos los términos en las ecuaciones de campo, excepto los renormalizables, vienen divididos por potencias de la energía de Planck. El efecto de estos términos sobre cualquier proceso físico observado sería entonces proporcional a potencias del cociente de la energía del proceso por la energía de Planck, una cantidad tan pequeña como una parte en 1015. Es decir que prácticamente la condición de renormalizabilidad era correcta, aunque se imponía por motivos que ya no son relevantes.

Conclusión

La teoría final puede estar muy lejos y ser muy diferente de todo lo que hoy sabemos o podemos imaginar. Es muy probable que esta teoría incorpore la mecánica cuántica pues nadie ha sido capaz de modificar la MC de modo de preservar sus éxitos sin llevar a absurdos lógicos. También se supone que la teoría final descansará en principios de simetría, como las actuales MS y RG: las simetrías espacio tiempo de la RE que requieren que el MS sea formulado como una teoría de campos, y simetrías internas que dictan la existencia del campo electromagnético y los otros campos que llevan las fuerzas del MS.

Los últimos veinte años han visto el desarrollo de un marco radicalmente nuevo para una teoría cuántica de la gravedad y posiblemente todo lo demás: la teoría de cuerdas. Esta teoría nos ha dado el primer candidato posible para una teoría final.

Desde este punto de vista, el MS es una aproximación de bajas energías de una teoría fundamental que no es una teoría de campos, sino de cuerdas. Esta ruptura radical marca el comienzo de una nueva era postmoderna en física.

Como las cuerdas incorporan gravitones y todas las otras partículas, parecen proveer por primera vez la base para una posible teoría final. Como el gravitón parece ser una característica inevitable de cualquier teoría de cuerdas, se puede decir que la teoría de cuerdas explica por qué existe la gravitación.

Las teorías de cuerdas también parecen haber resuelto el problema de los infinitos que habían plagado las teorías cuánticas previas de la gravedad. Las cuerdas parecen estar libres de infinitos.

Una diferencia fundamental entre las teorías de cuerdas y las teorías previas es que los principios no se ponen a mano; son consecuencias matemáticas del modo particular en que las reglas de la mecánica cuántica se satisfacen en cada paso particular. Hasta ahora sólo existe una formulación muy elegante, matemáticamente hablando, pero para ser verdaderamente importante la teoría debe tener una única solución a partir de la cual podamos saber qué tipos de partículas existen a bajas energías, sus masas, las intensidades de sus interacciones, probabilidades de todo tipo de procesos. Sólo realizando estos cálculos y comparándolos con el experimento podremos saber si la teoría es correcta.

Todavía no hay un test decisivo de la teoría, no hay predicciones cuantitativas. Pero es la única fuente presente de candidatos para una teoría final. Se puede pensar en la teoría de cuerdas como la instancia inicial de un programa que contiene la primera teoría matemáticamente satisfactoria de la gravedad cuántica y que además parece ser un candidato plausible para describir también las otras fuerzas de la naturaleza.

Un incentivo para recorrer el duro camino de entender las teorías de cuerdas es que, si las supercuerdas realmente constituyen una explicación cuantitativa de todas las partículas e interacciones de la naturaleza, representarán uno de los mayores éxitos científicos de la historia de la Humanidad.

Pero no todos los físicos comparten este optimismo.

Algunos piensan, filosófica y científicamente, que estos esfuerzos están dirigidos en la dirección equivocada. Entre ellos, Richard Feynman dijo, refiriéndose a las cuerdas: “...creo que todo esto es un disparate.”

                © 2003 Javier de Lucas