1.- TEORIAS UNIFICADAS

                A pesar de los reiterados trabajos que se difunden sobre las Teorías Unificadas en la literatura científica y en las crónicas de revistas, tanto especializadas como de circulación masiva, en el fondo se trata de reeditar un viejo anhelo de la civilización humana. Si nos introducimos a investigar relatos de antiguas mitologías sobre el mundo, es muy seguro que pronto nos encontremos ante las primeras teorías unificadas. Sus autores idearon una elaborada historia en la que había un lugar para todo y todo tenía su lugar. Obvio que no se trataba de teorías científicas sobre el mundo en el moderno sentido de la palabra, pero sí eran intuiciones donde se entrelazaban las conjeturas, las creencias, lo conocido y lo desconocido para producir un cuadro único con un significado, en el que los autores podían introducirse con una confianza nacida de su interpretación del mundo que los rodeaba.

                Con la evolución y desarrollo de la civilización humana, fueron agregándose más cosas a la historia, algunas simples, otras complejas, volviéndose ésta, gradualmente, cada vez más artificial y complicada. Además, mientras estos relatos apuntaban a grandes extensiones del conocimiento al asimilar verdades observadas sobre el mundo como un todo único y coherente, carecían totalmente de rigor y profundidad: esto es, de la habilidad para extraer más de sus historias de lo que habían puesto en ellas anteriormente.

                Las teorías científicas modernas sobre el mundo no se sostienen por sucesivas conjeturas, refutaciones, ni tampoco, creencias o credos, sino que por programas de investigación rigurosos y profundos. Programas que buscan el hallazgo de nuevas predicciones y explicar fenómenos no incorporados en las especificaciones iniciales de las teorías.

                Un programa de investigación científica es un conjunto de teorías, y sus anexos, afines y coherentes. Cada programa de investigación está estructurado mediante: a) un núcleo duro ("hardcore"), constituido por las teorías fundamentales del programa, heurístico negativo (la heurística es la capacidad de generar nuevas investigaciones); b) un cinturón protector externo, heurístico positivo, constituido por hipótesis de diversa índole capaces de explicar experimentos o situaciones y predecir nuevos hechos. Todo hecho nuevo que aparece, situación o experimento, es confrontado primero con el cinturón externo del programa; si es explicable o concordante con éste, el programa se fortalece; si no es así, se modifica el cinturón protector. Cuando el desacuerdo es de tal magnitud que amenaza al núcleo duro, el programa está en serias dificultades.

                Ahora bien, un programa de investigación es progresivo en tanto su contenido teórico (su capacidad de generar predicciones) se adelante al contenido empírico (generación de situaciones problemas); es regresivo o degenerativo cuando los hechos se anticipan a la teoría y el programa puede ofrecer, entonces, sólo explicaciones post-hoc. De este modo, el programa progresivo va asentándose, mientras el regresivo pierde terreno, y supera a este último.

                Un programa de investigación para cualquiera de las ramas de la Física no se encuentra excluido de las características que hemos descrito en los párrafos precedentes. Pero sí se debe tener en consideración para algunas de sus especialidades, como las que se articulan para estudiar el cosmos; la esencia de sus conocimientos es su propia incertidumbre, pues las predicciones físicas no pueden ser exactas, toda vez que es imposible considerar en los cálculos todas las variables que podrían influir en un evento dado. Y ello surge de la naturaleza misma, probabilística y secuencial, del Universo. De ese modo, las proposiciones que puedan plantearse sólo son significativas si se determina su grado de probabilidad (éste se logra en forma inductivo-empírica) y se aceptan aquellas de máxima probabilidad.

                Por lo general, los resultados que se obtienen en los programas de investigación en Física reflejan más bien los métodos usados en ellos y, por ende, es posible predecirlos analizando los métodos que en éste se usen en cada caso. Por tanto, lo que los científicos conocen de la realidad lo determinan ellos mismos a priori al seleccionar sus métodos. Las conclusiones que se puedan obtener del programa de investigación, sin embargo, para sus ejecutores, no representarán –en ningún caso– la verdad indiscutible, establecida para siempre y que puede terminar definitivamente cualquier discusión. La importancia que pueda tener esas conclusiones radica en su eficacia y eficiencia, en la resolución de muchos problemas del hombre, y su validez.

                En años recientes ha existido un renovado interés de los físicos en programas de investigación para la consecución de la posibilidad de una Teoría Unificada. Veremos cuál es el significado de esta teoría y cómo, a pesar de ser necesaria para nuestra descripción del Universo y su contenido, está lejos de bastar para completar este entendimiento. No podemos reducir todo lo que vemos a una Teoría Unificada, en el estilo de los físicos de partículas. Tenemos que incluir otros factores para completar una descripción científica del universo. Una de las cuestiones que aparecerá en nuestro ensayo es hasta qué punto es peligroso sacar conclusiones sobre la Ciencia, o el método científico en general, al tratar un tema como el reduccionismo, o los méritos relativos de la religión y de la Ciencia. Las "ciencias locales", como la Biología o la Química, son muy diferentes de la Astronomía o de la Física de partículas. En la ciencia local podemos recoger virtualmente cualquier información que deseemos, llevar a cabo cualquier experimento, y (lo más importante de todo) controlamos todas las posibles fuentes de sesgos sistemáticos introducidos por el sistema experimental o por el proceso de reunir observaciones. Los experimentos pueden repetirse de diferentes maneras. Este no es el caso en Astronomía: no podemos experimentar con el Universo; sólo podemos aceptar lo que nos ofrece. Lo que vemos está inevitablemente predispuesto por nuestra existencia y nuestra visión de ella: los objetos intrínsecamente brillantes están invariablemente sobrerepresentados en estudios astronómicos. Asimismo, en la Física de partículas de alta energía, una gran limitación se impone a nuestra habilidad para experimentar. No podemos alcanzar, experimentando directamente, las muy altas energías requeridas para resolver muchos de los secretos del mundo de las partículas elementales. La filosofía de la ciencia ha dicho mucho sobre el método científico, suponiendo la existencia de un ambiente ideal en el que cualquier experimento deseado es posible; sin embargo, no ha tratado la realidad de las posibilidades experimentales limitadas con el mismo entusiasmo.

                Una Teoría Unificada nacida de un programa de investigación que convoque la idea de una ley física sencilla y única que explique la totalidad de la existencia material, es la más cara aspiración de la mayoría de los integrantes de la comunidad de físicos. Esa ley física explicaría el origen del Universo, su contenido y su destino. Todas las demás leyes naturales podrían deducirse racionalmente de esta única ley. El descubrimiento de una ley así sería el triunfo definitivo de la Física: se completaría la explicación lógica de los fundamentos de la existencia.

                Nadie, ni siquiera los físicos, tienen prueba alguna de que exista tal ley. Es fácil ver que sería muy problemática. Quizá la idea misma de la ley física se descomponga a cierto nivel. Por ejemplo, la descripción matemática de la naturaleza, que hasta ahora no ha fallado nunca a los físicos, podría no servir para la tarea de expresar esa ley. Otra posibilidad es que esa ley exista, pero que el entendimiento humano no pueda comprenderla. Ni siquiera una superinteligencia artificial de capacidad más que humana podría abarcar la propia ley general. En consecuencia, esa ley no podría descubrirse.

                Las leyes físicas son comparables a las reglas que se dan para la práctica de los deportes o de los juegos de azar. Pero, a diferencia de éstas, elaboradas por seres humanos, las leyes físicas parecen algo inherente al orden del Universo, que no inventaron los humanos. A veces, se cambian las reglas del juego para permitir, por ejemplo, un equilibrio en caso de diferencia notoria de habilidad o fuerza. En tal caso, hay una norma no expresa, que rige la modificación de las reglas: la de que se desea que el juego sea más interesante y competitivo igualando a los adversarios. Podemos suponer que las leyes físicas cambian también así, pero que existe una nueva ley que rige el cambio. Es muy posible que, cuando los físicos descubran nuevas leyes que incluyen racionalmente las leyes anteriores, descubran que ese proceso nunca acaba. En vez de hallar una ley universal absoluta que sea la base fundamental de la existencia, pueden encontrarse con una repetición interminable de leyes, o, peor aún, con la confusión y la falta más absoluta de normas... un Universo fuera de la ley.

                No hay, pues, garantía alguna de que nos aguarde una ley física sencilla. No obstante esta posibilidad, la idea de una ley simple que describa toda la existencia nos atrae como el Santo Grial. Y, como la búsqueda del Santo Grial, la investigación puede resultar más interesante que el objeto buscado.

                Hasta hace poco, se pensaba que los físicos deducían las leyes de la naturaleza directamente de la experimentación y de la observación. Las leyes básicas estaban íntimamente ligadas a la experimentación. Hoy, en los programas de investigación, se ha abandonado esa vía y los físicos no deducen las leyes directamente de la experimentación. Procuran, más bien, intuir las leyes básicas partiendo del razonamiento matemático para posteriormente –si se puede, o si alguna vez se pudiese– comprobarlas a través de la observación o de la experimentación.

                Pero dentro de las características de un programa de investigación en física, paradójicamente los razonamientos matemáticos van naciendo de un orden que emerge del caos. Supongamos que tenemos dos secuencias de dígitos. La primera tiene la forma

…001001001001001001…,

mientras la segunda tiene la forma

...010010110101111010010...

                A continuación, nos corresponde preguntarnos si estas secuencias son aleatorias u ordenadas. Sin duda que la primera corresponde a una secuencia ordenada, y decimos esto porque es posible visualizar un patrón en ella; esto es, podemos reemplazar la primera secuencia por una regla que nos permite recordarla o comunicarla a otros sin catalogar simplemente su contenido. Así, llamaremos a una secuencia no aleatoria si podemos abreviarla con una fórmula o regla más breve que ella. Si es así, decimos que es comprimible. Distinto se da el caso para la segunda frecuencia; en ella no existe posibilidad de abreviación o fórmula que capture la información que contiene: entonces decimos que es incomprimible. Si necesitamos hacer descripciones sobre la secuencia incomprimible, tendremos que catalogarla en su totalidad. No es posible condensar su información de una manera más corta que la secuencia misma.

                Esta simple idea nos permite extraer algunas lecciones sobre la búsqueda científica de una teoría unificada. Podemos definir la Ciencia como una forma válida de ver y explicarse el mundo, el hombre, el Universo. También lo son el arte, la religión, la filosofía, los mitos. Pero la Ciencia observa el mundo de todas las maneras posibles y reúne hechos relacionados con él. Busca patrones en esos hechos, compresiones de la información que se puede tabular, y a estos patrones se les llama las leyes de la Naturaleza. La búsqueda de una Teoría Unificada es la búsqueda de una última compresión del mundo. La demostración de Chaitin del teorema de la incompletitud de Gödel, usando los conceptos de complejidad y compresión, revela que el teorema de Gödel es equivalente al hecho que no se puede probar que una secuencia no se pueda comprimir. Nunca probaremos que una compresión es la última; siempre existirá una unificación más profunda y simple, esperando ser encontrada.

                Nuestro análisis de la compresibilidad de las secuencias nos deja una enseñanza: que un patrón, o simetría, es equivalente a leyes o reglas de cambio. La leyes clásicas de cambio, como las leyes de Newton sobre la conservación de los momentos lineales, son equivalentes a la invarianza de una cantidad o patrón. Estas equivalencias sólo se conocen mucho después de la formulaciones de las leyes del movimiento que gobiernan los cambios permitidos. Esto concuerda con la tradición platónica, que enfatiza los aspectos atemporales del mundo, que no cambian, como clave para sus estructuras fundamentales. Estos atributos eternos, o "formas" como las llamó Platón, parecen haber surgido con el paso del tiempo como las leyes de la naturaleza o las magnitudes invariantes y de conservación (como energía y momento) de la Física moderna.

                Desde 1973, este enfoque sobre la simetría ha sido el centro en el estudio de la Física de partículas elementales y las leyes que gobiernan las interacciones fundamentales de la naturaleza. Como ya lo mencionamos, no hace mucho se pensaba que los físicos deducían las leyes de la naturaleza directamente de los experimentos y de la observación. Las leyes básicas estaban íntimamente ligadas a la experimentación. Hoy se ha abandonado esa vía y los físicos no deducen las leyes directamente de la experimentación. Procuran, más bien, intuir las leyes básicas partiendo del razonamiento matemático. Nadie ha expuesto tan bien este alejamiento del empirismo estricto como Einstein en una conferencia pronunciada en 1936. Dijo lo siguiente: "Estoy convencido de que la interpretación matemática pura permite descubrir los conceptos y las leyes que los relacionan, y eso nos da la clave para comprender la Naturaleza... En cierto sentido, pues, yo creo que el pensamiento puro puede captar la realidad, como soñaban los antiguos".

                Einstein estaba profundamente afectado por su propio descubrimiento de la Teoría General de la Relatividad. Había construido una interpretación puramente matemática, lo que llamaríamos un modelo, una "invención libre" de su pensamiento, para describir el mundo físico. A partir de este modelo, hizo racionalmente varias deducciones cuantitativas que deberían poder observarse: un pequeño cambio en la órbita del planeta Mercurio, la curvatura de la luz alrededor del limbo del Sol, el hecho de que los relojes anduviesen más despacio en un campo gravitatorio. Si las observaciones no confirmaban el modelo, el modelo no era válido; así que se trataba de un modelo verificable. Pero el modelo en sí era una creación libre y no una inducción experimental.

                Einstein dijo también: " Si la base de la Física teórica no puede deducirse de la experiencia, sino que ha de ser una invención libre, ¿qué motivos tenemos para creer que podremos hallar el camino adecuado? Más aún, ¿existe en realidad este enfoque correcto fuera de nuestra imaginación? Yo respondo a esto con absoluta seguridad que, según mi opinión, el camino correcto existe. Y que tenemos capacidad para encontrarlo".

                Encontrar el camino correcto es la ambición de quienes concentran sus esfuerzos en programas de investigación para desarrollar hoy modelos teóricos de campo. Los caminos que se han elegidos parecen estar conduciéndoles al principio mismo del Universo; el tiempo dirá si son caminos falsos o equivocados. Los físicos teóricos, en sus recientes tentativas de entender el Universo, se han jugado el todo por el todo. Están ampliando los modelos teóricos bastante más allá de las energías que se manejan hoy en los laboratorios, hasta llegar a las elevadísimas energías de antes del primer nanosegundo de edad del Universo.

                Casi todos estos programas tienen un denominador común: desarrollar modelos sostenidos en invenciones libres de su entendimiento. Son manejados por científicos relativamente jóvenes que se caracterizan por su visión sintetizadora, su energía libre y desbordante y su notable capacidad para sublimar impulsos más primitivos en la ambición intelectual de saber. Los físicos, en su partida de cartas conceptual con la naturaleza, han ganado ya unas cuantas manos, y ahora quieren ganar la partida: llegar hasta el principio de los tiempos. No es fácil saber si están tirándose a una piscina sin agua o si de verdad tienen todas las cartas necesarias. Quizá tengamos que revisar profundamente nuestra concepción de la realidad material para poder explicar el origen del Universo. Pero es evidente ya que las teorías relativistas del campo cuántico y sus intrincadas simetrías están aportando muchas sorpresas conceptuales, una fecundidad imprevista de capacidad explicativa que emociona a los físicos. El tema de su trabajo ha sido la unificación de los campos cuánticos, y de sus correspondientes fuerzas, mediante la aplicación de los principios de simetría.

                En los actuales programas de investigación en Física, en general, se considera a la simetría como la principal guía en la estructura del mundo de las partículas elementales, y las leyes del cambio se derivan desde los requerimientos de simetrías específicas, a menudo de un carácter altamente abstracto, que se conservan. Estas teorías son llamadas "teorías de medición". Las más aceptadas teorías de las cuatro fuerzas conocidas de la Naturaleza –electromagnética, débil, fuerte y gravitacional– son todas teorías de medición. Estas teorías requieren de la existencia de fuerzas que ellas describen como necesarias para preservar las invariancias sobre las que están basadas. También pueden disponer el carácter de las partículas elementales de la materia que ellas gobiernan. En estos aspectos difieren de las clásicas leyes de Newton que, al regir el movimiento de todas las partículas, nada pueden decir sobre las propiedades de esas partículas. La razón de esta dimensión adicional es que el mundo de las partículas elementales regidas por estas teorías de medición, en contraste con el mundo macroscópico, está poblado por una colección de partículas prácticamente idénticas; por ello, es común escuchar en el ambiente académico que cuando se ha visto un electrón se han visto todas las partículas.

                Para los programas de investigación en Física que buscan encontrar un modelo que entregue una ley única que unifique las cuatro fuerzas de la Naturaleza, el uso de la simetría se ha constituido en una poderosísima herramienta, ya que permite que todo el sistema de leyes naturales sea derivado de la necesidad que un cierto patrón abstracto sea invariante en el Universo. Con posterioridad, las predicciones de este sistema de leyes pueden ser comparadas con el curso real de la Naturaleza. Es la ruta opuesta a la que habríamos seguido hace un siglo. Entonces, el estudio sistemático de hechos nos habría llevado a sistemas de ecuaciones matemáticas que nos darían las leyes del cambio; después, podría reconocerse que los hechos son equivalentes a alguna teoría global o local de invarianza.

                Puede parecer inútil y hasta fútil, intentar reducir la diversidad de teorías para cada una de las interacciones de la Naturaleza a una teoría última, simple y única. Pero para quienes son físicos la apreciación aparece diferente, y hasta necesaria. Hasta ahora, los avances han sido importantes en la resolución de este problema, sobre la base de simetrías mayores, dentro de las cuales las simetrías más pequeñas respetadas por las fuerzas individuales de la Naturaleza puedan acomodarse de manera entrelazada, lo cual pone nuevas restricciones sobre sus formas permitidas. Esto se podría considerar que se trata de una estrategia con buenos resultados, probada experimentalmente, para la unificación de las interacciones electromagnética y débil. Y ha conseguido una cantidad de proposiciones puramente teóricas para una próxima unificación con la fuerte: las Grandes Teorías Unificadas (GUT's), y finalmente, una cuádruple unificación con la fuerza gravitacional para producir la llamada Teoría del Todo (Theory of Everything: TOE).                 La candidata favorita para una TOE es la teoría de las Supercuerdas. Es suficiente decir que el enorme interés que han despertado esta teoría en los últimos años puede atribuirse al hecho que revelan que el requerimiento de autoconsistencia lógica –sospechoso de ser una restricción bastante débil sobre la TOE– resultó ser enormemente restrictivo. Al principio se pensó que reducía las alternativas a sólo dos posibles simetrías que subyacieran a la TOE. Subsecuentemente se ha encontrado que la situación es aún más complicada que lo imaginado al principio, y que la teoría de las Supercuerdas requerían de una nueva clase de matemáticas para poder ser elucidada.

              Los físicos están muy lejos de alcanzar ese objetivo final de la teorías unificadas, tal como se las concibe; son simplemente intentos para englobar todas las leyes que rigen las fuerzas fundamentales de la Naturaleza dentro de una ley singular de la Naturaleza derivada de la preservación de una sola simetría que lo abarca todo. Pero los programas para lograr el éxito de unificación de campos siguen adelante. Podríamos agregar que ahora se conocen cuatro fuerzas fundamentales, de las cuales la más débil es la gravitación. Podrían existir fuerzas de la Naturaleza aun más débiles y que son demasiado tenues para que nosotros seamos capaces de detectarlas (quizás nunca lo hagamos), pero cuya existencia es necesaria para adecuar la lógica indispensable de esa única teoría unificada.                                    

2.-TEORIAS DEL CAMPO UNIFICADO

                 El modelo estándar del Big Bang ofrecía un cuadro nítido de la ardiente época en la que protones y neutrones, aglutinados en el huevo cósmico, se fusionaron para formar núcleos atómicos. Proporcionaba sucintas explicaciones para fenómenos tan diversos como la radiación cósmica de fondo y el equilibrio observado de los elementos en el Universo. Pero nada describía sobre el origen de la hirviente sopa de partículas, ni sobre la metamorfosis de las nubes de ardiente gas a las formaciones de materia que hoy divisamos en la fría oscuridad del espacio. Aunque la hipótesis del Big Bang ganó aceptación general en la década de 1960, los cosmólogos no tardaron en empezar a intentar llenar esos vacíos en su comprensión de los hechos.

                El esfuerzo se vio fuertemente influenciado por los descubrimientos sobre los procesos físicos del Universo a escala tanto grande como pequeña. Los astrónomos que miraban a miles de millones de años luz en el espacio, detectaban sistemas de galaxias cuyas grandes magnitudes y ordenadas estructuras "suplicaban" una teoría evolutiva. Y de la investigación de las partículas de alta energía, donde auténticas hordas de nuevas partículas no dejaban de aparecer en los detectores de los enormes aceleradores, empezaron a emerger apuntes sobre la dinámica de la bola de fuego. Estos aceleradores no podían acercarse a los niveles de energía del Big Bang, pero los físicos se sentían cada vez más confiados en su habilidad de conjeturar cómo debían de haberse comportado las partículas en las prodigiosas temperaturas y densidades de la explosión primordial.

                Un grial tanto de la Cosmología como de la Física de partículas buscado desde hacía mucho tiempo, era la noción de lo que los físicos llamaban una teoría del campo unificado, una hipótesis que usara un simple conjunto de ecuaciones para describir los campos de todas las cuatro fuerzas: gravedad, electromagnetismo, y las fuerzas fuerte y débil del núcleo atómico. Proporcionaría un recio esqueleto para el cuerpo de la teoría cosmológica explicando, en términos similares a cualquier escala, desde la subatómica a la intergaláctica, todas las interacciones de fuerzas y materia.

                Esta iniciativa de buscar teorías del campo unificado comienza con los trabajos de Einstein en los años veinte y treinta de nuestro siglo. Partiendo de su Teoría de la Relatividad General, para describir la gravedad, y de la teoría de Maxwell para el electromagnetismo, Einstein buscó una teoría unificada más amplia, que integrase ambas fuerzas. Cuando Einstein hacía esto, aún se sabía muy poco de las fuerzas débil y fuerte, fuerzas consideradas hoy tan fundamentales como la gravedad y el electromagnetismo. Einstein creía que la teoría del campo unificado surgiría de la fusión de la Mecánica Cuántica con la Relatividad General. Albert Einstein pasó las últimas tres décadas de su vida en una vana búsqueda de una teoría unificada de la gravedad y el electromagnetismo, las únicas dos fuerzas bien comprendidas por aquel entonces. Pero el primer progreso real hacia la unificación lo efectuaron los científicos que estudiaban las fuerzas que dominan los átomos.

                Un grupo de físicos, entre los que figuran Julian Schwinger, Murray Gell-Mann, Sheldon Glashow, Abdus Salam, John Ward y Steven Weinberg, comenzaron a afirmar en los años cincuenta y sesenta que era más fácil unificar las interacciones electromagnéticas y las débiles, que las interacciones electromagnéticas y las gravitatorias. Esto se debía a que las interacciones electromagnéticas y las débiles compartían una propiedad importante: se suponían transmitidas ambas por gluones de espín uno, mientras que la gravedad dependía de un gluón de espín dos. Tales supuestos dieron su fruto cuando, en 1967-1968, se inventó el modelo electro-débil y el programa de unificación de campos tomó un nuevo rumbo trascendental. El camino para la unificación pasaba, al parecer, por la unión de campos bajo la égida de una simetría espontáneamente rota. La idea de una simetría rota explicaba el que fuerzas fundamentalmente unificadas y simétricas se manifestaran en la Naturaleza de formas tan distintas. Si se consideraba el modelo electrodébil junto a la Cromodinámica Cuántica, la teoría de la fuerza fuerte, se podía construir lo que pasó a denominarse el Modelo Estándar de gluones, leptones y quarks interactuantes.

                Durante los años sesenta, cuando se acumularon datos experimentales favorables al modelo electro-débil unificado, algunos físicos, dando por sentado el éxito experimental del modelo, intentaron ampliar matemáticamente el esquema de unificación para que incluyera la fuerza fuerte que ligaba los quarks por medio de los gluones coloreados. Querían lograr la síntesis de las fuerzas débil, electromagnética y fuerte. Como los gluones coloreados son, igual que los débiles y electromagnéticos, cuantos de campos de medida de Yang-Mills, es lógico suponer que todos los gluones del modelo estándar no son más que componentes de un sólo campo unificado. Esta es la idea básica moderna de la unificación de campos.

                Las teorías de campo que unifican las tres fuerzas (la electromagnética, la débil y la fuerte) se denominan "Grandes Teorías Unificadas" (GTU) o simplemente GUT's (teoría de la gran unificación –en inglés: Grand Unification Theory ) . Por condición previa, las GUT's no se proponen una unificación de campo total, ya que no incluye la gravedad, que es, con mucho, la más débil de las cuatro fuerzas conocidas.

                Los físicos teóricos que estudian hoy estas teorías creen que de ellas pueden deducirse cosas muy importantes sobre la naturaleza del Universo muy primitivo, de antes incluso del primer nanosegundo. De las GUT's se deducen también nuevas propiedades de las partículas cuánticas como, por ejemplo, la desintegración del protón (en el modelo estándar, los protones son estables), así como la existencia de toda una nueva clase de partículas cuánticas: los monopolos magnéticos.

                Pero por muy interesantes que sean las GUT's, a diferencia de su progenitor, el modelo electro-débil, carecen aún de una sólida base experimental. Las GUT's son ejemplos de ideas en una historia sin fin. Son nuevas ideas que no contradicen los principios generales de la Física ni los experimentos realizados, pero que carecen aún de pruebas directas que las apoyen.                 

                De todas las ideas que iremos exponiendo, la de las GUT's es sin duda una de las que concita una gran atención. Los físicos teóricos han elaborado una serie de ingeniosas teorías de este tipo, modelos matemáticos específicos, para calcular las propiedades de la desintegración del protón, y sus colegas experimentales se esfuerzan por hallar pruebas de este proceso de desintegración. Hasta ahora, no lo han logrado. Si estas teorías resultan erróneas (como bien podría ser), será una gran decepción que llevará a los físicos en una dirección nueva. En el reino subatómico, gobernado por las reglas de la Mecánica Cuántica, existe una relación muy estrecha entre el concepto de materia particulada y el de fuerza. A las partículas se le clasifican según el tipo de fuerza al que son sensibles, mientras que los campos de fuerza son transmitidos por partículas.

                Pero al margen de esa relación, existe otra bastante peculiar; descrita por primera vez en la década de 1920 por Heisenberg, Schrödinger, Dirac y sus colegas. A esta minúscula escala, las partículas de materia, como los electrones, pueden ser descritos también como ondas; los fenómenos ondulatorios como los protones pueden ser vistos también como partículas. Los electrones cambian su nivel de energía emitiendo o absorbiendo fotones, que se considera que son los portadores del electromagnetismo. Por otra parte, al margen de las relaciones que hemos descrito, existe otra idea íntimamente ligada a las partículas y a las fuerzas, que es la simetría.

                Aunque gozó de bastante éxito durante largo tiempo, la teoría original de la Mecánica Cuántica permaneció incompleta. Podía describir en términos generales el resultado de las interacciones de las partículas, pero no podía hacer predicciones exactas sobre las interacciones entre partículas y radiación. Cuando era empujado más allá de una aproximación general, el marco matemático de la teoría daba siempre respuestas infinitas o sin significado. En 1935, los físicos habían iniciado una serie de infructuosos esfuerzos por diseñar una teoría enteramente nueva que eludiera estos infinitos.

                Pero los resultados que se consiguieron de esos esfuerzos no fueron justamente los de desarrollar una nueva teoría. Resultó que la respuesta estaba en un refinamiento matemático de la primaria. A finales de la década de 1940, los esfuerzos de tres físicos, Richard Feynman, Julian Schwinger y Sin-Itiro Tomonaga, trabajando separadamente, dieron como consecuencia una descripción matemática mejorada del comportamiento de las partículas; la descripción recibió el nombre de Electrodinámica Cuántica, reducido inevitablemente a QED (quantum electrodynamics). Este nuevo modelo usaba un procedimiento llamado renormalización para eliminar los infinitos de los cálculos. La renormalización, una especie de juego de manos matemático, es un delicado proceso que redefine la masa y la carga de las partículas al tiempo que mantiene la integridad general de las ecuaciones. La técnica funcionaba perfectamente, y pronto los físicos estaban usando la Electrodinámica Cuántica para predecir, con increíble exactitud, las interacciones electromagnéticas de productos de los aceleradores de partículas, tales como electrones, positrones y fotones. A su vez, la QED sugería nuevos enfoques a la comprensión de todas las fuerzas.

                Si uno abordara a físicos de partículas en una conversación sobre la naturaleza del mundo, le explicarían rápidamente una historia sobre cuán simple y simétrico es el mundo si sólo se miraran las cosas de manera correcta. Pero al volver a contemplar el mundo real, uno sabe que está lejos de ser simple. Para el psicólogo, el economista, el botánico o el zoólogo, el mundo está lejos de ser simple. Es una cantidad de hechos complejos cuya naturaleza le debe más a su persistencia y estabilidad en el tiempo que a alguna misteriosa atracción por simetría o simplicidad. ¿Así, quién tiene razón? ¿Es el mundo realmente simple, como dijo el físico, o es extremadamente complicado, como todos parecen pensar?

                La respuesta a esta pregunta revela una de las más profundas sutilezas de la estructura del Universo. Cuando observamos a nuestro alrededor, no notamos las leyes de la Naturaleza; más bien, vemos los resultados de esas leyes. Los resultados son mucho más complicados que las leyes fundamentales, porque no respetan la simetría desplegada por las leyes. Así, es posible un mundo que exhibe complicadas estructuras asimétricas (como nosotros mismos), y es regido por leyes simétricas muy simples. Veamos el siguiente ejemplo. Supongamos que se balancea una pelota en el ápice de un cono. Si se suelta la pelota, su siguiente movimiento estaría determinado por la ley de Gravitación. Pero la Gravitación no tiene direcciones preferenciales en el Universo; a este respecto es completamente democrática. Pero cuando se suelta la pelota, siempre caerá en una dirección especial; ya sea porque se la ha empujado en esa dirección, o como resultado de fluctuaciones cuánticas que no permiten que persista un estado de equilibrio inestable. Así, el resultado de la caída de la pelota rompe la simetría direccional de la ley de la Gravedad.

                Veamos otro ejemplo. En este momento, Ud. y yo estamos situados en lugares especiales del Universo, a pesar del hecho que las leyes de la Naturaleza no muestren preferencia por un lugar en especial. Somos ambos resultado (muy complicado) de las leyes de la Naturaleza que rompen sus simetrías fundamentales respecto de posiciones en el espacio. Esto nos enseña por qué la Ciencia es a menudo tan difícil. Al observar el mundo vemos sólo las simetrías rotas que se manifiestan por medio del resultado de las leyes de la Naturaleza, y desde ahí debemos trabajar hacia atrás para desenmascarar las simetrías escondidas que caracterizan a las leyes detrás de su apariencia.

                Ahora podemos entender las respuestas dadas a nuestra primera pregunta. El físico de partículas trabaja muy cerca de las leyes de la Naturaleza y esa es la razón por la que está impresionado por su simplicidad y simetría. Por esta razón confía en la simplicidad de la Naturaleza. Pero el biólogo o el metereólogo se ocupan del estudio de los resultados complejos de estas leyes, antes que de las propias leyes. Por esto se impresionan más con las complejidades de la Naturaleza que con la simetría.

                Los físicos se valen constantemente de simetrías para aplicar a diversas situaciones una cantidad reducida de leyes físicas fundamentales. Galileo y Newton, por ejemplo, descubrieron que las leyes de la caída libre son simétricas con respecto a los desplazamientos en la posición, la orientación y el tiempo. O sea, si se eliminan factores externos, la descripción del movimiento es independiente de dónde se realicen los experimentos, desde qué ángulo se les observe o cuándo ocurran.

                Las simetrías se pueden clasificar como globales y locales. Para ilustrar el concepto de simetría global, considérese un experimento en el que se mida el campo eléctrico generado por un conjunto de cargas, de ambos signos, colocadas arbitrariamente en un laboratorio. En esas condiciones, la Teoría Electromagnética establece que el campo eléctrico entre dos puntos se da simplemente por la diferencia de potencial entre ellos. Esto implica una simetría, ya que el campo permanece invariante ante la suma o resta, global, de un potencial constante arbitrario. Por depender de medidas relativas, el campo eléctrico es independiente de la convención o escala que se haya escogido para medir la carga eléctrica. Esto constituye una invarianza de norma global. El término norma se refiere a la elección de una escala o patrón de longitud, si bien la palabra también es comúnmente sustituida por calibre, aforo, o el término inglés "gauge"

                Cada simetría tiene como consecuencia una ley de conservación, entendida ésta como una cualidad que no cambia en el tiempo. Por ejemplo, que los resultados de un experimento sean independientes del lugar en el que se realicen, es una invarianza translacional en el espacio, que implica la conservación del momento lineal. Lo inverso también es cierto: cuando una cantidad se conserva, esto indica la existencia de una simetría. La conservación de la energía implica una invarianza translacional en el tiempo, es decir, que no importa a partir de cuándo empezamos a medir el tiempo. La invarianza respecto de la orientación se refleja en la conservación del momento angular.

                Hacia principios del siglo XIX se sabía de la existencia de tres tipos de fuerzas en la Naturaleza: la gravitacional entre las masas, la eléctrica que actúa entre las cargas y la magnética entre los imanes. Los trabajos de Faraday y Ampère demostraron la existencia de una simetría entre las fuerzas eléctrica y magnética al observar que cargas en movimiento generan campos magnéticos y que campos magnéticos variables generan corrientes eléctricas. La interdependencia de estas fuerzas indicó que se trataba de distintas manifestaciones de una sola fuerza: la electromagnética.

                La formulación de la teoría de los campos correspondientes a las dos fuerzas mencionadas fue propuesta por Jarnes Clerk Maxwell (la electromagnética) en 1868 y por Albert Einstein (la gravitacional) a principios del siglo XX. Existen ciertas similitudes interesantes entre ellas, como el que ambas poseen alcance infinito, y que su dependencia con la distancia es la misma. Este parecido motivó a varios investigadores, entre ellos al propio Einstein y a Hermann Weyl, a tratar de unificarlas. Objetivo que, por cierto, aún no se ha logrado.

                Hacia 1920 Einstein había obtenido una formulación matemática de la Teoría de la Relatividad General que describía la fuerza de la gravedad en términos de la estructura del espaciotiempo. Ese año, Weyl descubrió que tanto la Relatividad General como el electromagnetismo pertenecen a una familia denominada teorías de norma con simetría local.

                En el camino que han recorrido los físicos tras la consecución de unificar campos de fuerza, el primer resultado con éxito fue la unificación matemática que hizo Maxwell de los campos eléctrico y magnético en un campo electromagnético único.

                Antes de los trabajos de Maxwell, el campo eléctrico y el magnético se consideraban fenómenos relacionados pero distintos. Después de Maxwell, los físicos comprendieron que esta interrelación era más profunda de lo que se había creído: el campo eléctrico y el campo magnético se transforman realmente el uno en el otro al cambiar en el tiempo. Si los campos eléctrico y magnético oscilaran en el tiempo, podrían propagarse en el espacio como una onda electromagnética, una onda identificable con la luz. La unificación de los campos eléctrico y magnético que logró Maxwell condujo directamente al notable descubrimiento de que la luz es una onda electromagnética, lo cual daba una respuesta nueva a la antigua pregunta: "¿Qué es la luz?".

                Una teoría general del campo eléctrico debe tomar en cuenta, no sólo cargas estáticas, sino experimentos con cargas en movimiento. Si sólo actuase la fuerza eléctrica, el movimiento arbitrario de las cargas en el laboratorio rompería la simetría del campo electrostático. Sin embargo, al moverse, las cargas generan campos magnéticos que permiten restablecer la simetría en forma local. Es decir, cualquier cambio en el potencial eléctrico puede combinarse, localmente, con un cambio en el potencial magnético de manera que los campos eléctricos y magnéticos sean invariantes.

                Los campos electromagnéticos son, de por sí, de gran alcance y, debido a ello, y al hecho de que la luz sea una onda electromagnética y al importante papel que desempeña el campo electromagnético en la vinculación de los electrones a los núcleos, la interacción electromagnética se estudia fácilmente en el laboratorio. Fue la primera que consiguieron dominar los teóricos y es hoy la interacción mejor conocida.

                La unificación de campos era sólo un aspecto del descubrimiento de Maxwell. Otro aspecto era la "reducción de parámetros". Los físicos experimentales habían determinado, en estudios anteriores de la electricidad y el magnetismo, dos constantes físicas: la "susceptibilidad eléctrica y la susceptibilidad magnética" del espacio vacío. Estas dos constantes estaban presentes en las ecuaciones de onda electromagnética y, por ello, Maxwell podía calcular la velocidad de la onda (la velocidad de la luz). Así pues, tres parámetros experimentales distintos considerados hasta entonces independientes (la susceptibilidad eléctrica, la magnética y la velocidad de la luz) quedaban relacionados de un modo fijo y determinado. En vez de tres parámetros independientes, ya sólo había dos. Esta reducción paramétrica es otro objetivo del programa de unificación de campos. El objetivo es, en último término, hallar una teoría general sin parámetros arbitrarios, con la que pueda calcularse cualquier constante física. Los físicos están muy lejos de alcanzar este objetivo final, pero el programa de unificación de campos sigue adelante.

                Por otra parte, la teoría del campo asocia a cada fuerza algún tipo de partícula, o partículas intermediarias, es decir, responsables de acarrear la información del campo. A principios del siglo XX, Planck y Einstein propusieron al fotón como mensajero del campo electromagnético. En la década de 1930, se puso de manifiesto la existencia de dos nuevas fuerzas fundamentales, que sólo actúan a distancias nucleares: la fuerte y la débil. Por ese entonces, Yukawa sugirió que el emisario correspondiente al campo fuerte sería el mesón. Ahora creemos que no es el mesón, sino el gluón, el responsable de esta tarea. Otro campo sin partícula identificada experimentalmente es el gravitacional, si bien los esfuerzos por detectar gravitones han sido muy abundantes. Los físicos teóricos necesitan que los experimentales descubran el gravitón, como hace relativamente poco tiempo encontraron el quark top.                                                                                                      

                   3.- GRANDES TEORIAS UNIFICADAS

                 Para los cosmólogos, la unificación electrodébil significaba que el reloj podía retroceder hasta un tiempo justo una billonésima de segundo después del inicio de la expansión, cuando la bola de fuego tenía una temperatura de 1016 K y era todavía tan densa que un dedal de ella pesaría aproximadamente 100 millones de toneladas. El siguiente desafío resultaba claro. Ahora que los teóricos comprendían las interacciones de las partículas y fuerzas de ese momento, se centraron en un período aún más anterior. El objeto de su búsqueda era hallar una fuerza que uniera la interacción fuerte y la electrodébil, lo que llevó a los físicos a hipotetizar que, a energías más elevadas aún, del orden de 1026 K, ambas interacciones deberían unirse en una nueva "fuerza unificada". Hay diferentes variantes para construir teorías de esta fuerza y sus propiedades, que han alcanzado un alto grado de desarrollo, y a su conjunto se le conoce con el nombre de Grandes Teorías Unificadas (GTU) o "Teorías de la Gran Unificación", conocida más simplemente con la sigla GUT's (Grand Unified Theories), que uniría todas las fuerzas excepto la de la gravedad.

                A temperaturas aún mayores, sobre los 1032 K, se especula que la fuerza gravitacional y la gran fuerza unificada se juntan en una única fuerza. Hay varias hipótesis propuestas que se conocen como Supergravedad, SuperUnificación, Teoría de las Supercuerdas, entre otras más. Este proceso de superunificación se produciría alrededor de la era de Planck. Los físicos teóricos, en la década de 1970, llegaron a comprender que principios similares a la Electrodinámica Cuántica gobernaban la interacción de quarks y nucleones, mediada por la fuerza fuerte. El nombre de la teoría de la fuerza fuerte, la Cromodinámica Cuántica o QCD (quantum chromodynamics), era un reflejo consciente de la QED. Sin embargo, era mucho más compleja. Mientras que el electromagnetismo era transportado por un único fotón, la Cromodinámica Cuántica necesitaba no menos de ocho gluones, como se llama a los bosones que transportan la fuerza fuerte, y esos ocho bosones prometían llevar las matemáticas de la GUT's a una categoría completamente nueva de dificultad.

                La característica común de la fuerza fuerte de color y de las interacciones electrodébiles es que en ambos casos su vehículo son los gluones: los cuantos de los campos de Yang-Mills, campos que son consecuencia de la simetría. Para unificar esas interacciones hay, por tanto, que hallar una simetría única (y no múltiple) que, por ruptura espontánea de simetría, produzca simetrías más pequeñas correspondientes a las interacciones fuerte y electro-débil.

                Una forma de concebir tal proceso de unificación y ruptura de simetría es representar la simetría de la fuerza fuerte coloreada con un círculo, que es simétrico respecto a su centro. La simetría del modelo electro-débil se representa también mediante otro círculo independiente. Supongamos luego que los dos radios de estos dos círculos diferenciados son inversamente proporcionales a la fuerza de las correspondientes interacciones. Los dos círculos no tienen nada que ver entre sí directamente; igual que en el modelo estándar, la simetría de la interacción fuerte y la de la interacción electrodébil son completamente independientes entre sí.

                Se puede captar ya la idea de unificación de campos imaginando que esos dos círculos aparentemente independientes son, en realidad, dos círculos (ecuadores) distintos de una misma esfera. Un círculo sólo es simétrico respecto a un punto, mientras que una esfera, simétrica respecto a cualquier eje, tiene más simetría. Los círculos anteriores pasan a considerarse sólo subsimetrías de la simetría esférica que las incorpora y unifica a ambas. Como ambos tienen el mismo radio, las interacciones fuerte y electromagnética tendrán en esta descripción la misma fuerza: estarán unificadas.

                También puede entenderse en el marco de esta imagen la ruptura espontánea de simetría. La simetría esférica perfecta, aunque una solución de la ecuación de campo, no es estable: la esfera se achata en una figura elipsoidal, que es la solución estable. La esfera achatada puede caracterizarse por dos círculos de distintos radios, correspondientes a las diversas fuerzas de las diferentes interacciones: una manifestación de la simetría rota. Pero la estructura inicial subyacente es la esfera perfecta.

                Las subsimetrías descritas por el modelo estándar son más complicadas que las simples simetrías de círculo, y la simetría unificadora de las GUT's es más complicada que la de una esfera, pero la idea básica es similar. Enfocadas así, las interacciones fuerte, débil y electromagnética deben su parentesco a una simetría, la de las grandes teorías unificadas, general, que se rompe espontáneamente. Las simetrías del modelo estándar pueden incluirse de modos diversos en una sola simetría de GUT mayor; y el conjeturar qué vía y qué simetría mayor elige la Naturaleza, si es que elige alguna, es el juego que practican los creadores de modelos modernos.

                Al principio, la unificación de los gluones fuertes coloreados (que participan en las interacciones de los quarks) con los gluones electrodébiles (que participan en las interacciones de los quarks y en las de los leptones) parecía un rompecabezas. Al unificar todos estos gluones bajo la égida de una gran simetría, parece que hayamos de unificar también los quarks y los leptones. Para que la idea de las GUT's sea factible, deben considerarse también todos los quarks y los leptones componentes de grandes campos "leptoquárquicos". Desde el punto de vista de la gran simetría única no rota, quarks y leptones serían indiferenciables, se transformarían unos en otros.

                Los primeros que trabajaron en una unificación de quarks y leptones de este tipo fueron los físicos Jogesh C. Pati (de la Universidad de Maryland) y Abdus Salam. En 1973, estos dos físicos propusieron que se considerase a los leptones como un cuarto color a añadir a los tres colores quárquicos.

                Cuando luego se rompía espontáneamente la simetría de cuatro colores entre los quarks y los leptones, en la simetría exacta de tres colores de la interacción fuerte de unión quárquica, podían diferenciarse los quarks y los leptones. El modelo tenía otro aspecto notable: el protón podía desintegrarse en partículas más ligeras. El motivo de esta nueva característica de la desintegración protónica podía atribuirse directamente al hecho de que, en el modelo, los quarks y los leptones estaban unificados como componentes de un campo leptoquárquico único. En consecuencia, los quarks (como los quarks dentro de un protón) pueden convertirse en leptones. Otra forma de expresar esta característica es decir que en estos nuevos modelos se violaba la ley de conservación de la carga bariónica, que en el modelo estándar exigía la estabilidad protónica. Era el primer indicio de que la mayoría de las GUT's exigían la desintegración protónica.

                Por desgracia, Pati y Salam no hicieron una predicción definida del índice de desintegración protónica (era un parámetro arbitrario del modelo), ni aportaron una auténtica unificación de las interacciones fuerte y electrodébil en el sentido de que las tres interacciones fuesen manifestaciones de la simetría del campo de medida rota espontáneamente y única. Pero un año después, en 1974, Howard Georgi y Sheldom Glashow hicieron, en la Universidad de Harvard, el primer modelo que aportaba una verdadera unificación (el modelo SU(5) mínimo), que, por su economía, se convirtió en prototipo de las futuras teorías de este género. Como comentó el propio Georgi: es "muy bonito".

                Georgi y Glashow eran compañeros de postgrado y ambos tenían por costumbre realizar agitadas sesiones de trabajo en una de las oficinas en el Lyman Hall de Harvard. Cada mañana, Glashow asaltaba a Georgi con nuevas ideas sobre la fuerza fuerte. Esperaba que su colega intentara hacer agujeros en cada hipótesis: si Georgi no podía encontrar de inmediato ningún fallo, entonces ese tema se convertía en el foco de su atención para aquel día.

                Una tarde de otoño de 1973, los dos hombres discutieron durante horas sobre enfoques a la GUT sin llegar a ninguna conclusión. Después de la cena, Georgi empezó a seguir los diversos caminos que habían ido emergiendo durante el debate de la tarde. Para su sorpresa, pronto produjo un modelo matemático que parecía encajar en los hechos, uniendo las fuerzas fuerte y electrodébil. Luego Georgi enfocó el tema desde otro lado, y sus esfuerzos también resultaron fructíferos.

                Como la teoría de la unificación electrodébil, el modelo de Georgi implicaba cambios en un tipo de partícula que eran compensados exactamente por cambios en otras partículas. Sin embargo, los niveles de energía requeridos eran 10 mil millones de veces más altos, igual a los que existieron a los 10-16 segundos después del inicio de la expansión. En ese entorno, los gluones, normalmente los portadores de la fuerza fuerte, serían el equivalente de los fotones y los bosones W y Z. Quarks y electrones serían también intercambiables, en transacciones mediadas por una familia enteramente nueva de doce partículas extremadamente masivas, agrupadas más tarde bajo el nombre de bosones X.

                La celebración privada de Georgi se vio empañada cuando descubrió un sorprendente aspecto de su hipótesis. Al elaborar las matemáticas, se dio cuenta de que las ecuaciones permitían –de hecho, dictaban– la descomposición final de todos los protones por la transformación de uno de sus quarks en un electrón o un positrón. Si esta teoría sobre la época más primitiva del Universo era correcta, también preveía un posible final. Cuando se evaporen los protones, el Universo se convertirá en simple espacio frío y oscuro, desprovisto incluso de los átomos que ahora forman los planetas y las estrellas.

                Georgi mostró su solución a Glashow a la mañana siguiente. Glashow no dejó que el destino de los protones empañara su placer ante lo que parecía ser un auténtico paso de gigante. "No era tan grave como eso –recordaría más tarde–. Sabíamos que el Sol acabaría apagándose en unos cuantos miles de millones de años. El que la materia se descomponga mucho, mucho tiempo después, no es una idea que deba trastornarle a uno".

                Georgi y Glashow publicaron su Teoría de la Gran Unificación en febrero de 1974. Ganó partidarios.... y también una cohorte de imitadores, puesto que otros investigadores siguieron la misma línea de ataque para desarrollar teorías similares. Todos predecían los bosones X de la era GUT, como pasó a ser llamado el momento alrededor de los 10-35 segundos de la existencia del Universo. Pero, ¿cómo podían llegar a verificarse estas visiones matemáticas? Ningún acelerador de partículas podía alcanzar los niveles de energía requeridos para producir los bosones X. La única prueba experimental posible para las GUT's sería atrapar un protón en el acto de descomponerse. Pero los protones tienen unas vidas inimaginablemente altas. Las mejores estimaciones sitúan su vida media en unos 1031 años, más de un trillón de veces la edad actual del Universo.

                Evidentemente, los científicos no podían observar un protón el tiempo suficiente como para verlo descomponerse. Pero, debido a que la longevidad de las partículas era una cifra media, con algunos protones gozando de una vida más larga que otros, podía llegar a observarse una descomposición si eran examinados los suficientes protones, Un primer intento de hacer esto, que empezó en 1981, usaba un enorme tanque lleno con más de 7.000 toneladas de agua purificada, situado en una mina de sal de 800 metros de profundidad cerca de Cleveland, Ohio. El agua contenía 1034 protones, más o menos, y la localización bajo el suelo la protegía de radiaciones espurias que pudieran proporcionar una indicación falsa de la descomposición de un protón. En el acto de la desintegración, un protón debería producir un diminuto destello de luz, detectable por una serie de fototubos sensibles alineados a lo largo de las paredes del tanque.

                Un científico captó la ambivalencia de sus compañeros en el brindis en la inauguración de las instalaciones: "Por el protón…, ¡que viva eternamente! Pero, si ha de morir, ¡que muera en nuestros brazos!". El destinatario de este brindis aún no se ha dado por aludido. No se ha visto morir ningún protón en Ohio, ni en ninguno de los demás experimentos similares realizados en Japón, la India e Italia. Pero la esperanza es lo último que se pierde y los ojos avizores de los científicos siguen vigilando.

                Para los cosmólogos, la muerte predicha de las partículas de materia era menos importante que su corolario en los modelos GUT: la creación de materia a partir de la radiación que permeaba el Universo en la era GUT. En ese entorno de alta energía, enormes bosones X se descomponían supuestamente en lluvias de partículas que incluían quarks y electrones. A medida que el Universo en expansión se enfriaba, estas partículas terminaban combinándose para formar átomos. Las teorías incluso predecían la proporción resultante de materia y energía en el Universo, una relación que igualaba de cerca el equilibrio entre la densidad observada de la materia y la intensidad de la radiación cósmica de fondo. Las GUT's se desenvolvían bien en el terreno de pruebas del Cosmos.

                El modelo Georgi-Glashow era el más simple de todas las GUT's. Los gluones coloreados y los 4 gluones electrodébiles se incorporaban como 12 componentes de un campo único de Yang-Mills de 24 componentes; se había logrado, pues, una gran unificación. Esta gran simetría única quedaría luego rota espontáneamente por los campos de ruptura de la simetría de Higgs. El resultado era que 8 de los 24 gluones originales podían identificarse con los gluones coloreados, 4 con los bosones electrodébiles W+, W-, y Z. Otros 12 gluones, llamados gluones X, adquirirían una masa enorme, tan grande que probablemente ningún acelerador podría crearlos. Sin embargo, los nuevos gluones X, mediante interacción con los leptones y los quarks ordinarios, podían convertir quarks en leptones y viceversa. Por tanto, los gluones X de gran masa desestabilizaban el protón. Una vez más, la gran unificación entrañaba la desintegración protónica. Georgi y Glashow destacaron otra deducción importante de su GUT. El modelo estándar, que no unifica las tres interacciones, tiene 19 parámetros arbitrarios. Uno de ellos, el ángulo de interacción débil qw , en el modelo SU(5) ya no era arbitrario, sino que se calculaba que era igual a 37,7 grados, como consecuencia de la gran simetría unificadora exacta. Esta predicción significaba un paso hacia la realización del sueño de Einstein de que "no hay ninguna constante arbitraria".

                Por desgracia, su predicción no coincidía con el valor que habían asignado a este ángulo los físicos experimentales. Muchos creían que el modelo SU(5), aunque plasmaba hermosamente la idea de las GUT's, no era una descripción correcta de la Naturaleza. Pero la idea de la gran unificación empezaba a afianzarse con fuerza en el pensamiento de los teóricos, que trabajaban con entusiasmo explorando las GUT's.                                                                                                 

                                                  

                                  4.- TEORIAS RENORMALIZABLES

                 Las GUT's dejan sin resolver problemas trascendentales que la Física requiere explicar, pero de la misma forma han significado un gran avance en la unificación de las diversas partículas cuánticas.

                Muchos físicos están convencidos de que, si bien teorías como las GUT's han aclarado la dinámica del Universo primitivo, mientras no exista una teoría totalmente unificada (que incluya la gravedad) no se podrá describir el origen del Universo. Porque si imaginamos que retrocedemos en el tiempo hasta el Universo muy primitivo, la temperatura y la energía de interacción de partículas cuánticas pueden aumentar sin límite, de modo de que llegara un momento en que se penetre en la escala de distancias de Planck. El problema de la Gravedad Cuántica se plantea inevitablemente si queremos aclarar el origen del Universo.

                Las GUT's otorgan una respuesta parcial a aspectos como la aparición de tres generaciones de leptones y quarks, la cuantización de la carga eléctrica, las relaciones de las masas fermiónicas, la existencia de neutrinos masivos, etc. Esta clase de teorías están basadas en una extensión de la llamada simetría de norma de la teoría a grupos de mayor dimensionalidad, y buscan incorporar las interacciones ya conocidas a través de los subgrupos de los grupos de norma. Ejemplos de este tipo de teorías basadas en los grupos de norma SO (10) y SU (5) son de sumo interés fenomenológico. Sin embargo, estas teorías tienen todavía una serie de problemas e inconsistencias, al margen de la no incorporación de la gravedad. Una de las dificultades persistente en las GUT's es el problema de la jerarquía de las masas de los fermiones. Se debe explicar el hecho de que la masa del electrón sea menor que la masa del muón y ésta, a su vez, sea menor que la masa del leptón tau. Ese problema se puede resolver mediante la introducción de la Supersimetría. Para evitar tener un problema de jerarquía, la Supersimetría se debe romper (debe dejar de ser válida) a escalas de energía menores que 1000 GeV. Una posible explicación para este rompimiento de la Supersimetría se hace mediante la introducción de una especie de subterfugio llamado "Supergravedad". Así, la Supergravedad indica la necesidad de incorporar la gravitación (hasta ahora ausente), al esquema total del cuadro de unificaciones.

                Todas las manifestaciones de las GUT's están basada en una teoría de campos de partículas puntuales. Así, por ejemplo, las partículas elementales en estas teorías definen un punto en el espaciotiempo. La descripción cuántica en el espaciotiempo requiere que las interacciones físicas se den de manera puntual, es decir, que las interacciones se den en un punto del espaciotiempo.

                Las GUT's eran teorías de campo "renormalizables", lo que significaba que los teóricos podían calcular matemáticamente las propiedades de las partículas cuánticas a energías muy altas o correlativamente a distancias muy cortas. Hecho esto, se abrió a la visión del teórico un nuevo y notable panorama del microcosmos.

                Según la idea de la renormalización, las propiedades físicas de las partículas cuánticas, como la masa o la fuerza interactiva de acoplamiento, pueden variar según la escala de distancia a la que se midan u observen. Esto implica que si una GUT's describe realmente la Naturaleza, las interacciones cuánticas, pese a sus fuerzas distintas a distancias largas, revelarían, enfocadas a una distancia muy corta, la simetría GUT subyacente exacta. Esto significa que a energías ultraelevadas, correspondientes a esas cortas distancias, las interacciones fuerte, débil y electromagnética se funden en una interacción unificada única.

                Por ejemplo, las constantes de acoplamiento convenientemente definidas para interacciones gluónicas fuertes, débiles y electromagnéticas, denominadas respectivamente gf , gd y ge , aunque desiguales para interacciones de baja energía (que manifiestan la simetría rota), pasan a ser todas iguales entre sí a una energía ultra elevada. Este importante antecedente (que las simetrías subyacentes de una teoría de campo rota espontáneamente se restaurarían a distancias muy cortas) lo destacó en primer lugar Kenneth Wilson en sus investigaciones sobre la teoría de la renormalización. Sus conclusiones desmpeñarían un importante papel en la interpretación física de las GUT's.

                Los conceptos de renormalización y de escala de distancia fueron aplicados de forma directa al modelo SU(5) por Georgi y Glashow. Recordemos que este modelo predecía el ángulo qw , de interacción débil (por cierto, de manera incorrecta). Pero, a la luz de estas nuevas ideas, se hizo evidente que tal predicción numérica, basada como estaba en una simetría exacta, se aplicaba sólo a escalas de distancia ultracortas, en las que la simetría de la GUT resultaba exacta, no a escalas de distancia mucho mayores observadas en el laboratorio y para las cuales se medía el ángulo. Así, el problema pasaba a ser calcular el ángulo qw a las escalas de distancia observadas en el laboratorio.

                En el modelo SU(5), la escala de distancia en la que las tres interacciones se igualaban (la llamada "escala GUT"), podía calcularse mediante la teoría de la renormalización y se determinó que era de 10-29 cm. Utilizando la teoría de la renormalización, los teóricos pudieron extrapolar el valor del ángulo qw , de interacción débil, predicho en la escala GUT, de 10-29 cm, hasta las escalas de distancia de 10 -14 cm, observadas en el laboratorio. Calcularon que el valor del ángulo a esas distancias de laboratorio era de 27,2º. Aunque este valor significaba un avance, aún no coincidía exactamente con el valor experimental. Pero a medida que se hicieron más experimentos, el valor experimental del ángulo fue cambiando hasta llegar a los 27,7º, que, dentro del margen de error de medición, era el valor obtenido por los teóricos. Esto implicó que los físicos consideraran que se estaba, a través del modelo SU(5), sobre una buena pista.

                La GUT SU(5), pasó a entusiasmar a los físicos teóricos para que la investigaran matemáticamente de forma más afinada. De esas investigaciones surgió una curiosa visión del mundo cuántico microcósmico de pequeñas distancias. El modelo estándar nos explica lo que sucede hasta una distancia de 10 -16 cm (la "escala electrodébil"), tamaño apropiado para las partículas de máxima masa, que desempeñan un papel en ese modelo, los gluones débiles bosónicos W y Z. Cuando se integra el ME en la GUT SU (5), las interacciones diferenciadas del modelo estándar se unifican. Guiándose por la GUT SU (5), los científicos descubrieron que cuando la distancia disminuye por debajo de la escala electrodébil hasta la escala GUT de 10 -29 cm, correspondiente al tamaño de los gluones X, no sucede nada especial. No aparecen partículas nuevas, y las fuerzas de acoplamiento de las tres interacciones empiezan a adoptar poco a poco valores iguales cuando empieza a imponerse la simetría GUT.

                Cuando se habla de distancias microscópicas tan pequeñas como las que han descrito, se está focalizando la investigación hacia una "tierra de nadie", porque está vacía de cualquier nueva Física. Al aproximarse a la escala GUT de 10 -29 cm, los gluones X se funden con los otros gluones del modelo estándar; las interacciones gluónicas son todas perfectamente simétricas y unificadas. Por último, a la increíble distancia de 10 -33 cm, deben adquirir importancia los efectos de la Gravedad Cuántica (que no se han incluido explícitamente en las GUT). A esto es a lo que se denomina "escala de Planck", que corresponde a una distancia importante relacionada con los efectos gravitatorios. Como la escala de Planck es de aproximadamente una diezmilésima de la longitud de la escala increíblemente corta de las GUT, la mayoría de los físicos prefieren obviar los efectos de la Gravedad Cuántica en sus especulaciones sobre las GUT.

                Según estas ideas, el micromundo posee una jerarquía de distancias, hitos en el camino que conduce a distancias cada vez más cortas. Las energías que han alcanzado actualmente los aceleradores de partículas actuales permiten a los físicos descender a distancias menores que las que se manejan en el modelo estándar de 10 -16 cm. A energías más altas, los físicos han llegado en unas y calculado en otras, distancias que hemos analizado, de modo que tenemos una jerarquía de distancias: @ 10 -16 cm; escala GUT @ 10 -29 cm, y escala de Planck @ 10 -33 cm. Entre esas distancias microscópicas no sucede nada especial, a diferencia de lo que pasa con distancias mucho más largas, en las que se producen complejas interacciones de partículas, con la formación de hadrones, núcleos y átomos.

                Ahora bien, si tomando proporciones de las tres distancias enumeradas (y eliminando así el hecho de que elegimos centímetros para medir las distancias), entonces obtenemos los grandes números puros 10 13 y 10 17. Se trata de números que sólo representan la jerarquía de escalas de distancia de la Naturaleza, pero desde la perspectiva de la GUT, o de cualquier otra teoría, esos números carecen de una explicación. Son "constantes arbitrarias". Los físicos quieren explicar estas cifras y resolver el "problema jerárquico". Pero hasta ahora, aunque hay algunos estudios sugestivos, no han logrado dar con una solución. Incluso las GUT's tienen constantes arbitrarias y no pueden ser las teorías definitivas del campo unificado.

                Las GUT's, aunque dejen sin resolver problemas sustanciales, han significado un gran avance en la unificación de las diversas partículas cuánticas y, a su vez, una simplificación. Lo atractivo de la idea de las GUT's reside, en parte, en el hecho de que la proliferación de partículas cuánticas es, en realidad, superficial y todos los gluones, así como los quarks y los leptones, pueden considerarse como simples componentes de unos cuantos campos de unificación fundamentales. Aplicando la Supersimetría de las GUT's, esos componentes del campo pueden convertirse unos en otros. El motivo de que parezca que las partículas cuánticas tienen propiedades distintas en la Naturaleza es que la simetría unificadora está rota.                                                                                              

                            5.-DESINTEGRACION PROTONICA

                 El modelo SU(5), además de aportar un cuadro conceptual definido de las distancias microscópicas, consideraba que el protón era inestable y tenía que desintegrarse. Los teóricos que trabajaban la SU(5), calcularon la vida media del protón en función de otras cantidades ya conocidas y calcularon que tardaba 1030 años en desintegrarse en un positrón y un pión neutro. Pero además, se trata de un tiempo cósmico lo suficientemente largo como para asegurar la presencia de átomos en nuestro Universo contemporáneo, pero demasiado breve para las posibilidades de medición de los actuales laboratorios.

                En la época en que los teóricos hacían esta predicción, los físicos experimentales sabían que la vida del protón excedía los 1029 años. Es decir, la predicción del modelo SU(5) de 1030 coincidía con las observaciones realizadas. Los físicos teóricos y las nuevas GUT's desafiaron así a los físicos experimentales a perfeccionar sus observaciones sobre la posible desintegración protónica, para comprobar la predicción.

                En una especie de euforia de competencia internacional, varios laboratorios concentraron importantes recursos tras la consecución de "ver" un protón desintegrado. Bastaba que uno de ellos fuera hallado en un estado de desintegración para confirmar las predicciones de la teoría. Ha transcurrido un prolongado espacio de tiempo, pero nada, no ocurre nada. Los protones no quieren saber nada con los cazadores.

                Localizar protones en proceso de desintegración no es un experimento de Física de alta energía que pueda hacerse en uno de los aceleradores gigantes. Lo que hace falta es, más bien, observar cuidadosamente un volumen de materia muy grande, cuanto más mejor, para ver si se desintegra algún protón aislado de esa materia. La búsqueda de la desintegración protónica sirve como ejemplo de un tipo distinto de experimento, realizado para comprobar las leyes fundamentales de la Física, un experimento que se desvía de los experimentos de alta energía hacia los de muy baja energía y gran volumen. Los laboratorios construidos para detectar la desintegración de los protones son los que grabaron el "flash" de neutrinos proveniente de la supernova de la Gran Nube de Magallanes, la mañana del 23 de febrero de 1987.                 

                Pero por el hecho de que no se hallan visto protones desintegrados, ¿hay que desechar la teoría? No necesariamente, pero sí hay que corregirla bastante en la medida que se vayan produciendo argumentos importantes. El hecho de que se hayan obtenido, hasta ahora, resultados negativos, no implica la estabilidad absoluta del protón; sólo que su duración de vida no es aquella que la teoría suponía. Ciertamente, supera los 1031 años.

                Ya se ha puesto de manifiesto la importancia de las predicciones confirmadas por las experiencias, puesto que aportan un apoyo considerable a la viabilidad de las teorías. Aquí nos encontramos sobre un caso distinto; tenemos un contraejemplo: la experiencia no ha dado evidencias sobre lo propugnado por la teoría.

                Lo anteriormente descrito, no implica un cuestionamiento para el Big Bang, ni para el conjunto de la Física de partículas. Sólo una formulación particular de las GUT's. Otras formulaciones distintas asignan al protón una vida más larga, pero que sería casi inútil pensar alguna vez en probarlo. ¿Cómo pueden albergar los físicos experimentales la esperanza de poner límites al periodo de vida de algo que supera el periodo de vida del Universo en diez trillones de años?

                Maurice Goldhaber, físico del Laboratorio Nacional de Brookhaven, que ha dedicado mucho tiempo al estudio de la posible desintegración protónica, comentaba en cierta ocasión que "sabemos por nuestros huesos" que la vida media del protón excede los 1016 años. El cuerpo humano contiene unos 1028 protones; si la vida del protón durase menos de 1016 años, ocurrirían a 30.000 desintegraciones por segundo y nuestro propio organismo sería radiactivamente peligroso para la salud. Como indica este cálculo aproximado, podrían hallarse límites más rigurosos a la vida protónica utilizando un volumen con más protones que nuestro organismo y un mejor sistema de detección que nuestro estado de salud.

                Afortunadamente, hay muchos protones, Según la Teoría Cuántica, los protones, si es que se desintegran, deben desintegrarse al azar. Esto quiere decir que si los físicos observan un número suficiente de protones, el período de vida protónica en años es igual al número total de protones observados, dividido por el número de desintegraciones protónicas observadas a lo largo de un año. Por tanto, el mayor inconveniente que plantea el cálculo de la vida protónica son nuestras limitaciones en cuanto al número total de protones que pueden observarse detenidamente y a la eficacia detectora para localizar en concreto la desintegración protónica, si es que se produce.

                Para reducir al mínimo los fenómenos de fondo ocasionados por los rayos cósmicos (que podrían confundirse con la desintegración protónica), y aumentar la eficacia detectora, los físicos realizan experimentos en emplazamientos subterráneos. Estos experimentos se están llevando a cabo en inmensas piscinas con grandes volúmenes de agua, que permiten la existencia de sensibles detectores fotocelulares capaces de diferenciar los supuestos productos de una sola desintegración protónica (un pión neutro pº y un positrón e+) de todas las demás que puedan producirse en el agua. Hasta la fecha, no se han observado ninguna desintegración y que el periodo de vida protónica dentro del modelo de desintegración pº + e+ ha de exceder, por tanto, los 1031 años. Lo anterior, fue lo que trajo más cuestionamientos para el modelo de la GUT SU (5) más simple o "mínimo", que calculaba el período de vida protónica en 1030 años, lo que, al margen de otras debilidades, implica que es erróneo. Fue una decepción para muchos, sobre todo para los teóricos. Pero, pese a tal decepción, se sigue trabajando en la idea de descubrir una sola fuerza unificadora.

                Si alguna vez se logra la observación de la desintegración protónica, será sumamente interesante. Los físicos podrían obtener, estudiando la desintegración, información más detallada, muy útil para determinar qué modelo describiría la Naturaleza con mejor precisión, si es que alguno lo hace. Aunque parezca extraño, las piscinas en las profundidades de una mina pueden aportar datos sobre el origen del Universo.                                                                 

                                                

6.- ASIMETRIA MATERIA-ANTIMATERIA

                 Mientras los físicos experimentales aplicaban delicados sistemas de detección a grandes volúmenes de materia buscando posibles desintegraciones protónicas, los teóricos cavilaban sobre el sentido de la desintegración protónica en el mayor volumen que existe: el Universo entero. Y descubrieron algo muy notable.

                Recordemos que, en la descripción del Big Bang, uno de los datos que proporcionábamos a nuestro ordenador era la entropía específica, la relación entre el número de fotones y el de bariones (protones y neutrones), un número aproximado de 400 millones a uno. Ese pequeño número de bariones corresponde a toda la materia visible del Universo actual. La incógnita que plantea este pequeño número de bariones es: ¿Por qué ese número no es cero, por qué sobrevivió al Big Bang ese número pequeño, pero finito, de protones y neutrones? Complica además el problema el hecho de que, según la ley de conservación del número bariónico, este número bariónico neto tiene que haber estado presente desde el principio mismo del Universo. Parece una condición inicial bastante arbitraria.

                Una condición inicial mucho más atractiva es la simetría perfecta entre bariones y antibariones, es decir, un número bariónico neto cero en el instante de la creación. Pero si se conservase el número bariónico, el número total de bariones sería igual al de antibariones y viviríamos en un mundo de simetría materia-antimateria. El Universo observado no posee esa simetría materia-antimateria (está compuesto mayoritariamente de materia), así que empezar con esa simetría constituye un problema.

                Las GUT's resuelven este problema. En la mayoría de ellas no se conserva el número bariónico y se da la interesante posibilidad de que el Universo pudiese haber comenzado con un estado simétrico materia-antimateria y haber creado luego su propia asimetría materia-antimateria. La posibilidad de desintegración protónica en las GUT's (el ejemplo primario de un proceso de violación del número bariónico) entraña también la posibilidad de que se creen protones y proporciona la clave para contestar la pregunta de por qué existe el Universo visible.

                Para que podamos entender mejor lo que hemos descrito, necesitamos comprender el mecanismo por el cual se instaló, en los inicios de la historia del Cosmos, la ventaja de la materia sobre la antimateria, por la cual la materia se volvió preeminente después de los procesos de aniquilaciones masivas. En función de lo que sabemos sobre el protón, podríamos extraer que éste es eterno; ¿lo es realmente? ¿Su vida es eterna? ¿Y por qué los protones creados en aceleradores de alta energía aparecen siempre acompañados por un antiprotón? Para encontrar alguna explicación a esta pregunta, los físicos inventaron el número bariónico B*. Se asigna a cada barión (protón, neutrón u otra partícula masiva) un número B = 1 y a su antipartícula un número B= –1. Los quarks tienen B = 1/3 y los antiquarks B = –1/3. Todas las demás partículas tienen B = 0.

                En consecuencia, se establece una exigencia de que, en toda reacción física, el número B total debe conservarse (es decir, que sea el mismo antes y después de la reacción), lo que deja implícito el hecho de que el protón no propenda a desintegrarse y que bariones y antibariones aparezcan en pares. Pero, ¿esta conservación es absoluta (como, por ejemplo, la conservación de la energía eléctrica)? ¿O sólo se trata de una situación aproximada?

                Existe más de una razón como para pensar que esta ley de conservación no es absoluta. Cuando analizamos la situación de la ausencia de antimateria en nuestro Universo, al retroceder los cálculos de nuestro ordenador en el tiempo, podemos llegar a concluir que, a temperaturas elevadas, la población de las partículas debía ser ligeramente superior a aquella de las antipartículas. Esta ventaja numérica, por débil que sea, sugiere la existencia de reacciones físicas en las cuales el número B no estaría exactamente conservado. Si se hubiese conservado siempre, todas las reacciones físicas habrían producido exactamente el mismo número de partículas que de antipartículas.

                La posibilidad de una unificación de la fuerza nuclear con la fuerza electrodébil, hace pensar también la existencia de tales reacciones. Esta "gran unificación" – sugerida por la convergencia de las constantes de acoplamiento y por la estricta igualdad de las cargas del electrón y del protón– implica que quarks y electrones están unidos por un grupo. Las operaciones de simetría de este grupo imponen la existencia de reacciones cuyo resultado neto es esencialmente la transformación de un quark en un electrón . Tales reacciones hacen variar el número B.

                Una comparación sobre lo que hemos estado describiendo es la que podemos realizar con el estatuto de la carga eléctrica. Las invarianzas globales y locales del lagrangiano unen la carga eléctrica al campo de fotones. La conservación estricta de la carga eléctrica se apoya en la existencia del campo electromagnético al cual está asociada una partícula de masa nula: el fotón. Ningún campo análogo apoya la conservación del número B, dejando la puerta abierta a la posibilidad de la no conservación de este número. En otras palabras, el descubrimiento de reacciones que no conservan la carga eléctrica pondría en cuestión todo el edificio de la Electrodinámica Cuántica.

                Las partículas y antipartículas no siempre exhiben comportamientos simétricos. Los físicos, desde la década de 1960, tienen conocimiento que si dos miembros de un par de partículas tienen iguales propiedades, su comportamiento no es necesariamente idéntico o simétrico. Más exactamente, la probabilidad de que una partícula se desintegre en otras partículas no es necesariamente ni exactamente la misma que la probabilidad de que su antipartícula se desintegre en las antipartículas correspondientes.

                Antes de que se inventasen las GUT's, en 1968, el científico Andrei Sajarov llegó ya a la conclusión de que si el número B no se conservaba, tal hecho podía explicar en parte cómo había surgido la asimetría materia-antimateria que observamos hoy, a partir de un estado de simetría perfecta. Sajarov llegó también a la conclusión de que no bastaba que no se conservase el número bariónico, aunque fuese condición necesaria para la creación de materia. Debían darse también otras condiciones.

               La primera de estas condiciones es que el Universo no debe ser estacionario.  
               La segunda, es de que el Universo tiene que formar más materia que antimateria. Para que pueda hacerlo, la materia y la antimateria, que son imágenes especulares una de otra, tienen que diferenciarse mediante alguna interacción que nos indique de qué lado del espejo está el Universo actual. Los físicos experimentales han detectado esas interacciones (denominadas interacciones que violan la inversión del tiempo); se da, por tanto, esta condición.

                Otra condición es que el Universo ha de hallarse en un estado de no desequilibrio durante una etapa muy primaria de su desarrollo, en la que alcanzan su eficacia máxima los procesos de violación del número B. Esto significa que el Universo debe sufrir, en cierto período de su historia primigenia, una "transición de fase", un cambio en su estado básico, que se produce con tal rapidez que la proporción de choques entre las partículas cuánticas del gas primordial no puede mantener el mismo ritmo. Si se produce esta transición de fase, cualquier asimetría materia-antimateria generada en la transición tiene que mantenerse también, porque –concluida la transición– los procesos de violación del número B pasan a ser menos eficaces y la conservación de ese número acaba restaurándose. Los protones y neutrones "extra" creados de la nada, están ya encerrados en el Universo.

                Una última condición es que partículas y antipartículas no deben tener un comportamiento estrictamente simétrico.
                La demostración de la necesidad de esas condiciones básicas es relativamente fácil. En un Universo estático, sin cambios, todas las poblaciones de partículas están en un estado de equilibrio. Los parámetros de las ecuaciones que describen estos equilibrios (ecuaciones de Boltzmann, Fermi-Dirac o Bose-Einstein), son cantidades como la masa y las multiplicidades de las partículas. Si estas cantidades son idénticas para las partículas y antipartículas, las poblaciones serían idénticas incluso en presencia de reacciones que no conservaran el número B.

                Igualmente, si partículas y antipartículas tienen un comportamiento perfectamente simétrico, las no conservaciones del número bariónico en un sentido (favoreciendo por ejemplo la materia) serían irremediablemente compensadas por no conservaciones en el otro sentido (favoreciendo la antimateria), y así la simetría será restablecida. La asimetría de comportamiento es entonces esencial para establecer la asimetría materia-antimateria.

                En el Universo en expansión, como en la nucleosíntesis del Big Bang, todo gira alrededor de los valores relativos de dos escalas de tiempo. La primera escala treac está unida a las reacciones que no conservan B, y la segunda, al tiempo característico de expansión texp. La asimetría aparece cuando la expansión se vuelve demasiado rápida para dejar que se restablezca el equilibrio; es decir, cuando texp es más breve que treac. La población de partículas se vuelve entonces ligeramente superior a la población de antipartículas.

                En resumen, podría generarse una asimetría materia-antimateria a partir de un estado simétrico siempre que: 1), no se conservase el número bariónico; 2), existiesen interacciones que violasen la inversión del tiempo; 3), el Universo se hallase, en determinado momento, en un estado de desequilibrio de expansión extrema. En el modelo estándar, la condición 1 y la condición 3 no se cumplen, por lo que el origen de la materia visible sigue siendo en él una incógnita. Sin embargo, las GUT's, que van más allá del modelo estándar, pueden violar la conservación del número bariónico. Debido a esto, resurgió el interés por llegar a una explicación de la asimetría materia-antimateria observada. En 1978, varios físicos teóricos, comprendiendo que este viejo problema podría resolverse ya en el marco de las GUT's, trabajaron activamente calculando la asimetría para comprobar si coincidía con la observación.

                Los físicos teóricos, utilizando el modelo SU(5), calcularon el número de partículas nucleares (la entropía específica) formadas en el Universo muy primitivo y obtuvieron una cifra demasiado pequeña (entre diez y cien veces). Este cálculo se basaba, sin embargo, en datos del Universo primitivo cuando sólo tenía 10 -15 segundos y que no llegaban a estar claros del todo. Por tanto, que el cálculo difiriese en una cuantía tan alta no se consideraba un fallo, sino más bien indicio de que, en realidad, las nuevas ideas resultaban fructíferas.

                Posteriormente, al elaborarse otros modelos GUT, se obtuvieron cifras más apropiadas. Igual que los físicos de finales de los años sesenta calcularon la génesis de elementos como el helio, el deuterio y el litio en el Big Bang a partir de los protones y neutrones, los físicos de finales de los años setenta calcularon la formación de bariones, como los protones y los neutrones, a partir de los quarks y leptones. Cada vez era mayor el número de físicos que apostaban por las GUT's, sobre todo por el modelo SU(5). En este modelo, llamado también "mínimo", se asocia la creación de la asimetría materia-antimateria con los sucesos que llevaron a la ruptura de la gran unificación alrededor de 1015 GeV. Antes de esta ruptura, materia y antimateria tenían un estatuto estrictamente simétrico.

                Se considera la existencia de un gran grupo unificado, del tipo SU(5), que más tarde se "desagrega" en dos grupos: un SU(3) por la fuerza nuclear y un SU(2) x U(1) para la fuerza electrodébil. Pero tendremos que admitir que este modelo no explica cuantitativamente las observaciones. Probablemente cualitativamente sea acertado y, si no es así, igual debe ser considerado por el valor didáctico que conlleva. Por otra parte, y mirada la asimetría desde el plano cuantitativo, ésta será proporcional a la diferencia de las probabilidades. Intervendrán, asimismo, factores como la relación de los tiempos característicos y las multiplicidades de partículas. La asimetría calculada en el modelo SU (5) es mucho más débil y no permite dar cuenta de la población relativa de los nucleones y de los fotones (número bariónico). Además, la duración de vida del protón calculada es muy breve. Se obtienen 1029 años, cuando su duración –como ya sabemos– es con seguridad mayor que 1031 años. Estas dos inconsecuencias llevaron el modelo SU(5) al terreno del olvido.

                Otras versiones de las GUT's han sido estudiadas sin mayor éxito. Hoy, la mayor parte de los investigadores se orientan más bien hacia la temperatura de Planck. Esperan encontrar allí el trasfondo apropiado para la unificación de todas las fuerzas, incluida la gravedad.  Otros teóricos exploran la posibilidad de que estos sucesos se hayan producido a más baja temperatura. Algunos escenarios hacen pensar que reacciones que no conservan el número B habrían podido sobrevenir mucho más tarde, en el momento de la transición electrodébil. En fin, las GUT's constituyen un tema que aún tienen una larga vida y que no sabemos si nos va a llevar a buen puerto.                                                                      

                                               7.- MAS ALLA DE LAS GUT´S

                 Para introducirnos en el tema, partamos recordando que en la década de 1960 fue cuando se propugnó la hipótesis de la unificación de fuerzas en apariencias tan diferentes como la fuerza débil y la fuerza electromagnética. La "debilidad" de la fuerza débil provendría simplemente de la masa de sus partículas de intercambio. Según se calculó, esta masa debería ser aproximadamente de cien veces la del protón. En 1972 se ponen en marcha experimentos en el CERN. Se bombardean electrones sobre positrones. Aumentando progresivamente la energía, se ve aparecer, hacia 91 GeV, las partículas Z, responsables de la interacción de los neutrinos. Más tarde se produce, de modo análogo, las partículas W, que acompañan la transformación de los quarks u en quarks d (y viceversa), pero también la de los electrones en neutrinos (y viceversa). Estas detecciones confirman de manera magnífica la hipótesis de los teóricos. Muestran la existencia de la fuerza electrodébil, que combina la fuerza débil con la fuerza electromagnética.

                A diferencia de la mayor parte de las partículas de la Física, el neutrón tiene una vida muy larga (¡veinte minutos!). Esta propiedad le viene de la debilidad de la interacción débil, y, por lo tanto, de la gran masa de W. Si esta masa fuera todavía diez veces más grande, el neutrón duraría más de tres meses. Este fenómeno también es responsable de la longevidad del Sol (diez mil millones de años). Si la masa de W fuera diez veces más pequeña, a nuestra estrella ni siquiera la habríamos conocido, ya que habría agotado sus reservas nucleares hace tiempo. ¡Habría muerto mucho antes de la aparición de los mamíferos! Se trata de una fascinante relación, como muchas otras, entre las propiedades de las partículas y nuestra realidad cotidiana.

                Pero la descripción del éxito de la hipótesis sobre la unificación de las fuerzas débil y electromagnética en una fuerza electrodébil no la podemos repetir para los distintos hipotéticos modelos de las GUT's. Más aún, con el tiempo se ha despertado un cierto grado de resistencia –de parte de gran número de físicos– a admitir el supuesto de que la naturaleza elija una GUT mínima. Se resisten sobre todo a admitir un modelo que describa correctamente la naturaleza a escalas de distancia de 10-16 cm (tamaño escalar de las partículas W y Z) y salte luego a distancias de 10-30 cm (la escala GUT). Es una extrapolación de 1013, lo cual equivale más o menos al grosor de un dedo comparado con la distancia de la Tierra al Sol. Si es correcta la idea de la GUT mínima, existe en la Naturaleza un microdesierto que abarca una región inmensa. A muchos físicos esto les parecía una falta de imaginación de la Naturaleza, por no decir categóricamente que las distintas teorías GUT's no son viables. O, por lo menos, que no podrán ser nunca comprobadas.

                Los científicos observaban que desde la escala macroscópica de los supercúmulos de galaxias a la microscópica de las partículas W y Z, cambian en la Naturaleza las estructuras físicas, a medida que cambia la escala de distancia. En el libro de Phill Morrison titulado " Potencias de 10", vemos ejemplos de la riqueza y variedad de los productos de la Naturaleza cada vez que la escala de distancias cambia en múltiplos de diez. ¿Hay alguna razón (aparte de la falta de imaginación o la falta de datos) para que esta riqueza desaparezca súbitamente al adentrarnos más allá de las distancias correspondientes al tamaño de las partículas W y Z, para volver a hacerse interesante a la escala de la gran teoría del campo unificado, 1013 veces más pequeña? Nadie sabe cómo contestar a esta pregunta. La única forma de lograrlo es seguir haciendo experimentos con aceleradores a energía aún mayor, alrededor de 1024 eV. O sea, por ahora no hay ninguna posibilidad, ni siquiera con el Relativistic Heavy Ion Collider (RHIC) .

                En consecuencia ¿son las GUT's una pura y simple especulación? No es así. Existen otra serie de medidas que nos conduce naturalmente a esta hipótesis. Para describirlas, resumamos primero nuestros conocimientos sobre las intensidades (constantes de acoplamiento) de las fuerzas de la Naturaleza. La constante de acoplamiento de la fuerza electromagnética es numéricamente de 1/137, o sea, alrededor de siete milésimas. La "debilidad" de la fuerza débil –aproximadamente una cienmilésima– proviene, no de su constante de acoplamiento, sino de su corto alcance. A energías elevadas, ambas fuerzas poseen intensidades y alcances parecidos. Este hecho está en la base de la unificación electrodébil. La fuerza nuclear es alrededor de cien veces más fuerte que la fuerza electromagnética. Su constante de acoplamiento está cerca de la unidad.

                Ahora bien, se trata de constantes de acoplamiento cuyo primer nombre asignado, se puede decir, es el teóricamente apropiado. La nucleosíntesis del Big Bang nos ha suministrado una información preciosa para este punto: entre el momento del nacimiento de los núcleos de helio –a diez mil millones de grados– y hoy, no han cambiado un ápice. Pero esta misma teoría nada nos dice sobre los tiempos más antiguos. Pero no se puede calificar lo mismo cuando se está trabajando con aceleradores. La muestra es clara y sorprendente. El estudio de las colisiones de partículas en el laboratorio demuestran que, más allá de una cierta energía, estas "constantes" ya no lo son. Cambian progresivamente y de manera absolutamente relevante. La fuerza electromagnética se fortifica, mientras que la fuerza nuclear se debilita. A cien mil millones de electronvoltios, la constante electromagnética ha aumentado en un 30%, mientras que la intensidad nuclear ha disminuido en un 80%. Así ocurría en la sopa primordial cuando la temperatura era de 1015 K.

                La conclusión se impone: en el lejano pasado del Universo, las constantes de acoplamiento eran diferentes. Obviamente que con la potencia actual de los aceleradores no se va a poder llegar a comprobar la hipótesis, pero, a su vez, son ellos mismos los que han dado argumentos teóricos como para no desechar la idea de las GUT's. A más alta energía, la fuerza electromagnética debería intensificarse aún más, mientras que la fuerza nuclear continuaría su debilitamiento. Los valores numéricos de sus constantes de acoplamiento se reunirían en las cercanías de 1024 eV. En consecuencia, si suponemos que llevamos la materia a la temperatura correspondiente, o sea, a 1028 K, las tres fuerzas tendrían la misma intensidad. No se precisa más para acreditar la idea de una unificación de estas tres fuerzas. Claro está que la fuerza de gravedad no se integra todavía.

                Tomando como referencia la unificación electrodébil, las ideas de gran unificación hacen intervenir las operaciones de simetría de un grupo, implicando esta vez a los electrones, los neutrinos y los quarks. La presencia simultánea de estas partículas en un mismo grupo impone la estricta igualdad de las cargas del electrón y del protón (compuesto por tres quarks). Recordemos al respecto las operaciones de simetría del cuadrado. Para que las rotaciones sean indiscernibles, es preciso que los ángulos sean exactamente múltiplos de 90 grados. Si bien no se puede pensar que lo que se tiene sea algo sólido y concluyente, no obstante dos elementos de observación nos han llevado con naturalidad a la idea de una "gran unificación" de las fuerzas nuclear y electrodébil. Primero, la igualdad de las cargas nos hizo sospechar la intervención de un grupo de simetría que implica la transformación de estas partículas unas en otras. Luego, la variación de las constantes de acoplamiento de estas fuerzas con la energía, la que nos permite estimar la temperatura requerida para esta unificación: alrededor de 1028 K (1024 eV).

                La temperatura y potencia que hemos estimado para una GUT, están bastante más allá de las más altas energías obtenidas en laboratorio (solamente 1018 eV). Los conocimientos obtenidos siguen siendo precarios e inciertos, naturalmente. Pero, de alguna manera, la humanidad algo hará en el futuro para satisfacer esta necesidad de conocimiento tan propia de su naturaleza. ¿Cuál podría ser el estado de la materia en esas condiciones ambientales? No se puede precisar las consecuencias, pero la transformación de los quarks en electrones tendría efectivamente más de alguna, puesto que implicaría que los protones no son estables. Cuando los quarks de un protón se transforman, el protón desaparece. De este modo, todos los átomos estarían amenazados. Después de estas desintegraciones, los fotones, los electrones y los neutrinos resultarían los únicos constituyentes del Cosmos. ¿Pero en cuánto tiempo? Sobre esta cuestión, nuestra propia existencia es portadora de informaciones. Esta desintegración de los nucleones, si se produce, forzosamente debe ser muy lenta. Además, poseemos meteoritos de varios millones de años.

                El caso del neutrón va a iluminarnos. Su desintegración implica, ya lo vimos, la creación de una partícula W. La debilidad de la interacción débil –de la que la gran masa de W es responsable– permite que el neutrón dure veinte minutos. Una masa más grande de W le otorgará una duración más extensa aún. Supongamos ahora que la fuerza de gran unificación sea transportada por una partícula nueva todavía más masiva. El principio de incertidumbre de Werner Heisenberg nos asegura que la creación de estas partículas será aún más escasa, y la duración de vida del protón aún más extensa. ¿Cuál debería ser la masa de una partícula capaz de asegurar al protón una existencia de 1029 años y más? Respuesta: por lo menos 1024 eV. Esta masa corresponde a la energía en que las constantes de acoplamiento se encuentran. En el fondo, es la "coincidencia" que más entusiasma a los físicos para hallar una teoría convincente y demostrable que concluya en una gran unificación.

                Hasta ahora, los modelos GUT's sólo teóricamente unifican tres de las fuerzas conocidas de la Naturaleza: la fuerte, la débil y la electromagnética. Puede que existan fuerzas completamente nuevas distintas de esas tres y de la gravedad y que se manifiesten sólo a distancias muy cortas o a energías altísimas. Tales fuerzas no aflorarán hasta que no se construyan aceleradores con energía suficiente para ponerlas de manifiesto, energía que podría producir un supercolisionador que no se sabe si alguna vez se podrá construir, dado su costo y tamaño.

                Una fuerza nueva de este género, que de momento sólo existe en la imaginación, la predijeron, independientemente, Steven Weinberg, de la Universidad de Tejas, y Leonard Susskind, de la Universidad de Stanford, y se denominó fuerza "tecnicolor" o "hipercolor". Estos teóricos suponen que dicha fuerza podría manifestarse a energías próximas a los 1024 eV. La fuerza tecnicolor imita la fuerza coloreada conocida que mantiene los quarks unidos. Pero se manifiesta a través de una nueva serie de "gluones tecnicolor", que interactúan con una nueva serie de quarks, los "tecniquarks", que se unen para formar "tecnihadrones", similares a hadrones ordinarios como los protones, neutrones y piones, pero de masa mucho mayor. Si estas ideas respecto al tecnicolor fueran correctas, en superpotentes aceleradores se crearían nuevos tecnihadrones, igual que en los aceleradores actuales se crean hadrones ordinarios.

          

                Los físicos no introdujeron la fuerza tecnicolor sólo para imaginar nuevas partículas hipotéticas con las que poblar el vacío de nuestro desconocimiento. Pretendían también profundizar en el conocimiento de los parámetros no explicados del modelo estándar, como la magnitud de las masas quárquicas ordinarias. Quizá las nuevas fuerzas tecnicolor puedan explicarlas. Por desgracia, la idea de las fuerzas tecnicolor no ha conseguido aclarar mucho esos problemas, y plantea más incógnitas si se quieren combinar las interacciones débiles ordinarias con las fuerzas tecnicolor. A pesar de estas dificultades, el tecnicolor es una nueva idea de la "historia sin fin"…que podría resultar importante cuando se logren construir superaceleradores. Nadie puede desechar la existencia de nuevas fuerzas de muy corto ámbito, y las partículas cuánticas de esas fuerzas podrían hacer florecer nuestro desierto de desconocimientos.

                Las teorías del campo unificado y las de las fuerzas tecnicolor que podría añadirse a ellas, sólo representan una de las tentativas (la principal) de unificar las fuerzas de la Naturaleza. Otra propuesta para unificar las diversas partículas cuánticas es la de que éstas no son entidades elementales, sino compuestas. Cuando los físicos hallaban, en el pasado, lo que tomaban por un objeto "elemental", como el átomo o el protón, descubrían luego que el objeto estaba en realidad compuesto por otros objetos aún más pequeños. ¿Por qué no van a estar sometidos los quarks, los leptones y los gluones a una posterior descomposición?

               Quizá sean compuestos. Sin embargo, los físicos que han investigado este supuesto no han hallado modo de aplicarlo. En el pasado, la idea de que una partícula era compuesta (sin ninguna prueba experimental directa de que lo fuese) explicaba normalmente alguna otra propiedad, desconcertante por lo demás, de dicha partícula. La idea de que los átomos se componían de electrones y núcleos ayudó a explicar, por ejemplo, el espectro de luz que emitían. Asimismo, de la idea de que los hadrones estaban formados por quarks, se deducían relaciones correctas entre las masas hadrónicas observadas.

                En sus trabajos sobre unificación, Pati y Salam investigaron la idea de los "preones", objetos más pequeños que los quarks y los leptones, de los que éstos podrían componerse. El físico israelí Haim Harrari elaboró el modelo "rishon" de quarks y leptones, en el que se consideraban formados por dos "rishones" todos los quarks y leptones observados. A pesar de estas hipótesis y muchas otras, la idea de que los quarks y los leptones sean compuestos no ha ayudado mucho a explicar sus masas u otras propiedades. Esto es decepcionante. Quizá se deba a que los físicos aún no han hallado el modelo compuesto correspondiente o a que no aplican como es debido las ideas de composición. La idea de que los leptones y quarks sean compuestos es otra idea de la "historia sin fin…" más, a guardar en el cajón por si alguien descubre cómo funciona.

                Aunque no hay ni un solo dato experimental que directamente las apoye, las GUT's siguen en un nivel importante de atención en la investigación física teórica actual. Estimula a los físicos el hecho de que estas teorías les permitan unificar tres fuerzas de la Naturaleza, aunque sea sólo teóricamente. Hace unos treinta años, tal unificación habría parecido inconcebible, pero hoy la unificación de todas las fuerzas de la Naturaleza sigue figurando en una posición preeminente en los programas de la Física. Encontrar pruebas de la desintegración protónica será una importante confirmación de las GUT's. Pero, aunque los físicos experimentales no vean protones desintegrándose, esto sólo significa que la vida protónica puede ser mayor de lo que ellos pueden medir. El que no hubiese desintegración protónica sería otro dato que limitaría los modelos teóricos de las GUT's, pero no sería el fin de la idea.

                Muchos teóricos se han esforzado por generalizar aún más estas teorías para que incluyan un nuevo tipo de simetría (Supersimetría), en la que se convierten campos con espín de medio entero en campos de espín un entero y viceversa. Estos modelos reciben el nombre de "teorías supersimétricas del gran campo unificado" o SUSY GUT's. Su campo de experimentación es el Universo muy primitivo: la dinámica del Universo inflacionario, una etapa del Universo anterior al Big Bang. Otras teorías, más amplias incluso que las GUT's, son las de la Supergravedad, ampliaciones de la Teoría General de la Relatividad de Einstein, que incluyen la cuarta fuerza, la gravedad.

                La idea de las GUT's surgió del éxito que tuvo la revolución de la teoría del campo de medida y el subsiguiente modelo estándar de quarks, leptones y gluones. Pero las GUT's no fueron el único producto de esta revolución científica. Los físicos que investigaron matemáticamente las teorías del campo de medida descubrieron una clase de objetos totalmente nueva que podría habitar el micromundo cuántico. El más interesante de estos objetos es el monopolo magnético, una partícula dotada de una sola unidad de carga magnética y que es distinta a todo lo observado hasta ahora. Varias GUT's predicen los monopolos magnéticos y, si tales teorías fueran correctas, podríamos descubrirlos algún día.                                                                            

                                       8.- MONOPOLOS MAGNETICOS

                 Cohabitamos una Naturaleza llena de fenómenos enigmáticos. Uno de estos fenómenos es la asimetría insólita que se observaba entre el magnetismo y la electricidad: no hay cargas magnéticas comparables a las cargas eléctricas. Nuestro mundo está lleno de partículas cargadas eléctricamente, como los electrones o los protones, pero nadie ha detectado jamás una carga magnética aislada. El objeto hipotético que la poseería se denomina monopolo magnético.

                Para hacernos una idea de cómo sería un monopolo magnético, si existiera, imaginemos una barra imantada que, como sabemos, posee en cada extremo un polo magnético por el cual se atraen o se repelen. Estos polos son de dos tipos, llamados "norte" y "sur", y se comportan como las cargas eléctricas, positiva y negativa. Esa configuración del campo es un ejemplo de "campo bipolar", y sus líneas de campo no paran: giran y giran interminablemente. Si partimos por la mitad la barra imantada, no tenemos dos polos, el norte y el sur, separados, sino dos imanes. Un polo norte o sur aislado (un objeto con líneas de campo magnético que sólo salgan o que sólo entren) sería un monopolo magnético. De hecho, es imposible aislar una de estas cargas magnéticas. Nunca se han detectado monopolos magnéticos, es decir partículas que poseyeran una sola carga magnética aislada. Puede que ello se deba a razones no aclaradas, o bien la Naturaleza no creó monopolos magnéticos, o creó poquísimos.

                En cambio, los monopolos eléctricos (partículas que llevan carga eléctrica) son muy abundantes. Cada traza de materia contiene un número increíble de electrones y protones que son auténticos monopolos eléctricos. Podríamos imaginar las líneas de fuerza del campo eléctrico surgiendo de una partícula cargada eléctricamente o convergiendo en ella y empezando o acabando allí. Además, la experiencia ha confirmado la ley de conservación de la carga eléctrica: la carga monopólica eléctrica total de un sistema cerrado no puede crearse ni puede destruirse. Pero en el mundo del magnetismo, no existe nada similar a los monopolos eléctricos, aunque un monopolo magnético sea fácilmente concebible.

                La teoría electromagnética unifica la fuerza eléctrica y la fuerza magnética. La fuerza eléctrica es generada por la presencia de cargas eléctricas (el electrón, por ejemplo), mientras que la fuerza magnética surge por el movimiento de estas mismas cargas. El campo magnético de un imán proviene del movimiento de los electrones alrededor de los núcleos de hierro.  James Clerk Maxwell, el físico escocés que unificó matemáticamente los campos magnético y eléctrico en 1864, incluía en sus ecuaciones electromagnéticas fundamentales la existencia de cargas eléctricas, pero no incluyó la posibilidad de cargas magnéticas. Le habría resultado fácil hacerlo; la inclusión, a nivel estético, habría hecho sus ecuaciones bellamente simétricas respecto a la electricidad y el magnetismo. Pero al igual que otros físicos, Maxwell no halló prueba alguna de que hubiera en la Naturaleza cargas magnéticas y las excluyó, por principio, de sus ecuaciones. Los físicos consideran desde entonces extraña la asimetría natural de la electricidad y el magnetismo. Siguieron profundizando en sus estudios del campo electromagnético maxwelliano. Sabían que las ecuaciones de Maxwell podían simplificarse si se derivaban matemáticamente los campos eléctrico y magnético de otro campo aún más básico: un campo de medida. El campo de medida electromagnético es el ejemplo primero y más simple de la concepción general de campo de medida que descubrirían mucho después Yang y Mills. Curiosamente, al aplicar las ecuaciones de Maxwell al campo simple de medida, los físicos comprobaron que la ausencia de carga magnética se explicaba matemáticamente. Recíprocamente, pudieron demostrar que la ausencia de carga magnética entrañaba matemáticamente la existencia de un campo de medida. El campo de medida introdujo así una asimetría entre los campos eléctrico y magnético.

                Pero la introducción del campo de medida como estructura subyacente del electromagnetismo se consideraba entonces una novedad matemática, un truco conceptual y no verdadera Física. De la idea del campo de medida se sacaba exactamente lo que se ponía en ella. Luego, en los años veinte, el matemático Hermann Weyl demostró que la incorporación de los campos eléctrico y magnético en la nueva teoría cuántica exigía concretamente una interpretación en términos del campo de medida. Y se empezó así a comprobar que el campo de medida electromagnético era físicamente importante, además de interesante matemáticamente. La Mecánica Cuántica parecía hecha "a la medida de los campos de medida", y, curiosamente, los campos de medida presuponían la ausencia de monopolos magnéticos. Este planteamiento teórico coincidía tan absolutamente con la experiencia, que la idea del campo de medida electromagnético se asentó con mucha firmeza. Pero luego, llegó Paul Dirac.

                En 1931, Dirac empezó a examinar las consecuencias físicas de la "belleza matemática" del campo de medida electromagnético en la Teoría Cuántica. Y dijo: "Cuando realicé este trabajo, tenía la esperanza de encontrar una explicación de la constante de estructura fina (la constante relacionada con la unidad fundamental de carga eléctrica). Pero no fue así. Las matemáticas llevaban inexorablemente al monopolo". En contra del punto de vista teórico predominante, Dirac descubrió que la existencia de un campo de medida electromagnético y la Teoría Cuántica unidas presuponían que en realidad los monopolos magnéticos podían existir... siempre que la unidad fundamental de carga magnética tuviese un valor específico. El valor de la carga magnética que halló Dirac era tan grande que si en realidad existiesen monopolos magnéticos en la Naturaleza, tendrían que ser fácilmente detectables, debido a los efectos de sus grandes campos magnéticos.

                Para entender mejor las consecuencias de las investigaciones de Dirac, imaginemos una barra imantada delgada de kilómetro y medio de longitud, con un campo magnético en cada extremo. En este caso, el campo magnético se parece al de un monopolo magnético porque el imán es muy delgado y los extremos están muy alejados. Pero no es un auténtico monopolo, porque las líneas del campo magnético no terminan realmente en la punta del imán; se canalizan a través de éste y surgen por el otro extremo. Imaginemos luego que un extremo de este delgado imán se extiende hasta el infinito, reduciéndose su grosor matemáticamente a cero. El imán parece ahora una línea matemática, o una cuerda, con un campo magnético radial que brota de su extremo: un auténtico monopolo magnético puntiforme: Pero, ¿y esa cuerda infinitamente delgada (llamada cuerda de Dirac) que canaliza el flujo del campo magnético hasta el infinito? Dirac demostró que si la carga magnética del monopolo, con un valor g, cumplía la ecuación ge = n/2, ( n = 0, 1, 2...) en la que e es la unidad fundamental de carga eléctrica (una cantidad conocida experimentalmente), la presencia de esa cuerda no podría detectarse nunca físicamente. Según Dirac, la cuerda se convierte entonces sencillamente en un artilugio matemático descriptivo sin realidad física, igual que las coordenadas de los mapas son artilugios matemáticos que utilizamos para describir la superficie de la Tierra, carentes de significado físico. La cuerda de Dirac con un monopolo magnético en la punta era matemáticamente una línea en el espacio, a lo largo de la cual el campo de medida electromagnético no estaba definido. Pero, sorprendentemente, esta falta de definición no tenía consecuencias mensurables, siempre que la carga del monopolo magnético cumpliese la condición de Dirac. Otra consecuencia más del monopolo de Dirac era que la carga magnética se conservaba rigurosamente como la carga eléctrica.

                Después de los importantes trabajos de Dirac, los físicos teóricos aceptaron la posible existencia de monopolos magnéticos, pensando que si ninguna ley física rechazaba su existencia, quizá existiesen. Resumiendo, nada se opone, a priori, a la existencia de cargas magnéticas aisladas. Estos monopolos magnéticos producirían una fuerza magnética, mientras que sus movimientos engendrarían una fuerza eléctrica. Pero, por una razón misteriosa, la Naturaleza no parece haber jugado aquí por la simetría, pues creó monopolos eléctricos y aparentemente no monopolos magnéticos. ¿Causa problemas esta asimetría, deberían existir los monopolos magnéticos? La respuesta tradicional de los físicos es: no necesariamente. La teoría sugiere su existencia, pero no la exige, y se acomoda muy bien con su ausencia. Mas, en el marco de la teoría del Big Bang, la situación es diferente. En el momento de la ruptura de la simetría de gran unificación, se engendraron grandes cantidades de monopolos magnéticos. Estas partículas, casi tan masivas como las X y las Y, deberían ser tan numerosas como los protones. Masas tan gigantescas deberían poder señalarse fácilmente. ¿Por qué no se dejan percibir por nuestros detectores?

                De hecho, con esta masa y esta población, los monopolos magnéticos, si existiesen, otorgarían al Universo una densidad bastante superior que la densidad crítica. Bajo su efecto gravitatorio, el Universo se habría cerrado hace mucho tiempo. El problema de los monopolos ausentes es otra de las patologías de las debilidades del Big Bang.                                                                              

9.- LA UNIFICACION DE LA GRAVEDAD

                 La ley de la gravitación de Newton fue durante dos siglos el ejemplo clásico de una ley física. Luego, el 6 de noviembre de 1919, se presentaron ante una sesión conjunta de la Royal Society y de la Royal Astronomical Society inglesas, observaciones de la curvatura de la luz alrededor del Sol que confirmaban la Teoría de la Gravitación de Einstein. Quedaba derogada así la ley de Newton.

                Según la nueva Teoría de la Relatividad General de Einstein, lo que experimentamos como fuerza gravitatoria puede representarse matemáticamente con la curvatura de un espaciotiempo tetradimensional: la gravedad es geometría. De su teoría geométrica de la gravedad, Einstein dedujo una desviación de la trayectoria de la luz por el Sol, doble de lo que resultaba aplicando la teoría de Newton. Esta mayor desviación fue lo que se observó y se comunicó en 1919. A partir de entonces, la Teoría General de la Relatividad de Einstein se ha sometido a repetidas y rigurosas comprobaciones experimentales, utilizando, entre otros métodos modernos, radar dirigido a planetas lejanos y a satélites artificiales. La teoría ha superado una y otra vez la prueba. Los físicos están tan impresionados por el éxito cuantitativo de la Relatividad General en el reino macrocósmico, que creen que la teoría no fallará espectacularmente en un futuro próximo.

                La relatividad nos describe que la masa es la causante de configurar la curvatura del espaciotiempo. Así, la masa genera un cambio en la trayectoria que toman las partículas, ya que urde el espacio por donde ésta transita. En escalas grandes esto es muy preciso, tanto como lo es la Electrodinámica Cuántica en las escalas subatómicas. Con su precisión se puede predecir cuándo una estrella puede ser desplazada por causas de un campo gravitatorio. También explica la relación entre masa inercial y la gravedad. Sin embargo, y pese al éxito experimental de la Teoría de la Gravedad de Einstein en el sistema solar y del cuadro general del Cosmos que entraña, desde el punto de vista de la Física cuántica, la teoría resulta extraordinariamente insólita.

                Hasta ahora, para una partícula no se ha podido distinguir una fuerza gravitatoria que afecte su trayectoria, ya que ésta, normalmente, se desplaza en un trazado geodésico que sigue una trayectoria inercial. No se ha podido observar actuando a una fuerza gravitatoria distante sobre una partícula, pero sí se ha podido distinguir una trayectoria específica para las partículas determinadas, dada por la curvatura local del espacio. Un electrón está siempre emitiendo y absorbiendo fotones. Mientras está solo, esta actividad creativo-destructiva no altera su movimiento.

                En un átomo, en cambio, su cercanía al núcleo positivo hace que la generación y absorción de fotones sea desigual en diferentes direcciones, resultando sus movimientos circulares en vez de rectilíneos. En la QCD (Electro Dinámica Cuántica) no se plantea el problema de la interacción a distancia, porque electrón y núcleo se comunican a través de mensajeros, los fotones, indicando por su intermedio dónde están y cómo se mueven. Si un neutrón rápido impacta al núcleo y lo lanza lejos, los electrones vecinos se enteran un instante después, precisamente el tiempo que tardan los fotones mensajeros en hacer el recorrido desde el núcleo al exterior del átomo. Para la información se requiere un tiempo, la interacción no es instantánea.

                Pero ¿qué pasa con la gravedad? No la mencionamos simplemente porque no hay una Teoría Cuántica de la Gravedad; o mejor dicho, es posible que exista, pero todavía no hemos sido capaces de conocerla. Lo cierto es que todavía no se tienen claros los caminos a seguir para encontrar la forma de cómo construirla. El problema es fácil de diagnosticar pero difícil de resolver. Sabemos formular la gravedad mediante la geometría del espaciotiempo, pero todavía no hemos encontrado nada verdaderamente consistente que nos permita transformar geometría en partículas. Estas viajan en el espaciotiempo llevando sus mensajes, pero geométricamente, ¿cómo? La respuesta se sigue buscando.

                Sin embargo, como seres humanos precavidos e inteligentes, y pese a las dificultades que hemos señalado, al cuanto de la gravedad ya le hemos dado nombre: gravitón. No hay pruebas de que el gravitón exista, aún cuando muchos experimentos en el pasado reciente hayan procurado, sin éxito, atraparlo. Pero pese a que el gravitón ni siquiera sabemos si existe, salvo en teoría, los físicos teóricos pueden calcular matemáticamente las interacciones del gravitón con otra materia y, al hacerlo, encuentran infinitos matemáticos en sus cálculos. Esos números infinitos ya habían aparecido cuando los teóricos calcularon las interacciones de los fotones con la materia. Sorprendentemente, estos infinitos de la interacción fotónica podían domesticarse, "renormalizarse", mediante lo que parece un procedimiento matemáticamente coherente. Pero los infinitos que aparecían en las interacciones gravitónicas no podían renormalizarse; eran mucho peores. La Gravedad Cuántica interactuando con la materia no es una teoría renormalizable, lo que simplemente significa que los físicos no pueden extraerle sentido.

                Por si no bastasen esos infinitos matemáticos de la Teoría de la Gravedad Cuántica, subsisten problemas conceptuales más profundos. Uno es que la definición misma de partícula cuántica que puede formularse con precisión en la Teoría de la Relatividad Especial de Einstein, no sirve o ha de modificarse muy notablemente para que guarde coherencia con la teoría de la Relatividad General. Cuando se combinó la Teoría Cuántica con la Relatividad Especial surgieron nuevos conceptos trascendentales del micromundo. No se sabe cómo se han de modificar esos conceptos para combinar la Teoría Cuántica con la Teoría General de la Relatividad. Nadie sabe aún si esa combinación es posible.

                La principal dificultad para encontrar una teoría que unifique la Relatividad con la Teoría Cuántica estriba en que la Relatividad General es una teoría "clásica"; esto quiere decir que no incorpora el principio de incertidumbre de la Mecánica Cuántica. El punto de partida de la Relatividad General es el "principio de equivalencia": el principio de que un campo gravitatorio local es indiferenciable de un movimiento acelerado. En consecuencia, un primer paso necesario consiste en combinar la Relatividad General con el principio de incertidumbre. Esto puede tener algunas derivaciones muy notables, como que los agujeros negros no sean negros, y que el Universo no tenga ninguna singularidad, sino que sea completamente autocontenido y sin una frontera.

                Einstein reconocía en el principio de equivalencia que la presencia de un campo gravitatorio local es sólo un símil de si un observador está acelerando o no; es decir, depende del sistema de coordenadas con que decida medir su movimiento. Por ejemplo, si eligiéramos para el sistema de coordenadas una nave espacial en aceleración, habría un campo gravitatorio, pero en un sistema de coordenadas que no esté en aceleración no habrá ninguno. Pero las leyes matemáticas fundamentales de la Física deberían ser iguales para todos los observadores, independientemente de que el observador esté acelerando, permanezca quieto o se mueva de cualquier modo respecto a otro. Si no, las leyes fundamentales dependerían de la elección arbitraria por un observador de un sistema de coordenadas determinante, y ese tipo de arbitrariedad no debería darse en las leyes fundamentales.

                Este principio de "invarianza coordinada general" se halla incorporado a la Teoría de la Relatividad General. A este respecto, va más lejos de la primera Teoría de la Relatividad Especial de Einstein, que sólo exigía que las leyes matemáticas de la Física tuviesen la misma forma para observadores que estuvieran moviéndose de manera uniforme en la relación los unos con los otros: un movimiento espacial a una velocidad constante. Según la teoría relativista del campo cuántico, un campo de gravedad constante crea un baño radiante de partículas cuánticas, como los fotones, a una temperatura determinada. Sería como estar dentro de un horno (por suerte, esta temperatura es muy baja en la fuerza de gravedad de la Tierra). Pero el principio de equivalencia entraña que un campo gravitatorio es lo mismo que una aceleración. En consecuencia, un observador en aceleración ve un baño de partículas cuánticas creadas por el campo gravitatorio, mientras que el que está inmóvil no lo ve. Se altera, por tanto, la idea misma de creación y destrucción de partículas cuánticas. No está claro lo que quedará del concepto "partícula cuántica" en la Relatividad General, pero en la actualidad este concepto es esencial para la visión que tienen los físicos del micromundo.

                Por otra parte, se tiene el problema que el principio de incertidumbre implica que el espacio "vacío" está lleno de pares de partículas y antipartículas virtuales. Estos pares tendrían una cantidad infinita de energía y, por consiguiente, a través de la ecuación relativista E = mc2, tendrían una cantidad infinita de masa. Su atracción gravitatoria curvaría, por tanto, el Universo, hasta un tamaño semejante al de una bolita. En consecuencia, cuando se trabaja con la Relatividad General, es necesario considerar que, para ella, el vacío es verdaderamente vacío, ya que ignora todo acerca de los campos y de la dualidad onda-partícula. Por otro lado, al intentar incorporar el principio de incertidumbre a la Relatividad General, se dispone de sólo dos cantidades que pueden estar sujetas a ajustes: la intensidad de la gravedad y el valor de la constante cosmológica. Pero ello es altamente incoherente, dado la gran cantidad de infinitos que aparecen en los resultados cuantificados. Lo anterior implica que existiría un espaciotiempo con curvaturas infinitas, lo que representa una tremenda contradicción con las observaciones, que indican que son mensurables y finitas.

                Los físicos teóricos que han estudiado detenidamente estos problemas, creen que para combinar la Teoría Cuántica con la Teoría de la Relatividad General habrá que modificar sustancialmente las ideas físicas fundamentales. Einstein creía que si se lograba combinar la Teoría Cuántica con la de la Relatividad General, el resultado sería una teoría del campo unificado de todas las fuerzas. Pese a los grandes esfuerzos de los físicos de mayor talento, hasta ahora nadie ha conseguido realizar esta combinación de un modo matemática y físicamente convincente y limpio. Esto no debe sorprendernos si tenemos en cuenta que a los físicos les costó varias décadas de esfuerzo intelectual combinar la Teoría Cuántica con la Teoría de la Relatividad Especial o Restringida, que era más simple (la fusión tuvo como consecuencia las notables teorías relativitas del campo cuántico y una nueva visión del microcosmos). Es muy probable que los físicos tarden aún décadas en conseguir una fusión coherente de la Teoría Cuántica y de la de la Relatividad General. Encontrar una Teoría Cuántica de la Gravedad sigue siendo el gran problema por resolver de la Física teórica moderna.

                Los físicos, pese a carecer de una Teoría Cuántica de la Gravedad viable, no pueden resistir la tentación de proponer hipótesis sobre las características del espaciotiempo a escalas de distancia de 10-33 cm (la escala de Planck, a la que pasan a ser importantes los efectos cuánticos de la gravedad), aunque sólo sea para convencerse de que sus conceptos más amados se desintegran a tales distancias. Pero cualquiera de esas hipótesis, por ahora, chocan con una realidad: los fósiles que se disponen para estudiarlos no sabemos interpretarlos. A temperaturas muy elevadas, la situación se deteriora rápidamente. En el borde fatal de 10-32 K –la temperatura de Planck–, nada marcha. Nuestra Física deja de funcionar. El comportamiento de la materia en esas extremas condiciones se encuentra muy por fuera de nuestras posibilidades de manejo. Peor aún, hasta nuestras nociones tradicionales pierden su sentido, y tocamos los límites del conocimiento que hasta ahora ha adquirido la humanidad.

                Pero como los físicos son personas habituadas a hacer volar sus pensamientos, algunos de ellos sostienen que, a la escala de Planck, el espaciotiempo adopta una estructura espumiforme. A escalas de mucha distancia, como las que experimentamos a diario, el espaciotiempo parece plano y liso como la superficie del mar vista desde lo alto; pero al aproximarnos a la escala de Planck, se agita como un océano turbulento. Si los físicos pretenden describir el micromundo a la distancia de la escala de Planck, quedará poco del espaciotemporal continuo en el que se ha basado hasta ahora la descripción de la Naturaleza. Es posible que se apele a nuevos conceptos más allá del espacio y del tiempo. Mas, pese al hecho de que las teorías relativitas del campo cuántico actuales fallen a la escala de Planck, los físicos no hallan nada que les impida describir el micromundo a todas las escalas de distancia superiores a la escala de Planck. Ese es el motivo de que se prescinda sin problemas de la gravedad al pensar en unificar todas las otras fuerzas. Hay ya teorías, aunque parciales, matemáticamente coherentes (GUT's), que unifican las fuerzas débil, electromagnética y fuerte a escalas de distancia previas a la escala de Planck, aunque no hayan sido verificadas experimentalmente.

                Muchos físicos están convencidos de que si bien teorías como las GUT's han aclarado la dinámica del Universo muy primitivo, mientras no exista una teoría totalmente unificada (que incluya la gravedad) no se podrá describir el origen del Universo. Porque si imaginamos que retrocedemos en el tiempo hasta el Universo muy primitivo, la temperatura y la energía de interacción de partículas cuánticas pueden aumentar sin límite, de modo que llegará un momento en que se penetre en la escala de distancias de Planck. El problema de la Gravedad Cuántica se plantea inevitablemente si queremos aclarar el origen del Universo.

                Aunque los físicos no hayan logrado, ni mucho menos, inventar una teoría de campo totalmente unificado que incluya la gravedad, hay muchos que creen que se ha dado un gran paso adelante en esta dirección en la última década. El punto de partida ha sido siempre la Teoría de la Relatividad General de Einstein y conceptos con ella relacionados, por lo eficaz que es esa teoría para explicar la física gravitatoria macrocósmica. El problema es que hay que modificar esta teoría sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo los problemas de la gravedad cuántica a corta distancia y de la unificación de la gravedad con las otras fuerzas de la Naturaleza. Se han propuesto soluciones a este problema, como la "Teoría de la Supergravedad" y la "Teoría de Kaluza-Klein" y, la más reciente, que ha despertado gran interés: la "Teoría de las Supercuerdas". Sólo el tiempo podrá decirnos si estas ideas van a llevar a los físicos a callejones sin salida o si nos conducen hacia una teoría general del Universo. Pero en el fondo, no son más que ideas de la "historia sin fin…", que podrían, a lo mejor, estar en lo cierto.                                                                                           

           10.- SUPERSIMETRIA Y SUPERGRAVEDAD

                En el año 1972, los físicos lograron confirmar un hecho: la imposibilidad de combinar la Relatividad General y el Principio de Incertidumbre. En efecto, mediante cálculos detallados, una sospecha que se tenía desde tiempo atrás se transformó en una realidad. Sin embargo, cuatro años después se sugirió una posible solución, llamada "Supergravedad".

                Pero antes de introducirnos a estudiar en qué consiste la Supergravedad, repasemos algunos aspectos importantes de las partículas como, asimismo, describir –en un estudio sucinto– lo que los físicos han llamado "Supersimetría". Podemos concebir las partículas cuánticas como bolitas que giran, cuyo giro o espín tiene valores discretos de 0, 1/2, 1, 3/2, 2, etc., en unidades ciertas. Espín cero significa que la bolita no gira. Espín 1/2 significa una cantidad concreta de giro, y espín uno, el doble de dicha cuantía, etc. El pión, un hadrón de interacción fuerte, tiene espín cero. El protón, el neutrón, los quarks y los leptones tienen espín 1/2, mientras que el fotón y los gluones débiles W y Z tienen espín 1 y el gravitón, 2. El espín fue una de las piedras angulares del sistema de clasificación de partículas cuánticas de Wigner.

                Ahora bien, los físicos dividen las partículas cuánticas en dos clases: los bosones, que son partículas de espín entero (0, 1, 2, etc.) y los fermiones, de espín medio entero (1/2, 3/2, etc.). El motivo de la división es que bosones y fermiones obran de forma muy distinta según las leyes de la Mecánica Cuántica. Bosones idénticos pueden ocupar, por ejemplo, la misma posición en el espacio, mientras que los fermiones idénticos no pueden. Los bosones idénticos son "sociables"y prefieren condensarse en grupos, mientras que los fermiones idénticos son "antisociales", se excluyen entre ellos. Los electrones muestran este principio de exclusión de los fermiones, y cuando orbitan el núcleo no pueden ocupar el mismo estado de energía. La exclusividad de los electrones tiene por consecuencia una repulsión mutua y explica por qué no se colapsan los átomos si se aprietan los unos contra los otros.

                Tanto los bosones como los fermiones tienen un importante papel en la descripción de la Naturaleza al nivel más fundamental. El modelo estándar incluye a ambos géneros de partículas: los quarks y los leptones son fermiones de espín 1/2, mientras que los gluones y las partículas de Higgs son bosones de espín uno y cero. El Modelo Estándar tiene también simetrías importantes, como la teoría de los campos de calibre, elaborada en 1956 por los físicos Chen Nin Yang y S. Mill que relaciona los diversos gluones. Pero una característica decisiva de todas estas simetrías, que consideran los diversos campos cuánticos componentes de un solo campo básico, es que los diversos campos cuánticos que se convierten unos en otros por la operación de simetría, han de tener el mismo espín. Todos los campos de Yang-Mills tienen espín uno, por ejemplo, de modo que las operaciones de simetría no mezclan campos con distinto espín.

                Pero la porfía que caracteriza a los físicos teóricos, por un lado, y el dominio que han desarrollado de las matemáticas, por otro, hace que lograran otra simetría que permite convertir campos de espín distinto unos en otros y han dado a esta simetría el grandilocuente apelativo de "Supersimetría". Esta teoría supone que las partículas de espines diferentes se asocian en un gran grupo llamado "grupo de supersimetría", que implica la existencia de operadores que transforman una partícula de espín dado en una partícula de espín diferente. Bajo su acción, los fermiones (de espín semientero) se transforman en bosones (espín entero). Ya que existen partículas de espín 1/2, 1 y 2, deberían existir también espines 0 y 3/2, para completar el quinteto: 0, 1/2, 1, 3/2, 2. Si la noción de Supersimetría se aplica a la realidad, debe de haber partículas elementales de tipo escalar.

                La teoría de la Supersimetría es aún muy hipotética. No se conoce ninguna prueba observacional de su validez. Sin embargo, hay un argumento importante en su favor: existe un parentesco profundo entre los operadores de Supersimetría y los operadores de espaciotiempo. Se puede mostrar que el producto de dos operaciones de Supersimetría –transformar un fermión en un bosón y después retransformar ese bosón en fermión– equivale a un simple desplazamiento de esta partícula en el espaciotiempo. La existencia de estos operadores nos invita a pensar que la idea de la Supersimetría debe corresponder a la realidad, aunque todavía no sepamos en qué sector de la Física encuentra su verdadera aplicación. Esta situación es análoga a la simetría de medida de Yang-Mills y aplicada por ellos, por error, a la descripción del protón y del neutrón. Cuando, en 1972, los físicos Steven Weinberg y Abdus Salam la aplicaron a los electrones y neutrinos, pudieron mostrar su validez resolviendo el problema de la Interacción Electrodébil.

                La teoría de la Supersimetría fue descubierta, independientemente, por varios grupos de físicos. La estudiaron Y. A. Golfand y E.P. Likhtman, del Instituto de Física Lebedev de Moscú y, posteriormente, D. V. Volkov y V. P. Akulov, del Instituto Fisicotécnico de Jarkov. También describieron una simetría bosón-fermión, Pierre M. Ramond y John Schwarz, del Instituto Técnico de California; y André Neveu, de la Ecole Normale Supérieure. Pero la mayoría de los físicos no prestó gran atención a la Supersimetría hasta 1973, en que Julius Wess y Bruno Zumino inventaron una teoría relativista del campo cuántico simple y renormalizable que era supersimétrica. Los infatigables físicos teóricos han elaborado desde entonces otras teorías del campo supersimétrico.

                El trabajo que Wess y Zumino desarrollaron sobre la teoría del campo supersimétrico era eminentemente académico, ya que en ningún momento se propusieron que fuera un modelo matemático realista de las partículas cuánticas existentes. Pretendían, más bien, proporcionar una especie de laboratorio conceptual en el que los físicos matemáticos pudieran estudiar las consecuencias de la Supersimetría antes de pasar a construir modelos más complejos que fueran más viables experimentalmente. La esencia conceptual matemática en este modelo era un supercampo único cuyos componentes correspondían a campos de espín cero y campos de espín 1/2. La Supersimetría exacta imponía que las partículas cuánticas de espín cero y 1/2 tuviesen igual masa (lo cual también se cumple en modelos supersimétricos más complejos). Pero tales partículas con igual masa y distinto espín no se han observado nunca en la Naturaleza, y ése es el motivo de que el modelo simple no sea experimentalmente relevante. En consecuencia, ha de romperse la Supersimetría para que nos permita una descripción de las partículas observadas en la Naturaleza. Las partículas de distinto espín que relaciona la Supersimetría no han de tener igual masa. Pero, aunque los físicos hicieron modelos matemáticos en los que la Supersimetría se rompe, no han conseguido relacionar entre sí a través de ella ninguna de las partículas de espín distinto actualmente detectadas.

                La gran mayoría de los físicos que han dedicado su tiempo al estudio de las teorías supersimétricas, están convencidos de que aunque los gluones, leptones y quarks ordinarios tengan distinto espín, no se relacionan entre sí por una operación de Supersimetría. Si la Supersimetría rota ha de manifestarse en la Naturaleza, los quarks, leptones y gluones deberían estar pareados con otras partículas cuánticas "supramásicas" totalmente nuevas (los cuantos que se relacionan realmente con ellos por Supersimetría), ninguna detectada hasta el presente, y muy difícil que ello pueda ocurrir en el futuro cercano.

                Si la Naturaleza se rigiera por Supersimetría, el micromundo estaría organizado por una especie de radiografía con dos exposiciones. A un lado de ésta estarían las partículas ordinarias como los leptones, los quarks y los gluones; al otro, cada una de esas partículas tendría la imagen de una supramásica: partículas nuevas llamadas leptinos, quarkinos y gluinos. Los leptones y los quarks tienen fermiones de espín 1/2, pero sus supramásicas serían bosones. La supramásica del fotón que tiene espín 1 sería el fotino, de espín 1/2, y así sucesivamente. Es obvio que la empresa de dar nombre a esas partículas imaginarias no ha desgastado mucho a los físicos teóricos en sesudas discusiones.

                Por otro lado, si existieran realmente esas partículas supramásicas, nadie puede calcular con certeza la masa prevista que pudieran comportar, y se desconoce por ello el umbral energético que ha de superarse para producir esas nuevas partículas extrañas. De existir, lo más probable es que casi todas las supramásicas tengan una masa tan grande que ni siquiera los superaceleradores que se puedan construir algún día puedan crearlas; quizá la única ocasión en que hubo energía suficiente fue en el Universo primitivo.

                Por otra parte, se podría dar el caso de que el fotino y el gravitino, superpartícula compañera del gravitón, podrían tener masas bastante pequeñas. En tal caso, el que no se hayan detectado directamente podría deberse, no a su masa, sino a que su interacción con la materia ordinaria sea muy débil. Quizá esas partículas, de existir, desempeñen un papel en la evolución del Universo. En ese caso, podría llegarse a pensar que los fotinos o los gravitinos liberados de sus interacciones con el resto de la materia en las primeras etapas de la gran explosión podrían ser la materia oscura del Universo actual; también podrían haber desempeñado un importante papel en la formación de las galaxias por acumulación gravitatoria. La estructura del propio Universo se convierte en campo de experimentación de la Supersimetría.

                La Supersimetría que se manifiesta en el modelo prototípico de Wess-Zumino es una Supersimetría "global", es decir, que la operación de simetría es la misma por todo el espacio. Zumino destaca en sus artículos y conferencias que, igual que las simetrías globales internas más antiguas podían generalizarse a simetrías tipo Yang-Mills locales, también la Supersimetría global debía tener una generalización al campo de medida local. Además es evidente, por la propiedades matemáticas de la Supersimetría, que tal generalización incluiría el campo gravitatorio como un campo de medida asociado con la Supersimetría local. La primera teoría matemática de esta versión local de la Supersimetría, denominada "Supergravedad", la descubrieron, en 1976, Sergio Ferrara, de los Laboratorios Frascati (cerca de Roma), y Daniel Z. Freedman y Peter van Nieuwenhuizen, de la Universidad de Nueva York, en Stony Brook. Poco después, Bruno Zumino, del CERN, y Stanley Deser, de Brandeis University, hallaron una derivación alternativa más simple de la teoría de la Supergravedad.

                La Supergravedad resultó ser una ampliación imaginativa de la Teoría de la Gravedad de Einstein, que la convertía en Teoría Supersimétrica. Curiosamente, la Relatividad General se generalizaba. Se podía considerar que la teoría original de Einstein describía el gravitón, el hipotético cuanto de la gravedad, como un bosón con espín 2. En la ampliación supergravitatoria de la teoría de Einstein, el gravitón adquiere un supercompañero, el gravitino, un fermión de espín 3/2, y, mediante transformaciones locales supersimétricas, estas dos partículas se transformaban la una en la otra. En el fondo, la idea consistía en combinar el gravitón, que supuestamente transporta la fuerza gravitatoria, con partículas de espín 3/2, 1, 1/2 y 0. En cierto sentido, todas estas partículas podrían ser consideradas como diferentes características de una misma superpartícula, unificándose así las partículas materiales de espín  1/2 y 3/2 con las partículas portadoras de fuerza de espín 0, 1 y 2. Por su parte, los pares partículas/antipartículas virtuales de espín 1/2 y 3/2 tendrían energía negativa, y de ese modo tenderían a cancelar la energía positiva de los pares virtuales de espín 2, 1 y 0.

                Al hacer cálculos cuánticos utilizando la Teoría de la Supergravedad, los teóricos descubrieron, sorprendidos, que los infinitos que plagaban la teoría de la gravedad anterior, que sólo consideraba el gravitón, en su mayoría se anulaban con infinitos iguales y contrarios. Claro está que nunca se ha llegado a saber si quedaban o no algunos infinitos sin cancelar, ya que se trataba de realizar cálculos largos y difíciles que, en los años finales de la década de 1970 y principios de la de 1980, nadie estaba preparado para acometerlos. Se estimó que, incluso con un poderoso ordenador, se demorarían por lo menos unos cuatro años y, además, había muchas posibilidades de márgenes de error.

                De todas maneras, es necesario aclarar que las anulaciones a que nos hemos referido, en ningún caso se debieron a circunstancias fortuitas, sino que correspondían a una consecuencia más profunda de la presencia de la Supersimetría. Aunque no se ha llegado a saber si la Teoría de la Supergravedad es completamente renormalizable, esa "reducción de los infinitos" aportó más de un ladrillo en la consecución de una teoría viable de la Gravedad Cuántica. Hasta el año 1984, y pese a que las partículas de las teorías de supergravedad no se correspondían con las partículas observadas, la mayoría de los físicos creía que la Supergravedad constituía probablemente la respuesta correcta al problema de la unificación de las cuatro fuerzas de la Naturaleza. Pero en ese año indicado, las opiniones sufrieron un notable cambio a favor de lo que se conoce como Teoría de Cuerdas.

                Pero en los departamentos de la mayoría de los físicos académicos-investigadores, deben encontrarse archivados una serie de modelos de Supergravedad que se desarrollaron mientras la idea estuvo de moda. En la teoría más simple de la Supergravedad sólo se incluía el gravitón y el gravitino, y esto difícilmente se corresponde con el mundo real de muchas partículas. Pero se desarrollaron otras teorías matemáticas de la Supergravedad. En su búsqueda de teorías matemáticas de las partículas cuánticas, los físicos andan siempre a la caza de poderosos principios generales que permitan limitar su investigación. Ese concepto de trabajo llegó a demostrar que el principio de la Supersimetría local es muy limitativo y que sólo daba cabida para la existencia de ocho teorías de la Supergravedad posibles. (Lo que equivalía más o menos a demostrar que sólo existen cinco sólidos regulares en tres dimensiones.) Estas ocho teorías de la Supergravedad se clasificaron mediante un entero N = 1, 2... 8, donde supergravedad N = 1 es la más simple, sólo con los campos de gravitación de espín 2 y el gravitino de espín 3/2. Las teorías supergravitatorias de N más alta exigen también campos con espín cero, 1/2 y 1. La supergravedad N = 8, la más compleja, tiene un total de 163 campos, todos ellos interrelacionados por Supersimetría.

               La teoría de la Supergravedad tiene una gran complejidad matemática, pero también un gran potencial conceptual subyacente, características que comparte con su progenitora, la Teoría de la Relatividad General. Quizá se pueda explicar todo el Universo postulando la existencia de una Supersimetría General única. Es prematuro renunciar a ese sueño. Quizá haya una teoría supersimétrica que sea el "santo Grial" que buscan los físicos. Por qué no…                                                                                                          

11.- LA TEORIA KALUZA-KLEIN

                 Hasta hoy, no se ha logrado, ni mucho menos, inventar una teoría de campo consistente totalmente unificadora que incluya la gravedad. Se han dado grandes pasos, pero las brechas "científicounificantes" siguen siendo amplias. El punto de partida ha sido siempre la Teoría de la Relatividad General y conceptos con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la Física gravitatoria macrocósmica. El problema que se presenta surge de la necesidad de modificar esta teoría sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo los problemas de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la Naturaleza.

                Desde las primeras décadas del siglo XX, se han hecho intentos que buscan la solución a este problema, y que han despertado gran interés. Entre ellos, podemos destacar, entre otros, los siguientes: la Teoría de Kaluza-Klein; la Teoría de la Supergravedad, y las Teorías de las Cuerdas y Supercuerdas, por seguir un orden cronológico. Pero, por ahora, y centrándonos en el tema principal de este ensayo, nos vamos a referir sucintamente a la primera, ya que ésta comporta una gran relación con la tercera, que es a la que dedicaremos una mayor extensión. Sin embargo, corresponde señalar que las tres ideas que hemos mencionado, más otras que también son importantes, sólo el tiempo podrá decirnos si van a llevar a los físicos a callejones sin salida o si nos conducen hacia una Teoría General del Universo.

                La experiencia confirma que el hecho de que las dimensiones espaciotemporales del mundo en que vivimos sean tres más una, está escrito sin más en las leyes de la Física, tal como lo conocemos y pretendemos saber hoy. No todos los físicos aceptan esto, y propugnan que la dimensionalidad de nuestro mundo debería deducirse lógicamente de una teoría general del Universo y no constituir un postulado inicial. Claro que, todavía, estos científicos aún no pueden calcular el número de dimensiones espaciotemporales observadas a partir de primeros principios. No obstante, sin embargo, han elaborando y continúan haciéndolo estructuras conceptuales en la que tal cálculo podría tener sentido algún día. De esas estructuras conceptuales, las más conocidas y elaboradas son la Teoría de Kaluza-Klein y la Teoría de las Supercuerdas. Ambas surgen de otra generalización de la Relatividad General tetradimensional einsteniana, esta vez para espacios de más dimensiones. Para exponer una síntesis de la curiosa Teoría Kaluza-Klein, usaremos una descripción de algunos aspectos del electromagnetismo.

                La fuerza eléctrica está presente en una multiplicidad de fenómenos que a diario percibimos. Desde las chispas que se pueden observar cuando nos quitamos una prenda a los rayos que vemos en el cielo cuando somos espectadores de una tormenta atmosférica, o a los electrodomésticos, o a otros muchos aparatos. Su origen es la carga eléctrica, esa propiedad extraña que poseen, por ejemplo, el electrón y el protón. Es curioso que algunas partículas están cargadas eléctricamente y otras no. Cosas de la Naturaleza. El electrón y el protón tienen carga eléctrica; el neutrón y el neutrino no la tienen. ¿Por qué? No tenemos la menor idea. Hasta ahora lo consideramos como un antecedente que debemos de aceptar sin más.

                Lo cierto es que los electrones se repelen y en cambio electrones y protones se atraen. De ello sale la frase cotidiana, cuando decimos "cargas de igual signo se repelen, cargas de distinto signo se atraen". Aquí, observamos la posibilidad de una atracción y de una repulsión; mientras que, en la gravedad, sólo distinguimos una acción de atracción. Figuradamente podemos referirnos a ello como que mientras las masas todas se "aman", hay cargas que se "aman" y otras que se "odian". Ahora bien, es gracias a esto, que puede ser considerado bastante ambiguo, el mundo es como es. La atracción torna posible los átomos, ya que los protones en el núcleo atraen a los electrones y así los atrapan y forman las 92 especies naturales de átomos que existen; por su parte, la repulsión es esencial para que los diferentes objetos comporten la consistencia necesaria que su funcionalidad reclama.

                Matemáticamente, la fuerza eléctrica fue descubierta en el año 1785 por el ingeniero en estructuras Charles Coulomb. Ahora bien, con respecto a grandes distancias, la fuerza eléctrica actúa igual a como lo hace la gravedad: al duplicar la distancia, su magnitud disminuye a la cuarta parte (ley inversa al cuadrado de la distancia). Sin embargo, pese a que tienen esta similitud, se presenta una diferencia sustancial entre ellas. Mientras la gravedad depende de la masa del objeto (se duplica cuando la masa también lo hace), la fuerza eléctrica sólo depende de su carga (también se duplica con la carga, pero no se afecta si se duplica la masa). Todo esto tiene una consecuencia distinguible. Mientras dos cuerpos de distinta masa caen igual hacia un tercero que los atrae por gravedad, dos objetos de diferente carga caen en forma diferente si son atraídos eléctricamente hacia un tercero. La fuerza eléctrica no es reducible a una propiedad geométrica del espaciotiempo, como lo es la gravedad.

                Lo descrito arriba nos introduce en un frente de reflexión, investigación y observación no muy cómodo como para estar inserto en él. La ley de fuerza eléctrica de Coulomb no indica que si hay una carga eléctrica aquí y otra en la Luna, se influyen mutuamente a través del vacío del espacio intermedio, tal como las masas lo hacen según la teoría de Newton de la gravedad. Ahora bien, ¿cómo introducimos a la Relatividad General? Buena pregunta. Para ello, podría considerarse la posibilidad de un espaciotiempo de cinco dimensiones en vez de cuatro. Matemáticamente, la cuestión es posible, pero... La posibilidad de que existan dimensiones extras "diminutas" aparte de las cuatro grandes del espaciotiempo (dimensiones tan diminutas y pequeñas que no contradicen la experiencia) la descubrió matemáticamente, en el marco de la Relatividad General de Einstein, el alemán Theodoro Kaluza en 1919 (la publicación del artículo es de 1922). Kaluza, matemático y filólogo, estudió las ecuaciones de Einstein generalizándolas para un espaciotiempo de cinco dimensiones, en que la quinta dimensión "extra" era compacta: configurada por un circulito. Kaluza supuso que en cada punto del espaciotiempo tetradimensional ordinario había un pequeño círculo, lo mismo que lo hay en cada punto a lo largo de la línea de un cilindro bidimensional.

                Igual que en el espacio ordinario podemos movernos de un punto a otro, podemos imaginar una partícula que se mueve al rededor del pequeño círculo en la quinta dimensión. Por su puesto, no se mueve muy lejos (y en modo alguno en las dimensiones "grandes"), porque el círculo es muy pequeño y lo único que hace es dar vueltas y vueltas. Pero aun así, ¿qué significa la posibilidad de este movimiento extra? Kaluza demostró que esta libertad de movimiento adicional asociada a una simetría de círculo en cada punto del espaciotiempo, podía considerarse la simetría de medida simple del campo electromagnético. Esta interpretación no ha de resultar muy sorprendente desde un punto de vista moderno, si consideramos que una simetría (como la simetría del circulito) entraña automáticamente la existencia de un campo de medida (como el campo electromagnético). La teoría de las cinco dimensiones de Kaluza no sólo describía, pues, la curvatura del espaciotiempo tetradimensional grande en función de las ecuaciones gravitatorias einstianas habituales, sino que además unificaba físicamente la gravedad en el campo de medida electromagnético de Maxwell, utilizando la extraña idea de una quinta dimensión circular.

                Tenemos pues que con la quinta dimensión, Kaluza nos sugiere la posibilidad de obtener el Electromagnetismo y la Gravedad a partir de una misma teoría compactada, pero introduciendo varios supuestos restrictivos en la solución de las ecuaciones de Einstein. El problema es saber qué es esa quinta dimensión agregada que, físicamente, nadie ha podido percibir aún. Entonces, en el año 1926, aparece el físico sueco Oskar Klein, quien demuestra que los supuestos restrictivos son absolutamente innecesarios. Calculó, además, el radio del circulito de la quinta dimensión en función de las cantidades conocidas, la escala de distancia de Planck y la carga electrónica, cuyo resultado obtenido fue de un radio de unos 10-30 cm., pero ello asegura que la quinta dimensión era absolutamente invisible. Mas, pese a su diminuto tamaño, la libertad que tienen los campos para moverse alrededor de ese pequeño círculo está presente siempre en cada punto del espacio ordinario, y esa libertad basta para garantizar la existencia del campo electromagnético. En la propuesta de Klein se afirma que la quinta dimensión existe, aunque está como arrugada y no somos sensibles a ella.

                Imaginemos cómo distinguimos a una autopista cuando volamos relativamente alto en un avión. Se ve como una línea sobre la superficie de la Tierra. Sin embargo, mirada de cerca tiene un ancho, y por ese ancho se moviliza toda clase de vehículos. Desde el avión, esos acontecimientos movilizados no los podemos ver debido a la distancia que nos separa del suelo de la Tierra. Según Klein, la quinta dimensión está como enrollada o arrugada y somos por ello incapaces de percibirla; extiende el ámbito del espaciotiempo en igual forma que en nuestra analogía la autopista enriquece la línea que percibimos de lejos.

                Para Kaluza y Klein, el Universo podría haber surgido como un espacio compacto multidimensional. Un subespacio tetradimensional de este espacio multidimensional penetra luego en la configuración de la bola de fuego, representando el resto las simetrías internas observadas. Según este punto de vista, el Universo surge como un espacio multidimensional con un alto grado de simetría. Pero un Universo con esta geometría puede ser inestable y experimentar una desintegración por el mecanismo de penetración. En consecuencia, las cuatro dimensiones se convierten en dimensiones "grandes" y su tamaño se expande muy deprisa, mientras que el resto (las dimensiones pequeñas) sigue siendo pequeño y se halla hoy presente en las simetrías "internas"de las partículas cuánticas.

                En sus artículos, Kaluza y Klein no aportan explicación al hecho de que se hicieran grandes cuatro dimensiones en vez de siete u once. La explicación se la asignan a una responsabilidad del desarrollo futuro de la Física. Pero si el modelo fuera el correcto, el origen del Universo es el acontecimiento que instaura el número de dimensiones espaciotemporales observadas. No hemos de olvidar que este número es una pista del origen del Universo que sobrevive al período inflacionario subsiguiente: la dimensionalidad del espacio no se diluye.

                Después de la década de los años treinta, la idea Kaluza-Klein fue arrinconada y olvidada. Pero en el caminar de los físicos tras la consecución de poder encontrar una vía que les pudiera permitir encontrar la unificación de la gravedad con las demás fuerzas, ha vuelto a adquirir prominencia. Hoy, a diferencia de lo que sucedía en los años veinte, los físicos no sólo quieren ya unificar la gravedad con el electromagnetismo: quieren unificarla también con la interacciones débil y fuerte. Esto exige más dimensiones aún, y no sólo la quinta.                                                                                                                    

           12.- UNA QUINTA DIMENSION Y MAS ALLA

                 Una de las características más evidentes de nuestro mundo físico y que prácticamente a nadie le llama la atención es la tridimensionalidad del espacio. En la Teoría de la Relatividad Especial de Einstein, el espacio y el tiempo pasan a estar tan íntimamente entrelazados que Hermann Minkowski consiguió demostrar que, en ella, el tiempo podía considerarse una cuarta dimensión (aunque no sea una dimensión espacial). Nadie tiene la menor idea de por qué el mundo en que vivimos tiene una dimensión temporal y tres espaciales y no, por ejemplo, once dimensiones. Por supuesto, el mundo sería muy distinto si alterásemos su dimensionalidad. Quizá las dimensiones superiores sean fatales para la vida y debamos agradecer nuestra modesta asignación de cuatro.

                Habitamos en un mundo espaciotemporal de tres dimensiones más una y lo aceptamos así, sin más, simplemente porque está escrito en las leyes de la Física. Pero, claro está, que no todos los físicos están de acuerdo con esa disposición imperativa. Día a día, ha venido ganando terreno la idea de que la dimensionalidad de nuestro mundo debería deducirse como consecuencia de una teoría integral y general del Universo y no constituir un ritualizado postulado inicial. A lo mejor, algún día, se desarrollan y comprueban nuevas dimensiones espaciotemporales observadas a partir de primeros principios. Desde hace ya algún tiempo, se están elaborando estructuras conceptuales en que los cálculos de más dimensiones podrían tener sentido algún día. Dentro de las primeras de estas estructuras conceptuales, se encuentra la llamada teoría de Kaluza-Klein, que surgió de otra generalización de la relatividad general tetradimensional einsteiniana, esta vez para espacios de más dimensiones. Antes de exponer de manera más sesuda y matemática la teoría de Kaluza-Klein, haremos una breve digresión para describir lo que significan dimensiones "grandes" y "pequeñas".                 

                Las tres dimensiones espaciales observadas son dimensiones grandes: podemos caminar por ellas. Si existieran dimensiones adicionales, no deberían ser como las tres grandes; si lo fuesen, también podríamos caminar por ellas, lo cual choca claramente con la experiencia. Las dimensiones extra que contemplan los físicos son dimensiones pequeñas, tanto que no pueden verse, y por ello no influyen directamente en nuestra perspectiva tridimensional del mundo. ¿Qué son dimensiones pequeñas? Para entender lo que son dimensiones pequeñas, imaginemos un mundo con una sola dimensión grande. El espacio de este mundo unidimensional estaría representado por una línea infinitamente larga. Imaginemos luego que esa línea se apoya en la superficie de un cilindro, de forma que el espacio completo está ya representado por la superficie bidimensional del cilindro. La segunda dimensión "extra" corresponde a andar alrededor del cilindro. Si lo hacemos, volvemos al punto de partida: la dimensión extra es un círculo, no una línea.

                Los espacios que se rizan sobre sí mismos, como el espacio unidimensional de una línea circular o la superficie bidimensional de una esfera, reciben en matemáticas el nombre de "espacios compactos". Un cilindro puede considerarse un espacio bidimensional, una de cuyas dimensiones es compacta (el círculo) y la otra no compacta (la línea). Podemos imaginar un radio de círculo tan pequeño que se reduce a cero; volvemos así a un espacio unidimensional: la línea infinitamente larga. No hay duda de que si hacemos el círculo muy pequeño podremos aproximarnos al espacio unidimensional de la línea tanto como queramos. El círculo es la dimensión extra pequeña y la línea es la dimensión observada grande.

                La posibilidad de que existan dimensiones extra pequeñas, aparte de las cuatro grandes del espaciotiempo (dimensiones tan pequeñas que no contradicen la experiencia), la descubrió, en el marco de la relatividad general de Einstein, Theodor Kaluza. Este matemático, filósofo y filólogo, estudió las ecuaciones de Einstein generalizándolas para un espaciotiempo de cinco dimensiones en que la quinta dimensión extra era compacta: sólo un pequeño círculo. Kaluza supuso que en cada punto del espaciotiempo tetradimensional ordinario había un circulito, lo mismo que lo hay en cada punto a lo largo de la línea en el cilindro que considerábamos. Igual que en el espacio ordinario podemos movernos de un punto a otro, podemos imaginar una partícula que se mueve alrededor del pequeño círculo en la quinta dimensión.

                Por supuesto, no se mueve muy lejos (y en modo alguno en las dimensiones grandes), porque el círculo es muy pequeño y lo único que hace es dar vueltas y vueltas. Pero aun así, ¿qué significa la posibilidad de este movimiento extra? Kaluza demostró que esta libertad de movimiento adicional asociada a una simetría de círculo en cada punto del espaciotiempo, podía considerarse la simetría de medida simple del campo electromagnético. Esta interpretación no ha de resultar muy sorprendente desde un punto de vista moderno si consideramos que una simetría, (como la simetría del circulito), entraña automáticamente la existencia de un campo de medida (como el campo electromagnético). La teoría de las cinco dimensiones de Kaluza no sólo describía, pues, la curvatura del espaciotiempo tetradimensional grande en función de las ecuaciones gravitatorias einsteinianas habituales, sino que además unificaba físicamente la gravedad en el campo de medida electromagnético de Maxwell, utilizando la extraña idea de una quinta dimensión circular. Kaluza logró unificar la gravedad y el electromagnetismo por medio de su quinta dimensión compacta, pero introduciendo varios supuestos restrictivos en la solución de las ecuaciones de Einstein.

                En 1926, Oskar Klein dio un impulso significativo a esta teoría, demostrando que estos supuestos restrictivos eran completamente innecesarios. Calculó, además, el radio del circulito de la quinta dimensión en función de las cantidades conocidas, la escala de distancia de Planck y la carga electrónica, obteniendo un radio de unos 10-30 cm,. un radio en extremo pequeño que aseguraba que la quinta dimensión era absolutamente invisible. Mas, pese a su pequeño tamaño, la libertad que tienen los campos para moverse alrededor de ese pequeño círculo está presente siempre en cada punto del espacio ordinario, y esa libertad basta para garantizar la existencia del campo electromagnético. En consecuencia, Klein asume una total independencia de la dimensión extra, generando un espaciotemporal pentadimensional. Claro está, que en nuestra percepción diaria jamás vemos esa dimensión extra.

                A raíz de la periodicidad de la dimensión extra, podríamos desarrollar una expansión Fourier con esas mismas coordenadas, pero ello nos llevaría a una multiplicidad de campos de cuatro dimensiones. En consecuencia, y para poder entender mejor lo que queremos describir, procederemos primero a analizar las reducciones que introdujo Kaluza. En nuestra metodología, expresaremos un campo pentadimensional con û y tetradimensional con simple u. O sea, cinco dimensiones: û = 0, 1, 2, 3, 5 y cuatro dimensiones: u= 0, 1, 2, 3 (xû = (xu, y). Después de los años treinta del siglo XX, la idea Kaluza-Klein perdió prestigio, y se abandonó durante un tiempo. El concepto de campos escalares, en esa época, gozaba de un rechazo absoluto. Pero cuando los físicos buscaron cualquier vía posible para unificar la gravedad con las demás fuerzas, volvió a adquirir prominencia, especialmente cuando se empezaron a desarrollar teorías con más dimensiones. Hoy, a diferencia de lo que sucedía en los años veinte, los físicos no sólo quieren ya unificar la gravedad con el electromagnetismo: quieren unificarla también con las interacciones débil y fuerte. Esto exige más dimensiones adicionales.

                Los físicos teóricos han generalizado la teoría de las cinco dimensiones a un número arbitrario de dimensiones superiores. Todas las dimensiones superiores son compactas; se rizan en un pequeño espacio multidimensional que existe en cada punto del espacio ordinario y que es, por tanto, inobservable. Pero la libertad de moverse por esos pequeños espacios compactos con simetrías más generales que la simple de un círculo, se corresponde exactamente con la libertad de realizar transformaciones de medida de Yang-Mills. Curiosamente, las simetrías de medida locales son en realidad las del espacio compacto de dimensiones superiores. Debido a tal hecho matemático, todas las teorías de medida de campos de Yang-Mills pueden interpretarse de forma puramente geométrica en función de esos espacios compactos de dimensiones superiores.

                El gran inconveniente que presenta el modelo de Kaluza-Klein es su carencia de flexibilidad, ya que se trata de una teoría muy restrictiva, tanto que nadie ha conseguido dar con una versión realista que incluya el Modelo Estándar. Si bien agradecen esos principios restrictivos que delimitan alternativas en la búsqueda de la teoría correcta, los físicos se desilusionan al percibir que, hasta el momento, tales limitaciones extremas sólo han conducido a teorías que no logran describir el mundo cuántico observado. Pero se ha seguido investigando.

                En 1978, Eugene Cremmer y Bernard Julia, dos físicos matemáticos franceses, realizaron un descubrimiento interesante al combinar la idea de Kaluza-Klein con la Teoría de la Supergravedad. Recordemos que hay ocho teorías de la Supergravedad, de las que la supergravedad N = 1 es la más simple, con sólo los campos del gravitón y el gravitino, y la N = 8 la más compleja, con 163 campos diferentes. Cremmer y Julia percibieron que si la supergravedad N = 1 se aborda en un espacio de once dimensiones (en vez de cuatro) y se supone que 7 de esas once dimensiones son compactas a la Kaluza-Klein, y las cuatro restantes son las grandes dimensiones espaciotemporales, la teoría resultante en esas cuatro dimensiones es la supergravedad N = 8. Una teoría de supergravedad N = 1 simple, de once dimensiones, se convierte así en la complicada teoría de la supergravedad N = 8 de cuatro. Este resultado animó a los que esperaban que las teorías de campo complejas, necesarias para describir el mundo real tetradimensional, surgiesen de teorías mucho más simples al considerarlas en dimensiones superiores. Algunos físicos tienen la esperanza de que baste hallar la aplicación adecuada de la idea de Kaluza-Klein para que surja la Teoría General del Universo.

                Pese al atractivo estético de los principios básicos, para que la idea de la unificación multidimensional funcione es preciso superar importantes obstáculos matemáticos. Por una parte, nadie sabe por qué razón profunda unas dimensiones son compactas y pequeñas y otras (las cuatro que vemos) son grandes. La teoría de Kaluza-Klein se limita a suponer que cuatro dimensiones son grandes y que las otras son compactas: un supuesto del que los físicos esperan poder prescindir algún día. Es muy probable que la idea de la simetría rota (en este caso la simetría rota de un espacio multidimensional) desempeñe un papel importante en la tarea de librarles de ese supuesto. Quizá el mundo real, con sus cuatro dimensiones grandes, corresponda a la solución rota, pero estable, de las ecuaciones que expresan las simetrías de una geometría multidimensional. Estas ideas, aunque interesantes, aún no han resuelto el problema básico de la dimensionalidad del espaciotiempo observada.

                Otro de los obstáculos que presenta el modelo pentadimensional es el valor del radio de la quinta dimensión. Klein calculó en sus trabajos el radio de la quinta dimensión en función de la longitud de Planck y de la carga electrónica, medida de la fuerza de interacción electromagnética. Si conociéramos el valor del radio de la quinta dimensión, podríamos determinar la carga electrónica invirtiendo el cálculo. Los físicos han calculado recientemente los radios de las otras dimensiones y han utilizado esos cálculos para determinar las cargas correspondientes a la fuerza de las otras fuerzas. Pero estas cargas calculadas son, con mucho, demasiado grandes para poder relacionarlas con la fuerza observada de dichas fuerzas. Todo esto tiene como consecuencia que muchos físicos consideren que esas teorías multidimensionales no son muy realistas.

                Pero esos problemas estimulan hoy la imaginación de los físicos teóricos. La idea de que las diversas simetrías de medida que desempeñan un papel tan decisivo en la comprensión de las fuerzas naturales sean simplemente una manifestación de la simetría de un espacio de dimensiones superiores, posee tal atractivo que se sigue trabajando en esta maravillosa idea hasta demostrar su incompatibilidad con la experiencia o hasta que surja una idea mucho mejor. No se desechará fácilmente la esperanza de lograr la unificación geométrica de la gravedad con el resto de las fuerzas de la Naturaleza mediante una gran ampliación de la Teoría de la Relatividad General de Einstein. Quizá algún día, unos físicos tenaces lleguen incluso a aclarar el problema de por qué nuestro mundo tiene tres dimensiones espaciales y una temporal. En el ámbito de estas ideas, ni siquiera esperar hallar la solución a ese problema trascendental parece mucho esperar.                                                                                                           

      13.- TEORIAS DE CUERDAS

                 Las teorías de cuerdas (TC's) no son una invención nueva, ni mucho menos. La primera TC se inventó a finales de los años sesenta del siglo XX, en un intento para encontrar una teoría para describir la interacción fuerte. La idea medular consistía en que partículas como el protón y el neutrón podían ser consideradas como ondas de notas de una cuerda de violín. La interacción fuerte entre las partículas correspondería a fragmentos de cuerda que se extenderían entre pequeños pedacitos de cuerda, como las telas que forman algunos insectos. Para que esta teoría proporcionase el valor observado para la interacción fuerte entre partículas, las cuerdas tendrían que ser semejantes a las de un violín, pero con una tensión de alrededor de unas diez toneladas.

                La primera expresión de las TC's fue desarrollada por Jöel Scherk, de París, y John Schwarz, del Instituto de Tecnología de California, quienes en el año 1974 publicaron un artículo en el que demostraban que la TC podía describir la fuerza gravitatoria, pero sólo si la tensión en la cuerda fuese alrededor de un trillón de toneladas métricas. Las predicciones de la teoría de cuerdas serían las mismas que las de la Relatividad General a escala de longitudes normales, pero diferirían a distancias muy pequeñas, menores que una trillonésima de cm. Claro está, que en esos años, no recibieron mucha atención por su trabajo.

                Los motivos que tuvo la comunidad científica, entonces, para no brindarle la suficiente atención al trabajo de Scherk y Schwarz, es que, en esos años, se consideraba más viable para describir la interacción fuerte a la teoría basada en los quarks y los gluones, que parecía ajustarse mucho mejor a las observaciones. Desafortunadamente, Scherk murió en circunstancias trágicas (padecía diabetes y sufrió un coma mientras se encontraba solo en su estudio). Así, Schwarz se quedó solo en la defensa de la teoría de cuerdas, pero ahora con un valor tensiométrico de las cuerdas mucho más elevado.

                Pero con los quarks, gluones y también los leptones, en la consecución que se buscaba, los físicos entraron en un cuello de botella. Los quarks resultaron muy numerosos y los leptones mantuvieron su número e independencia existencial, con lo cual seguimos con un número sustancialmente alto de partículas elementales (60), lo que hace que la pregunta ¿son estos los objetos más básicos? siga rondando. Si esos sesenta objetos fuesen los más básicos, entonces también aflora otra pregunta ¿por qué son como son y por qué son tantos?

                El cuello de botella incentivó a que se encendiera una luz de esperanza. En 1984, el interés por las cuerdas resucitó de repente. Se desempolvaron las ideas de Kaluza y Klein, como las que estaban inconclusas de Scherk y Schwarz. Hasta entonces, no se habían hecho progresos sustanciales para explicar los tipos de partículas elementales que observamos, ni tampoco se había logrado establecer que la Supergravedad era finita. El ser humano –en función de su naturaleza– cuando se imagina algo muy pequeño, piensa en un puntito de forma esférica. Los físicos también son seres de este planeta y, para ellos, las partículas elementales son como puntitos en el espacio, puntos matemáticos, sin extensión. Son sesenta misteriosos puntos y la teoría que los describe es una teoría de puntos matemáticos. La idea que sugieren las TC's es remplazar esos puntos por objetos extensos, pero no como esferitas, sino más bien como cuerdas. Mientras los puntos no tienen forma ni estructura, las cuerdas tienen longitud y forma, extremos libres como una coma "," (cuerda abierta), o cerradas sobre sí misma como un circulito. Si el punto es como una esferita inerte, la cuerda es el elástico estirado y con él se pueden hacer círculos y toda clase de figuras. Está lleno de posibilidades.

                La longitud de la cuerda es pequeñísima. Tan pequeña, que, en proporción, su relación de tamaño con el núcleo atómico es equivalente a la de un átomo con el Sistema Solar completo. Así llegamos a tratar de describir un tamaño para el que se necesitaría un nuevo vocablo. Se ha llegado a tamaños verdaderamente pequeños. Si hacemos una comparación: el núcleo es al átomo como una pulga es a un estadio; ahora una cuerda es al núcleo como un átomo es al Sistema Solar. En centímetros, una milésima de millonésima de millonésima de millonésima de millonésima de millonésima de centímetro. Uno se pregunta si a estos niveles importa la diferencia entre un punto y una coma. Según la Teoría de Cuerdas importa, y mucho. Por su extensión, a diferencia del punto, la cuerda puede vibrar. Y hacerlo de muchas maneras, cada modo de vibración representando una partícula diferente. Así, una misma cuerda puede dar origen al electrón, al fotón, al gravitón, al neutrino y a todas las demás partículas, según cómo vibre. Por ello, la hemos comparado con la cuerda de un violín, o de una guitarra, si se quiere.

                Al dividir la cuerda en dos, tres, cuatro, cinco, o más partes iguales, se generan las notas de la escala musical que conocemos, o técnicamente, los armónicos de la cuerda. En general, el sonido de una cuerda de guitarra o de piano es una mezcla de armónicos. Si distinguimos el tono de estos instrumentos, es por la "receta" de la mezcla en cada caso, por las diferentes proporciones con que cada armónico entra en el sonido producido. Pero también es posible hacer que una buena cuerda vibre en uno de esos armónicos en particular, para lo cual hay que tocarla con mucho cuidado. Los concertistas lo saben, y en algunas obras como los conciertos para violín y orquesta, usan este recurso de "armónicos". Así, la Naturaleza, con su gran sabiduría y cuidado para hacer las cosas, produciría electrones, fotones, gravitones, haciendo vibrar su materia más elemental, esa única y versátil cuerda, en las diversas (infinitas) formas que la cuerda permite.

                Una partícula ocupa un punto del espacio en todo momento. Así, su historia puede representarse mediante una línea en el espaciotiempo que se le conoce como "línea del mundo". Por su parte, una cuerda ocupa una línea en el espacio, en cada instante de tiempo. Por tanto, su historia en el espaciotiempo es una superficie bidimensional llamada la "hoja del mundo". Cualquier punto en una hoja del mundo puede ser descrito mediante dos números: uno, especificando el tiempo, y el otro la posición del punto sobre la cuerda. Por otra parte, la hoja del mundo es una cuerda abierta como una cinta; sus bordes representan los caminos a través del espaciotiempo de los extremos o comas de la cuerda.

                La hoja del mundo de una cuerda cerrada es un cilindro o tubo; una rebanada transversal del tubo es un círculo, que representa la posición de la cuerda en un momento del tiempo. No cabe duda que, de ser ciertas las TC's, el cuello de botella queda bastante simplificado. Pasar de sesenta objetos elementales a una sola coma o circulito es un progreso notable. Entonces, ¿por qué seguir hablando de electrones, fotones, quarks, y demás? Buena pregunta.

                En las Teorías de Cuerdas, lo que anteriormente se consideraba partículas, se describe ahora como ondas viajando por las cuerdas, como las notas musicales que emiten las cuerdas vibrantes de un violín. La emisión o absorción de una partícula por otra corresponde a la división o reunión de cuerdas. Veamos un ejemplo: la fuerza gravitatoria del Sol sobre la Tierra se describe en la teoría de partículas como causada por la emisión de un gravitón por una partícula en el Sol y su absorción por una partícula en la Tierra. Por su parte, en la Teoría de Cuerdas, ese proceso corresponde a un cilindro o tubo con forma de H , en que los lados verticales de la H corresponden a las partículas en el Sol y en la Tierra, y el travesaño corresponde al gravitón que viaja entre ellas.

                Que aparentemente las cosas se simplifican con las TC's, no hay duda, pero, desafortunadamente, en Física las cosas no siempre son como parecen. Para que una teoría sea adoptada como la mejor, debe pasar varias pruebas. No basta con que simplifique los esquemas y sea "bella". La Teoría de las Cuerdas está en pañales y ha venido mostrado distintas facetas permeables. Surgen problemas, y se la deja de lado; se solucionan los problemas y una avalancha de trabajos resucitan la esperanza. En sus menos de treinta años de vida, este vaivén ha ocurrido más de una vez. Uno de los problemas que más afecta a la cuerda está ligado con su diminuto tamaño. Mientras más pequeño es algo, más difícil de ver. Es una situación que se agudiza en la medida que se han ido corrigiendo sus permeabilidades. En sus versiones más recientes, que se llaman Supercuerdas, son tan pequeñas que las esperanzas de ubicarlas a través de un experimento son muy remotas. Sin experimentos no podemos comprobar sus predicciones ni saber si son correctas o no.

                La propia base conceptual de la teoría comporta problemas. Uno de ellos, es el gran número de dimensiones que se usan para formularla. En algunos casos se habla de 26 o, en el mejor, de 10 dimensiones para una cuerda: espacio (son 3), tiempo (1) y otras seis (o 22) más, que parecen estar enroscadas e invisibles para nosotros. Por qué aparecieron estas dimensiones adicionales a las cuatro que nos son familiares y por qué se atrofiaron en algún momento, no lo sabemos. También, la teoría tiene decenas de miles de alternativas aparentemente posibles que no sabemos si son reales, si corresponden a miles de posibles Universos distintos, o si sólo hay una realmente posible.

                Algunas de estas versiones predicen la existencia de 496 "fuerzones", partículas como el fotón, que transmiten la fuerza entre 16 diferentes tipos de carga como la carga eléctrica. Afirmaciones como éstas, no comprobables por la imposibilidad de hacer experimentos, plagan la Teoría de Cuerdas. Quienes alguna vez intentaron trabajar matemáticamente en las cuerdas, muchas veces deben haber pensado de que lo que estaban calculando más se asemejaba a juegos de ejercicios que la consecución de una base matemática teórica con el objetivo de dar un paso trascendental en el conocimiento de la Naturaleza. Ahora, los que tienen puesta su fe en ella, suelen afirmar que se trata de una teoría que se desfasó de la natural evolución de la Física, que su hallazgo fue un accidente, y no existe aún el desarrollo matemático para formularla adecuadamente.

                                                                                      

                                          14.- LAS SUPERCUERDAS

                 Einstein, como otros físicos teóricos, pasaron y pasan gran parte de su vida, intentando alcanzar un prodigio científico que tal vez era y/o es imposible: unir la Teoría de la Relatividad con la la Mecánica Cuántica que describe el Universo a escala atómica. No logró Einstein su sueño de enlazar las leyes físicas del macrocosmos con las del microcosmos, ni tampoco, hasta ahora, lo han logrado otros muchos estudiosos, lo que se ha venido a convertir en una aspiración generalizada del estudio sobre el funcionamiento del Universo. La generalidad de los físicos teóricos buscan estructurar una gran unificación entre la Teoría de la Relatividad General y la Mecánica Cuántica. La primera, comporta toda la capacidad necesaria para explicar los efectos de la fuerza gravitatoria sobre un espaciotiempo curvo. Sin embargo, no se ha podido distinguir consecuencias precisas de las posibles fuerzas que actúen sobre una partícula, ya que ésta sigue, normalmente, una trayectoria inercial o toma el camino más corto posible, describiendo como una geodésica sobre el espaciotiempo curvo. Por ello, explicar todas las fuerzas conocidas bajo el alero de una misma idea, un concepto, una sola teoría, representa la más cara aspiración que embarga a los científicos centrados en entender el total comportamiento de la Naturaleza. Muchos de ellos piensan que si ello se logra, también se habría dado término al camino que ha seguido, dentro de la humanidad, el desarrollo de la Física.

                Dentro de los esfuerzos que se hacen para alcanzar esa tan anhelada unificación, aparecen nuevos intentos dentro del ámbito de las TC's, explorando sus posibilidades con vaivenes, avances y atolladeros, en medio de fuertes críticas de sus detractores. En los más de treinta años transcurridos desde su aparición, la teoría ha experimentado diferentes grados de apogeo, reconociéndose a dos de ellos como los de mayor relevancia: el que se dio en los años 1984-1985 y, el último, en 1994. A estos altos de actividad se les ha reconocido como períodos de primera y segunda revolución y, también a la teoría se le ha empezado a reconocer como Teoría de las Supercuerdas (TSC's). Pero en los últimos tiempos, se ha llegado a contar con nuevos instrumentos de ideas físico-matemáticas, que podrían otorgar un arrinconamiento definitivo de esta teoría o dar la clave para avanzar un paso decisivo en la unificación teórica de la Relatividad y la Cuántica.

                Las conclusiones a las que periódicamente llegan los adeptos a la TSC, se centran en el entusiasmo de proclamar que ésta otorga la única forma, hasta ahora, de poder contar en un futuro con una teoría cuántica consistente con la gravedad. Como prácticamente todas las teorías de cuerdas, la TSC's comienza con el concepto de dimensiones adicionales de Kaluza-Klein y comporta una enorme complejidad muy difícil de comprender para los que no están directamente involucrados en sus modelos. Con ella se aspira a resolver el más enigmático problema matemático que comporta la Física teórica en los finales del siglo veinte: la incompatibilidad matemática de los pilares fundamentales de la Mecánica Cuántica con la Teoría de la Relatividad General.

                Para comprender los fundamentos que conlleva la aspiración de resolver los aspectos incompatibles que nos presentan la Relatividad General y la Mecánica Cuántica, podemos recurrir a un ejemplo que aclarará qué clase de dificultades plantea la combinación de ambas. El punto de partida de la Relatividad General es el "principio de equivalencia": un campo gravitatorio local es indiferenciable de un movimiento acelerado. Si estuviéramos en el espacio exterior en un cohete en aceleración uniforme, nos veríamos atraídos hacia el suelo como si en el cohete existiese un verdadero campo gravitatorio (como si el cohete se hallase en la superficie de un planeta).

                Einstein reconocía, en este principio de equivalencia, que la presencia de un campo gravitatorio local es sólo un símil de si un observador está acelerando o no; es decir, depende del sistema de coordenadas con que decida medir su movimiento. Por ejemplo, si eligiéramos para el sistema de coordenadas el cohete en aceleración, es factible considerar que habría un campo gravitatorio, pero en un sistema de coordenadas que no esté en aceleración no habrá ninguno. Pero las leyes matemáticas fundamentales de la Física deberían ser iguales para todos los observadores, independiente de que el observador esté acelerando o no con respecto a otro. Si no, las leyes fundamentales dependerían de la elección arbitraria por un observador de un sistema de coordenadas determinante, y ese tipo de arbitrariedad no debería darse en las leyes fundamentales. Este principio de "invarianza coordinada general" se halla incorporado a la Teoría de la Relatividad General. A este respecto, va más lejos de la primera Teoría de la Relatividad Especial de Einstein que sólo exigía que las leyes matemáticas de la Física tuviesen la misma forma para observadores que estuvieran moviéndose de manera uniforme en relación los unos con los otros: un movimiento a una velocidad constante.

                Según la teoría relativista del campo cuántico, un campo de gravedad constante crea un baño radiante de partículas cuánticas, como los fotones, a una temperatura determinada. Sería como estar dentro de un horno (por suerte, esta temperatura es muy baja en la fuerza de gravedad de la Tierra). Pero el principio de equivalencia entraña que un campo gravitatorio es lo mismo que una aceleración. En consecuencia, un observador en aceleración ve un baño de partículas cuánticas creadas por el campo gravitatorio, mientras que el que está inmóvil no lo ve. Se altera, por tanto, la idea misma de creación y destrucción de partículas cuánticas. No está claro lo que quedará del concepto "partícula cuántica" en la Relatividad General, pero en la actualidad este concepto es esencial para la visión que tienen los físicos del micromundo.

                Los dominios usuales de la Relatividad General y de la Mecánica Cuántica son bastante diferentes. La Relatividad General comporta la capacidad de describir la gravedad aplicada para objetos grandes, masivos, como estrellas, galaxias, agujeros negros, estructuras cosmológicas, y el propio Universo. Con respecto a la Mecánica Cuántica, ésta se centra en describir lo minúsculo, las estructuras pequeñas del Universo, tales como electrones quarks, etc. Por lo tanto, cuando requerimos de la Física conocer los diferentes aspectos relacionados con la Naturaleza, recurrimos indistintamente a la Relatividad General o a la Mecánica Cuántica para una comprensión teórica, claro que, independientes. Sin embargo, cuando queremos conocer razones de comportamiento de aspectos naturales que demandan explicaciones más rigurosas y profundas, hasta ahí llegamos, ya que normalmente se requiere la participación de ambas para lograr un tratamiento teórico apropiado; se nos acaba la gasolina intelectual y se estrangula la capacidad computacional preexistente.

                Comprender los escenarios del espaciotiempo, las singularidades de los agujeros negros, o simplemente, el estado del Universo primario antes de la gran explosión, corresponde a una muestra concreta de lo anteriormente descrito. Son estructuras físicas exóticas que requieren, por un lado, involucrar escalas masivas enormes (Relatividad General) y, por otro, escalas de distancias diminutas (Mecánica Cuántica). Desafortunadamente, la Relatividad General y la Mecánica Cuántica son, en alguna medida, incompatibles: cualquier cálculo que se intente realizar usando simultáneamente ambas herramientas genera respuestas absurdas. Esta situación queda en clara evidencia cuando se intenta estimar matemáticamente la interacción de partículas en trazados cortos, como los que se dan en lo que se llama la escala de Planck, 10-33cm. Con la teoría de las Supercuerdas se pretende resolver el profundo problema que acarrea la incompatibilidad descrita de estas dos teorías a través de la modificación de propiedades de la Relatividad General cuando es aplicada en escalas superiores a la de Planck.

                La TSC's levanta su tesis sosteniendo la premisa de que los elementos comitentes fundamentales de la materia no son correctamente descritos cuando sólo determinamos configuraciones de objetos puntuales, ya que si se llevaran a distancias de un radio aproximado a la escala de Planck, entonces parecerían como minúsculos apiñamientos de bucles de pequeñas cuerdas. Los aceleradores de partículas modernos están lejos de poder probar eso. Sin embargo, la hipótesis de la TSC's sostiene que la configuración que adquiriría la materia de pequeñísimos rizos o bucles cuando interactúan en cortísimas escalas de distancia, haría que ésta presentase un comportamiento drásticamente distinto al que hasta ahora hemos logrado observar. Ello sería lo que permitiría a la Gravedad y a la Mecánica Cuántica constituir una unión armónica.

                En la TSC's se propugna que las sesenta partículas elementales, que muchos de nosotros tradicionalmente consideramos, indivisibles y que vienen a ser como puntos en el espacio, se transforman en la TSC's en objetos extensos, pero no como esferitas, sino más bien como cuerdas. Se consideran como restos en forma de rizo o bucle del Cosmos primitivo, tan masivas que un trocito de un centímetro de largo y una trillonésima del grueso de un protón pesarían tanto como una cordillera. Se cree que estos hipotéticos objetos se crearon durante las llamadas transiciones de fases, períodos críticos en los cuales el Universo sufrió un cambio análogo a la forma en que el agua se convierte en hielo o vapor. La primera transición de fase ocurrió una minúscula fracción de segundo después del Big Bang. Cuando el Universo primitivo se enfrió, pasó de un estado de pura energía a uno de energía y materia. La materia se condensó y nació a la existencia y, durante otras transiciones posteriores, procesos similares separaron fuerzas como la nuclear fuerte y la nuclear débil una de otra. A cada estadio, transiciones irregulares pudieron haber creado fallas en el espaciotiempo. Dentro de estos defectos, el espaciotiempo retuvo las fuerzas y la materia de la fase anterior.

                La premisa básica de la Teoría de las Supercuerdas es aquella que considera la descripción de la materia y el espaciotiempo, a escala de Planck, un profundo entretejido. Una descripción sucinta de ello es aquella que contempla un objeto extendido igual que una cuerda (cuerda abierta) u otro que puede cerrarse (cuerda cerrada). Son objetos que se propagan por el espacio de fondo y al hacerlo generan una superficie llamada "hoja de mundo". Los objetos básicos son las cuerdas y la teoría para ellos introduce una constante (de acoplamiento) fundamental, la cual es proporcional al inverso de la tensión de la cuerda. En general, las TC's han vivido muchos altibajos y, se puede decir que, a principios de la década de los setenta, éstas, prácticamente, se encontraban casi en el olvido.

                En 1974, J.H. Schwarz y J. Scherk, por casualidad, observaron que las teorías proveían un estado de la cuerda con un acoplamiento tal, que el límite puntual correspondía precisamente con el de la Relatividad General de Einstein. Ello fue lo que sugirió a muchos físicos que las Teorías de Cuerdas podría comportar las cualidades esenciales para transformarse en una teoría de unificación de las cuatro fuerzas de interacción que conocemos hasta ahora de la Naturaleza, incluyendo a la gravedad.

                La síntesis de todos estos resultados se realizó en 1983, quedando finalmente estructurados en la formulación de lo que hoy se conoce como Teoría de las Supercuerdas (TSC's). Lo sintetizado en ello no tuvo nada de trivial, ya que corresponde a aproximadamente quince años de trabajo. Una teoría de la Naturaleza que contenga el requisito de fundamental, debe estar correlacionada con ambos tipos de partículas, fermiones y bosones. Cuando se incluyen fermiones en la Teoría de Cuerdas como la llamada "hoja del mundo", aparece siempre la necesidad de tener que llegar, en los distintos trabajos de cálculos, a determinar la posible existencia de un nuevo tipo de simetría llamada Supersimetría para poder relacionar los bosones y fermiones. En ese proceso de teorización, ambos tipos de partículas son agrupados en supermúltiplos que se relacionan bajo una simetría. Lo último es lo que determina la razón del uso del superlativo "súper" para denominar a las nuevas TC's como Teoría de las Supercuerdas.

               Ahora bien, para que una Teoría de Supercuerdas pueda ser consistente con la teoría del campo cuántico, requiere que el espaciotiempo esté constituido por diez dimensiones; de no ser así, la teoría resulta inconsistente o anómala. Con diez dimensiones espaciotemporales, las anomalías son anuladas con precisión, liberando a la teoría para su consistencia. Claro está que el hecho de considerar a un espaciotiempo con diez dimensiones, aparece como una contradicción con las observaciones de un espaciotemporal de cuatro, pero no deja de ser interesante para la investigación sobre la naturaleza de nuestro Universo el indagar sobre la posibilidad de la viabilidad de una Física de diez dimensiones.

                Ya en 1984, existían varias teorías de supercuerdas en 10 dimensiones. Pero todas estas teorías comportaban una serie de irregularidades anómalas. En ese mismo año 84, M.B. Green y J. Schwarz descubrieron un método para anular las anomalías de Yang-Mills, las gravitacionales y los infinitos, al que se le llamó mecanismo de Green-Schwarz, liberando con ello a tres teorías que mostraban inconsistencia. Estas fueron la Tipo I (con grupo de norma SO(32)), Tipo IIA, y Tipo IIB.

                Por otra parte, en 1984, se presentaron dos nuevas teorías a las que se les llamó heteróticas y que satisfacían el mecanismo de Green-Schwarz, con grupo de norma SO(32), y E8 x E8. Ellas fueron propugnadas por J. Gross, J.A. Harvey, E. Martinec y R. Rhom. Luego se logró identificar a la heterótica E8 x E8, gracias a los aportes de P. Candelas, G.T. Horowitz y A. Strominger, como la candidata más prometedora para constituirse en una teoría que unificara a las interacciones fundamentales, incorporando en forma natural a la gravedad de la Relatividad General. En este procesos, se logró diseñar, dentro de los límites de baja energía, una teoría que se asemeja bastante a las GUT's, pero con la ventaja de que, muchas de las propiedades, tales como el número de generaciones de leptones y quarks, el origen del "sabor", etc. son deducidos por la teoría en diez dimensiones a través de un mecanismo de compactificación de seis de las diez dimensiones. Pero resumiendo, podemos señalar que es posible contabilizar la existencia de cinco Teorías de Supercuerdas que serían consistentes conteniendo la gravedad: I, IIA, IIB, Het (SO(32)), y Het (E8 x E8) y que a partir de éstas se llegaría a la obtención de una gran teoría unificada.

 

Tipo cuerda

Abierta 
(& cerrada)
Cerrada Cerrada Cerrada Cerrada
Supersimetría 10d N=1 N=2 
(sin chirales)
N=2
(con chirales)
N=1 N=1
Grupo gauge 10d SO(32) no no SO(32) E8 x E8
D-comas 1,5,9 0,2,4,6,8 -1,1,3,5,7 no no
 

  Tipo I SO(32):
Se trata de uno de los modelos teóricos de las Supercuerdas estructurado con cuerdas abiertas. Tiene una Supersimetría uno ( N = 1) con diez dimensiones. Las cuerdas abiertas transportan grados gauges libres en su puntas comas o finales. Esta teoría está compelida a correlacionarse, exclusivamente, con el tipo SO(32) de la teoría gauge para anular las perturbaciones o anomalías. Contiene D-comas o D-branes con 1, 5 y 9 dimensiones espaciales.
 
Tipo IIA
:
Esta es una Teoría de Supercuerdas desarrollada con cuerdas cerradas y que tiene dos (N = 2) supersimetrías en diez dimensiones. Inserta dos gravitinos (teóricas partículas supercompañeras del gravitón) que se mueven en sentido opuesto en las cuerdas cerradas de la hoja del mundo, con oposiciones a las chirales (no es una teoría chiral) bajo diez dimensiones del grupo de Lorentz. No se inserta en el grupo de las gauges. Tiene D-comas con 0, 2, 4, 6, y ocho dimensiones espaciales.
  Tipo IIB
:
Esta se trata de una teoría semejante a la descrita anteriormente, o sea, con cuerdas cerradas e idéntica Supersimetría. Sin embargo, en este caso, los dos gravitinos tienen los mismos chirales bajo diez dimensiones del grupo de Lorentz, o sea, es una teoría chiral. También no es gauge, pero contiene D-comas con –1, 1, 3, 5, y 7 dimensiones espaciales.
  SO(32) Heterótica
:
Se trata de un modelo teórico fundamentado con cuerdas cerradas, en que los campos de la hoja del mundo se mueven en una dirección con Supersimetría y, en la dirección opuesta, sin ese tipo de simetría. El resultado es una supersimetría N = 1 en diez dimensiones. Los campos sin Supersimetría, constituyen los vectores sin masa de los bosones; en consecuencia, se trata de una teoría que requiere de una simetría gauge SO(32) para anular las perturbaciones.
  E8 x E8 Heterótica
:
Esta teoría es idéntica a la descrita precedentemente, excepto que corresponde al grupo E8 x E8 de las gauges que, junto con el SO(32), son los únicos permitidos para anular las perturbaciones o anomalías. Vemos que ambas teorías heteróticas no contienen D-comas. Sin embargo, contienen un solitón 5-comas o "fivebrane" que no corresponde a un D-comas. Este 5-comas generalmente se le llama el fivebrane de Neveu- Schwarz o del NS.

                De las cinco Teorías de Supercuerdas que hemos descrito, hasta el año 1995 la heterótica E8 x E8 fue considerada la más prometedora para describir la Física más allá del Modelo Estándar. Descubierta en 1987 por Gross, Harvey, Martinec, y Rohm, fue considerada, por mucho tiempo, como la única Teoría de Cuerdas que podría llegar a describir nuestro Universo. Se pensaba así debido a que el grupo gauge del modelo estándar SU(3) x SU(2) x U(1) se puede insertar con facilidad dentro del grupo gauge E8. La materia bajo el otro E8 no podría interaccionar sin la participación de la gravedad, lo que abría la posibilidad de encontrar una mejor explicación en Astrofísica sobre el fenómeno de la materia oscura. Por otra parte, las cinco Teorías de Supercuerdas estaban definidas perturbativamente, esto es, válidas sólo para diminutos valores de una constante fundamental denotada como "e". Problemas propiamente endógenos de la teoría dificultaban sustancialmente cualquier tipo de predicciones de cantidades físicas que pudieran ser contrastadas con experimentos en aceleradores.

                Sin embargo, tal como ya lo hemos reconocido, se trata de una teoría que provee un marco conceptual rico para predecir la estructura matemática del modelo estándar, una simetría llamada supersimetría y la Teoría Cuántica de la Gravedad. Recordemos que la Supersimetría es una simetría entre partículas cuánticas que surge como la materia y las partículas que transportan la interacción. Se espera buscarla con nuevos aceleradores que recientemente han empezado a operar o que se tiene proyectado hacerlo en el futuro, y su descubrimiento es de importancia medular para la solución de algunos problemas teóricos presentes en el Modelo Estándar. En la TSC's se sostiene que las cuerdas son objetos unidimensionales extendidos que evolucionan en el espaciotiempo. Pero esta evolución sólo se hace consistente en 10 dimensiones o más, apuntando uno de los aspectos más sorprendentes de la teoría. Las cuerdas forman rizos o bucles y/o se extienden hasta el infinito, vibrando con un ritmo que envía olas ondulantes de gravedad a través del espacio. Puesto que las cuerdas cortas oscilan rápidamente, disipando su energía en unos cuantos millones de años, sólo las cuerdas más largas, con poderosos índices de oscilación, serían los fósiles que todavía seguirían a nuestro alrededor. Pero serían las ya hace tiempo desaparecidas cuerdas cortas las causantes primarias de la creación de los cúmulos de galaxias que hoy observamos.                 

                El inconveniente más serio que se presentaba permanentemente en las Teorías de Cuerdas y también en la TSC's, era la dificultad que se tenía, y que aún persiste, para hacer cálculos más precisos. Pero ello, en los últimos años, ha venido siendo abordada con la creación de un conjunto de nuevas herramientas que han permitido soslayar, en alguna medida, las limitaciones matemáticas de la teoría. Estas herramientas son las que se conocen como "dualidad", que se trata de la inserción en las ecuaciones de la Teoría de las Supercuerdas de un cierto tipo de simetría.                 Hasta ahora, sólo queda esperar para ver si los nuevos modelos matemáticos cumplen un papel semejante al que sucedió con el que, finalmente, se aplicó para desarrollar antimateria y, con ello, hacer posible predicciones verificables en forma experimental para la Teoría de las Supercuerdas. Podemos concebir que algunos aspectos de la teoría no se encuentran alejados de los ya experimentados, ya que hay que tener presente que en las observaciones astrofísicas es posible comprobar teorías de partículas. Para ello, basta recordar que lo que hoy día se ve del Universo es el la radiografía del pasado y aquí se nos da una forma de poder abordar la TSC, ya que si pensamos en el Universo retrospectivamente hacia el estado en que las densidades y las energías son cada vez mayores, se llega a un momento en que todas las predicciones de la Teoría de las Supercuerdas se convierten en importantes. En este sentido, el Universo es un laboratorio de una gran eficiencia experimental para comprobar teorías.                 

                Se supone que el Big Bang, que dio origen al Universo, distribuyó la materia regularmente a través del espacio. De lo anterior tenemos pruebas en la radiación cósmica de fondo que nos llega con igual intensidad desde todas direcciones. Pero el quid de la cuestión es que las evidencias observacionales también revelan una gran grumosidad del Universo: galaxias y cúmulos de galaxias parecen producirse en la superficie de interconectados vacíos parecidos a burbujas. ¿Cómo es que las Supercuerdas fueron, entonces, capaces de generar esas estructuras observadas a gran escala?. Una hipótesis propugna que la materia en el Universo primitivo, sin rasgos distintivos, se coaguló alrededor de las Supercuerdas, atraída por su poderosa gravedad. Otra idea opuesta a esa hipótesis es de que la presión de la radiación electromagnética de las Cuerdas empujó lejos a la materia. Si las Cuerdas fueron el andamiaje subyacente sobre el que se construyó el Universo, podrían hallarse pruebas indirectas de su existencia en las observaciones de tipos específicos de lentes gravitacionales. Otra prueba, menos fácil de encontrar, sería el susurro que dejan atrás las ondas de gravedad junto a esos hoy desaparecidos perfiles cósmicos.                 

                Aunque muchos de los físicos que han trabajado con las Supercuerdas subrayan que con ellas se podría llegar a alcanzar una descripción completa de las fuerzas fundamentales de la Naturaleza, no obstante señalan que igual quedarían muchísimas preguntas científicas sin contestar. En principio, una teoría del Universo microscópico es responsable de las propiedades físicas de otros aspectos observables, pero en la práctica, y tan sólo hablando de funciones del pensamiento experimental, es imposible matemáticamente pasar de una a otra, ya que se requeriría un poder de computación inimaginable, incluso con ordenadores de dentro de cien años. Sin embargo, existen otros teóricos que han visto en ella la posibilidad de contar con una herramienta que les permita, ahora, conseguir avanzar hacia una descripción unificada de todas las fuerzas del Universo y de todas las partículas elementales que dan forma a la materia, de manera que se pudiera formular una "Teoría del Todo". Unificación ésta que, en el mundo de la Física, es la máxima aspiración de la generalidad de los científicos.

                Creemos que tiene que existir esta unificación porque se ha unificado la radiactividad con el electromagnetismo en la teoría electrodébil dentro del marco de una confirmación experimental. Pero está por ver si son las Supercuerdas el camino correcto o seguirá siendo necesario seguir desarrollando otros campos de investigación o, por último, asumir la decisión de reformular teorías que por sus aciertos generales, especialmente en lo macrocósmico, han sido ritualizadas y, quizás también, causantes de un encapsulamiento en la evolución de la Física teórica.                 

                Para poder explicarnos el Universo observable, además de las ecuaciones que describen el Universo microscópico, se requieren conocer las condiciones iniciales y, tan solo entonces, podríamos empezar a entender cuáles han sido los pasos de su evolución. ¿Serán las Supercuerdas las que logren ese objetivo? Por ahora, no se ve nada claro que se pueda estructurar una teoría de las condiciones iniciales. No se observa que podamos tener la capacidad como para explicar todo lo sucedido o deducir matemáticamente todo lo acontecido. La Tierra existe y nosotros estamos en ella, pero ello no lo podemos explicar a partir de un principio, ya que para ello solamente contamos con herramientas probabilísticas, como es el caso de la Mecánica Cuántica.                                                                                                              

  15.- DIMENSIONES EXTRAS

                 Si ya es difícil la aceptación de un espacio tetradimensional, o sea, las tres dimensiones del entorno en que nos movemos, más el tiempo, cuando se habla de la existencia de diez o más dimensiones, es inevitable que aparezca en nosotros la incredulidad. Pero la Teoría de las Supercuerdas necesita diez dimensiones, y más, para describir nuestro Universo. La razón no es simple, pero es así. Cuando se teoriza la existencia de seis dimensiones adicionales, el físico teórico está pensando en una diminuta cuerda que se encuentra compactada y enrollada dentro de un pequeñísimo espacio de 10-33 cm, lo que, por su tamaño, hace muy difícil poder detectar las dimensiones de dicha cuerda. Pero fundamentos en la Naturaleza, como para pensar que puede darse esa condición, existen.

                La idea de las dimensiones extras para un Universo considerado tetradimensional, no es nueva, sino que se extrae de la teoría de Theodoro Kaluza y de Oskar Klein. Este mecanismo es reconocido por los físicos como Teoría o Compactificación de Kaluza-Klein. Kaluza, que, en su trabajo original, demostraba que comenzando desde la Relatividad General con un espaciotiempo pentadimensional, al elevarse encima de un círculo una de las dimensiones, se llegaba a las cuatro dimensiones relativistas. Ello se daba debido a que se trataba de una teoría gauge U (1), en que U (1) corresponde al grupo de rotaciones alrededor de un círculo.

                Esto se puede considerar cuando se asume que el electrón tiene un grado de libertad que corresponde a un punto del círculo y que ese punto es libre de variar su posición en éste, de la misma forma como lo hacemos cuando nos movemos alrededor del espaciotiempo. Para el fotón, se da por entendido que lo contiene la teoría y que el electrón se mueve en función de las ecuaciones de Maxwell sobre el Electromagnetismo. El mecanismo de Kaluza-Klein da simplemente una explicación geométrica para este círculo, en que la quinta dimensión se da al "enrizarse" ese círculo hacia arriba. Hemos hecho una descripción bastante simplificada de lo que consiste la presencia de una quinta dimensión, pero para hacerlo así, hemos considerado también el diminuto tamaño del espacio en que se teoriza el mecanismo, pese a que reconocemos las profundas implicaciones que tiene para la Física.

                Pero ¿cómo podríamos saber si existen o hubo dimensiones adicionales? Por ahora, sólo podemos intuirlas y estimarlas a través de complejos estudios matemáticos y esperar si alguna vez se toma la decisión de construir un acelerador muchísimo más poderoso que los que hoy se encuentran operativos, e incluso de mayor capacidad que el SSC (Super-conducting Super Collider) que estaba destinado a encontrar casi todas las partículas que nunca hemos visto.

                Pero su vida fue muy corta. Apenas se levantó un poco del suelo, el proyecto cayó estrepitosamente como consecuencia de un "no" del Congreso norteamericano. ¿Razón? Su inmenso coste, miles de millones de dólares, el equivalente a proveer alimentación básica a millones de desposeídos del mundo. Sin embargo, sabemos por la Mecánica Cuántica que si una dimensión espacial es periódica, el momento de esa dimensión se cuantiza, p = n/R (n = 0, 1, 2, 3…); mientras si la dimensión espacial desaparece, el momento puede adquirir una serie continua de valores. Por otra parte, al disminuir el radio de la dimensión compactada (el círculo se hace muy diminuto), el rango de valores permitidos del momento se hace muy amplio. Así, llegamos a una Torre de Kaluza-Klein en cuanto a los estados del momento.

                Si tomamos un círculo con el radio grande y dimensiones no compactificadas, los valores permitidos del momento se sitúan muy cerca unos de otros, llegando a formar una serie continua. Tanto las dimensiones mayores carentes de masa como, asimismo, las másicas pequeñas, se ubican espaciándose en la Torre entre pequeñísimos trechos. Lo anterior sería lo que ocasiona que, en la materia sometida para su estudio en los actuales aceleradores en operaciones, sólo se pueda llegar a observar en ella una composición de partículas. En consecuencia, se necesitarían aceleradores de la potencia o mayor que la del frustrado proyecto del SSC, no sólo para descubrir las extradimensiones, sino también algunas masivas partículas ligeras que predicen las teorías, pero que hasta ahora no se han encontrado. Cuando estudiamos la teoría de Kaluza-Klein, hablamos de dimensiones que se dibujaban en la línea de un cilindro y, ahora, aquí se supone que vamos a analizar cuerdas con extradimensiones.

                Cuando Scherk y Schwarz teorizaron sobre la existencia de diminutas cuerdas en la Naturaleza, hicieron un descubrimiento notable para el campo de la Física teórica. En efecto, las cuerdas tienen una característica única cuando son compactificadas: se enrollan alrededor de una dimensión compacta a lo largo de todo el espectro. Una cuerda cerrada se puede enrollar alrededor de periódicas dimensiones en distintas etapas de tiempo. Esto implica, al igual que en la mecánica de Kaluza-Klein, la generación de un momento p = w R (w = 0, 1, 2…), pero con una diferencia sustancial, ya que éste sigue el camino inverso en relación a la dirección del radio de la dimensión compacta, R. De ese modo, la dimensión se compactifica llegando a ser pequeñísima en un cilindro de muy poca densidad.

                Ahora bien, para poder insertar nuestro mundo tetradimensional en otro con seis dimensiones suplementarias, necesitamos conpactificar la Teoría de las Supercuerdas de diez dimensiones en múltiplos compacto de seis. Se puede pensar que ello se podría realizar con el mecanismo de Kaluza-Klein, pero los resultados que se obtendrían son de una gran complejidad binaria. Una formula simple podría ser la de colocar las seis dimensiones suplementarias en una cantidad igual de círculos en una protuberancia sexadimensional, pero ello implicaría supersimetrías poco viables, pese a que se considera que éstas podrían existir en nuestro mundo tetradimensional en una escala de energía superior a 1 TeV. Este es un tema que ha centrado la investigación en los aceleradores de más alta energía del mundo. Por otra parte, la preservación de una cantidad mínima de Supersimetría equivalente a N = 1 en cuatro dimensiones, requiere la compactificación de un múltiplo especial de seis, conocido como de Calabi-Yau.

                Las características del múltiplo de Calabi-Yau puede tener implicaciones importantes para la Física de bajas energías, como en el caso de las distintas clases de partículas observadas en cuanto a sus respectivas masas, los cuantos y su origen. Sin embargo, se trata de un campo de investigación bastante complicado, ya que se da la existencia matemática de muchísimos múltiplos de Calabi-Yau y los físicos no han podido encontrar la fórmula para saber cuál de ellos utilizar en muchos de sus trabajos de investigación. En ese sentido, al desarrollar los distintos conceptos que se implican en la Teoría de las Supercuerdas con diferente número de dimensiones suplementarias, se llega a concluir que la tetradimensionalidad está lejos de ser la única geometría de la Naturaleza y que en ello la investigación física se encuentra incompleta, por lo menos en los niveles actuales de teorización.

                Por tanto, y al margen de la necesidad de unificar las cuatro fuerzas conocidas que dan la estructura a nuestro mundo, se tiene la esperanza de que la Teoría de las Supercuerdas, sin las perturbaciones estructurales que aún persisten en ella, nos pueda conducir a saber si nuestro Universo siempre ha sido tetradimensional o que fluyó de una Física con más de cuatro dimensiones que pudo haber existido durante la fase de alta energía del Big Bang, distinta a la Física cuatridimensional de baja energía que hoy observamos. En una de esas, debe hallarse un múltiplo de Calabi-Yau que abra el camino.

                Un importante trabajo al respecto es el desarrollado por el físico-matemático Andrew Strominger, en el cual ha logrado demostrar que los múltiplos de Calabi-Yau se pueden conectar permanentemente uno con otro en transiciones cunifólicas y movernos en diferentes múltiplos en distintos parámetros de la teoría. Esto sugiere que las distintas teorías tetradimensionales que generan los múltiplos de Calabi-Yau, pudiesen ser realmente fases de una única teoría subyacente.

                                                                                       

                                         16.- LAS DUALIDADES

                 Ya hemos señalado que la unificación de las interacciones fundamentales, por lo menos matemáticamente, es un principio posible de explicar mediante la TSC. El mecanismo de Green-Schwarz, que puede anular las anomalías o perturbaciones, otorga a la teoría un enfoque realista de las interacciones físicas. La conexión con la Física de partículas elementales aún no se encuentra muy clara; sin embargo, existen una serie de singularidades generales que comporta la teoría que la hacen interesante para el mundo de la baja energía (100 GeV).

                Ahora bien, uno de los problemas más importante que presenta la TSC para producir esas conexiones, son los variados espacios de compactificación de la Física de baja energía. En la práctica, cada uno de ellos da distinta Física de baja energía. Este problema, que no sólo es representativo para las supercuerdas sino que también para la TCSS*, se le conoce como el problema de la degeneración del vacío. Sin embargo, dado uno de estos vacíos, se pueden construir modelos de Teorías de Cuerdas a los que se conocen con el nombre genérico de modelos construidos a partir de cuerdas (MCC), que se asemejan bastante con las GUT's, aunque comportan algunas características diferenciales. Muchas de ellas, que en el modelo estándar no se encuentran explicaciones, como ser el origen de la existencia de tres familias de fermiones chirales**, la Higgs, etc., con la MCC pueden ser obtenidos, pero quedando todavía pendiente el problema de la selección correcta del vacío de la TSC. ¿Cómo hacerlo? Dejándolo pendiente y ver más adelante qué pasa, como piensan muchos físicos.

                La solución al problema debería proceder del sector no-perturbativo de la TSC, como se verá más adelante. Se trata de un problema complejo, dado que el sector no-perturbativo de la teoría conlleva el rango de ilustre desconocido. Pese a ello, muchos teóricos "cuerdistas" se abocaron a la construcción de modelos unificadores, soslayando hasta más adelante el problema de la degeneración del vacío. Ahora bien, los modelos que se han venido construyendo cuentan con características bastante diferentes que las GUT's. Entre ellas, podemos encontrar, entre otras, las siguientes:

                La existencia de tres generaciones de leptones y quarks chirales. Supersimetría*** de baja energía. Existencia de axiones. Dobletes de Higgs no masivos (acompañados por tripletes) que obtienen masa a raíz de la simetría espaciotemporal, y
Estructura de simetrías discretas globales y locales.

                A lo anterior, los cuerdistas insertan la gravedad, cuestión imposible dentro del marco de Teorías de Campos. Sin embargo, y pese a las coincidencias descritas, la teoría cuenta con sus propios argumentos, que tienen relación con la llamada naturalidad. En la elaboración de los modelos de cuerdas no está contemplado el llamado modelo estándar "minimal supersimétrico" (MEMS), lo que implica soslayar los procesos de cambios de "sabor". Otra diferencia se encuentra en la falta de predicción en las relaciones usuales entre los acoplamientos de Yukawa.

                Ahora bien, con respecto a la constante cosmológica, hay problemas. Los diferentes modelos cuerdistas no explican el hecho de que ésta debe ser nula. Para resolverlo, se recurre al mecanismo "traductor" llamado dualidades, que podría darle una solución definitiva al problema dentro del régimen no-perturbativo de la TSC. Finalmente, en el valor que en los modelos de la TSC se le otorga a la constante de la gravitación universal de Newton, también aparece un problema en la predicción de su valor preciso. Éste difiere del valor correcto en un factor aproximado de 400. Pero a esto también se le encuentra una solución dentro del régimen no-perturbativo de la TSC.

                El problema de la degeneración del vacío en la TSC que mencionamos anteriormente, ha significado, hasta ahora, comportar la imposibilidad de realizar predicciones físicas a bajas energías que puedan ser contrastadas con experimentaciones. Para saltar el escollo, se piensa en la evolución que podrían tener las dualidades en una formulación cuerda-cuerda. Las dualidades son un cierto tipo de simetría que aparece en las ecuaciones de la teoría efectiva (a bajas energías) de cuerdas. Se reconocen tres tipos de dualidad: T, S y U; en que la dualidad U es una combinación de la S y la T, siendo la T la equivalencia entre dos TC, una compactificada sobre un volumen grande y otra sobre un espacio pequeño.

                Por otro lado, la dualidad S se refiere a la equivalencia entre dos teorías de cuerdas, una con un acoplamiento fuerte y la otra débil. En el fondo, la dualidad S es una clase muy parecida a la que presenta la eléctrico-magnética que aparece en las ecuaciones de Maxwell en el electromagnetismo, y es considerada por la comunidad científica internacional como una de las grandes contribuciones que se han realizado en los últimos años en teorías de campos. Además, fue muy importante su contribución en los pasos iniciales para el establecimiento de las simetrías de dualidad en la TSC.

                La participación de las dualidades S que se han mencionado en la TSC en diez dimensiones, muestran un resultado que, aparte de ser inesperado, no deja de sorprender. Las cinco teorías de cuerdas se encuentran unificadas por las dualidades S que hemos descrito; pero más allá, y dentro de un marco conceptual, también se han realizado trabajos en que se demuestra que con dualidades S es factible relacionar las Teorías de Cuerdas que se han estado mencionando con otra que cuenta con una dimensión más, o sea, once dimensiones, llamada Teoría M, que requiere a una Supergravedad**** con iguales dimensiones como propiedad de un límite de baja energía. Al margen de lo anterior, hay un hecho relevante a destacar dentro de las propiedades de las dualidades S. La existencia de las simetrías de dualidad S en la TSC requiere de manera sustancial de la Mecánica Cuántica, es decir, la dualidad S es esencialmente cuántica.

                En la actualidad, se han entrelazado por dualidades un número sustancial de teorías. Se ha puesto de manifiesto que casi todas las teorías, con excepción de las del tipo IIB, pueden ser obtenidas geométricamente a través de compactificación sobre el círculo y la recta de la Teoría M. A ello, se le ha venido reconociendo como "el poder de la teoría M", calificativo acuñado en uno de sus artículos por John H. Schwarz. La utilidad que han demostrado las dualidades para la TSC es importante, ya que permite formular la teoría dentro de un régimen no perturbativo y, a su vez, encontrar soluciones. Es posible que esa formulación ayude a resolver los problemas de la teoría en relación con la degeneración del vacío y el rompimiento de Supersimetría a baja energía.

                Pero la aparición de nuevas teorías y el aumento de dimensiones parece ser una constante de la TSC. En efecto, en febrero de 1996, se difundió una nueva Teoría de Cuerdas, pero esta vez con doce dimensiones, con el objeto de otorgar una mayor consistencia a las dualidades; su nombre, Teoría F, y su autor, Comrun Vafa. Esta teoría reúne la cualidad de derivadora, tanto para la Teoría M y sus generadas, como para las teorías del tipo IIB. Además, en esta teoría se presenta en forma natural un mecanismo para explicar el por qué la constante cosmológica es cero, usando para ello la región de acoplamientos fuerte y la dualidad S.

                Otro aporte importante de las dualidades para limar las asperezas de la TSC ha sido su contribución para predecir el valor correcto de la constante de gravitación universal de Newton, hecho que pudo realizarse entre las TSC heteróticas y la Teoría M usando una variedad que es denominada como de Calabi-Yau. Esto era imposible de obtener en el sector perturbativo de la TSC y permitió lograr una unificación de las tres constantes de acoplamiento de norma y la constante de gravitación a escalas cercanas a 1016 GeV.

                Es posible que las dualidades que se insertan en las teorías M y F jueguen, para el futuro de la TSC, un papel sustancial en cuestiones que deberán ser resueltas, como son la degeneración del vacío y el rompimiento de la Supersimetría a baja escala de energía. Intentos ya han existido en materia de obtener contactos con la Física de baja energía, sobre la base de la posibilidad de que el vacío real de la TSC debe caer en la región fuertemente acoplada.

                Si ello se lograra comprobar, las Teorías M y F adquirirán ribetes importantes para la búsqueda de predicciones físicas en escalas de baja energía, ya que podrán aportar más de un antecedente para resolver el problema de distinguir qué cálculos son factibles de contrastar con experimentos. Lo anterior es de una importancia significativa para la TSC, ya que ello va a ser, a final de cuentas, lo que le va a otorgar el grado de teoría de la Física o la va a dejar como archivos de ejercicios matemáticos y especulativos, y perteneciente a la familia cuyo nombre es: "Las que quisieron pero no pudieron".

 

(*)TCSS: Teoría de Campos Supersimétricos
(**) Chirales: La chiralidad de los fermiones es una particularidad de las TC, independiente de la compactificación, ya que no es derivable en la Teoría de Kaluza-Klein
(***) Supersimetría: simetría que relaciona partículas de espín entero.
(****)Supergravedad: Teoría para la materia acoplada a la relatividad general consistentemente con la supersimetría.

                                                   17.- LA TEORIA M

                Los quarks son los ladrillos del Universo. Pero ¿están hechos de partículas más pequeñas? Contamos con muchas teorías, pero todavía no sabemos cuál es la más acertada. Lo que sí tenemos claro es que el Modelo Estándar, que describe la constitución interna del átomo y de las partículas subatómicas en el rango que son capaces de alcanzar nuestros aceleradores, es, en general, bastante aceptable, pese a sus debilidades. Por otro lado, los físicos están casi seguros que los leptones no están compuestos por partículas más pequeñas. Sin embargo, esta sospecha no se tiene en el caso de los quarks. No se sabe que hay detrás de ellos. Tan sólo se ha llegado a separarlos, junto con los gluones y por un brevísimo tiempo, de los protones y neutrones que los mantenían aprisionados, formando en esos breves instantes una materia plasmática. Sin embargo, es frecuente, dentro de la comunidad de los físicos teóricos, hablar de "prequarks".

                En1995, en la Universidad de Stanford, CA, USA, el brillante físico de la Universidad de Princeton, Ed Witten, iba a dar una conferencia. Como Witten era un científico que ya había alcanzado, pese a su juventud, un alto nivel de prestigio, y como suele suceder en los acontecimientos importantes, los rumores comenzaron a rondar. Se decía en los pasillos y aulas de la Universidad que seguramente Witten tenía una nueva teoría del Universo o alguna nueva genialidad teórica. Lo cierto es que el comentario general en Stanford era de que podía tratarse de una conferencia extraordinaria.

                Durante algo más de hora y media, Witten habló rápido y casi sin parar, salvo para beber agua para refrescar su garganta. Y lo que expuso fue como lo suscribe al finalizar su exposición: "ladys and gentlemen, this is a new theory about the Universe" (damas y caballeros, esta es una nueva teoría sobre el Universo). A diferencia de lo que sucede cuando se exponen temas de esta naturaleza, el auditorio concurrente no hizo preguntas. Esto pudo haberse debido a que la mayoría de los concurrentes a la conferencia pudieron haber pensado de que se trataba de una nueva variante de las ya reconocidas TSC's que, por su belleza conceptual, se merecía un análisis profundo antes de emitir pronunciamientos a favor o en contra.

                Lo que Witten expuso a la exigente y, a su vez, perpleja audiencia de Princeton, era una versión bastante revolucionaria y muy bien fundamentada matemáticamente de las Supercuerdas. En su estructura teórica se fundamenta, con mucha originalidad, la compactificación de las fuerzas de la Naturaleza, incluyendo la gravedad; se deja un gran espacio matemático para eliminar las anomalías o perturbaciones, y se propugna con coherencia que la última estructura de la materia, lo que estaría bajo los quarks, serían unos diminutas círculos semejantes a una membrana.

                Ed Witten, en su trabajo, presentó amplias evidencias matemáticas de que las cinco teorías obtenidas de la primera revolución, junto con otra conocida como la Supergravedad en once dimensiones, eran de hecho parte de una teoría inherentemente cuántica y no perturbativa conocida como "Teoría M" (de las palabras misterio, magia o matriz). Las seis teorías están conectadas entre sí por una serie de simetrías de dualidad T, S y U. También en la teoría propugnada por Witten se encuentran implícitas muchas evidencias de que la Teoría M no es sólo la suma de las partes, pero igual se hace difícil saber cuál podría ser su estructura definitiva. La idea que concita una mayor aceptación de los teóricos es de que la estructura cuántica de la Teoría M podría estar dada por unos objetos matemáticos conocidos como matrices. Se trata de una idea que fue propuesta en 1996 por T. Banks, W. Fischer, S. Shenker y L. Susskind. A su vez, las simetrías de dualidad que se aplica en las distintas estructuraciones que se han venido dando para la Teoría M, requieren de nuestras ya conocidas D-comas o D-branes, extendidas en varias dimensiones, donde los extremos de las cuerdas pueden terminar. A principios de 1997, A. Strominger y C. Vafa utilizaron las D-comas como estados cuánticos del campo gravitacional en ciertas clases de agujeros negros, logrando reproducir con clara precisión matemática, y por primera vez, las propiedades termodinámicas de Bekenstein y Hawking.

                Por supuesto que lo último señalado en el párrafo anterior, es lo que da más esperanza a los físicos teóricos de que a través de las TSC y, en especial, de la teoría M, podría estar el camino para llegar a la deseada formulación definitiva de la Teoría Cuántica Gravitatoria. La conexión con el Modelo Estándar estaría más lejano. Estos últimos avances descritos se conocen como "la segunda revolución de la Teoría de Supercuerdas".

                La teoría M, fue formulada partiendo de los principios hipotéticos de la Teoría de Supergravedad denominada 11-dimensional, y para un estadio cosmológico de baja energía. Su configuración gráfica está constituida por un circulito membranoso y 5-comas como solitones, pero no tiene cuerdas. Ahora aparece la pregunta: entonces, ¿cómo se puede estructurar la teoría insertando las cuerdas que hemos venido estudiando? Compactificando la Teoría M 11-dimensional en un diminuto círculo con el objeto de conseguir una teoría de diez dimensiones. Si tomamos una membrana con una topología de protuberancias redondeadas e insertamos una de sus dimensiones en el círculo compactificado, éste se convertirá en una cuerda cerrada. Cuando el círculo llega a ser muy pequeño, recuperamos la supercuerda de tipo IIA.

                Ahora bien, ¿cómo podemos saber que en el círculo que propugna la Teoría M se pueden insertar las supercuerdas IIA, y no la tipo IIB o las supercuerdas heteróticas? La respuesta se ha podido obtener gracias a los estudios realizados sobre los campos sin masa que se consiguen cuando se compactifica en un círculo los hipotéticos mecanismos viables para estos efectos que comporta la Teoría de la Supergravedad 11-dimensional. También, en el origen de la Teoría M, se ha considerado el hecho de la existencia de D-comas que se da únicamente en la teoría IIA. Recordemos que la teoría IIA contiene 0, 2, 4, 6, 8 D-comas y ellos se suman a los solitones 5-comas del NS. En la siguiente tabla hacemos un resumen de lo que produce esta compactificación.
 

 

Teoría-M en cículo
IIA en 10 dimensiones
Membrana plegada a un círculo Supercuerda IIA
Contracción de la membrana a cero D0-comas
Membrana sin cubierta D2-comas
Cubierta 5-comas en un circulo D4-comas
Liberación de 5-comas NS 5-comas
 

                En la tabla resumen se han dejado de lado en la compactificación los D-comas D6 y D8. El D6-comas es considerado como un mecanismo aplicable a los monopolos de Kaluza-Klein, que permite hallar soluciones para la compresión en un círculo de la Supergravedad 11-dimensional. Sobre el D8-comas, no se tiene claro todavía su aplicabilidad en la Teoría M; es un asunto que se encuentra en pleno proceso de investigación. Por otra parte, también se puede conseguir una teoría consistente de 10 dimensiones si se compactifica a la Teoría M en un segmento de una pequeña línea.

                Para ello, se toma una de las once dimensiones que hemos señalado, con el objetivo de que esa línea adquiera una longitud finita. Realizado ese proceso, se consigue que los puntos terminales del segmento que se ha elegido en la línea sean los que definan las demarcaciones de nueve dimensiones espaciales. Una membrana abierta puede terminar en los límites de esas demarcaciones. Desde donde se intersecciona a la membrana y uno de los límites de demarcación, hay una cuerda, lo que permite visualizar un espacio con 9 + 1 dimensiones en cada uno de los límites que pueden tener las cuerdas que nacen en los extremos de la membrana.

                Por otro lado, para anular las perturbaciones de la Teoría de Supergravedad, también es necesario la presencia en los límites del mecanismos que aporta el grupo E8 gauge. En consecuencia, la elección de un diminuto espacio limitado es la condición que permite una teoría de diez dimensiones con cuerdas y grupo gauge E8 x E8; o sea, aquí se nos da la teoría de cuerdas heterótica E8 x E8.

                Teniendo en cuenta las novedosas facetas que conlleva cada una de las fases de esta teoría TSC de 11-dimensiones, y las variadas simetrías de dualidad que se insertan entre las Teorías de Supercuerdas que se conpactifican con ella, podría pensarse que estaríamos siendo conducidos a la consecución de contar con la anhelada única Teoría Fundamental subyacente, ya que las seis teorías de TSC, incluida la 11-D supercuerda-supergravedad, podrían ser las complementantes que requieren las teorías clásicas de la Física. Previamente, hemos intentado deducir las teorías cuánticas aplicándolas a los límites de las clásicas a través de teorías perturbadoras. Como las perturbaciones en física son limitantes, en estas teorías se han desarrollado mecanismos no perturbantes, como son el caso de las dualidades, supersimetría, etc. Son esos mecanismos hipotéticos matemáticos los que llevan a pensar que existiría una única teoría cuántica detrás de todas.

                El poder contar con una única teoría es una perspectiva muy emocionante para la mayoría de los físicos teóricos y, por ello, una parte importante del trabajo de investigación teórica se ha venido centralizando hacia la formulación completa de una Teoría M Cuántica. Ahora, si se va a lograr, es algo que sólo el tiempo lo dirá.

                                                                                                  

  18.- DESCUBRIMIENTOS BEKENSTEIN-HAWKING

                 La gravedad resulta una fuerza esquiva para los científicos, ya que ha resistido todos los intentos para saber, con certeza, si es unificable a las otras fuerzas de la Naturaleza. La gravedad viene descrita por la Teoría General de la Relatividad de Einstein y tiene una naturaleza esencialmente geométrica. Se entiende como la curvatura del espacio-tiempo alrededor de un objeto masivo. Dicha curvatura se puede simbolizar como una pelota de fútbol sobre una hamaca. El peso de la pelota (la materia) hundirá la hamaca (el espacio-tiempo) con una mayor intensidad en la distancia más cercana. La teoría de Einstein goza de una amplia aceptación debido a los aciertos macrocósmicos que han sido verificados de manera experimental. Uno de los más recientes es el del cambio en la frecuencia de radiación en púlsares binarios debido a la emisión de ondas gravitacionales. Entre las predicciones que Einstein propugna en su Teoría, se encuentran, por ejemplo, la existencia de ondas gravitacionales, que el Universo está en constante expansión y por lo tanto tuvo un inicio, o los agujeros negros.

                Los agujeros negros son regiones espaciales donde la gravedad es tan intensa que ni siquiera la luz puede escapar. Pueden formarse por colapso gravitacional en la etapa final de la existencia de cierto tipo específico de estrellas. Los efectos son considerablemente intensos y una unificación con la mecánica cuántica es, en principio, posible. En los primeros años de la década de 1970, Jacob D. Bekenstein y Stephen W. Hawking notaron que la propiedad de los agujeros negros correspondía con algunas de las termodinámicas conocidas. Poco después, Hawking descubrió que los agujeros negros pueden emitir partículas elementales en forma de radiación.

                Los agujeros negros son los objetos cósmicos que pueden permitir dar pasos significativos para llegar a probar la viabilidad de la Teoría de Cuerdas. Para ello, resulta importante los análisis de la gravedad cuántica que emiten esos objetos, incluidos los grandes agujeros negros macroscópicos. Los agujeros negros no son en realidad negros, ya que son astros que emiten radiación. Hawking, usando un razonamiento semiclásico, demostró que los agujeros negros emiten radiación térmica en su horizonte de sucesos. Puesto que la Teoría de Cuerdas es, entre otras cosas, una teoría de la Gravedad Cuántica, debería permitir describir de manera consistente a los agujeros negros. De hecho, existen resultados resolutivos en los estudios de los agujeros negros que también satisfacen con precisión a las ecuaciones de movimiento de las cuerdas. Se trata de ecuaciones con campos adicionales propios de la TC's, pero muy semejantes a las de la Teoría de la Relatividad General. Por otro lado, la Teoría de Supercuerdas también comporta algunas soluciones especiales para los agujeros negros, como que ellos mismos sean objetos supersimétricos.

                Uno de los resultados alentadores que se han hallado en las investigaciones de la Teoría de Cuerdas es la derivación de la fórmula de la entropía conocida como de Bekenstein-Hawking para los agujeros negros, la cual se obtiene con la enumeración de los estados microscópicos de las cuerdas que formarían un agujero negro. Lo último se da si se admite que el área del horizonte es análoga a la entropía, lo que implica que la gravedad superficial tiene que ser igual a todos los puntos del horizonte de sucesos, del mismo modo que es igual a la temperatura en todos los puntos de un cuerpo con equilibrio térmico. Aunque exista claramente una semejanza entre entropía y área del horizonte de sucesos, no aparece tan obvio el modo de identificar el área con la entropía de un agujero negro.

                ¿Qué se puede entender por entropía de un agujero negro? La afirmación la encontramos en los trabajos formulados en 1972 por Jacob D. Bekenstein de la Universidad del Neguev, en Israel. Dice así: cuando se crea un agujero negro por obra de un colapso gravitatorio, rápidamente entra en una situación estacionaria caracterizado sólo por tres parámetros: la masa, el momento angular y la carga eléctrica. Al margen de estas tres propiedades, el agujero negro no conserva ninguna otra de las características del objeto que se contrajo. Esta conclusión, conocida coloquialmente como el teorema "un agujero negro no tiene pelo", fue demostrada por esas formulaciones en colaboración con Stephen Hawking de la Universidad de Cambridge, Werner Israel de la Universidad de Alberta y David C. Robinson del King's College de Londres. El teorema de la "carencia de pelo" supone que durante la contracción gravitatoria se pierde una gran cantidad de información. Por ejemplo, el estado final del agujero negro es independiente de que el cuerpo que se contrajo estuviera compuesto de materia o de antimateria, que fuese esférico o de forma muy irregular. En otras palabras, un agujero negro de una masa, momento angular y carga eléctrica determinados, podría haber surgido del colapso de cualquiera de las muchísimas configuraciones diferentes de la materia. Y si no se tienen en cuenta los efectos cuánticos, el número de configuraciones sería infinito, puesto que el agujero negro pudo haber sido formado por el colapso de una nube de un número infinitamente grande de partículas de una masa infinitamente pequeña.

                El Principio de Incertidumbre de la Mecánica Cuántica implica, sin embargo, que una partícula de masa m se comporta como una onda de longitud h/mc, donde h es la constante de Planck (la pequeña cifra de 6,62 x 10-27 ergios por segundo) y c es la velocidad de la luz. Para que una nube de partículas sea capaz de contraerse hasta formar un agujero negro, parece necesario que esa longitud de onda tenga un tamaño inferior al del agujero negro así formado. Resulta por eso que el número de configuraciones susceptibles de formar un agujero negro de una masa, momento angular y carga eléctrica determinados, aunque muy grande, puede ser finito. Bekenstein afirmó que es posible interpretar el logaritmo de este número como la entropía de un agujero negro. El logaritmo del número sería una medida del volumen de información que se pierde irremediablemente durante el colapso a través de un horizonte de sucesos al surgir un agujero negro.

                Claro está que esa afirmación de Bekenstein, entonces, no tuvo mucha aceptación, ya que en ella sostenía que si un agujero negro posee una entropía finita, proporcional al área de su horizonte de sucesos, debe tener también una temperatura finita que sería proporcional a la gravedad de su superficie. Eso significaría la posibilidad de que un agujero negro se hallase en equilibrio con la radiación térmica a una temperatura que no fuese la del cero absoluto. Pero tal equilibrio no es posible de acuerdo con los conceptos clásicos, porque el agujero negro absorbería cualquier radiación térmica que allí cayera, pero, por definición, no podría emitir nada a cambio. Esta paradoja subsistió hasta comienzos de 1974, cuando Hawking investigaba cuál sería, conforme a la Mecánica Cuántica, el comportamiento de materia en la proximidad de un agujero negro.

                Descubrió, con gran sorpresa para él, que el agujero negro parecía emitir partículas a un ritmo constante. Entonces, todo el mundo aceptaba el dogma de que un agujero negro no podía emitir nada. Pero él pudo demostrar que se trataba de un auténtico proceso físico en que las partículas expulsadas poseen un espectro precisamente térmico: el agujero negro crea y emite partículas como si fuese un cuerpo cálido ordinario con una temperatura directamente proporcional a la gravedad superficial e inversamente proporcional a la masa. Este descubrimiento es conocido como la "radiación de Hawking". Pero además, hizo que la afirmación de Bekenstein de que un agujero negro posee una entropía finita fuera completamente consistente, puesto que implicaba que un agujero negro podría hallarse en equilibrio térmico a alguna temperatura finita que no fuese la de cero.

                En la formulación de Bekenstein, se puede distinguir que los agujeros negros obedecen una "ley del área", dM = K dA, donde A es el punto del área del horizonte de sucesos y K es una constante de proporcionalidad. M corresponde a la totalidad de la masa del agujero negro y al resto de la energía que éstos irradian. Bekenstein concluyó que esa ley es similar a la de la Termodinámica para la entropía, dE = T dS . Por su parte, Hawking, en su trabajo, pudo determinar que la temperatura de un agujero negro es dada por T = 4 k (donde k es la constante que ha sido reconocida como "área de gravedad". En consecuencia, la entropía de un agujero negro se expresa de la siguiente manera: S = A/4.

                Ahora bien, después de los trabajos que realizaron Strominger y Vafa, esa fórmula de la entropía ha podido ser derivada microscópicamente a los estados cuánticos degenerados de las cuerdas y de las D-comas que corresponderían a ciertos agujeros negros. Es decir, las D-comas proveen el acoplamiento débil en distancias cortas de ciertos agujeros negros. Por ejemplo, las clases de agujeros negros que han sido estudiadas por Strominger y Vafa pueden ser descritas por 5-comas, 1-coma y cuerdas abiertas que transitan por la 1-coma y toda la estructura cubierta por una protuberancia de cinco dimensiones. Por otra parte, la radiación de Hawking también puede ser descrita en términos de la misma configuración, pero con cuerdas abiertas que viajan en ambas direcciones. Las cuerdas abiertas interactúan recíprocamente, y la radiación es emitida en un formato de cuerdas cerradas.

                A través de precisos cálculos, se puede demostrar que para cierto tipo de agujeros negros supersimétricos, la Teoría de Cuerdas otorga respuestas semiclásicas correlacionadas con la Supergravedad, incluyendo correcciones de la frecuencia dura de los factores de los cuerpos negros.

                                                                                                 

19.- EL POR QUE DE LAS SUPERCUERDAS

                Las Teorías de Supercuerdas no son más que una de las muchas maneras que los científicos usan para desarrollar los conocimientos que la humanidad reclama y necesita para su propia evolución. Sus adeptos han concluido, con mucho entusiasmo, que han tomado un camino acertado que conducirá a entender la interacción de la materia. Más allá, porque el propósito que los anima es seguir un camino que los pueda conducir a encontrar una total comprensión de la materia y, quizá, de todo, partiendo desde el punto de vista de unas pocas cuerdas que se mueven al compás de nueve dimensiones más el tiempo, que es la cifra dimensional más frecuentemente usada en las correspondientes ecuaciones.
El que existan o hayan existido las cuerdas nace de la siguiente reflexión: históricamente, siempre hemos observado, en el interior de un átomo, que en esa estructura aparecen subestructuras: dentro de un átomo hay núcleos, y dentro de éstos hay quarks. ¿Por qué no se puede pensar que un quark comporta un prequark, y que fuera de éste se genera otra partícula subquark, y así sucesivamente? Esto viene a ser un procedimiento primario de la investigación científica que aparece como detenida, y que con las Supercuerdas retomaría la acción, aunque, en alguna medida, por caminos distintos.
               

                 En las Supercuerdas se intenta una desagregación investigativa de los procedimientos previos que se han seguido en el conocimiento de la materia, incluido sus mejoras. La idea medular de la TSC es que todas las partículas, todos los conductores de fuerza, y la gravedad , se armonizan igualitariamente en un sentido bajo los sones de vibraciones de cuerdas que aparecen como objetos. Para entender la aparición de las cuerdas, basta con recordar el ejemplo de la visión que obtenemos desde lo alto en el vuelo de un avión cuando observamos una autopista. Aparecería la materia, cuando es observada desde altísimas distancias, como un objetos vibratorio semejante a pelitos. Así, un quark nos parecería como un pelito extendido unidimensional. Pero al empequeñecerse más la escala, el quark va apareciendo como si estuviera constituido por una cuerda que genera interactivamente muchísimos prequarks alrededor de ella. No cabe la menor duda que es una forma bastante diferente de hacer Ciencia, de elaborar teorías de Física.

                En la Teoría de Supercuerdas, la gravedad se encuentra matemáticamente inserta dentro de una consistente estructura mecánico cuántica. La TSC desarrolla una novedosa idea para describir las partículas elementales dentro de un formato diferente a como los físicos lo ha venido haciendo. Hasta ahora, se ha considerado a las partículas elementales como puntos, sin procederse a estimar su extensión, tan sólo puntos matemáticos. Y, es eso, lo que nos presenta los problemas cuando intentamos introducir la gravedad en la teoría. Con la TSC, al propugnarse la idea de que las partículas no sólo son un punto sino líneas unidimensionales insertas en rizos que adquieren diferentes conformaciones, el problema matemáticamente se soslaya, cuando se considera a los bucles o rizos como partículas elementales.

                Si aceptamos, con una buena disposición científica, los avances teóricos, entonces no cabe duda que en la TSC se presenta implícita la deseada unificación. En ninguno de sus seis modelos más aceptados se plantea la existencia de unos precisos tipos de objetos, y que los demás se generarían alrededor o fuera de estos. Lo que se propugna es que un objeto unidimensional, parecido a una cuerda, puede adquirir diferentes conformaciones y estructuras geométricas. Es un fenómeno semejante al que ocurre cuando se aplica un punteo en las cuerdas de una guitarra. Se dan variados sonidos con la vibración de las cuerdas. Los tonos diferentes que produce la vibración de una cuerda son la analogía de distintos objetos. En esa misma forma, existe una cuerda fundamental que, en distintas vibraciones, puede ser detectada en condiciones de baja energía y grandes distancias. Una vibración es un quark; otra distinta es un fotón; la partícula de la luz vibra agudo y se observa como un electrón; hace otra vibración y aparece un gravitón, la partícula que daría origen a la fuerza gravitatoria. Las distintas vibraciones se producen en un mismo objeto. Es la unificación de todo, de las partículas, de la interacción, de partículas que manejan interacción, son todas vibraciones de la misma cuerda.

                Pero, entonces ¿cuál sería la partícula fundamental dentro de la concepción de la TSC? En el tiempo siempre se han dado cambios fundamentales en esta materia. Consideramos a los átomos como los ladrillos fundamentales de la construcción de la Naturaleza; se pensó en los protones como fundamentales, luego los quarks. En TSC siguen siendo ladrillos fundamentales en la construcción del edificio, pero son las consecuencias diferentes de la vibración de una cuerda, pasando ésta a ser también fundamental.

                Una cuerda, en cierto sentido, corresponde a un número infinito de partículas elementales, debido a que cada una de ellas comportan la facultad de poder vibrar en una multiplicidad de maneras. Es el distinto "tono" de las vibraciones el determinante que sugiere las propiedades de las partículas elementales. Según los físicos "supercuerdistas", la TSC viene a ser la simplificación natural o el mejoramiento de nuestra teoría clásica de partículas. En la actualidad, la capacidad de observación de partículas está dada sólo para aquellas que se dan a bajas energías, ya que para las partículas masivas se requieren aceleradores de una magnitud que hoy no se cuenta y tampoco son visualizables en un futuro relativamente cercano. Esto es lo que hacen atractivas a las cuerdas. Con las vibraciones de una sola cuerda, no sólo se dan partículas elementales como quarks, leptones, fotones, gluones, etc., sino que habría que agregarle un número infinito. La Teoría de Supercuerdas sería la remplazante natural de la actual estructura teórica centrada al conocimiento de la materia.

                En el marco de la interacción tradicional, dos electrones, cuando se logran juntar, uno de ellos genera un fotón, y retrocede, y se mueve en otra dirección. El compañero absorbe el fotón, se excita, y se vuelve a mover en otra dirección. El resultado de este proceso es que los electrones entran como una cosa y salen como otra. Ese proceso, que corresponde a la interacción electromagnética, puede ser explicado por la existencia de partículas livianas como los fotones que observamos en trazos de distancias largas o en trazos más cortos, pero no cercanos a la longitud de Planck, cuando visualizamos la interacción en nuestros aceleradores de alta energía.

                Ahora bien, si tuviéramos la capacidad de hacer observaciones dentro de las mediciones de la longitud de Planck (10-33 cm), la interacción que hemos expuesto la observaríamos como si viéramos a un electrón con la forma de una cuerda que se moviliza a lo largo de una especie de tubo o caño. En cualquier momento, la cuerda entubada se mueve fuera del tubo, y entonces genera una cuerda fotón, y se excita y, el otro electrón, absorbe la cuerda fotón. Así, se podría visualizar a una cuerda electrón moviéndose hacia un lado y otra hacia otro, intercambiándose una cuerda fotón. Según la Relatividad General, la masa curva a la luz.

                Una de las conclusiones consecuentes a que se llega en la TSC, partiendo de la afirmación comprobada relativista, es que, en un sentido fundamental, las cuerdas cohabitan dentro de un mayor número de dimensiones a las tres espaciales observadas. El número más preciso que se ha dado es nueve. Ya Einstein, después de haber propuesto, en la Teoría de la Relatividad General, que específicamente es la gravedad la dinámica del espacio y el tiempo, se percató que el número de dimensiones podría ser mayor a las tres que normalmente distinguimos. Podrían existir dimensiones extras en objetos muy pequeños y comprimidos.      

                   La Teoría de Supercuerdas lleva a esa posibilidad: imaginándose que las cuerdas cohabitan dentro de un espacio-tiempo de diez dimensiones. Claro que puede que no sea así, ya que sólo, hasta ahora, hemos podido observar tan sólo tres dimensiones, pero no obstante es una posibilidad. Imaginemos un mundo unidimensional que podemos describir con una sola dimensión, una sola coordenada. Un punto se movería o hacia la izquierda, o hacia la derecha. Con una sola dimensión las posibilidades son de moverse hacia a..., a lo largo de....     

                Pero alguien descubre que existía otra dimensión que se encontraba oculta. Entonces hablaríamos de un mundo semejante a un tubo o caño. Tiene una dimensión X, pero también podrían encontrarse otras. Si el tubo es muy pequeño, o si no podemos ver a distancias cortísimas, entonces siempre el tubo nos parecerá unidimensional. Pero en una observación más exacta, es factible ver que existe una forma circular y que a través del círculo es posible también moverse a su alrededor. Aquí se encuentra una segunda dimensión, con una diferencia: esta dimensión se cierra. O sea, se vuelve al mismo punto. En un objeto como un pelo; si no se observa con gran atención, es difícil detectarlo.

                La TSC señala que, al margen de las tres dimensiones que conocemos, hay otras seis que no podemos ver por que son muy pequeñas. Los físicos que trabajan con Supercuerdas afirman que, de modo singular, surgen en esta teoría dimensiones extras al intentar explicar mecanismos básicos que rigen el mundo de cuatro dimensiones (tres espaciales más el tiempo). Pero por si fuera poco complicado, se encuentran en sus cálculos con seis dimensiones más, lo que ha venido ser el tema más criticado de las Supercuerdas. "Nos gustaría trabajar con cuatro dimensiones, sería estupendo que la teoría predijera sólo cuatro dimensiones, pero no es así", dice uno de los más conocidos físicos seguidores de las Supercuerdas, Paul Townsend. La diez o más dimensiones no son algo que elijamos libremente, sino que algo que predice la teoría.

                Los especialistas en Supercuerdas afirman que surgen las dimensiones extras como una necesidad al intentar describir la historia del Universo en sus primeros instantes, cuando tenía la edad de una billonésima de billonésima de segundo y la gravedad estaba todavía unida (era lo mismo) a las otras fuerzas de la Naturaleza. Fuerzas, por cierto, como el electromagnetismo y la fuerza nuclear débil de la desintegración atómica (y esto ha sido comprobado experimentalmente) que era lo mismo en el Cosmos muy joven, aunque ahora perezcan muy diferentes.

                Con las Supercuerdas se espera encontrar una explicación para las partículas elementales, sus propiedades y sus fuerzas de interacción, explicar lo que sucede con el espacio y el tiempo a distancias muy pequeñas. Describir al Universo bajo una estructura matemática en la cual se requiere a la gravedad para su consistencia, mientras que todas las teorías físicas previas en las que está implicada la Mecánica Cuántica no son consistentes al introducir la gravedad, que es una de las fuerzas de la Naturaleza y que no se puede dejar de lado si se anhela tener una comprensión acabada.

                La idea básica en la cual se sostiene el modelo de las Supercuerdas es que, en cierto sentido, sólo hay una partícula elemental, un tipo de cuerda, como ya hemos intentado describir anteriormente, que puede vibrar y moverse en modos diferentes. Así, todas las partículas observadas (como los quarks o electrones) son diferentes movimientos y configuraciones de una Supercuerda. Por ello es que la Teoría de Supercuerdas exige que hayan dimensiones espaciales adicionales sumadas a las tres convencionales más el tiempo. Las dimensiones extras de estas cuerdas tienen que estar enrolladas en sí mismas en configuraciones muy pequeñas, de manera que no son observables normalmente. La única manera de poder verlas, si es que existen, sería en experimentos de altísima energía, muy por encima de la que se ha alcanzado con los más potentes aceleradores de partículas que hasta hoy se conocen.

                Si el Universo tenía muchas más dimensiones que ahora en sus comienzos ¿dónde han ido a para las que ahora no percibimos? La respuesta que dan los físicos teóricos es que éstas se compactaron espontáneamente, que se convirtieron en algo infinitamente pequeño. Se convirtieron en algo tan diminuto que no podemos apreciar, algo así como un lápiz que tiene tres dimensiones pero se ve como una línea (como si perdiera una dimensión) al alejarse y hacerse más y más pequeño ante nuestros ojos.

                La Teoría de Supercuerdas sugiere que la gravedad estaba integrada con las otras fuerzas de la Naturaleza al principio del Universo, cuando estaban todas las dimensiones desplegadas; luego se escondieron varias de ellas, las fuerzas se diferenciaron y el Cosmos evolucionó hacia su estado actual: cuatro fuerzas distintas en cuatro dimensiones. Lo cierto es que hasta principios del año 2001, los fundamentos teóricos que se han logrado estructurar en los distintos modelos de la teoría, distan de ser constantes y claros. Un principio físico fundamental en la Teoría de Supercuerdas, incluido el modelo M, está todavía ausente. Por ello, así no cabe más que seguirnos preguntando: ¿qué es la Teoría de Supercuerdas? En cualquier caso, es una teoría fascinante, cuyo perfeccionamiento teórico y comprobación experimental es necesario. Esperemos a ver cómo evoluciona la Física en esa dirección.                                                                                        

                            

    20.- CONTROVERSIAS DE LAS SUPERCUERDAS

                 Una de las primeras controversias sobre la Teoría de Supercuerdas en las discusiones entre físicos teóricos, es aquella en las que se subrayan diferencias con el caso del Modelo Estándar (que explica la interacción de fuerzas y partículas) y sobre el cual la Física ha sido capaz de extraer predicciones contrastables en laboratorios. En el marco de las Supercuerdas ello no ha sido posible, ya que no se han logrado hacer predicciones verificables con experimentos. Es decir, que todos los esfuerzos que se han hecho en su elaboración pueden acabar siendo un excelente ejercicio de especulación matemática. Claro que, de tener éxito, no sería esta la primera vez que un descubrimiento puramente teórico en la Ciencia de la Física acaba dando en el clavo y profundizando espectacularmente en el conocimiento de la Naturaleza.

                Uno de los problemas ligados a la Teoría de Supercuerdas es el que tiene que ver con la propia pequeñez de las cuerdas. Mientras más pequeño es algo, más difícil es de ver. Y estas Supercuerdas son tan pequeñas que no hay esperanzas para hacer experimentos que nos puedan acercar a sus dimensiones. Sin experimentos no se pueden hacer comprobaciones de sus predicciones ni saber si son correctas o no. Pero cada día se hace más insostenible su consideración sustentándola, tan sólo, con los fundamentos de un muy bien elaborado pensamiento teórico con el soporte de bellas ecuaciones matemáticas, o con algunas verificaciones experimentales que, para este caso, vienen a ser como indirectas, llámese Helio-3 y su superfluidez o algún otro.

                En esta teoría, hay problemas que se encuentran dentro de los enunciados de sus propios conceptos. Para desarrollar su formulación es necesario apelar al menos a diez dimensiones y, en algunos casos, se han llegado hasta un número de veintiséis: espacio (3), tiempo (1) y a ellas se le agregan seis más como mínimo, que parecen estar enroscadas, invisibles para nosotros. Por qué aparecieron estas dimensiones adicionales a las cuatro que nos son familiares y por qué se atrofiaron en algún momento, no lo sabemos. También, la teoría tiene decenas de miles de alternativas aparentemente posibles que no sabemos si son reales, si corresponden a miles de posibles Universos distintos, o si sólo hay una realmente posible. En algunas de sus versiones se predice la existencia de 496 "fuerzones", partículas como el fotón, que transmiten la fuerza entre 16 diferentes tipos de carga como la carga eléctrica. Afirmaciones como éstas, no comprobables por la imposibilidad de hacer experimentos, son las que plagan a la teoría de una multiplicidad de subteorías de cuerdas.

                Ahora, las explicaciones más frecuentes que se dan para lo anterior, es de que los problemas surgen porque esta teoría se adelantó a su tiempo y no existe aún la estructura matemática consistente para formularla adecuadamente. En Cosmología, las partículas exóticas no sólo hay que proponerlas, es necesario también comprobar su existencia en experimentos de laboratorio y/o en observaciones. La carencia de esa estructura matemática ha sido uno de los inconvenientes más serios que afrontaba, y todavía lo es, la TSC, y ello radica en las dificultades que presenta para hacer cálculos detallados. Sin embargo, en los últimos años, en alguna medida, especialmente después de la reunión de físicos teóricos cuerdistas realizada en Madrid, en el año 1995, el problema se ha venido soslayando, ya que a través de el desarrollo de un conjunto de nuevas herramientas, se ha logrado superar, en parte, las limitaciones matemáticas de la teoría.

                Esas herramientas son las dualidades, que vienen a ser como una especie, si se puede llamar así, de diccionario unificador que permite a los físicos "traducir" sus cálculos realizados en marcos teóricos asequibles a los modelos conocidos a marcos en que lo convencional no funciona. Es como si sabiendo calcular la electricidad y no el magnetismo, al descubrir que ambas fuerzas son dos caras de la misma moneda, se traducen las cantidades de una a otra, haciendo abordable el problema. Hasta ahora, ninguna propuesta de la Teoría de Supercuerdas ha podido ser contrastada con hechos experimentales y, mucho menos, observacionales. Sus logros sólo han podido ser comprobados en los correspondientes archivos informáticos y pizarras de los despachos de los matemáticos. Ellos han demostrado una serie de conjeturas matemáticas que surgen de manera natural de la TSC. Ahora bien, ello también ha implicado que se haya venido generando una coincidencia o relación entre distintas estructuras matemáticas, de las que ni se sospechaba su existencia, y han servido de motor e inspiración para algunos matemáticos.

                La interpretación de los cálculos que se realizan, describe un objeto tan diminuto, como las Supercuerdas, que querer imaginarlas es como querer imaginar un punto matemático: es imposible. Su calculada pequeñez las hace inimaginables. Por hacernos una idea: la Tierra es 10-20 más pequeña que el Universo y el núcleo atómico es 10-20 veces más pequeño que la Tierra. Pues bien, una supercuerda es 10-20 veces más pequeña que el núcleo atómico. Es indudable que se trata de una teorización matemática que expuesta al sentido común de la gente se hace casi "indigerible", o poco realista. A los especialistas en Física teórica les pasa lo mismo. La Física que hoy se maneja se hace cada vez más distante de la generalidad de los seres humanos, ya que no es tan sencilla como la de antaño, no sólo por que la descripción matemática de los fenómenos naturales se haya vuelto más complicada, sino porque resulta cada vez más difícil de imaginar. Esto se debe a que cada vez nos alejamos más y más de los objetos de nuestra experiencia cotidiana.

                Con la Teoría de Supercuerdas se ha llegado a un punto de abstracción que cuando nos zambullimos en su estudio y cálculos se llega a un momento en que la cabeza parece estallar, no por asombro, sino que por las incertidumbres que llega a concitar. Se parte con esperanzas y en el camino afloran, no ya frustraciones, sino inquietudes, ya que se va generando la sensación de que los resultados de los esfuerzos que se están realizando, nunca podrán ser comprobados. Es cierto que en los procesos de hacer Ciencia no se ha establecido como requisito que las teorías que se elaboran deban ser comprobadas fácilmente: de ello los científicos, por formación, son muy conscientes. Pero la mera especulación intelectual, limitada para ser experimentada en el tiempo, tampoco es muy útil, ya que dejaría de ser considerada inserta dentro de los rangos de las exigencias consuetudinarias de lo que llamamos hacer Ciencia.

                Es aceptable considerar que aún la Teoría de Supercuerdas no ha alcanzado un desarrollo suficiente en el cual sus pronósticos puedan ser contrastados con experimentaciones en los actuales aceleradores de partículas. Pienso que aún se encuentra lejos de una maduración matemática que permita precisar cuáles son sus predicciones. Los cálculos son bellos, pero sumamente difíciles. En la TSC, se encuentran involucradas las fuerzas fuertes de una manera tal que, antes de comenzar, comúnmente ya se encuentra limitadas las actuales capacidades humanas para calcular. Hay importantes pasos a realizar para poder aprender cómo llegar a inferir cálculos predecibles y poder ser comprobados experimentalmente.

                Es posible que para algunos sea inadmisible que se encuentre en el tapete de las discusiones de Física teórica una teoría que todavía no precisa sus predicciones con una comprobación experimental. Sin embargo, por las trayectorias que ya han experimentado las Teorías de Cuerdas, no reúnen aún los méritos como para ser consideradas acientíficas, o meros ejercicios de matemática abstracta. Por ahora, se puede señalar que parece ser que los físicos cuerdistas han ido más allá de los umbrales matemáticos aconsejables, con saltos de pasos que algún día deberán dar. En el mundo de la Física existen detractores de las Supercuerdas de la talla de genios como Richard Feynman, quien acerca del trabajo de los teóricos de las Supercuerdas, afirmaba en una entrevista poco antes de morir, en 1988: "No me gusta que no calculen nada, no me gusta que no comprueben sus ideas, no me gusta que, para cada cosa que está en desacuerdo con un experimento, cocinen una explicación, un arreglo para decir: bueno, todavía podría ser verdad".

                La Teoría de Supercuerdas es relativamente joven aún y durante su existencia ha mostrado una alta propensión a ser enfermiza. Surgen problemas, y se la deja de lado; se solucionan los problemas y una avalancha de trabajos resucitan la esperanza. En sus cerca de treinta años de vida, este vaivén ha ocurrido más de una vez. Antes que Feynman hiciera los comentarios anteriormente citados, ya había dicho que él era ya un físico de bastante edad y que ello, a lo mejor, era la causa de su resistencia a las ideas nuevas, como algunos de sus maestros se resistían ante los profundos cambios conceptuales registrados en la Física cuando él era joven.

                Las Supercuerdas, dicen sus defensores, integrarían la Física actual como la Teoría de la Relatividad de Einstein integró la gravitación de Newton, explicando que sólo era un caso (el de nuestra escala del Universo) de leyes más profundas y generales. Los matemáticos encuentran interesante esta teoría porque las dimensiones extra pueden tener geometrías muy complicadas y hay toda una rama matemática dedicada a explicar sus propiedades.

                Por ahora, es más lógico estudiar y observar el desarrollo de estas ideas teóricas cuerdistas como una consecuencia estética y grata en la consecución de una simple y definitiva teoría unificadora que reúna todos los requisitos necesarios para que pueda ser contrastada con pruebas experimentales. No sé si se ha llegado a un límite en que la abstracción matemática sea una ayuda o una pesadilla para los físicos. Se quiere simplificar las cosas y, al final, se hacen más incomprensibles y complejas. Ya convertimos la gravedad, la fuerza electromagnética y las fuerzas nuclear fuerte y débil en campos. La gravedad, que no sabemos qué es, pero que hace caer una piedra, ha pasado a ser algo mucho más abstracto que lo propuesto por Newton: un campo, una modificación de la estructura del espacio que nos rodea. Como nos movemos dentro de ese espacio, su estructura nos influye y nos hace actuar de cierta manera. Por eso caen la piedras, porque seguimos la forma del espacio.

                Para la mayoría de los humanos, este nivel de abstracción les parece que se trata de algo muy difícil de llegar a comprender. Pero ese sentimiento empeora cuando se pasa al siguiente nivel. Se trata de aquel que es considerado como los grandes almacenes de la Física teórica: el objeto de estudio son los grupos de simetría mediante los cuales se relacionan esos campos y las partículas. Recordemos que hay una simetría cuando se le hace algo a un objeto sin que este cambie. En el tercer nivel, se pasa a la interpretación de los grupos de simetría como estado de un espacio, no de tres dimensiones más el tiempo, sino de diez más una. Y en el cuarto, el mayor del nivel de abstracción, se encuentra el mundo donde vive el constituyente fundamental de la materia: las Supercuerdas. Estos objetos definen a través de su comportamiento esos estados que provocan la aparición de los grupos de simetría, que a su vez relacionan la fuerza con la materia, y que al mismo tiempo explican la interacción de las partículas subatómicas y el comportamiento de los átomos.

                Al final, se trata de explicar todo y, a su vez, complicar todo. Por ello, decir que una supercuerda es un diminuto objeto vibrante que cohabita en un espacio con más dimensiones de simetría peculiar que el conocido tetradimensional es, prácticamente, no decir nada. Hasta principios del año 2001, la premisa que se habían colocado los físicos de contar ya con una simple y gran teoría unificadora de las cuatro fuerzas, no se ha cumplido. Es posible que dentro del primer cuarto del siglo, el intento culmine con un final feliz. Pero también es probable que no encontremos esa anhelada teoría, sino sólo una multiplicidad de teorías, cada vez más bellas y mejores.

                Por ahora, lo cierto del caso es que, a pesar de algunas luces y pequeños éxitos, lo único firme y coherente es que el mundo se puede armar a partir de sesenta y dos objetos puntuales cuyo origen desconocemos. Si se alcanzara algún día el objetivo de obtener todas las partículas y sus propiedades a partir de principios de simetría o de alguna cuerda única, por ejemplo, habríamos encontrado un nuevo nivel donde se concentra lo más elemental. Ya no serían los átomos, ni tampoco las partículas puntuales mismas, sino las simetrías o la cuerda. ¿Habríamos terminado? Es más que probable que no, pues nos preguntaríamos entonces de dónde salen esas simetrías o esa cuerda, y muy probablemente, su estudio en detalle nos mostraría que, en realidad, hay más complejidad que la que aparecía a simple vista. La historia nos muestra que éste parece ser un camino sin final, y que cada vez que simplificamos las cosas, nuevos niveles de complejidad aparecen como fantasmas que están siempre acechándonos a la vuelta de cada esquina.                                                                                                                 

                                                                                                        © 2002 Javier de Lucas