Por más presuntuoso que resulte hablar de teorías finales o definitivas, tanto para la materia como para la naturaleza, no por ello deja de ser el telón de fondo del conjunto de la investigación científica, su objetivo y su motor. Tras años de exagerado optimismo en que algunos creían tener a la vista la solución de los problemas fundamentales, la física está entrando rápidamente en un nuevo periodo de crisis de consistencia del que nadie sabe cómo va a salir; entusiastas como Hawking o Weinberg, que especulaban con el cierre de la disciplina en cuestión de decenios, prefieren hablar ahora en plazos de siglos, aunque sólo sean uno o dos. Tal vez esto parezca más prudente y más sensato, aunque después de todo no deja de responder a una idea muy determinada y personal de la física y de los problemas que debe resolver: la que han seguido ellos mismos.

Los problemas inmediatos que ahora mismo afronta la física y colateralmente otras disciplinas, tienen una profundidad suficiente para no tener que preocuparnos de lo que pueda suceder en el siglo veintidós o veintitrés; bastaría resolverlos para encontrarnos con un panorama por completo diferente. Bastaría resolverlos, y ciertamente no es poco, para saber qué implica una teoría final. Lo cual, por supuesto, es algo muy distinto que poseerla. Abordo esta prospectiva a corto y medio plazo desde un ángulo generalizado –espero que no demasiado- no sólo por desconocimiento y limitaciones evidentes, también por la dinámica interna de su evolución, que escapa cada vez más al propósito en el que intentan autodeterminarse las distintas disciplinas y especialidades. Tomemos por ejemplo los tres grandes ámbitos de la física actual, el de lo muy grande, el de lo muy pequeño y el de lo muy complejo; es notorio que para describir la realidad no es posible prescindir de ninguno de ellos, y que de momento son ampliamente irreductibles.

¿Podemos adscribirlos sin más a la física clásica, la cuántica y las teorías evolutivas y de la complejidad? En parte, tal vez, aunque bien pronto advertimos los solapamientos: la mecánica clásica englobada en la relatividad afecta tanto a dimensiones grandes, cosmológicas, como a la mayoría de fenómenos mesoscópicos a los que estamos más acostumbrados, incluyendo los sistemas complejos. La extensión máxima de la relatividad, las ecuaciones de campo de Einstein, describen universos posibles enteros, que implican un curso evolutivo y complejo, inestable e irreversible para la mayoría de los casos reales, si no todos.

Por otro lado, todos los casos extremos de la cosmología y la relatividad conducen naturalmente a un autocolapso de la teoría que tiene que apelar a la estructura más fina de la energía y la materia, formulable sólo en términos cuánticos, ya sea para los campos escalares o para la teoría cuántica de la gravedad. La longitud emerge entonces como el grano fino irreductible que decide sobre la estructura del espacio-tiempo y todo lo que contiene: el reduccionismo en el sentido más fuerte remite naturalmente a la escala de Planck como a su verdadero non plus ultra. Es en concreto con respecto a esta orientación que suele hablarse de teorías finales o “teorías del todo” (para molestia de unos y otros), y es en esta dirección, que ahora eventualmente asociamos con las teorías de cuerdas y membranas, que puede hablarse de alguna manera de una esperanza de una teoría, si no omnicomprensiva, sí definitiva en cuanto unívocamente determinada.

Las leyes más generales así obtenidas serían el marco de restricciones para todo lo demás; la máxima comprensión se reduciría a la máxima compresión del cuerpo de ecuaciones, que presumiblemente ajustaría y daría buena cuenta de todos los parámetros libres, dejándonos ante una verdad autosuficiente y técnicamente aislada, bien difícil de imaginar por lo demás.

Es muy interesante esta dirección, en primer lugar, porque sin duda tiene todavía grandes potencialidades, ilusión mancomunada, elevado nivel técnico y cosas esenciales por descubrir; y en segundo lugar, porque no cree en que haya el menor peligro en que las cosas queden determinadas en un solo nivel, ni siquiera para un solo nivel, si es que tal cosa existe. Por otra parte, la mecánica cuántica y sus extensiones de campos tienen la singular virtud de soslayar el caos determinista clásico dado que cualquier condición inicial ya es de por sí probabilística, de modo que hablar de “caos cuántico” se antoja por principio dudoso. Así, las leyes cuánticas de campos en su desvelamiento sucesivo parecen ser el escenario privilegiado para dar cuenta de los fundamentos de los otros ámbitos. Ocurre sin embargo que las mismas fuerzas y partículas tienen que apelar a un contexto temporal y cosmológico para su origen y diferenciación, y ello tanto por orientarse hacia la escala de Planck (que incorpora por definición la gravedad) como por necesitar, dentro del modelo estándar, un campo de referencia para las masas, el famoso campo escalar de Higgs.

Desde Einstein y su introducción del Principio de Equivalencia hemos aceptado que la masa inercial y la gravitatoria son exactamente iguales, pero como veremos más adelante, incluso esta verdadera piedra de toque para toda la física está planteando recientemente dudas. De cualquier modo, la misma cosmología como evolución y flecha del tiempo puede reivindicar hasta cierto punto su primacía, y cada vez está menos claro, tanto en la teoría como en la investigación operativa, cuál determina a cuál, si la mecánica cuántica a la evolución del cosmos o ésta última a la primera. Naturalmente, es obligado pensar en una convergencia.

Así, la teoría general de la relatividad, que experimentó sus primeras incertidumbres en virtud de su extensión cosmológica, recobra por la misma el único ascendiente autorizado sobre la física cuántica. Pero, ¿y qué se hizo del tercer ámbito que habíamos convenido en considerar, el de los fenómenos complejos por su evolución temporal, el de la termodinámica y la irreversibilidad? Pues que también puede reivindicar su prioridad justificadamente, siendo como es el universo el sistema más irreversible de todos, a parte del primero: siendo la idea de un final o un principio la idea misma de la irreversibilidad. Y así, algunos incluso pretenderán que toda mecánica, ya sea clásica o cuántica, es un puro resultado aleatorio de ciertas condiciones de inestabilidad.

Hay en este juego a tres bandas una mezcla indecidible de colaboración y de voracidad: todos quieren fundamentar a los otros, pero todos se apoyan en los resultados que las otras disciplinas han conseguido precisar. Esta endiablada dinámica, y lo que implica, es el tema de este ensayo. Veremos precisamente cómo los problemas más profundos que las distintas disciplinas están ahora en condiciones de abordar distribuyen su complicidad en este triple tablero.

Empecemos por algunos problemas surgidos dentro de ámbito de la relatividad, que siendo por cierto la mejor establecida de estas teorías, es también la menos voraz, lo cual no deja de ser lógico. El descubrimiento a finales del 98 de una ralentización en la velocidad de recesión de supernovas lejanas ha forzado a cosmólogos y astrofísicos a retomar la constante cosmológica que Einstein introdujo para estabilizar el modelo de universo surgido de sus ecuaciones de campo: ahora mismo hay pocas dudas de que la expansión del universo se está acelerando, puesto que en las galaxias de fondo la tasa de expansión es menor. Esto ha roto todos los esquemas y escenarios a pesar de que con anterioridad la constante cosmológica no había sido totalmente descartada, sino más bien ignorada por la gran probabilidad de que su valor fuera cero. Einstein introdujo –con harta mala conciencia- una presión negativa, conocida como tensión lambda, que tenía un efecto gravitatorio repulsivo y que se igualaba exactamente con la gravedad a grandes distancias, con el objeto de obtener un universo estacionario y evitar singularidades y densidades infinitas; curiosamente, fue Newton en esto su modelo, quien por su parte había apelado en vano a la infinitud misma de un espacio absoluto con la esperanza de evitar el colapso gravitatorio general.

Ya en los años veinte Friedmann y Lemaître advirtieron que ningún ajuste realista de la tensión lambda podía evitar la inestabilidad. Ahora los físicos parecen tener una idea bastante más clara de qué significa ese término lambda que por tanto tiempo mantuvo un estatuto tan dudoso: la tensión lambda no es otra cosa que la densidad de energía del vacío. Lo cual por lo demás no ayuda demasiado, puesto que nadie tiene la menor idea de cómo se “pesa” el vacío, esto es, cuál ha de ser el sistema de referencia para medir su densidad. Para muchos, este es el problema número uno que afronta la física teórica. Al contrario que la gravedad y para compensarla, la tensión lambda debería aumentar proporcionalmente al cuadrado de las distancias, de modo que si medimos el radio del universo en longitudes de Planck y consideramos que es en torno a estas magnitudes cuando ha comenzado a igualar y superar la influencia global de la gravedad para tomar el mando entre la fuerzas, llegamos a la conclusión de que su valor inicial ha tenido que ser algo tan ínfimo como 10 -120 por encima de cero. Esto es verdaderamente increíble, puesto que nos obliga a considerar que la fuerza que ahora está impulsando el universo ha surgido de un valor casi completamente despreciable.

También es casualidad que sea justamente ahora, dentro de la enorme escala logarítmica del tiempo cósmico, que la fuerza lambda empiece a superar el carácter atractivo de la gravedad. Los niveles de exactitud de las mejores teorías, la relatividad general o la electrodinámica cuántica, entre los diez y los catorce decimales para los casos más afortunados, son más que insignificantes frente a tales grados de sensibilidad. A uno le dan ganas de buscar órdenes de magnitud similares en cualquiera de nuestros espectros de medida, aunque nada tuvieran que ver, simplemente para tener alguna idea. Por ejemplo, Paul Davies conseguía ya en 1990 una medida de la capacidad de información del cosmos reducida a bits en términos de la entropía de Bekenstein-Hawking, I, cuyo valor es precisamente 10 120, y Penrose, fundándose en la misma fórmula y en el número bariónico, obtenía en 1989 una entropía para un hipotético big crunch de 10 123, sorprendentemente parecida.

Otra mera asociación de magnitudes que se nos ocurre es el radio inverso al del universo en longitudes de Planck que se utiliza en teoría de cuerdas, 1/R, 10-60 , para la densidad de energía de las dimensiones adicionales compactadas; si pensamos esto en el contexto de algunas de las MONDs (dinámicas newtonianas modificadas) sobre las que tendremos ocasión de volver, y que suponen una proporcionalidad inversa simple en vez de una de cuadrados inversos, tendríamos un eje que atraviesa toda la escala en 120 órdenes de magnitud. Por supuesto, esto no deja de ser pura numerología en el mejor estilo de Eddington, pero nos ayuda a imaginar un poco la inmensidad de los grados de libertad que tienen las teorías por explorar, cuánto podría todavía caber dentro, o al fondo, como hubiera dicho Feynman, aun remitiéndonos a la escala de Planck, de cuyo valor absoluto también hay motivos para dudar.

La fuerza lambda fue introducida por Einstein como adición a la parte geométrica de su ecuación de campo; fue Lemaître quien la pasó al otro término como masa y energía negativas para darle un sentido material. Es esta la interpretación que prevalece cuando ahora se habla de energía negativa, sin duda por la prioridad que se le concede a la física cuántica sobre la relatividad, aunque por otro lado es bien sabido que también la energía de un campo gravitatorio es negativa. Para colmo y como contrapunto tenemos el rompecabezas de la llamada materia oscura, pero de inequívoco efecto positivo. La materia oscura nos pone ante una neta disyuntiva: o bien pensamos en objetos materiales por ahora inapreciables o bien asumimos que algo no funciona en la teoría de la relatividad. Como comprensiblemente nadie quiere prescindir de esta sólida y maravillosa teoría, la mayoría de los físicos prefieren apostar por lo primero. Entre los objetos inapreciables podemos ir descartando objetos grandes de espectro débil, como enanas marrones y agujeros negros.

La otra alternativa razonable son las partículas masivas de interacción débil, las WIMPS, presumiblemente partículas supersimétricas remanentes de los tiempos de las altas energías. Pero aunque estas partículas y cuerdas pudieran perfectamente existir, hay una objeción contra ellas absolutamente contundente y cuyo peso no cabe ignorar: la interacción gravitatoria está difundida uniformemente en todo el volumen de las galaxias, y si queremos respetar el principio cosmológico habría que admitir que también nosotros estamos en ella y también nuestro pequeño sistema solar, con lo que la regularidad gravitatoria que observamos sería simplemente un milagro. Estamos hablando de una masa al menos diez veces superior al conjunto de las que observamos. Esto obliga a tomarse en serio algunas teorías alternativas de la gravedad, por más justificada que haya estado la resistencia.

Tomemos por ejemplo la MOND propuesta por Mordehai Milgrom ya en los años ochenta para hacer frente a este mismo problema. Milgrom adopta una constante con dimensiones de aceleración de 2x10-8cm s-2 ; más importante todavía es que rechace el principio de equivalencia de la relatividad general, al que denomina Principio de Equivalencia Fuerte (PEF), en beneficio de un Principio de Equivalencia Débil en que las masas gravitatorias e inerciales son solamente proporcionales, en vez de exactamente iguales como postula por necesidad la teoría general de la relatividad. Milgrom defiende su postura aduciendo que las evidencias experimentales sólo avalan el principio de equivalencia débil, y que el principio fuerte sólo está justificado por sus éxitos en el contexto general. Se justifica entonces el nombre de dinámicas newtonianas modificadas, por su incompatibilidad más que aparente con la relatividad, y es por esto que se han sugerido una serie de pruebas que cualquier teoría alternativa debiera superar ateniéndose a los datos contrastados.

¿Pero acaso no deben pasar todas por pruebas? Ya en los años ochenta comenzó a apreciarse una desviación o anomalía en las señales que a la Tierra enviaban las sondas Pioneer, ahora a treinta años y doce mil millones de kilómetros de su punto de lanzamiento. Tras muchos años de criba cuidadosa de todos los posibles factores, ha quedado confirmado el hecho de una aceleración positiva neta de las señales con respecto a nuestro planeta, del orden de una cienmillonésima de cm/sg2 O bien lo atribuimos a una fuerza que se manifiesta a grandes distancias, como lambda, o bien aceptamos, una vez más, que algo no funciona del todo en nuestra aplicación de la relatividad. Ambas cosas podrían sin embargo ser compatibles, lo cual no significa en absoluto que tengamos que prescindir de la relatividad.

El problema de la relatividad no es que no sea fundamentalmente correcta, ni tampoco el generalmente aducido de su colapso en la longitud de Planck. El problema de la relatividad es seguramente la absolutividad de su aplicación, que nadie ha sabido cómo superar desde la formulación original por su autor. Pero pasemos por un momento a la física de partículas y a los problemas de compleción para la teoría estándar. La teoría estándar de campos y partículas es la otra joya de nuestro conocimiento científico del mundo, a pesar de que muchos, cuando oyen hablar de las listas de partículas y de procedimientos tales como la renormalización, estén tentados a pensar que se trata de un puro batiburrillo.

Antes que nada, habría que decir que estos métodos de cálculo se hubieran revelado imposibles de no haber existido unas perfectas simetrías entre las familias de partículas que hacen posibles las mutuas cancelaciones. Esto significa que el modelo estándar es, indudablemente, un descubrimiento de la materia y de la naturaleza en el sentido más sustancial, puesto que si la naturaleza no hubiera exhibido seis quarks y seis leptones con sus correspondientes emparejamientos e interacciones, simplemente no habría teoría. A medida que se conseguían energías más altas, podían haberse obtenido infinitas combinaciones de partículas aleatorias que hicieran imposible toda predicción; aunque el carácter empaquetado de lo cuántico nos hace suponer que no podría ser así. Es en ese sentido que puede hablarse legítimamente de joya, y bastante bien pulida. Otra cosa muy distinta es saber por qué esto es así.

Pero la clave de esta joya es el modelo de Yang-Mills, la matriz de las posteriores teorías de campos. Los campos de Yang-Mills, campos de referencia, están originalmente construidos con tres campos eléctricos y otros tres magnéticos, para un campo potencial vector de doce componentes. Ahora bien, el potencial 4-vector desde el que han sido modelados es un no observable, esto es, no nos indica los valores absolutos del potencial, sino su diferencia, de modo que admite infinitos valores con tal de que se conserve dicha diferencia. Se trata de una extensión de lo que ocurre en las teorías de campos más antiguas, como la diferencia de voltaje en el electromagnetismo o las coordenadas espacio-temporales en la relatividad: las llamadas invariancias gauge y sus transformaciones.

Aunque la idea de fondo es muy simple, no lo son las ecuaciones, cuyas formas están todavía lejos de estar resueltas: es decir, no se sabe lo que representan, y es sólo por esto que los físicos adoptan a la fuerza una actitud abstracta sobre el tema, por más que uno esté obligado a pensar que aquí hay mucho más que un artificio formal y que tiene que haber algo muy real y concreto velado por esta misteriosa simetría. Aquí sería más oportuna que nunca la afirmación de Weinberg de que a los físicos les cuesta tomar en serio sus propias teorías. Además, estas teorías de campos no abelianas son específicamente locales, pero el verdadero sentido de su localización, la introducción de las masas, está formulado en términos de agujeros de masa, (mass gaps), así que ya vemos a dónde va a parar la localización en los bien llamados campos de referencia: al campo escalar de Higgs, que es el campo de la referencia verdadera.

Un campo escalar es un campo sin dirección intrínseca (por eso se le da un espín 0); la única dirección que se le puede adjudicar es la de su curva de densidad de energía, su gradiente o paisaje de potencial . El mecanismo de Higgs o mecanismo para las masas se intenta describir en términos de fricción o de condensación: las partículas conocidas reaccionarían ante esta energía del vacío, bien “comiéndose” un porción del campo y engordando, mientras que otros prefieren la ilustración de las partículas andando por un río con botas de agua y encontrando diferente resistencia en función de su profundidad. Siguiendo un poco en broma, cabe imaginar que el bosón de Higgs sea un acomodador de cine descendiendo por la rampa a oscuras y sentando en sus respectivos asientos a todos los leptones y los quarks; lo malo es que no sabemos si hay que pagarle antes, o después.

El tremendo enigma del campo de Higgs no empezará a despejarse hasta que entre en funciones el LHC, el colisionador de hadrones de Ginebra, allá por el 2006 –ahora el 2007- dentro de menos de cinco años. Algunos incluso han creído que esta apoteosis sólo será un trámite o expediente para coronar la teoría estándar y dirigirse aceleradamente a los campos más excitantes de las altas energías, rumbo a la escala de Planck. No hace falta correr tanto: la física desconocida empieza precisamente ahí, en el campo de Higgs, o de otro modo tendríamos muy claro cómo funciona, lo que no es el caso. El umbral de Higgs es todo menos un trámite. De hecho, es tanto una prueba para vislumbrar lo que hay más allá del modelo estándar, como una forma de comprender qué es el propio modelo estándar, y no sólo sobre qué está engastado. Aunque esto sea demasiado obvio, muchos especialistas no lo perciben así. No sólo no sabe nadie cuál pueda ser el mecanismo de masa para el Higgs, sino que su misma posibilidad entraña serias dificultades.

La masa simple de la partícula de Higgs, su excitación de campo, podría ser aproximadamente unas mil veces la del protón, o también inferior, pero en todo caso no puede estar más allá del rango de energías que alcanzará el LHC, del orden del teraelectronvoltio (en los primero años se conjeturaba que su masa podía ser mucho menor, no más de sesenta veces la del protón). Pero las fluctuaciones cuánticas podrían afectar enormemente a este tipo de partícula, por lo que su masa podría “deslizarse hacia arriba”, en dirección a la gigantesca masa de Planck; para que esto no suceda su valor tendría que estar ajustado con una improbable precisión de 10-15 , una amplitud de una milbillonésima.

En relación con esto, queda la perplejidad de cómo este campo que llena el vacío no tiene la menor interacción gravitatoria, o apenas, y Andrei Linde y otros han probado que la presencia de un campo tal debería provocar, en principio, un completo colapso gravitatorio de no existir esta clase de ajuste improbable, o incluso mayor, según las condiciones (hay que recordar que es en el umbral del Higgs donde la mecánica cuántica tomará contacto por primera vez con la teoría de la gravedad de Einstein). Esto no impide nada, puesto que se supone que el campo de Higgs es en realidad una combinación de distintos campos, cuatro como mínimo, y puede haber un gran número de combinaciones que arrojen los valores deseados. Todo el modelo estándar tiene un característico ajuste fino de sus constantes con un improbable equilibrio para que campos y partículas sean lo que son, y la cuestión es saber si los campos escalares pueden ayudar a explicarlo algo, y en qué grado; aunque éstos también requieran un ajuste, éste debería ser complementario de los valores arbitrarios de las transformaciones gauge de los campos conocidos ( recordemos también que la densidad de probabilidad de un bosón escalar no puede hallarse por la operación del cuadrado del módulo que tan típicamente caracteriza a las funciones cuánticas). Por otro parte, los mismos campos escalares, más todavía que el resto de posibles bosones a altas energías, pueden proliferar sin cuento e implementarse como mecanismos ad hoc con amplísima arbitrariedad.

Tenemos por un lado un álbum vacío, y por otro una ordenada colección de cromos, pero nos falta todavía el pegamento y sucede que ese pegamento puede ponerse tanto por el revés de los cromos como sobre las páginas en blanco. Los campos escalares suelen compararse con el calor de una habitación. Se requieren campos escalares para las masas por la sencilla razón de que la masa es una magnitud escalar. En realidad, lo del calor es algo más que una mera analogía, y no hay más que ver que todo el lenguaje tentativo con el que se habla de estos campos, con términos como ruptura de la simetría, fricción, condensación, gradiente o densidad de energía, no es sino el lenguaje de la termodinámica, de la temperatura y el calor. El mismo concepto del campo de Higgs surgió de la física de las bajas temperaturas, y de las propiedades que exhiben los llamados condensados de Bose-Einstein, cuyas matemáticas son muy parecidas a las de física de partículas. Hay que hacer notar que los condensados de Bose-Einstein, como los superconductores, también pueden asumir estados macroscópicos, no menos que los de la termodinámica.

¿Qué pueden encontrar los físicos en Ginebra cuando se ponga un funcionamiento el nuevo colisionador? A medida que se han ido elevando las energías, la secuencia de masas para las partículas a empezado a desviarse de las predicciones; el último de los quarks, el cima, arrojó una masa muy superior a la esperada. Algunos temen que nos estemos acercando a un sustrato aleatorio: en tal sentido, el umbral de Higgs sería precisamente un límite termodinámico. Naturalmente, es de esperar que ciertas propiedades cuánticas, como la indeterminación de posiciones y momentos, se conserve: pero uno tiene la opinión de que el principio de indeterminación de Heisenberg no es específicamente cuántico, sino universal, y que lo único que no se produce en el mundo macroscópico son los fenómenos de interferencia. Por otra parte, algunos han aducido que incluso la masa podría necesitar un tiempo mínimo para manifestarse, y que precisamente en este rango de energías, con distancias y tiempos cada vez más cortos, podría dejar de manifestarse.

Naturalmente, si no existiera el bosón de Higgs no habría por qué interpretarlo como un fracaso: sería por el contrario la más sensacional de las noticias. De lo que si está todo el mundo seguro, lo único en lo que todos coinciden, es de que algo tiene que pasar en ese rango de energías: sea lo que sea el campo de Higgs, es desde luego un umbral. También la confirmación de que los neutrinos tienen una masa de conjunto, aunque de momento sólo sea una correlación estadística, nos muestra que el problema de las masas no es menor. ¿Y que pasaría si alguna de las clases de neutrinos no tuviera masa, y sólo la consiguiera a través de las fluctuaciones hacia sus otras familias? Incluso esto no parece imposible. Además, ciertas “fluctuaciones” podrían no ser sino transiciones de fase, otro expresión de la termodinámica cada vez más omnipresente en la física de campos y partículas. Los campos escalares son también el mecanismo único de las teorías cosmológicas de inflación: si éstas han proliferado ha sido justamente por la versatilidad de tales campos.

Alan Guth partió del campo de Higgs de las teorías de gran unificación SU(5) que intercambiaba los quarks y los leptones; esta teoría requería en realidad no menos de veinticuatro campos escalares conjuntos. Más tarde se vio que por problemas de ajuste el campo inflacionario no podía ser el mismo que está detrás de la ruptura de la simetría y que su diagrama debería ser más plano, pero en lo esencial se trata del mismo mecanismo y lo único que varía es el gradiente, la curva de densidad de energía. Más aún, el falso vacío del campo escalar tiene exactamente el mismo efecto repulsivo que la fuerza lambda de Einstein, con la diferencia de que el primero sólo duraría un ínfimo instante, mientras que la tensión lambda es permanente.

Sabido es que los neutrinos de la fuerza débil violan la simetría de paridad, P, de modo que tienen una quiralidad o dirección de giro definido que no tiene equivalente especular (tienen una asimetría espacial). Los neutrinos y la fuerza débil respetan sin embargo el grupo de simetría más amplio CP, de carga conjugada (materia-antimateria) y paridad. Luego tenemos los kaones neutros, mesones con un componente de fuerza débil que van aún más lejos, puesto que violan ínfimamente también la simetría CP de carga-paridad, de modo que la materia y laantimateria no son del todo simétricas. Cuando Cronin recibió el Nobel por este descubrimiento realizado en 1964 –justo en plena incubación del campo de Higgs- , dejó constancia de su esperanza de que “en alguna época, quizás lejana, este críptico mensaje de la naturaleza sea descifrado”. Empero todas las partículas englobadas en la teoría estándar respetan la simetría conjunta CPT, siendo T la simetría de inversión temporal, o dicho de otro modo, la reversibilidad.

Pues bien, es muy probable que los campos escalares que tan dóciles consideramos, violen, en conjunción con las partículas implicadas, la simetría de reversibilidad temporal, y el teorema CPT, uno de cuyos supuestos es la covarianza de Poincaré. Después de todo, la curva de los diagramas de densidad no es sino una cuesta de tiempo: de tiempo de verdad, termodinámico e irreversible, no el de nuestros bonitos simulacros. Esta sería la verdadera bomba del Higgs, que además resultaría plenamente consecuente con todos los antecedentes de esta larga historia. ¿Cómo afectaría esto a la supersimetría, la columna vertebral de las teorías de cuerdas y membranas para aventurarse más allá del modelo estándar? Es muy difícil saberlo, pues también la irreversibilidad puede tener toda la estructura del mundo, y tiempo habría de ver qué y cuánto pueda ser aleatorio.

Desde luego, parece demasiado absurdo que en todo ese enorme desierto hasta la escala de Planck no crezcan las flores y sólo haya amorfo “calor”: tampoco podría existir la pura densidad de energía, o de temperatura, sin volumen ni presión que los contenga. Pero no hace falta pensar en términos tan burdos. Es cierto que una violación CPT tendría que desbaratar la supersimetría, pero aún podría tener sentido gran parte de ella si se dieran ciertas condiciones; la supersimetría es un principio demasiado amplio para como para reducirlo a unas determinadas condiciones restrictivas.

Ahora la supersimetría ha llegado a ser una herramienta tan preciosa que sin ella apenas tiene sentido preguntarse sobre qué hay más al fondo y a energías más altas: son la cadena áurea derecha hacia la escala de Planck, aunque sea esto mismo la que la hace tan sumamente condicional. Por ejemplo, los escasos cálculos que se han conseguido sin necesidad de métodos perturbativos, con resultados exactos, y de una importancia extraordinaria, dependen crucialmente del marco supersimétrico. Cuesta trabajo pensar que esto vaya a diluirse en nada, pero estamos intentando enfocar el tema.

La supersimetría surgió a mediados de los setenta, un poco después de las teorías de gran unificación de quarks y leptones, para ir más allá y unificar en una sola estructura fermiones y bosones, partículas de materia y mensajeros de los campos de fuerza. Más lejos no se podía ir, y de forma casi inmediata se empezó a buscar dónde estaba la gravedad por ahí, en algún lugar al fondo del paquete. Pero mucho antes de que se encontraran las primeras descripciones convincentes de gravitones dentro ya del contexto de las cuerdas –los famosos resultados de Schwartz y Green-, la primera restricción alentadora que encontró la supersimetría fue la supresión de los taquiones, que hacían degenerar al vacío. Esto es, pareció quedar garantizado un nivel mínimo de energía, sin el cual nada tendría sentido; o dicho de otro modo, el nivel mínimo de energía del vacío era el verdadero fundamento, pero una vez que pareció garantizado muchos se olvidaron de ello y se aprestaron a subir por la escala.

Se dice que la supersimetría puede resolver el problema del ajuste fino, pero ella misma debe recurrir a rupturas de simetría y transiciones similares a las del bosón de Higgs; persiste además el problema de la jerarquía, el porqué la mayoría de estas partículas “compañeras” han de estar a energías tan descomunalmente distantes de las de las partículas conocidas, millones y millones de millones de veces superiores. Estas cosas tendría un sentido muy distinto si masa inercial y masa gravitatoria no estuvieran rígidamente emparejadas, como vimos en el caso de las MONDs, aunque esto suponga modificar por completo todo el contexto de la relatividad y de la propia escala de Planck. Lo que hace unos años parecía una locura empieza a resultar conveniente.

Existe por otra parte una débil posibilidad de encontrar alguna partícula supersimétrica en el LHC; pero más revelador todavía es el hecho de que la supersimetría tiene la virtud de conectar también la constante cosmológica para hacer que su valor sea nulo (la misma ruptura de la supersimetría parece generar valores para la tensión y energía del vacío). Se ha exagerado el carácter restrictivo de la teoría cuántica y de la relatividad; se ha dicho que ser un poco relativista y un poco mecano-cuántico era algo así como estar un poco embarazado, pero lo cierto es que estas restricciones tienen algo de caballo de madera, con un buen agujero dentro, o dos huecos, además, complementarios. Los mismos resultados de las ecuaciones y los cálculos se han tomado casi siempre como si debieran darnos la cara, y ello no tanto por alguna voluntad de apaño como porque no ha habido otra forma convincente de medirlos e interpretarlos. Y así vemos cómo el tema del vacío y su nivel de energía, el auténtico e irreductible telón de fondo, se está convirtiendo en el actor principal de los problemas capitales de la física: la fuerza lambda, los campos inflacionarios, los campos de masa de las partículas.

Pero hablar del vacío, su temperatura, o su densidad, es intentar hallar el peso de este continente que también nos contiene a nosotros, o lo que es lo mismo, es una manera de volver a hablar del problema de los sistemas de referencia: el problema crucial y nunca del todo resuelto de todas las teorías de campos, desde los de Maxwell a los de tipo Yang-Mills, y en el centro de este intervalo, esa teoría de los intervalos que es la relatividad de Einstein.

La primera ruptura de la simetría fue enunciada de manera inequívoca por Clausius hacia 1865, al introducir el concepto de entropía. Esta ruptura enraizada en la dirección del tiempo es el modelo y arquetipo de todas las demás asimetrías, hasta el punto en que es más que presumible que todas remitan a ella como a su origen. Sin embargo, desde su mismo comienzo se ha intentado minimizar el alcance del mensaje de la termodinámica y se ha tendido a hacer de ella un mero útil de carácter fenomenológico, adjetivo, subordinado a la autodenominada física fundamental, aquella que, sea la que sea, describa los sistemas reversibles. Esta actitud se encontró justificada, de manera harto irreversible hasta el día de hoy, desde los primeros años del siglo XX con los trabajos de Planck y Einstein que pusieron los cimientos de la mecánica cuántica, cuando todavía vivían Boltzmann y Poincaré, cuyos no menos fundamentales trabajos pasaron a segundo o tercer plano.

La mecánica cuántica empaquetó el carácter aleatorio del calor, y ello se apuntaló con el valor constante de la velocidad de la luz. De aquellos días, y con la posterior inclusión de la gravedad, viene la escala de Planck que combina las tres famosas constantes fundamentales, h, G y c. Curiosamente fue Planck en su ensayo sobre el cuerpo negro el primero en introducir k y en llamarla “constante de Boltzmann”; el mismo Planck que se opuso a la interpretación de la termodinámica como mecánica estadística. Boltzmann, por su parte, acabó sus días sin saber exactamente sobre qué había estado trabajando. Desde entonces la termodinámica ha tenido que conformarse a ese estatuto derivado, pese a expresar, a través de su segunda ley, la verdad más simple, impresionante y contundente que ha podido deducir la ciencia: la única, en palabras del mismo Einstein, “que nunca será destronada”, y también la más general. Algunos han dicho que el desarrollo de la dinámica no lineal, de la inestabilidad y el caos determinista ha constituido la tercera gran revolución en la física del siglo XX; pero lo cierto es que nada ha cambiado respecto a la idea de lo que se consideran dominios fundamentales y dónde deban buscarse las explicaciones y la causalidad.

De hecho, la magnificación del “caos” ha coincidido con su trivialización y con el estancamiento del sector desde mediados de los años ochenta. También es cierto que era difícil ver como podía trascenderse el nivel fenomenológico, pero gran parte de la culpa la tiene el haberlo enfocado todo desde el punto de vista de la complejidad: esto es, no han trascendido la fenomenología en gran medida por no asumir su rango fenomenológico y haberse metido de cabeza en los modelos numéricos “duros” con los infinitos remedos de la exactitud. Le ha correspondido a Ilya Prigogine ser el principal defensor del carácter primordial de la irreversibilidad. También han tenido un gran interés sus extrapolaciones a la dinámica, a pesar de lo inevitable de las críticas, pues sin duda se necesitan razones mayores para considerar siquiera esta clase de aproximaciones. En cualquier caso, su posición filosófica fundamental ha sido inequívocamente acertada y bastante menos retórica de lo que se piensa. Por el momento, la cosa no ha dado para más. Prigogine ha propuesto una extensión del tratamiento probabilístico de la termodinámica al mundo de las trayectorias individuales clásicas o cuánticas con el objeto de unificar siquiera los conceptos de fondo.

Para la mecánica cuántica, el problema del dualismo entre la evolución unitaria de la función de onda y los procesos de medición se resuelven desde una óptica realista, puesto que la destrucción de la coherencia de las superposiciones es también un efecto de las resonancias de Poincaré. Algunos se preguntan qué utilidad, o incluso qué realidad puede tener la introducción de tales formalismos, en particular en una mecánica clásica más que establecida. Pero incluso aquí el determinismo literal es, como ha dicho Günther Ludwig, “un cuento de hadas... si todos los macrosistemas tuvieran una dinámica determinista no existirían los microsistemas”. El filósofo Alexis Jardines también ha insistido sobre este punto, y en realidad, la acotación experimental, detección y estimación de la discontinuidad e indeterminación en trayectorias clásicas como las de un simple bola es una revoluciones pendientes para la integración general de la dinámica, y tal vez la más perturbadora y significativa: si con los niveles actuales de precisión, que incluyen la determinación del tiempo en intervalos de femtosegundos, no fueran observadas, podríamos entonces decir que no hay otro rango de indeterminación momentánea que el cuántico. Entonces comprobaríamos hasta qué punto esta clase de generalizaciones de la dinámica clásica no es improcedente.

En cuanto a la mecánica cuántica, esa teoría maravillosamente musical (se ha comparado la naturaleza de su incertidumbre con la que mantienen mutuamente la altura de un tono y su duración en el tiempo, prolongadas en la afinación de los armónicos), “las resonancias (de Poincaré) acoplan los procesos dinámicos exactamente como acoplan los armónicos en música”. Pero esto cabría aplicarlo por igual a los tres ámbitos, el termodinámico, el clásico o el cuántico. Se ha definido el caos determinista en función de la sensibilidad a las condiciones iniciales: si se conocieran éstas con una infinita exactitud, y con una infinita potencia de cómputo, todavía podría preverse la evolución del sistema.

Pero la amplitud de los sistemas no integrables que sacó a la luz Poincaré es todavía mayor: aquí las trayectorias son destruidas cualquiera que sea la precisión. El caos determinista lo que muestra es una divergencia exponencial en el tiempo, mientras que los sistemas no integrables existen siempre que exista realmente interacción; esto es, siempre que las fuerzas implicadas sean algo más que sonámbulos en un escenario. Más concretamente, lo que dijo Poincaré es que un sistema es integrable si sus variables son independientes de la energía potencial , y no parece que este sea el caso ni para la mecánica cuántica ni para la relatividad cuando la contemplamos en su más amplio contexto cosmológico. A resultas de ello, Prigogine hace una taxativa distinción entre interacciones transitorias, como en las colisiones de partículas que prosiguen un movimiento libre, e interacciones persistentes, como lo es un fluo continuo y no disruptivo de las mismas partículas: en este último caso, siempre aparecerán factores difusivos tendentes al equilibrio y la uniformidad en el futuro: tendremos entropía como en cualquier evolución termodinámica.

Si existe actualmente algún sector donde la dinámica no lineal, la física de los estados retorcidos, pueda salir de su estancamiento y autorreferencia, es en la óptica no lineal y los dispositivos de interferencia cuánticos: campos, por lo demás en estado de genuina ebullición. No voy a considerar ahora posibilidades teóricas más bien lejanas como pudieran ser los ordenadores cuánticos, aunque merece la pena hacer una observación: la computación cuántica es todo un telón de fondo que va divisándose a medida que gran parte de la ciencia y de la misma sociedad se aboca en una auténtica y desenfrenada guerra de la computación. Pero es, también, un umbral de resolución para la forma en que hemos estado definiendo infinidad de problemas. Piénsese que las operaciones que hacen ahora los ordenadores son básicamente iguales a contar con los dedos, y no en vano las llamamos digitales; pero el mal llamado cómputo cuántico nada tiene que ver con esto, salvo por el rendimiento digital que de él se espera obtener.

En cuanto a su reivindicación como máquinas de Turing, es algo que sólo se aplica a ese mismo test de rendimiento, no a su naturaleza ni, lo que es más importante, a la manera en que ha de poder redefinir innumerables problemas. Lo cierto es que el día en que sean operativos los ordenadores cuánticos entraremos en un Valhala de las matemáticas y de la reevaluación de procesos, pues estará cayendo nada menos que la Gran Muralla entre lo continuo y lo discontinuo que toda nuestra cultura y la ciencia en particular han estado construyendo a lo largo de los siglos. Y veremos entonces cómo se resuelve en toda su profundidad y amplitud esa disputa de fondo cuyos más ilustres contendientes fueron Newton y Leibniz tras fundar el cálculo infinitesimal: una disputa entre la idea de fuerzas continuas sobre pacientes discretos, y otra de fuerzas discretas en un espacio continuo complejo.

En un futuro no muy lejano, los diferentes dispositivos de efecto cuántico nos van a decir más de la física que los sustenta que los aceleradores, precisamente por cubrir un espectro complementario y desde la perspectiva de la mínima perturbación de las interacciones persistentes. Tampoco sirve de nada pretender que el efecto generalmente buscado es el de la computación digital masiva, aun paralela: aquí resulta imposible separar una determinada utilidad de sus límites y umbrales de aplicación, en los que reside en principio todo el interés teórico. ¿Tiene todo esto alguna relación con la termodinámica? Evidentemente.

Es cierto que los estados aislados que se persiguen son todo lo contrario de los llamados grandes sistemas de Poincaré (sistemas no integrables en variación continua con la frecuencia de onda, sin efectos apreciables en los bordes); otra cosa es que se puedan aislar y discretizar a voluntad contando sólo con la mecánica cuántica y prescindiendo de todo ruido de fondo y del entorno. Precisamente estos dispositivos deberían articular ese nivel mesoscópico que tanto se echa de menos en la descripción, todavía incompleta, de fenómenos como la superconductividad, y cuyas lagunas es demasiado fácil imputar a la complejidad del tema. En la medida en que nos aproximamos a los estados mínimos de energía, como en los átomos ultraenfriados que son el sujeto estrella para estos propósitos, convergen las descripciones mecano-cuánticas con las termodinámicas en su acepción más delicada; por otro lado ya hemos tenido ocasión de sospechar hasta qué punto los campos escalares no son sino estados de temperatura disfrazados.

Y cómo, finalmente, los condensados de Bose-Einstein son sistemas semiclásicos con vigencia macroscópica notoria. Para cerrar el virtuoso círculo, todo se está planteando en el seno de la matriz y arquetipo de las teorías de la complejidad: en la esfera y la tecnología del cómputo, con el añadido de que ahora las interfaces también empiezan a cobrar rango operativo dentro del soporte físico mismo. Todo esto nos lleva en los próximos años a una configuración realmente inaudita.

Los físicos preocupados seriamente por los fundamentos de la mecánia cuántica, como Roger Penrose, llevan muchos años suspirando por el advenimiento de este nuevo nivel experimental. El estudio de los umbrales de decoherencia es, desde luego, el eje visible en todas las aproximaciones. Eso es sólo la puerta de entrada: por ejemplo, pudiera ser que ni siquiera exista la reducción de la función de onda, simplemente porque no exista tal función de onda en cuanto evolución unitaria individual. Es demasiado pronto para hablar con fundamento de esto, pero dentro de poco deberían dejar de ser cuestiones meramente especulativas. Con la variación omnímoda de los parámetros, fundamentalmente intervalos de distancia, tiempo y temperatura, aparte de los niveles energéticos de los materiales, no se nos pueden escapar las conclusiones.

Por el momento, nos queda la nada aguda sospecha de que la llamada coherencia cuántica, como la decoherencia, tienen también un esencial e irreductible componente escalar. Tres hilos y una sola aguja El mismo Prigogine ha hecho una afirmación tan divertida como oportuna: incluso en un universo newtoniano el flujo del tiempo no es único. Y lo ejemplifica diciendo que si enviamos a dos de esos famosos gemelos al espacio, y antes de volver a la Tierra uno de ellos atraviesa un campo gravitacional, y el otro no, “la entropía producida como consecuencia de las resonancias de Poincaré será diferente en ambos casos. Nuestros gemelos volverán a la tierra con edades diferentes.” Y continúa: “Como hemos repetido en múltiples ocasiones, la irreversibilidad traduce el paso de una descripción dinámica de grupo (donde pasado y futuro desempeñan el mismo papel) a una descripción en términos de semigrupos, explicativa de la flecha del tiempo.

La diversidad es universal, pero el tiempo entrópico generado no es el de nuestros relojes.” Tal vez tendríamos que buscar esos relojes entrópicos para hacer averiguaciones sobre los sistemas de referencia en marcos relativistas. No se trata sólo de que, como argumenta Milgrom para defender su MOND, un Principio de Equivalencia Fuerte no tenga suficiente justificación experimental, sino que toda la relatividad está construida sobre consideraciones más globales que locales, permitiendo un amplio margen de dudas sobre qué ocurre localmente a altas energías. Lo que la física cuántica busca en la escala de Planck podría ser relevante a energías mucho menores si la masa inercial y la acelerada o gravitatoria sólo mantuvieran una proporcionalidad.

Todavía hoy nos es inaccesible lo que ocurre dentro de un sistema fuertemente acelerado, a diferencia de las comprobaciones rutinarias, externas, del aumento de masa en los aceleradores; las verificaciones con sistemas en movimiento, como aviones y cohetes, son aún demasiado insuficientes e incompletas. Por otra parte, el aumento de la semivida de partículas inestables como los mesones rápidos es más bien contrario a las trasformaciones de equivalencia, puesto que se trata inequívocamente de acontecimientos irreversibles, y no de meras apariencias como se seguiría de la relatividad. Los cálculos relativistas derivados hacia los sistemas de referencia son, como la evolución unitaria de la función de onda de Schrödinger, puramente formales, aunque imprescindibles. El principio de equivalencia de los sistemas inerciales es justamente eso, un principio marco para hacer tratables una serie de problemas, no muy diferente del principio cosmológico de uniformidad e isotropía que Einstein introdujo para el universo. Jardines ha mostrado hasta qué punto fueron defectuosos y arbitrarios los planteamientos de la relatividad en el más estricto sentido cinemático, y de qué modo tan claro Einstein, como cualquier físico que se precie, recondujo todo su enfoque al ámbito de las predicciones en perjuicio del rigor. Aparte de eso, la sustitución de la coordenada de tiempo t por una magnitud imaginaria, obliga a que el tiempo de todo acontecimiento no pueda ser tomado por sí mismo, sino como magnitud imaginaria en relación con la velocidad de la luz. Y así, la definición de los intervalos, como la de los sistemas de referencia, es simplemente correcta para su propósito, pero hueca, en el sentido de que siempre dejará un indefinido espacio dentro. La cuestión es si puede ser abordada de otra forma con provecho.

Aunque ahora tenemos un modelo firme y razonable de la fuerza débil, la llamada unificación electrodébil, caben pocas dudas de que esta teoría es todavía condicional e incompleta, lo que se evidencia en cuestiones como la masa de los neutrinos o la incógnita de los mecanismos de ruptura de la simetría. Se trataría entonces de una descripción fenomenológica, aunque también cabe preguntarse qué teoría no lo es en última instancia. Sea como fuere, parece más que probable que los neutrinos nos suministren en un futuro cercano mucha más información y algunas grandes sorpresas. También se trata de un área en ebullición.

Si detalláramos más nuestro conocimiento sobre los umbrales de interacción de los neutrinos, algo altamente probable para los próximos cinco años, podemos incluso soñar con algún método ingenioso de detección para la radiación de fondo de los neutrinos desacoplados desde el primer segundo del universo, lo que de momento está muy lejos de nuestras posibilidades. Estos neutrinos de fondo estarían sólo un poco por debajo de la temperatura de la radiación electromagnética de microondas, a unos 2 K, pero aumentarían la profundidad de nuestra visión de una manera difícil de anticipar: por más que los modelos evolutivos de partículas sean bastante serios, e incluso inevitables, ni siquiera sabemos qué es lo que podamos estar dejando fuera. La franja temporal que estos neutrinos cubren, aproximadamente entre un segundo los primeros 300.000 años, es muchos millones de veces mayor que la que media entre esa época de las microondas y la nuestra, y aunque un segundo sigue siendo una eternidad para el tiempo de Planck (10-43 s) debería permitir ajustar grandemente el contexto de nuestra extrapolación de la física de partículas al origen del cosmos en la medida en que hubiera sorpresas.

Por otra parte, aun con una masa minúscula, los neutrinos parecen jugar un papel en la evolución galáctica; y uno está tentado de pensar que están en el eje de cualquier evolución, también la biológica. Se ha especulado con frecuencia sobre su posible contribución a la quiralidad o helicidad de las biomoléculas. Esta contribución, tan débil que por el momento se halla fuera de nuestra tasación, se hubiera hecho relevante por acumulación estadística en escalas de tiempo muy grandes.

Esto no es nada absurdo si pensamos que la gravedad impone unas condiciones definidas en la morfología y desarrollo de los seres vivos como nosotros; ahora bien, la fuerza débil es bastante más considerable para una biomolécula que la gravedad para nosotros. Pero no sólo se trata de las masas y la intensidad de las fuerzas, se trata sobre todo de la selectividad: sabido es que los neutrinos tienen una excelente “memoria” y que vuelven a interactuar con partículas iguales a las de su origen –los neutrinos electrónicos con electrones, etcétera-. Esta sensibilidad con respecto a los niveles de energía de su origen pudiera extenderse mucho más allá de esos tres escalones de partículas, y abarcar un espectro más amplio de correlaciones de energía o temperatura con otras variables: precisamente por esto habría posibilidades de afinar mucho más la sensibilidad de nuestros detectores. También, como relojes entrópicos, los neutrinos deberían ser indicadores privilegiados en nuestras pruebas más refinadas y sutiles de la relatividad.

La fuerza débil se revelaría entonces como un genuino agente termodinámico en el seno mismo de lo cuántico; como un intercambio selectivo con propiedades difusivas, ajenas a la estructura y a la localidad, tendiendo siempre al equilibrio. Es inevitable que el solapamiento de áreas distintas nos lleve a contradicciones en los mismos términos sujetos a definición; pero eso es algo provisional y que depende a su vez de la definición o redefinición de esas áreas. Lo que observamos es que el suelo entero de estas disciplinas podría estarse deslizando, y esto es algo muy diferente que el mero intento de tender puentes desde los resultados conseguidos en los distintos campos.

Tomemos por ejemplo las teorías de cuerdas, en su versión más global y evolucionada, la llamada teoría M o de membranas coronada por Witten. Esta teoría, que es ampliamente diferente y mucho más rica que sus predecesoras, describe una serie de objetos extendidos, las branas, presentes desde cero a nueve dimensiones; a energías muy bajas, como las que se dan en nuestro mundo estas branas tendrían masas verdaderamente descomunales, pero a energías muy altas su masa se reduciría de manera inversamente proporcional, y por lo tanto se hacen más y más numerosas y frecuentes. Es tentador pensar que estas branas de muy baja energía puedan ser, al menos en parte y en determinadas condiciones, el aspecto no local de las interacciones con las curiosas e imprevisibles ligaduras que pueden presentar en espacios de dimensión superior, es decir, que sean aspectos no locales de las interacciones conocidas, con propiedades asociadas. Si este fuera el caso, sería verdaderamente extraordinario, pues se podría plantear todo un inmenso escenario de verificaciones y se resolvería la dependencia de este gran marco teórico de los contextos de altas energías. Además, puesto que las famosas y enigmáticas simetrías de dualidad están implicadas, esto ayudaría también a definir el contexto de esas energías más altas (las tres simetrías de dualidad intercambian descripciones entre las energías altas y las bajas); y de hecho ya vemos que también la relación entre bajas y altas energías podría ser susceptible de redefinición en función de la dimensión implicada.

El problema de esta teoría, aparte de un nivel de dificultad técnica indescriptible, es como salir de su terrible confinamiento en la abstracción. Por otra parte, puesto que sus ecuaciones dan para bajas energías las ecuaciones de campo de Einstein, cada vez se está explorando más intensamente las modificaciones que resultan de introducir la tensión lambda de la constante cosmológica, bien como masa y energía negativas, bien como contribución positiva a la geometría espaciotemporal: lo que durante mucho tiempo ha sido una incógnita de fondo ha pasado ahora al primer plano.

Puesto que las interacciones no locales pueden adoptar propiedades difusivas, y muchas de las llamadas transiciones de fase entre dimensiones son mucho más que limpias operaciones de topología simpléctica, también aquí hay posibilidades de convergencia para la termodinámica, la mecánica cuántica y la relatividad, con el cuarto incluso de la cosmología, que en realidad incluye a las demás. La gran superioridad de la teoría M sobre los modelos conocidos de partículas no es llevarlo todo a la escala de Planck, hasta lo supuestamente irreductible, sino su incomparable riqueza y la amplitud de fenómenos que puede describir, incluyendo toda suerte de no linealidad y no localidad, que la teoría cuántica anterior sólo puede admitir como posibilidades marginales, y por lo tanto, irrelevantes. De hecho, si algo parece tener de sospechoso, es que puede abarcarlo literalmente todo, lo que inmediatamente nos lleva a ser incrédulos.

Tal vez la forzosa observancia de una constante cosmológica, de la que depende el tamaño del universo y puede concebirse también como constante de proporcionalidad para las distancias, conduzca a un desfondamiento del suelo de Planck, y transforme completamente el paisaje de esta teoría. De cualquier modo, una teoría tan fundamental y ambiciosa como ésta no debería depender a su vez en última instancia de ninguna constante fundamental. Teniendo en cuenta los nuevos factores en concurso, tal vez esto no sea una circunstancia tan lejana. Con o sin supersimetría, con o sin escala de Planck, el marco conjunto de estas teorías ha desarrollado un arsenal de métodos tan potente que tiene asegurada la supervivencia.

                      © 2002 Javier de Lucas