Toda teoría física posee dos componentes esenciales: un formalismo y una interpretación. El físico representa los conceptos básicos mediante símbolos matemáticos. Por ejemplo, la posición de una partícula (x), la velocidad (v), la masa (m), etc. Establece procedimientos experimentales bien definidos para asignar a estos símbolos valores numéricos. De esta manera, las relaciones conceptuales se transforman en ecuaciones que podrán ser manipuladas por el aparato matemático. La teoría ha adquirido formalismo.

El formalismo es interpretado al asignar un significado a estas expresiones matemáticas. Cuando se acepta universalmente que todos los símbolos del formalismo son interpretados sin ambigüedad representando alguna propiedad de la realidad, se dice que la teoría queda concluida.

Cualquier teoría física, para ser aceptada, debe hacer predicciones detalladas. Dado un experimento bien definido, la teoría ha de especificar correctamente el resultado o, al menos, asignar probabilidades correctas a todos los resultados posibles. Desde este punto de vista formal la mecánica cuántica puede considerarse extraordinariamente buena. En su calidad de teoría moderna fundamental de las partículas elementales, de los átomos, de las moléculas, de la radiación electromagnética y del estado sólido, suministra métodos para calcular los resultados de la experimentación en todos estos campos. Pero se espera que no sólo sea capaz de determinar los resultados de un experimento sino que nos dé alguna comprensión de los sucesos que presumiblemente sustentan los resultados observados.

En mecánica cuántica, una partícula elemental, presupongamos un electrón, se representa mediante una expresión denominada "función de onda". Esta representación no está en contra de la experiencia, por el contrario, la función de onda da en forma exacta la probabilidad de hallar el electrón en cierto lugar. Sin embargo, cuando el electrón se detecta realmente, siempre tiene una posición definida aunque la ecuación lo describa frecuentemente como esparcido sobre una región del espacio. A causa de esta ambigüedad muchos físicos encuentran más adecuado considerar a la mecánica cuántica como un mero conjunto de reglas que permite predecir los resultados de los experimentos. Esta ambigüedad es uno de los conceptos básicos de la mecánica cuántica que más cuesta interpretar. Se vuelve a repetir la vieja cuestión de determinar si los habitantes de la materia microscópica son o no partículas, sin olvidar la relación probabilística de la ecuación de onda. No olvidemos que cualquier partícula de menor tamaño que el átomo no se rige por las mismas leyes que los objetos macroscópicos.

La función de onda, llamada estado cuántico, especifica, hasta donde es posible, todas las cantidades de un sistema físico. Según su visión no todas las cantidades de un sistema tienen simultáneamente valores definidos. El ejemplo más claro de esta aseveración lo constituye el "principio de incertidumbre de Heisemberg" que establece la imposibilidad de definir al mismo tiempo la posición y el momento de una partícula. No hay que olvidar que el estado cuántico de un sistema proporciona de manera inequívoca la probabilidad de cada resultado posible de cada experimento que se desarrolla en el sistema.

Estadísticamente, si la probabilidad es uno, el resultado se producirá sin duda, así como al ser la probabilidad cero, el resultado no se dará. En medio de estos dos extremos se halla toda una gama de posibilidades las que se darán con más frecuencia cuanto más se acerquen a 1. Para muchos personas, científicos inclusive, esta teoría sigue hallándose en conflicto con una imagen del mundo que muchos consideran obvia y natural. Esta imagen se basa en tres axiomas (por lo tanto se toman como verdades indemostrables).

    La primera es el realismo, doctrina que establece que las regularidades observadas en los fenómenos apreciados están causadas por alguna realidad física cuya existencia es independiente del observador.

  1. La segunda premisa establece que la inferencia inductiva es una forma válida para aplicarse libremente, por tanto, podemos deducir conclusiones legítimas a partir de observaciones coherentes.
  2.  
  3. La tercera premisa se la llama separabilidad o localidad de Einstein

Expliquemos con un ejemplo para facilitar su entendimiento. Supongamos que hay dos personas, muy distanciadas una de otra, con una moneda cada una. Arrojan las monedas una gran cantidad de veces a fin de determinar la probabilidad que salga cara o cruz. El sentido común nos dice que, si las dos personas se alejan lo suficiente, la probabilidad de que una de ellas obtenga cara en un tiro es independiente del resultado obtenido por la otra. Aceptar la independencia de las probabilidades en juego es aceptar que el sistema formado por las dos monedas es "separable". En efecto, aunque antes hayan estado en estrecho contacto (en un bolsillo, por ejemplo), nadie pondrá en duda, en este caso, la vigencia de la separabilidad. Es más, Einstein establece que ningunas influencia (de la clase que sea) puede propagarse más rápido que la velocidad de la luz.

La argumentación a partir de estas premisas conduce a una predicción explícita de los resultados de una determinada clase de experimentos en física de las partículas elementales. También podemos acudir a las reglas de la mecánica para calcular los resultados de estos experimentos. Ambas predicciones son distintas, por lo tanto, o las teorías realistas locales o la mecánica cuántica, tienen que ser falsas.

Einstein se interesó mucho por la mecánica cuántica, aunque fue muy crítico. Su sentido físico le decía que la exactitud de las predicciones de la teoría no era razón para aceptar la interpretación probabilística de Max Born, Werner Heisemberg, Niels Bohr y otros, conocida como "Interpretación de Copenhague", debido al nombre de la ciudad en la que residía Bohr. Para refutar esta interpretación, Einstein publicó en 1935, junto a Boris Podolsky y Nathan Rose, un célebre artículo titulado "¿Puede considerarse completa la descripción que de la realidad física da la Mecánica Cuántica?.

En aquel tiempo los éxitos de la mecánica cuántica eran ya tales que era natural considerar exactas sus predicciones. Desde ese punto de vista Einstein, Podolsky y Rose (EPR) idearon un hábil experimento imaginario. Calcularon los resultados que debía obtenerse según la mecánica cuántica y razonaron del modo siguiente: << si para la noción de realidad física se acepta una definición muy natural que proponen en su artículo, entonces la mecánica cuántica deja escapar algunos "elementos de realidad" que, no obstante, aparecen en resultados de medidas macroscópicas. Aunque muy potente y útil, esta teoría sería incompleta y probablemente de carácter provisional >>. De allí extraemos que el movimiento de una partícula debe describirse en términos de probabilidad por la única razón de que hay algunos parámetros que determinan el movimiento que todavía no han sido determinados. En cuanto los valores de estas hipotéticas "variables ocultas" lleguen a conocerse se podrá definir una trayectoria totalmente determinista.

Muchísimos físicos han apoyado la visión del argumento EPR tachando de "dogma" a la interpretación de Copenhague: << ese es el dogma, más o menos oficial, de la física teórica, y tal es la lección que exponen los manuales universitarios>> (Teoría alternativa de Bohm a la mecánica cuántica - David Z. Albert - Investigación y Ciencia  Nº 214 - Julio 1994). El argumento EPR históricamente fue desarrollado a partir de las variables de posición e impulso de dos partículas correlacionadas. David Bohm, del Colegio Birbeck de Londres, la reformuló para variables de espín (1951); su versión modificada sirvió a Jhon Bell de punto de partida para establecer sus famosas inecuaciones. Para cualquier partícula, la mecánica cuántica prevee la posibilidad de que posea un momento cinético de rotación interna o espín, incluso en el caso de que tal partícula sea estrictamente puntual. Dicho sea de paso, he aquí otro ejemplo de resultado cuántico poco intuitivo. ¿Cómo imaginar, en efecto, la rotación sobre sí mismo de un objeto puntual que, por tanto, carece de estructura interna?. 

Al igual que el momento clásico, el espín está representado por un sector del que cabe medir la componente respecto de un eje cualquiera. El electrón, el muón y el protón son partículas llamadas de espín ½. Ello significa que si se mide la componente del espín sobre un eje cualquiera, sólo cabe esperar dos valores posibles: + †/2 ó – †/2 (donde † es una constante que es igual a h/2p y h es la constante de Planck). Es precisamente por que la nueva teoría conducía a valores cuantificados como éste por lo que se llamó mecánica cuántica. Si bien el espín es análogo sólo en algunos aspectos al momento angular de rotación de un cuerpo macroscópico, nos basta con que se represente mediante un vector.

Supongamos que un físico ha ideado una demostración que pueda efectuarse con partículas subatómicas, por ejemplo, los protones. Tras muchos intentos descubre que unos protones pasan la prueba y otros no; pero él no sabe si está midiendo alguna propiedad real de los protones o simplemente observando fluctuaciones al azar de su aparato. Por eso decide aplicar la prueba a pares de protones. Los protones que constituyen el par están inicialmente muy próximos, lo que se logra aplicando un procedimiento análogo a ambos. Se permite luego que las partículas se separen. Cuando se han alejado cierta distancia macroscópica (medida en cm o m) se les pone la prueba, simultáneamente para algunos pares y con intervalo de tiempo para otros. El físico descubre una estricta correlación (existencia de mayor o menor dependencia entre dos elementos) negativa cuando en un par un protón pasa la prueba y el otro no.

Si se acepta como premisa el realismo, el uso libre de la inducción y la separabilidad de Einstein, el físico se sentirá justificado para concluir que la prueba mide alguna propiedad real de los protones. Para que la correlación pueda explicarse, la propiedad debe existir antes de la separación de los protones en cada par y ha de tener algún valor definido para ellos desde el momento en que exista hasta que se lleve a cabo el experimento.

Existe una prueba real que puede llevarse a cabo con partículas subatómicas y que da resultados análogos. Se trata de la medición de cualquier componente del espín. Como ya se ha dicho, cualquiera sea el eje elegido para medir la componente del espín, los resultados serán siempre los mismos, uno de dos, +† /2 ó – †/2, ambos de igual valor numérico pero de signos opuestos.

Se observa una correlación estrictamente negativa entre los componentes del espín cuando se juntan dos protones en la configuración mecánico-cuántica llamada estado singlete (single, del inglés, simple). En otras palabras, si dejamos separar dos protones en estado singlete y se mide luego la componente del espín en ambas partículas, será siempre para un protón positivo y para el otro negativo. No hay forma de predecir qué partícula tendrá la componente negativa y cual la positiva, sin que ello sea obstáculo para que la correlación esté bien establecida.

En lo concerniente a la medición no hay razón de conflicto entre las predicciones de la mecánica cuántica y las de las teorías realistas locales. Aparecen al complicarse el experimento. El vector que representa al espín de una partícula se define mediante sus componentes a lo largo de los tres ejes en el espacio. Para un vector asociado con un objeto macroscópico de vida normal, podría darse por sentado (y con razón), que las tres componentes tienen valores definidos en cualquier instante, aunque nosotros los desconozcamos.

Aunque los instrumentos pueden medir únicamente una componente del espín cada vez, podemos construir un dispositivo que mida la componente del espín a lo largo de cualquier eje, arbitrariamente. Se designará a cada eje con la letra A, B, C. Así que los resultados podrán ser: + A ó – A, + B ó – B, + C ó – C. El investigador puede preparar una gran muestra de protones en estado singlete y observará que se mide la componente A para ambos protones como lo indica la correlación negativa.

Es importante recordar que en estos experimentos no se somete ningún protón a una medición de más de una componente, pero, si se aceptan las tres premisas de las teorías locales (realismo, inducción y localidad) se puede deducir a partir de los resultados que tomando la medida en distintos componentes del par de protones, se tendrá los valores de ambas componentes para cada uno de los protones. Por ejemplo, si en una medición da que en el eje A es + y en el otro protón el eje B es – hay dos protones: A + B + el primero y A B el segundo. De allí que el número de pares observados de cada tipo puede representarse por n (A+ B-) o n (A- B+) donde n es un número natural.

En 1964 John S. Bell, de la Organización Europea de Investigaciones Nucleares (CERN), descubrió la relación que estamos tratando. Para cualquier gran muestra de pares de protones en estado singlete, Bell demostró (matemáticamente) que la hipótesis  de las teorías realistas locales imponían un límite en la correlación que podía esperarse cuando se medían distintas componentes del espin. El límite se expresa en forma de desigualdad, que hoy día se conoce con el nombre de desigualdad de Bell. Dadas las condiciones descritas, se establece que el número de pares A+ B+ no puede ser superior a la suma de los pares A+ C+ y el número de pares B+ C+.

La desigualdad queda expresada simbólicamente de esta manera:

n (A+B+) < n (A+ C+) + n (B+ C+)

Esta desigualdad puede ser fácilmente demostrada dentro del contexto de las teorías locales mediante un simple razonamiento basado en teoría de conjuntos. Para comenzar podemos introducir la hipótesis contraria, "existe una forma de medir independientemente dos componentes del espín en una sola partícula". Supongamos que este aparato, inexistente, ha revelado que un protón posee componente de espìn A+ y B-. La tercera componente no se ha medido por lo que puede ser positiva o negativa. Por lo tanto el protón puede ser A+ B- C+ o A+ B- C -. No hay otra posibilidad. Si se detectan muchos protones de espín A+B- podríamos escribir: N (A+B-) = N (A+B-C+) + N (A+B- C-) (para evitar confusiones se ha utilizado N(A+B+) para representar electrones simples y n (A+B+) para pares de protones).

La ecuación establece el hecho evidente que cuando un conjunto de partículas se divide en dos conjuntos, el número total de partículas debe ser igual a la suma del número de partículas de los subconjuntos. Los protones que aparecen con espín A+ C- pueden analizarse de forma análoga.  Así que:

N (A+C-) = N (A+C-B+) + N (A+C- B-)*

Podemos dar un paso más. El número de protones N (A+C-)* debe ser mayor o igual a N (A+B- C-), o sea

N (A+ C- ) > N (A+B-C-) (1).

(suponiendo que el otro conjunto sea vacío). Recordar que la parte no puede ser mayor que el todo. Recurriendo al mismo razonamiento tenemos que N (B- C+) = N (B-C+A+) + N (B- C+A-), entonces,

N (B- C+) > N (A+ B- C+) (2).

Consideremos de nuevo la primera ecuación y reemplacemos por (1) y (2):

N (A+B-) = N (A+B-C+) + N (A+B- C-) Þ N (A+B-) < N (A+C-) + N (B- C+) (3)

Aunque esta desigualdad se ha deducido aquí formalmente, no puede comprobarse de manera directa por vía experimental, pues el aparato capaz de hacerlo no existe. Pero los experimentos realizables se refieren a pares de protones y no a protones individuales.

Como ya se había explicado, podemos medir la componente de un espín de un protón y otra componente del segundo protón y deducir las componentes de cada uno. Esto quiere decir que la observación de un par de protones, uno de cuales tiene componente A+ y el otro posee B+ puede emplearse como señal indicativa de la existencia de un único protón A+ B-. Además, mediante un argumento estadístico, puede probarse que n (A+ B+), el número de pares doblemente positivo, debe ser proporcional a N(A+ B-) número de protones individuales con los componentes de espín A+ B-. De manera análoga n (A+C+) debe ser proporcional a N(A+C-) y n (B+ C+) debe ser proporcional a N(B-C+). 

Como la constante de proporcionalidad es la misma para todos, al sustituir cada término arriba especificado en la ecuación (3), se suprime quedando:

n (A+B+) < n (A+ C+) + n (B+ C+) que es llamada desigualdad de Bell.

La desigualdad de Bell constituye una predicción explícita del resultado de un experimento. Las reglas de la mecánica cuántica pueden utilizarse para predecir los resultados del mismo experimento. No se darán detalles del proceso matemático (formalismo), lo que si  hay que destacar es que es totalmente explícito y objetivo, en el sentido que todo aquel que aplique correctamente sus reglas obtendrá el mismo resultado.

Sorprendentemente, las predicciones de la mecánica cuántica difieren de las de las teorías realistas locales. En particular predice que algunas elecciones de los ejes A, B,  y C violan la desigualdad de Bell. Para ello habrá más protones A+B+ que pares combinados en A+ C+ y B+ C+. Por lo tanto las teorías son antagónicas.

A partir de 1971 se idearon experimentos destinados a probar cuál de las teorías era la correcta. En la mayoría se suplantó al protón por el fotón.  El fotón, unidad fundamental de la luz, puede comportarse como onda o como partícula y persistir en ese estado de ambigüedad hasta que se realiza una medición. Si se mide una propiedad corpuscular, se comporta como partícula; si se mide una propiedad ondulatoria, lo hará como onda. Que el fotón sea onda o partícula no queda definido hasta que se haga una medición.

La función de onda del fotón permite conocer tres "propiedades" del fotón: su dirección, su frecuencia y su polarización lineal. Esta última es análoga al espín de una partícula másica. Un aparato adecuado para medir la polarización es una hoja de lámina polarizante. Su versión ideal consta de una lámina llamada eje de transmisión, que deja pasar a todo haz de luz linealmente polarizado a lo largo de su dirección; la lámina bloquea a toda la luz que incide perpendicular a ella si esta se hallara polarizada en dirección perpendicular al eje de transmisión.

Se pueden llevar a cabo diversas experiencias girando las láminas polarizadoras de diferentes maneras. Si el fotón está polarizado linealmente según el eje de transmisión, la probabilidad de que se transmita es 1. Si el fotón está polarizado linealmente en dirección perpendicular al eje de transmisión, la probabilidad de que se transmita es cero. Otra consecuencia de la mecánica cuántica, que trasciende la expuesto hasta ahora, es  que si el fotón está polarizado linealmente formando cierto ángulo con el eje de transmisión, comprendido entre 0º y 90º, la posibilidad de transmisión es un número que es exactamente igual al coseno de dicho ángulo.

El principio de superposición constituye otra idea fundamental de la mecánica cuántica. Afirma que, a partir de dos estados cuánticos cualesquiera de un sistema, puede formarse otros estados superponiéndolos. En un contexto físico, la operación corresponde a formar un nuevo estado que se "solapa" con cada uno de los estados que lo constituyeron. Basta las dos ideas básicas (incertidumbre y superposición) para advertir que la mecánica cuántica entra en conflicto con el sentido común, nuevamente.

En 1969 en la Universidad de Harvard se propone un plan para abordar la comprobación requerida. Debían obtenerse pares de fotones, con polarización linealmente correlacionadas, mediante la excitación de átomos hasta un estado inicial apropiado. A continuación estos átomos volverían al estado no excitado por emisión de dos fotones. Filtros y lentes asegurarían que cuando los fotones salieran en sentido opuestos, un fotón incidiría sobre un analizador de polarización y el otro incidiría en otro analizador. Variando las orientaciones de cada analizador de polarización entre dos posibilidades y registrando el número de pares de fotones transmitidos en cada uno de los cuatro combinaciones posibles de las orientaciones de los analizadores, podían acometerse mediciones de las correlaciones de transmisión entre fotones de un par. Como analizadores de polarización se sugirió cristales de calcita o placas de vidrio, dada su mayor eficacia, que las láminas de polarización, a la hora de bloquear fotones polarizados perpendicularmente al eje de transmisión. Si dos fotones, uno en cada detector, se registran en un intervalo de 20 nanosegungos (2.10 - 8 seg), la probabilidad de que los hubiera emitido el mismo átomo sería bastante elevada.

El experimento se llevó a cabo en 1975 en la Universidad de Texas, repetido posteriormente por muchos otros grupos. La mayoría de los resultados experimentales están de acuerdo con las predicciones de la mecánica cuántica y discrepan de la de los modelos de las variables ocultas. Si bien hubo experiencias que disienten con las predicciones cuánticas, la elaboración de estos experimentos son de dudosa fiabilidad a causa de ciertos puntos débiles, muy sutiles, en su diseño.

Ello no obstante tiene su talón de Aquiles, hasta comienzo de la década de los ochenta, permitiendo mantener las esperanzas a los defensores incondicionales de variables ocultas: los analizadores de polarización persistían en sus respectivas orientaciones durante intervalos aproximados de un minuto, tiempo suficiente para el intercambio de información entre los analizadores mediante algún mecanismo hipotético. Por lo tanto, tales experiencias no consistían ningún banco de prueba para decidir entre la mecánica cuántica y los modelos locales.

Para acabar con ese punto débil, Alain Aspect, Jean Dalibard y Gerard Roger, del Instituto de Óptica de la Universidad de  Paris, realizaron un espectacular experimento en el que la elección entre las orientaciones de los analizadores de polarización se producía mediante conmutadores ópticos mientras los fotones se hallaban en vuelo. Ocho años de trabajo exigió el experimento que concluyó en 1982. En él, cada conmutador es un frasquito de agua donde se generan, ultrasónicamente y con periodicidad, ondas estacionarias. Las ondas sirven como redes de difracción que desvían con un alto rendimiento un fotón incidente. Si se conectan las ondas estacionarias, el fotón viajará sin desviarse hacia el analizador que está orientado de otra. La conmutación entre las orientaciones dura unos 10 nanosegundos (10 – 8 seg). Los generadores que abastecen a los conmutadores funcionan de modo independiente, aunque (desafortunadamente para la total definición del experimento) la operación es periódica y no aleatoria. Un analizador dista de otro 13 m, de manera que una señal que avanza a la velocidad de la luz invierte, aproximadamente, 40 nanosegundos (4 •10 – 8 seg.) en recorrer ese intervalo. En consecuencia, la elección de la orientación del primer analizador no debería influir en la transmisión del segundo fotón a través del segundo analizador, ni la elección de la orientación del segundo analizador debería hacerlo en la transmisión del primer fotón a través del primer analizador.

Se esperaba, pues, que el dispositivo experimental demostrase la condición de localidad de Bell. De ello se infería que, de acuerdo con el teorema, habría violaciones de correlación de la mecánica cuántica en los resultados experimentales. La verdad es que el experimento produjo el resultado opuesto. Los datos de las correlaciones concordaban, dentro del error experimental, con las predicciones mecánico cuánticas que se calculaban a partir del estado cuántico Y1 . Además, los datos diferían, en más de cinco desviaciones estándar, de los límites permitidos según el teorema de Bell, por cualquier modelo de las teorías realistas locales. Aún cuando el experimento no sea absolutamente definitivo, la mayoría de la comunidad científica considera que las perspectivas de invertir los resultados son mínimas.

Parece poco probable que la familia de los modelos locales pueda salvarse. Ahora sólo resta hallar cual de las premisas es la que debe corregirse. Todo apunta que la tercera, la llamada separabilidad de Einstein, deberá analizarse cuidadosamente y verificar hasta dónde llega su veracidad. 

LA DESIGUALDAD DE BELL EN SIETE SIMPLES PASOS

Supongamos que tenemos partículas a las que podemos medir tres propiedades que llamaremos [a], [b] y [c]. Estas propiedades pueden tomar dos valores, que serán mayúscula o minúscula; de esta forma, definiremos una partícula por sus propiedades de la forma: (Valor-de-[a] Valor-de-[b] Valor-de-[c]) ( Por ejemplo: (AbC) ).

Medimos las propiedades de una serie de partículas y anotamos sus valores. Si llamamos n(Valores) al número de partículas que tienen unos valores determinados, podemos dar ya, con lo que hemos visto, la siguente fórmula (1):

(1): n(Ab)=n(Abc)+n(AbC)

O sea: como una partícula solo puede tener o el valor c o el valor C, el número total de partículas que tengan los valores A y b debe ser igual a la suma de las que tengan los valores Abc más las que tengan los valores AbC. Igual que con (1), se puede decir con cualquier par de valores, como por ejemplo en (2):

(2): n(Ac)=n(Abc)+n(ABc)

Podemos deducir de (2) lo siguiente:

(3): n(Ac)>=n(Abc)

Esto es poco más que decir que el conjunto es mayor que la parte: el número de partículas que tengan los valores (Ac) será mayor que el número de partículas que tengan los valores (Abc), excepto en el caso de que no haya partículas con el valor B, porque entonces las partículas con los valores (Ac) serían las mismas que las (Abc).

Del mismo modo podemos obtener, usando otros valores, la siguiente relacción:

(4): n(bC)>=n(AbC)

Ahora bien, sumando (3) y (4) obtenemos:

(5): n(Ac)+n(bC)>=n(Abc)+n(AbC)

Pero podemos sustituir la parte derecha de esta fórmula por lo que veíamos en (1):

(6): n(Ac)+n(bC)>=n(Ab)

A lo que, por pura cuestión de estética, le podemos dar la vuelta para dejarlo así:

(7): n(Ab)<=n(Ac)+n(bC)

Que resulta que es, salvo cuestiones de notación, la tan archifamosa y antipática "Inecuación de Bell". Hasta aquí todo parece bastante normal: por lo que hemos visto, el número de partículas con los valores (Ab) tiene, necesariamente, que ser mayor o igual que la suma de las partículas con los valores (Ac) y las partículas con los valores (bC). Excepto que alguien ponga en duda la validez de las matemáticas, esto es indiscutible. Y, sin embargo, la fisica cuantica predice que, en ciertos casos, la desigualdad de Bell será incumplida.

BELL SE ENFRENTA A LA CRUDA REALIDAD

¿Existen en la práctica experimentos que cumplan las características arriba expuestas? Pues, afortunadamente, sí. Pero la cosa no es tan simple: Resulta que sólo podemos medir una propiedad de cada partícula, sólo podemos medir [a], [b] o [c], y así no vamos a ninguna parte. Pero la naturaleza nos ha regalado los llamados "Estados acoplados", en los que dos partículas, que parten en principio muy próximas entre si, tienen algunas correlaciones interesantes:

1- Si medimos la misma propiedad en ambas partículas, SIEMPRE obtenemos valores opuestos (Es decir, que si medimos [a] en ambas, si una tiene el valor (A), la otra tendr el valor (a), y lo mismo para [b] y [c].)

2- La correlación anterior es independientemente de la distancia que exista entre las partículas en el momento de la medición.

3- Los valores de [a], [b] y [c] son independientes los unos de los otros. De esta forma podemos obtener dos valores para cada partícula: si en una partícula del par medimos de la propiedad [a] y en la otra la propiedad [b], como hemos comprobado experimentalmente, obtendremos los valores de [a] y [b] para ambas partículas. Pero como, a persar de todo, no podemos obtener los valores de [a], [b] y [c] para todas las partículas, hemos de hacerlo estadísticamente. Para ello lo que hacemos es decidir, aleatoriamente, qué propiedad medimos en cada partícula. Si medimos una población lo suficentemente grande de partículas, los resultados de nuestra estadística deberían ser válidos, aplicables al total de éstas. Visto todo esto hacemos el experimento, comprobamos los resultados y, para nuestra sorpresa, incumplen la desigualdad de Bell. Pero sí cumplen perfectamente lo que esperaba la fisica cuantica. Repasamos el experimento y no le vemos ningún fallo, repasamos los cálculos que hicimos para obtener la desigualdad de Bell y tampoco vemos error alguno.

CONSECUENCIAS DEL EXPERIMENTO

¿Que ha pasado aqui? La implacable lógica de las matemáticas se contradice con la innegable presencia de los resultados palpables. ¿Está mal hecho el experimento? ¿Mienten las matemáticas? Pero resulta que, desde el principio, habíamos partido de unos supuestos "a priori" con los que no contábamos:

1- Las partículas tienen valores [a], [b] y [c] independientemente de si los medimos o no, los valores de las propiedades no surgen expontaneamente al hacer la medida, si no que, de algún modo, ya estaban ahí desde siempre. Es decir, que una partícula puede ser, por ejemplo, (AbC), aunque no se midan las propiedades. Esto no parece una suposición muy arriesgada, pero la física cuántica no respeta esto, se suele decir que "Los experimentos no realizados no tienen resultados".

2- El límite de la velocidad de la luz es válido ( a esto se llama "Localidad de Einstein" o simplemente "Localidad"). La teoría de la relatividad se ha mostrado hasta ahora muy coherente y está avalada por multitud de experimentos.

3- El método estadístico que hemos aplicado en el experimento también es válido. Esta es otra suposición que puede parecer esquivable, pero fijémonos en que este método no es más que un caso "depurado" de inducción, y la inducción es la base sobre la que se asienta todo nuestro conocimiento del mundo (no solo el conocimiento científico). Así que, como hemos visto, la física cuántica no respeta el punto 1. Con respecto al punto 2 guarda una posición un poco ambígua (muy poco satisfactoria, esta vez sí), en la que el límite de C podría ser violado, en ciertas condiciones, siempre que "no pudiera verse" como lo hace. Y respeta el punto 3 (no tiene más remedio, no es concebible la ciencia sin la inducción). Por lo tanto, si se quiere una teoría que explique los resultados del experimento, hay que conciliar los tres puntos indicados.

Nada más...y nada menos.

                                                    © 1987 Javier de Lucas