martes, 21 de abril de 2015

Incertidumbre cuántica o intrínseca

Anteriormente ya hemos hablado de la incertidumbre en la física clásica, y la hemos relacionado con la falta de conocimiento. En resumen, si lanzamos un dado, no podemos predecir su resultado (o seríamos ricos), pero eso no quiere decir que el resultado esté en sí indeterminado. Simplemente carecemos de conocimiento sobre las condiciones iniciales (como se lanza, cual es su estructura exacta, a qué distancia está de la mesa...) y no tenemos capacidad de cálculo suficiente. ¿Significa eso que no existe la incertidumbre? ¿Puede realmente el Demonio de Laplace predecirlo todo? Es bien sabido que no, y que la física clásica se diferencia de la cuántica precisamente en este punto. 

La física cuántica es una teoría (o conjunto de teorías, según nos pongamos más finos) probabilística. Se diferencia de otras ramas, como la física estadística, en que esa probabilidad no es producto de nuestra ignorancia, sino que es intrínseca a los sistemas. Pongamos un ejemplo sencillo. Podemos lanzar un fotón, una partícula de luz, hacia un cristal semirreflectante (beamsplitter en inglés). Entonces el fotón pasará a recorrer dos caminos simultáneos. Si ponemos detectores al final de cada camino [1] detectaremos el fotón en cada uno de ellos un 50% de las veces. 

Experimento con un solo fotón [2]


Aquí puede saltar una pregunta evidente. ¿Qué diferencia esto de un proceso clásico? ¿No es posible que el fotón decida tomar un camino o el otro y nosotros no lo sepamos? Para poner a prueba esta afirmación se pueden hacer más experimentos, involucrando más cristales, como el siguiente que incluye dos beamsplitters y dos espejos.


Si en cada beamsplitter el foton "decide" por donde tirar, es evidente que ambos detectores deben activarse un 50% de las veces. Sin embargo eso no ocurre. Se puede diseñar el dispositivo de modo que uno detecte el 100% de los fotones (con su margen de error estadístico, claro). ¿Por qué ocurre eso? Porque el fotón, que tiene un comportamiento ondulatorio, interfiere consigo mismo, transfiriendo toda su amplitud a uno de los caminos. 


¿Prueba esto que el proceso es puramente aleatorio? En un gran indicador, no cabe duda, pero hay que reconocer que no es una demostración total. Todavía hay un pequeño colectivo dentro del mundo cuántico que defiende la llamada Teoría de Variables Ocultas. Esta teoría postula la existencia de grados de libertad internos de las partículas, que son los que determinan el resultado de este tipo de experimentos. De ser cierta esta teoría la incertidumbre cuántica y la clásica serían equivalentes, y no habría una diferencia de base. 

Sin embargo, las teorías de variables ocultas no están muy aceptadas por la comunidad física. Básicamente, gracias a otro fenómeno cuántico, el entrelazamiento. No entraré en mucho detalla (podéis leer el post anterior sobre el entrelazamiento). En resumen, el entrelazamiento es una propiedad de los sistemas que permite que lo que se mida en un subsistema en un lugar del universo afecte inmediatamente a  otro subsistema que se encuentre en cualquier otro punto del universo. Esto entra en conflicto con la Relatividad Especial, que nos muestra que una comunicación instantánea puede usarse para viajar en el tiempo. Así que una vez el entrelazamiento se probó en los laboratorios nos quedan tres opciones, y una debe ser verdadera. 

1.- No hay variables ocultas y los fenómenos cuánticos son intrínsecamente aleatorios. Así no se puede usar el entrelazamiento para enviar ningún tipo de información, ya que es aleatorio. 

2.- Existen variables ocultas y se puede enviar mensajes a través del tiempo. 

3.- Todos los experimentos realizados sobre el entrelazamiento están mal. 

Dado que los viajes en el tiempo son algo que da muchos problemas conceptuales, la opción más aceptada es la primera. Es cierto, también, que todos los experimentos realizados hasta el momento sobre el entrelazamiento tienen algún tipo de problema (loophole) que no los hacen definitivos. En experimentos con átomos estos están demasiado cerca el uno del otro, por lo que podría haber comunicación (loophole de localidad). En experimentos con fotones al aire libre la mayoría se pierden y si se usa una fibra óptica se reflejan al final, por lo que no llegan suficientes al detector (loophole de detección). Así ocurre con todos, cada uno tiene un problema, pero no todos tienen el mismo problema. Para invalidarlos a todos las teorías de variables ocultas se han tenido que ir haciendo más y más esotéricas, incluyendo canales de comunicación desconocidos entre átomos, fotones indetectables y cuestiones similares. En cualquier caso, hay una carrera activa para realizar un experimento perfecto (loophole-free) sobre entrelazamiento, y esperemos que de resultado en los próximos años. 

Si se realiza tal experimento, y es previsible que ocurra, ya sólo nos quedarán dos opciones. Una es aceptar la aleatoriedad de los sistemas cuánticos como algo intrínseco. La segunda es considerar que se pueden enviar mensajes en el tiempo, con todo lo que eso conlleva. Ustedes deciden cual es más razonable. 




Referencias y notas:

[1] Se ha afirmado reciente e incorrectamente que no existen este tipo de experimentos con partículas individuales (ver ¿Por qué es imposible eliminar la incertidumbre?). Es incorrecto, podéis ver la referencia [2] con infinidad de experimentos, y los detectores de fotones individuales se pueden comprar con facilidad

[2] P. Grangier. Experiments with single photons. Seminare Poincaré 1-26. (2005).


3 comentarios:

  1. Resulta curioso que los aspectos exóticos que hay alrededor de las variables ocultas surgiesen por la crítica de un grupo de físicos escépticos con la aleatoriedad de la mecánica cuántica. En este punto las opiniones se dividen, unos piensan que Einstein y colegas no creían en las variables ocultas y otros piensan que sí creían en ellas.

    La paradoja EPR tenía por objetivo restaurar la localidad y la causalidad, sus proponentes desconfiaban de la aleatoriedad, pensaban que era preferible explorar la unificación del campo gravitatorio y el electromagnético. En este sentido la MC no parecía la teoría adecuada para cumplir con ese objetivo o al menos necesitaba completarse.

    Si el entrelazamiento es una propiedad de los sistemas que permite que lo que se mida en un subsistema en un lugar del universo afecta inmediatamente a otro subsistema que se encuentre en cualquier otro punto del universo ¿dónde se pone la frontera entre la localidad y la no localidad? Si la distancia que separa a dos sistemas es de millones de años luz y la información les afecta de modo instantáneo, entonces parece imposible explicar este punto debido a las restricciones que impone la RE. Tal como escribes, la hipotética transmisión supralumínica de la información entra en conflicto con la teoría de Einstein.

    Los eventos supralumínicos parecen requerir de espacios inmateriales, ingrávidos, con tensores de curvatura nulos o cuasi nulos. Espacios que permitan torsiones del plano para que surjan líneas cerradas de tiempo, curvas cilíndricas que favorezcan la simultaneidad. Pero la casuística es tozuda, desde principios de los 80 varios experimentos han falsado la desigualdad de Bell hasta en 242 desviaciones estándar para conseguir resultados que parecen contradecir la simultaneidad. Veremos que nos dicen los experimentos futuros.









    ResponderEliminar
  2. Este comentario ha sido eliminado por el autor.

    ResponderEliminar
  3. Este comentario ha sido eliminado por el autor.

    ResponderEliminar

Agradecemos mucho tu opinión, pero comentarios difamatorios, insultantes o con ánimo de ofender, trollear o spamear serán eliminados. Tampoco se aceptan comentarios anónimos.