jueves, 17 de marzo de 2016

El principio de incertidumbre NO ocurre por interferencia del observador

Hoy he visto el n-ésimo artículo invocando el principio de incertidumbre de manera totalmente incorrecta. Se trata de un artículo del periodista Javier Gallego, director de Carne Cruda, titulado precisamente "Principio de incertidumbre".

El párrafo donde hace referencia a este principio afirma: "Dice el Principio de Incertidumbre que la propia observación de un fenómeno, lo modifica. Tanto el que encarga un estudio científico como el que defiende una idea basándose en un experimento, puede condicionar, modificar o, en el peor de los casos, tergiversar las pruebas a su favor. No es científico decir que la ciencia es incuestionable. El método científico es justo lo contrario. Consiste en poner a prueba una y otra vez cualquier teoría para encontrar sus fallos y afinarla. La ciencia avanza poniendo en duda a la ciencia desde la ciencia."

El párrafo en sí es el típico argumento relativista. Como la verdad no es absoluta todo vale, y una afirmación y su contraria tienen la misma validez. Hoy no vamos a discutir sobre esto (hay más entradas sobre el tema). Hoy vamos a hablas sólo del principio de incertidumbre, de como no ocurre como el señor Gallego menciona, aunque este sea un error muy común. De hecho, el mismo error se puede leer en la entrada al respecto de la Wikipedia en español, aunque ahí sí aclara que se trata de una explicación meramente divulgativa. En la entrada de la Wikipedia en inglés no se comete el mismo fallo, afortunadamente.

El Principio de Incertidumbre 

Según la Wikipedia, el principio de incertidumbre afirma que

"Si se preparan varias copias idénticas de un sistema en un estado determinado, como puede ser un átomo, las medidas de la posición y de la cantidad de movimiento variarán de acuerdo con una cierta distribución de probabilidad característica del estado cuántico del sistema. Las medidas del objeto observable sufrirán desviación estándar $\Delta x$ de la posición y el momento $\Delta p$. Verifican entonces el principio de indeterminación que se expresa matemáticamente como: $\Delta x \cdot \Delta p \ge \frac{\hbar}{2}$   donde la $h$ es la constante de Planck (para simplificar, $\frac{h}{2\pi}$  suele escribirse como $\hbar$)".

Hay una versión más general que esa, pero para el propósito del post no tenemos que salir de aquí. Si os fijáis, el Principio dice que no podemos medir algo más allá de una cierta precisión, pero no dice el porqué. De hecho, no hay un porqué, el Principio de Incertidumbre es uno de los postulados de la física cuántica (el postulado III), y no tiene una demostración. Es verdad porque no se ha violado nunca, y si algún día se viola dejaremos de considerarlo cierto.

Básicamente el principio de incertidumbre dice que hay pares de magnitudes que no podemos medir con una precisión arbitraria, como la posición y el momento. Si aumentamos nuestro conocimiento de una de las variables, disminuimos nuestro conocimiento de la segunda. No hay otra opción. No es una cuestión tecnológica, no dice que no podemos medirla hoy pero quizás sí podamos cuando tengamos mejores aparatos. No se puede porque es una limitación fundamental.



La explicación errónea del principio de incertidumbre: El microscopio de rayos X 

La explicación errónea del artículo de Gallego y de la Wikipedia es la siguiente: Al medir algo lo perturbamos, por eso no podemos medirlo con precisión infinita. El origen de este error está en un ejemplo que ideó el mismo Niels Bohr con carácter pedagógico. Quiero aclarar que no fue un error en su día, el ejemplo era sólo pedagógico, pero la explicación se tomó en lugar literal y dio lugar a esta mala interpretación.

El experimento mental de Bohr se basa en el siguiente dispositivo:

Fuente: Física Cuántica. R. Eisberg and R. Resnick. Editorial Limusa (2000).


Tenemos un electrón, representado por el círculo rojo, y queremos saber su posición. Una manera es hacerlo interaccionar con un fotón (o varios fotones), que luego son observados gracias a una lente (un microscopio). Mediante la interacción entre el fotón y el electrón determinamos su posición, pero esta interacción también modifica la cantidad de movimiento del electrón. La precisión de la medida en la posición se puede aumentar disminuyendo la longitud de onda del fotón (usando rayos X), pero esto hace que el fotón sea más energético, y así la indeterminación del momento transferido al electrón aumenta. A mayor precisión de la posición, menor precisión del momento y viceversa. 

Este ejemplo ilustra muy bien el principio, pero también trae una mala interpretación. En este caso es la interacción del fotón con el electrón el que da lugar a la incertidumbre en el segundo, y esto no siempre es así. Vamos a desmontarlo con un simple ejemplo y a explicar qué ocurre realmente (algo mucho más profundo). 


La explicación real del principio de incertidumbre

Expliquemos primero en que falla el ejemplo anterior. Imaginad que no os doy un electrón para que midáis su posición y momento. En su lugar voy a daros $N$ electrones idénticamente preparados, de modo que su posición y momento deben ser el mismo. Luego os preguntaré por otro electrón (el $N+1$), que también es igual.

Entonces la cosa cambia. Imaginad que al medir la posición variáis el momento, y viceversa, ahora da igual. Podemos medir la posición en $\frac{N}{2}$ electrones, el momento en los otros $4\frac{N}{2}$. Nos da igual si variamos otras magnitudes. Una vez que medimos los electrones no volvemos a usarlos más. Ahora calculamos una estimación muy precisa (si $N\to \infty$) de la posición ($x$) y el momento ($p$) del electrón y la aplicamos al electrón que nos queda. Voilá, tenemos una violación del principio de incertidumbre.

Evidentemente esto no ocurre. El principio de incertidumbre nada tiene que ver con la medida. Lo que nos viene a decir es que las propiedades de los sistemas cuánticos no están bien definidas, y las variables conjugadas deben cumplir esa relación. No es que no podamos saber la posición y el momento de un electrón, es que los electrones no tienen valores definidos de posición y momento.

Veamos un ejemplo más entendible. Si tenemos un fotón que atraviesa un dispositivo beamsplitter empezará a seguir dos caminos simultáneos. Siguiendo la filosofía anterior se podría decir que no podemos saber su posición, pero eso es incompleto, lo cierto es que no tiene posición. La posición está mal definida ya que se encuentra en varios sitios al mismo tiempo. Sobre todo esto ya discutimos en la entrada sobre la incertidumbre.


Igualmente ocurre con la posición y el momento de un electrón. Están en multitud de valores al mismo tiempo, por lo que no se puede hablar de valores bien definidos. El principio de incertidumbre lo que nos dice es que cuanto mejor definida esté una de estas magnitudes, peor definida estará la otra. No es un límite a lo que podemos medir, es un límite a la realidad de las magnitudes.

El único rol de la medida es que con al medir una variable podemos determinarla mejor, es decir, obligarla a tomar un valor mejor definido. Ahí sí habría un efecto en la otra variable, ya que el Principio de Incertidumbre se debe seguir cumpliendo. Esto es muy util para formar los llamados Sqeezed States. Estos son estados donde al medir una de las variables se indetermina aún más la otra, y que son de mucha utilizad en información cuántica. Sin embargo, no es necesario que haya interacción con el sistema para que haya incertidumbre, esta es intrínseca al sistema y no depende de la medida.

Por favor, dejad de hacer llorar a Heisenberg con esta mala interpretación de su principio (y sobre todo dejad de usarla para justificar el relativismo). 

19 comentarios:

  1. Una duda:

    Imagina que tenemos un electrón con la posición no definida. Entoces voy y mido su posición. A partir de entonces estará definida?

    Y si pasa a estarlo que pasa con su momento lineal?

    ResponderEliminar
    Respuestas
    1. Mi cerebro explosó cuando leí esto. Nunca lo había pensado. Creo que tengo la misma duda.

      Eliminar
    2. Hola.

      Eso es lo que he intentado explicar al final. Ahí si mides una variable sí que afectas a la otra. Si yo midiera la posición de una partícula con infinita precisión, para que el Principio de Incertidumbre se siga cumpliendo tiene que alcanzar un nuevo estado en el que el momento esté totalmente indefinido.

      Ahora bien, el principio se cumple antes y se cumple después. La medición afecta al estado, pero no es la que hace que tengamos incertidumbre.

      Eliminar
    3. Y entonces, supongo que si luego intento medir el momento con precisión infinita, la certidumbre total que tenía de la posición desaparece.

      Es decir, que en este caso, puede que en otros no. El hecho de medir ha cambiado la certidumbre que tenía sobre una propiedad del sistema.
      ¿No?

      Eliminar
    4. Claro que al medir algo cambias su incertidumbre, básicamente porque obtienes una nueva información y el nuevo estado debe ser compatible con esa nueva información.

      Eso forma parte de otro postulado de la FC. El postulado de la medida "Para cualquier estado puro \psi sobre el cual se hace una medida de primera especie de A y se obtiene el valor a_i, (con las probabilidades dadas por el Postulado III entonces el estado resultante se obtiene "filtrando" el estado inicial al subespacio M_(a_i), propio de A asociado al valor de la medida a_i, (matemáticamente esta "filtración" se obtiene mediante una proyección ortogonal a dicho subespacio). Si dicho subespacio propio tiene dimensión 1, el estado "colapsa" al estado a_i".

      La única relación entre esto y el principio de incertidumbre es que si mido la posición, por ejemplo, debe variar la incertidumbre del momento. Sin embargo la causalidad es inversa. No es que el principio de incertidumbre se cumpla porque al medir la posición varío el momento. Es que el momento varía porque se debe cumplir el principio de incertidumbre.

      Eliminar
    5. "No es que el principio de incertidumbre se cumpla porque al medir la posición varío el momento. Es que el momento varía porque se debe cumplir el principio de incertidumbre. "

      Esa frase a mi me suena muy rara. De lo que dices entiendo que al medir, a veces, si afecta al sistema, a lo que conocemos de él, es capaz de cambiar lo que conocemos de él. Entonces medir, si que cambia el sistema. A veces, depende de la situación.

      Yo entiendo eso, y si tal vez el periodista ese lo ve como yo? que a lo mejor no y si que está completamente equivocado, no se. Has probado a dialogar con él primero? que a lo mejor si, que no lo sé. Pero sería interesante preguntarle primero a ver que entiende.

      Eliminar
    6. Esta frase del artículo original: "Dice el Principio de Incertidumbre que la propia observación de un fenómeno, lo modifica." Está mal. La entiendas como la entiendas. El Principio de Incertidumbre no dice eso y no es un tema de interpretación.

      Al periodista le corregí por twitter (https://twitter.com/spidermanzano/status/710410339964350464) varias horas antes de escribir el post y no contestó. Otra gente le ha corregido en otros aspectos y tampoco ha respondido/rectificado (https://twitter.com/Fooly_Cooly/status/710553285040672769).

      Y el diálogo es el post, que corrige lo que se ha dicho que está mal y explica por qué está mal. Lo puede leer y replicar. Eso es diálogo.

      Eliminar
    7. Lo siento si te he ofendido. PEro sigo entendiendo lo mismo. Que el principio de incertidumbre si te indica que si mides la posición modificas el momento. Y he leído tu post varias veces. Pero sigo entendiendo lo mismo.

      Debe ser que uso el lenguaje de una manera diferente, no me pegues.

      Eliminar
    8. Te repito el ejemplo. Si te doy N+1 electrones en el mismo estado, eres libres de medir lo que quieras en N de ellos y luego me dices la posición y el momento del electrón N+1. Ese no lo mides, no lo alteras, y aún así el principio de incertidumbre se cumple. Su posición y su momento no lo podrás determinar con mayor precisión que la que el PI te permite.

      Eliminar
    9. Alex, Daniel tiene razón y lo ha explicado muy bien, aunque comparto contigo que la forma en la que se refiere al periodista, que ha hablado de lo que no sabía, puede no ser la más adecuada. El principio de indeterminación no dice que si mides la posición modificas el momento, es que normalmente estas magnitudes físicas no son propiedades del electrón, sino de la interacción del electrón con el aparato de medida. Con la polarización de los fotones es más fácil de explicar. Un fotón en el estado H tiene una polarización (H,V) bien definida, y ésta es H. Pero si lo hago pasar por un polarizador girado 45 grados para medir la polarización (+45,-45), resulta que hasta que no se produce la medición, el foton en el estado H NO TIENE un valor de polarización (+45,-45) bien definido. Después de esta medición, si sale +45 grados, entonces sí que tiene un valor de polarizacion (+45,-45) bien definido. Pero la medición NO CAMBIA el valor de la polarización (+45,-45) porque esa magnitud física NO TENÍAN ANTES UN VALOR BIEN DEFINIDO. NO ES QUE NO LO SUPIÉRAMOS, ES QUE NO TENÍA. Espero que con fotones quede más claro. Saludos

      Eliminar
    10. Dani, ya he dicho que habrá experimento en que afecte el medir y habrá en los que no. Eso es lo que entiendo de tu post. En el ejemplo que pones entiendo que el estado del N+1 queda determinado por las medidas en los N anteriores,no?

      Sergió, tu ejemplo me confunde jejeje. Vale medimos la polarización y de no tener pasa a tener +45. Eso para mi es un cambio del sistema. Luego puedes medir una propiedad conjugada que,por el principio de incertidumbre, de nuevo esa polarización vuelva a estar no definida, a continuación medir la polarización y puede que te de -45 .Todas estas mediciones no han producido cambios en el sistema?

      A ver por llegar a un consenso y reflexionando un poco. El principio de incertidumbre te dice cuanto va a cambiar la variable conjugada, bueno su incertidumbre, cuando midas la variable. No es que el principio de incertidumbre te altere el sistema, solo te dice cuánto va a cambiar ese sistema.

      Y hasta aquí puedo llegar, que ya me duele la cabeza jajaja. Perdón que me retire. Conclusión, hay que entender que todos nos podemos equivocar y también que no todos usamos el lenguaje de la misma manera

      Eliminar
    11. "En el ejemplo que pones entiendo que el estado del N+1 queda determinado por las medidas en los N anteriores,no?"

      No. El estado es el que viene dado por la preparación. Las medidas anteriores son en otros electrones y no afectan a ese. El valor de x y el de p sigue sin estar bien definido y cumple el principio de incertidumbre.

      "El principio de incertidumbre te dice cuanto va a cambiar la variable conjugada, bueno su incertidumbre, cuando midas la variable."

      Tampoco. El principio se cumple antes y se cumple después, pero no te dice que estado tendrás luego.

      Para eso tienes el siguiente postulado: "Para cualquier estado puro \psi sobre el cual se hace una medida de primera especie de A y se obtiene el valor a_i\, (con las probabilidades dadas por el Postulado III entonces el estado resultante se obtiene "filtrando" el estado inicial al subespacio M_{a_i}, propio de A asociado al valor de la medida a_i, (matemáticamente esta "filtración" se obtiene mediante una proyección ortogonal a dicho subespacio). Si dicho subespacio propio tiene dimensión 1, el estado "colapsa" al estado a_i".

      Este postulado es necesario y suficiente, y es el que tiene que ver con la interacción con el sistema, no el Principio de Incertidumbre.

      Aparte la frase: "Dice el Principio de Incertidumbre que la propia observación de un fenómeno, lo modifica." Está mal desde todos los ángulos. No lo dice el Principio de Incertidumbre, y no es algo que siempre pase.

      Eliminar
  2. Según uno de los postulados de la mecánica cuántica, una función de onda colapsará cuando sea medida, con lo cual el mismo hecho de medir (es decir, de observar) alterará la realidad. Antes de la medida no se puede hablar de 'valor' ya que hay una función de onda, luego de la medida, si. Creo que el espacio para la interpretación está en si es la presencia del observador lo que altera la realidad, o el hecho de que la medida involucrará inevitablemente una perturbación del medio.

    ResponderEliminar
    Respuestas
    1. Releyendo tu artículo, tienes razón. No es el principio de incertidumbre el que dice que una observación altera el estado, es el postulado de la medida el que lo dice.

      Eliminar
  3. Una pregunta Daniel,
    Sabes si arxiv es una fuente fiable? Estuve leyendo un artículo que mencionaba este link
    http://arxiv.org/abs/1506.06774
    How observers create reality by brian josephson

    Lo comprobé y encontré varios papers escritos por Brian Josephson como este:
    http://arxiv.org/abs/1307.6707
    "We Think That We Think Clearly, But That's Only Because We Don't Think Clearly": Mathematics, Mind, and the Human World

    ResponderEliminar
    Respuestas
    1. Hola María.

      Arxiv no es una fuente fiable en absoluto, porque es sólo un repositorio. Muchos científicos subimos ahí nuestros artículos, pero cualquiera puede hacerlo porque no hay revisión. Por ese motivo seguro que hay muchas cosas incorrectas en él. También hay cosas buenas e interesantes, claro está, pero a priori distinguirlo es difícil.

      Un consejo, si el artículo está publicado tendrá su referencia añadida. Si tiene ya un tiempo y no tiene referencia es que probablemente ninguna revista lo ha querido publicar.

      Un saludo.

      Eliminar
    2. Ok muchas gracias Daniel
      Un saludo

      Eliminar
  4. Hola, no sé que tan tonto sonará pero ahí va.
    ¿El principio de incertidumbre no es una función? Que a determinado momento, se daría cierta posición (que le correspondería ésa única posición y no otra)

    ResponderEliminar
  5. Siempre recordaré a Juan Nieves explicando esto. Si no recuerdo mal, empezaba por algo básico sobre distribuciones de probabilidad, después introducía la transformada de Fourier y para cada distribución encontrabas otra vía dicha transformada. Resultaba que el producto de las anchuras típicas de ambas distribuciones siempre era un número finito. Asumiendo después la interpretación probabilística de la Cuántica, el ppio. de Heissemberg salía de manera natural... :) Qué tiempos aquellos....

    ResponderEliminar

Agradecemos mucho tu opinión, pero comentarios difamatorios, insultantes o con ánimo de ofender, trollear o spamear serán eliminados. Tampoco se aceptan comentarios anónimos.