lunes, 9 de junio de 2014

Podemos, la democracia directa y la "casta científica"

Recientemente, en España, un partido político ha irrumpido en el panorama nacional como un elefante en una cacharrería. Se trata de Podemos, partido recién creado que ha pasado de la nada a ser la cuarta fuerza más votada. Sin duda se trata de un hecho muy importante para la política española. Desde mi punto de vista Podemos tiene un mensaje principal, escuchar a la ciudadanía. Esto tiene tantos matices que es casi imposible definirlo. 

Muchos se han sumado al movimiento, y se han escrito muchas cosas. Algunas más sensatas, y otras menos, y no queda claro (al menos no a mí) cuando se habla en representación del partido y cuando no. Un artículo de opinión que ha caído como una losa en el debate es el escrito por Ruth Toledano en el diario El Diario. Se titula: La casta científica y el paradigma ético de Podemos. El artículo en sí trata sobre la investigación animal, tema sobre el que no voy a opinar ya que no es mi especialidad (a ver si aprenden otros/as). Sin embargo, hay dos temas diagonales que sí que me tocan directamente y sobre los que sí pienso opinar. El primero, es el término "casta científica", que la señora Toledano relaciona con el "cientifismo". El segundo tema es la relación entre la ciencia y la democracia, y si se tienen que decidir las políticas científicas por decisión popular. 

Con esta introducción ya os podéis imaginar que este no es un post divulgativo. Si buscáis ciencia tenéis muchos otros en el blog. Este es un texto de opinión. Mi opinión como científico, claro, pero de opinión al fin y al cabo. Empecemos por el tema de la casta. 

domingo, 1 de junio de 2014

Falacia cuántica III. Preguntarse por el colapso de la función de onda es como preguntarse por la existencia de Dios

Eso es algo que nunca había leído, hasta el artículo en Naukas, donde se afirma: "Es tan erróneo preguntarse qué significa el colapso de la función de onda como preguntarse si existe un dios." Es cierto que en este tema la filosofía juega un papel muy importante, pero de nuevo la afirmación anterior es bastante rara. 

Filosofía

Con respecto a la función de onda hay dos tendencias filosóficas bien definidas. Una es la ontológica, que mantiene que la función de onda es un objeto real, que evoluciona y se modifica al medir el sistema. La otra es la epistemológica, que afirma que la función de onda es simplemente una herramienta matemática que nos da información sobre un sistema. Según esta segunda tendencia, no tiene sentido hablar del colapso de la función de onda en sí, porque lo que ocurre al medir es, simplemente, que actualizamos nuestra información. 

Esto, como he dicho, es filosofía. Las opiniones son tan generales que no son falsables, y eso hace que no sea ciencia. Yo no soy de los científicos prepotentes que opinan que la filosofía es una idiotez, pero hay que intentar diferenciar la ciencia de lo que no es ciencia. 

Hasta aquí, la filosofía. Hablemos también un poco de ciencia. 


Modelos de colapso de la función de onda

Antes de preguntarnos qué significa el colapso de la función de onda deberíamos preguntarnos si el tema está zanjado desde un punto de vista puramente científico. Esto viene a ser lo mismo que preguntarnos si sabemos que ocurrirá en un experimento concreto. Lo cierto es que para muchos experimentos aún no lo sabemos. Por ese motivo preguntarse qué significa el colapso de la función de onda quizás no tenga mucho sentido (principalmente por la vaguedad de la pregunta), pero preguntarse cómo colapsa la función de ondas es necesario.

El problema viene a ser el mismo que el que discutimos en el post anterior, sobre el límite clásico. Es muy difícil averiguar cuándo un sistema perderá sus propiedades cuánticas, y pasará a un estado clásico. De hecho, hay bastantes propuestas de modelos de colapso.

Los modelos de colapso de la función de onda se basan en un simple principio, que la ecuación de Schrödinger es sólo aproximada, y que a partir de una cierta masa, combinada con un cierto tamaño de interferencia, ya no se puede usar. Está claro que estos modelos de colapso proponen una modificación a la teoría y no simplemente una interpretación. Por ese motivo, hay propuestas experimentales para testar los distintos modelos en combinación con la decoherencia. (Ver la referencia [1] para una extensa discusión).

Esperimentos

Sobre este tema hay bastantes propuestas experimentales, como la de la referencia [1]. De hecho, hace muy poco salió otro artículo en esa misma dirección [2]. Experimentos me temo que hay menos, y los que hay he de reconocer que no aclaran nada que no supiéramos anteriormente.

Sin embargo, el hecho de que sea una cuestión experimentable ya lo hace científica, no filosófica, y en mi opinión es también muy interesante.

Referencias

[1] O. Romero-Isaart. Phys. Rev. A. 84 052121 (2010). 
[2] M. Bahrami et al. Phys. Rev. Lett. 112 210404 (2014).

Falacia cuántica II. El límite clásico se obtiene haciendo la constante de Planck cero

Esta falacia es una de mis favoritas. Se encuentra en libros de cuántica, como el horrible Eisberg-Resnik,  mis profesores me lo enseñaron así y tuve que esperar a salir a investigar fuera para darme cuenta del error. Por supuesto, también hay libros de cuántica que lo explican bien, los más modernos, pero según parece leer literatura moderna no va con algunos. 

Un ejemplo de la falacia se puede encontrar en el artículo de Herrero-Valea en el Cuaderno de Cultura científica. "..., sólo existe una física, la cuántica si queréis, y sólo dejamos de observar sus efectos en nuestro día a día por el mero hecho de que somos demasiado grandes". Aparte de la falta de lógica de afirmar que sólo existe una física, pero que no vemos sus efectos, el argumento es del tamaño es sólo parcialmente correcto. El problema es que afirmar algo que sólo es parcialmente cierto es que lleva al error. 

Empecemos entonces por definir el problema. La física cuántica se descubrió al ver que ciertos fenómenos microscópicos no se podían describir mediante la física clásica. Esto permitió el desarrollo de una nueva teoría. Por otro lado, sabemos que la física clásica se aplica perfectamente en la mayoría de los sistemas macroscópicos. Por ese motivo, es esperable que la física clásica se pueda derivar de la cuántica. Como veremos ahora, parte de esa derivación tiene que ver con el tamaño, pero hay otra parte que no. Además, la parte que no tiene que ver con el tamaño aún no está bien clara, por lo que se considera aún un problema abierto. 

Pequeña búsqueda bibliográfica

Decidir si un problema está aún abierto no es sencillo, y hay que reconocer que es algo bastante subjetivo. Sin embargo, si hacemos una pequeña búsqueda sobre el tema nos deben saltar bastantes alarmas. Sin mucho esfuerzo, al buscar información sobre el límite clásico-cuántico aparecerá una palabra sin duda, decoherencia

De hecho, sin mucho esfuerzo de nuevo, encontraremos este libro, muy conocido en la comunidad cuántica, pero que parece que gente de otros campos de la física tienen alergia a leer. 



No deja de ser curioso. El libro se titula, "Decoherencia y la transición cuántico-clásica". ¿Qué tendrá que ver la decoherencia esa con la transición? ¡Si esta depende sólo del tamaño!

También es fácil encontrar artículos científicos y declaraciones de científicos activos en el tema. Un ejemplo es este artículo de physorg, titulado ¿Emergen las leyes Clásicas de las leyes Cuánticas? Este es un artículo divulgativo, basado en un artículo científico publicado por Caslav Brukner y Johannes Kofler [1]. Los autores son entrevistados por physorg, y algunas de sus afirmaciones contradicen totalmente la idea de que el límite clásico aparece para sistemas grandes. Igualmenten contradicen la afirmación de que esto es una pregunta cerrada.

Kofler afirma:

“Just because something is big doesn’t mean it can be described by classical physics.” (Sólo que algo sea grande no significa que pueda ser descrito con la física clásica).

“It’s really fair to say that classical physics out of quantum theory has not been entirely achieved yet by anybody,” (Es justo decir que la emergencia de la física clásica a partir de la cuántica todavía no ha sido conseguida por nadie).

Por supuesto, esto es sólo la opinión de un científico. En concreto, la de un científico que publicó en Physical Review Letters sobre ese tema en concreto, y que está considerado una gran promesa de la ciencia internacional, pero es su opinión al fin y al cabo. Vamos a ver argumentos más sólidos sobre el tema y, en última instancia, vamos a mirar si hay experimentos al respecto. 

El límite del tamaño

Como ya he dicho antes, todavía mucha gente piensa que el límite clásico de la física cuántica es sencillo de obtener, y que tiene que ver con el tamaño. Para ser más exactos, lo que se afirma es que cuando la constante de Planck tiende a cero se recupera la física clásica. Esta afirmación, como ya he dicho, es sólo parcialmente cierta. 

Primero, discutamos que significa eso de que una teoría tiende a otra. En física cuántica tenemos una constante fundamental, la constante de planck. Esta es una unidad de acción, y tiene un valor de 6.62 10^-23 10^(-34) Julios segundo. Eso es un valor extremadamente bajo. En el mundo macroscópico todos los valores de magnitudes equivalentes son muchísimo mayores. Eso indica que quizás la física que domina el mundo macroscópico es simplemente la misma que la del mundo microscópico, pero para acciones mayores. Así, si la constante de Planck fuera cero, cualquier acción sería mayor, y la física clásica y la cuántica coincidirían. 

Y realmente es así, pero sólo en algunos casos. El más importante es el que tiene que ver con las ecuaciones de movimiento de las partículas. En física cuántica la ecuación que determina el comportamiento de una partícula es la Ecuación de Schrödinger. ¿Y en física clásica? Hay varias, pero una formulación muy usual es la Ecuación de Hamilton-Jacobi. ¿Tiende la ecuación de Schrödinger a la ecuación de Hamilton-Jacobi en el límite de la constante de Planck igual a cero? Sí, viene incluso en la Wikipedia. ¿Entonces de que seguimos hablando? La física clásica se deriva de la cuántica. Caso cerrado. Todo eso de la decoherencia no son más que inventos de hippies, el tal Kofler no tiene ni idea y podemos insultar a todo aquel que trabaje en este campo con tranquilidad. Vamos a brindar por la supersimetría para celebrarlo.

El problema es que la física cuántica no es sólo la ecuación de Schrödinger. De hecho, esta es sólo uno de los 6 postulados de la física cuántica (puede haber más o menos postulados, según el autor). Ciertamente, es un postulado importante, pero aún quedan los demás. 

Cuando el tamaño no importa (tanto)

Bueno, ¿entonces qué ocurre con los demás postulados? 

Pues con el primero, que dice que el estado de un sistema se define por un vector en un estado de Hilbert, no ocurre nada. No hay ningún motivo relacionado con las constante de Planck para afirmar que un estado como el del gato de Schrödinger no sea posible. Su evolución temporal vendrá dada por una ecuación de Schrödinger equivalente a la de Hamilton-Jacobi, pero el estado puede existir. Animo a todo aquél que afirma que el límite clásico viene de hacer la constante de Planck igual a cero a que demuestre este punto. De hecho es eso lo que demuestran Brukner y Kofler en su paper [1], que un sistema de spines muestra comportamiento cuántico independientemente de su tamaño.

Otro resultado que contradice este límite clásico. El entrelazamiento cuántico es un fenómeno del que hemos hablado ya por aquí. Es un fenómeno puramente cuántico. Sin embargo, no tiende a cero al hacer cero la constante de Planck. Las desigualdades de Bell no entienden de esas cosas. Un caso concreto son los sistemas atómicos. En el Helio, el entrelazamiento crece con la energía del sistema, de modo que cuanto más nos alejamos de la constante de Planck, más comportamiento cuántico tenemos [2]. 

Entrelazamiento de un átomo de Helio, para distintos estados [2]


Experimentos

Al final, la física es una ciencia experimental, así que debemos siempre revisar la bibliografía en busca de experimentos. Esto es algo a lo que la gente parece tenerle alergia también.

Un ejemplo interesante, y reciente, es un artículo publicado en Science por el grupo de Anton Zeilinger [3]. En ese artículo, crearon entrelazamiento en un sistema fotónico con un momento angular total de 600 veces la constante de Planck. Eso es un valor muy alto, suficiente para esperar que no haya efectos cuánticos si la constante de Planck fuera el único factor determinante, pero aún así encontraron y midieron esos efectos.


Montaje experimental del experimento de la referencia [3]

Se puede alegar que esto es un caso concreto, y es cierto. Lo que ocurre es que un caso concreto ya refuta una afirmación general. Si la física clásica se derivara simplemente del hecho de tener una acción mucho más grande que la constante de Planck este experimento no habría dado estos resultados.

Por supuesto, ocurre además que este experimento es un ejemplo, pero no es el único ejemplo. Se han conseguido generar superposiciones en gran cantidad de sistemas cada vez más grandes, incluyendo fullereno [4] y moléculas orgánicas de hasta 400 átomos [5]. Por ahora, no hay nada que indique que haya un límite inalcanzable salvo el presupuesto de cada laboratorio.

Reflexión

El problema de la transición cuántico-clásica ha estado encima de la mesa por un largo tiempo. Los experimentos de superposición de estados cada vez más grandes también. Es difícil entender porqué cierta gente se niega en redondo y prefiere afirmar que el problema está resuelto en contra de los experimentos y la evidencia. Creedme si os digo que nada de esto es un secreto, hay infinidad de gente trabajando en la decoherencia.

Imagino que todo tendrá que ver algo con no estar al día sobre lo que se hace en la comunidad, pero eso es una excusa muy pobre. 

Referencias

[1] J. Kofler and C. Brukner. Phys. Rev. Lett. 99 180 (2007).
[2] D. Manzano, A.R. Plastino, J.S. Dehesa and T. Koga. Journal of Physics A: Mathematical and Theoretical, 43 (2010) 275301.
[3] R. Flicker et al. Nature 338 640 (2012).
[4] M. Arndt et al Nature, 401 680 (1999).
[5] S. Gerlich et al. Nat. Commun. 2 263 (2011).

Falacia cuántica I. La naturaleza es probabilística, y el que diga lo contrario es un "acientífico"

Si bien hay un consenso muy amplio sobre la naturaleza aleatoria de los sistemas cuánticos, ese tema aún no está cerrado. No olvidemos que el consenso no demuestra que algo sea de una determinada manera, los experimentos y las matemáticas lo hacen. Tampoco es esto una cuestión de decisión personal, la naturaleza es o no es probabilística, otra cosa es que seamos capaces de demostrar una cuestión tan profunda. Aunque yo creo profundamente que la naturaleza es probabilística, he de reconocer que eso aún no lo hemos probado. Hay mucha gente trabajando en ese tema (magufos, acientíficos, físicos experimentales, premios Nobel, en fin, gente de mal vivir), y creo que tendremos nuevos resultados pronto, pero eso no es seguro. A día de hoy si alguien defiende que debe haber una teoría más allá de la cuántica que nos dé una capacidad mayor de predicción está en su derecho. 

Historia


La aleatoriedad de la física cuántica es algo que molestó a mucha gente durante mucho tiempo. Einstein fue la principal figura que se opuso a este tema con su famosa frase "Dios no juega a los dados con el universo". En 1935 publicó un paper [1] con Boris Podolsky y Nathan Rosen formulando lo que para ellos era una paradoja ocasionada por la aleatoriedad cuántica. A esta aparente paradoja se la bautizó como la Paradoja EPR, por las iniciales de los autores. Paradójicamente, lo que describieron en ese artículo es lo que hoy en día se denomina un sistema entrelazado (entangled en inglés), y como veremos en breve precisamente el entrelazamiento es la propiedad que nos permite investigar sobre el carácter probabilístico de la mecánica cuántica. En su momento la postura de Einstein, Podolsky y Rosen (EPR) fue considerada una cuestión puramente filosófica, ya que no se podía medir. 

Otro crítico con la indeterminación fue David Bohm, quien en 1952 publicó su teoría sobre variables ocultas [2]. La idea de Bohm era clara, la incertidumbre cuántica no es intrínseca a la naturaleza, sino que ocurre porque hay variables que no vemos. Hay quien afirma que esto es sólo una interpretación, pero eso es muy discutible. Si alguien afirma que hay unas variables ocultas, pero que nunca se podrán medir, eso es una interpretación. Además, al introducir más complejidad para predecir lo mismo sería una interpretación bastante innecesaria. Como la física cuántica funciona con todos los experimentos realizados hasta el momento, esa teoría basada en variables ocultas invisibles debe dar los mismos resultados para ser aceptada. Sin embargo, si uno afirma que hay variables ocultas y que tal vez en el futuro podamos medirlas y cambiar la teoría probabilística por una determinista, eso no es una interpretación. Eso sería una nueva y más potente teoría. Eso no es filosofía, eso sería un paso de gigante para la ciencia. 

En esos momentos, aún todo era una cuestión de opinión, ya que no había resultados experimentales que pudieran probar el carácter aleatorio o determinista del universo. Todo cambió en 1964, cuando  John S. Bell propuso una manera de medir el entrelazamiento experimentalmente. ¿Qué tiene que ver esto con la aleatoriedad? Os preguntaréis. Pues básicamente, todo. Bell demostró lo que ahora se conoce como el Teorema de Bell, que afirma que "ninguna teoría de variables ocultas locales puede reproducir todas las predicciones de la mecánica cuántica". Habrá que preguntarse entonces qué es una "teoría de variables ocultas locales". Básicamente, Bell demostró que una de estas tres afirmaciones no puede ser ciertas:

- Las predicciones de la mecánica cuántica, en torno a los sistemas entrelazados, son correctas.
- La información no puede viajar a velocidades superiores a la de la luz (localidad).
- La naturaleza es determinista (variables ocultas). 

Hoy en día se añade una nueva afirmación, la de la libertad de medir lo que uno quiere, pero por ahora podemos centrarnos en estas tres. Lo que dice el teorema de Bell es que si la mecánica cuántica es correcta tendremos que aceptar o bien que no hay variables ocultas, o bien que la información viaja a velocidad superlumínica. Como lo segundo da lugar a paradojas temporales, según la relatividad, lo más lógico es simplemente aceptar que la naturaleza es probabilística. 

Caso cerrado. Se acabó. No hay variables ocultas. El que diga lo contrario es un acientífico, un magufo, etc. 

Bueno, yo no lo diría tan rápido, ni mucho menos tan seguro como hacen otros. La cuestión es que antes hay que demostrar que las predicciones de la mecánica cuántica con respecto a los sistemas entrelazados son correctas. Para hacer eso quizás no baste con escribir en internet. Para eso tal vez tengamos que arremangarnos y experimentar un poco. 


Experimentación

La experimentación sobre el entrelazamiento empezó en 1972, cuando Freedman and Clauser observaron la violación de las desigualdades de Bell. Después ha seguido hasta el día de hoy por científicos como Aspect, Zeilinger o Salar (ver la lista de experimentos en la Wikipedia). Algunos son tan recientes como este paper de Zeilinger en Nature [3]. No deja de ser curioso que para ser este un tema cerrado en los 50, según algunos, se sigan publicando papers en revistas de alto impacto. 

Evidentemente, el tema no está cerrado, ni mucho menos podía estarlo en los 50, veinte años antes de empezar los experimentos. El problema es que cada experimento realizado hasta la fecha tiene siempre algún tipo de defecto (loophole en inglés). Con sólo mirar la Wikipedia se puede ver una lista de loopholes. Así que por ahora, los defensores de las teorías de variables ocultas, que aún son muchos, todavía no defienden nada acientífico. De hecho, aunque tengamos un experimento perfecto, aún las variables ocultas no habrán muerto del todo, ya que siempre se puede formular una teoría de variables ocultas no-local. 

De hecho, a día de hoy todavía se proponen y estudian teorías de variables ocultas. Dos ejemplos que sigue la gente estudiando son la teoría de Gerard t´Hoff [4] y la clase de teorías de variables ocultas no-locales de Anthony Legget. Ambos son unos magufos de cuidado, claro está, magufos y premios Nobel. Y las decenas de equipos experimentales que trabajan en probar o refutar sus teorías son más magufos aún.

Estado actual y reflexión

Sinceramente, no puedo entender como científicos con formación pueden hacer afirmaciones categóricas sobre este tema sin revisar antes la bibliografía. Mucho menos puedo entender que descalifiquen a gente que quiere investigar en esta dirección. Como he explicado hay una pregunta abierta, y hasta que no se cierre es perfectamente lícito indagar en ella. Es válido y es científico, no filosófico como dicen algunos. Hablamos de teorías y experimentos que pueden refutar esas teorías. Con sólo buscar "entanglement" en cualquier repositorio de revistas se puede ver una enorme lista de experimentos al respecto.

Por otro lado, lo que no es válido es decir que las cosas son de una determinada manera, no demostrarlo, y de paso atacar e insultar a los que trabajan en probarlo o refutarlo.

Referencias


[1] A. Einstein.; B. Podolsky; N. Rosen. Phys. Rev.  47 777 (1935).
[2] D. Bohm, Phys. Rev. 85, 166 (1952) ; 85, 180 (1952) . Ver también, Phys. Rev. 87, 389 (1952).
[3] M. Giusina et al. Nature, 497 227 (2013).
[4] G. 't Hooft,  Class. Quant. Grav. 16, 3263-3279 (1999).

Falacias cuánticas

Es muy triste ver que cierta gente hace afirmaciones rotundas sobre temas científicos sin argumentarlas. Más triste es cuando esa gente tiene formación científica, pero de repente no le da la gana de usarla en un determinado problema o discusión científica. Aún más triste, tristísimo, es argumentar con alguien a base a argumentos, referencias y, sobretodo, experimentos y encontrar con una firme oposición basada en absurdos argumentos de autoridad. 

Los físicos que nos dedicamos a investigar en cuántica nos encontramos esa situación constantemente, por parte de físicos de otras materias. De hecho, algunas falacias sobre la física cuántica se ven incluso en libros de esta materia (antiguos, claro), y eso hace que algunos las repitan sin cesar, y sin pararse a pensar sobre ellas. También bastaría con leer un poco de la bibliografía más reciente, pero eso podría sacar a la gente de su error, y reconocer que uno se equivoca parece demasiado duro. 

Esto, como ya digo, es algo que ocurre constantemente. Sin embargo, recientes acontecimientos me han llevado a decidir escribir una serie de posts sobre el tema. Permitidme una breve introducción sobre lo que ha ocurrido, en plan "Abuelo Cebolleta". 

El partido político Podemos ha irrumpido en el panorama político español de forma totalmente inesperada. Un partido nuevo ha sacado cinco eurodiputados en las elecciones europeas. ¿Qué tiene esto que ver con la física cuántica? Os preguntaréis. Bueno, tiene que ver el hecho de que el quinto eurodiputado de Podemos es un físico e investigador del CSIC, Pablo Echenique-Robba. Esto no sería más que una anécdota si no fuera porque justo después de la elección al doctor Echenique se le ha atacado, calificándole de "magufo", "negacionista de la cuántica" y muchas idioteces más. Todo totalmente injustificado. Echenique es un buen científico, con un buen índice de publicaciones, y no ha expresado ninguna opinión anticientífica (o al menos no lo ha hecho en el artículo por el que le critican). Echenique simplemente expresó su opinión sobre el interés de seguir líneas que siguen muchos científicos, y que explicaré porqué son líneas abiertas. Si a alguien no le gustan esas líneas, que no las sigan, o incluso que hagan campaña porque no se financien, pero descalificar a otros científicos por las buenas es una horrible técnica científica. Peor me parece cuando, además se descalifica sin dar ningún argumento, ni referencia, ni nada más allá del argumento de autoridad. Más información sobre el tema en este post de Francis.