miércoles, 22 de diciembre de 2010

Carta abierta de un joven científico a Teddy Bautista (y por extensión a la SGAE)

Después de que se rechazara la llamada "ley Sinde" en el congreso era de esperar una cascada de reacciones por parte de las partes interesadas, artistas, SGAE, ciudadanos de a pie y demás. 

Una de ellas ha sido el comunicado del director de la SGAE, Teddy Bautista, en su web. Como es costumbre no estoy de acuerdo en lo que dice, pero no pasa de ser mi opinión personal como un ciudadano y consumidor de cultura más. Sin embargo por primera vez he visto que el señor Bautista se ha referido directamente a mi colectivo, los científicos, como parte afectada. Cito: 

"Paradójicamente, no somos nosotros los principales perjudicados en esta situación; es la ciudadanía, que se verá privada a medio y largo plazo de un rico acervo cultural, de un imaginario colectivo que, desde el principio de los tiempos, los creadores y artistas, los científicos e inventores, han construido para favorecer el desarrollo intelectual y económico de los pueblos."

Señor Bautista, no se si ha hablado usted con algún científico, pero yo lo hago con muchos a diario, de distintos países y disciplinas y creo que tengo más información sobre mi colectivo que usted. Nunca he conocido  a ningún científico que apoye el tipo de medidas que estaban presentes en esa ley. Debería saber  que la mayoría de las publicaciones científicas se hacen sin remunerar a los autores, cosa que ustedes defienden que es insostenible. De hecho desde hace ya unos años se crean páginas donde los autores enlazamos nuestros artículos para que estén accesibles sin necesidad de suscribirse a las revistas (como ejemplo arXiv, donde en el momento de escribir este post puede usted consultar 647,809 artículos de forma gratuita). Igualmente ocurre con muchos libros científicos, donde el autor no recibe ninguna remuneración. También el colectivo científico participa activamente en el desarrollo de páginas como la Wikipedia sin reclamar derechos de autor, ejemplos son páginas muy específicas como las dedicadas a la Relatividad General, o a la Computación Cuántica, realizadas sin duda por gente especialista. También recientemente han aparecido revistas de investigación gratuitas de consultar, donde los científicos pagan por publicar, como New Journal of Physics o Plos One. Le animo a que se pase por ellas y descargue tantos artículo como desee gratuitamente. 

Si desea una información más detallada sobre este tema le animo a consultar mi post anterior sobre Internet y la Ciencia y ver como internet y el acceso libre nos ayuda a diario a hacer nuestro trabajo y, como usted mismo dice "favorecer el desarrollo intelectual y económico de los pueblos".

Le pediría, señor Bautista, a título personal como científico, que no incluya en sus reivindicaciones a un colectivo que nada tiene que ver con su asociación, que no comparte en absoluto su postura y que, en mi opinión, es un claro contraejemplo de lo que usteden defienden. Los científicos rara vez vivimos de vender nuestras creaciones intelectuales, y vivimos, con lo cual su afirmación de "o descargas o cultura" es manifiestamente errónea.

Como ejemplo le doy también mi página web profesional donde podrá descargarse gratuitamente toda mi producción científica y compartirla luego con quien usted quiera, sin restricciones.



Atentamente, Daniel Manzano.
Doctor en Física. 
Instituto de Óptica Cuántica e Información Cuántica. 
Universidad de Innsbruck, Austria.

martes, 21 de diciembre de 2010

Efectos Cuánticos II. El Entanglement.

Continúo con mi serie de posts sobre física cuántica. Una vez explicada ya la coherencia y entendido el hecho de que los sistemas cuánticos pueden estar en distintos estados al mismo tiempo pensaréis que ya nada os puede sorprender. Pues pensadlo de nuevo, porque el mundo de lo muy pequeño es mucho más raro de lo que puede uno pensarse. 

En este post os hablaré de otro fenómeno, el entanglement (o entrelazamiento en español, aunque yo prefiero usar el término en inglés). Este es en mi opinión el fenómeno más importante de los sistemas cuánticos, primero por ser algo totalmente diferente a lo que ocurre en el mundo macroscópico (el de todos los días, vamos), después porque como ya veréis tiene unas implicaciones filosóficas muy profundas y por último porque tiene muchas y muy variadas aplicaciones prácticas. 

Como ilustración de la importancia de este fenómeno basta con ver esta gráfica . En ella se ve el número de artículos de investigación publicados con la palabra "entanglement" en función de los años.


Como puede verse es un tema que en los últimos años ha despertado mucho interés en el mundo científico.



Pequeña introducción histórica

El origen del entanglement se encuentra en un paper publicado en 1933 por Einstein, Podolski y Rosen (EPR a partir de ahora) en Physical Review y titulado: "Puede la Descripción Mecano-Cuántica de la Realidad Ser Considerada Completa".



Como bien es sabido Einstein fue uno de los más firmes opositores a la teoría cuántica, a pesar de ser también uno de sus fundadores. En este artículo proponen que si las predicciones de la física cuántica son correctas la velocidad de la luz puede ser superada, lo que contradice a la Teoría de la Relatividad. Como ya veremos más adelante esto no es del todo cierto, pero fue un principio para analizar este fenómeno.



Durante bastante tiempo el paper EPR fue considerado como "demasiado filosófico" y no testable empíricamente, por lo que la física cuántica continuó su avance. Mencionar como anécdota que fue el inspirador del experimento mental del gato de Schrödinger, del que ya hablé en el post sobre la coherencia.

Por suerte la cosa no se quedó en filosofía y experimentos mentales. Afortunadamente en 1964 un físico de partículas del CERN, John S. Bell, se interesó por este tema y publicó un artículo llamado, "Sobre la Paradoja de Einstein, Podolsky y Rosen". En él se analiza el problema propuesto por EPR y lo más importante es que se propone un método para comprobar experimentalmente si las predicciones de la física cuántica son correctas. Este se basaba en una desigualdad que se violaría sólo si la física cuántica es correcta y no era directamente realizable. Sin embargo inspirándose en él John Clauser, Michael Horne, Abner Shimony y Richard Holt, propusieron otra desigualdad, conocida como CHSH que sí era testable en el laboratorio. Mencionar que en honor a Bell todas las desigualdades que se usan para testar el entanglement se denominan Desigualdades de Bell.

El tema volvió a ser olvidado durante bastante tiempo. Sin embargo en 1984 un estudiante de doctorado, Alain Aspect, decidió ponerse manos a la obra y comprobar experimentalmente la validez de las predicciones de la física cuántica en este aspecto. El resultado fue este artículo. Esa fue la primera de muchas veces que el entanglement hacía su aparición en un laboratorio. Sin embargo he de comentar que todos los experimentos realizados hasta la fecha tienen algún tipo de "pega", que en inglés se llama loophole, de modo que casi 80 años después aún no se puede dar el tema por zanjado.

Nota: Agradecimientos a la web http://www.drchinese.com por poner estos artículos al alcance del público.


Definición del Entanglement

La definición matemática del entanglement es bastante complicada de entender. No está basada en principios muy complejos, basta con el álgebra que se enseña en el instituto, pero no es nada intuitiva. Así que mejor nos la saltamos y el que quiera puede consultar un libro más especializado o la wikipedia.

Recordad que cuando hablamos de la coherencia ya expliqué que un sistema cuántico puede estar en varios estados al mismo tiempo, así que imaginemos una moneda cuántica. Esta puede estar en estados $$\left| cara \right>$$ o $$\left| cruz \right>$$, pero también en estados que contienen a ambos, como

$$\frac{1}{\sqrt{2}} \left(\left| cara \right> +\left| cruz \right> \right)$$

Olvidaros del término primero, la raíz, lo pongo sólo por no escribir algo incorrecto, pero no es relevante en este momento.

El juego ahora consiste en no tener una moneda, sino dos. Imaginad que tenemos dos monedas, cada una con su cara y su cruz, sin embargo sabemos que tienen una extraña relación, que salen siempre igual. Es decir, las lanzamos y ambas serán cara o ambas cruz, no hay otra opción. Si además son cuánticas pueden estar en cara o cruz al mismo tiempo, es decir que tendremos algo así (los subíndices indican la moneda 1 ó 2).


$$\frac{1}{\sqrt{2}} \left(\left| cara \right>_1\left| cara \right>_2 +\left| cruz \right>_1\left| cruz \right>_2 \right)$$

Una situación muy similar a la del gato de Schrödinger que ya discutimos anteriormente. La explicación a esto es sencilla, ambas monedas están en cara y cruz al mismo tiempo, y si las miro decidirán estar sólo en uno de los dos estados, pero las dos en el mismo. La pregunta es la siguiente: ¿Y si miro sólo una moneda?

Imaginaros que lanzo ambas monedas y luego las separo una distancia enorme, por ejemplo una aquí y la otra en un sistema solar a millones de años luz de aquí. Entonces decido mirar mi moneda y resulta que está en cara, en ese mismo instante la otra moneda pasará a estar en cara también, saltándose a la torera las normas de la relatividad que dicen que ninguna información puede viajar más rápido que la luz. Esta es la paradoja que vio Einstein. 

bsimeltingpot.blogspot.com


¿Cuál es la respuesta a esta paradoja? Porque que sepamos la teoría de la relatividad es correcta, y si la mecánica cuántica también lo es no pueden decir cosas contrarias. La solución es sencilla y viene de la definición de "información". La cuestión es que si yo tengo una de las monedas en la tierra y la otra la tiene mi hermano que está en otro sistema solar muy lejano podría pensar en usarla para enviarle un mensaje violando las normas de la relatividad. Sin embargo tengo un problema, yo puedo mirar la moneda, y estará en cara o cruz, pero no puedo decidirlo yo. De este modo mi hermano mirará su moneda y la verá en cara o cruz y no obtendrá ninguna información., ni siquiera sabrá si yo he mirado la mía o no. Como podéis ver la relatividad está protegida por la aleatoriedad de la física cuántica, si esta fuera determinista (como proponen los bohmianos) entonces sí tendríamos problemas.


Desigualdades de Bell

Primero comentar que esta parte sí tendrá matemáticas y será un poco más dura para el lector anumérico. No es que sean muy complicadas, sólo hay que saber sumar, entender una desigualdad y saber lo que es un valor medio. Sin embargo si eso os aburre podéis pasar a las conclusiones ;)

La cuestión ahora es también bastante evidente. ¿Cómo sabemos que esto es verdad? Quiero decir. Si yo tengo mi moneda y mi hermano la suya y yo la miro obtendré una cara o una cruz, si la mira él lo mismo, ¿cómo sabemos que ha habido ninguna interacción? Podría ser que estuvieran así desde el principio y todo esto no sea más que una pamplina. La solución como dije antes se encuentra en las desigualdades de Bell.

El método es el siguiente. Vamos a formular una serie de condiciones para un experimento. Una vez lo tengamos todo claro vamos a deducir una desigualdad que todo experimento que cumpla con esas condiciones debe cumplir. Si se viola, quiere decir que alguna de esas condiciones no se cumple, y de ahí viene el entanglement.

El marco general es el siguiente. Yo tengo mi laboratorio en la tierra y mi hermano estará en Alfa Centauri con el suyo. Recordemos que Alfa Centauri está a unos 4 años luz de la Tierra. Nos vamos a intercambiar monedas y vamos a mirar dos cualidades de ellas, el color (blancas o negras) y la signatura (cara o cruz). Como a los físicos nos gusta cuantificarlo todo le asignamos un número a cada una blanca y cara serán +1, negras y cruz -1. Vamos ahora con las condiciones.


  1. Localidad: Las mediciones son independientes. Es decir, entre que yo mire la mía y mi hermano mire la suya pasará menos de 4 años y como entre mi hermano y yo hay más de 4 años-luz no puede afectar una medida a la otra.
  2. Libertad: Cada uno mide lo que quiere. No hay ningún acuerdo previo y somos libres de medir independientemente. 
  3. Realismo: El estado de cada partícula está determinado antes de realizar la medida, es decir nada de estar en varios estados a la vez, o cara o cruz. 
Entonces empecemos con las matemáticas. Vamos a definir las siguientes variables: $S_J$ y $S_D$  son las signaturas que mide mi hermano (Javi) y yo (Dani) respectivamente, recordemos que pueden valer +1 ó -1 si son cara o cruz. Después tenemos los colores $C_J$ y $C_D$ que será +1 para blanco, -1 para negro.

Entonces empezamos a repartirnos monedas como locos y a medirles el color y la signatura. Ahora viene lo más complicado del tema. Permitidme que defina la siguiente medida (por pura conveniencia)

$$S_J(S_D+C_D)+C_J(S_D-C_D) $$

Esta medida tiene una particularidad: Cualesquiera que sean los valores de las 4 magnitudes, sólo puede valer 2 ó -2. Para comprobarlo os animo a que toméis papel y lápiz y probéis distintas combinaciones. Recordad que todas están permitidas, pueden tener todos el valor +1 (en ese caso vale 2), todas -1 (también 2), las D +1  las J -1 (sale -2), etcétera. Siempre valdrá un valor menor o igual a 2. Esto nos permite afirmar la siguiente inecuación:

$$S_JS_D+S_JC_D+C_JS_D-C_JC_D\le 2 $$

Ahora entra en juego nuestra amiga la estadística que está en todos lados. Imaginad que hacemos el experimento muchas veces y cada vez medimos esas variables, primero la signatura y luego el color o viceversa, como nos de la gana a cada uno. Cada vez obtendremos un valor menor que dos (será siempre 2 ó -2). Entonces cada vez calculamos ese valor y al final decidimos tomar el valor medio de todos los experimentos. Al final la media deberá cumplir
$$\left< S_JS_D+S_JC_D+C_JS_D-C_JC_D \right>\le 2 $$

Ahora damos un salto matemático importante y que básicamente me tenéis que creer, porque la demostración es un poco complicada. Os animo a que la miréis en cualquier libro sobre estadística o sobre física cuántica. La cuestión es que podemos separar la media de la suma en la suma de las medias y la desigualdad se sigue cumpliendo (en valor absoluto). 

$$\left| \left< S_JS_D\right>+\left<S_JC_D\right>+\left<C_JS_D\right>-\left<C_JC_D \right>\right|\le 2 $$

Si no os lo queréis creer, siempre podéis hacer un experimento matemático. Tomad valores para nuestras cuatro variables,  $S_J$, $S_D$, $C_J$ y $C_D$. Da igual los que toméis, que estén relacionados o no, o lo que queráis, la cuestión es que esa desigualdad siempre se cumplirá (ojo, para el valor medio, no para un valor específico). 

En definitiva hemos supuesto tres cosas: Que uno es libre de medir lo que quiera, que la información no puede viajar más rápido que la luz y que las cosas tienen unos valores definidos. Cualquier cosa que midamos y que cumpla esas tres condiciones deberá cumplir nuestra desigualdad. 

¿Cuál es el problema? Que la física cuántica no la cumple, al menos no siempre. Se puede ver que para ciertos casos la predicción de la física cuántica es de $2\sqrt{2}=2.83$. Eso es más difícil de demostrar, así que lo omito y el que quiera más información puede consultar la Wikipedia.

http://en.wikipedia.org

¿Qué significa esto? Pues que si la física cuántica es correcta al menos uno de los enunciados anteriores no lo es. Es decir, o no somos libres de medir lo que queramos, o hay información que viaja más rápido que la luz (lo que da lugar a muchas paradojas) o las cosas no tienen un valor definido y pueden estar en muchos estados a la vez. Realmente no hay un criterio claro para elegir una de las opciones frente a las otras, pero la mayoría de los físicos cuánticos somos partidarios de la Interpretación de Copenhage que defiende que la opción de que haya múltiples estados es la más razonable. 

Todo esto depende, claro está, de que la mecánica cuántica tenga razón. Es decir, que su predicción sea real. Al fin y al cabo los científicos nos debemos interesar sólo por la realidad (salvo los cuerdólogos, claro). En este aspecto mencionar que son muchos y muy variados los experimentos que han comprobado la predicción de la física cuántica. Algunos se hacen con átomos, otros con electrones y otros con fotones. Sin embargo también he de admitir que todos estos experimentos tienen alguna pega (loopholes) que hacen que no sean del todo concluyentes. En un próximo post hablaré del entanglement como algo físico y podréis comprobar que es algo más que una loca idea de los físicos.

viernes, 3 de diciembre de 2010

La Relatividad de los Errores, las Pseudociencias y los Magufos

El que me conoce sabe que soy muy crítico con las pseudociencias, las supersticiones y en general con todo lo que va en contra del conocimiento científico. En mi opinión los beneficios de la ciencia son muchísimos y parte del trabajo del científico debe ser mostrarlos a la gente de a pie. Ese es uno de los principales motivos de este blog, acercar la ciencia a los no-científicos. Por supuesto si después de escuchar los argumentos científicos alguien decide ir al homeópata o dejar el tratamiento contra el SIDA (¡¡no lo hagáis!!, escuchad antes a Lucas Sánchez que sabe de eso) porque piensa que las farmacéuticas tienen un complot científico-mundial, pues bueno, cada uno es libre de hacer con su vida lo que quiera. 

Este interés por destapar las pseudociencias como son me ha llevado muchas veces a discusiones por distintos foros de internet con muchos magufos (principalmente meneame, aunque también por otros lares). Por supuesto ahí la discusión es muy difícil, si no imposible. Muchos contertulios son simple trolles, o bien no tienen ni pajolera idea de lo que hablan y muy pocas veces se dirigen allí a aprender realmente. Sin embargo me ha servido para identificar algunos de los más redundantes argumentos de los defensores de lo oculto y lo paranormal. En esta entrada quisiera sacar algo bueno de esas discusiones y pensar sobre esos argumentos.

Mi argumentación principal se basa en un artículo de Isaac Asimov que leí hace ya bastante y que se llama: "La relatividad de los errores". Al final del post lo citaré más extensamente. Vamos ya con esos argumentos. 


1.- Ninguna verdad científica está probada 100%, por lo que no hay diferencia entre ciencia y pseudociencia.

Este es un argumento que en mi opinión está más pasado que el arroz de Marujita Díaz, pero que se sigue viendo mucho. Se puede explicar mejor con el siguiente ejemplo: 

Si yo por ejemplo hago una afirmación del tipo "todos los delfines son grises", la única forma de demostrarlo sería mirar uno a uno a todos los delfines del mundo. El que yo haya visto, por ejemplo, un millón de delfines y no haya encontrado un solo contraejemplo no prueba la afirmación y esta es de por si indemostrable. 

Llevándonos esto al ámbito científico también se puede argumentar de manera similar. Si por ejemplo yo afirmo (y lo hago) que en si dejamos caer dos cuerpos desde la misma posición en el vacío caerán con la misma aceleración se puede usar un argumento similar. ¿Cómo lo hemos comprobado? Hemos hecho millones de experimentos. ¿Pero hemos experimentado con todos los cuerpos del mundo, en todos los puntos? Se puede argumentar que en realidad sólo podemos afirmar que los cuerpos con los que hemos experimentado tienen esa propiedad y no se puede extrapolar al resto. 

Mi respuesta a este "problema" es muy sencilla y está basada en el anterior ensayo de Asimov. Creo que todo viene de una simplificación que nos lleva a calificar las cosas en dos categorías "correctas" o "incorrectas". Todas las afirmaciones de la ciencia están en continua revisión, por lo que son "correctas provisionalmente". Eso no quiere decir en absoluto que no debamos fiarnos de ellas. Se han realizado millones de experimentos sobre la gravedad y la afirmación que he hecho anteriormente siempre se ha cumplido. Eso quiere decir que es cierta para una inmensidad de cuerpos. Como no tenemos ningún contrajemplo podemos suponer que es cierta en todo momento, hasta que encontremos algún hecho que la ponga en duda. 

En definitiva, que la afirmación "los objetos caen con la misma aceleración independientemente de su masa" está más contrastada que la afirmación "los objetos NO caen con la misma aceleración independientemente de su masa". Así que la primera por el momento es "más verdadera" que la segunda. Por supuesto no hay manera de demostrar la validez universal de la afirmación, pero la primera sabemos que es cierta en muchas ocasiones y la segunda en ninguna. 

El que realmente lo dude siempre tiene la opción de dejarse caer desde alto, a lo mejor cae despacito, aunque yo no lo creo. No se nos olvide tampoco que los científicos observamos la naturaleza en todas direcciones y hemos visto que incluso en lugares muy lejanos las cosas se comportan como aquí.

Otro ejemplo a esto sería la afirmación "existen los unicornios" es una afirmación que no puede ser falsada, sin embargo como hemos visto mucho mundo y nunca hemos visto un unicornio podemos concluir  que la afirmación "no existen los unicornios" es más correcta que su negación.


2. Lo que es cierto hoy no tiene porqué serlo mañana

Este argumento es menos usado, pero no deja de ser una variación del anterior. Viene a decir que porque las cosas hayan caído siempre con la misma aceleración eso no quiere decir que en el futuro vaya a ocurrir igual. De nuevo nos encontramos con un problema puramente filosófico, pero sin mucha repercusión en la ciencia en si. 

La respuesta es similar. Hasta la fecha hemos visto que las leyes físicas son las mismas, o tienen muy pequeña variación con el tiempo. Incluso podemos mirar galaxias muy lejanas y comprobar como eran las cosas hace millones de años. El resultado es que no hay variación. Esto no demuestra que mañana no vayan a salir los objetos volando porque no haya gravedad o similar. Sin embargo ya que nuestra experiencia nos dice una cosa es mucho más probable que acertemos haciéndole caso que si pensamos que mañana sera diferente a todos los días anteriores del universo.


3. Eso no está demostrado, es sólo una teoría 

Esto es una cuestión puramente semántica, la favorita de nuestros amigos los  creacionistas. Es muy típico escuchar que la evolución no es un hecho, que es "sólo una teoría" y que por ello el diseño inteligente o cualquier otra tontería que se te pase por la cabeza están al mismo nivel.

Aquí hay una cuestión muy básica sobre el método científico a analizar. Primero hay que saber que las ciencias empíricas son eso, empíricas. Están basadas en hechos experimentales. Después se formulan teorías para describir esos hechos y poder así predecir nuevos resultados. Obviamente las teorías son siempre provisionales y están en continua revisión por si aparecen nuevos resultados, sin embargo los hechos son los hechos. Claro que puede haber un periodo de discusión entre los científicos sobre la validez de los experimentos, pero eso es siempre algo provisional, ya que los experimentos son repetibles, así que finalmente se impone siempre la realidad (obstinada ella).

Volviendo al caso de la evolución hay dos cuestiones diferenciadas. Una son los fósiles, la variabilidad de especies, la edad de la tierra y demás resultados experimentales que indican que ha habido un proceso de evolución en los seres vivos. Eso no es una teoría, eso es un hecho, como bien explica Sheldon a su madre.

Otra cuestión son las teorías para describir la evolución. La más extendida y aceptada actualmente es el darwinismo, si bien ha habido otras a lo largo de la historia, como el lamarckismo. ¿Cuál es la diferencia entre una buena y una mala teoría? Que explique correctamente los hechos, por eso el darwinismo arrasó con el lamarckismo, porque explica mejor la realidad. Obviamente esta teoría no es inamovible y está en continua revisión, de hecho ya se reformuló bastante cuando se descubrió la genética.

¿Y qué papel juega el creacionismo o el diseño inteligente aquí? Pues realmente ninguno, como dijo Richard Dawkins tenemos una teoría, el darwinismo, que explica más del 99% de los hechos conocidos y tenemos otra "cosa", el diseño inteligente, que explica el 0% ¿cuál es más verdadera? De nuevo la relatividad de los errores.


4. Las teorías científicas no son fiables, porque continuamente aparecen teorías nuevas que las sustituyen

Esta es básicamente la pregunta original del artículo de Asimov. Así que os animo fuertemente a que lo leáis entero (son menos de 10 páginas). Si os da pereza os pongo aquí algo de la conclusión.


"... Abreviando: mi amigo el especialista en literatura inglesa, que habita un Universo mental de correctos e incorrectos absolutos, puede creer que, como todas las teorías están equivocadas, puede que ahora se crea que la Tierra es esférica y que el siglo que viene se crea que es cúbica, al siguiente que es un icosaedro hueco, y al otro que tiene forma de «donut». Lo que ocurre en realidad es que una vez que los científicos dan con una buena teoría, se dedican amejorarla y ampliarla con un grado cada vez mayor de sutileza a medida que van disponiendo de mejores instrumentos de medición. No es que las teorías sean incorrectas; más bien están incompletas.

Esto es aplicable a muchos otros casos, no sólo a la forma de la Tierra. Incluso cuando parece que una nueva teoría supone toda una revolución, por lo general ha surgido a partir de pequeñas correcciones. Si fuera necesario algo más que una pequeña corrección, entonces la vieja teoría no habría durado tanto tiempo.


Copérnico pasó de un sistema planetario geocéntrico a otro heliocéntrico. Al hacerlo pasó de algo que parecía obvio a otra cosa en apariencia absurda. Pero sólo era cuestión de encontrar métodos mejores para calcular el movimiento de los planetas en el cielo, y con el tiempo la teoría geocéntrica fue descartada. Esta vieja teoría estuvo vigente durante tanto tiempo precisamente porque, según los baremos de medida de entonces, ofrecía resultados bastante aceptables.


[....]




Las teorías de Newton sobre el movimiento y la gravitación se acercaban mucho a la verdad, y si la velocidad de la luz fuera infinita habría acertado por completo. Pero la velocidad de la luz es finita, y había que tener en cuenta este hecho en las ecuaciones relativistas de Einstein, que eran una ampliación y un perfeccionamiento de las ecuaciones de Newton. Podrían ustedes objetar que la diferencia entre infinito y finito es en sí misma infinita, así que ¿por qué las ecuaciones de Newton no cayeron inmediatamente por su base? Considerémoslo de otra manera, preguntándonos, en primer lugar, cuánto tarda la luz en recorrer una distancia de un metro.

Si la luz se desplazara a una velocidad infinita, tardaría 0 segundos en recorrer un metro. Pero a la velocidad real de la luz, tarda 0,0000000033 segundos. Einstein corrigió esta diferencia entre 0 y 0,0000000033.


Conceptualmente; esta corrección era tan importante como lo fue la de la curvatura de la Tierra de 0 a 20 cm por milla. Las partículas subatómicas en movimiento no se comportarían como lo hacen sin esta corrección, y los aceleradores de partículas tampoco funcionarían de la manera en que lo hacen, ni explotarían las bombas atómicas, ni brillarían las estrellas. No obstante, se trataba de una corrección minúscula, y no es de extrañar que Newton no pudiera tomarla en consideración en su época, ya que sus observaciones estaban limitadas a velocidades y distancias para las que esta corrección era insignificante..."

Finalmente agradecer a Asimov el empeño que hizo en vida por difundir el conocimiento científico y el espíritu crítico en la sociedad. Y sobre todo, agradecer a mi padre por dármelo a conocer en mi niñez y por fomentar lo mismo en mi, sin duda el motivo principal por el que decidí dedicarme a la ciencia.

domingo, 14 de noviembre de 2010

Efectos Cuánticos I. La Coherencia

Obviamente en un blog de ciencia escrito por un físico cuántico no pueden faltar una serie de posts sobre los efectos más interesantes de la física de lo más pequeño. Y esa es la motivación para comenzar con este post. En él hablaré del fenómeno cuántico más conocido y controvertido de todos, la coherencia. Esto servirá de punto de partida para otros menos divulgados, como el entrelazamiento, la computación o criptografía cuánticas. 

Definición 

Empecemos este post definiendo el tema en si. Obviamente la definición matemática no es sencilla de comprender, así que intentaré encontrar un equilibrio entre rigor y divulgación. 

Partamos de un sencillo ejemplo: Tenemos una moneda. Al lanzar esta puede terminar en dos posibles estados, que si los escribimos con la notación que se usa en física cuántica serían $\left| cara\right> $ y $\left| cruz \right>$. En física clásica podemos decir que una moneda debe estar siempre en uno de estos dos estados. Sin embargo la física cuántica es mucho más cachonda, según ella si estos dos estados son posibles, también lo son combinaciones de ellos. Un ejemplo sería el siguiente, que denotamos como $\Psi$ (no se por qué, pero los estados nos gusta notarlos con letras griegas)


$$\left| \Psi \right>=\frac{1}{\sqrt{2}}(\left|cara\right>+\left|cruz\right>)$$

Os preguntaréis ahora que significa eso. Básicamente estoy diciendo que una "moneda cuántica" podrá estar en los dos estados al mismo tiempo, cara y cruz. En este caso además está con la misma proporción, mitad cara, mitad cruz. Entonces ahora la pregunta es obvia: "Y si la miro ¿qué veo, media cara y media cruz o ambas cosas a la vez?". Ahí la física cuántica tiene una respuesta ingeniosa. El estado superpuesto de cara y cruz  (a esto es a lo que llamamos coherencia) se podrá mantener sólo si no se mira, cuando se mira se produce la llamada decoherencia, que no es más que el paso de ese estado superpuesto a estar en $\left| cara\right>$ o $\left| cruz \right>$ con un 50% de probabilidades cada una.

Aquí entonces la pregunta es clara de nuevo: "¿Y cómo podéis afirmar que hay un estado superpuesto si no podéis verlo ni medirlo?". Sinceramente parece que los físicos cuánticos estamos diciendo que hay algo fascinante, pero que no puede ser visto, como el que dice que hay duendecillos que desaparecen al mirarlos. Sin embargo la cuestión es que estos estados sí tienen su huella, y es eso lo que vemos y medimos. Espero que al final del post estéis más convencidos que ahora.

(Nota extra no imprescindible para el resto del post)
Estados como $\left| \Psi \right>$ no son los únicos posibles. Se puede tener cualquier combinación de cara y cruz, siempre que la probabilidad al medir de obtener algún resultado sea del 100%. Estados posibles son


$$\left| \Psi \right>=\frac{1}{\sqrt{2}}(\left|cara\right>-\left|cruz\right>)$$

Con probabilidades: 50% cara, 50% cruz.

$$\left| \Psi \right>=\frac{1}{\sqrt{3}}\left|cara\right>+\frac{2}{\sqrt{3}}\left|cruz\right>$$

Con probabilidades: 33.33% cara, 66.66% cruz.


$$\left| \Psi \right>=\frac{1}{\sqrt{0.9}}\left|cara\right>+\frac{2}{\sqrt{0.1}}\left|cruz\right>$$

Con probabilidades: 99% cara, 1% cruz.

Pero esto no es imprescindible saberlo, así que mejor sigamos.


El experimento de la doble rendija

Este es sin duda el experimento más clásico sobre la coherencia. Cabe decir que se puede hacer con luz (fotones), electrones o incluso con partículas más grandes. Como es tan clásico se han escrito muchas cosas sobre él, mejor que explicarlo os pongo un vídeo que creo que es bastante bueno, es del Dr Quantum.







Creo que en el vídeo se ve muy claro como cada electrón debe pasar por ambas rendijas, y que el mero acto de observarlo rompe esta coherencia.


Decoherencia y probabilidad

Como ya ha explicado el Dr. Quantum el acto de medir rompe el estado, obligándolo a decidir estar en uno de sus posibles estados. entonces la cuestión es: ¿Y cuál decide? ¿Qué le hace decidir estar en $\left|cara \right>$ o $\left|cruz \right>$? La respuesta estándar (aunque algunos pocos no estén de acuerdo, como explicaré más adelante) es el azar. Cuando miramos en un sistema cuántico coherente, es decir en varios estados al mismo tiempo, este aleatoriamente pasará a estar en uno de los estados en sí.

Entonces, en mi opinión, hay dos preguntas interesantes. La primera es: ¿Qué significa que medimos el sistema?

Esta es una pregunta que en mi opinión no termina de estar resuelta. Está muy claro que si nosotros hacemos cualquier cosa en el sistema que nos de información sobre como es dejará de estar en varios estados al mismo tiempo. Sin embargo también muchas veces lo hace espontáneamente, al interactuar con lo que tiene alrededor. Lo que sí sabemos con certeza es que la coherencia se mantiene principalmente en sistemas muy pequeños (a nivel atómico-molecular), de ahí que no veamos nunca una moneda en ambos estados, sin embargo recientemente el tamaño de los objetos en los que se consigue observar estos efectos aumenta (como en este estudio). El estudio de los fenómenos de decoherencia es un campo abierto de la física muy interesante (al menos para mi).

La otra pregunta es: ¿Y cómo sabemos que realmente hay coherencia y no es simplemente que ya estaba así?

Esta en mi opinión la responde muy bien el vídeo anterior, sabemos que hay coherencia por los efectos que produce. En el ejemplo de la doble rendija si no hubiera no veríamos el patrón de interferencia. Sin embargo he de decir que todavía hay quien defiende que en realidad este azar no es real, sino producto de nuestra ignorancia del sistema en si. Los defensores de esta rama se denominan "Bohmianos", dado que uno de sus principales logros vinieron de la mano de David Bohm. De esta otra teoría hablaré al final del post.


El gato de Schrödinger

Como es de rigor en un post sobre coherencia cuántica no se puede dejar de hacer una breve mención al gato de Schrödinger. Este es un experimento mental inventado por Erwin Schrödinger a raíz de una idea previa de Einstein.

La idea es la siguiente. Si yo tengo un átomo que es radiactivo, es decir que puede espontáneamente transformarse en otro átomo emitiendo una partícula, y lo pongo en una caja aislado del resto del mundo, este puede estar también desintegrado y no desintegrado al mismo tiempo.  Hasta ahí todo bien, pero a Schrödinger se le ocurrió un experimento un poco sádico que hacer. Los pasos son muy sencillos.

1.- Tomar una caja absolutamente hermética.

2.- Buscar un átomo radiactivo. Por ejemplo busquémoslo tal que en una hora tenga un 50% de probabilidades de desintegrarse y un 50% de no hacerlo.

3.- Buscar un gato (eso es fácil). Por ejemplo este.  Recomiendo fuertemente no tomarle mucho cariño al gato.

visto en http://radio.studio92.com/malelemento


4. Buscar un frasco de veneno para gatos (os he advertido)

5. Introducimos en la caja el átomo y el gato. Además ponemos un detector de radiación totalmente fiable (es lo bueno de los experimentos mentales, los detectores no tienen fallos). El detector está midiendo al átomo, de modo que cuando este se desintegra activa un martillo electrónico que rompe el frasco de veneno, matando al gato (yo no quería, la culpa es de Schrödinger que es un sádico).

El dispositivo sería algo así



donde el gato ha dejado ya de tocar la guitarra porque sabe lo que le viene encima.

La cuestión es la siguiente. Si esperamos una hora el átomo según la física cuántica pasará a estar a la vez desintegrado y no desintegrado. En un estado que escribimos como

$$\left| \Psi \right>=\frac{1}{\sqrt{2}}(\left|desintegrado\right>+\left|NO\; desintegrado\right>)$$

Pero no es solo eso. El estado del átomo determina el estado del gato, por lo que un estado más completo sería


$$\left| \Psi \right>=\frac{1}{\sqrt{2}}(\left|desintegrado\right>\left|gato\; muerto\right>+\left|NO\; desintegrado\right>\left|gato\; vivo\right>)$$

Es decir, ¡¡tenemos un gato que está vivo y muerto al mismo tiempo!! Esto es lo que le daba un poco de grima pensar a Schrödinger e Einstein y veían ahí una paradoja.Hoy en día no está vista como tal, pero sigue siendo muy ilustrativa y además da lugar a que hagan muchos chistes, como este episodio de "amor cuántico" en ciudad K.





En mi opinión no hay paradoja alguna. El detector al mirar el átomo le obliga a "decidir" en que estado está y así átomo y gato están siempre en un estado definido. Sin embargo hay mucha filosofía detrás de estos procesos. También hay otros experimentos mentales que tratan de analizar este fenómeno, como el del amigo de Wigner.

Estos experimentos han dado lugar a varias interpretaciones de la física cuántica. Ojo, son interpretaciones nada más, la ciencia es la misma y hace las mismas predicciones, pero a la hora de pensar en ello se hace desde distintos tipos de vista. La más seguida es la interpretación de Copenhague, y una de las más famosas al ser un poco esotérica es la interpretación de muchos mundos. Según esta última cada vez que el mundo tiene que tomar una decisión se divide en dos, por lo que habría un universo con el gato vivo y otro con el gato muerto, aunque eso no te sirva mucho de consuelo si te toca estar con el gato muerto.

http://www.thescientificcartoonist.com/





Aplicaciones y coherencia en la naturaleza

Ahora seguro que ya os estaréis preguntando. ¿Y todo esto qué tiene que ver conmigo? ¿Tiene esto alguna aplicación o se da en la naturaleza habitualmente?

Dejadme sólo mencionar un par de aplicaciones, aunque sin mucho detalle, ya que cada una de ellas dará para un post en si.

La primera es la criptografía cuántica, donde usando estos fenómenos se puede enviar información en teoría indescifrable. De hecho esta aplicación ya está comercializada y ofrece unos productos muy fiables. Un ejemplo es la empresa MagigQ.

Otra aplicación, al menos teórica, es en computación cuántica. Aquí estos estados se utilizan para poder hacer cálculos de manera más rápida que en un ordenador clásico, que funcione sólo con 1's y 0's.

Un resultado experimental reciente también demuestra que la coherencia es muy importante en los procesos de la fotosíntesis (aquí el enlace por si alguien está interesado). Esto abre una puerta a el diseño de nuevos métodos de transporte de luz aprovechando estos fenómenos.


Teoría de variables ocultas

Por último solo mencionar que aún hay gente que no cree que la coherencia sea una realidad. Sin duda el principal opositor a la aceptación de este fenómeno fue Albert Einstein, quien afirmó que "Dios no juega a los dados con el universo".


http://www.thescientificcartoonist.com


Tanto Einstein como mucha gente después de él defendían que en realidad los resultados de las medidas deberían ser predecibles, y que si no podemos hacerlo es porque hay información que desconocemos. A esta información se la llamó "variables ocultas".

El principal defensor de estas teorías fue David Bohm. Actualmente estas teorías aún son defendidas, pero por una comunidad muy pequeña. El golpe de gracia que hizo que la gente dejara de creer en variables ocultas fue otro fenómeno cuántico, el entanglement (o entrelazamiento). Sobre él y su efecto en estos temas hablaré en un próximo post.

Finalmente os dejo con una canción que es muy clásica en estos círculos y que espero que después de leer el post os guste.



miércoles, 3 de noviembre de 2010

El Fraude de la Homeopatía (Documental)

Cuando me saqué mi prestigioso título de titulado en homeopatía quise enlazar un documental como información, pero lo encontré censurado en youtube por cuestiones de copyright. Por suerte lo he visto enlazado de nuevo, no se si es que lo han liberado o que no lo busqué bien, pero en cualquier caso es un documental digno de verse. 

Está realizado por la prestigiosa revista Nature y no solo es interesante para comprobar el procedimiento de publicación y revisión que ya expliqué en el post sobre publicaciones científicas y revisión por pares. También es muy explicativo del método científico en si y como la mera publicación de un estudio no le da validez, sino que esta viene dada por la repetición del estudio y el análisis de los resultados. además es prueba de que no hay ninguna "conspiración científica" en contra de la homeopatía, por mucho que algunos se escuden en semejante majadería para excusarse. Simplemente no hay pruebas.

Aquí os lo dejo y lo recomiendo fuertemente. 












PS: En serio, si realmente hay una conspiración científica en contra de la homeopatía que me contacte, que a mi todavía no me han ingresado nada.

sábado, 16 de octubre de 2010

Internet y la Ciencia

Continuamente se leen artículos quejándose de que "Internet mata a la cultura",  "los creadores se están muriendo de hambre" y cuestiones así. Sin embargo hay un tema que no suele salir mucho y es si internet ha beneficiado o no al desarrollo científico, que creo que es también cultura, habrá quien piense que incluso más que los discos de Rosario Flores (que la pobre se muere de hambre).

Aquí unos ejemplos del debate (todos encontrados en menéame):




- La Biblioteca Nacional permitirá escuchar sus fondos musicales en Internet

- Berners-Lee: Que quiten internet es como enviarte a prisión


Mi opinión al respecto es muy clara, pienso que pocos inventos en la historia de la humanidad han beneficiado tanto al desarrollo y la transmisión de la cultura como la red de redes, y que esto es imparable.  En el caso concreto del desarrollo científico internet ha sido casi como la imprenta, y mucho más que queda. Espero que quede claro en este post.

http://www.runtimecomics.com



Un Pequeño Detalle Historico


En 1989 en el CERN (la organización europea para la Investigación Nuclear) un ingeniero llamado Tim Berners-Lee comenzó un proyecto llamado Enquire, un año después se le unió Robert Cailliau y juntos consiguieron la primera transferencia entre un servidor http (hipertexto) y un cliente a través de internet. Se puede decir que inventaron las páginas web. En 1993 el CERN anunció que liberaba la World Wide Web para todo el mundo.






Con esto quiero mostrar el interés que ha habido desde hace bastante tiempo entre los científicos por mejorar los medios de comunicación y que los usuarios de Internet han sido muy beneficiados por ello.


Proceso de Publicación

Como ya conté en mi anterior post sobre el proceso de publicación este es un proceso largo y complicado. El artículo (o paper) se manda a los editores que lo envían a los referees, que a su vez lo devuelven al editor, que se lo manda a los autores, la respuesta de los autores va al editor y así varias rondas. Obviamente Internet ha sido una bendición en ese sentido. Hoy en día los preprints (así es como se llama a los artículos aún no publicados) se suben directamente por página web y los editores te confirman la recepción el mismo día de la subida. Después el proceso se puede prolongar más o menos, pero se evitan demoras por el tiempo en transmitir la información.

Anteriormente el proceso de revisión muchas veces se prolongaba hasta un año, hoy en día en las revistas de física no suele durar más de 3 meses, aunque hay excepciones.



Acceso a las Publicaciones y WOK


El acceso a las publicaciones científicas es otro tema donde también ha cambiado mucho la cosa. En la era pre-internet las revistas se publicaban exclusivamente en papel y las universidades se suscribían y a cambio recibían un determinado número de ejemplares. Unos cuantos iban a la biblioteca y luego algunos privilegiados recibían su propio ejemplar, aunque la mayoría tenía que bajar a la biblioteca a revisar lo que se había publicado.

El proceso de búsqueda de información era bastante duro. Tenías que ir a la biblioteca de tu universidad y mirar en los últimos números de las revistas que te interesaban. Una vez encontrados allí los papers que tenían que ver con el tema en cuestión comenzabas a rastrear los artículos que este citaba. Por supuestos estos eran de otras revistas y volúmenes, así que volvías a coger otros volúmenes y así sucesivamente. En definitiva, un montón del tiempo del científico se iba en analizar y buscar estos artículos, sumado al hecho de que las universidades no estaban suscritas a todas las revistas hacía este proceso muy ineficiente. También si querías un artículo en concreto podías pedirlo, pero tardaba mínimo una semana, claro está.

deakialli.bitacoras.com
Hoy en día la cosa ha cambiado radicalmente. No sólo es debido a que todas las revistas son online (también mantienen algunas edición en papel, pero casi nadie lo usa), también debido a un gran invento del que ya hablé en mi anterior post: La Web of Knowledge (WOK para abreviar, como la sartén-olla) .

En esta web se recogen todas las publicaciones científicas de todos los campos, junto con un mapa de todas las citas que hay entre ellas. Ya conté anteriormente que se usa para evaluar los trabajos en función del número de citas que tienen, pero no es esa su principal utilidad. Lo más útil es su utilidad de búsqueda de información.

Por un lado si quiero saber de un plumazo todos los artículos de un mismo autor en un determinado campo lo puedo averiguar en un segundo. sin embargo la utilidad principal (en mi opinión) es otra, los mapas de citas. Imaginaos que leo un artículo y lo encuentro muy interesante, en el puedo ver todas sus citas y saber algo sobre lo que se ha hecho previamente, sin embargo si el artículo es de hace 20 años no sabré que más se ha hecho desde entonces. La WOK permite hacer "mapas de citaciones" dándote no sólo los artículos que cita el que a ti te interesa, sino también los que lo citan a él. Como es un poco lioso veamos un ejemplo:

Imagináos que estoy interesado, por ejemplo, en el tema de la complejidad y me entero de que hay un artículo muy interesante llamado:

Features of the extension of a classical measure of complexity to continuous systems. Catalan RG, Garay J, López-Ruiz R, Physical Review E, 44 011102 (2002).

Lo leo y me parece que es muy interesante, pero claro es de 2002, algo habrá hecho la gente desde entonces. No problemo, me meto en la WOK y le pido el mapa de citaciones.





En este se ve todos los artículos citados por el artículo y todos los que lo citan a él. Obviamente en la web es dinámico, es decir puedes pinchar en los enlaces y ver directamente la cita. Pero además también puedes pedir que te de una lista de enlaces de 2 generaciones, es decir los artículos que citan a artículos que citan al original, como este





Así que en un segundo puedes ver toda la gente que ha trabajado en un tema concreto, cosa que antes te podía llevar meses. Esto obviamente no se podría hacer sin Internet, porque hay innumerables revistas y la conexión entre todas ellas es muy compleja.


Acceso Libre

Otra cuestión revolucionaria debida a internet es la aparición de revistas de acceso libre (open-acces en inglés). Ya hablé en mi anterior post de arXiv, donde los científicos pueden colgar su artículos sin revisión. Aparte también hay revistas como Plos-One o New Journal of Physics, donde se paga por publicar y no por leer. Obviamente estas revistas sólo se pueden mantener gracias a la red, ya que al ser gratis no podrían enviar copias a todos los centros del mundo, sin embargo con internet eso es sencillo, sólo necesitas tu web y el que quiera que lo lea.

Por cierto como se puede ver en la página de PLoS, todo lo publicado allí tiene licencia Creative Commons. Esto va para los defensores de que la producción de cultura sólo se puede hacer mediante licencias restrictivas, aquí tenemos un claro contraejemplo.



P2P

Ahora mencionar una anécdota. Hace cosa de un año quería consultar un libro de física cuántica muy clásico, el Galindo-Pascual (los llamamos por el nombre de los autores porque todos tienen nombres muy similares). Este libro es un clásico porque fue el primero escrito por autores españoles y fue editado en inglés. El problema del libro es que está descatalogado y es muy difícil de encontrar. Por suerte un amigo me pasó un enlace torrent que enlazaba a un archivo con 4 GB de libros científicos. Varios de física cuántica (entre ellos el que yo buscaba) y otros de computación, física en general y divulgación. Dado que mi trabajo es crear ciencia no se puede discutir que en este caso el ktorrent contribuyó activamente a la creación cultural, ¿no?

Obviamente habrá quien alegue que el porcentaje de transmisión de contenidos científicos por p2p será irrisorio frente a la pornografía o el entretenimiento. Eso es cierto, pero la importancia no está en quien consume más ancho de banda, sino en que se hace con lo que se transmite. También desde la invención de la imprenta se han imprimido más revistas de petardeo que revistas científica, ¿y qué? la imprenta contribuyó increíblemente al desarrollo de la ciencia, y así lo hace internet y el p2p.


Conclusión

Otras cuestiones muy útiles, pero más conocidas han sido obviadad en este post, como el correo electrónico a la hora de comunicarte con tus colaboradores, el acceso a ordenadores remotos (yo por ejemplo sigo usando el supercomputador de mi grupo de Granada a pesar de trabajar en Austria sin ningún problema), los blogs de divulgación científica (como este), y un larguísimo etcétera. Sólo espero que después de leer esto los que defienden que Internet mata a la cultura tengan un nuevo punto de vista. Y a largo plazo me gustaría que cada vez que compro un ordenador para usarlo en el trabajo no me hagan pagar un plus para repartirlo entre los cantantes, que los científicos también contribuimos a la cultura y hacemos todo lo posible para que nuestra creación esté al alcance de todos.

Como prueba en mi web está todo lo que yo he publicado en mi corta vida científica al alcance de todo el mundo (falta uno por añadir al arXiv, pero estará en breve, en cuanto encuentre el fichero), sólo hay que darle a "Publicaciones".

jueves, 7 de octubre de 2010

Homeópata Titulado

Siguiendo la estela de muchos otros blogueros científicos, y que comenzó en Amazings (creo), ya tengo mi propio título de homeópata. No es ninguna tontería (o sí), está impartido por la "prestigiosa" multinacional homeopática Laboratorios Boiron. Si queréis hacerlo no os llevará más de 3 minutos, sólo hay que responder 5 preguntas y si os equivocáis os dejan volver a intentarlo. El enlace es este. Pensaréis que el curso es una gilipollez, pero pensadlo bien: ¿hace falta más formación para vender agua?

domingo, 3 de octubre de 2010

Publicaciones científicas y revisión por pares

Este es el primero de una serie de posts en los que pretendo explicar brevemente como es el método científico actual. Esto es, en mi opinión, de un interés muy general, tanto para científicos como para profanos, ya que continuamente se producen nuevos avances científicos que son de relevancia para la población en general. Obviamente para el no entendido en cuestiones científicas es bueno saber distinguir a un científico de un cantamañanas que se quiere aprovechar de él. Igualmente hay que saber cuando algo está "demostrado científicamente" (cuestión que tomará un post propio), que es ciencia y que no y distinguir entre una hipótesis y un resultado definitivo.

En este primer post hablaré de las publicaciones científicas. Es obvio que los científicos no pueden trabajar de espaldas unos a otros, y que lo que descubren lo tienen que compartir con el resto. Si no sería equivalente a no descubrir nada. Para esto a lo largo de la historia y en la actualidad ha habido multitud de métodos distintos: Libros autoeditados, congresos, cartas personales, revistas. Sin embargo actualmente lo más extendido sin duda son las revistas científicas con revisión por pares, y es de ellas de las que quiero aclarar un poco las cosas.

Lo primero es que nunca hay que confundir una publicación científica con que en un periódico un día publiquen un artículo sobre ciencia. Igualmente no son publicaciones científicas ni Muy Interesante, ni QUO, ni National Geographic. Cualquier revista es libre de hablar de ciencia en cualquier momento, pero las revistas que publican nuevos resultados científicos son diferente como veremos ahora. Aparte no puedo dejar de mencionar que en los periódicos y revistas epañolas hoy en día se pueden leer barbaridades científicas a diario, como bien se puede ver en uno de mis blogs favoritos: malaprensa.

http://xkcd.com/799/


Revisión por pares

Esta es hoy por hoy la parte principal del proceso de publicaciones científicos. Básicamente se basa en someter el trabajo del científico a revisión por parte de otros científicos especialistas en el mismo tema.

Básicamente pasa así. Yo hago un artículo de óptica cuántica que considero que es la pera limonera y lo mando a una revista para su publicación. Antes que nada el artículo lo recibe el equipo editorial de la revista, que son los que deciden que se publica o no. Estos lo leen por encima y se lo adjudican a un editor en concreto que ellos consideran que entiende algo del tema (aunque no sea un experto, porque no pueden tener expertos de todas las ramas). En ese momento el editor puede aceptar el artículo o rechazarlo si considera que no tiene que ser aceptado. Esto último puede ocurrir por diversos motivos: que no case con el tema de la revista, que sea algo totalmente absurdo o que el editor no lo considere interesante. Si decide aceptarlo entonces tiene que buscar a los referees (árbitros en inglés, aunque casi nucna se traduce, por lo que aquí usaremos el término inglés).


Referees son prácticamente todos los científicos, sin necesidad de trabajar para una revista en concreto. Simplemente si el editor te conoce de haber leído algún paper tuyo o por algún otro motivo te puede mandar un paper y pedirte que lo referees (es decir que hagas un informe), entonces tú decides si te interesa hacerlo o no. Esto se hace por contribuir al método científico pues no se cobra en ninguna revista por hacerlo, que yo sepa, aunque alguna revista te da como recompensa el acceso a una base de datos de pago o algo similar. Los referees tienen una semana o así para decidir si aceptan referear el artículo o no y luego sobre un mes para enviar su informe (aunque eso varía según la revista). Dejadme remarcar que aunque el proceso se llama "revisión por pares" (peer rewiev) no son necesariamente dos los referees de un artículo, pueden mandarlo a 1 ó 3 o los que los editores determinen.





Los referees deben hacer un informe lo más detallado posible del artículo, explicando si les parece interesante o no, si es novedoso, científicamente plausible o si tiene algún error. También tienen que emitir un veredicto: si recomiendan su publicación, lo rechazan o lo aceptan si se hacen algunos cambios. Hay que remarcar (y esto es lo más importante) que NO es trabajo de los referees comprobar que lo que hay escrito sea correcto. Me explico, si el trabajo es experimental el referee no tiene que rehacer el experimento y ver si sale lo mismo (cosa que en la mayoría de los casos es imposible), si es matemático no tiene porqué hacer todo el desarrollo para ver si es correcto. Pueden hacerlo si quieren, e incluso pueden ir al laboratorio y pedirte que rehagas el experimento delante suya, pero no es su obligación y la mayoría no lo hacen. Lo publicado sepublica siempre bajo la responabilidad de los autores y no de los referees o la revista.

Los informes de los referees se envían al editor y este tiene que tomar una decisión: o publica el paper tal como está, o lo rechaza y se acabó la historia o continua con el proceso. Si toma esta última opción le enviará los informes de los referees a los autores y estos reharán el artículo siguiendo los consejos de los referees que estimen oportuno y lo volverán a enviar al editor, este a su vez a los referees y vuelta a empezar. Lo remarcable es que al final no son los referees los que deciden que se publica o que no, sino el editor que siempre puede enviarlo a más referees si lo cree oportuno o no hacerles caso. Obviamente eso ocurre en muy pocas ocasiones, porque la gente terminaría negándose a referear papers de una revista que no les hace caso.

En cuanto a la identidad de los autores y los referees el proceso más estándar hoy por hoy es que los referees saben quienes son los autores pero estos no saben quienes son los referees. Hay algunas revistas que usan otros métodos, como que no se sepa la identidad de los autores o que todos sepan las de todos, pero es algo minoritario hoy en día.

Más información sobre el peer review se puede consultar en la Wikipedia.


Alternativas a la revisión por pares

Recientemente el proceso de revisión está siendo objeto de muchas críticas y se están proponiendo métodos alternativos. Un buen resumen se puede ver en esta tira de PHD comics.




La crítica se basa principalmente en que en definitiva son los editores los que deciden, de modo que si un cierto grupo se afianza en lo más alto del escalafón científico puede decidir sobre lo que se publica o lo que no, censurando así las líneas de investigación ajenas. Además es una crítica muy extendida el hecho de que el refereato no es igual si el artículo lo manda alguien de prestigio reconocido que si lo manda un novato de la ciencia. Eso último es algo muy cierto, porque los referees también son humanos y se dejan impresionar por los nombres. Además en el proceso entran cuestiones muy subjetivas, como si el artículo es interesante o novedoso para la comunidad científica.

La principal alternativa a este proceso la realiza la revista PLoS ONE. Esta revista está especializada en medicina y biología y es de libre acceso, es decir todos los artículos ahí publicados tienen licencia Creative Commons. Tienen un proceso de refereato, pero en principio este sólo juzga los aspectos técnicos del paper, sin juzgar nunca su interés o novedad. La idea es dejar los aspectos subjetivos a juicio de los lectores. En la información de su web viene:

Too often a journal's decision to publish a paper is dominated by what the Editor/s think is interesting and will gain greater readership — both of which are subjective judgments and lead to decisions which are frustrating and delay the publication of your work. PLoS ONE will rigorously peer-review your submissions and publish all papers that are judged to be technically sound. Judgments about the importance of any particular paper are then made after publication by the readership (who are the most qualified to determine what is of interest to them).

Traducción libre: Demasiado  a menudo la decisión de una revista de publicar o no un artículo está dominada por que piensa el/los editor/es que es interesante y atraerá más lectores - ambos son juicios subjetivos y conducen a decisiones frustrantes y al retraso en la publicación de tu artículo. PLoS ONE revisará rigurosamente los artículos recibidos y publicará todos aquellos que sean técnicamente adecuados. Los juicios sobre la importancia de un paper se harán posteriormente por los lectores (que son los más cualificados a la hora de determinar que es de interés para ellos).

Otra alternativa se ha creado a partir de la página http://arxiv.org/. Esta se ideo como una base de datos de artículos, donde colgarlos para que estén accesibles a todo el mundo. Actualmente acepta artículos de matemáticas, física, biología cuantitativa y otras más. Muchos físicos colocamos ahí nuestros artículos aunque ya estén publicados, para que estén accesibles a todo el mundo y para publicitarlos. Algunos van más allá y consideran que ese es el futuro de la publicación científica, que no haya ningún tipo de control y sea la comunidad la que decida, aunque por ahora es un porcentaje muy bajo el que defiende eso.


Citas e índice de impacto

Por último quiero tratar un tema de la calidad de las publicaciones y las revistas. ¿Son todas las revistas iguales? ¿Cómo se evalúa la calidad de un científico? ¿Al que más artículos tenga? Tristemente esto es algo que hay que hacer, porque si hay una plaza y dos científicos la quieren habrá que decidir cual se la merece más, igualmente si pides dinero para un proyecto habrá que evaluar luego si se ha invertido bien o no.

http://www.thescientificcartoonist.com


Una cuestión es clara, si tu artículo es interesante lo leerá mucha gente y si les ayuda usarán tus resultados en sus investigaciones, así que en sus artículos te citarán y tendrás muchas citas a tus artículos. Esa es sin duda una manera de cuantificar la calidad de un paper (manera muy cuestionable, pero manera al fin y al cabo). El número de artículos también es relvante, porque mide tu producción, aunque hay maneras de aumentarlo, como publicar lo mismo en distintas revistas (eso se hace mucho tristemente).

Un índice que está ahora muy de moda es el índice H. Este se calcula de la siguiente manera. Tienes un índice H=x si tienes  x artículos con x (o más) citas y el resto de tus artículos tiene un número de citas menor a x cada uno. Como ejemplo yo tengo un índice H=2, porque tengo 8 artículos, de los cuales uno tiene 4 citas, otro 2 y el resto 0 ó 1. Obviamente el índice H puede variar incluso sin que tú publiques nuevas cosas, porque puede aumentar tu número de citas. En mi caso por ejemplo la mitad de los artículos son de 2010, por lo que aún no han tenido mucho tiempo para ser citados.



En cuanto a las revistas el método estándar de evaluarlas es el Factor de impacto. Este lo calcula el Institute for Scientific Information de la siguiente manera (según la wikipedia)

  • A = Número de veces en que los artículos publicados en el periodo 2001-2002 han sido citados por las publicaciones a las que se les da seguimiento a lo largo del año 2003
  • B = Número de artículos publicados en el periodo 2001-2002.
  • Factor de impacto 2003 = A/B
  • de modo que es una manera de contabilizar las citas que tienen los artículos de una revista en las otras revistas. Como índice de calidad tiene bastantes detractores, pero es el más estándar hoy en día. Por otro lado el índice de impacto cambia mucho según el tema de la revista, no teniendo sentido por ejemplo comparar una de física con una de medicina porque las segundas tienen unos índices de impacto mucho más altos. También hay que decir que el índice de impacto no es lineal, es decir revistas de mucho prestigio pueden tener un índice de impacto 20 veces (p. ej.) mayor que otras del mismo sector, pero eso no indica que tengan 20 veces más impacto en la sociedad científica.

    A modo de ejemplo de ciencia en general son muy prestigiosas Nature (34.480) o Science (29.747). En física algunas muy buenas son Review of Modern Physics (33.145) o Physical Review Letters (7.328). En medicina, como ya he dicho tienen los índices de impacto más altos como Ca-A Cancer Journal for Clinicians (que con su 87.925 es la revista de mayor índice de impacto) o el New England Journal of Medicine (47.050). [Nota: datos de cuando se escribió la entrada]

    Y con esto termino. Por último dejadme remarcar lo que considero más importante: Las revistas científicas son el mejor método que hay actualmente para garantizar unos mínimos de calidad y buena praxis a las comunicaciones científicas, sin embargo no son responsables de la veracidad de lo que se publica, eso corresponde únicamente a los autores. Obviamente una revista en la que se publicaran continuamente resultados incorrectos perdería todo su prestigio, así que confiamos en que se cuidarán de evitarlo. Por otro lado hay casos muy famosos de publicaciones fraudulentas como la de la memoria del agua que se publicó en Nature (1). En este paper se "probaba" la memoria del agua, y por lo tanto la posible utilidad de la homeopatía, pero luego se demostró que sus resultados estaban falseados (lo probó la misma revista para proteger su prestigio). Todo esto dio lugar a un documental que en español se llamó "El Gran Fraude de la Homeopatía" y que me gustaría linkar pero ha sido borrado de Youtube. Si alguien lo encuentra me lo puede comunicar.

    Editado: Encontré el documental, está en este otro post.


    (1) Nature 333, 816-818 (30 June 1988) doi:10.1038/333816a0

    lunes, 30 de agosto de 2010

    Bienvenida

    Hola a todos y todas.

    Ante todo bienvenidos al estreno de este nuevo blog. Para los que no me conozcan me llamo Daniel Manzano y soy investigador. Mi campo es la teoría de la información y la computación cuánticas y recientemente me he doctorado en la universidad de Granada. En breve (Octubre) comenzaré una nueva etapa en la universidad de Innsbruck (Austria). Si alguien quiere más información siempre puede consultar mi web.

    Desde hace tiempo escribo en otro blog, spidermanzano, que he usado para contar cosas de mi vida en general. Sin embargo ahora he decidido lanzarme al mundo de la divulgación y dejar el otro blog sólo para cosas relacionadas con viajes y alpinismo. De ahí viene el lanzamiento de este nuevo blog, donde intentaré tratar temas científicos para el público en general. Principalmente los temas que quiero comenzar tratando son los siguientes:

    Física

    En general y física cuántica en particular. Sobre esto se ha escrito mucho, pero la física cuántica sigue siendo un campo muy cerrado para la divulgación. Muchos esfuerzos se dedican a hablar sobre sus destintas interpretaciones, cosa que es más filosofía que física, y bastantes menos a explicar conceptos como el entrelazamiento, el teletransporte o la computación cuántica. En este sentido intentaré hacer posts lo más divulgativos posibles, aunque algunas fórmulas siempre será necesario usar.



    Estadística y matemáticas cotidianas


    Cuando en la universidad aprendí bien estadística después de muchos intentos (en la asignatura de Técnicas Montecarlo, que fue una gran elección), comprendí que la estadística no es un monstruo incomprensible que sólo sirve para aprobar las técnicas experimentales. La estadística, y las matemáticas en general (aunque hay quien opina que no son la misma disciplina), es una herramienta estupenda para describir el mundo que nos rodea. El problema es que los medios de comunicación y los políticos lo saben y continuamente hacen lo posible por jugar con los datos para convencernos de cosas falsas. Un gran esfuerzo para combatir esto se hace por ejemplo desde las páginas de Malaprensa y Malaciencia. Mi intención es explicar de forma clara y con ejemplos entendibles las distintas falacias que salen a diario en los periódicos, en las declaraciones de personajes públicos y demás.

    Mi postura en estos temas es la siguiente: La estadística y las matemáticas son una herramienta ideal para comprender mejor el mundo que nos rodea, tanto para cosas científicas como cotidianas. Sin embargo siempre hay maneras de manipular (sin llegar a mentir) los datos para que parezca que tienes razón aunque no la tengas. Por suerte eso se puede saber con unos conocimientos básicos del tema.


    Ciencia General

    Continuamente se frustra uno cuando ve en la tele que tal o cual producto está "comprobado científicamente" (sobre esto tengo ya un post pensado y muchas ganas de escribirlo), o cuando ve el éxito de las PowerBalance, o cuando alguien te argumenta que una cosa es cierta porque "me lo han mandado por email". Generalmente estas cuestiones son debidas a que mientras en este país se cuida y valora mucho la cultura no-científica (tampoco una barbaridad, seamos serios), la cultura científica está considerada un tema exclusivo de los científicos. 

    En mi opinión no es sólo importante conocer una u otra disciplina, sino también como funciona el método científico, las publicaciones, cuando algo se considera demostrado y cuando no, las diferencias entre una teoría, una hipótesis y una ley y demás cuestiones. Estos temas desgraciadamente no sólo no aparecen en los temarios de la enseñanza secundaria, es que no suelen aparecer en los temarios de muchas carreras científicas y técnicas.

    Mi objetivo en este apartado es discutir temas básicos del funcionamiento de la ciencia y de los científicos, para que se vea que es algo cotidiano y no tiene nada incomprensible.


    Pues eso es todo. Espero tener tiempo de postear con cierta frecuencia, pero mi prioridad será que sea comprensible y riguroso lo que escriba. También espero que los posts tengan muchos comentarios (abstenganse trolls) y que este sea uno más de tantos blogs que están contribuyendo día a día a la divulgación científica. Por supuesto dejo la motivación abierta, por si decido escribir sobre cualquier otra cosa que se me ocurra, dejando abierta la posibilidad de discutir sobre filosofía de la ciencia, frikadas en general, informática y otras áreas que me interesan.

    Un abrazo a todos.