lunes, 19 de noviembre de 2012

Los mantras del Software Libre


Yo he usado Software Libre (SL) desde hace muchos años, tanto profesionalmente como usuario. LaTex, gnuplot, Grace, Inkscape, Linux, OpenOffice, VLC, Android, Gimp, y un largo etcétera. Indirectamente todos usamos mucho software libre, cuando nos beneficiamos de obras y creaciones que otros hacen con ese software. Por otro lado también uso Software Privativo (SP), sobre todo en el trabajo, Mathematica, Matlab (este no lo tengo del todo claro, pero tiene licencia), Omnigraffle o PowerPoint. ¿Por qué esta dicotomía? Es sencillo, allí donde el SL me viene bien lo uso, si requiere más tiempo de trabajo o no cumple las mismas funciones que el privativo pues no lo uso. A fin de cuentas a mí se me paga por investigar, no por pelearme con el software (de eso ya hablé en esta polémica entrada). 

En definitiva mi opinión es clara. El SL es un gran invento, ha traído muchos avances al mundo de la informática y lucha contra monopolios. Ahora, tratar de imponer a los demás que software usar, o principalmente, que licencia deben usar en sus programas es una estupidez. Como ejemplo, yo he escrito un libro y le he puesto licencia Creative Commons, pero no por ello pienso que la gente deba leer libros sólo con esa licencia, ni mucho menos que todo el mundo deba usarla para sus libros. 

También pienso que en la gestión pública el SL libre puede ahorrar ingentes cantidades de dinero. Esto no implica en absoluto que podamos aspirar a que todo lo público sea manejado sólo con este Software, como propuso IU en un alarde de irrealidad. Ejemplo: Mucha maquinaria de los laboratorios de mi instituto viene con su propio software privativo, o lo usamos, o cerramos el laboratorio. 

Después de la justificación vamos al meollo. Hay una serie de argumentos que veo que aparecen recurrentemente en toda discusión SL vs SP que se precie. Muchas veces se pueden aplicar, pero otras veces son simples actos de fe, argumentos que se usan sólo para ganar la discusión, y no porque se piense que se puedan aplicar.

Mantras Software Libre


1. Cualquier cosa que haga un programa privativo lo hará igual, o incluso mejor, uno libre. Como por ejemplo Gimp y Photoshop, o PowerPoin y LibreOffice (el que afirme esto último no los ha probado los dos, os lo aseguro).

No importa que ni siquiera los hayas probado a ambos, ni la opinión de los expertos. Lo hace y punto. Además, comprobarlo está mal, porque para eso tendrías que usar el software privativo, y eso no se puede. 


2. Con el dinero que te ahorras en una licencia puedes contratar a un informático que te haga un programa adaptado a lo que tú necesitas. 

No te molestes en hacer cuentas con el salario de los informáticos y las licencias. A fin de cuentas un informático con un plato de arroz ya tiene que conformarse. Con los mil euros que vale una licencia de Mathematica un informático te debería hacer no eso, sino un programa que te revolucione las matemáticas tal y como las conocemos. 


3. Si el software libre te requiere más tiempo que el privativo, eso no es perder tu tiempo, eso es "aprender". 

Y si no te interesa lo que aprendes te jodes. Saber compilar el kernel de Linux es como la lista de los reyes Godos, hay que aprendérsela y punto. 


4. El SL es mejor porque puedes analizar el kernel. 

Y si después de 10 años usándolo aún no lo has hecho, no te desanimes, algún día te dará por ahí. 


5. Si alguien afirma que un programa privativo le va mejor que uno libre, es porque recibe maletines de dinero directos de Bill Gates. 

Igualito que los que reciben los genetistas de Mosanto, los químicos de las farmacéuticas, los físicos nucleares del lobby nuclear o Papá Pitufo de Gargamel. 


6. Si no sabes usar un programa de SL, como Latex para escribir las notas al vecino que siempre saca la basura antes de tiempo, es que eres un flojo que no quieres dedicarle tiempo a aprender. 

Y encima lo reconoces, ¿serás mamón? ¿Tienes algo más importante que hacer acaso?


7. Si alguien pregunta qué programa usar, hay que lanzarse y decirle el primero libre que se te pase por la cabeza. 

Y si no lo conoces mejor, así te documentará el pobre desgraciado. 


8. Tú sí que puedes usar software privativo si te hace falta. 

Sólo que no lo cuentes por ahí. La ética no es lo que uno hace, es lo que uno dice a los demás que hagan. Además, esta norma te será muy útil en cualquier otro aspecto de tu vida. 


9. Cualquier información que aparezca en un foro y sea pro-SL es válida. 

Si te contradice se aplica el mantra 5. 


10. Exigir a la gente que publique en código abierto y criminalizar a las empresas que no lo hacen no va en absoluto en contra de la libertad del programador. 

¿Pero si defiendo la libertad por qué no la del programador de hacer lo que quiera con su código? 
#ERROR 404 Argument not found. 



Como muestras un par de debates de menéame: 



A ver si encontráis estos argumentos por ahí.  


Concluyo con una frase que dijo Stallman en mi universidad: "El software privativo puede ser más cómodo pero tiene un precio, un precio en libertad". 

Bueno, en ciertos momentos de mi vida sacrifico libertad por comodidad. Por eso tengo el dinero en un banco, en vez de gestionarlo yo, o compro comida manufacturada en vez de cultivarla yo mismo. El problema es determinar donde está la línea de lo asumible en cada momento, y no caer en el fanatismo.

Estudiemos cada caso, no caigamos en las generalizaciones absurdas.

EDIT: Se me ha olvidado mencionar que todo el software privativo que uso es legal, nada de versiones piratas. Me parece bastante hipócrita querer obtener lo mejor de los dos mundos. Si no te gusta la opción libre, al menos paga. 

sábado, 17 de noviembre de 2012

¿Qué es la teleportación cuántica?

La teleportación cuántica es uno de los recientes descubrimientos que más salen en los medios de comunicación. Sin duda el nombre tiene mucho que ver. "Teleportación" es una palabra que impresiona. Todos los que hemos tenido infancia recordamos la teleportación en series como Star Trek.  





La idea en sí es simple. Desaparecer de un punto, y aparecer en otro, a ser posible sin hacer el camino intermedio. También es de agradecer que sea instantáneo, por eso de no estar desaparecido mucho rato, o para salvar grandes distancias sin problemas, como en Stargate. 

Pues viendo esto, es normal que sea un tema muy popular. ¿Pero tiene algo que ver la teleportación cuántica con esto? Mucho me temo que poco o nada. Pero aún así hay muchísimas noticias sobre ella, algunas ligeramente incorrectas. En realidad la teleportación cuántica se parece más a lo que viene en este diagrama. 





¿Y qué demonios es esto? Preguntará mucha gente. Pues empecemos por el principio y ya veréis como ,en breve, lo entenderéis por completo. 

Como ya hemos explicado muchas veces, el sistema cuántico más sencillo es el que tiene sólo dos niveles, el famoso qubit, que significa "quantum bit", o bit cuántico. Viene a ser simplemente eso, un sistema que si lo miramos lo podemos encontrar de dos maneras, arriba o abajo, encendido o apagado, o lo que os guste más. Aquí vamos a usar la notación más habitual en computación e información cuántica. Un estado será $\left| 0\right>$, y el otro será $\left| 1\right>$. Cada uno puede simbolizar lo que más os guste. 

Sin embargo, aunque el sistema parece sencillo porque sólo tiene dos posibilidades, la física cuántica siempre lo complica todo. Debido a una propiedad, vieja conocida por este blog, la coherencia, sabemos que cualquier combinación de esas dos posibilidades, también será un estado válido. Ejemplos son los siguientes. 


$$\left| \Psi \right>=\frac{1}{\sqrt{2}}(\left|0\right>-\left|1\right>)$$

Con probabilidades: 50% de obtener $\left| 0\right>$ 50% $\left| 1\right>$.

$$\left| \Phi \right>=\frac{1}{\sqrt{3}}\left|0\right>+\frac{2}{\sqrt{3}}\left|1\right>$$

Con probabilidades: 33.33% $\left| 0\right>$, 66.66% $\left| 1\right>$.

Como siempre los detalles no son importantes, lo importante es el concepto. Yo os puedo entregar un estado cualquiera, como este

$$\left| \Phi \right>=a \left|0\right> + b\left|1\right>$$


Y cuando lo miréis podréis ver $\left| 0\right>$ ó $\left| 1\right>$, con probabilidades que dependen de $a$ y $b$. 

En definitiva, lo que antes eran simplemente dos estados pasa a ser algo mucho más complejo. Esto se suele simbolizar con la llamada esfera de Bloch. Esfera donde los polos simbolizan los estados de que hablamos  $\left| 0\right>$ e $\left| 1\right>$ , y el resto de la superficie representan todos los demás. 





Una cuestión lógica de preguntarse es, ¿qué hay de realidad en esto? ¿Qué pueden simbolizar estos $\left| 0\right>$ ó $\left| 1\right>$? Pues muchas cosas. Esta abstracción se aplica a muchos sistemas reales, como si un átomo está excitado o no, o como si un espín mira hacia arriba o hacia abajo, o si un fotón tiene una polarización u otra. Cada sistema puede ser útil para una cosa diferente, como los fotones que son muy rápidos a la hora de transmitir la información (como la luz, claro está), o los átomos, que son mejores a la hora de almacenar los estados, ya que no tienen que andar de aquí para allá. 

Entonces podemos plantearnos un problema interesante. Yo os doy un estado en general, por ejemplo un fotón con un estado como este $\left| \Phi \right>=a \left|0\right> + b\left|1\right>$. ¿Y si queréis tener el mismo estado pero en un átomo, por eso de almacenarlo? Otra cuestión, ¿Y si queréis transportar ese estado a otro fotón, que se encuentra muy lejos? 

Una posible solución sería mirar el estado, y luego crear uno igual donde queramos. Por desgracia no es posible, al mirarlo obtendréis $\left| 0\right>$ ó $\left| 1\right>$, y no averiguaréis nada sobre los valores de $a$ y $b$, que es donde está la chicha. Otra opción: Pues hago copias del estado, lo meto en mi "máquina de clonar estados" y saco muchos iguales. Otra vez imposible, eso lo impide el Principio de no-clonación. Por eso se inventó la teleportación cuántica. 

Para teleportar algo, lo primero que necesitamos son recursos. En este caso el recurso es otro viejo conocido, el entanglement o entrelazamiento. Recordemos un poco de que va la cosa. Al igual que la física cuántica nos permite estados exóticos, donde las cosas están de dos maneras distintas al mismo tiempo, nos permite aún más. Puede haber estados, en el que además de superposición, también hay correlaciones. ¿Qué significa esto? Pues que yo puedo tener una bombilla, tú otra, y ambas están encendidas y apagadas al mismo tiempo, y se que si miro la mía y está encendida, la tuya pasará instantáneamente a estar apagada. No importa lo lejos que estés, pasará a tener un estado en ese mismo momento. Si os suena raro, os recomiendo que volváis a leer esta entrada.

¿Y cómo puede ayudarnos el entanglement? Bueno, volvamos al diagrama. 




En él hay dos individuos, A y B, que comparten dos qubits entrelazados. A eso se refieren con "EPR pair", en honor a Einstein, Podolski y Rosen. A recibe un fotón, con un estado $\left|\phi \right>$, y como se ve en el diagrama, consigue transportar ese estado a otro fotón que tiene B. Maravilla de las maravillas.  ¿Cómo se hace en concreto? Bueno, eso es algo más complicado, si alguien quiere una explicación matemática más detallada la de la Wikipedia está muy bien. 

¿Y esto no viola la causalidad de la relatividad? Podrá preguntarse alguien avispado. Pues podría, pero no. El estado se transporta de A a B, pero para que sea una teleportación completa, tienen que tener lo que se denomina como "un canal de comunicación clásico", un teléfono vamos. A necesita transmitirle a B lo que ha visto, para que así B pueda transformar su fotón en el que tenía A. 

¿Y no se puede usar esto para clonar los estados, cosa antes se ha dicho que no se podía? Pues por desgracia no se puede. Como A tiene que mirar su estado, para poder hacer la teleportación, para ella habrá desaparecido. Sólo quedará una copia, la de B. 

¿Y en qué se diferencia esto de Star Trek? Pues en casi todo. La teleportación, como sale en la ciencia-ficción, consiste en coger un objeto de un sitio, y llevarlo a otro sitio. El objeto en sí se transporta. En la teleportación cuántica lo que se quiere transportar es cierta información, el estado del objeto. Pero si tienes un átomo aquí, y transportas su estado, el átomo sigue en el mismo sitio. Peor es el caso con los fotones, que al medirlos desaparecen. Así podremos transportar su estado, pero a cambio nos cargamos el sistema en sí. 

¿Entonces por qué es interesante? Como ya he dicho las aplicaciones son numerosas. En computación cuántica, en criptografía, en comunicaciones, el tener un estado aquí y trasladarlo a otro sitio, u otro soporte, puede sernos tremendamente útil para todas estas cosas. 

¿Y es factible? Pues poco a poco va siéndolo. Ya en 1997 se hizo un experimento al respecto, y recientemente en las Islas Canarias han conseguido teletransportar el estado de un fotón a más de 143 kilómetros

Para concluir dejar muy claro cual es el error principal al divulgar sobre esto. ¡No se teletransportan partículas! Simplemente se borra el estado de una partícula, y se traslada a otra. Bueno, puede parecer simple, pero no deja de ser una maravilla. Ahora, si el cometido de ese post se ha cumplido, podéis entender este genial chiste de xkcd. 


http://xkcd.com/465/



sábado, 3 de noviembre de 2012

¿Está todo conectado? ¿Puede la información viajar más rápida que la luz? No, no y mil veces no

Recientemente ha salido un interesante artículo de una colaboración internacional, en la que se encuentra el español Antonio Acín, en la revista Nature Physics, titulado Quantum non-locality based on finite-speed causal influences leads to superluminal signalling. Como ya digo es un artículo muy interesante, pero también son interesantes las comunicaciones divulgativas que se han dado sobre él. 

En menéame no ha aparecido una, sino dos veces, el artículo. La primera vez llegó a portada con el título,  Una de dos: O la información es mas rápida que la luz, o todo el Universo está relacionado entre sí. ¡¡La leche!! Todo está relacionado entre sí. No se lo que significa, pero tiene que ser la pera. El segundo fue titulado Demuestran que las partículas cuánticas están vinculadas más allá del espacio-tiempo. ¡¡Toma maroma!! "Más allá del espacio tiempo". Vuelvo a no saber lo que es, pero suena a ciencia-ficción que tira para atrás. 

Por suerte o por desgracia todo es bastante más sencillo, y menos sensacionalista, que lo que esas portadas anuncias. Sin embargo, si quieres llegar a mucha gente en el mundillo de la divulgación mucho me temo que cuanto más sensacionalista mejor, como prueba la primera noticia en menéame, que está en portada a pesar de ser incorrecta en niveles extremos. 

¿Qué es lo que dice el artículo en sí? Pues para comprenderlo tendremos que repasar un poco nuestros conocimientos sobre unos viejos conocidos, como son la coherencia y el entanglement. Como ya sabemos un sistema cuántico puede estar en dos estados al mismo tiempo, lo que se llama coherencia. Por ejemplo un electrón puede tener spín arriba y abajo. 


$$\left| spin \right>=\frac{1}{\sqrt{2}}(\left|arriba\right>+\left|abajo\right>)$$


Esto quiere decir que en todos los aspectos, salvo uno, se comporta como si estuviera arriba o abajo. ¿Cuál es el aspecto que falla? Pues cuando lo midamos sólo podrá mostrar una de sus caras, arriba o abajo, y nunca las dos. A este fenómeno, el cambio de estar en varios estados a uno sólo cuando se mide, se le llama "decoherencia". 

Más interesante aún es el fenómeno del entanglement, o entrelazamiento. Básicamente viene a significar que si ese estado es posible, si tenemos dos electrones podemos también tener estados de este tipo. 


$$\left| spin \right>_{12}=\frac{1}{\sqrt{2}}(\left|arriba\right>_1\left|arriba\right>_2 +\left|abajo\right>_1 \left|abajo\right>_2)$$


En el que los subíndices indican los distintos electrones. Esto viene a decir que cada electrón está arriba y abajo al mismo tiempo, pero relacionados entre ellos. Si mido uno y me sale arriba, su compañero se pondrá inmediatamente abajo, aunque esté a años luz de distancia. ¿Cómo sabemos que se pone en ese momento y no lo estaba de antes? Un ejemplo muy típico sobre esto es el siguiente. Imaginemos que compro un par de zapatos, te doy uno y me llevo el otro. Nos separamos y en un determinado momento miro mi zapato: es el derecho. En ese mismo momento sabré que tu zapato es el izquierdo, igual que pasa con los electrones. ¿No es lo mismo entonces? Evidentemente no, si lo fuera no estaríamos tantos estudiando el tema del entrelazamiento. La diferencia es que las partículas entrelazadas cumplen una estadística diferente que prueba que su correlación es más fuerte que en el caso de los zapatos. Más técnicamente se puede decir que las partículas entrelazadas violan las desigualdades de Bell, y los zapatos no. 

Las consecuencias del teorema de Bell son muy importantes. Viene a decir que una de las tres afirmaciones siguientes es cierta: 

- Los estados cuánticos son intrínsecamente probabilistas. Esto viene a decir que si no podemos predecir si el electrón está arriba o abajo no es por falta de información, es porque no se puede predecir. 

- Se puede enviar información más rápido que la luz. Esto tiene un problema, si la información viaja más rápido que la luz podrá ir atrás en el tiempo, y se podrá romper la causalidad. 

- No existe la libertad de medir lo que uno quiera. Las medidas están trucadas siempre, de alguna manera, para engañar así a la estadística. 

¿Qué opción es más creíble? Pues el consenso actual es aceptar la primera. Un mundo sin causalidad, donde pueda uno asesinar a su tatarabuelo, evitando así su propio nacimiento, no es del agrado de nadie. La tercera parece también bastante surrealista, no sólo no podemos medir lo que queramos, sino que está todo trucado de manera que engañemos a la estadística. 

¿Qué pasa entonces con la decoherencia? ¿Es realmente instantánea? Pues todo parece indicar que sí. Sin embargo, eso no entra en contradicción con lo dicho anteriormente sobre que no se debe enviar información más rápida que la luz. Ocurre que el colapso de la función de onda no es información en si. No se puede utilizar de ninguna manera para enviar un mensaje al pasado, precisamente por la aleatoriedad que rige a los sistemas cuánticos. 

Volvamos entonces con el artículo en cuestión. ¿Qué ha añadido nuevo? Bueno, la violación de las desigualdades de Bell implican que el colapso de la función de onda se da a una velocidad supralumínica. Sin violar la causalidad, claro, porque no es información lo que viaja. Sin embargo, nadie determina esa velocidad. Precisamente este artículo lo que demuestra es que ese colapso de la función de onda debe ser infinito. Si no es infinito, solamente mucho mayor que la velocidad de la luz, sólo manipulando los aparatos de medición podríamos mandar mensajes a velocidad supralumínica, es decir, al pasado. 

Este es un resultado muy interesante. Precisamente para evitar que la información viaje a velocidad superior a la de la luz, se debe imponer que la decoherencia no es sólo más rápida que la luz, sino que tiene velocidad infinita. 

¿Quiere eso decir que todo está conectado? ¿O que las partículas cuánticas están vinculadas más allá del espacio tiempo? Pues ni lo uno ni lo otro. Eso son titulares sensacionalistas que te ayudan a vender la noticia. Lo triste es que la noticia en sí ya es suficientemente interesante, sin necesidad de decir cosas que no son ciertas.




jueves, 25 de octubre de 2012

Señores periodistas, por favor, citen los artículos

Es evidente que la ciencia es algo que nos interesa a todos. Recientemente ha salido la Encuesta de la Percepción de la Ciencia, con resultados muy interesantes. El interés por la ciencia ha aumentado un 19% desde 2010, un 40% entre los más jóvenes. Es un gran resultado en mi opinión e imagino que internet, los blogs de divulgación y el aumento de noticias de ciencia en los periódicos tiene mucho que ver. 

Por otro lado hay algo que a muchos periodistas de temas científicos se les pasa y es tremendamente sencillo. Habréis notado que he mencionado una encuesta, con hacer click en el enlace la podéis ver, comprobar, leer y sacar vuestras conclusiones. Es algo que a mi me ha costado 3 segundos hacer, y al lector le ahorra un buen rato de buscar, sobre todo dependiendo del tema. Algunas cosas no se encuentran nunca. 

Un ejemplo, hoy ha salido esta noticia en La Razón




Ni un enlace, referencia o algo que nos indique donde se han publicado estas agudas conclusiones. Si no quieren enlazar, porque es un esfuerzo sobrehumano, pues vale, pero que den la referencia. Los estudios científicos se publican en revistas científicas, con revisión por pares que tratan de asegurar la fiabilidad de los estudios. Si el estudio está publicado, que mencionen la revista, el número, la página y el año. No es tan difícil. Así podemos ir a la revista y comprobar qué es lo que realmente dicen. Si el estudio no está publicado no pasa nada por esperar a que lo publiquen. La prisa por ser el primero en hablar de un tema es bastante peligrosa en cuestiones científicas, porque se termina dando publicidad a muchos temas sin fundamento. Esperando un poco se asegura que el estudio tiene un cierto nivel de calidad. Sobre el tema de las publicaciones y la revisión por pares ya hablamos en este otro post

Cosas que no sirven como referencia: 

- Un científico de la Universidad de Estocolmo. 
Imagino que habrá muchos en esa universidad, al menos di el nombre. 

- El profesor Maentylae. 
Vamos mejor, sabemos el nombre, pero eso no quiere decir que su estudio sea fácil de encontrar. Es posible, incluso, que no esté publicado y os lo haya colado a los periódicos. Lo que no es de recibo es que se escriba mal el nombre, imposibilitando el que se encuentre al individuo. En este caso es el Profesor Mäntylä

- Publicado en la revista Psychological Science. (La Nación).
Seguimos mejorando, pero aún no es adecuado. Básicamente aún tenemos que encontrar la web de la revista, poner el nombre (el correcto, no el que sale en la noticia) y buscar. En este caso, a día de hoy no encontraremos nada, podéis probar. 

El problema concreto aquí es que el artículo está aceptado, pero no publicado como dicen algunos periódicos. Si se mira la web del profesor sale en su lista de publicaciones. 

Recent publications
Mäntylä, T. (in press). Gender differences in multitasking reflect spatial ability.Psychological Science.


Donde, "in press", significa que ha sido aceptado para publicarlo, pero aún no está disponible. Sinceramente, podrían esperar un par de semanas a que lo esté para que todos podemos verlo, y comparar las conclusiones del artículo con lo que se dice en el periódico. 

Eso es todo. Enlazar es una gran herramienta que nos da internet, y citar es una cuestión de sentido común. 

domingo, 30 de septiembre de 2012

El experimento de las bombas de Elitzur–Vaidman

Sin duda la física cuántica es una teoría con muchos resultados inesperados. Uno de sus resultados más interesantes, desde el punto de vista de la interpretación de la teoría, es el experimento de las bombas, propuesto por Elitzur–Vaidman, en el artículo Quantum-Mechanical Interaction-Free Measurements. Este experimento se popularizó mucho al aparecer en el libro de divulgación Lo grande, lo pequeño y la mente humana, de Roger Penrose.

Como bien es sabido uno de los principios fundamentales de la física cuántica, el principio de incertidumbre, pone límites a lo que podemos o no saber. Antes de eso, en la física clásica, se pensaba que se podría saber cualquier magnitud con una precisión arbitraria. Sobre esto ya hablamos en el post sobre el azar y la causalidad. El experimento de las bombas viene a llevar esto hacia el otro lado, usar la física cuántica para averiguar algo que no podríamos saber si usamos la física clásica. 

Imaginemos que inventan un dispositivo a la vez cruel y retorcido, una serie de bombas hipersensibles. Con hipersensibles quiero decir que son lo más sensible que se pueda uno imaginar. Si un solo fotón interacciona con la cabeza de la bomba, explota. Así pues tienen que guardarse en total oscuridad. Imaginemos también lo siguiente, somos un grupo terrorista y retorcido que queremos usar las bombas con algún maléfico objetivo, pero tenemos un problema, alguien ha mezclado bombas inútiles junto con las que sí explotan. La cuestión es entonces: ¿Podemos averiguar qué bombas son las buenas? Está claro que hay una manera, las sacamos a la luz y vemos que pasa. Así lo averiguaremos, pero también destruiremos todas las bombas, simplemente la que es buena explota y la que no, no. Así que hay que reformular la pregunta: ¿Podemos averiguar qué bombas son las buenas, pero sin explotarlas? Ahí es donde la física cuántica viene a echarnos una mano. 

Para averiguar esto tenemos que aprender un poco sobre uno de los montajes experimentales más útiles del último siglo, los interferómetros. En concreto usaremos un interferómetro de Mach-Zender


Fuente:Wikipedia

Este interferómetro está formado por dos espejos, dos cristales semirreflectantes (beam-spitters) y dos detectores de luz. La idea es sencilla y anterior a la física cuántica. Un rayo de luz llega a un cristal y es dividido en dos partes, luego las dos se reflejan en los espejos y vuelven al otro cristal. Como la luz es una onda en el segundo cristal cada rayo puede interferir con el otro, dependiendo de una propiedad llamada fase. Básicamente esta indica si las dos ondas que interfieren lo hacen de manera constructiva o destructiva, como se ve en el siguiente dibujo. 


Fuente: Wikipedia

Así pues si las ondas están en fase la onda crece, si están desfasadas decrece. Todo esto era conocido antes de la física cuántica, claro está. Todo el mundo ha visto alguna vez la interferencia de dos ondas en el agua. 

Again from Wikipedia


¿Qué tiene que ver con esto con nuestro problema? Bueno, la cuestión es que aunque la interferencia es algo de sobra conocido en el mundo clásico la física cuántica le dio un giro. Según la física cuántica un fotón puede interferir incluso consigo mismo, sin necesidad de que haya más. Esto significa que podemos lanzar un fotón al interferómetro, uno sólo, este se desdoblará al llegar al primer cristal, recorrerá los dos caminos y al llegar al segundo cristal interferirá y activará uno de los dos detectores. Modificando las propiedades de los cristales o la distancia que recorren los fotones podemos decidir que detector queremos activar. Esto no ocurre si el fotón se comporta de manera clásica, es decir, si cuando llega a uno de los cristales decide aleatoriamente tomar un camino u otro. En ese caso siempre al llegar al segundo cristal la mitad de las veces se iría a un detector y la otra mitad al otro, y no hay posibilidad de decidir nada. 

¿Se puede probar experimentalmente que esto es así? Pues por suerte sí. Existen unos curiosos aparatos, llamados detectores monofotón que son capaces de detectar fotones que van solos. Hoy en día tienen una capacidad de detección cercana al 100%, y permiten este tipo de experimentos. 

Volvamos entonces al experimento de las bombas. Ya tenemos herramientas, pero hay que desarrollarlas, eso fue lo que hicieron Elitzur y Vaidman. Para eso diseñaron el siguiente montaje: 


Sorprendentemente he tomado esta imagen de la Wikipedia

Muy parecido al interferómetro, ¿verdad? De hecho es exactamente igual, pero en el punto $B$ colocamos la bomba a probar. ¿Qué ocurre ahora? Básicamente la bomba actúa de aparato de medida, obliga al fotón a estar o no estar en uno de los caminos, pero sólo si es una bomba activada. Si la bomba está desactivada deja al fotón seguir su camino, (esto es algo que se criticó de este experimento cuando se propuso, pero se puede resolver fácilmente poniendo la bomba en lugar del espejo inferior derecha, de modo que si la bomba está desactivada simplemente refleja el fotón. Los resultados son los mismos.) Así que si diseñamos el interferómetro para que en caso de no haber bomba siempre active el detector $C$ pueden pasar tres cosas. 

1.- La bomba explota. Era buena, pero nos la hemos cargado. 
2.- Se activa el detector $C$, no obtenemos información. Toca repetir. Si lo repetimos muchas veces y siempre sale el detector $C$ podemos asumir que no es buena. 
3.- Se activa el detector $D$. ¡Bingo! La bomba es buena y no ha explotado. 

¿Cómo puede ocurrir la 3ª opción si habíamos diseñado el interferómetro para que no pasara? Muy sencillo, si la bomba es buena obliga al fotón a decidir un camino, pero no necesariamente el suyo. Hay un 50% de probabilidades de que el fotón tome el otro camino y luego, al llegar al segundo cristal tiene otro 50% de probabilidades de activar cada detector. Esto nos deja un 25% de probabilidad de activar el detector $D$. Así pues nos cargaremos un buen número de bombas, pero también habrá bastantes que podremos detectar. Eso es así sólo en este esquema, el más sencillo, si empezamos a jugar con los cristales, de modo que no reflejen al 50-50, y con las distancias que recorre cada fotón esta eficiencia se puede mejorar notablemente. Incluso, si en vez de dos caminos se usan más la eficiencia se puede acercar arbitrariamente al 100%. 

Y eso es todo, un bonito experimento que ilustra como la física cuántica, aunque nos diga que hay cosas que no podemos saber, también nos puede dar más información que la física clásica. Alguien podría decir: "Si muy interesante, pero no deja de ser un experimento mental", pero se equivocaría. En 1995 un grupo, liderado por el profesor Anton Zeilinger, hizo el primer experimento real de este tipo. Se tituló Interaction-Free Measurement, lo que viene a significar "Medidas sin Interacción". Desde entonces el campo de las medidas sin interaccionar se ha convertido en uno de los más fructíferos dentro de la física cuántica. 

Y eso es todo. Sed cuánticos, pero interaccionad. 

lunes, 6 de agosto de 2012

¿Existe el Libre Albedrío?

Anteriormente ya hemos discutido en este blog sobre el determinismo e indeterminismo. Resumiendo el post anterior, existe dos tipos de teorías científicas, las deterministas y las indeterministas. En las primeras si conoces el estado de un sistema en un momento dado podrás saber como evoluciona en el futuro, sin ninguna falta de información. En las segundas teorías, como la física cuántica en concreto, afirman que si conoces un sistema a la perfección en un determinado momento a lo más que puedes aspirar es a predecir las probabilidades de los resultados de futuros experimentos.

Todo esto se puede visualizar mediante la metáfora del Demonio de Laplace. Este curioso individuo es un ser que conoce a la perfección todas las propiedades de todas las partículas del universo, entonces si el mundo fuera determinista el demonio podría saber todo lo que va a ocurrir sin ningún problema. Como parece ser que el mundo no es del todo determinista, sino que tiene una parte indeterminada que ocurre principalmente en el mundo microscópico, el demonio no podrá saberlo todo con certeza y en algunos casos se tendrá que resignar a calcular las probabilidades de lo que vaya a ocurrir.

En este post vamos a hablar de un tema derivado del anterior, pero con muchas consecuencias morales, filosóficas y religiosas. Si el cerebro humano es un sistema físico, que es evidente que lo es, ¿es determinista o indeterminista? Sea cual sea la respuesta, ¿qué ocurre con el libre albedrío? ¿Es real o una mera ilusión?

El concepto de la conciencia y el libre albedrío 

Definir términos como la conciencia o el libre albedrío no es en absoluto sencillo. Por otro lado, si no creemos en cuestiones paranormales como el alma, o el espíritu, está claro cual es el entorno físico que nos interesa, el cerebro. No hay mucha gente que dude que en el cerebro se origina todo lo relacionado con el comportamiento, a personalidad, los sentimientos o el raciocinio.


Un caso muy ilustrador acerca de este fenómeno fue el caso de Phineas Gage, maquinista ferroviario del siglo XIX. Este buen hombre sufrió un accidente mediante el cual una barra de hierro de unos 6 kilogramos le atravesó la cabeza, entrando por el cráneo y saliéndole por la mejilla. En contra de lo probable logró sobrevivir tras ser tratado por el doctor Harlow, un médico de su zona. Después del accidente logró recuperarse físicamente por completo y recibió el alta dos meses después. Sin embargo su carácter cambió irreversiblemente. Aunque podía  hablar y actuar con normalidad, se volvió irascible, irregular, irreverente y obstinado. Fue el primer caso registrado de cambio en la personalidad por daños físicos en el cerebro, evidentemente hoy en día hay muchos más. Es evidente que la personalidad, la capacidad de raciocinio y de decisión, en caso de que la tengamos, no puede residir en otra parte más que en el cerebro.

Aparte de la personalidad, está la cuestión de la capacidad de decisión, o libre albedrío. Evidentemente debe residir en el cerebro, como el resto del comportamiento, aunque no es nada fácil de definir. Es evidente que al ser el cerebro un sistema físico debe seguir las leyes físicas. Entonces es difícil de imaginar que exista algo como la "libertad de decisión", ya que el cerebro hará lo que venga determinado por su entorno, y nada más. Es evidente que si las leyes físicas están determinadas, y no hay nada "externo" que controle nuestro comportamiento, este sólo puede estar controlado por esas leyes.  Por otro lado, ¿significa eso que es totalmente predecible? ¿Podremos algún día saber cómo se va a comportar la gente, o nosotros mismos sin lugar a dudas? Sobre esto vamos a discutir ahora.

Así pues es el cerebro el que debemos averiguar como se comporta. Para ello existe una rama científica que está últimamente haciendo descubrimientos asombrosos, la neurociencia. Sin embargo aquí no vamos a entrar en demasiado detalle sobre el funcionamiento del cerebro, sólo rasgos generales. Posts más detallados pueden escribirlos expertos en el tema, como mi amigo Jorge Mejías que está invitado a publicar por aquí cuando quiera. 

Teorías deterministas del cerebro 

Actualmente el mayor consenso científico viene a defender que el cerebro se puede describir mediante teorías deterministas, siendo por lo tanto un sistema determinista. Es evidente que al estar formado el cerebro por átomos y moléculas, que son sistemas que siguen las leyes de la física cuántica, sin embargo al estar formada una neurona por muchos átomos todos los efectos cuánticos son promediados, dando lugar a un fenómeno determinista. Así pues se dice que no hay efectos puramente cuánticos en el cerebro. Así pues casi todas las teorías actuales sobre el funcionamiento del cerebro son teorías deterministas. Un ejemplo es el modelo neuronal de Hopfield, que fue pionero en la descripción del cerebro mediante modelos físicos. Este modelo es muy simple y determinista (aunque se pueden usar métodos aleatorios para simularlo, pero eso es sólo un tecnicismo) y aún así sirve para realizar reconocimiento de patrones. 

¿Qué quiere decir esto de ser correcto?  Pues que el cerebro es una máquina determinista, complicada e imposible de predecir por el momento, pero determinista al fin y al cabo. Entonces el Demonio de Laplace podrá incluirnos en su descripción del mundo y predecir sin problemas a que número de la lotería jugaremos, o si dejaremos nuestro trabajo o no, etc. ¡¡Sabrá mejor lo que haremos que nosotros mismos!!

Así pues, el libre albedrío e incluso la consciencia en si no son fenómenos reales. Creemos que tomamos decisiones, que vamos a hacer la compra cuando queremos, que pensamos en tal o cual cosa, que trabajamos o procastinamos porque lo decidimos así. Sin embargo, si lo que vamos a hacer o dejar de hacer ya está escrito, si no hay otra opción, ¿cómo podemos considerarnos libres?


Aquí Morfeo ofreciendo a Neo la elección entre una gominola azul o una roja, sin saber que Neo no tiene capacidad para decidir nada. 

Aunque la neurociencia es bastante joven el determinismo es conocido desde hace ya mucho, por lo que ha habido muchos filósofos que han defendido la falta de libre albedrío, como Spinoza o Schopenhauer.

Teoría no determinista del cerebro  

Como ya dijimos en el anterior post al Demonio de Laplace sólo se le puede engañar de una manera, mediante la física cuántica, y hablar de física cuántica y del cerebro nos lleva irremediablemente a Roger Penrose. Según este las teorías clásicas no son suficiente para explicar la complejidad del comportamiento humano y la conciencia, así que la explicación debe venir de efectos cuánticos no triviales como la coherencia o el entrelazamiento.

Como bien es sabido los efectos cuánticos se dan sólo en sistemas pequeños, relativamente bien aislados del entorno. Así pues Penrose, al estar convencidos de que deben jugar un papel importante en el pensamiento se puso a analizar en que partes del cerebro podría sobrevivir un efecto cuántico tiempo suficiente como para jugar un papel relevante. El único candidato que encontró fueron los microtúbulos.




Básicamente los microtúbulos tiene unos 25 micrómetros por unos 25 nanómetros de diámetro. Aunque a priori parecerían suficientemente pequeños para albergar efectos cuánticos también es cierto que están en un entorno a temperatura ambiente y con una fuerte interacción. Hasta la fecha ningún efecto cuántico se ha podido detectar en estos sistemas. Por el momento la hipótesis de Penrose está fuertemente rechazada en la comunidad científica, aunque siempre hay que dejar la puerta abierta a que un nuevo resultado experimental cambie el paradigma.

En cualquier caso, con o sin Penrose, ¿qué pasaría si hubiera efectos cuánticos no triviales en el cerebro? Pues como ya hemos dicho antes el Demonio de Laplace no podría predecir que vamos a hacer. Los seres humanos (y otros animales) seríamos impredecibles por naturaleza. Sin embargo, tampoco está muy claro que eso signifique que seamos "libres". Se podría decir que tenemos un dado interior que ante ciertas situaciones nos hace tomar una u otra opción. También es cierto que si no creemos en cuestiones paranormales, como una consciencia independiente del resto del universo, esto es lo más a lo que podemos aspirar.

 Implicaciones filosóficas

Evidentemente este es un tema con muchas implicaciones filosóficas que ha sido analizado por mucha gente a lo largo de muchos años. La cuestión principal es: Si nuestros actos están ya determinados, ¿somos responsables? Evidentemente no, pero tampoco me sirve de mucha ayuda si están determinados por el azar, a fin de cuentas no decido yo que va a pasar. ¿Qué sentido tiene entonces el concepto de responsabilidad? Bueno, pues eso lo dejo a cada uno que lo decida. Yo, personalmente, pienso que el concepto de responsabilidad es necesario para poder vivir en sociedad y por eso se desarrolló. En cualquier caso si no somos libres tampoco podemos cambiarlo, así que se quedará como está.

El concepto de Libre Albedrío también es muy importante en temas religiosos, pero ahí ya nos salimos de las premisas de este análisis, que incluían que no había ningún efecto paranormal. Si existe un alma o espíritu, o de alguna manera nuestra conciencia es capaz de sobrevivir a la muerte física del cerebro, cosa ya de por si difícil de creer como expliqué en el post sobre la Ciencia y Dios, pues ya nos podemos creer cualquier cosa. Si la conciencia no cumple las leyes naturales es bastante inútil perder el tiempo analizándola, porque no tenemos ninguna herramienta para saber sobre ella.


jueves, 26 de julio de 2012

La complejidad. ¿Se puede medir?

El concepto de complejidad es muy interesante. Prácticamente todo el mundo tiene una idea intuitiva de lo que significa que algo es "complejo", pero definir de manera clara y sin equívocos que algo es más complejo que otra cosa. En parte esto viene del hecho de que la palabra "complejidad" se puede aplicar a muchos campos. Como ejemplo en este diagrama de la Wikipedia viene la evolución del término con el tiempo:


Entonces, si es algo que se aplica a tantos campos ¿se puede definir? Pues la respuesta es obvia, para cada campo hará falta una definición diferente. En la tesis doctoral [1] de la doctora Sheila López, profesora en la Universidad de Sevilla y experta en estos temas, se pueden ver algunas de las definiciones de complejidad.  


Formulaic complexity: Descriptive (length of account that must be given to provide an adequate description of the system), algorithmic (the length of the system instructions) and computational (the time required to solve a problem) complexities.
Compositional complexity: Constitutional (number of parts or components) and taxonomical (numbers of different kinds of components in the physical configurations of the system) complexities.
Structural complexity: Organizational (number of different ways of arranging components in different modes of interrelationship) and hierarchical (organizational disaggregation into subsystems) complexities.
Functional complexity: Operational (variety of modes of operation) and nomic (degree of elaboration of the laws which govern a phenomena) complexities.


Y ahora, como es inteligente empezar por el principio comenzaremos con la definición de complejidad más antigua y famosa de todas, la de Kolmogorov. 

Complejidad de Kolmogorov 

La complejidad de Kolmogorov es sin duda la definición más famosa de complejidad de todas. Aunque pueda parecer extraño se aplica a un sistema muy concreto, una cadena de caracteres. Básicamente viene a decir la complejidad de una cadena de caracteres es igual al programa más corto que es capaz de generarla. Vamos a ver un ejemplo, la siguiente cadena de caracteres: 

$$101010101010101010101010$$

Esta es a todas luces una secuencia muy sencilla, ¿no? Un programa que la generase sólo tendría que repetir el patrón las veces que haga falta. En el lenguaje de programación C, por ejemplo, sería: 

for (i=0;i<12;i++) printf("10");

Ahora veamos otra lista de caracteres: 

$$vwrtgw45g238g23e823hr3928ry$$

Esta al no seguir ninguna regularidad no es tan fácil de programar, de hecho tienes que hacer un programa que sepa la lista en si y la escriba, algo en plan 

printf("vwrtgw45g238g23e823hr3928ry")

Ambos programas son similares en tamaño, pero tienen una diferencia muy importante: Si la cadena crece el primer programa se queda casi igual, pero el segundo depende directamente del tamaño de la cadena. Eso demuestra que la segunda cadena es más compleja que la primera, porque su complejidad depende de su tamaño, y en la primera no. 

Ahora bien. ¿Tiene sentido medir la complejidad de una cadena de caracteres? ¿A quién en su sano juicio le importa eso? Pues no se nos debe olvidar que en cadenas, o matrices, de caracteres se almacena la información, como los dibujos o las fotos. Un ejemplo clásico es el siguiente: ¿Diríais que el siguiente dibujo es o no complejo? 




La respuesta es simple: No mucho. Este dibujo pertenece a un Conjunto de Mandelbrot, que se puede generar a partir de una fórmula muy sencilla. Por otra parte si lo queremos más grande tampoco necesitamos ampliar el programa, sólo cambiarle los bordes. Así pues este bonito dibujo tiene muy poca complejidad. 

¿Y cómo veis la siguiente figura? 




Esta no se me ocurre ninguna manera de generarla que no sea dar la figura en sí. Tampoco se me ocurre como saber que hay más allá de lo que se muestra sin dar la información en si. Así que este sí es una figura con una alta complejidad de Kolmogorov. 

El problema con esta medida es el siguiente. Siempre una cadena aleatoria dará el mayor valor de complejidad, porque al ser aleatoria no se puede hacer un programa que la genere salvo que de los datos uno a uno. Esto hace que muchos consideren la complejidad de Kolmogorov más como una medida de aleatoriedad que de complejidad. Además, dentro de la aleatoriedad tampoco hace distinciones. Vamos a ver esto último con más profundidad, porque dará lugar a la siguiente parte. 

La cuestión es que la separación entre aleatorio y determinista  es bastante arbitraria. Los procesos aleatorios no son todos iguales y dependen de la función de distribución que los controla, sin embargo la complejidad de Kolmogorov le asocia a todos un valor máximo. Por otro lado, un proceso determinista también se puede definir como un proceso aleatorio con una distribución determinada (la llamada Delta de Dirac). Para analizar esto se crearon otras medidas que vamos a mostrar ahora. 

Medidas estadísticas de complejidad 

La idea de estas medidas estadística es simple, no todas los procesos aleatorios (o lo que es lo mismo, no todas las distribuciones de probabilidad) son iguales. Entonces ¿Cuáles son más complejas que cuales? Pues para eso hay que establecer un mínimo, es decir, hay que decir que distribuciones son las menos complejas.

El acuerdo general es que las distribuciones menos complejas son la totalmente uniforme, en la que todo puede ocurrir con la misma probabilidad, y la determinista, donde está ya escrito lo que va a pasar. La idea se puede entender con el siguiente dibujo:





A la izquierda tenemos un caso que representa el determinismo, en este ejemplo un cristal. Los átomos del cristal están ordenados y sólo pueden ocupar un sitio definido, dando lugar a un sistema poco complejo, porque es fácil de describir. A la derecha tenemos el caso opuesto, un gas perfecto en una caja. Si tomamos un trozo del centro de la caja (para poder omitir la interacción con las paredes de la caja) cualquier posición es igual a las demás y un átomo puede estar en cualquier parte con la misma probabilidad, así pues este sistema también se considera poco complejo. En medio tenemos un caso más complicado, una cadena de ADN. En el ADN las posiciones no están tan definidas como en el cristal, porque se puede plegar, es flexible y demás, sin embargo tampoco es totalmente aleatoria como en el caso del gas. Este es un ejemplo de un sistema complejo.

A partir de esta idea tan simple se crearon distintas medidas de complejidad, como la LMC, la Fisher-Shannon y otras. El único problema es que la definición es muy abierta, y hay un sinfín de medidas que den mínimo valor para esas distribuciones. Sin embargo, con paciencia bastantes investigadores han ido aplicando estas medidas a sistemas como átomos y moléculas, con resultados bastante inesperados. Para una información más técnica se puede leer la tesis que ya cité [1] o la mía, de paso [2].

En un post futuro, pero no muy lejano, hablaré de como estas medidas se alican en el campo de la física cuántica.


Bibliografía

[1]  Information-theoretic measures of atomic and molecular systems. Tesis Doctoral. Sheila López Rosa. 
[2] Information and Entanglement Measures in Quantum Systems With Applications to Atomic Physics. D. Manzano. http://arxiv.org/abs/1103.3186

sábado, 9 de junio de 2012

La paja en el ojo ajeno

He leído recientemente en el Huffington Post un artículo de un profesor de investigación del CSIC, Carlos M. Duarte, titulado La precaricación de la ciencia: la paja en el ojo ajeno. Este artículo critica de una manera bastante dura, y en mi opinión injustificada, a la Federación de Jóvenes Investigadores (FJI) y al colectivo de investigadores que nos oponemos a los recortes en general. 

Vamos a analizar lo que dice paso a paso. Pero primero analicemos un pequeño dato. Un profesor titular del CSIC con unos 10 años de experiencia debe cobrar netos unos 2600 euros al mes, que imagino que será aproximadamente el salario del autor (fuente). 

En primer lugar, Precarios son la legión de jóvenes de su edad, con un 50% de paro, que no consiguen empleo; Precarios son los padres y madres de familia que tienen que sacar adelante su casa -si consiguen retenerla- y alimentar a sus hijos mientras están instalados en el paro de larga duración; Precarios son los ancianos de cuya pensión, cada vez más depreciadas y castigadas por "re-pagos" y "ajustes", dependen en muchos casos dos generaciones completas de sus familias.
Estos jóvenes, que se siguen autodenominando precarios, cobran contratos de más de 1.000 € mensuales desde el primer día de su ingreso como estudiantes de doctorado y en su investigación se invierten ingentes cantidades de recursos en equipamiento, material y viajes, que típicamente superan en más de 10 veces la cantidad que reciben como nóminas.
Primero comienza con el típico "hay gente mucho peor", cosa que no es discutible. Eso es algo que los jóvenes investigadores nunca hemos negado y que creo que tiene poco que ver con la discusión sobre el futuro de la ciencia. Después viene la mentira, o la falta de información, acerca del salario de los "precarios". Después de más de 5 años en contacto con la FJI he conocido allí a gente de muy diversa condición. HAy investigadores predoctorales de los programas FPI y FPU que cobran lo que este señor dice, también hay postdocs, como yo, que cobramos algo más. No faltan los que no tienen contrato ninguno y no cobran nada (lo cual está muy por debajo de 1000 euros), tampoco faltan becarios de planes propios de las universidades que cobran en torno a 700 euros al mes. Se puede ver que hay una amplia gama y que muchos de ellos están muy lejos de vivir bien sobre todo aquellos que no cobran nada. 

Otro dato que es sólo medio verdad es el afirmar que los predoctorandos cobran "desde el primer día de su ingreso". Para conseguir una ayuda predoctoral del ministerio, por ejemplo, tienes que solicitarla y pueden tardar unos 6 meses en resolverla. Durante ese tiempo lo normal es que se trabaje, pero no se cobre porque aún no estás contratado. Eso sin saber, además, si te la darán o no. 

La última frase es la más absurda. El equipamiento y material que se compra en los departamentos no se compran para educar a los becarios. Cuando se compra algo se hace pensando en las necesidades científicas del departamento y me parece totalmente indiferente si luego es usado por el becario o por su supervisor. Imagino que la mayoría de los estudiantes de doctorado estarían encantados de que fueran sus jefes lo que hagan los experimentos, pero si estos delegan esa responsabilidad no se puede encima cargar al becario con el gasto en material. Imagino que también se considerará el salario de un gruista excesivo, al fin y al cabo una grúa debe ser muy cara. Aparte el cálculo me parece excesivo y sensacionalista. Muchos investigadores, como yo, sólo necesitamos un ordenador y dinero para viajes y congresos. Teniendo en cuenta que un congreso de los más caros puede salir por 1200 euros, con viaje y alojamiento, tienes que ir a 10 congresos así al mes para llegar a gastar 10 veces más que tu salario. Imagino que ellos mandarán a sus becarios medio año a Las Bahamas, si no el cálculo es excesivo. 

También mencionar que la FJI nunca ha solicitado, que yo sepa, que se suban los salarios de los investigadores. Nunca ha protestado por eso. Cuando hablan de "precarización" siempre se han referido a los investigadores que trabajan sin contrato y al hecho de que después de 4 años de tesis el estado no te ofrezca nada mejor que irte del país. Le guste o no al señor Duarte el ir enlazando contratos de 2-4 años con 6 meses en medio sin cobrar es bastante precario. No deja de ser curioso también que alguien con trabajo fijo, sin posibilidad de despido, y que cobra en torno a 2500 euros al mes haga esta crítica. Imagino que de ahí viene el título de su post. 

Continúa el artículo con una crítica al sistema educativo español, del que los jóvenes científicos no somos responsables. En todo caso lo son los profesores, incluyendo profesores universitarios y del CSIC. 

Después sigue la crítica a los estudiantes e investigadores predoctorales. 

Muchos trasladan a los centros de investigación sus hábitos universitarios con jornadas laborables que se inician más allá de las 10:00 y fines de semana caribeños -que no los invitó el Sr. Divar sino que se inventaron en la universidad española donde los viernes no son, en la práctica, lectivos por incomparecencia de alumnos y los lunes las aulas presentan muchos claros. Escasa iniciativa y escasa participación en actividades académicas, como seminarios científicos y otros actos, y, en general, una inhibición de su necesaria aportación a crear un ambiente científico intelectualmente estimulante en sus grupos de investigación.

Esta crítica tampoco la comparto. Si los viernes y lunes no son lectivos no es nunca por que los estudiantes decidan no ir. Los responsables de la docencia son, y siempre han sido, los profesores y si no hay clases los viernes es debido a que los profesores han decidido no usar ese día. Si los alumnos no quieren asistir es su responsabilidad, pero no tienen capacidad ninguna para forzar que se no haya docencia. Lo mismo ocurre con los investigadores predoctorales. Que yo sepa todo doctorando tiene al menos un supervisor, que es el responsable de su trabajo. Si los doctorandos faltan a su lugar de trabajo son los supervisores los que tienen que exigirles que cumplan con su horario laboral. El problema es que esto es complicado si el supervisor sólo trabaja de 10 a 13. 

Continúa la crítica, ahora de manera más razonada:

Opino que se han de modificar los criterios de acceso a los contratos públicos de doctorado, dando mayor peso a otros méritos que evidencian inquietud e interés por la ciencia y eliminando la imposición de trayectorias lineares. Se deberían instalar, además, controles exigentes a la mitad del recorrido de doctorado, como existen en los países a quienes los "precarios" se comparan en otras estadísticas. De esta forma sería posible derivar a otras profesiones a los estudiantes que no hayan demostrado suficiente interés, dedicación o capacidad como científicos y aprovechar de forma más eficiente los recursos públicos

Aquí le doy parte de razón. Antes que nada hubiera agradecido más información sobre esos países que hacen controles exigentes al mitad del doctorado. Se que eso ocurre en EEUU, con los famosos y temidos quals, pero no pasa ni en Alemania ni en Austria, por ejemplo. En cualquier caso yo estoy a favor de cualquier tipo de control objetivo que nos sirva para mejorar nuestra calidad científica. 

Por otro lado, si bien es cierto que no se evalúa el nivel de los doctorandos durante los 4 años de contrato, el nivel de los profesores no se evalúa prácticamente nunca. Sólo para conseguir sexenios tienes que superar un nivel investigador mínimo, que por otro lado es bastante fácil. Si los sexenios te dan igual puedes directamente no investigar, nadie te va a exigir nada. Esto no es sólo algo teorético, es algo que pasa. En las universidades españolas se mezclan grandes científicos y profesores con gente que trabaja, a lo sumo, dos horas al día. Así que estoy de acuerdo, se debe exigir que se trabaje en el horario establecido y se debe evaluar regularmente la calidad de la investigación, pero para todos, no evaluemos sólo a los que más trabajan porque es absurdo. 

Más adelante podemos leer. 

Por eso, disminuir el número de contratos Ramón y Cajal y mejorar sus condiciones como ha anunciado Carmen Vela me parece una decisión sensata, haya crisis o no. Continuar con la oferta de contratos actuales como pretenden los "precarios" sabiendo que nuestro sistema de I+D será incapaz de consolidarlos sería, símplemente, una hipocresía cruel para con los contratados.

Esto es cierto a medias. Es verdad que no tiene sentido ofertar contratos de retorno si luego no hay posibilidad de regularización. Por otro lado hay que plantearse por qué no hay posibilidad de regularización. ¿No puede el sistema científico español contratar a 600 científicos más al año? Imagino que si no es posible es porque no se renovará el sistema y parece ser que es siempre mejor el malo de dentro que el bueno que pueda venir de fuera. También es curioso que primero se critique el dinero que se invierte en los becarios (el salario multiplicado por 10 o por 100 por los congresos en Hawaii) y luego se diga que no hay que traerlos cuando están en el extranjero. Vamos, que lo mejor es seguir formando a gente para que luego se beneficien otros países. 

La cultura del "café para todos", prevalente en todos los niveles, incluidos la ciencia, de la sociedad española desde hace 30 años se debe reemplazar por una cultura del esfuerzo, la selección y evaluación, el mérito y la competitividad, en justo equilibrio con la cooperación.

Totalmente de acuerdo. En mi opinión el mejor método es la meritocracia, que entre el mejor y no el que lleve más tiempo ni el que esté ya dentro. Esto se debe aplicar también a los científicos mayores y no sólo a los jóvenes, por supuesto.

El artículo finaliza tal que así 

Precarios, es hora de aparcar el discurso victimista y que todos, jóvenes y "senior", nos pongamos las pilas, y demostremos nuestra valía a la sociedad española. Os propongo que demos tan solo tres pasos: (1) recuperemos el sentido de la realidad; (2) hagamos autocrítica y (3) demostremos, con hechos, el valor de la ciencia para superar las dificultades actuales, aunque cueste sangre, sudor y lágrimas.

Y ahí también estoy de acuerdo. Principalmente le pido que cumplan esos tres puntos a los profesores y científicos senior españoles, que son los que principalmente controlan el tema. Que sean realistas y no se olviden del hecho de que aunque ellos tienen un contrato "blindado" otros que ya pasamos de la treintena enlazamos contratos de 2 años en 2 años, que no olviden que cobran bastante más del doble que sus becarios, que no caigan en el conformismo, que entiendan que su salario incluye la obligación de investigar y que si no lo hacen están faltando a sus obligaciones, que no caigan en el cómodo conformismo de aceptar todo como venga olvidándose de los demás. En definitiva, que no vean la paja en el ojo ajeno y no la viga en el propio.