viernes, 29 de julio de 2011

Los grandes problemas de la física experimental actual

Como ya expliqué anteriormente los problemas que considero se encuentran en la vanguardia de la física teórica creo que es justo que haga lo mismo para nuestros compañeros los experimentales. Así que aquí está la lista de los problemas más interesante, en mi opinión, de la física del momento.


Ondas gravitacionales

Como ya hemos hablado en post anteriores la Relatividad General es una de las teorías más satisfactorias de la actualidad. Con ella se explican infinidad de sucesos experimentales, como la órbita de Mercurio, la dilatación temporal debido a la gravedad o las lentes gravitacionales. Sin embargo hay un fenómeno que la teoría  predice y que aún no ha sido observado, las Ondas Gravitacionales.

Según la teoría estas ondas se originarían cada vez que un cuerpo con masa se acelera y serán más grandes cuanto mayor sean la masa y la aceleración. Por supuesto los principales candidatos a generarlas serán estrellas u otros cuerpos en órbita. Igualmente se espera que la formación de un agujero negro origine unas ondas gravitacionales considerables. 

Ondas gravitacionales originadas por dos cuerpos masivos en órbita. Fuente: Muy Interesante.

Hay considerables esfuerzos ya en marcha para detectar este fenómenos. El más importante es, probablemente, el experimento LIGO en EEUU. Hay también proyectos en Europa (Geo600) y Asia (el TAMA300). 

Básicamente la detección de este fenómeno, de darse, vendrá dada por el siguiente hecho: las ondas gravitacionales varían el tamaño de los objetos cuando pasan a través de ellos. Para detectar esto se construyen enormes interferómetros con dos brazos perpendiculares y se intenta observar esa diferencia. Como estas ondas se origina muy lejos de la Tierra este efecto es muy pequeño (del orden de $10^{-18}$ metros, mucho menos que el tamaño de un átomo de hidrógeno) y es muy difícil de detectar.

Esquema para la detección de ondas gravitacionales. Fuente

Hasta la fecha todas las medidas directas han fallado, pero hay medidas indirectas que parece indicar la existencia de este fenómeno, como el cambio en la órbita de quásares que orbitan de manera muy rápida. En cualquier caso seguimos esperando la medición correcta.


Computación cuántica


Este es mi punto favorito, ya que es el que más tiene que ver con mi trabajo. Como ya expliqué en un post anterior los ordenadores cuánticos nos permitirían hacer cosas que hoy en día ni siquiera imaginamos, el problema es como construir ordenadores cuánticos. 

La principal dificultad viene del hecho de que las propiedades de los sistemas cuánticos, como la coherencia o el entanglement, son muy frágiles y desaparecen debido a la interacción del sistema con el entorno. Esto hace que no vivan lo suficiente como para poder hacer cálculos con ellas. 

Por ahora hay diferentes caminos que se toman para conseguir este propósito. Uno de los principales es el iniciado por el español Ignacio Cirac, junto con Peter Zoller, que consiste en manipular átomos individuales mediante láseres (para interesados este es el artículo que lo inició todo). Esta técnica consiste principalmente en crear un casi-vacío en una caja y atrapar unos pocos átomos mediante láseres, esto se denomina técnicamente optical lattice, luego a esos átomos mediante la aplicación de otros láseres se les cambia el estado para conseguir lo que uno quiera. 


Una optical lattice según la Wikipedia.

Otras aproximaciones que se hacen a este problemas es mediante el estado cuántico de los fotones, las partículas de la luz. En este campo es Anton Zeilinger uno de los principales investigadores. Básicamente en este caso hay que producir fotones de uno en uno y luego combinarlos y cambiarlos mediante diferentes combinaciones de cristales y espejos, finalmente hay que usar detectores que funcionen con un sólo fotón. Esto como es imaginable no es una labor sencilla. 

Tanto átomos como fotones tienen sus pros y sus contras, los primeros tienen una vida más larga y los segundos son más rápidos a la hora de transportarlos. Sin embargo el como conseguir un ordenador cuántico sigue abierto.

También hay otras posibilidades abiertas, como mediante resonancia magnética nuclear, puntos cuánticos  o superconductores. Cual será la tecnología final aún no lo sabemos. 


Bosón de Higgs y dimensiones extra

Estos dos asuntos son muy diferentes pero están también muy relacionados. El bosón de Higgs es la última pieza que falta por encontrar del rompecabezas del Modelo Estándar de la Física de Partículas. Este modelo está muy bien ensamblado y explica todas las partículas existentes pero aún no resuelve el problema de por qué tiene masa. Para esto se añadió una partícula más que es la que le da la masa a todas las demás. 

Ilustración del funcionamiento del bosón de Higgs. Esta partícula (aquí representada por un científico importante), aglutina toda la masa alrededor suya. Autor: David Miller. 
El segundo problema que menciono es el de las dimensiones extra. Como ya expliqué brevemente en el post sobre la teoría de cuerdas, muchas nuevas teorías unificadoras añaden más dimensiones al espacio de las que conocemos. Todo esto será puramente especulativo a menos que se descubran efectos de estas dimensiones o se observen directamente. Podéis preguntaros cual es la relación entre estos dos fenómenos, el bosón de Higgs y las dimensiones extra, pues es muy sencillo: de encontrarse se encontrarán en el mismo sitio, en un acelerador de partículas. 

Los aceleradores de partículas, como su propio nombre indica, sirven para acelerar partículas y luego hacerlas colisionar. La cuestión es que el bosón de Higgs (de existir) necesita una gran energía para detectarlo, por otro lado las dimensiones extra son muy pequeñas y para detectarlas (si existen también) hace falta una energía muy grande. Por eso en los aceleradores se espera descubrir ambas. 

Sólo mencionar que sin duda el acelerador más importante del momento es el LHC, construido en el CERN. Este está en un túnel circular de 27 km y se espera que consiga colisiones de protones de hasta 14 Tera-electronvoltios (muchísima energía). Aún no tiene ningún resultado definitivo, pero sin duda arrojará bastante luz sobre estos asuntos.

Parte del túnel del LHC


Materia oscura

Como ya expliqué en el post sobre los grandes problemas de la física teórica actual, la materia oscura es un asunto que sigue dando quebraderos de cabeza. La relatividad y la mecánica de Newton predicen que debe estar ahí, pero aún no he ha observado directamente. Obviamente este problema estará abierto hasta que no se detecte la materia oscura o se construya una teoría que no la necesite. 

La cuestión principal es que esta materia, si existe, debe interaccionar muy poco con el resto de la materia y la luz. Si interaccionara fuertemente la habríamos detectado ya hace mucho, así que los detectores deben ser muy grandes (para maximizar la probabilidad de alguna interacción) y deben esperar bastante tiempo. Un gran problema de estos detectores suele ser diferenciar las detecciones correctas de otras partículas tales como neutrinos o rayos cósmicos. Para reducir estos efectos al mínimo muchos laboratorios se encuentran bajo tierra. 


Definición de kilogramo

Este último problema puede parecer bastante simple y poco "cool" al lado de los demás, pero es muy importante. Si miramos en Wikipedia la definición actual de kilogramo nos encontramos con: "la masa que tiene el prototipo internacional, compuesto de una aleación de platino e iridio, que se guarda en la Oficina Internacional de Pesos y Medidas (BIPM) en Sèvres, cerca de París (Francia)."

Esta definición nos debe parecer rara si la comparamos, por ejemplo, con la de metro que es: "distancia que recorre la luz en el vacío durante un intervalo de 1/299.792.458 de segundo".

La diferencia es que mientras la definición de metro es objetiva y se basa en principios físicos verificables por cualquiera y universales, la de kilogramo se basa en una muestra. Esto es un problema por dos motivos, primero la muestra no está accesible a todos, por lo que se crearon diferentes modelos para cada país, a partir de estos se crean otros modelos y así sucesivamente por lo que hay un error que se va propagando. Además hay un problema más fundamental, esta muestra cambia con el tiempo, se desgasta por lo que un kilogramo de hoy no será un kilogramo dentro de 100 años y esto sí que es inadmisible (aquí una noticia al respecto). 

El Patrón Nacional de kilogramo de los Estados Unidos es el que actualmente rige como medida estándar en ese país. Se implantó en1889 y es revisado y vuelto a certificar de forma periódica a partir del estándar internacional primario, que se encuentra en la Oficina Internacional de Pesos y Medidas (Francia).  Fuente: Wikipedia.

Para solucionar esto se optó por explorar dos caminos diferentes, uno consiste en definir el kilogramo en función de la masa de un átomo natural. En esta dirección el problema se reduce a contar el número de átomos que tiene una esfera de aproximadamente un kilogramo de silicio o carbono y así relacionar la masa del átomo de silicio con el kilogramo. Esto puede parecer trivial pero no lo es en absoluto, está el problema de hacer la esfera perfecta, que no haya impurezas y que que no haya isótopos diferentes que contaminen la muestra. Hay para ello un proyecto denominado El Proyecto Avogadro

La segunda opción consiste en ponerlo como función de la constante de Planck o la masa del electrón. Con un dispositivo muy novedoso, llamado Balanza de Watts se puede medir un peso mediante esta definición y la medida de una corriente eléctrica. Recientemente en la  Conferencia General de Pesas y Medidas se consensuó que este es el mejor camino para redefinir el kilogramo, pero hasta que no se apruebe una nueva definición todas las opciones siguen abiertas.


La balanza de Watt del Instituto Nacional de Estándares y Tecnología (NIST). 





martes, 26 de julio de 2011

Polipastos (o como multiplicar fuerzas)

Los que me conozcan sabrán que soy bastante aficionado a la escalada y otros deportes de montaña. Eso hace que lea de vez en cuando manuales de escalada, autorrescates y cosas así. Recientemente en uno titulado ... estuve repasando una técnica muy común de rescate, el polipasto, y me di cuenta de que no entendía bien su funcionamiento y que por eso se me olvidaba hacerlo. Así pues ha decidido hacer dos post, uno aquí sobre el funcionamiento físico de un polipasto y otro en mi blog de montaña, spidermanzano, sobre su uso en montaña y como hacerlo con los elementos que habitualmente se usan en alpinismo. 

Básicamente un polipasto es un sistema para elevar un peso que consta de, al menos, una polea móvil. El objetivo es levantar el peso ejerciendo una fuerza menor al mismo. Ciertamente el funcionamiento es muy similar al de una palanca


Palanca cortesía de la Wikipedia

Básicamente el funcionamiento se basa en el hecho de que si en la palanca tenemos un brazo más largo que el otro sus recorridos serán diferentes y también lo son las fuerzas. Estas deben cumplir la ley de la palanca que dice

$$ F_R\times L_R=F_P\times L_P,$$

donde $F_R$ y $F_P$ son las fuerzas de resistencia y potencia y $L_P$ y $L_R$ son las longitudes correspondientes. Es fácil ver que variando las longitudes se puede elevar un peso con una fuerza menor. 

El principio en el polipasto es muy similar, pero está basado en poleas que son más útiles a la hora de dirigir una fuerza. Está bastante bien explicado en este vídeo. 




Así que básicamente tenemos una palanca redireccionable. Si queréis ver como se fabrica uno con elementos de escalada podéis visitar mi otro blog

viernes, 22 de julio de 2011

La gravedad de Einstein y Nordström

En la entrada sobre la Teoría de Cuerdas ya expliqué (brevemente) lo interesados que estamos siempre los físicos en unificar teorías. Básicamente la idea es esta: Si tengo dos teorías que explican distintos fenómenos quizás pueda formular una sola teoría más general que también los explique. Esto no es una cuestión sólo de simplificar, generalmente de la unificación de dos teorías suelen surgir nuevos resultados no contemplados por las teorías anteriores.

El propósito de este post es explicar dos teorías unificadoras que se formularon durante el siglo XX. Ambas intentaban explicar el mismo fenómeno, la gravedad, pero con derivaciones completamente diferentes. Finalmente es sabido que una se impuso a la otra, de hecho imagino que muy poca gente habrá oído hablar de Nordström, el porqué sucedió esto es un gran ejemplo del funcionamiento del método científico. Mejor empecemos por el principio.

Antecedentes

A principios del siglo XX la física vivía un momento esplendoroso. La mecánica de Newton explicaba desde la caída de una manzana al movimiento de los planetas. Recientemente Maxwell había desarrollado sus famosas ecuaciones que permitían relacionar la electricidad y el magnetismo. Además un joven físico desconocido, Albert Einstein, había formulado su Teoría Especial de la Relatividad, que indicaba que lo que para un observador era un campo magnético para otro era un campo eléctrico y viceversa. La teoría de Maxwell-Einstein se consideraba una teoría de unificación, ya que relacionaba dos fenómenos en apariencia diferentes (la electricidad y el magnetismo) como dos manifestaciones del mismo fenómenos. Por otro lado la teoría de Einstein también tenía un carácter unificador, ya que indicaba que todos los observadores, ya estuvieran en reposo o en movimiento uniforme, eran totalmente equivalentes. 

miércoles, 20 de julio de 2011

¿Los jóvenes universitarios no tienen cultura?

Recientemente vi en menéame un artículo de ABC titulado: "Sorprende elevado número de universitarios que no sabe la capital de Portugal".  En este se analiza un estudio realizado por  unos psicólogos de la Universidad de Oviedo y publicado en la Revista de Investigación y Divulgación en Psicología y Logopedia, de la Universidad de la Laguna. El artículo original se titula CULTURA GENERAL EN ESTUDIANTES DE PRIMER CURSO DE ENSEÑANZAS UNIVERSITARIAS


Crítica al artículo de ABC

El artículo de ABC tiene un fallo principal, el titular. Menciona lo escandaloso de que los jóvenes no sepan la capital del país vecino, pero curiosamente ni en la noticia ni en el estudio se menciona cuantos jóvenes saben o no la respuesta a esa pregunta. Imagino que la han seleccionado por ser la más llamativa, pero mientras no se indique lo contrario puede ser que precisamente esa pregunta tenga un 100% de aciertos y los malos resultados se deban a las demás. Podrían poner un titular menos sensacionalista.


Crítica al artículo original

El artículo original si bien trata una temática interesante, es bastante mejorable. Para evaluar el nivel cultural y comprobar si los resultados del informe PISA se reflejan en el nivel de los alumnos de primeros años de carrera utilizan un cuestionario [1]. Este cuestionario tiene 30 respuestas de actualidad, lengua, literatura, geografía, historia y filosofía. Se pasó el cuestionario en tres universidades españolas, Oviedo, La Laguna y Granada. Los problemas del análisis son los siguientes: