24 septiembre 2011

El experimento Opera halla neutrinos más rápidos que la luz

Se ha organizado estos días cierto revuelo con los resultados del experimento Opera (más datos en la web oficial del expermiento), presentados en el CERN hace pocos días por Dario Auterio, investigador participante en el experimento. Y es que, según los investigadores, se han medido velocidades, de partículas materiales, superiores a la velocidad de la luz. Esto, de confirmarse, supondría una refutación seria de un principio fundamental de la Relatividad, que afirma que nada puede ir más rápido que la luz, y que, sólo esta, puede ir exactamente a esa velocidad.

Los resultados se han difundido de una forma muy típica de los científicos, de una de esas formas que chocan frontalmente con la imagen narcisista que se tiene de los que se dedican a la ciencia. Se han presentado en un seminario, al que han asistido, básicamente, otros investigadores. Estos resultados aún no se han publicado en ninguna revista, sólo se han presentado a un grupo de compañeros. Y no para echarse flores, sino para algo bastante más humilde.

Aunque en el seminario no se ha hablado sólo de este resultado tan sorprendente, cuando el investigador que ha impartido el seminario ha llegado a los resultados experimentales que afirman que los neutrinos han llegado 60 nanosegundos más rápido de lo que lo habría hecho la luz, lo ha hecho mostrando su escepticismo. Concretamente, una vez obtenido el extraño resultado, se han pasado meses analizando los datos, buscando, según sus propias palabras, en qué se han equivocado para que les salga algo que va en contra de los pilares fundamentales de la física contemporánea. Como, por más que han buscado una causa del error, no la han encontrado, piden ayuda a la comunidad científica. Han mostrado todos los datos posibles a otros investigadores para que encuentren qué error (si es que lo hay) de medición o interpretación, ha llevado a encontrar neutrinos más rápidos que la luz. Y, también, para que, independientemente, se confirmen los resultados, o sea, para que se repita el experimento a ver si da lo mismo.

Esta forma de trabajar es la usual en ciencia. Me alegro que, con objeto de este experimento, haya salido bien reflejada en la prensa, que tan poco interés suele dedicar a la física teórica.

Por encima, el experimento Opera consiste en enviar, desde el CERN, neutrinos muónicos (los hay de tres tipos, electrónicos, muónicos y tauónicos) hacia un detector, situado a unos 1.400 metros de profundidad, dentro del Laboratorio nacional Gran Sasso, situado en Italia central, a unos 730 Km del CERN. Hay que tener en cuenta que los neutrinos son partículas de muy escasa masa y que no tienen carga, de manera que atraviesan la materia sin apenas verse afectados o afectar a esta. De hecho, en el momento en que estés leyendo esto, te estarán atravesando unos cuantos neutrinos, de la inmensa cantidad que el sol produce continuamente. Por ello, los aparatos capaces de detectarlos se suelen construir a altas profundidades, para que los rayos cósmicos y otro tipo de procesos no los saturen.

Como en todo experimiento científico que requiera instrumental tan específico (y costoso), se miden muchísimas cosas. Y el objetivo de este experimiento no tenía demasiado que ver con refutar la teoría de la Relatividad. Eso ha sido una especie de "accidente", algo inesperado que ha salido a la luz al revisar los datos. El objetivo principal de Opera es, traduciendo de la web oficial: "detectar por primera vez neutrinos tauónicos a partir de la transmutación (u oscilación) de neutrinos muónicos durante su viaje de 3 milisegundos desde Ginegra (donde está el CERN), hasta Gran Sasso. En Opera, los leptones-tau que se producen por la interacción de los neutrinos tauónicos se observara en "ladrillos" de películas de emulsión fotográfica intercaladas con placas de plomo". Son unas 1.300 toneladas de esos ladrillos que no vayáis a creer que captan miles de millones de interacciones. Por algo los neutrinos son muy complicados de detectar.

Habrá que esperar a que se confirme el resultado, o se encuentre el fallo que ha provocado esta contradicción aparente con la física contemporánea.

Para que luego digan que la física teórica no es apasionante.

8 comentarios:

Luisa dijo...

Hola, Juan.
He pasado a saludarte.

¡Uf! Me parece apasionante el tema. Creo que si se demuestra que esta teoría es cierta algunas historias que ha barajado la C.F podrían llevarse a cabo. Después de todo a mí no me parece una teoría descabellada. La comunidad científica tendría que estar más abierta a ella. Pero bueno, ya se sabe cómo son las cosas. Que alguien descubra algo siempre trae consigo mucha crítica. Creo que se gastarán más dinero en rebatirla que en apoyarla. Eso siempre ha pasado a lo largo de la historia del hombre. He oído que al laboratorio que ha lanzado la noticia le acaban de cortar la subvención por la crisis y quería llamar la atención. Ya ves, por especular que no quede.

Einstein era un genio, pero hay que reconocer que no contaba con la tecnología que hay hoy en día, como los genios actuales no cuentan con la que habrá en un futuro.

En fin, que tardaremos años (tal vez décadas) en saber si es cierta o no.

Un abrazo.

Juan dijo...

Hola Luisa

¡Gracias por la visita!

El tema es apasionante y no, no es descabellado. Es cierto que existen razones de tipo geométrico (sí, lo he escrito bien, pero es que la Relatividad General tiene muchísimo de geometría) que apoyan la idea de que la velocidad de la luz es un límite imposible de rebasar para partículas con masa.

Teóricamente, se especuló con partículas extrañas que sólo podrían circular a velocidades mayores que la de la luz. Son los taquiones, pero no hay evidencia experimental.

No es descabellada la idea de partículas materiales más rápidas que la luz, más que nada porque existe una paradoja entre dos de las teorías más modernas de la física, la Relatividad y la Mecánica Cuántica. Einstein, Podolski y Rosen propusieron un experimento que determinaría qué carácter contrapuesto predomina. La Relatividad dice que nada puede ir más rápido que la luz. La cuántica te dice que cuando una función de ondas "colapsa", lo hace instantáneamente en todo el universo.

La paradoja EPR es la siguiente. Suponte (es mucho suponer) que tomo dos electrones de un átomo de Helio. Por cuántica sé que ambos electrones sólo se diferencian en un número cuántico, que puede ser +1/2 o -1/2, y no sé qué valor hasta que no lo mida (hasta que la función de onda no "colapse"). Me llevo un electrón a EEUU, y el otro a Sudáfrica. Y mido este número cuántico en EEUU, y me da 1/2.

Dice la cuántica que, instantáneamente, en Australia el otro electrón se quedará con ese número igual a -1/2. Dice la Relatividad que la medida en EEUU deberá propagarse a la velocidad de la luz, así que habrá un retraso de algunas décimas de segundo o menos.

Este experimento se llevó a cabo hace tiempo. ¿El resultado? Que el cambio de estado en EEUU y Sudáfrica es instantáneo.

Hay algo que no funciona en cuántica o en Relatividad que impide la unificación de la gravedad con las demás fuerzas. A la cuántica, en el fondo, no le afecta que el límite de la velocidad de la luz se puede rebasar.

De todos modos, la actitud de la comunidad científica es la correcta. La ciencia funciona así. Debe gastarse muchísimo más dinero y esfuerzo en refutar este experimento que en apoyarlo. Aunque esforzarse en refutarlo es ya tomárselo en serio y apoyarlo. La ciencia moderna es "negativa", es falsable. La ciencia no puede afirmar que todos los cuervos son negros (ciencia positiva), sino debe lanzar la teoría de que los cuervos son negros, porque no existe ningún avistamiento de cuervos blancos, teoría válida hasta que se localice un cuervo blanco (ciencia negativa). Si alguien dice que ha visto un cuervo blanco, deberá descartarse que no haya visto, en realidad, una paloma o una gaviota.

Las consecuencias de que esto fuera verdad serían revolucionarias para la física teórica.

Un saludo.

Juan.

Luisa dijo...

Juan, el Magna cun laude no te lo otorgaron en vano. Te explicas divinamente.
¿Esa paradoja es parecida a la que existe entre la ley de la Entropía y la de los Recursos acelerados?
Ya que estamos... je,je

Juan dijo...

Hola Luisa

Gracias :)

Pues no sé cual es la ley de los recursos acelerados. ¿Se la conoce por otro nombre? Si he oído hablar de la obra "La ley de la entropía y el proceso económico", que es llevar la segunda ley de la termodinámica a la economía. Resulta algo bastante interesante esta fusión entre física y economía.

El hecho de que la segunda ley de la termodinámica implique que ninguna transformación energética pueda ser completa (siempre se pierde energía por el camino) y que explique que máquinas e individuos se deterioren al pasar el tiempo, sienta las bases de la economía. La escasez de recursos nace, precisamente, del hecho de que las fuentes de energía se consumen y que el proceso no es reversible. O sea que, por ejemplo, los ciclos de reciclaje no son cerrados; parte de lo reciclado se pierde. Siempre voy a necesitar consumir más, a causa del segundo principio de la termodinámica.

Ya me dices.

Un saludo.

Juan.

Luisa dijo...

Ley de los "retornos" acelerados. Mea culpa. No sé en qué estaría pensando... je,je.

Juan dijo...

Hola Luisa

Esa sí me suena :). Por lo que he estado hojeando, la paradoja se establece porque teniendo en cuenta que la segunda ley de la termodinámica exige el aumento de la entropía que, en un principio, es una medida del desorden, los sistemas físicos deberían tender al desorden.

En cambio, la ley de los retornos acelerados, o de rendimientos acelerados está relacionada con la famosa ley de Moore, que establece un crecimiento exponencial de la complejidad de los circuitos basados en semiconductores. La ley que comentas es una generalización de la ley de Moore aplicada al desarrollo tecnológico en su conjunto.

Para verlo más claro, hay que matizar qué significa en termodinámica desorden. Desorden quiere decir homogeneidad, y orden, heterogeneidad, complejidad estructural. El ejemplo típico son dos gases encerrados en un recipiente y separados por una pared móvil. Este estado inicial es ordenado, heterogéneo. Si retiras la pared móvil, los gases se mezclan, en un proceso irreversible (esto es, que espontáneamente no se producirá a la inversa) y queda una mezcla homogénea, desordenada.

Considerado el universo como un todo, éste debería tender a la homogeneidad, pero un aumento de complejidad exponencial lo haría tender a un estado muy ordenado que, según he leído, al alcanzarse un cambio radical en la tecnología, la haría tan poderosa que empezaría a expandirse por todo el universo, invirtiendo la tendencia de éste a la homogeneidad.

Tengo que confesar que a esta paradoja le veo un punto débil. La propagación del orden debería hacerse a la velocidad de la luz. Para llegar a la galaxia más cercana, se tardarían dos millones de años...

Erwin Schrödinger, uno de los genios de la física, escribió un librito llamado ¿Qué es la vida? En él, habla que los seres vivos consiguen "crear" entropía negativa, esto es, reducen su entropía en vez de aumentarla. Y eso es una característica global, inherente a la vida, según el libro.

Siguiendo las ideas de Schrödinger, la forma en que la vida reduce su entropía es gastando energía. Desgraciadamente, todo intercambio de energía aumentará la entropía de "el resto del universo" (en termodinámica, todo lo que está fuera del sistema que consideras), con lo que, globalmente, la entropía del universo sigue aumentando a pesar de que la vida produzca complejidad y orden.

Bonito tema. Un saludo.

Juan.

Luisa dijo...

Te explicas de maravilla.

Es más o menos la paradoja que yo “observé” al leer a Raymon Kuvzvueil. Los procesos evolutivos están en contacto con el caos. No son sistemas aislados, sino que intercambian partículas y energía con el resto del universo. Algunos de estos sistemas encuentran orden dentro del caos general y una vez iniciado, este orden trae más orden y se hace exponencial a pesar de la entropía o apoyada en ella. Pues bien, de alguna manera también llegué a una especie de “especulación” por mi cuenta (el sueño de una loca). ¿Y si hubiese un modo de “contener” o “utilizar” todo este caos-orden y focalizarlo? Algo así como un “motu perpetuo” “pequeños universos espandiéndose”. Entonces nuestros recursos serían ilimitados. También llegué a la conclusión de que esto no sería posible sin un cerebro que albergase 10.000 veces los millones de neuronas que tiene uno solo. ¿Sabes que las neuronas no tienen ni idea de que están dentro de un cerebro? Les daría igual estar en la pata de una mesa. Tendríamos un súper-organismo, un montón de neuronas interactuando en comunidad. Mientras estuvieran alimentadas ejercerían su función que no es otra que la de ordenar (a groso modo).

Bueno, a lo mejor cuando lleguen a establecer la veracidad del experimento Opera ésta y otras especulaciones ya no sean el sueño de una loca, je, je, je. Ya no habrá puntos débiles en la cadena.

Un saludo Juan, espero que no te haya parecido una chalada. Escribiré un relato con esto, seguro que sale una especulación interesante.

Juan dijo...

Hola Luisa

Nunca se sabe. Nos dijo una vez mi profesor de termodinámica, ante la idea de la muerte térmica del universo que no era seguro que la termodinámica se pudiera aplicar al universo como un todo. Es cierto que mientras no haya algún hecho que lo refute, el universo como sistema cerrado debería tender a un aumento de la entropía, pero la cosa podría ser más complicada.

Entiendo que lo que comentas es conseguir una singularidad tecnológica que sea capaz de aprovechar los estados desordenados para extraer energía, o bien hacer como una especie de reciclaje, convirtiendo desorden en orden. Según la física actual es imposible, pero la idea es sugerente. En efecto, si lo he entendido correctamente, un proceso así daría lugar a recursos ilimitados.

Con respecto a un cerebro de 10.000 veces más neuronas que el humano, pienso que tendríamos que crear una estructura artificial con una capacidad parecida. He leído en un Investigación y Ciencia, de no recuerdo que mes (de este año, eso sí), que el cerebro humano está cerca del límite a partir del cual crecer más o ganar más complejidad sería, evolutivamente, inútil. El argumento, básicamente, es que un cerebro con más neuronas como las nuestras perdería lo que gana con ello debido a que los impulsos nerviosos tardarían más en cruzarlo; si hacemos neuronas más eficientes, consumiría demasiada energía (o si fuera más grande) y si tratamos de hacerlo más eficiente reduciendo el tamaño de las neuronas, empezarían a aparecer efectos cuánticos que darían al traste con los impulsos nerviosos. Más o menos es así, que lo escribo de memoria.

Y bueno, no, no pienso que seas una chalada :). Son especulaciones interesantes. Si las pones en forma de relato, hazmelo llegar :).

Un saludo.

Juan.