La velocidad de la luz: inmersa en la oscuridad

¿Y si la luz, el resto de partículas fundamentales y la mismísima gravedad que experimentamos en nuestros laboratorios no fueran más que excitaciones colectivas de un substrato universal?

Create a pdf Print Send an e-mail
 
 
 
Share to Facebook Share to Twitter Enviar a tuenti Share to Meneame More...
Carlos Barceló
(IAA-CSIC)
Tags: velocidad luz, relatividad

¿Por qué no es posible viajar a más velocidad que la luz? Posiblemente esta sea la pregunta que más veces se ha hecho a los científicos a lo ancho y largo del planeta en los últimos cien años. Y, aunque pueda parecer increíble, la ciencia todavía no dispone de una respuesta completa a esta pregunta tan fundamental. La lógica permite que incluso no haya respuesta -no se puede ir a más velocidad porque el mundo nació de esa forma de entre una multiplicidad de posibilidades-, pero parece improbable. En cualquier caso, la ciencia nos impone esforzarnos en la búsqueda de la respuesta, exista o no.  

El mismísimo Albert Einstein dejó claro que su propuesta de existencia de una velocidad máxima para la propagación de toda señal (uno de los ingredientes básicos de su teoría de la relatividad especial de 1905) era un principio, el llamado “postulado de la luz”, a partir del cual se podían hacer predicciones adicionales que podían verificarse a través de experimentos. Como su nombre indica, el postulado de la luz no se construye y demuestra a partir de ingredientes más elementales, simplemente se acepta para después deducir otros fenómenos a partir de él.

Cuidado con posibles falacias. Dado el desarrollo al que ha llegado la relatividad especial, uno podría cometer el error de responder a la pregunta inicial utilizando argumentos circulares ilícitos. Por ejemplo, alguien podría contestar: la velocidad de la luz no se puede superar porque resulta que la masa (o inercia) de los cuerpos (su tendencia a mantener su estado de movimiento) aumenta más y más conforme aumenta su velocidad, de tal forma que esta masa se acerca al infinito cuando la velocidad se acerca a la velocidad de la luz; solamente los fotones, constituyentes de la luz, al no tener masa pueden llegar a viajar exactamente a la velocidad de la luz (de aquí el común uso sinónimo de velocidad de la luz y velocidad máxima). Cualquier otra señal (con soporte masivo) tiene que viajar a menor velocidad. Sin embargo, el razonamiento correcto es el siguiente: a partir del postulado de la luz se deduce por consistencia que la masa de los cuerpos debe aumentar sin límite conforme su velocidad se acerca a la de la luz; esto es una predicción teórica derivada del postulado que debe contrastarse con el comportamiento experimental. Y así es: multitud de experimentos confirman que este fenómeno sucede.

Gran parte del desarrollo de la física del siglo XX se ha basado en compatibilizar el postulado de la luz (y el principio de relatividad, que dice que ningún experimento local puede distinguir si se está parado o con velocidad uniforme) con todas nuestras teorías. A día de hoy el alcance y la verificación experimental de la teoría de la relatividad especial (es decir, de los dos principios anteriores) es tan grande que, ante el anuncio por parte del CERN en el 2011 de una posible violación del postulado por parte de neutrinos, prácticamente la totalidad de los físicos teóricos pensamos, “¡tiene que haber un error en el experimento!”. Así ha sido finalmente.

Una de las primeras imágenes de la estructura interna de la luz (Max Planck 2004), predicha hace ciento cincuenta años por Maxwell. En ella se observa la oscilación de su campo eléctrico constituyente.

 

¿Posibles fisuras en la teoría?

En otro frente, el siglo XX ha visto la ampliación sin aparentes límites del universo observable. ¡Un territorio más que demasiado grande para explorar! Sobre todo si se mantiene la idea de establecer un  campamento base (por ejemplo, la Tierra) desde donde ir enviando exploradores de ida y vuelta. Ante el deseo irrefrenable de explorar esas tierras recónditas (un síndrome a lo Alejandro Magno), tan solo anunciadas por las crónicas de los astrónomos y sus telescopios, de tanto en tanto vuelve a aparecer la pregunta, ¿pero por qué no se puede viajar a velocidades mayores que la luz?, ¿existe alguna forma de superar ese límite?

Pues bien, también Einstein, sin saberlo, proporcionó con su teoría general de la relatividad una posible puerta entreabierta a la cuestión. La teoría general de la relatividad general es una teoría sobre la gravitación de los cuerpos y nace de compatibilizar la gravitación, tal como se entendía desde los tiempos de Newton, con el postulado de la luz. En esta teoría se introduce el concepto de espaciotiempo como entidad plástica y dinámica sobre el que toda señal no lumínica se desplaza a velocidades menores que la luz. La gravedad aparece como curvaturas en el espaciotiempo causadas por la presencia de materia. Todo perfectamente compatible con la existencia de una velocidad máxima. Pero, ¿cuál es la velocidad del propio espaciotiempo sobre el que todo se mueve? En principio la teoría no dice nada al respecto.

Tomando esta puerta entreabierta, en las últimas décadas se han explorado distintas formas de conseguir velocidades superluminales (por encima de la velocidad de la luz) a base de deformar el propio espaciotiempo. Una de las más conocidas e ingeniosas es el motor de curvatura (o warp drive en inglés). Se llama motor de curvatura a una configuración del espaciotiempo en la que aparece un pasillo o tubo por el que es posible viajar a una velocidad sin límites con respecto a los observadores fuera del tubo.


La gravedad es atractiva

Pero no cantemos victoria tan rápidamente. Para curvar el espaciotiempo en la forma deseada se necesita materia (energía) dispuesta en la forma adecuada. La materia normal curva el espaciotiempo de tal forma que, como resultado, los cuerpos se atraen. De hecho la palabra gravitación tiene su origen en gravitas, peso: todo cae o, en términos más modernos, todo cuerpo es atraído por la Tierra. Pues bien, se ha demostrado que las curvaturas necesarias para construir el motor de curvatura no son de este tipo: necesitan materia repulsiva (también conocida como “exótica”) en las paredes del tubo. La puerta se cierra sobre nosotros.

Concepción artística del motor de curvatura.

 

Un momento: resulta que existe una posibilidad teórica de conseguir materia repulsiva. Se basa en la conocida naturaleza cuántica subyacente de toda materia, e incluso del vacío. Toda materia conocida, al ser observada a nivel microscópico, exhibe comportamientos cuánticos distintos a los que estamos acostumbrados en nuestra experiencia cotidiana. Al menos en teoría, una configuración cuántica podría proporcionar pequeñas cantidades de energía exótica. Por una parte está el concepto de “préstamo de Heisenberg”: una fluctuación cuántica puede proporcionarnos una energía negativa si esta es devuelta en poco tiempo y el balance promedio de la cuenta energética es positivo. Por otra parte, está la posibilidad de deformar el propio vacío cuántico de tal forma que genere energías negativas en algunas regiones. ¿Cuánta cantidad de energía exótica se podría generar? Con estas energías, ¿cómo de grande se podría construir el tubo y sus paredes?, ¿suficiente para enviar a un humano por su interior o solamente se podrían construir tubos microscópicos? Estas son algunas de las preguntas sobre las que se ha estado y se continúa trabajando.      

Fluctuaciones del vacío cuántico

Sin embargo, una vez que se apela a la cuántica hay que hacerlo con todas sus consecuencias. Como decíamos, el vacío cuántico contiene energía. La presencia de curvatura tiene como consecuencia distorsionar la forma del vacío cuántico y por tanto su contenido energético. La regla de tres “a tanta energía que pongo de inicio, tanta curvatura”, no funciona de forma tan simple. Cuando depositas energía en el espaciotiempo la propia curvatura genera nueva energía que también debe ser contabilizada como generadora de curvatura. Es necesario llevar a cabo un proceso iterativo hasta llegar a encontrar configuraciones energía-curvatura autoconsistentes.     

El autor de estas líneas y dos colaboradores italianos, los doctores S. Liberati y S. Finazzi de SISSA, calculamos hace unos años cuál era el efecto en el vacío cuántico de las curvaturas necesarias para el motor de curvatura. Concluimos que estas curvaturas eran de tal naturaleza que generaban y comprimían en forma de onda de choque ingentes cantidades de energía en la zona frontal del tubo de tal forma que su construcción se haría inviable. Técnicamente, decimos que el motor de curvatura es inestable semiclásicamente.

Situaciones similares ocurren con otras formas de viajar a velocidades mayores que la luz: agujeros de gusano, tubo de Krasnikov, etc. Siempre se choca con la necesidad de incluir materia exótica en grandes cantidades y con la presencia de inestabilidades. Aunque hasta que no tengamos una teoría de gravedad cuántica con cierto grado de verificación no se podrán cerrar definitivamente estas puertas, sin lugar a dudas en este momento se hallan casi cerradas.

¿Por qué no se puede viajar más rápido que la luz?

Con un poco de perspectiva, podemos percatarnos de que no era probable, aunque muy atractivo, que a partir de teorías construidas a partir del postulado de la luz se obtuviera una forma de obviarlo. Para encontrar una explicación al porqué del límite lumínico parece más razonable empezar con un marco que permita en principio cualquier velocidad, un marco teórico en el que la relatividad especial no venga impuesta sino que pueda aparecer en algún régimen.

En la actualidad existe un marco de ideas conocido con el nombre de “Gravedad análoga” en el que la situación es precisamente la comentada. En el IAA estamos trabajando activamente en esta línea de investigación y sus múltiples vertientes. Algunas de estas ideas ya estaban presentes en la física del siglo XIX, siendo redescubiertas de tanto en tanto, pero no han llegado a desarrollarse completamente.     

¿Y si la luz, el resto de partículas fundamentales y la mismísima gravedad que experimentamos en nuestros laboratorios no fueran más que excitaciones colectivas de un substrato universal? Podemos imaginar este substrato como compuesto por los verdaderos constituyentes elementales. Estos constituyentes elementales no ten-drían estatus de partícula pues no vivirían en nuestro espaciotiempo, que también estaría formado por ellos. Un electrón, por ejemplo, no estaría formado por unos pocos de estos constituyentes elementales, como sucede con el átomo, que está constituido por electrones, protones y neutrones, o con los protones y neutrones, que están a su vez constituidos por quarks. Un electrón o la luz serían más parecidos a una ola en el mar, un movimiento colectivo de ingentes cantidades de constituyentes elementales, moléculas de agua en el caso del mar. Además, de igual manera que la forma de la ola no depende prácticamente de si el agua está más o menos mezclada con otros productos, la forma de la luz y las partículas fundamentales no dependería en demasía de potenciales características microscópicas propias del substrato.

Antes de proseguir con el problema de la velocidad de la luz me gustaría destacar que este último aspecto puede dar respuesta a otra de las grandes preguntas fundamentales sin respuesta de la física: ¿por qué todas las partículas fundamentales de un tipo (por ejemplo, los electrones) pueden considerarse idénticas? La no respuesta tradicional es “bueno, resulta que todos los electrones son iguales, luego probablemente sean bloques elementales fundamentales de la naturaleza”. Una vez más, es una afirmación que se acepta como principio para después analizar dónde nos lleva. Sin embargo, la nueva conceptualización ofrece una respuesta: “Independientemente de los detalles del substrato, el carácter colectivo de las ondulaciones características las hace aparecer en la práctica como iguales”.        

Volviendo al tema que nos ocupa. La velocidad finita de propagación de una ondulación aparece porque no se mide la velocidad de los elementos del substrato (no imponemos ninguna restricción a estos elementos; quizá ni tan siquiera tenga sentido hablar de velocidad para estos elementos), sino al movimiento colectivo. Variaciones en el tiempo del valor de una propiedad definida en una región puntual (por ejemplo, una presión) se relacionan con las diferencias en el valor de esa propiedad entre las regiones colindantes. De situaciones de este tipo surge el concepto de ecuación de ondas y el de velocidad finita y fija de propagación (al menos en un intervalo de energías). De hecho, del estudio de un modelo de substrato electromagnético dedujo James Clerk Maxwell la presencia de ondas de luz y, como consecuencia, la naturaleza electromagnética de la luz.

La interacción de las excitaciones colectivas de tipo luz con las excitaciones colectivas de tipo partícula podría inhibir que estas últimas superaran en la práctica la velocidad de las primeras. Superar la velocidad de la luz (ahora posible en principio) produciría inestabilidades que se mostrarían ya en una dificultad creciente en alcanzar ese límite. Estas inestabilidades serían similares a las que aparecen en el conocido como efecto Cherenkov. Cuando una partícula atraviesa un dieléctrico a una velocidad mayor que la luz, esta se frena rápidamente emitiendo radiación. Recordemos que la luz en un dieléctrico viaja a velocidades menores que la luz en el vacío, por lo que una partícula (por ejemplo, un electrón) puede entrar en un dieléctrico a velocidades mayores; la velocidad que no se puede superar, y a la que nos hemos venido refiriendo siempre en estas líneas, es la de la luz en el vacío.

A la izquierda, la radiación de Cherenkov, producida cuando una partícula cargada (un electrón) pasa por un medio dieléctrico a una velocidad mayor que la luz en ese medio (Reed Research Reactor). A la derecha, birrefringencia en un cristal de calcita.

 

En la naturaleza existen sistemas en los que distintos tipos de señales viajan a distintas velocidades máximas (como la birrefringencia en cristales, en la que distintas polarizaciones de la luz viajan a distintas velocidades). Normalmente esto está permitido porque el substrato en el que viajan las señales no se ve afectado por la presencia de las señales. Existen indicios para pensar que en un sistema cerrado, autoconsistente y estable, con diversas excitaciones colectivas en interacción, existiría una sola velocidad de propagación límite. Esta sería la velocidad de la luz. El universo que observamos sería un sistema en el que incluso los fenómenos de mayor energía seguirían siendo colectivos, sin permitirnos discernir la naturaleza del substrato (quizá irremediablemente inaccesible para nosotros humanos).

¿Por qué la  velocidad de la luz es tan enorme en términos humanos?

Calculada en unidades naturales para nosotros, como son los metros y los segundos, la velocidad de la luz aparece como un número gigante. La luz puede conectar distancias de un metro en unos nanosegundos (10-9 segundos). El que para nosotros una escala de tiempo mínima natural sean los segundos es una indicación de que somos seres estructuralmente muy complejos. Cada uno de nuestros actos se compone de miles de millones de procesos microscópicos mucho más rápidos. Una comparación rápida con la física de una galaxia en el universo arroja los siguientes números: una galaxia típica mide unos cien mil años luz; una escala de variación natural para una galaxia como un todo podría cifrarse en los 1010 años; una evolución elemental de un sistema tan complejo como una galaxia involucraría cien mil procesos elementales, muchos menos que en un humano.

En los estudios universitarios de física se nos suele enseñar que Hendrik Lorentz intentó entender la relatividad a partir de la naturaleza electromagnética de la materia, pero se perdió inútilmente en una maraña de complejidades. Einstein, en cambio, progresó partiendo de unos principios muy simples aunque sin explicación. Parece que la vía de Einstein es claramente la vía a seguir.

Un estudio más detallado de la historia nos ofrece otro tipo de enseñanza menos maniqueo. Para proponer las simples hipótesis de la relatividad especial, Einstein se apoyó en un conocimiento exhaustivo del electromagnetismo de Maxwell, que había descendido a los infiernos de la complejidad en aras del entendimiento. Einstein no se caracterizó precisamente por buscar la vía fácil, y más adelante se enfrentó con la complejidad de construir una teoría relativista consistente de la gravedad, su gran obra. Además, él nunca desdeñó el estudio de un posible substrato universal (el entonces llamado éter) e incluso reconoció que sin éter no podía comprender la naturaleza del espaciotiempo.

Por su parte, Lorentz dedujo antes que Einstein los efectos relativistas de tipo dilatación del tiempo y contracción de longitudes a partir de aceptar la existencia de un substrato electromagnético. La relatividad se deducía de las propiedades del substrato y no se aceptaba como un principio. Para el poco conocimiento que se tenía de la naturaleza atómica de la materia, llegó impresionantemente lejos. Mi lectura apunta a que ambas vías científicas son complementarias y necesarias para el equilibrio en la ciencia.  

Hoy estamos viendo que hacer compatible la gravedad y la cuántica parece requerir la existencia de un referencial externo. Un siglo después vemos que tenemos que retomar la filosofía de Lorentz si queremos “entender” y volver a progresar. Queda mucho por estudiar hasta llegar a tener un marco completo plausible que pueda explicar preguntas tan fundamentales como el origen de la velocidad de la luz o el carácter indistinguible de las partículas. Estos estudios constituyen cimientos para la estructura científica y un antídoto ante la burbuja inflacionaria en la que se mueve gran parte de la ciencia moderna.
 



Sobre el autor:

Carlos Barceló
(IAA-CSIC)
Carlos Barceló es investigador del IAA-CSIC. Experto en relatividad, trabaja en análogos gravitatorios.


Create a pdf Print Send an e-mail
 
 
 
Share to Facebook Share to Twitter Enviar a tuenti Share to Meneame More...