100 años de Relatividad Diego Darío Harari y Francisco Diego Mazzitelli
EUDEBA – Colección Ciencia Joven
(VERSIÓN PREL...
97 downloads
1164 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
100 años de Relatividad Diego Darío Harari y Francisco Diego Mazzitelli
EUDEBA – Colección Ciencia Joven
(VERSIÓN PRELIMINAR)
Prólogo: 100 años de relatividad Corría el año 1905 y el hasta entonces desconocido empleado de la Oficina de Patentes Suiza había llegado a la conclusión de que todo el edificio de la física clásica, construido a lo largo de los siglos por Galileo, Newton y otros científicos, estaba basado en suposiciones incorrectas. A pesar de los enormes avances del conocimiento que produjo la física entre los siglos XVII y XIX, hacía falta una revisión. Muchas nociones que nuestro sentido común califica como absolutas, como por ejemplo el transcurso del tiempo, son en realidad relativas. El único absoluto es la velocidad de la luz. Futuros experimentos le darían la razón. Mientras esperaba ver cuál era la repercusión de su trabajo, Albert Einstein seguía repartiendo su tiempo entre el estudio de los inventos que llegaban a la oficina en la que trabajaba y sus investigaciones teóricas. Pocos meses después, llegó a la conclusión de que era posible transformar masa en energía y viceversa. Nuevamente, leyes muy básicas y consideradas “sagradas”, como la conservación de la masa y la conservación de la energía, eran bajadas del pedestal. Diez años más tarde, luego de una ardua búsqueda teórica, y ya como profesor en Berlín, concluía que los axiomas de la geometría de Euclides tampoco eran estrictamente aplicables a la naturaleza. Pasaron ya 100 años. A pesar de ello, la Teoría de la Relatividad sigue siendo muy poco difundida fuera del ámbito académico. Salvo frases vagas como “todo es relativo”, o “las cosas dependen de quién las mire”, que se utilizan en general incorrectamente y fuera de contexto, no se conocen las ideas básicas de la teoría, su importancia conceptual y su importancia práctica. Esta falta de difusión es probablemente debida al halo de teoría difícil que acompañó a la relatividad en sus primeros años. Por mencionar un ejemplo, en 1919, Sir Arthur Eddington, quien fuera un profundo conocedor de la teoría y el realizador de la primera observación que confirmó la curvatura del espacio, dio a entender que sólo dos personas en el mundo comprendían la Relatividad: Einstein y él. Si bien es cierto que un conocimiento detallado de la teoría implica la necesidad de utilizar herramientas matemáticas sofisticadas, los principios básicos son bastante fáciles de comprender. Además, la Teoría de la Relatividad es un ejemplo atractivo para ilustrar la utilización del método científico. Por estos motivos, es una pena que se omita completamente su enseñanza en los cursos de física elementales. La física newtoniana es también matemáticamente complicada. Sin embargo, se enseñan sus fundamentos y no se pretende que un estudiante de escuela media sea capaz de calcular con precisión la órbita elíptica de un planeta o la fuerza de sustentación sobre el ala de un avión. ¡Omitir los conceptos básicos de la relatividad es equivalente a excluir a Darwin y su Teoría de la Evolución en un curso de biología, o a ignorar la estructura atómica en cursos de química o de física!
Éste no pretende ser un libro de texto sobre relatividad. Es un libro de divulgación en el que hemos incluido algunos recuadros con deducciones matemáticas sencillas, dedicados a los lectores que quieran seguir más detalladamente algunos argumentos. La lectura de los recuadros no es imprescindible. Esperamos que el libro contribuya no sólo a difundir las ideas básicas y las aplicaciones de la relatividad, sino también a estimular el espíritu crítico y el uso del método científico, y a encontrar satisfacción en la aventura del pensamiento que nos proponen estas ideas.
Capítulo 1: Leyes y experimentos A principios del siglo XVII, Galileo dejó atrás el aristotelismo y dio un paso gigantesco para el desarrollo de la ciencia, destacando la necesidad de combinar la realización de experimentos y el análisis lógico para descubrir las leyes que describen los fenómenos naturales. Con este bagaje, Newton desarrolló los fundamentos de la hoy llamada física clásica. Muchas veces se exponen las leyes naturales como si fuesen exactas, sin hacer referencia a los experimentos que se realizaron para llegar a su enunciado. Esto es riesgoso, ya que puede llevar a la extrapolación de las leyes más allá de su dominio de validez. Más aún, debido a los errores experimentales, las leyes sólo pueden ser verificadas de manera aproximada. En este capítulo discutiremos la relación entre las leyes físicas y los experimentos. Enfatizaremos, además, que muchas hipótesis que damos por ciertas basándonos en nuestra experiencia cotidiana deben ser sometidas a la verificación experimental.
Newton, el espacio y el tiempo Es extremadamente difícil dar una definición precisa de la noción de espacio y de la noción de tiempo. Sin embargo, tenemos ideas intuitivas muy claras acerca de estos dos conceptos. El espacio es el escenario donde transcurren todos los fenómenos naturales. Allí conviven la materia y la energía en todas sus formas, y allí ocurren todas las posibles transformaciones. Si nos concentramos en los sucesos que tienen lugar en un determinado punto del espacio, el tiempo nos indica el orden en que dichos sucesos van ocurriendo. Basados en nuestra experiencia cotidiana, damos por supuestas muchas propiedades del espacio y del tiempo. Por ejemplo, que los distintos puntos del espacio son equivalentes, que el tiempo transcurre uniforme, inexorablemente y de la misma manera en todos los puntos del espacio, que el espacio tiene tres dimensiones, que ni las condiciones físicas (presión, temperatura, campos eléctricos y magnéticos, etc.) ni nuestro estado de movimiento modifican el espacio y el tiempo, y que en el espacio son válidos los axiomas de la geometría de Euclides. En el marco de la física, uno de los primeros científicos que intentó precisar las nociones de espacio y tiempo fue Newton. Desde su célebre cátedra de la Universidad de Cambridge, en 1686 escribió: “El Tiempo Absoluto, Verdadero y Matemático, por su propia naturaleza, fluye de la misma manera sin importar ninguna condición externa…”. “El Espacio Absoluto, por su propia naturaleza, y sin importar nada externo, permanece siempre igual e inmóvil...”. Utilizando estos conceptos, Newton enunció sus conocidas leyes: • un objeto libre de fuerzas se mueve con velocidad constante respecto del espacio absoluto;
•
cuando una fuerza actúa sobre el objeto, éste adquiere una aceleración respecto del espacio absoluto proporcional a la fuerza e inversamente proporcional a su masa.
Las nociones de espacio y tiempo de Newton son bastante cercanas a nuestra experiencia cotidiana. Sin embargo, un análisis más detallado muestra algunos puntos débiles. Supongamos que en el espacio absoluto existe un único objeto, hecho de un material deformable. Supongamos además que el objeto está en reposo respecto del espacio absoluto. De acuerdo con la física newtoniana, en esta situación su forma será perfectamente esférica. Sin embargo, si está rotando respecto del espacio absoluto se deformará, siendo achatado en los polos y más abultado en el ecuador. Pero si en el espacio hay un único objeto, ¿tenemos derecho a decir que éste rota o no rota? ¿Respecto de qué? El científico y filósofo austríaco Ernst Mach criticó duramente la noción de espacio absoluto de Newton. Según Mach, sólo tiene sentido hablar de movimientos relativos entre los objetos. Si observamos que el objeto está deformado, será porque rota con respecto a otros objetos. Es irrelevante qué está rotando y qué no, sólo importa el movimiento relativo. La afirmación “rota respecto del espacio absoluto”, carece de significado físico. Estas objeciones, que tuvieron una notable influencia sobre Einstein, no obstaculizaron el desarrollo de la física clásica, que desde la época de Newton fue explicando cada vez más y más fenómenos. Así, fue posible calcular las trayectorias de los planetas y de sus lunas, explicar las mareas terrestres, etc. Para cualquier aplicación en la que las velocidades son bajas comparadas con la velocidad de la luz, los efectos gravitacionales no son muy intensos, y las distancias y tiempos no son ni muy grandes ni muy chicos, es válido considerar al espacio absoluto de Newton como el sistema de referencia en el cual las estrellas lejanas están en reposo. En esta situación, las leyes de Newton describen adecuadamente los fenómenos físicos. Vamos a hacer ahora una crítica a las nociones de espacio y tiempo desde un ángulo diferente. La física es una ciencia experimental. Para que una ley física sea aceptable es imprescindible que existan experimentos que la verifiquen. Ésta es la base del método científico, y se aplica desde las leyes más sencillas que seguramente el lector habrá aprendido en la escuela, hasta las más complicadas que están siendo descubiertas por los científicos en todo el mundo. Podemos entonces preguntarnos lo siguiente: ¿no habrá que aplicar el mismo razonamiento a nuestros conceptos de espacio y de tiempo? ¿Será cierto que tiempo y espacio son absolutos, inmutables e independientes de quien los observe? ¿Lo serán en presencia de fuerzas gravitatorias intensas? ¿A velocidades altas? Podemos ensayar respuestas para cada una de estas preguntas, pero ninguna de ellas será aceptable si no es verificada experimentalmente.
Leyes físicas y experimentos El proceso que lleva a la formulación de una ley física es muy variado. Una situación típica puede sintetizarse de la siguiente manera: a partir de la observación de ciertos
hechos particulares, el científico sugiere una hipótesis o ley general que los explique. Por supuesto puede haber muchas hipótesis que expliquen un conjunto de observaciones. Pero a partir de esas hipótesis se pueden hacer predicciones para otro conjunto de fenómenos (distintos a los anteriores) que pueden, o no, ser verificados con nuevos experimentos. De estas verificaciones depende que la hipótesis o ley física sea confirmada. Consideremos un ejemplo. Newton tenía a su disposición un conjunto de observaciones particulares relacionadas con la fuerza gravitatoria. Desde la época de Galileo, alrededor del año 1600, se sabía que en las cercanías de la Tierra los cuerpos caen (en vacío) con la misma aceleración, aproximadamente 9,8 m/s2, independientemente de su masa. Por otra parte, también se conocían las llamadas leyes de Kepler, que describen algunos aspectos de las trayectorias de los planetas alrededor del Sol: • • •
las órbitas de los planetas son elipses, con el Sol en uno de sus focos; la línea que une el Sol con el planeta barre áreas iguales en tiempos iguales; el cociente del cuadrado del período de revolución y el cubo de la distancia media al Sol es el mismo para todos los planetas.
Newton pensó que era posible describir en forma unificada todos estos fenómenos a partir de la atracción gravitatoria. Su idea genial fue darse cuenta de que, de la misma manera que un objeto (¡una manzana!) cae en las cercanías de la Tierra, la Luna está cayendo hacia la Tierra, y los planetas en general caen hacia el Sol. Para calcular cuantitativamente las trayectorias supuso que la intensidad de la fuerza de gravedad con que se atraen dos objetos es proporcional a las masas m1 y m2 de ambos objetos e inversamente proporcional al cuadrado de la distancia d que los separa Gm1 m2 F= d2 G es la llamada constante de gravitación universal cuyo valor es G=6,67×10 –11m3s-2kg-1.1 La manzana y la luna Cuando lanzamos un objeto cerca de la superficie terrestre, éste cae al suelo debido a la acción de la gravedad. La Luna orbita alrededor de la Tierra. ¿Cómo pueden entenderse unificadamente estos dos fenómenos, aparentemente tan diferentes? Supongamos que subimos a una torre y lanzamos objetos cada vez con mayor velocidad horizontal. A velocidades bajas, el objeto caerá e impactará en la superficie terrestre cerca de la torre. Si incrementamos la velocidad, el objeto caerá cada vez más lejos. Con suficiente velocidad, lanzándolo desde el polo norte podría llegar al polo sur. Para una velocidad aún mayor, la caída del objeto hacia la Tierra igualará a la caída de la superficie terrestre por debajo de la horizontal. Para esta velocidad, la distancia entre el objeto y la Tierra se mantendrá constante, y el objeto describirá una órbita circular. Vemos entonces 1
Utilizaremos frecuentemente la notación científica, por ejemplo 10-4=0,0001 y 103=1000.
que es posible entender el movimiento orbital de la Luna como una caída permanente hacia la superficie terrestre.
A partir de esta ley, conocida como la ley de gravitación universal, es posible deducir que las observaciones de Galileo y Kepler son aproximadamente correctas. Pero también es posible hacer predicciones más precisas: la aceleración de un cuerpo que cae cerca de la Tierra depende de la altura a la que se encuentre, y también depende de su posición geográfica, ya que la Tierra no es perfectamente esférica y por lo tanto la atracción gravitatoria sobre un objeto que se encuentra a una cierta altura de la superficie dependerá de su latitud y longitud. En cuanto a los planetas, sus trayectorias no son exactamente elípticas, como lo sería la trayectoria de un único planeta girando alrededor del Sol, y tal como está descripto en las leyes de Kepler. La presencia de los otros planetas modifica levemente las órbitas. De hecho, irregularidades en la órbita de Urano dieron lugar al descubrimiento de Neptuno en 1846. Además, la ley de gravitación universal explica la existencia de trayectorias abiertas, como la de algunos cometas que pasan sólo una vez por las cercanías del Sol. En este caso vemos entonces cómo la verificación experimental de predicciones diferentes a las que originaron la ley de gravitación universal, la confirman y aseguran su validez. Hay casos de leyes para cuya formulación han tenido gran peso argumentos intuitivos, o de simetría, o a veces hasta criterios en parte estéticos. Sin embargo, la validación de una ley se realiza siempre mediante experimentos (una confusión habitual es considerar a la física una ciencia exacta, ¡la física es sin duda la más exacta de las ciencias naturales!). Debemos considerar otro aspecto importantísimo de los experimentos: los resultados de cualquier experimento son necesariamente aproximados, tienen un determinado error. ¿Qué queremos decir con esto? Al realizar un experimento, se encuentran relaciones entre distintas magnitudes físicas medidas (longitudes, tiempos, masas, temperaturas, cargas eléctricas, campos magnéticos, etc.). Pero la medición de cualquier magnitud física necesariamente lleva asociada un error. Si medimos un intervalo temporal con un cronómetro graduado en centésimas de segundo, seguramente lograremos mayor precisión que utilizando un reloj de arena. Sin embargo, nunca podremos afirmar cuál es exactamente el tiempo transcurrido entre dos sucesos. Por ejemplo, podemos medir la duración de un tiempo de un partido de fútbol, y concluir que éste duró 47 minutos, 12 segundos y 32 centésimas de segundo (47m 12,32s). ¿Duró realmente eso? Probablemente en la medición ponemos en funcionamiento el cronómetro cuando escuchamos el silbato del árbitro, o cuando el jugador tocó inicialmente la pelota. ¿Pero cuánto tiempo tardamos en reaccionar, desde que vemos que el juego comienza hasta que hacemos arrancar el cronómetro? Lo mismo se aplica a la finalización del juego. Un resultado más preciso sería, por ejemplo, afirmar que el juego duró entre 47m 12,18s y 47m 12,46s, o sea 47m 12,32s ± 0,14s. El error, en este caso 0,14s, depende de la manera en que se realizó la medición.
Error en la medición de un intervalo de tiempo ¿Cómo podemos estimar el error que cometemos al medir el intervalo transcurrido entre dos eventos? Consideremos, para ser concretos, el ejemplo de la duración de un partido de fútbol realizada con un cronómetro que mide hasta centésimas de segundo. Se podría suponer que el error en la medición es la precisión del instrumento, es decir 0,01s. Sin embargo, éste no es el caso. En primer lugar, debemos definir con exactitud en qué instante consideramos que el juego comienza y en qué instante termina. Podríamos considerar por ejemplo que esto ocurre cuando el árbitro comienza a tocar el silbato, al principio y al final del juego. Si estamos en el estadio, deberíamos tener en cuenta el tiempo que tarda el sonido en llegarnos, que puede ser de algunas centésimas de segundo y depende de nuestra ubicación y de las condiciones atmosféricas. Este error puede reducirse enfocando al árbitro con una cámara y observándolo cuidadosamente, o pidiéndole que nos haga una seña (¡la luz llega mucho más rápido que el sonido!). Debemos considerar también nuestro tiempo de reacción. Éste puede medirse de la siguiente manera: con el cronómetro funcionando, nos proponemos detenerlo en el momento en que observamos que pasa por 0,00s. La lectura del cronómetro, una vez detenido, nos dice cuál es nuestro tiempo de reacción. Si nos entrenamos adecuadamente, podemos estar seguros de que nuestro tiempo de reacción varía entre, digamos, 0,12s y 0,26s. Con estos datos, y teniendo en cuenta que el tiempo de reacción introduce errores en el instante inicial y en el final, una estimación razonable para la incerteza sería 0,14s. En el caso de la realización de un experimento en el laboratorio, en general es posible repetir las mediciones varias veces. Se pueden aprovechar estas repeticiones para reducir estadísticamente los errores. De todas formas, el error nunca puede reducirse a cero.
Este mismo argumento se aplica a todas las magnitudes medidas en cualquier experimento. Pero si las leyes son validadas por los experimentos, y en los experimentos las magnitudes se miden aproximadamente, la conclusión inevitable es que la confirmación de las leyes también es siempre aproximada2. Más aún, ¡las propias leyes son en general descripciones aproximadas de la realidad! Hay otro aspecto relevante, que ilustraremos con un nuevo ejemplo. De acuerdo con la física newtoniana, la masa de un objeto no depende de su velocidad. Suponiendo esto, se han calculado con mucha precisión, entre otras cosas, las trayectorias de los planetas. ¿Podemos tomar este hecho como una verificación experimental indirecta de que la masa no depende de la velocidad? Todos los planetas del sistema solar se mueven alrededor del Sol a velocidades que no superan los 50 km/s. Podría ocurrir perfectamente que a velocidades mucho mayores el efecto de la velocidad sobre la inercia sea más importante. En consecuencia, el enunciado científicamente correcto de la independencia de la masa con la velocidad sería: se ha comprobado experimentalmente, con una precisión de 2 en 100 millones, que la masa de un objeto no varía cuando su velocidad es menor a 50 km/s. Pero no tenemos derecho a extrapolar esta independencia a velocidades mucho mayores (ni tampoco a precisiones mucho mayores). La moraleja de estas consideraciones es la siguiente: los experimentos que validan cierta hipótesis o ley han sido realizados para un rango determinado de los parámetros relevantes (la velocidad en el caso anterior). Tienen cierto dominio de validez. Por lo tanto, no podemos afirmar que la ley seguirá siendo cierta cuando los experimentos se 2
Por ejemplo, el valor experimental actualmente aceptado para la constante de gravitación universal es (6,6742±0,0010)x10-11m3s-2kg-1. El exponente “2” en la ley de gravitación universal es, más precisamente, (2±0,00008), cuando la distancia entre los objetos que se atraen es de algunos centímetros.
realicen con un conjunto de parámetros muy diferentes. Podemos preguntarnos entonces: ¿la inercia de los objetos es independiente de la velocidad aun a velocidades altísimas? ¿Seguirá siendo válida la ley de gravitación universal para distancias muy grandes o muy chicas? ¿Seguirá siendo válida si la masa del Sol fuese un millón de veces más grande?, etc. Para la tranquilidad (¡o intranquilidad!) del lector, adelantamos que todas las preguntas formuladas anteriormente tienen una respuesta negativa.
Geometría y experimentos Vamos a terminar este capítulo con un ejemplo más geométrico, con el objetivo de enfatizar que no sólo las leyes físicas, sino también las propias nociones de espacio y tiempo deben someterse a la validación experimental. Seguramente el lector conoce una propiedad geométrica sencilla, que se deduce de los axiomas de la geometría de Euclides: el cociente entre el perímetro P de una circunferencia y su diámetro D es P/D = π = 3,1415926... La geometría de Euclides Euclides vivió entre los siglos III y IV antes de Cristo. En su libro fundamental, llamado Elementos, estableció los fundamentos de la geometría, que basó en cinco postulados. A partir de ellos y de otras definiciones adecuadas, es posible demostrar una gran cantidad de propiedades geométricas. Las más utilizadas en este libro serán: - el cociente entre el perímetro y el diámetro de una circunferencia es π=3,1415926…; - la suma de los ángulos internos en un triángulo es igual a dos ángulos rectos (180 grados = π radianes ); - dos rectas paralelas nunca se cruzan; - en un triángulo rectángulo, el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos (teorema de Pitágoras).
Damos por supuesto que si tomamos una superficie plana, y dibujamos cuidadosamente una circunferencia sobre ella, se cumplirá la relación entre P y D mencionada anteriormente. Supongamos que queremos verificar experimentalmente si la misma relación es válida sobre una superficie esférica de radio R. Es decir, queremos ver si P/L = π, donde L es la distancia entre dos puntos opuestos de la circunferencia, medida sobre la superficie esférica. Para ello, podemos dibujar sobre la esfera circunferencias de distinto tamaño, medir P y L y calcular el cociente P/L. Para valores de L mucho más chicos que el radio de la esfera R, este cociente es muy parecido a π. Si midiéramos el cociente P/L con una precisión del 1%, y sólo para valores de L menores que R/2, nuestros resultados serían compatibles con la relación P/L = π. ¿Tenemos derecho a afirmar que P/L es exactamente igual a π? Si midiésemos con más precisión notaríamos que el valor observado de P/L es algo menor que π (como se ve claramente en la figura). De hecho el cociente dependerá del valor de L, y la diferencia entre P/L y π aumentará a medida que L aumenta. ¿Qué ocurre cuando consideramos valores de L más grandes? En
ese caso la diferencia es notable. ¡Por ejemplo, para el ecuador de la esfera, el cociente P/L es igual a 2!
L
P L D
D P
Fig. 1: El cociente entre el perímetro P y el diámetro D de una circunferencia es igual a π. Si la circunferencia está dibujada sobre una superficie esférica, la distancia entre puntos opuestos, medida sobre la superficie, es L. Como L es mayor que D, el cociente P/L es menor que π
Sobre una superficie esférica, la relación P/L = π es aproximadamente correcta si nos restringimos a valores chicos de L. Pero si medimos con más precisión, o si consideramos valores mayores de L, podemos asegurar que la relación es claramente inválida. Si fuésemos seres bidimensionales limitados a movernos sobre una superficie, podríamos suponer que ésta es una superficie plana y que por lo tanto son válidas las relaciones geométricas usuales. Sin embargo, deberíamos hacer mediciones para verificar experimentalmente si la superficie en que nos movemos es efectivamente plana o si está levemente curvada. Somos seres tridimensionales, y nuestra experiencia cotidiana nos dice que en el espacio en que vivimos valen las relaciones geométricas usuales, y que éstas no son modificadas por agentes externos (espacio absoluto de Newton). Pero es perfectamente admisible que si verificáramos las relaciones con mucha precisión, o para valores de los parámetros relevantes muy diferentes a los cotidianos, éstas dejaran de ser válidas, como en nuestro ejemplo de la superficie esférica.
Capítulo 2: Luz y éter El movimiento es relativo. Si estamos cómodamente instalados en un sillón en nuestra casa, diríamos que estamos en reposo. Sin embargo, nos estamos moviendo alrededor del Sol aproximadamente a 30 km/s, y alrededor del centro de la galaxia a más de 200 km/s. Cuando decimos en reposo tenemos que aclarar respecto de qué. Desde fines del siglo XVII se sabe que la luz se propaga a velocidad muy alta pero finita, unos 300.000 km/s. ¿Respecto de qué? Esta inocente pregunta fue una de las claves que llevó a la formulación de la teoría de la relatividad. Tal como describiremos en este capítulo, la luz se comporta de una manera muy peculiar: su movimiento es absoluto, es decir, su rapidez no depende de la velocidad de quien la observe.
Un punto crucial: la velocidad de la luz La luz viaja, en vacío, a aproximadamente 300.000 km/s. A principios del siglo XVII, Galileo intentó medir esa velocidad. La idea era muy sencilla. Provistos de lámparas, él y un ayudante se separaron alrededor de 3 kilómetros de manera de poder ver la luz de la lámpara proveniente del otro. Galileo descubriría su lámpara. Cuando la luz llegara a la posición de su ayudante, éste haría lo mismo. Midiendo el tiempo transcurrido entre el instante inicial en que descubrió su lámpara y el instante en que le llegara la luz de la lámpara de su ayudante, sería capaz de estimar la velocidad de la luz. Si este experimento se realizara con sonido, el tiempo transcurrido sería de alrededor de 18 segundos, y se obtendría un valor de 333 m/s para la velocidad del sonido. Sin embargo, para el caso de la luz, Galileo no pudo detectar ningún retraso temporal. ¿Significa esto que la luz se propaga instantáneamente a todas partes, es decir, que su velocidad es infinita? Si suponemos que el mínimo retraso temporal que Galileo podía medir era 0,5 segundos, la conclusión correcta del experimento fallido de Galileo es que la velocidad de la luz es mayor que 12.000 m/s. Si hubiese tenido maneras más precisas de medir el tiempo podría haber detectado un retraso (el tiempo que tarda la luz en recorrer 3 kilómetros ida y vuelta es aproximadamente 0,00002 segundos, ¡intervalo temporal muy difícil de medir aun hoy!). Otra posibilidad sería aumentar la distancia entre Galileo y su ayudante, pero para que el retraso sea de 0,5 segundos la distancia entre ellos debería haber sido de 75.000 kilómetros, casi doce veces el radio terrestre... La primera estimación de la velocidad de la luz fue realizada por el astrónomo Ole Roemer en 1675, y está basada en la observación de eclipses de las lunas de Júpiter. En la figura se muestra un esquema de la situación. En la posición de máximo acercamiento entre la Tierra y Júpiter puede medirse el período de revolución de una luna de Júpiter alrededor de dicho planeta. Esto puede hacerse midiendo el intervalo transcurrido entre dos ocultamientos (eclipses) sucesivos de la luna detrás de Júpiter. La luz de la luna tarda cierto tiempo en llegar a la Tierra, pero si la distancia a Júpiter se mantuviera constante el retardo no tendría efectos apreciables en la medición de su período. Sin embargo, a
medida que la distancia entre Júpiter y la Tierra aumenta, la luz proveniente de la luna de Júpiter tardará más tiempo en llegar a la Tierra, y en consecuencia su período de rotación aparente irá aumentando. El efecto es acumulativo durante los seis meses en que la Tierra pasa de la posición más cercana a Júpiter a la posición más lejana3. Observando el retraso acumulado, Roemer estimó que la luz tarda 22 minutos en recorrer el diámetro de la órbita terrestre y obtuvo un valor de 224.000 km/s para la velocidad. El resultado obtenido difiere del correcto por errores de medición. La luz tarda en realidad 16,6 minutos en atravesar la órbita terrestre.
(a)
(b) Fig. 2: La distancia entre la Tierra y Júpiter varía a lo largo del año. (a) Posición de mínima distancia. (b) Unos meses después, la distancia aumenta debido al movimiento de la Tierra alrededor del Sol. La luz proveniente de la luna de Júpiter tarda más tiempo en llegar a la Tierra.
Con posterioridad se realizaron mediciones terrestres mucho más precisas. En 1849 Armand Hippolyte Fizeau logró medir la velocidad de la luz utilizando un sistema de espejos y una rueda dentada. En 1926, Albert Michelson realizó una medición que puede pensarse como una sofisticación del experimento de Galileo. Un haz de luz muy concentrado se dirige a un espejo octogonal, y se refleja hacia un segundo espejo colocado a 35 km de distancia. Luego de la reflexión en el segundo espejo, la luz incide sobre otra cara del espejo octogonal y finalmente llega al observador (ver figura 3). Si se hace girar el espejo octogonal, la luz llegará al espejo distante sólo después de haberse reflejado en una de las caras del espejo octogonal en el momento en que ésta tuviese la orientación adecuada. Cuando la luz regresa y vuelve a reflejarse en el espejo octogonal, ocurre algo similar: sólo llegará al observador si la cara del espejo octogonal tiene una 3
Dado que Júpiter se mueve alrededor del Sol más lentamente que la Tierra, para simplificar el razonamiento podemos suponer que su posición no cambia en un período de seis meses. En realidad, en ese período recorre aproximadamente 1/24 de su órbita.
orientación determinada. Esto puede lograrse variando la velocidad de rotación del espejo. Si el espejo gira un octavo de vuelta en el tiempo en que la luz recorre 70 km (ida y vuelta hacia el espejo), el observador verá el haz reflejado. Para ello, el espejo debe girar a aproximadamente 500 revoluciones por segundo. De esta manera Michelson estimó la velocidad de la luz en 299.798 km/s, muy cercano al valor real. Fuente de luz Espejo distante
Espejo octogonal 35 km
Fig. 3: Esquema del experimento de Michelson para medir la velocidad de la luz.
Dada la precisión con que se ha medido la velocidad de la luz a lo largo de los años, desde 1983 se ha encontrado más conveniente utilizarla para definir la unidad de distancia. Se define el metro como la distancia que recorre la luz en vacío durante un 1 intervalo de segundos. Esta definición4, que es mucho más precisa que la 299.792.458 dada por dos marcas en el metro patrón de platino e iridio guardado en la Oficina de Pesos y Medidas de París, implica que la velocidad de la luz es, exactamente, 299.792,458 km/s.
Sistemas de referencia, velocidad total y de arrastre Hemos omitido hasta ahora una pregunta muy importante: ¿respecto de qué la velocidad de la luz es 299.792 km/s? A los efectos de discutir éste y otros temas relacionados, debemos repasar algunos conceptos básicos.
4
Por supuesto es imprescindible definir también con precisión la unidad de tiempo. El segundo se definió en un principio como 1/86.400 del tiempo de una rotación completa de la Tierra sobre su eje (día solar medio). Como la rotación de la Tierra no es suficientemente constante, en 1967 se redefinió el segundo utilizando átomos de cesio. El segundo es el tiempo que tarda cierta radiación emitida por el átomo de cesio en realizar 9.192.631.770 oscilaciones.
Es conveniente comenzar con una descripción de lo que entendemos por sistemas de referencia. Pensamos a un sistema de referencia como un laboratorio que contiene todos los instrumentos necesarios para realizar las mediciones. Un sistema de referencia que no está sometido a ninguna fuerza externa se denomina un sistema inercial. En los sistemas inerciales son válidas las leyes de Newton como fueron descriptas en el capítulo 1. Veamos ahora cómo se relacionan las velocidades medidas en distintos sistemas de referencia. Consideremos para empezar una situación muy sencilla: un hombre camina dentro de un tren, a una velocidad de unos 4 km/h respecto del vagón. Supongamos, además, que el tren se mueve a 60 km/h, siendo esta velocidad medida respecto del andén. ¿Cuál será la velocidad del hombre respecto del andén? Si el hombre y el tren se mueven en el mismo sentido, la velocidad del hombre respecto del andén será de 64 km/h. En la situación inversa, esta velocidad será de 56 km/h. Éstas serían las respuestas de Galileo y Newton, que pueden resumirse en la conocida fórmula que expresa que la velocidad total es la suma de la velocidad de arrastre y la velocidad relativa5: vtotal = v arrastre + v relativa Podemos considerar otra situación más complicada, en la cual las velocidades tienen direcciones diferentes. Supongamos que un avión se desplaza a 800 km/h respecto del aire en la dirección Sur-Norte y que sopla viento a 60 km/h en la dirección Oeste-Este. En este caso, la suma de velocidades se realiza vectorialmente (ver figura 4). La rapidez del avión respecto del piso será de 802,2 km/h y se desplazará en una dirección que forma un ángulo de 4,3 grados con respecto a la dirección Sur-Norte.
Fig. 4: Suma de velocidades en el caso en que la velocidad relativa (en este caso la del avión) y la velocidad de arrastre (en este caso la del viento) tienen direcciones diferentes. De acuerdo con el teorema de Pitágoras vtotal =
5
2 2 v avion + vviento
En esta fórmula los signos de las velocidades son iguales cuando los objetos se mueven en el mismo sentido, y opuestos cuando se mueven en sentidos contrarios.
Antes de volver a la pregunta relacionada con la velocidad de la luz, consideremos el caso del sonido. La velocidad del sonido en aire es de 343 m/s en condiciones normales de presión y temperatura (1 atmósfera y 20º centígrados). El sonido no se propaga en vacío, pero sí en otros medios materiales además del aire. Por ejemplo, la velocidad del sonido en el agua es 1480 m/s y en el acero 6100 m/s. En general, cuanto mayor es la densidad del medio material en que se propaga, mayor es su velocidad. Para el sonido hay un sistema de referencia privilegiado, que es aquel en el cual el medio en que se propaga está en reposo. Si estamos midiendo la velocidad del sonido en el aire, y hay ráfagas de viento de 80 km/h en la dirección de propagación, la velocidad total respecto del piso será 80 km/h + 343 m/s = 365,2 m/s (después de hacer la conversión de unidades correspondiente). En el caso de la luz, dado que recibimos luz de estrellas y galaxias muy lejanas, es razonable suponer que se propaga en el vacío (el espacio interestelar e intergaláctico está prácticamente vacío). Puede realizarse un experimento en el laboratorio que así lo confirme. Este hecho implica que, a diferencia del caso del sonido, no parece haber un sistema de referencia privilegiado. ¿Respecto de qué, entonces, la luz se propaga a 299.792 km/s? Esta pregunta llevó a los físicos de fines del siglo XIX a plantear la existencia de un medio que llenase todo el espacio y que tuviese propiedades fabulosas: por un lado debía ser suficientemente poco denso como para no ser observado directamente. Por otra parte debía ser capaz de transmitir la luz (y toda otra onda electromagnética) a velocidades altísimas. Se lo denominó éter. ¡El sistema de referencia respecto del cual el éter estuviese en reposo sería un sistema privilegiado, y le daría realidad física al espacio absoluto de Newton!
El experimento de Michelson y Morley (o la muerte del éter) En 1887, Albert Michelson y Edward Morley realizaron un experimento importantísimo que fue el comienzo del fin para la idea de la existencia del éter. Supongamos que el éter existe y que la luz se propaga a 299.792 km/s con respecto a él. En esta situación, si midiésemos la velocidad de la luz en un sistema que se mueve a través del éter, deberíamos encontrar un resultado diferente. Haciendo una analogía con las ondas sonoras, deberíamos ser capaces de observar el viento de éter. La Tierra se mueve en promedio a unos 30 km/s alrededor del Sol. La idea de Michelson y Morley fue aprovechar este movimiento para tratar de observar variaciones en la velocidad de la luz, debidas justamente al movimiento del laboratorio respecto del éter. El dispositivo experimental utilizado, hoy conocido como interferómetro de Michelson, se muestra en la figura 5. Un haz de luz incide sobre un espejo semitransparente. Parte de la luz se transmite hacia el espejo 1, y parte se refleja hacia el espejo 2. La luz reflejada en ambos espejos regresa hacia el observador después de volver a pasar por el espejo semitransparente. Si el interferómetro estuviese en reposo con respecto al éter, y si los
dos brazos tuviesen exactamente la misma longitud, la luz tardaría el mismo intervalo temporal desde la salida de la fuente hasta la llegada al observador, por cualquiera de los dos caminos. Sin embargo, si el interferómetro se mueve con respecto al éter, el tiempo que tarda el haz que se refleja en el espejo 1 es distinto del que se refleja en el espejo 2, aunque ambos brazos tengan la misma longitud (para comprender con mayor precisión esta idea se recomienda leer el recuadro correspondiente). El interferómetro es capaz de detectar esa pequeña diferencia de tiempo. Sin embargo, el resultado fue nulo: no se encontraron variaciones en la velocidad de la luz.
(a)
(b)
Fig. 5: Esquema del interferómetro de Michelson. E1 y E2 son los espejos, y E es el espejo semitransparente. En el sistema de referencia fijo al laboratorio, el éter se mueve hacia la izquierda (a). En el sistema de referencia fijo al éter, los espejos se desplazan hacia la derecha (b).
Diferencia de tiempos en el interferómetro de Michelson Si suponemos que la luz se propaga con respecto al éter con velocidad c, y que la Tierra se mueve con respecto al éter con velocidad v hacia la derecha, la velocidad del haz de luz que se dirige hacia el espejo 2, medida en el laboratorio, es c-v. Análogamente, el haz reflejado en 2 tiene una velocidad c+v. En consecuencia, el tiempo que tarda el haz de luz en recorrer ida y vuelta el brazo 2 del interferómetro es
t2 =
L L + c+v c−v
Para calcular la velocidad vertical del haz de luz podemos razonar de la siguiente manera, situándonos en el sistema de referencia fijo al éter. La velocidad de la luz es c. La componente horizontal de la velocidad es v. Por lo tanto, utilizando el teorema de Pitágoras, la componente vertical de la velocidad resulta ser
c 2 − v 2 . En consecuencia, el tiempo que tarda el haz de luz en ir y volver hacia el espejo 1 es 2L t1 = 2 2 c −v
En el experimento de Michelson y Morley se colocaron varios espejos adicionales para que la luz se refleje varias veces y recorra, en cada brazo, una longitud aproximadamente igual a 11 metros. Para este valor de L −16
la diferencia de tiempos t1 − t 2 es del orden de 10 segundos. A pesar de lo pequeño de esta cantidad, es posible detectarla experimentalmente a través de un fenómeno conocido como interferencia. Cuando las ondas de luz provenientes de los dos caminos tardaron lo mismo en realizar su recorrido, llegan en fase al observador y su intensidad se refuerza. Una leve diferencia de tiempos de llegada, que depende del color de la luz utilizada en el experimento, hará que las ondas lleguen en contrafase, y produzcan una intensidad nula. El experimento se repitió en distintas épocas del año y para distintas orientaciones del interferómetro respecto de la velocidad de la Tierra. En todos los casos el resultado fue el mismo: ningún indicio de variaciones en la velocidad de la luz.
Hubo varios intentos para explicar el resultado negativo del experimento en el marco de la física clásica. Se llegó a suponer que la Tierra arrastra parcialmente el éter, pero experimentos posteriores mostraron que esa hipótesis era insostenible. Hendrik Lorentz supuso que los objetos se contraen en la dirección de movimiento: una mínima contracción de uno de los brazos del interferómetro explicaría el resultado. Como veremos más adelante, algo de cierto hay en este sentido…
La manera correcta de sumar velocidades Hemos llegado a un punto muy importante. El experimento de Michelson y Morley sugiere fuertemente que el éter no existe, es decir, que no existe un sistema de referencia privilegiado para la propagación de la luz. Más aún, dado que para el cálculo de las diferencias de tiempo se utilizó la fórmula newtoniana de sumar velocidades, el resultado nulo también sugiere que no es estrictamente cierto que la velocidad total sea la suma de la velocidad de arrastre y la velocidad relativa. A pesar de que a bajas velocidades dicha fórmula es aproximadamente correcta, cuando las velocidades se acercan a la de la luz, la misma deja de ser válida. En 1905 Einstein dedujo la manera correcta de sumar velocidades, tomando como hipótesis justamente la constancia de la velocidad de la luz. El resultado que obtuvo fue v arrastre + v relativa v v 1 + arrastre relativa c2 donde c es la velocidad de la luz. La deducción de este resultado va más allá del alcance de este libro. Pero es importante recalcar los siguientes aspectos: v total =
•
cuando las velocidades de arrastre y relativa son mucho menores que la de la luz, la fórmula correcta se aproxima mucho a la de Newton y Galileo. Por ejemplo, en el caso de la persona caminando sobre el tren, descripto anteriormente, en lugar de 64 km/h el resultado es 63,9999999999999 km/h (¡la diferencia entre ambos resultados es de una parte en 1014!);
• •
cuando las velocidades se acercan a la de la luz, la diferencia entre ambas fórmulas es notable. Por ejemplo, si las velocidades relativa y de arrastre valen la mitad de la velocidad de la luz, ¡la velocidad total es 4/5 de c!; cuando la velocidad relativa es igual a la de la luz, la velocidad total también lo es, cualquiera sea la velocidad de arrastre.
Este ejemplo muestra claramente los aspectos discutidos en el primer capítulo. La fórmula de suma de velocidades de Einstein, que reemplaza a la de Newton y Galileo, se reduce a ésta cuando las velocidades son bajas, pero muestra diferencias claras cuando las velocidades son altas. Es decir, la nueva fórmula establece el límite de validez de la vieja (velocidades mucho menores a la de la luz), y la generaliza para velocidades más altas. Además, esta manera de sumar velocidades explica el resultado negativo del experimento de Michelson y Morley.
Capítulo 3: Las ideas básicas En 1905, Einstein publicó cuatro trabajos de investigación que revolucionaron la física. Tenía sólo 26 años y trabajaba en la oficina de patentes de Berna (Suiza) como “técnico experto de tercera clase”. Había conseguido ese empleo después de haber sido rechazado como asistente de investigación en la Escuela Politécnica de Zurich. Su tarea era descubrir si los inventos propuestos funcionarían o no. En sus ratos libres, y durante los fines de semana, se dedicaba a la física teórica… En el primero de los cuatro trabajos ofreció una explicación del llamado efecto fotoeléctrico. Basándose en resultados experimentales relacionados con la generación de corrientes eléctricas al iluminar superficies metálicas, Einstein postuló que la luz estaba compuesta por paquetes de energía denominados fotones. La energía de cada fotón estaba dada por E = hf , donde f es la frecuencia de la luz y h la constante de Planck6. Este trabajo le valió el Premio Nobel en 1921 y fue una de las piedras fundamentales de la mecánica cuántica. El segundo trabajo, relacionado con su tesis doctoral, estaba dedicado a demostrar la realidad de las moléculas, a calcular su tamaño y su número. En particular fue capaz de relacionar el número de moléculas presentes en un gas con el movimiento azaroso de pequeñas partículas inmersas en el gas (movimiento browniano). A partir de este trabajo, con un microscopio sería posible la determinación de algunas propiedades moleculares, en particular del número de Avogadro. En el tercer trabajo, denominado Sobre la electrodinámica de los cuerpos móviles, formuló la Teoría Especial de la Relatividad, con la que cambió radicalmente la visión newtoniana del espacio y del tiempo. En el cuarto trabajo, titulado ¿Depende la inercia de un cuerpo de su contenido energético?, descubrió la famosa relación E=mc2, que establece la equivalencia entre masa y energía, y que discutiremos en detalle en el capítulo 5. En los años siguientes se dedicó principalmente a estudiar el problema de la atracción gravitatoria. En 1907, todavía como empleado de la oficina de patentes (aunque ahora ascendido a “experto de segunda clase”), formuló el llamado Principio de Equivalencia. Este principio es una de las bases de su teoría de la gravedad, que reemplazaría a la ley de gravitación universal de Newton. Sin embargo, pasaron otros ocho años hasta que pudo formular una teoría consistente de la gravitación. En 1916, y ya siendo profesor en Berlín, publicó su Teoría General de la Relatividad. Esta teoría tuvo una de sus primeras verificaciones experimentales mediante observaciones astronómicas realizadas en 1919, cuando Sir Arthur Eddington confirmó el valor predicho para la deflexión de la luz que pasa cerca del Sol (como veremos con más detalle en el capítulo 7). A partir de ese 6
El valor de h es (6,6260693±0,0000011)x10-34 Joules.segundo.
momento, el prestigio de Einstein comenzó a crecer enormemente, aun más allá del ámbito científico. En este capítulo resumiremos los postulados en los que Einstein se basó para formular sus teorías especial y general de relatividad. Estos postulados son extremadamente sencillos y fáciles de entender, aunque difíciles de aceptar, sobre todo para los físicos de principios del siglo XX.
Los postulados de la Relatividad Especial El principio de relatividad Supongamos que nos encontramos dentro de un vehículo (un barco, un tren, un avión, etc.) que se mueve con velocidad constante, y que no tenemos contacto de ningún tipo con el exterior del vehículo. ¿Podemos hacer un experimento que demuestre que nos estamos moviendo? Si soltamos un objeto, éste caerá en línea recta por acción de la gravedad, independientemente de la velocidad del vehículo respecto del piso. Si colocamos líquido en un vaso, el nivel del agua se mantendrá horizontal (¡podemos comer tranquilos en un avión, mientras no haya turbulencias que nos alejen del movimiento uniforme!). Si colgamos un péndulo del techo del vehículo, su oscilación no se verá afectada por el movimiento del mismo. Ya Galileo en 1632 había afirmado que ningún fenómeno natural, al menos de los conocidos hasta ese momento, se vería afectado por el movimiento del vehículo. Esta afirmación se conoce como Principio de Relatividad de Galileo. Otra manera de enunciar este principio es la siguiente: no es posible realizar un experimento que detecte el movimiento rectilíneo y uniforme. Esta situación no cambió con Newton. A pesar de postular la existencia del espacio absoluto, las leyes de Newton no distinguen entre los sistemas de referencia que están en reposo respecto del espacio absoluto y los que se mueven con velocidad constante. Todos ellos son sistemas inerciales. Y son físicamente equivalentes. El escenario sí cambió hacia fines del siglo XIX, cuando James Clerk Maxwell terminó de formular la teoría clásica del electromagnetismo. Maxwell concluyó la tarea comenzada muchos años antes por diversos investigadores: Coulomb, Oersted, Ampère, Faraday, y otros, quienes fueron estudiando paso a paso los distintos efectos producidos por cargas, corrientes eléctricas e imanes. Una de las predicciones más importantes de la teoría de Maxwell es la existencia de ondas electromagnéticas ¡que se propagan a 299.792 km/s! Éste fue el primer indicio de que la luz es una onda electromagnética, y de que todos los fenómenos ópticos pueden explicarse en términos de campos eléctricos y magnéticos. La predicción de un valor definido para la velocidad de propagación de las ondas electromagnéticas plantea un dilema para la física newtoniana: si la teoría de Maxwell es válida en un sistema inercial, entonces no podría ser válida en otro sistema inercial que se
mueva respecto del primero. Esto es así porque si observamos en uno de los sistemas que la velocidad de propagación de una onda electromagnética es 299.792 km/s, en el otro sistema, de acuerdo con la fórmula clásica de adición de velocidades, la velocidad de propagación debería ser diferente. La alternativa conservadora sería suponer que existe un único sistema inercial privilegiado donde es válida la teoría de Maxwell. Sólo en este sistema la velocidad de la luz tomaría el valor predicho por la teoría. El espacio absoluto de Newton tendría realidad física y se perdería la equivalencia de los distintos sistemas inerciales. Si esta alternativa fuese la correcta, la teoría del electromagnetismo tendría una forma matemática mucho más compleja para observadores en movimiento con velocidad constante respecto del espacio absoluto. Einstein, probablemente influido por las ideas de Mach, prefirió la alternativa opuesta y postuló que el principio de relatividad debe ser válido para todas las leyes físicas, incluidas las del electromagnetismo. Es decir, su primera hipótesis fue suponer que ningún experimento permite detectar el movimiento rectilíneo y uniforme. En todos los sistemas inerciales las leyes físicas deben tener la misma forma. Es interesante notar que el principio de relatividad especial se aplica a sistemas inerciales, es decir, a laboratorios que no están sometidos a ninguna fuerza externa. Quedan excluidos entonces los sistemas de referencia sometidos a la acción de la gravedad. Este principio no se aplica en rigor a un laboratorio fijo a la Tierra. Sin embargo, podemos considerar a la Tierra un sistema inercial si durante la realización de nuestro experimento la velocidad de la misma permanece aproximadamente constante.
La velocidad de la luz es absoluta La segunda hipótesis que utilizó Einstein para desarrollar su teoría es la siguiente: la velocidad de la luz, en vacío, es la misma en todos los sistemas inerciales (como mencionamos en el capítulo 2, en la actualidad se toma por definición que esta velocidad es 299.792 km/s). Esta suposición es realmente sorprendente, y absolutamente contraria a nuestra experiencia cotidiana y a nuestro sentido común. Ya hemos mencionado varias veces la forma newtoniana de sumar velocidades, y esta hipótesis está en total desacuerdo con ella. ¿Cuáles fueron los motivos que llevaron a Einstein a basarse en semejante postulado? No hay acuerdo entre los historiadores sobre cuánta influencia tuvieron sobre Einstein el resultado del experimento de Michelson y Morley, o la hipótesis de Lorentz de que los objetos se contraen en la dirección de su movimiento para explicar dicho resultado. Lo que sí está claro es que la simplicidad de las ecuaciones de Maxwell influyó notablemente en su razonamiento. Prefirió explorar esta hipótesis basada en su intuición, y en la belleza y simplicidad que las leyes del electromagnetismo tendrían en todos los sistemas inerciales. Pero tuvo que afrontar las consecuencias, que eran extremadamente alejadas del sentido común, ya que involucraban modificar la manera de sumar velocidades (ver capítulo 2), y para ello modificar también las nociones de espacio y de
tiempo. Sin embargo, posteriormente se comprobó que las predicciones no estaban alejadas de los experimentos, sino todo lo contrario. Los dos postulados en que se basa la teoría especial de la relatividad están relacionados: si aceptamos el principio de relatividad y si suponemos válido el electromagnetismo de Maxwell en todos los sistemas inerciales, entonces llegamos a la conclusión de que la velocidad de la luz tiene que ser la misma en todos los sistemas inerciales. El postulado de la constancia de la velocidad de la luz es más explícito, y lo independiza de la teoría de Maxwell. v
c
Fig. 6: De acuerdo con la física newtoniana, si para el conductor del vehículo la velocidad de la luz emitida por el farol delantero es c, para un observador fijo a la calle la velocidad de la luz debería ser c+v. Sin embargo, Einstein postuló que para ambos observadores la velocidad de la luz debe ser la misma.
El principio de equivalencia: “la idea más feliz de mi vida” Luego de desarrollar la teoría especial de la relatividad, que será discutida más detalladamente en los capítulos siguientes, Einstein se abocó al estudio de la fuerza de gravedad. Mientras tanto seguía haciendo importantes contribuciones en otras ramas de la física. Por ejemplo, en 1906 publicó un trabajo sobre el calor específico que puede considerarse como el comienzo de la física del estado sólido. Hay varios aspectos llamativos en la ley de gravitación universal de Newton descripta en el capítulo 1. Por un lado, ésta presupone lo que se conoce como acción instantánea a distancia. Si la distancia entre dos objetos varía, instantáneamente la fuerza cambia a su nuevo valor. ¿Cuál es el mecanismo por el cual la información viaja de un cuerpo al otro? ¿Es posible que la información viaje con velocidad infinita? En este sentido, la teoría de Maxwell es completamente diferente. Si bien la fuerza entre dos cargas eléctricas en reposo depende de la distancia de la misma manera que en la ley de gravitación universal (ésta es la conocida ley de Coulomb), la fuerza entre cargas móviles es mucho más compleja, y la información de que una carga se mueve viaja a la velocidad de la luz. Por otro lado, la fuerza de gravedad es proporcional a la masa. Este hecho hace que la aceleración de un objeto sometido sólo a fuerzas gravitatorias no dependa de su propia masa: de acuerdo con la ley de fuerzas de Newton, la aceleración de un objeto está dada por a = F . Si la fuerza es proporcional a la masa, la aceleración será independiente m de ella. Esto había sido observado por Galileo para la caída de los cuerpos en las cercanías de la Tierra. En una situación sin rozamiento, todos los cuerpos caen con la misma aceleración, independientemente de su composición y de su masa. La leyenda
cuenta que Galileo comprobó esta ley arrojando objetos desde la Torre de Pisa, aunque en realidad lo hizo estudiando la caída de objetos a lo largo de planos inclinados. Este resultado no es intuitivo debido a los efectos del rozamiento del aire: claramente una hoja de papel tarda más tiempo en caer al piso que una piedra. Sin embargo esto no es cierto en ausencia de fuerzas de roce, como puede comprobarse haciendo caer objetos de masa muy diferente dentro de un tubo al vacío. Una comprobación interesante fue realizada en julio de 1971 por el astronauta David Scott de la Apolo 15, quien estando en la superficie lunar dejó caer una pluma y un martillo, y ambos llegaron al piso al mismo tiempo. A lo largo de los años se han realizado experimentos cada vez más sofisticados y precisos que son consistentes con la observación inicial de Galileo. En noviembre de 1907, todavía trabajando en la oficina de patentes de Berna, Einstein tuvo una idea basada en estos hechos, que él mismo calificó posteriormente como “la más feliz” de su vida: una persona en caída libre no siente su propio peso. Para ejemplificar lo que quiere decir esta afirmación, supongamos que nos encontramos dentro de un ascensor en reposo. Si soltamos una pelota, ésta caerá hacia el piso por acción de la gravedad. ¿Pero qué ocurre si el ascensor está en caída libre? (por ejemplo si se corta el cable que lo sostiene). Si los efectos de rozamiento con el aire fueran despreciables, la pelota quedará suspendida delante de nosotros, ya que tanto la pelota como nosotros caeremos hacia la Tierra con la misma aceleración. A todos los efectos prácticos, y mientras que el ascensor no se estrelle, es como si no hubiese fuerza de gravedad. Este hecho, basado en que la aceleración no depende de la masa, sugiere que un sistema de referencia en caída libre, en presencia de gravedad, es equivalente a un sistema inercial en ausencia de gravedad. Análogamente, podemos imaginarnos en una nave espacial muy alejada de estrellas y planetas, de manera que no esté sometida a ninguna fuerza de gravedad. Si la nave está en reposo o se mueve con velocidad constante respecto de las estrellas lejanas, podemos considerarla un sistema de referencia inercial en ausencia de gravedad. Por otra parte, si la nave se mueve con aceleración constante hacia arriba, sentiríamos un peso hacia abajo. Si soltáramos un objeto, éste caería hacia abajo, de la misma manera que si la nave estuviese en reposo en la superficie de un planeta. O sea que no hay manera de distinguir entre una aceleración constante (movimiento rectilíneo uniformemente variado) y una atracción gravitatoria constante como la que sentimos en las cercanías de la Tierra.
g
Fig. 7: En un ascensor en caída libre cerca de la superficie terrestre, todos los objetos caen con la misma aceleración g = 9,8 m/s2. La pelota flota delante de la persona. La situación es equivalente a la de ausencia de gravedad.
Einstein supuso que ningún experimento sería capaz de distinguir entre ambas situaciones, y enunció: en presencia de gravedad, las leyes de la física en los sistemas de referencia en caída libre son las mismas que en los sistemas inerciales, en ausencia de gravedad. Denominó a este enunciado principio de equivalencia, ya que afirma que los sistemas en caída libre y los sistemas inerciales son indistinguibles. En realidad debemos ser un poco más precisos. En las cercanías de la Tierra, la fuerza de gravedad es aproximadamente independiente de la posición, y en consecuencia en un sistema uniformemente acelerado es como si la gravedad no existiese. Sin embargo, esto no es estrictamente correcto. Volvamos a considerar el ascensor en caída libre. Si dentro de él soltamos dos pelotas a la misma altura, éstas serán atraídas hacia la Tierra. Suponiendo que la Tierra es perfectamente esférica, la dirección de movimiento de las pelotas es hacia su centro. En consecuencia, la distancia entre las pelotas irá cambiando: una se acercará a la otra (ver figura 8). Esto claramente no ocurriría en un sistema inercial. Por ese motivo, Einstein tuvo que restringir su principio: la equivalencia es local, es decir, vale solamente cuando realizamos un experimento en regiones del espacio y durante intervalos temporales suficientemente chicos7.
7
Esto quiere decir que debemos restringir nuestro experimento a zonas del espacio en las que los efectos de la gravitación no cambien apreciablemente. La extensión temporal del experimento también tiene esa restricción.
1
2
Fig. 8: Si soltamos dos objetos 1 y 2, la atracción gravitatoria terrestre los hará moverse en dirección al centro de la Tierra. La distancia entre los objetos irá disminuyendo hasta que choquen con la superficie.
¿Son “sagrados” estos principios? Luego de haber insistido en los dos primeros capítulos sobre el carácter aproximado de las leyes físicas, en éste hemos descripto los postulados fundamentales que utilizó Einstein para desarrollar sus teorías. ¿Serán exactos estos principios? No lo sabemos. En los próximos capítulos veremos que a partir de ellos se deduce una serie de fenómenos importantísimos que se verifican experimentalmente. Pero los experimentos que comprueban la teoría de la relatividad no escapan a las reglas generales: también tienen cierta precisión y cierto dominio de validez. Así, aún hoy existen proyectos de investigación que tratan de cotejar hasta qué punto el principio de relatividad o el principio de equivalencia son válidos. Mencionaremos uno de ellos, que puede considerarse como una versión moderna de los experimentos de Galileo. En lugar de dejar caer objetos desde la Torre de Pisa, se estudia la caída de la Luna y la Tierra hacia el Sol. Ambos astros (Tierra y Luna) están compuestos de materiales muy diferentes. Si no cayeran hacia el Sol con la misma aceleración, significaría una violación al principio de equivalencia. En la década del 70, astronautas de las misiones Apolo dejaron espejos sobre la superficie lunar. Enviando un haz de luz muy concentrado (láser), y midiendo el tiempo que tarda en regresar el haz reflejado a la Tierra, es posible medir la posición de la Luna con una precisión que actualmente es de algunos centímetros (¡la distancia Tierra-Luna es de alrededor de 385.000 km!). A partir de esos datos, la aceleración relativa puede medirse
con un margen de error mínimo. Los resultados obtenidos hasta el momento muestran que el principio de equivalencia es válido con una precisión de una parte en 1013 . A pesar de esa fabulosa precisión, no podemos concluir que sea exacto. Este mismo experimento ha sido utilizado para comprobar otros aspectos de la gravitación. Por ejemplo, es razonable preguntarse si la constante de gravitación universal es realmente constante, o si varía muy lentamente con el tiempo. Los resultados experimentales muestran que, si no fuese constante, su variación durante un año debe ser menor que una parte en 1012 .
Capítulo 4: Espacio y tiempo son relativos La teoría de la Relatividad es en realidad la teoría de un absoluto, sólo que a diferencia de la teoría de Newton ese absoluto no es ni el espacio ni el tiempo, sino el hecho de que la velocidad de la luz es la misma en todos los sistemas de referencia inerciales, por más que éstos tengan diferentes velocidades unos respecto de otros. Este hecho vuelve relativos los conceptos más elementales que nuestra experiencia cotidiana nos hace creer absolutos. La simultaneidad entre dos sucesos es relativa al estado de movimiento de quien los observa. La rapidez con que transcurre el tiempo y el tamaño de los objetos son diferentes a distintas velocidades y a diferentes distancias de objetos masivos. Estas fantásticas afirmaciones han sido verificadas en numerosos y precisos experimentos, como detallaremos en este capítulo.
El movimiento dilata el paso del tiempo Supongamos que nos encontramos en el vagón de un tren, que constituye nuestro sistema de referencia. Consideremos además un segundo sistema de referencia, fijo al andén. Va a ser útil pensar que en el andén hay colocados relojes a lo largo de una línea recta. Cada reloj está identificado con un número que indica su distancia a un punto dado del andén, donde hay una fuente de luz. Antes de realizar cualquier medición de intervalos temporales, es necesario sincronizar los relojes que están sobre el andén. Es posible hacer esto utilizando haces de luz. Encendemos la fuente, y cuando la luz arriba al reloj que está a una cierta distancia L, lo hacemos arrancar con una lectura inicial igual al tiempo que tardó la luz en llegar a él, es decir, L/c. Pensemos ahora el siguiente experimento. Sentados en el centro del vagón, encendemos un puntero láser que apunta hacia un espejo colocado en el techo, justo encima de nosotros. Medimos el intervalo temporal transcurrido hasta que el haz de luz retorna después de haberse reflejado en el espejo. Para observadores en el andén, la luz recorre una distancia mayor, ya que al propagarse hacia el techo también se propaga horizontalmente debido al movimiento del tren (ver figura 9). De acuerdo con el principio de constancia de la velocidad de la luz, para los observadores en el andén la velocidad de la luz también es c. Si la velocidad de propagación es la misma, y la longitud recorrida es mayor, la conclusión es inevitable: ¡para los observadores en el andén, el intervalo de tiempo transcurrido es mayor! Usando el teorema de Pitágoras, es relativamente sencillo ver que la relación entre el tiempo medido por los observadores en el andén, que llamaremos T, y el tiempo t medido por el reloj que está en el centro del vagón es t = T 1− recuadro.
v2 , donde v es la velocidad del tren. Demostramos esta fórmula en el c2
Fig. 9: (a) En el sistema de referencia fijo al tren, la trayectoria del haz de luz es vertical. (b) En cambio, en el sistema de referencia fijo al andén, la trayectoria es oblicua y más larga. En consecuencia, el tiempo transcurrido para un observador en el tren es menor al medido por observadores en el andén.
Hemos llegado a la sorprendente conclusión de que el estado de movimiento afecta el transcurso del tiempo. ¡El intervalo de tiempo medido en el sistema del andén es mayor que el medido en el sistema fijo al tren! Ésta es una consecuencia del principio de constancia de la velocidad de la luz, discutido en el capítulo anterior, y es totalmente opuesta a la visión newtoniana de tiempo absoluto.
Cálculo de la dilatación del tiempo En el sistema de referencia fijo al tren, la luz se propaga verticalmente. Si el espejo se encuentra a una altura h sobre el puntero láser, el tiempo que tarda la luz en llegar al espejo y regresar es t=2h/c.
Vista desde el andén, la trayectoria del haz de luz es oblicua en lugar de vertical, pero la velocidad de la luz sigue siendo c. Durante el intervalo de tiempo T que, para un observador en el andén, demora la luz en regresar al puntero, el tren avanza horizontalmente una distancia vT, ya que se mueve a velocidad v. En la mitad de ese tiempo la luz recorre la hipotenusa de un triángulo rectángulo de largo cT/2, cuyos catetos tienen largo h y vT/2 (ver figura 9). El teorema de Pitágoras implica entonces que h2+(vT/2)2=(cT/2)2, de donde se deduce, recordando que h=ct/2, que la relación entre el tiempo t medido por un observador en el tren y el tiempo T medido por un observador en el andén para el intervalo transcurrido entre la salida y el regreso del rayo de luz es
v2 t = T 1− 2 . c
¿Cuál es el orden de magnitud de este efecto? ¿Por qué no notamos que nuestros relojes atrasan al bajar de un tren? El atraso es demasiado pequeño como para ser detectado a menos que se usen relojes extremadamente sensibles. Si viajáramos en un tren bala, que se desplaza a unos 500 km/h, durante un año entero, el atraso sería de 3 millonésimas de segundo. Se han realizado experimentos con relojes atómicos de cesio colocados en aviones comerciales, pero como en dicho experimento los efectos de la gravitación sobre el paso del tiempo también son importantes, pospondremos la discusión para más adelante en este mismo capítulo.
Los muones viven más cuando se mueven Para poder medir el fenómeno de dilatación del tiempo es conveniente experimentar con objetos que se muevan a velocidades relativistas, es decir cercanas a la velocidad de la luz, para que el efecto sea lo más notorio posible. La Tierra está siendo bombardeada constantemente por rayos cósmicos. La mayoría son protones que han sido acelerados por campos magnéticos en nuestra galaxia. Cuando los protones llegan desde el espacio a la parte superior de la atmósfera terrestre, chocan con los núcleos de átomos de nitrógeno y oxígeno. Luego de una serie de reacciones se producen, entre otras cosas, partículas elementales llamadas muones. Éstas son similares a los electrones, tienen la misma carga eléctrica, pero son unas 200 veces más pesadas. Los muones generados en la alta atmósfera tienen velocidades muy cercanas a la de la luz. Los muones son inestables. Luego de pocos microsegundos (millonésimas de segundos) decaen en un electrón, un neutrino y un antineutrino8. El decaimiento es un proceso estadístico. No podemos predecir en qué momento exacto habrá de decaer un muón en particular. Pero sabemos que si en un instante tenemos un cierto número grande de muones, luego de, por ejemplo, 1,5 microsegundos tendremos aproximadamente la mitad,
8
Los neutrinos son partículas elementales sin carga y de masa mucho menor a la del electrón. En el capítulo 5 veremos que por cada partícula elemental existe una antipartícula, en este caso, el antineutrino.
pues la otra mitad habrán decaído. La tabla muestra el porcentaje de muones sobrevivientes en función del tiempo. Tiempo ( 10
−6
transcurrido Porcentaje de muones sobrevivientes segundos) 0 0,7 1,5 2,2 6,4 10
100 73 51 37 5 1
En 1963, David Frisch y James Smith realizaron un experimento basado en la inestabilidad de los muones para medir el efecto de dilatación del tiempo. En la cumbre del monte Washington, a 1910 metros sobre el nivel del mar, colocaron un detector que seleccionaba y contaba el número de muones que pasaban por él con velocidad 0,9952 c. En promedio, atravesaron el detector unos 568 muones por hora. Posteriormente, un detector similar fue colocado a 3 metros sobre el nivel del mar. Si los muones fuesen estables, el detector inferior debería detectar el mismo número de muones por hora que el detector en la cima. Sin embargo, debido a la inestabilidad, sólo una fracción sobrevive. Como la velocidad de los muones era de 0,9952 c, el tiempo necesario para recorrer los 1907 metros de distancia entre detectores es de 6,4 microsegundos. De acuerdo con la tabla, en ese tiempo, sólo debería sobrevivir el 5% de los muones. ¡Sin embargo, el resultado observado fue que sobrevive el 73%! Analicemos los resultados. Cuando los muones están en reposo, su número disminuye al 73% en t = 0,7 microsegundos. Sin embargo, cuando están en movimiento, el resultado experimental nos dice que en el sistema fijo a la Tierra esa misma disminución en el número de muones se produce en T = 6,4 microsegundos. Los muones móviles viven aproximadamente 9 veces más, y esto se debe al efecto de dilatación del tiempo. v2 Cuantitativamente, el cociente T/t está dado por 1 / 1 − 2 , que efectivamente es c aproximadamente igual a 9 para las velocidades involucradas en el experimento9.
El movimiento contrae las longitudes
9
Teniendo en cuenta las incertezas experimentales, el factor de dilatación temporal observado fue (8,8 ±0,8) microsegundos, mientras que el predicho teóricamente era (8,4 ±2,0) microsegundos. La predicción teórica tiene en cuenta que la velocidad de los muones no se mantiene constante a lo largo de su recorrido por efectos de la atmósfera. La predicción teórica y el resultado experimental coinciden dentro de los errores, y confirman el fenómeno de dilatación temporal debida al movimiento.
Si analizamos el experimento de los muones desde el sistema de referencia que se mueve con ellos, llegamos a otra conclusión notable: la longitud de un objeto depende de su estado de movimiento. Imaginémonos moviéndonos a 0,9952 c respecto del monte Washington, desde la cima hacia la base. En nuestro sistema de referencia, los muones están en reposo, y todo el monte se mueve hacia arriba con dicha velocidad. Para estimar la distancia entre los puntos donde se colocaron los detectores, podríamos razonar de la siguiente manera. Durante el tiempo que transcurrió desde que el detector colocado en la cima del monte pasó frente a nosotros, hasta que el detector colocado en la base pasó frente a nosotros, el número de muones disminuyó al 73% de su valor inicial. De acuerdo con la tabla, habrán transcurrido entonces 0,7 microsegundos. Dado que el monte está moviéndose hacia arriba con una velocidad de 0,9952 c, la distancia entre los puntos es 0,9952 c x 0,7 microsegundos = 209 metros. Ésta es la distancia entre los detectores medida desde un sistema de referencia en el cual están en movimiento. ¡Desde el sistema fijo a la Tierra, sin embargo, esta distancia es 1907 metros! El cociente entre ambas longitudes es aproximadamente igual a 9.
D2
muón v
1907 m muón
D2 v
D1
206 m
D1 (a)
(b)
Fig. 10: Esquema del experimento de los muones. (a) En el sistema de referencia fijo a la Tierra, los muones se desplazan hacia abajo y la distancia entre detectores es 1907 m. (b) En cambio, en el sistema de referencia fijo a los muones, el Monte Washington y los detectores se desplazan hacia arriba. Debido al fenómeno de contracción de longitudes, la distancia entre detectores es 9 veces más chica.
Un razonamiento sencillo permite demostrar que este efecto es general. Supongamos que medimos la longitud de un objeto en reposo, y obtenemos un cierto valor l (longitud propia del objeto). Si el mismo objeto se desplazara a una velocidad v, la medición de la v2 . Las longitudes se contraen en la dirección de c2 movimiento. Si un cuerpo tiene forma cúbica cuando está en reposo, al desplazarse como se indica en la figura se contraerá en la dirección de movimiento. Si medimos su tamaño longitud dará como resultado L = l 1 −
en el sistema de referencia en el que está en movimiento notaremos que su forma habrá cambiado. A la vez, un observador que se mueve con el cubo no medirá ninguna diferencia entre su alto, su ancho y su largo. Es importante notar que no nos estamos refiriendo a cómo se ven las cosas, sino a cómo son las cosas desde el sistema de referencia en el que ellas se mueven. Una discusión de la apariencia de los objetos móviles debería tener en cuenta el tiempo que tarda la luz en llegarnos a los ojos (o a la cámara fotográfica) desde los distintos puntos del objeto móvil. Un razonamiento algo complicado, que no incluiremos aquí, muestra que un objeto que en reposo es cúbico, al moverse con velocidades cercanas a la de la luz se vería rotado en lugar de achatado.
La simultaneidad es relativa (la causalidad no) Podemos describir otro experimento pensado, que muestra que también tenemos que replantear nuestra noción cotidiana de simultaneidad. Supongamos que, nuevamente en el centro del vagón de un tren, encendemos una fuente de luz que ilumina en dos direcciones, hacia el frente y hacia el fondo del vagón. Independientemente del estado de movimiento del tren, la luz se propagará en ambas direcciones con velocidad c. Dado que estamos en el centro del vagón, la luz llegará al frente y al fondo del mismo simultáneamente. Para ser más precisos, si anotamos las lecturas de los relojes que están en el frente y el fondo del vagón en el instante en que llega la luz a ambos lugares, las mismas deben coincidir. En el sistema de referencia fijo al vagón, los dos sucesos son simultáneos. Veamos cuál es la situación en el sistema de referencia fijo al andén. Cuando se enciende la fuente de luz, ésta viaja en ambas direcciones a velocidad c con respecto al andén. Éste es el punto crucial, basado en el postulado de constancia de velocidad de la luz, y es donde nos apartamos de la física newtoniana. El haz de luz que se propaga hacia atrás, irá al encuentro de la parte posterior del vagón, que se mueve por supuesto hacia delante (ver figura 11). En cambio, el haz de luz que se propaga hacia adelante, deberá alcanzar a la parte delantera del vagón, que se mueve en la misma dirección. En consecuencia, el encuentro entre el haz de luz y la parte trasera del vagón ocurrirá antes que el encuentro entre el haz de luz y la parte delantera. Los dos eventos NO son simultáneos. Si tenemos relojes sincronizados a lo largo del andén, el reloj que se encuentra en la posición donde se produce el choque entre la luz y la parte posterior del vagón marcará un tiempo menor al del reloj que se encuentra en la posición donde la luz alcanza a la parte de adelante.
v
v
v
(b) Fig. 11: (a) Para un observador en el vagón, los haces de luz llegan simultáneamente a la parte delantera y a la parte trasera. (b) Para un observador en el andén, el tren se desplaza hacia la derecha. En consecuencia la luz llega antes a la parte trasera que a la delantera. La simultaneidad es relativa.
Este experimento pensado muestra que la simultaneidad es un concepto relativo. También es posible ver que el orden de los eventos puede alterarse. Consideremos un segundo tren que se mueve en la misma dirección que el primero, pero a mayor velocidad. Desde el segundo tren, el primer tren parece moverse hacia atrás. ¡Por lo tanto, los observadores del segundo tren notarán que la luz llegará primero a la parte delantera del primer tren, es decir, el orden temporal opuesto al observado desde el andén! La situación aparenta ser caótica. Si el orden de los eventos no es absoluto, se podría especular que, dependiendo del sistema de referencia, los efectos podrían anteceder a las causas. Así, dependiendo del observador, una persona podría nacer antes que sus padres, morir antes que nacer, etc. Afortunadamente no es así. La relatividad no viola el principio de causalidad: si el evento A es causado por el evento B, entonces en cualquier sistema de referencia A será posterior a B. En nuestro ejemplo de los trenes, la luz llega a los extremos del vagón (efecto) después de que fue encendida la fuente (causa). Esto es cierto en cualquier sistema de referencia. Que la luz llegue a la parte posterior del tren antes o después que a la parte delantera no viola el principio de causalidad, ya que uno de estos eventos no es consecuencia del otro. Son eventos independientes. La causalidad es absoluta.
Es interesante notar que la causalidad está íntimamente ligada a la existencia de una velocidad límite para la transmisión de la información. Si fuese posible enviar información con una velocidad arbitrariamente grande, podríamos pensar en pares de eventos (causa y efecto) que ocurren casi simultáneamente en un sistema de referencia dado. Por lo que acabamos de ver, vistos desde otro sistema, estos sucesos ocurrirían en orden inverso, violando la causalidad. Un análisis más detallado muestra que la velocidad límite para la transmisión de la información es, justamente, la velocidad de la luz.
Gravitación y tiempo El tiempo pasa más lento cerca de un objeto masivo La gravitación afecta el paso del tiempo. Un reloj marcha más lentamente cuanto más cerca se encuentra de un objeto masivo. Este asombroso efecto es consecuencia directa del principio de equivalencia, según el cual los efectos de un movimiento con aceleración constante son indistinguibles de una atracción gravitacional constante, como la que actúa en la superficie de la Tierra. Para entender cómo es que la gravitación afecta el paso del tiempo, imaginemos la siguiente situación equivalente. Una nave espacial está muy alejada de estrellas o planetas, y está en reposo respecto de las estrellas lejanas, es decir está en reposo en un sistema inercial, en ausencia de fuerzas de gravitación. Hay un reloj en el piso de la nave y otro de iguales características en su techo. Ambos marchan al mismo ritmo. Ahora supongamos que la nave se mueve hacia arriba, con movimiento uniformemente variado, es decir con aceleración constante, de valor g = 9,8 m/s2. Esta situación es, según el principio de equivalencia, indistinguible del caso en que la nave estuviera en reposo en la superficie de la Tierra. ¿Siguen marchando ambos relojes con el mismo ritmo? Imaginemos que el reloj en el techo de la nave emite regularmente pulsos de luz, digamos cada segundo, en dirección al reloj en el piso. ¿Llegan los pulsos espaciados también por un segundo al reloj en el piso? Para contestar esta pregunta, hagamos una digresión y discutamos un efecto relacionado que es más conocido. Cuando pasa un tren sonando su silbato o una ambulancia con su sirena encendida, notamos un cambio en el tono del sonido: es más agudo cuando se acerca y más grave al alejarse. Éste es el llamado efecto Doppler. Las ondas sonoras son oscilaciones en la presión y densidad del aire. El tono del sonido está relacionado con la frecuencia de dichas oscilaciones: cuando la frecuencia es mayor el sonido es más agudo. El efecto Doppler ocurre no sólo para ondas sonoras, sino para cualquier clase de ondas, por ejemplo la luz visible (en ese caso el cambio de frecuencia implica un cambio de color) o las ondas electromagnéticas en general. También ocurre si el emisor emite pulsos regularmente: la frecuencia de llegada de pulsos será mayor cuando el emisor se acerca al observador, y menor cuando se aleja.
Para entender el efecto Doppler, supongamos que el emisor es un reloj que lanza regularmente pulsos cortos de luz, digamos, uno por segundo. Consideremos dos pulsos consecutivos. Si el emisor está en reposo respecto del receptor, ambos pulsos tardarán el mismo tiempo en llegar, y por lo tanto también estarán espaciados un segundo al llegar al receptor. En cambio, si el receptor se acerca hacia el emisor con velocidad constante, el pulso que salió un segundo después tardará menos tiempo que el pulso anterior, ya que durante el segundo transcurrido entre los dos pulsos el receptor se habrá acercado al emisor. Por lo tanto, el tiempo transcurrido entre la llegada de ambos pulsos al receptor se habrá acortado, pues la luz se ha evitado recorrer cierta distancia. Lo opuesto ocurre cuando el receptor se aleja del emisor. En ese caso los pulsos llegarán espaciados por más de un segundo, ya que el segundo pulso debe recorrer una distancia mayor que el primero. El efecto también ocurre si el receptor está en reposo y el emisor en movimiento, o si ambos se mueven con velocidades diferentes. Es claro que lo importante es la velocidad relativa entre el emisor y el receptor. Volvamos ahora a nuestra nave acelerada hacia arriba, y respondamos la pregunta de cómo llegan al reloj en el piso los pulsos emitidos cada segundo desde un reloj en su techo. Podríamos concluir, ingenua y erróneamente, que por más que la nave esté acelerada, dado que en cada instante la velocidad de ambos relojes es la misma, dos pulsos de luz sucesivos deberían ser recibidos por el reloj en el piso separados por el mismo intervalo de tiempo con que fueron emitidos desde el reloj en el techo, es decir separados también por un segundo. Esto no es así. Cuando un segundo pulso es emitido, la velocidad de la nave es mayor que cuando fue emitido el pulso inmediato anterior. En consecuencia, el segundo pulso debe recorrer una distancia menor que el primero hasta llegar al receptor, dado que este último está avanzando más rápidamente a su encuentro. Los pulsos que salieron del techo separados por un segundo llegan al piso separados por un intervalo de tiempo menor. El punto crucial es, como siempre, que la velocidad de la luz es c en los sistemas inerciales. En cambio la nave está acelerada. De acuerdo con el principio de equivalencia, no hay manera de distinguir entre moverse hacia arriba con aceleración constante g = 9,8 m/s2 en ausencia de fuerzas de gravitación, o estar en reposo en la superficie de la Tierra, donde la aceleración de la gravedad hacia abajo es g = 9,8 m/s2. En consecuencia, si el principio de equivalencia es correcto, un reloj colgado cerca del techo de una habitación a una altura h debe adelantar respecto de un reloj en el piso de la habitación, por efecto de la gravitación. Por cada segundo que transcurre para el reloj en el techo, el reloj en el piso indica que transcurrieron (1-gh/c2) segundos. ¿Cuál es la magnitud de este efecto? Si la distancia entre los relojes es de 3 metros, ¡el reloj colocado en el techo adelantará una millonésima de segundo en un siglo! El efecto Doppler y el corrimiento al rojo gravitatorio Calculemos el cambio de frecuencia producido por el movimiento relativo entre el emisor y el receptor. Para simplificar la discusión consideraremos que las velocidades de ambos son no relativistas. De esta manera los efectos de dilatación del tiempo y contracción de longitudes debidos a la velocidad no son relevantes y pueden obviarse.
Si el emisor lanza regularmente pulsos cortos de luz separados por un tiempo t, y está en reposo respecto del receptor, todos los pulsos tardan el mismo tiempo en llegar, y en consecuencia al llegar al receptor lo hacen también espaciados por el mismo tiempo t. ¿Qué ocurre si el receptor se acerca hacia el emisor con velocidad constante v? Si consideramos dos pulsos consecutivos, entre la emisión del primero y el segundo el receptor se habrá acercado al emisor una distancia d=vt. Por lo tanto, el tiempo transcurrido entre la llegada de ambos pulsos al receptor será menor, t(1-v/c), ya que la luz se ha evitado recorrer una distancia d, lo que le hubiese demandado un tiempo adicional d/c. En lugar de llegar espaciados por un tiempo t, los pulsos llegan al receptor separados por t(1-v/c). La frecuencia de arribo de los pulsos es mayor. Si el receptor se aleja del emisor, un análisis similar muestra que los pulsos llegan más espaciados, separados por un tiempo t(1+v/c). La frecuencia de arribo es menor. Se habla en este caso de un corrimiento al rojo, porque para la luz visible el tono rojizo tiene menor frecuencia que el azulado. ¿Qué ocurre si ambos, emisor y receptor, se mueven con aceleración constante g, de manera que su distancia y su velocidad relativa permanecen constantes? Consideremos el caso de dos pulsos espaciados por un tiempo t que fueron emitidos desde un reloj en el techo de una nave en dirección a un reloj en su piso, con la nave acelerada hacia arriba. Los pulsos recorren una distancia h, para lo cual emplean un tiempo h/c. Cuando los pulsos llegan al reloj inferior la nave tiene una velocidad gh/c mayor que cuando salieron del reloj superior. Por lo tanto, es como si el emisor y el receptor se alejaran con velocidad v=gh/c. El intervalo con que llegan los pulsos se acorta como describe la fórmula del efecto Doppler, a t(1-v/c), o sea t(1-gh/c2) . Los pulsos llegan al piso con una frecuencia mayor que con la que salieron del techo, por lo que se obtiene un corrimiento al azul. Recíprocamente la frecuencia de los pulsos que salen del reloj en el piso están corridas al rojo al llegar al techo. De acuerdo con el principio de equivalencia, lo mismo debe ocurrir con los fotones en el campo gravitatacional terrestre, su frecuencia debe correrse al rojo a mayor altura, y al azul a menor altura.
A pesar de lo pequeño del efecto, en 1960 Robert Pound y Glen Rebka realizaron exitosamente un experimento para confirmarlo. No utilizaron relojes y pulsos de luz visible, sino fotones de muy alta energía (rayos gamma) generados por el decaimiento de un elemento radiactivo, en una torre a 22,6 metros de altura. Con un método bastante sofisticado fue posible medir la frecuencia de esos rayos gamma cuando eran emitidos en la parte superior de la torre y cuando eran recibidos en la parte inferior. Verificaron que la frecuencia de recepción era apenas mayor a la de emisión, en perfecto acuerdo con la predicción realizada por Einstein en el mismo trabajo que enunció el principio de equivalencia. El efecto de la gravitación sobre el paso del tiempo se manifiesta en un cambio de la frecuencia de fotones u ondas electromagnéticas: a mayor campo gravitacional menor frecuencia. Éste es el origen del nombre corrimiento al rojo gravitatorio. Si observamos la luz proveniente de transiciones atómicas que ocurren en las cercanías de una estrella, el color de ésta será levemente más rojizo.
Relojes voladores: el experimento de los aviones Uno de los experimentos más directos que se han realizado para verificar los fenómenos de dilatación del tiempo debido a la velocidad y de corrimiento al rojo gravitatorio,
consistió en colocar relojes muy precisos en aviones comerciales. Luego de volar alrededor de la Tierra, se comparó el tiempo medido por los relojes en los aviones con el tiempo medido por relojes similares en la superficie terrestre. El experimento, coordinado por Joe Hafele y Richard Keating, fue realizado en octubre de 1971. Se utilizaron relojes atómicos de cesio en aviones comerciales. El vuelo hacia el este se realizó entre el 4 y el 7 de octubre, con un total de 41 horas de vuelo. Tuvo varias paradas (necesarias para reabastecimiento), por lo que fue necesario anotar cuidadosamente todas las características del vuelo (distintas velocidades, altitudes, etc.). El vuelo hacia el oeste se realizó entre el 13 y el 17 de octubre, y la duración total fue de 49 horas. Se compararon las lecturas de los relojes transportados por los aviones con la de un reloj idéntico que permaneció en el Observatorio de Washington DC. Dadas las condiciones del experimento, se predijo que el reloj transportado por el avión que voló hacia el este debería atrasar 40±23 ns (ns es la abreviatura de nanosegundo, es decir 10-9 segundos), mientras que el que voló hacia el oeste debería adelantar 275±21 ns. Los resultados observados fueron consistentes con estas predicciones (-59 ±10 ns en el primer caso y 273±21 ns en el segundo). Un punto muy interesante de este experimento es que el efecto de dilatación del tiempo debido al movimiento y el efecto sobre el tiempo debido al campo gravitatorio tienen magnitudes comparables. Ambos deben ser tenidos en cuenta para explicar los resultados. ¿Por qué en el caso del avión que viaja hacia el este se espera un retardo del reloj y en el que viaja hacia el oeste un adelanto? El efecto de dilatación gravitatoria del tiempo es fácil de comprender. Para ambos aviones, este efecto hace que los relojes adelanten respecto del reloj que quedó en Tierra, independientemente de que viajen hacia el este o hacia el oeste. Teniendo en cuenta los detalles de los vuelos, las predicciones teóricas fueron 144 ns para el avión que voló al este, y 179 ns para el que voló al oeste. Estos valores corresponden a alturas promedio de 8400 m y 9400 m respectivamente. La dilatación temporal producida por el movimiento es más sutil. El reloj que queda en la superficie terrestre no es un reloj inercial, debido a la rotación diaria de la Tierra alrededor de su eje. Consideremos para simplificar el razonamiento que los aviones vuelan sobre el ecuador terrestre. Pensemos además en un sistema de referencia inercial (ficticio) fijo al centro de la Tierra, pero que no rota con ella. De acuerdo con lo que vimos al comienzo de este capítulo, el tiempo medido por un reloj en la superficie terrestre y el medido por relojes inerciales satisfacen v2 c2 donde v es la velocidad relativa entre ambos sistemas. Una relación similar vale entre el tiempo medido por un reloj en el avión y el medido por los relojes inerciales. El reloj en la superficie siempre atrasa respecto de los inerciales. El avión que viaja hacia el este se mueve, respecto de los relojes inerciales, con una velocidad mayor que los relojes en superficie (ver figura 12). Por lo tanto, atrasa más que éstos y, en consecuencia, el efecto neto es un atraso respecto de los relojes en superficie. La predicción teórica es -184 ns. t sup = t inercial 1 −
Por otra parte, la velocidad del avión que se mueve hacia el oeste es menor, respecto del sistema fijo, que la del reloj en superficie. Por lo tanto, si bien el reloj sobre el avión atrasa respecto de los relojes inerciales, el reloj en superficie atrasa más que el del avión. El efecto neto es que el reloj sobre el avión adelanta respecto del que queda en tierra, unos 96 ns. Rotación terrestre
O
E
ecuador
R
(a)
E
O
ecuador
Rotación terrestre
(b) Fig. 12: (a) Dos aviones vuelan en direcciones opuestas sobre el ecuador terrestre. El reloj R está sobre la superficie. Debido a la rotación de la Tierra, se mueve con respecto a los relojes inerciales (en línea
punteada). (b) La misma situación, vista desde arriba. El avión que vuela hacia el este, lo hace en el mismo sentido que la rotación terrestre y, en consecuencia, su velocidad respecto de los relojes inerciales es mayor que la del avión que vuela hacia el oeste.
Considerando ahora ambos efectos, gravitación y velocidad, la diferencia de lectura entre el reloj en la superficie terrestre y el del avión que viaja hacia el este debe ser 144 ns - 184 ns = - 40 ns, mientras que para el avión que viaja al oeste el resultado es 179 ns + 96ns = 275 ns. Como mencionamos anteriormente, los resultados experimentales confirmaron estas predicciones. Una verificación mucho más precisa de la dilatación gravitatorio del tiempo fue realizada en 1976 por la misión Gravity Probe A. Un reloj máser de hidrógeno fue colocado sobre un cohete que voló en una órbita elíptica sobre el Atlántico, elevándose hasta una altura de 10.000 kilómetros. El cohete estuvo en el espacio durante 1 hora y 55 minutos. Antes de estrellarse en el océano, transmitió el funcionamiento del reloj a distintas alturas, que fue comparado con un reloj idéntico en tierra. Los resultados confirmaron el efecto de la gravedad sobre el tiempo con una precisión de 7 partes en 100.000.
La relatividad y el Sistema de Posicionamiento Global (GPS) El GPS (Global Positioning System o Sistema de Posicionamiento Global) consiste en un conjunto de 24 satélites que orbitan alrededor de la Tierra y llevan relojes atómicos muy estables y precisos. Los satélites emiten señales sincronizadas que, al ser recibidas por un receptor en tierra, le permiten a éste conocer con una precisión de pocos metros su posición sobre la superficie terrestre. Los principios básicos de la relatividad son muy importantes en el funcionamiento del GPS. Por un lado, el sistema está basado en la constancia de la velocidad de la luz. Por otro lado, la dilatación temporal debida al movimiento es relevante tanto para los relojes en los satélites como para los relojes que están en tierra (como en el caso del experimento de los aviones). El efecto gravitatorio sobre los relojes en los satélites también es importante. El sistema no funcionaría adecuadamente si no se tuviesen en cuenta estos y otros efectos relativistas no mencionados aquí, que ocasionan unos 0,04 segundos de diferencia por día entre los relojes en Tierra y los relojes en los satélites. Éste es uno de los tantos ejemplos que muestran cómo investigaciones básicas dan lugar posteriormente a aplicaciones tecnológicas.
Paradojas relativistas Algunas consecuencias de los postulados de Einstein están tan alejadas de nuestra experiencia cotidiana y de nuestro sentido común, que inmediatamente dan lugar a situaciones que son aparentemente paradójicas o contradictorias. Sin embargo, un análisis más detallado siempre muestra que la paradoja es el resultado del uso implícito de un argumento incorrecto.
Consideremos un vehículo cuya longitud en reposo es de 5 metros. Si la contracción de longitudes es real, sería posible que, moviéndose a una velocidad mayor que 0,77 c, el vehículo quepa en un garaje cuya longitud en reposo es de 2 metros. Podríamos imaginarnos que el garaje tiene una puerta delantera y una trasera que se accionan automáticamente. En el sistema de referencia fijo al garaje, las puertas se abren simultáneamente cuando llega la parte delantera del vehículo, se cierran en el momento en que la cola del vehículo ingresa al garaje, y se vuelven a abrir cuando la parte delantera del vehículo llega a la parte posterior del garaje. Durante un cierto intervalo de tiempo, las puertas del garaje están cerradas y el vehículo está adentro.
v
v
v v
Fig. 13: En el sistema de referencia fijo al garaje, la longitud del vehículo movimiento. Por ese motivo el vehículo cabe dentro del garaje.
se contrae debido al
¿Cómo se ven las cosas desde el sistema de referencia fijo al vehículo? Para el conductor, la longitud de su vehículo es de 5 metros. Además, observa que un garaje se acerca raudamente. Debido a la contracción de longitudes el tamaño del garaje es menor que 0,8 metros. Por lo tanto es aparentemente imposible que el vehículo quepa en el garaje, debería chocar contra las puertas cuando éstas se cierran. O sea que desde el sistema de referencia fijo al garaje el vehículo no chocaría, y desde el punto de vista del conductor el vehículo debería chocar. Ésta es la paradoja. La solución es muy sencilla. Si las puertas se abren y cierran simultáneamente en el sistema fijo al garaje, no lo harán simultáneamente en el sistema fijo al vehículo. Así, el conductor vería que las puertas se abren y cierran en un orden tal que el vehículo pasa sin chocar, a pesar de que el garaje es más chico (ver figura 14). El origen de la paradoja es la suposición implícita (y errónea) de que la simultaneidad es absoluta.
v v
v
v
Fig. 14: En el sistema de referencia fijo al vehículo, éste es mucho más grande que el garaje. A pesar de ello, gracias a que las puertas no se abren y cierran simultáneamente, el garaje pasa sin chocar con el vehículo.
Otro ejemplo muy conocido es la llamada paradoja de los mellizos. Supongamos que dos mellizos astronautas, Luis y Alberto, están en una nave espacial alejada de estrellas y planetas. La nave está en reposo respecto de las estrellas lejanas. Alberto sale de la nave y se queda flotando en el espacio, mientras que Luis emprende un viaje en la nave a velocidades cercanas a la de la luz. Cuando Luis regresa al punto de partida, se encuentra con la sorpresa de que Alberto es mucho más viejo que él. Alberto entiende que lo que ha ocurrido se debe a la dilatación del tiempo producida por el movimiento. Sin embargo, Luis puede razonar análogamente. Para él, fue Alberto quien se alejó, y por sus conocimientos básicos de la teoría de la relatividad esperaba encontrar a su hermano mucho más joven que él. Nuevamente llegamos a una paradoja: dada la simetría de la situación, ambos hermanos esperaban que el otro fuese más joven en el reencuentro. Y sin embargo el más joven es Luis. La suposición incorrecta que lleva a la paradoja es la de la simetría. Alberto permaneció todo el tiempo en reposo respecto de un sistema inercial, cosa que no sucedió con Luis, pues si el viajero se hubiese desplazado todo el tiempo con velocidad constante los mellizos no se hubiesen reencontrado. En algún momento la nave en que viajó Luis debió tener una aceleración no nula para cambiar su velocidad y retornar al lugar donde esperaba Alberto. Si la situación fuese realmente simétrica, por ejemplo si ambos partiesen del mismo lugar en sentidos opuestos y acordaran el mismo programa de vuelo, al reencontrarse deberían tener la misma edad. El experimento de los relojes en los aviones puede considerarse como una comprobación directa de la diferencia de edad de los mellizos que se reencuentran. En este caso en realidad se trataría de trillizos, uno que queda en tierra, y otros dos que viajan hacia el este y hacia el oeste respectivamente (aunque en esta situación los efectos gravitatorios y de rotación de la Tierra alrededor de su eje complican un poco el análisis). De vez en cuando se anuncia la realización de un experimento o una observación astronómica en la que se detectan velocidades superlumínicas, es decir superiores a c, y
se ponen en duda la validez de la relatividad y del principio de causalidad. En todos los casos se trata de velocidades aparentes mayores que la de la luz, que no implican la posibilidad de transmitir información a tales velocidades, y por lo tanto no están en desacuerdo ni con la relatividad ni con la causalidad. Un ejemplo muy sencillo ilustra la situación: imaginemos una circunferencia de radio muy grande centrada en un faro. Al rotar, el haz de luz emitido por el faro ilumina distintos puntos sobre la circunferencia. Si el radio de ésta es suficientemente grande, la zona iluminada puede viajar sobre la circunferencia a velocidades mayores que la de la luz. Sin embargo, claramente no es posible transmitir información desde un punto de la circunferencia a otro a esa velocidad, ya que no hay un objeto que esté desplazándose sobre la circunferencia a velocidad superlumínica.
Capítulo 5: La fórmula más famosa Hacia fines del siglo XVIII, Lavoisier, uno de los fundadores de la química moderna, había establecido la ley de conservación de la masa: en una reacción química la suma de las masas de los reactivos es igual a la suma de las masas de los productos. A mediados del siglo XIX, los físicos ya habían comprobado experimentalmente la ley de conservación de la energía, expresada en su mayor generalidad en el primer principio de la termodinámica. Ambas leyes fueron consideradas exactas durante muchos años. La teoría de la relatividad nos muestra que estas leyes tampoco son infalibles. Es posible transformar masa en energía y viceversa.
Modificando la ley de Newton Hemos visto que la relatividad es compatible con el principio de causalidad sólo si hay una velocidad límite para el envío de información. Esta velocidad es la velocidad de la luz. Como consecuencia de ello, la ley de Newton F = ma , tal como fue enunciada en los Principia, no puede ser estrictamente correcta. Si lo fuese, un objeto sometido a una fuerza constante aumentaría su velocidad sin límite, y a partir de cierto momento se movería más rápido que la luz. Podríamos usar ese objeto para transmitir información y violaríamos el principio de causalidad. Por ejemplo, si el objeto fuese un proyectil dirigido contra un blanco ¡habría observadores para quienes el proyectil llegaría al blanco antes de iniciar su movimiento! ¿Cuál será la ley que reemplaza a la ley del movimiento de Newton en el marco de la teoría especial de la relatividad? Para contestar esta pregunta, una posibilidad sería realizar una serie de experimentos que involucren velocidades cada vez más altas y, a partir de los resultados particulares obtenidos, tratar de imaginar una ley general que los explique. Posteriormente, esta ley debería ser comprobada con otros experimentos diferentes a los que la originaron. Otra alternativa, que fue la seguida históricamente, sería realizar una predicción teórica de cuáles son las modificaciones relativistas a la ley de Newton. Esto podría hacerse compatibilizando algunas nociones básicas de la mecánica newtoniana, como el principio de acción y reacción, con los postulados de la relatividad. Por supuesto la propuesta teórica debería ser ulteriormente confirmada por experimentos adecuados. Apartándonos de la descripción histórica, analicemos el resultado de un experimento en el cual se aplica una fuerza constante a un objeto inicialmente en reposo. La situación física podría ser una partícula cargada (un electrón o un protón por ejemplo) sometida a un campo eléctrico. En los primeros instantes, el objeto se comporta de la manera que seguramente el lector imagina: su aceleración constante es a = F / m y su velocidad aumenta con el tiempo v = ( F / m)t . El movimiento es rectilíneo y uniformemente variado. Sin embargo, si se mantiene aplicada la fuerza durante suficiente tiempo, el
ritmo de crecimiento de la velocidad es cada vez más lento (ver figura 15). La velocidad del objeto se acerca a la de la luz, pero nunca llega a alcanzarla. Contrariamente a la ley de Newton, debemos concluir que la inercia del objeto es cada vez mayor, es decir, cada vez es más difícil cambiar su velocidad.
Velocidad
Velocidad
C
Tiempo
Tiempo
Fig. 15: La velocidad como función del tiempo para un objeto sometido a una fuerza constante. De acuerdo con la física clásica, la velocidad crece linealmente (línea punteada) y puede sobrepasar la velocidad de la luz. Debido a la dependencia de la inercia con la velocidad, el gráfico correcto es el indicado con línea llena: inicialmente la velocidad crece como en el caso clásico, pero a medida que la velocidad aumenta la aceleración se hace menor. El objeto nunca alcanza la velocidad de la luz.
Consideremos ahora otro experimento, en el que se aplica una fuerza a un objeto que se está moviendo, de manera que la fuerza es siempre perpendicular a la dirección del movimiento (esto puede lograrse con un campo magnético actuando sobre una partícula cargada). En este caso sucede que, debido a la fuerza, sin cambiar su rapidez la partícula recorre una trayectoria circular. Cuando la velocidad de ésta es baja comparada con la de la luz, el radio de la circunferencia es aproximadamente el predicho por la ley de Newton. Sin embargo, para velocidades más altas, hay una discrepancia clara con la física clásica: v2 . Nuevamente concluimos c2 que la inercia aumenta con la velocidad, ya que una circunferencia de radio mayor es más parecida a una línea recta. el radio de la circunferencia es mayor, por un factor 1 / 1 −
Los resultados de los experimentos mencionados más arriba pueden explicarse con una modificación relativamente sencilla de la ley de Newton, que justamente tiene en cuenta la dependencia de la inercia con la velocidad (ver recuadro). A velocidades bajas, la inercia está dada por la masa del objeto. Sin embargo, cuanto mayor es la velocidad del objeto, mayor es la inercia, que se hace infinitamente grande cuando la velocidad se aproxima a la de la luz.
Ley de Newton y movimiento rectilíneo uniformemente variado (versión relativista) Si una partícula de masa m se mueve con velocidad v, se define la cantidad de movimiento como el producto de la masa por la velocidad mv. Utilizando esta definición, la ley de Newton F=ma puede enunciarse de la siguiente manera: si una partícula es sometida a una fuerza F durante un intervalo corto de tiempo ∆t , la variación en la cantidad de movimiento es igual al producto F∆t (ya que a=∆v/∆t). La ley de fuerzas relativista puede enunciarse de la misma manera si, para tener en cuenta la dependencia de la inercia con la velocidad, se define la cantidad de movimiento como mv / 1 −
v2 . c2
En esta manera de expresar las leyes, el paso de la ley newtoniana a la ley relativista consiste simplemente en reemplazar la masa m por m / 1 −
v2 . Por este motivo se dice que “la masa depende de la velocidad”. c2
Sin embargo, esta frase debe tomarse con cierto cuidado. En general no es correcto hacer esta sustitución directamente en F=ma. Podemos comparar ahora las predicciones clásica y relativista para el movimiento de una partícula inicialmente en reposo que es sometida a una fuerza constante. De acuerdo con la ley de Newton, la cantidad de movimiento aumenta linealmente con el tiempo, es decir mv = Ft . Éste es el llamado movimiento rectilíneo uniformemente variado. En cambio, si utilizamos la versión relativista de la ley de fuerzas, la relación pasa a ser:
m v2 1− 2 c
v = Ft
A partir de esta ecuación, es posible obtener una expresión que permite calcular la velocidad como función del tiempo. El lector familiarizado con nociones básicas de álgebra podrá comprobar que
v=
Ft / m 1+
F 2t 2 m2c 2
En la figura comparamos el resultado clásico con el relativista. A velocidades bajas, ambos son muy parecidos. En cambio, difieren totalmente a velocidades comparables a la de la luz. Mientras que clásicamente la partícula puede moverse a velocidades arbitrarias, en el caso relativista nunca alcanza la velocidad de la luz. Resumiendo, en la física newtoniana un objeto sometido a una fuerza constante adquiere una aceleración constante. En cambio, en el marco de la relatividad, la aceleración es cada vez más pequeña, debido al aumento de la inercia producido por la velocidad del objeto.
La comprobación experimental de la modificación a la ley de Newton es apabullante. Una de las primeras verificaciones fue debida a Alfred Bucherer, quien en 1909 estudió la trayectoria circular de electrones relativistas en presencia de un campo magnético. En la actualidad, la ley de fuerzas relativista se verifica constantemente en los aceleradores de partículas. Éstos son instrumentos enormes cuyo objetivo es generar haces de
partículas que se muevan a velocidades cercanas a la de la luz. Los haces se hacen chocar entre sí o contra otros blancos. Estudiando el resultado de las colisiones es posible inferir propiedades de las partículas que chocan y de las fuerzas de interacción entre ellas. Por ejemplo, el acelerador de la Organización Europea para la Investigación Nuclear (CERN) es un anillo subterráneo de 27 km de perímetro. Entre otras cosas, logra acelerar electrones a velocidades de 0,99999999999 c. La aceleración se lleva a cabo sometiendo a las partículas a la acción de campos electromagnéticos. Los cálculos teóricos basados en la ley de fuerzas relativista reproducen con precisión los resultados experimentales.
Masa y energía son equivalentes La fórmula más famosa Una de las consecuencias más extraordinarias de la dinámica relativista es la posibilidad de convertir masa en energía. En 1905, tres meses después de publicar el trabajo en el que describió la teoría especial de la relatividad, Einstein publicó otro trabajo muy breve titulado ¿Depende la inercia de un cuerpo de su contenido energético?, en el que escribió su famosa ecuación E = mc 2 . Años después, Einstein calificó a este resultado como el más importante de la relatividad. Supongamos que dos objetos idénticos, cada uno de masa m, se aproximan uno al otro con igual velocidad v. Si después del choque quedan unidos, permanecerán en reposo. ¿Cuál es la masa del objeto final? De acuerdo con nuestra experiencia cotidiana, diríamos que el objeto compuesto tiene una masa igual a 2m. Sin embargo, esto no es estrictamente cierto. Si se utiliza la ley de Newton modificada, y el principio de acción y reacción, es posible deducir que la masa del objeto final es M = 2m / 1 −
v2
. La masa del objeto c2 final es mayor cuanto mayor es la velocidad antes del choque. Si la velocidad es pequeña respecto de la velocidad de la luz, la diferencia entre M y 2m será absolutamente inobservable. Por ejemplo, para objetos que se acerquen a 1000 km/h, la diferencia sería aproximadamente de una parte en1012 . Sin embargo, si la velocidad fuese 0,75 c, la masa del objeto compuesto sería aproximadamente 3m.
m
m V
V M es mayor que 2m
Fig. 16: Dos objetos idénticos que se mueven con igual rapidez chocan y se quedan pegados. La masa del objeto compuesto es mayor que la suma de las masas de sus componentes.
Cuantitativamente, la energía de movimiento de los objetos antes del choque se convierte en masa en el objeto resultante. Si llamamos ∆m al aumento en la inercia y ε a la energía debida al movimiento inicial de los objetos, la relación entre ellos es ∆m = ε / c 2 En su trabajo de 1905, Einstein analizó un ejemplo diferente que puede considerarse como la situación inversa de la planteada aquí: si un objeto inicialmente en reposo emite dos pulsos de luz en sentidos opuestos, cada uno con energía ε / 2 , la masa del cuerpo disminuirá una cantidad ε / c 2 . A partir de este resultado conjeturó que cualquier forma de energía puede convertirse en masa y viceversa. Así, si entregamos una energía Q a un objeto para calentarlo, su masa cambiará en ∆m = Q / c 2 . Si tomamos un resorte y lo comprimimos, y para ello tenemos que emplear una cierta energía Q, la masa del resorte aumentará de manera acorde. Según Einstein, “la masa de un cuerpo es una medida de su contenido de energía: si la energía cambia en ε , la masa cambia en el mismo sentido en ε / c 2 ”. De esta manera, el contenido de energía de un cuerpo de masa m en reposo será E = mc 2 .
Reacciones nucleares Si fuésemos capaces de convertir 1 gramo de materia en energía obtendríamos 1014 Joules, es decir, una energía equivalente a la que se obtiene quemando algo más de tres millones de kilogramos de carbón. Éste es el motivo por el cual no observamos cotidianamente la conversión de energía en masa. Hace falta una energía enorme para producir una pequeña diferencia de masa. ¿En qué situaciones entonces será relevante este resultado de Einstein? Principalmente en la física nuclear y la física de partículas elementales. El núcleo de helio está compuesto por dos protones y dos neutrones. Este núcleo es estable, es decir, es necesario entregar energía para separar a los protones y neutrones contenidos en él. En consecuencia, la masa del núcleo debe ser menor que la masa de sus constituyentes. De hecho, el defecto de masa es del 0,7%. Inversamente, si protones y neutrones se combinan para formar un núcleo de helio, dado que la masa del producto es menor que la masa inicial, se debe liberar energía. Ésta es una típica reacción de fusión nuclear. Los procesos de fusión nuclear ocurren por ejemplo en los interiores de las estrellas, y son su fuente de energía. ¡O sea que la vida en la Tierra depende de la conversión de masa en energía que ocurre constantemente en el Sol! La producción de energía en el Sol y otras estrellas similares puede explicarse a través de un ciclo de reacciones cuyo resultado final es la conversión de 4 protones y 2 electrones en un núcleo de helio. Parte de la energía liberada es llevada por dos neutrinos10 generados durante el proceso. El 10
Debido a que interactúan muy poco con la materia, prácticamente todos los neutrinos que son generados en el Sol escapan de él. Los neutrinos solares que llegan a la Tierra pueden ser detectados con instrumentos especiales y aportan valiosa información sobre el interior del Sol y sobre los neutrinos mismos.
resto de la energía se libera en forma de radiación electromagnética, unos 6x1014 Joules por kilogramo de protones consumidos. Para tener una idea de la eficiencia, la combustión de carbón produce una energía por kilogramo que es unas 20 millones de veces menor. También se puede dar la situación inversa a la fusión. Hay núcleos atómicos que son inestables. Eso quiere decir que naturalmente se parten en núcleos más pequeños. Esto puede ocurrir sólo si la masa del núcleo inestable es mayor que la suma de las masas de las partes en que se fisiona. Los productos de la reacción tienen cierta energía de movimiento que proviene de la conversión de parte de la masa inicial (este proceso recuerda al ejemplo considerado por Einstein en su artículo sobre masa y energía de 1905). Una posibilidad es que un núcleo pesado se parta emitiendo un núcleo de helio (denominado en este contexto partícula alfa) y otro núcleo que es su descendiente. A su vez, éste puede continuar desintegrándose hasta llegar a convertirse en un núcleo estable. En estas reacciones hay liberación de energía que proviene de la conversión de masa del núcleo original. Este proceso se denomina desintegración alfa, y fue descubierto accidentalmente hacia fines del siglo XIX por Henri Becquerel y subsecuentemente estudiado por Marie y Pierre Curie. Como ejemplo de este proceso, un núcleo de uranio 238 (que está compuesto por 92 protones y 146 neutrones) se desintegra en una partícula alfa y un núcleo de torio 234 (90 protones y 144 neutrones). La vida media del uranio 238 es de varios miles de millones de años. Otro ejemplo es la desintegración del radio 226, que decae en una partícula alfa y un núcleo de radón 222, con una vida media de 1600 años. Otra posibilidad es que un núcleo pesado se parta en dos núcleos de tamaño intermedio, emitiendo además algunos neutrones. En este caso se dice que hay fisión nuclear. La fisión nuclear fue descubierta en 1939 por Otto Hahn y Fritz Strassmann, bombardeando uranio con neutrones. Cuando un núcleo de uranio 235 (compuesto por 92 protones y 143 neutrones) captura un neutrón, el núcleo se convierte en uranio 236, que es altamente inestable. Rápidamente se desintegra emitiendo dos núcleos de masa intermedia y pocos neutrones (por ejemplo bario 141, criptón 92 y 3 neutrones). Los neutrones emitidos de esta manera son capturados por otros núcleos de uranio 235 y producen a su vez nuevas fisiones. Si la masa inicial de uranio 235 es suficientemente grande (masa crítica) se produce una reacción en cadena y la consecuente liberación de enormes cantidades de energía. Este proceso es utilizado en los reactores nucleares para generar energía eléctrica11. Lamentablemente, también es utilizado en la construcción de armas. Así como la masa de un núcleo atómico difiere de la suma de las masas de sus componentes, lo mismo ocurre con los átomos, compuestos por núcleos y electrones. Sin 11
El uranio natural contiene un 99,3% de uranio 238, que no es apto para la fisión, y un 0,7% de uranio 235. Para ser utilizado como combustible en la mayor parte de los reactores nucleares, el uranio debe ser “enriquecido”, de manera que contenga una fracción de uranio 235 mayor que la presente en el uranio natural. También existen reactores que funcionan con uranio natural, como las centrales nucleares instaladas en la Argentina.
embargo, la diferencia en el caso de los átomos es en general mucho menor que en el caso de los núcleos. Por ejemplo, la masa del átomo de hidrógeno es inferior a la suma de las masas de un protón y un electrón solamente por un 0,000001%. ¡Por este motivo, en general los físicos estamos más interesados que los químicos en los efectos relativistas! Ésta es también la causa por la cual la liberación de energía en procesos nucleares es alrededor de un millón de veces más grande que en procesos químicos.
Antimateria En los procesos nucleares la variación de masa que se produce es una pequeña fracción de la masa inicial. ¿Ocurrirán procesos en los cuales haya conversión total de masa en energía o viceversa? La respuesta a esta pregunta surgió por casualidad. A principios de siglo XX, ocurrieron en la física dos grandes revoluciones. La primera, relacionada con el dominio de las grandes velocidades y las grandes distancias, es la que nos ocupa en este libro. La segunda está relacionada con los fenómenos microscópicos. La física newtoniana tampoco es aplicable a distancias muy chicas, necesita profundas modificaciones para poder describir átomos y moléculas. Luego de varios años de esfuerzos, en la década de 1920 Erwin Schrödinger y Werner Heisenberg formularon la llamada mecánica cuántica. Uno de los principales aspectos de esta teoría es que se debe abandonar el determinismo clásico. Es incluso imposible hablar de las trayectorias de los electrones en los átomos, y sólo debemos contentarnos con predecir la probabilidad de encontrar a los electrones aquí o allá. La teoría de Schrödinger y Heisenberg es no relativista, es decir, supone velocidades mucho menores que la de la luz. En 1930 el físico inglés Paul Dirac trataba de hacer compatible a la mecánica cuántica con la teoría de la relatividad especial. En sus esfuerzos por lograrlo, llegó a una asombrosa conclusión: la teoría es matemáticamente consistente sólo si se admite que hay cierta probabilidad de que las partículas se creen y se destruyan. Por cada partícula debe existir una antipartícula cuya principal característica es su capacidad de aniquilarse con la correspondiente partícula, convirtiendo toda la masa inicial en energía (este hecho es el que motiva el nombre de antimateria). Por ejemplo debe existir una partícula similar al electrón, con su misma masa, pero con carga eléctrica de signo opuesto. Es llamativo cómo la revolución de las grandes velocidades se combina con la de las distancias pequeñas para producir semejante predicción. Dos años después Carl Anderson confirmó la existencia de la antipartícula del electrón, que llamó positrón. Anderson utilizó un instrumento llamado cámara de niebla, en el cual las partículas cargadas dejan trazas al atravesarlo. Analizando las trazas de partículas originadas por rayos cósmicos, Anderson descubrió que al acercar imanes algunas trayectorias estaban curvadas como correspondía a los electrones, y otras como correspondía a partículas con igual masa pero carga opuesta. Normalmente no hay antipartículas en nuestro entorno, ya que si una partícula y su antipartícula se encuentran se aniquilan mutuamente, produciendo fotones que se llevan
tanto la energía de movimiento como la energía equivalente a la masa de la partícula y la antipartícula originales. Pero se producen antipartículas en el decaimiento de algunos elementos radiactivos, y se pueden producir antipartículas artificialmente, por ejemplo haciendo chocar entre sí partículas con muy altas energías, obtenidas mediante aceleradores. Entre los productos de esas colisiones se obtienen antipartículas, que se pueden detectar en el breve intervalo que sobreviven antes de aniquilarse contra una partícula. El positrón descubierto por Anderson era el producto de una colisión de un rayo cósmico contra otras partículas en nuestra atmósfera. En este caso los rayos cósmicos son el efecto de aceleradores naturales, entornos astrofísicos capaces de imprimir altas energías a las partículas. Hemos mencionado anteriormente que como consecuencia de los rayos cósmicos también se producen pares de neutrinos y antineutrinos. Mediante aceleradores artificiales se logró descubrir el antiprotón en la década de 1950, y en 1995 se logró formar por primera vez un anti-átomo de hidrógeno, es decir un átomo formado por un antiprotón y un positrón. Un ejemplo de uso práctico de la antimateria es la tomografía por emisión de positrones, en la cual mediante la inyección de material radiactivo se logra la emisión de positrones en la región que se desea estudiar, que se analiza por los rayos gamma emitidos cuando esos positrones inmediatamente se aniquilan al encontrar electrones. Todo indica que casi no hay antimateria, no sólo en nuestro entorno sino en todo el Universo conocido, excepto la que se produce temporariamente mediante colisiones. Se llega a esa conclusión porque en los rayos cósmicos, que llegan de otros rincones del Universo, las antipartículas son muy pocas, las que se espera que haya temporariamente como producto de decaimientos radiactivos o colisiones entre partículas. Por otro lado, si hubiera mucha antimateria, por ejemplo si existieran galaxias formadas por antipartículas, deberíamos recibir gigantescas emisiones de rayos gamma producidos cuando las partículas de una galaxia se aniquilan con las antipartículas de la otra. La razón por la cual casi no hay antimateria a nuestro alrededor es aún enigmática. Las teorías modernas especulan que en los primeros instantes de expansión del Universo existían casi tantas partículas como antipartículas, pero que su aniquilación produjo fotones y dejó sólo el exceso de partículas inicial, cuyo origen es aún un enigma que se intenta develar en la actualidad.
electrón
positrón
fotón fotón
Fig. 17: Cuando chocan un electrón y un positrón, la masa de ambos (y su energía de movimiento inicial) se transforma en energía electromagnética.
Capítulo 6: Espacio-tiempo curvo Hemos descripto abrumadoras evidencias de que ni el espacio ni el tiempo son absolutos. Eventos simultáneos para un observador no lo son para otros observadores, la longitud de un objeto depende de la velocidad de éste respecto del observador, los intervalos temporales dependen del estado de movimiento, etc. Pero eso no es todo: la masa y la energía curvan el espacio-tiempo, es decir modifican sus propiedades geométricas. El espacio-tiempo no sólo no es absoluto, sino que tampoco es inmutable. Einstein recorrió un largo camino para llegar a esta conclusión, desde que tuvo la “idea más feliz” de su vida en noviembre de 1907 (principio de equivalencia) hasta que presentara su Teoría General de la Relatividad, en noviembre de 1915 en la Academia de Ciencias de Prusia. Ya hemos visto un primer indicio de este hecho en el capítulo 4, cuando discutimos la influencia del campo gravitatorio sobre el paso del tiempo.
Líneas rectas y geodésicas Uno de los puntos claves es la validez local del principio de equivalencia. Tal como comentamos en el capítulo 3, en un sistema en caída libre hay efectos debidos a la gravitación. Dado que la acción de la gravedad no es la misma en todos los puntos del espacio, dos objetos que caen libremente dentro de nuestro laboratorio irán cambiando su posición relativa, aunque su velocidad inicial sea la misma. Si los objetos no están muy separados, y si los observamos durante un intervalo corto de tiempo, su posición relativa se mantendrá aproximadamente invariable. Sin embargo, si esperamos suficiente tiempo, podremos distinguir claramente entre estricta ausencia y presencia de gravedad. Veamos un ejemplo: supongamos que dejamos caer dos objetos desde distintas alturas en las cercanías de la Tierra. Los dos adquieren aproximadamente la misma aceleración, y en consecuencia la distancia entre ellos se mantendrá aproximadamente constante. ¿Qué ocurrirá si los objetos son lanzados desde distancias mucho mayores que el radio terrestre, y muy diferentes entre sí? (ver figura 18). El objeto más cercano a la Tierra adquirirá una aceleración mayor, y se alejará del otro objeto. Un observador en caída libre junto al objeto que está a mayor altura verá que el otro se aleja de él. En ausencia de gravedad la distancia entre ellos se mantendría constante. Por los mismos motivos, un astronauta cayendo libremente hacia un planeta o estrella sentirá fuerzas de compresión lateral y estiramiento vertical. Estas fuerzas de marea (así llamadas porque son similares a las que provocan las mareas en la Tierra por el efecto análogo que provoca la Luna sobre el nivel de las aguas) pueden ser mínimas al caer hacia la Tierra o el Sol, pero serían fatales en las cercanías de una estrella de neutrones o de un agujero negro de masa estelar (ver capítulo 8).
l1
l
2
Fig. 18: Dos objetos se sueltan desde diferentes alturas. El más cercano a la Tierra adquiere una aceleración mayor, y en consecuencia la distancia entre objetos aumenta con el tiempo.
12
Una leyenda bidimensional
Desde la antigüedad, los habitantes del universo bidimensional, conocido en ese entonces como Planolandia, habían demostrado una inusual habilidad para la construcción. Los bi-kingos, antiguos habitantes del norte, habían marcado numerosas rutas para transportar materiales por los caminos más cortos posibles. La red de caminos se extendía por kilómetros y kilómetros. Su manera de marcar las rutas era muy peculiar. Luego de establecer la dirección que debía tener la ruta, determinaban muy precisamente el paralelismo inicial de ambos bordes. A partir de ese momento, dos equipos trabajaban independientemente en la construcción de cada borde. Cada grupo se limitaba a transportar paralelamente el segmento inicial, que había sido previamente alineado con el otro. Transportando paralelamente se aseguraban que el camino sería el más corto posible en la dirección establecida. Para marcar el borde, colocaban boyas que luego unían con varas metálicas. Aún hoy se desconoce el método que utilizaban para fijar las boyas y mantener el paralelismo. Llegaron a lograr una exactitud de uno en diez mil (esta precisión llevó a algunos historiadores a conjeturar que los bi-kingos habrían recibido ayuda de otras civilizaciones más avanzadas, y aún desconocidas). Su orgullo les impedía verificar su trabajo con el del grupo opuesto a lo largo de la construcción de la ruta. Con el tiempo, descubrieron que a pesar de sus esfuerzos para mantener cada borde paralelo a sí mismo, el ancho de todos los caminos iba disminuyendo levemente, haciéndose más angostos desde el punto donde se iniciaba la construcción hasta el punto donde terminaba. En sus caminos, el paralelismo inicial se iba perdiendo. Nunca entendieron por qué. La civilización no sobrevivió lo suficiente… Mucho más al este, en otro continente, una civilización diferente construía imponentes tumbas para sus gobernantes. Gigantescos triángulos que contenían innumerables pasadizos y laberintos para hacer casi 12
Esta ficción está originada en una idea de Clifford M. Will, en el libro “Was Einstein right?”
imposible llegar hasta los momificados restos de sus reyes. Estas construcciones tenían una propiedad que se consideraba sagrada: la suma de sus ángulos internos era mayor a 180 grados, a pesar de que en las construcciones triangulares más pequeñas, utilizadas como casas, siempre se había verificado que la suma era 180 grados. De tanto en tanto, los sacerdotes bi-gipcios volvían a medir los ángulos de las bi-rámides triangulares. Si por algún motivo la suma disminuía y se acercaba peligrosamente a los 180 grados, sería necesario mudar inmediatamente el cuerpo del rey. Sin embargo, eso nunca ocurrió… Siglos después, los habitantes de Planolandia desarrollaron el método científico. Trataron de explicar los fenómenos descriptos por los bi-kingos y los bi-gipcios. Un joven talentoso, Bi-Lileo-Bi-Lilei, construyó y midió caminos y bi-rámides con más precisión que la de sus antecesores. Encontró una propiedad notable: los caminos se angostaban independientemente del material con que se construyesen sus bordes. Una propiedad similar se aplicaba a las bi-rámides. La suma de los ángulos internos dependía del tamaño, pero no del material con que estaban construidas. La dependencia con el tamaño explicaba la propiedad sagrada. La misma no era tal, y no se debía ni a la presencia de pasadizos ni a deseos de los dioses. Simplemente, en las construcciones más grandes el efecto era más importante que en los triángulos pequeños que se utilizaban como casas. Afortunadamente para los sacerdotes bi-gipcios, la civilización ya había desaparecido cuando estas propiedades fueron descubiertas (a pesar de ello, durante su vejez, BiLileo tuvo que afrontar duras críticas y censura por parte de los sacerdotes de su época, pero esa historia no es relevante aquí.). Años después, otro científico brillante, Bi-saac Newton, tuvo una idea que permitía explicar unificadamente el problema de las rutas y el problema de las bi-rámides. Una leve fuerza entre los distintos materiales producía estos efectos. La fuerza no dependía del material, aunque sí de la distancia entre los mismos. Con esta misma ley, fue capaz de explicar otros fenómenos naturales, como la famosa Primera Ley de Bi-pler, que establecía que el cociente entre el perímetro y el diámetro de las órbitas de ciertos astros era menor a 3,14159, y podía disminuir casi hasta 2 para órbitas muy grandes. Los avances científicos y tecnológicos se sucedieron rápidamente. Sin embargo, pasaron varios siglos hasta que se supo la verdad. Hubo que esperar que un científico desprejuiciado pusiera en tela de juicio el carácter plano de la superficie donde vivían los seres bidimensionales. Alberto Bi-nstein, siendo muy joven y mostrando una audacia e intuición increíbles escribió: “Estimado Bi-saac, sé que hiciste lo mejor que podía hacerse en tu época. ¡Pero basta! ¡Todos los fenómenos de los que hablaste pueden explicarse suponiendo que vivimos, no sobre un plano, sino sobre una superficie esférica!” Bi-nstein fue mucho más allá y logró vincular el carácter esférico del universo con el contenido de materia en el mismo. Si la densidad de materia fuese mucho menor, explicaba, los fenómenos de los bi-kingos y los bi-gipcios serían mucho menos apreciables. Los años posteriores mostraron que Bi-nstein tenía razón. A partir de ese momento, los seres bidimensionales denominaron a su universo Esferolandia. Aún hoy, científicos bidimensionales tratan de comprobar una y otra vez y cada vez con mayor exactitud la teoría de Bi-nstein, que hasta el momento ha sorteado satisfactoriamente todos los tests experimentales. Sin embargo, y aunque ellos no lo saben, su universo no es exactamente esférico. Probablemente lleguen a esta conclusión dentro de algunos siglos, cuando puedan medir distancias y ángulos con una precisión de uno en diez mil millones. Si la civilización no se autodestruye antes, como ocurrió con otros seres tridimensionales de la Vía Láctea.
Dado que los efectos gravitacionales son independientes de la masa, es plausible (¡aunque ciertamente arriesgado!) suponer que son debidos a propiedades del espaciotiempo. Para entender esta idea, consideremos una analogía. En el capítulo 1 discutimos la modificación de la relación P=π.D entre el perímetro y el diámetro de un círculo sobre la superficie de una esfera. Vamos a considerar ahora otra relación geométrica, aún más básica. En un plano, dos rectas paralelas no se intersecan nunca, y la distancia entre ellas
se mantiene constante. El análogo de una línea recta sobre una superficie esférica es un meridiano, ya que la mínima distancia entre dos puntos cualesquiera sobre la esfera está sobre el círculo máximo que los une13. Además, si consideramos una esfera de radio muy grande, y nos restringimos a una pequeña superficie de la misma, esa pequeña superficie se asemeja a una porción de plano, y los meridianos que pasan por ella a porciones de líneas rectas. Las curvas análogas a las líneas rectas sobre superficies que no son planas reciben el nombre de geodésicas. Podemos entonces plantearnos la siguiente pregunta: ¿se intersecan dos geodésicas inicialmente paralelas? La figura 19 muestra claramente que éste es el caso. Imaginemos una pequeña superficie que abarque parte del ecuador de una esfera. Dos meridianos contiguos son paralelos (la pequeña superficie es prácticamente una porción de plano, y en ese plano las porciones de los dos meridianos son paralelas). Si nos desplazamos a lo largo de estas dos geodésicas, vemos que la distancia entre ellas se va reduciendo, hasta que finalmente las geodésicas paralelas se cruzan en el polo norte de la esfera.
(a)
(b)
Fig. 19: (a) Dos meridianos inicialmente paralelos se cruzan en el polo norte de la esfera. (b) La suma de los ángulos internos de un triángulo dibujado sobre una superficie esférica es mayor a 180 grados.
Podemos concluir lo siguiente. Si nos restringimos a considerar fracciones de superficie sobre la esfera, cuanto menor es la superficie más se parece a una fracción de plano. Localmente, una pequeña porción de plano y una pequeña porción de superficie esférica son casi equivalentes. Sin embargo, si consideramos fracciones de superficie mayores, las diferencias son apreciables. Las geodésicas inicialmente paralelas se cruzan, el cociente entre el perímetro y el diámetro de una circunferencia es diferente de π, la suma de los ángulos interiores de un triángulo formado por geodésicas es mayor que 180º, etc. Si fuésemos seres bidimensionales viviendo sobre la esfera, podríamos construir con cierto material porciones de geodésicas. Veríamos, probablemente sorprendidos, que las geodésicas tienden a juntarse (ver recuadro). Podríamos postular entonces la existencia de una fuerza que produce este acercamiento o atracción. Estudiaríamos si esa atracción depende o no de los materiales con que construimos las porciones de geodésicas. Y 13
Por supuesto hay dos maneras de conectar dos puntos que se encuentran sobre un determinado meridiano. La distancia mínima corresponde obviamente a una de ellas.
concluiríamos que no. Podríamos vivir tranquilos por siglos con esta explicación, hasta que alguien sugiriese que, en realidad, tal fuerza no existe. Es producto de que no vivimos sobre un plano sino que vivimos sobre una esfera. Einstein utilizó este tipo de analogías para describir la acción de la gravedad, más allá del principio de equivalencia. Supuso que los objetos masivos como la Tierra o el Sol curvan el espacio-tiempo. Supuso además que las partículas en caída libre siguen las geodésicas del espacio-tiempo curvado. En ausencia de gravedad, las geodésicas son líneas rectas. Dos objetos que se muevan libremente con velocidad paralela nunca se cruzarán. Sin embargo, en presencia de masa o energía que curve el espacio-tiempo, las geodésicas serán más complicadas. A pesar de que localmente son esencialmente líneas rectas, si seguimos el recorrido de dos geodésicas inicialmente paralelas veremos que la distancia entre ellas cambia con el tiempo. Con esta idea podemos explicar cualitativamente lo que pasa con los dos objetos que caen libremente hacia la Tierra (ver figura 20). El espacio-tiempo está curvado por la presencia de la Tierra, y ambos objetos se mueven a lo largo de geodésicas en dicho espacio-tiempo. Estas geodésicas, a pesar de ser inicialmente paralelas, se van juntando, como en el ejemplo de los meridianos de la esfera.
(a)
(b)
Fig. 20: (a) En ausencia de gravedad, dos objetos que inicialmente tienen la misma velocidad recorren rectas paralelas. La distancia entre rectas se mantiene constante. (b) La Tierra curva el espacio-tiempo a su alrededor. Por ese motivo, aunque la velocidad de los dos objetos sea inicialmente la misma, la distancia entre ellos disminuye con el tiempo.
¿Cómo podríamos comprobar que el espacio-tiempo alrededor del Sol está curvado? De la misma manera que en nuestro ejemplo del capítulo 1, podríamos ver que un círculo de radio R centrado en el Sol tiene un perímetro algo diferente a 2πR, y que esa diferencia se
acentúa cuánto más cerca del Sol estamos. Por supuesto que esto es algo muy difícil de hacer experimentalmente. Otra posibilidad sería estudiar la trayectoria de los planetas alrededor del Sol, y determinar si en sus trayectorias hay algún indicio de la curvatura espacio temporal.
La materia curva el espacio-tiempo Las ecuaciones que dicen cómo se curva el espacio-tiempo de acuerdo con el contenido de materia y energía del Universo se denominan, obviamente, ecuaciones de Einstein. Dada su complejidad, nuevamente nos vamos a manejar con analogías bidimensionales. Supongamos que, sobre una superficie de goma mantenida bien estirada desde sus bordes, colocamos una serie de objetos de distinta masa. Cada zona de la superficie se deformará de manera diferente, dependiendo de la masa del objeto que se encuentra encima. En cada punto de la superficie deformada, podemos describir la curvatura de la siguiente manera: dadas dos geodésicas que pasan cerca del punto, inicialmente paralelas, vemos si tienden a juntarse o separarse. Si tienden a juntarse decimos que la curvatura es positiva. La distribución de masas sobre la superficie nos dará información acerca de esta curvatura. Es importante notar, sin embargo, que la superficie de goma puede estar curvada en determinado punto, sin necesidad de que haya masas en ese lugar. La situación se ilustra en la figura 21. La deformación se extiende más allá de la zona donde hay masa. Además, si producimos deformaciones dependientes del tiempo en una zona, éstas pueden propagarse a lo largo del resto de la superficie.
(a)
(b) Fig. 21: (a) Si apoyamos un objeto sobre una superficie elástica, ésta se curva alrededor del objeto. La curvatura se extiende más allá de la porción ocupada por el objeto. (b) Si el objeto se desplaza, la deformación se propaga a lo largo de la superficie.
Volvamos ahora al espacio-tiempo. Las ecuaciones de Einstein relacionan la densidad de materia y energía en una región del espacio-tiempo con su curvatura en esa región, de manera análoga al caso de la superficie de goma. De acuerdo con las ecuaciones de Einstein, si trazamos una circunferencia de radio R rodeando un planeta o una estrella esféricamente simétrica de masa M, su perímetro será ligeramente menor que 2πR. El efecto es pequeño si la gravitación no es muy intensa. Por ejemplo el perímetro de una circunferencia alrededor de la superficie de la Tierra es menor por dos partes en diez mil millones de lo que sería en ausencia de curvatura. Continuando con la semejanza, no es necesario que en un determinado punto del espaciotiempo haya masa o energía para que esté curvado. Más aún, las deformaciones del espacio-tiempo pueden viajar de un punto a otro (estas deformaciones se denominan ondas gravitacionales, y serán analizadas en el capítulo 9).
La trayectoria de Mercurio: primer gran éxito de la teoría De acuerdo con nuestra nueva manera de ver la acción de la gravedad, para estudiar la trayectoria de un planeta alrededor del Sol, en lugar de utilizar la ley de gravitación universal se deben hacer dos cosas. En primer lugar calcular la curvatura del espaciotiempo en presencia del Sol. En segundo lugar, estudiar las geodésicas en ese espaciotiempo. Dado que la física newtoniana describe con bastante precisión la trayectoria de los planetas, si existen efectos relativistas en el sistema solar, éstos deben ser pequeños. Para observarlos, el candidato natural es Mercurio, ya que siendo el planeta más cercano al Sol, es el que está más intensamente sometido a la acción de la gravedad. Tal como señalamos en el capítulo 1, desde el siglo XVII se sabía que las trayectorias de los planetas son aproximadamente elípticas, con el Sol en uno de sus focos (primera ley de Kepler). Durante el siglo XIX, observaciones más precisas determinaron desviaciones de las trayectorias respecto de elipses perfectas. En particular, para el caso de Mercurio, se había observado que su movimiento puede describirse como transcurriendo a lo largo de una elipse cuyo eje mayor va rotando lentamente (el valor medido actualmente para esa rotación es de aproximadamente 574 segundos de arco por siglo14). Luego de un año mercuriano, el planeta no regresa exactamente al mismo punto (ver figura 22). Este fenómeno se denomina desplazamiento del perihelio de Mercurio, pues el perihelio (punto de máximo acercamiento al Sol) se va corriendo un poco en cada revolución. Por supuesto, los primeros intentos de los físicos y astrónomos para explicar esta discrepancia con la teoría newtoniana se orientaron a adjudicarla a los efectos que el resto de los planetas ejercen sobre Mercurio. De hecho, Venus produce un avance del perihelio de Mercurio de 277 segundos de arco, la Tierra 90, Júpiter 153, y el resto de los planetas 11 14
Un segundo de arco es 1/60 de minuto de arco, que a la vez es 1/60 de grado. Es decir que un segundo de arco es una fracción 1/3.600 de un grado.
segundos de arco. Sin embargo, hay una pequeña discrepancia de aproximadamente 43 segundos de arco por siglo15, que no puede explicarse a partir de estos efectos. Cuando Einstein presentó públicamente su Teoría General de la Relatividad, en noviembre de 1915, incluyó en su presentación el cálculo de la trayectoria de Mercurio utilizando la nueva teoría. Sus resultados mostraban inequívocamente que los 43 segundos de arco faltantes se debían a la curvatura del espacio-tiempo. Desde la formulación del principio de equivalencia, unos ocho años antes, había tratado de encontrar una explicación para esta discrepancia, pero tuvo que suponer que el contenido de materia y energía curva el espacio-tiempo para hallar finalmente la respuesta. La curvatura del espacio-tiempo alrededor del Sol es muy pequeña, y fue calculada por Einstein en forma aproximada para estudiar la trayectoria de Mercurio. Unos meses después, el astrofísico alemán Karl Schwarzschild calculó la curvatura del espaciotiempo alrededor de una estrella esférica y no rotante de masa arbitraria. Esta curvatura es la que se utiliza para estudiar la física alrededor de objetos mucho más compactos que el Sol, como estrellas de neutrones y agujeros negros (capítulo 8). Los efectos relativistas son mucho más marcados en otros sistemas astrofísicos denominados estrellas binarias, en los que una estrella gira alrededor de otra. Por ejemplo, en el sistema catalogado como PSR J0737-3039, ¡el período orbital es menor a tres horas, y el punto de máximo acercamiento entre las estrellas avanza 17 grados por año!
S S
(a)
(b)
Fig. 22: (a) Si Mercurio fuese el único planeta orbitando alrededor del sol, de acuerdo con la física newtoniana recorrería una órbita elíptica. El punto de máximo acercamiento sería siempre el mismo. (b) Debido a efectos relativistas, el punto de máximo acercamiento se va desplazando lentamente. El eje de la elipse rota 1 grado cada 83,5 siglos.
¿Es la Relatividad General la única alternativa? La Relatividad General tiene dos ingredientes fundamentales. Por un lado, el principio de equivalencia, y por otro lado las ecuaciones de Einstein, que permiten calcular la curvatura del espacio-tiempo una vez conocido el contenido de materia y energía. Siguiendo el razonamiento que venimos exponiendo a lo largo de este libro, es plausible 15
El valor de la discrepancia es (43,11±0,21) segundos de arco por siglo.
imaginar que en algún momento se realicen experimentos que muestren que en realidad ésta es, una vez más, una aproximación a la realidad. Desde que se formulara la Relatividad General, ha habido numerosas sugerencias de teorías alternativas. En la mayoría de ellas se supone que el espacio-tiempo es curvo y se acepta alguna versión más o menos fuerte del principio de equivalencia. Sin embargo, las propuestas para ecuaciones análogas a las de Einstein son muy diversas. Se está realizando en la actualidad un experimento que proveerá uno de los tests más precisos de las ecuaciones de Einstein y de la Relatividad General. El satélite denominado GP-B (Gravity Probe – B) está orbitando alrededor de la Tierra a unos 600 km de altura. Utilizando un sistema de giróscopos, aportará datos muy precisos sobre cómo está curvado el espacio-tiempo alrededor de la Tierra. El experimento es tan preciso que se espera que logre ver, por primera vez, los efectos de la rotación de la Tierra sobre la curvatura del espacio. Los efectos de la rotación sobre la curvatura del espacio-tiempo fueron calculados por primera vez por el matemático neozelandés Roy Kerr en 1964.
Capítulo 7: Espejismos astronómicos La luz pesa. Así como cae una manzana, también un rayo de luz cae por efecto de la gravitación. Sólo que el efecto en la luz es mucho menos perceptible que en el caso de la manzana, entre otras cosas porque la velocidad de la luz es muy grande. El efecto del peso de la luz es notorio cuando ésta pasa cerca de un objeto muy masivo, como el Sol, y su caída se manifiesta como una desviación en su trayectoria, como le sucede por ejemplo a un cometa. La magnitud de este efecto fue predicha por Einstein en 1916 y confirmada tres años más tarde mediante observaciones durante un eclipse de Sol. La gravitación actúa como si fuera una lente, capaz de desviar rayos de luz, generando espejismos, tales como hacer que una estrella aparezca en una posición del cielo diferente a la que realmente ocupa, o haciéndonos ver doble, fenómeno que se designa por el nombre de lente gravitacional, y que es el tema de este capítulo.
Desviación de la luz que pasa cerca del Sol La posibilidad de que la luz se desvíe de una trayectoria recta por la atracción gravitacional de un objeto muy masivo fue objeto de especulación teórica desde hace al menos tres siglos. “¿Actúan los cuerpos a distancia sobre la luz, y por su acción desvían sus rayos; y es esta acción más intensa cuanto menor es la distancia?”, se preguntaba Isaac Newton en su Tratado de óptica de 1704. El científico británico Henry Cavendish en 1784 y el astrónomo alemán Johann von Soldner en 1804 calcularon el ángulo de la desviación que provocaría el Sol sobre un rayo de luz que pasara muy cercano a su borde, si la luz se rigiera por las leyes de Newton, y cayera igual que cualquier otro objeto por efecto de la gravitación. De hecho, la aceleración que adquiere todo objeto al caer es la misma, cuando los efectos de la fricción son despreciables. Por lo tanto, la desviación que provoca la atracción gravitacional del Sol en la trayectoria de un objeto sólo depende de la velocidad a la que éste se mueve, y de cuán cerca pasa del centro del Sol.
Posición aparente
Posición real
δ (desviación)
SOL Observador
Fig. 23: Desviación de la luz al pasar cerca del Sol debida a su atracción gravitacional.
El resultado obtenido por Cavendish y Von Soldner (ver recuadro) es que la desviación provocada por el Sol sobre la trayectoria de un rayo de luz forma un ángulo muy pequeño, de apenas 0,85 segundos de arco, algo muy difícil de medir en el siglo XVIII o principios del XIX (recordemos que un segundo de arco es una fracción 1/3600 de un ángulo de un grado). Cálculo de la desviación de un rayo de luz Imaginemos un objeto que se mueve a velocidad V que, si no fuera atraído por el Sol, seguiría una trayectoria rectilínea, a velocidad constante, pasando a una distancia R del centro del Sol en el momento en que su trayectoria más se aproxima a éste. El efecto de la atracción gravitacional del Sol es el de provocar una caída del objeto hacia su centro, que ocurre mientras el objeto sigue moviéndose con velocidad cercana a V. De acuerdo con las leyes de Newton, en el momento en que el objeto está a una distancia R, está cayendo hacia el centro del Sol con una aceleración a = GM/R2, donde M es la masa del Sol. Es posible, mediante el cálculo integral, determinar la distancia que el objeto cae desde que empieza a aproximarse al Sol hasta que ya se ha alejado lo suficiente como para que la atracción gravitacional sea muy débil. Conociendo la distancia que el objeto hubiese recorrido en línea recta y la distancia que ha caído por la atracción del Sol se puede calcular el ángulo por el cuál su trayectoria se ha desviado (ver figura 23). El resultado es δ = 2GM/V2R. Este cálculo es en realidad aproximado, y la aproximación sólo es buena si la desviación es relativamente pequeña. Cuanto más cerca pasa el objeto del Sol mayor es la desviación, puesto que la atracción gravitacional es más intensa a menor distancia. Cuanto mayor es la velocidad V con que se mueve el objeto menor es la desviación que sufre su trayectoria, porque la atracción gravitacional del Sol ha tenido menos tiempo para actuar sobre el objeto. Si la luz fuera atraída gravitacionalmente del mismo modo que cualquier otro objeto, podríamos estimar su desviación al pasar cerca del Sol reemplazando V por la velocidad de la luz (299.792 km/s) en la expresión para δ. La masa del Sol es Msol = 1,99x1030 kg. La máxima desviación posible ocurre para un rayo de luz que pasa rasante por el borde del Sol, cuyo radio es Rsol = 6,96x108 m. La constante de gravitación universal es G = 6,67x10–11 m3/kg s2. Con estos valores (y luego de transformar el resultado de radianes a grados) la desviación de la trayectoria resulta ser 0,85 segundos de arco. El resultado obtenido para este cálculo mediante la Teoría de la Relatividad General, que incluye todos los efectos de la curvatura del espacio-tiempo, es exactamente el doble, es decir 1,7 segundos de arco.
En 1907 Einstein ya había formulado la teoría de la Relatividad Especial, y desarrollaba una teoría relativista de la gravitación. Fue en ese momento que, como vimos en el capítulo 3, tuvo “la idea más feliz de su vida”: el principio de equivalencia. Desconocedor de las especulaciones de más de un siglo antes acerca de la desviación de la luz al pasar cerca del Sol, llegó en 1911 a la misma conclusión que Cavendish y Von Soldner a partir de la equivalencia entre un sistema de referencia inercial en ausencia de gravedad y otro en caída libre en presencia de gravitación. Si en un sistema en caída libre cerca de la superficie del Sol la luz sigue una trayectoria recta (como lo haría en un sistema inercial en ausencia de gravedad), desde un sistema fijo a su superficie la trayectoria de la luz está curvada. Desde ya que el efecto es muy pequeño. Einstein estimó en 1911 que si la luz de una estrella pasara cerca del borde del Sol debería desviarse 0,85 segundos de arco, y que el efecto podría observarse durante un eclipse. Un astrónomo del Observatorio Real de Munich, Erwin Freundlich, organizó una expedición para medir el efecto durante un eclipse de Sol que iba a poder observarse desde Crimea. El eclipse era necesario para poder fotografiar una estrella cuya luz pasara lo más cerca posible del Sol, acentuando así el efecto al máximo. Comparando la placa fotográfica tomada durante el eclipse con otra similar tomada cuando esa estrella es visible de noche,
sin que el Sol se interponga en el camino, se podría determinar si la posición aparente de esa estrella, relativa a otras más alejadas del Sol, se ha modificado debido a una desviación en su trayectoria (ver figura 24). A los pocos días de llegar Freundlich a Crimea comenzó la primera guerra mundial, y el astrónomo fue arrestado sin poder llevar a cabo sus observaciones.
Sol eclipsado
De noche, seis meses después
Fig. 24: Posición aparente de estrellas observadas durante un eclipse de Sol (izquierda) y observadas en otra época del año (derecha), cuando son visibles de noche. Cuando el Sol estuvo interpuesto, la luz de la estrella más cercana se desvió considerablemente. Por eso se la observa en una posición diferente, relativa a las otras estrellas.
En 1915 Einstein completó su teoría relativista de la gravitación, la Relatividad General, con la cual corrigió su resultado de 1911 y predijo que la desviación sufrida por un rayo de luz debería ser en realidad el doble que la que había calculado con anterioridad. El valor predicho por Einstein en 1915 es diferente al que estimó mediante el principio de equivalencia. Esto se debe a que el efecto de la gravitación depende de la distancia, y el principio de equivalencia sólo vale para calcular efectos locales. El cálculo relativista debe tener en cuenta todos los efectos de curvatura del espacio-tiempo alrededor del Sol. Para ir de un punto a otro, la luz sigue necesariamente la trayectoria que emplea menos tiempo, dado que nada puede viajar más rápido. Sin embargo, la trayectoria más rápida no coincide con la trayectoria más corta de un punto a otro en el espacio curvado alrededor del Sol. Esto se debe a que el tiempo transcurre a diferente ritmo a distintas distancias, ya que como discutimos en el capítulo 4 la gravitación afecta el paso del tiempo. Al calcular la desviación que sufre un rayo de luz al pasar cerca del Sol incluyendo ambos efectos, se obtiene un resultado que es exactamente el doble del que resulta usando solamente las leyes de Newton. La predicción de Einstein fue brillantemente confirmada mediante observaciones realizadas tres años después por Arthur Eddington, durante un eclipse de Sol en la isla
Príncipe, en el golfo de Guinea en África. Si bien el error de medición en esa primera observación del efecto era grande (casi un 30%), la precisión alcanzaba para verificar que la desviación de la trayectoria era compatible con la predicción de Einstein (1,7 segundos de arco) e incompatible con el resultado que surge de las leyes de Newton (0,85 segundos de arco). En la actualidad, utilizando radiotelescopios (y sin necesidad de esperar a que ocurran eclipses) se logra medir el efecto con una precisión superior a una parte en mil.
Lentes gravitacionales La desviación de la luz por la atracción gravitacional posibilita la existencia de lentes gravitacionales, que pueden producir espejismos tales como múltiples imágenes de una única estrella (ver figura 25). Los espejismos, como los que se observan en un desierto, o en una carretera en días de calor, ocurren cuando el aire está mucho más caliente cerca del suelo que algo por encima del mismo. En ese caso la luz proveniente de un objeto puede llegar casi en línea recta a lo largo del aire más frío, y vemos la imagen habitual de ese objeto. Pero también otros rayos emergentes del objeto, que en condiciones normales no llegarían a nuestros ojos, al encontrar el aire más caliente cerca del piso se desvían, haciéndonos ver una segunda imagen del objeto original, por lo general invertida y algo borrosa o deformada. Éstos son los espejismos atmosféricos. De un modo análogo, si la luz de un objeto celeste lejano viaja en línea recta, tiene una única forma de llegar hasta nosotros, pero si pasa suficientemente cerca de otra estrella interpuesta en la línea de mira, la desviación causada por la atracción gravitacional puede provocar que haya más de un camino para que llegue a la Tierra. Veríamos que la luz llega desde diferentes direcciones, es decir, veríamos múltiples imágenes del mismo objeto, tantas como caminos alternativos existan.
IMAGEN A
OBJETO REAL
M OBSERVADOR
IMAGEN B Fig. 25: La desviación de la luz proveniente de un objeto celeste lejano al pasar cerca de otro objeto muy masivo genera imágenes múltiples, fenómeno denominado lente gravitacional.
En el caso muy particular en que la estrella lejana y la estrella interpuesta en la línea de mira estuvieran perfectamente alineadas con la Tierra, veríamos en realidad todo un anillo de luz.
ANILLO M
DE
θ
EINSTEIN
OBSERVADOR D
D
Fig. 26: Si la fuente de luz es compacta y está alineada con el objeto que provoca la desviación y con el observador, la lente gravitacional produce un anillo de luz, efecto conocido como anillo de Einstein.
Eddington fue uno de los primeros en señalar la posible existencia de imágenes múltiples, que también analizaron Orest Chwolson en 1924 y Einstein en 1936, concluyendo que la separación entre dos imágenes de una estrella sería muy pequeña, imposible de medir. Es decir que un telescopio vería todas las imágenes como un único punto, del mismo modo que los telescopios de principios del siglo XX no tenían suficiente resolución como para reconocer que hay muchísimas estrellas en cada galaxia. Sin embargo, en 1937 el astrónomo Fritz Zwicky señaló que la posibilidad de observar estos espejismos gravitacionales no era en absoluto remota si el objeto causante de la desviación de los rayos de luz fuera, en lugar de una estrella ordinaria como el Sol, una galaxia muy masiva, o un cúmulo de galaxias. Su premonitorio artículo titulado Nebulosas como lentes gravitacionales se adelantó por muchos años a los desarrollos posteriores sobre este fenómeno.
Anillos de Einstein Si en la dirección de observación a un quasar se encuentra interpuesta una galaxia, de manera tal que la Tierra, la galaxia y el quasar están en perfecta alineación, la desviación de la luz del quasar provocada por la galaxia nos hace ver un anillo de luz (ver figura 26). Estos espejismos reciben el nombre de anillos de Einstein, y se han observado ya unos cuantos. No es muy difícil estimar su diámetro. Para simplificar, supongamos que la galaxia está a una distancia D de la Tierra, justo a mitad de camino desde la Tierra al quasar. Si la luz del quasar que llega a la Tierra pasa a una distancia R del centro de la galaxia, se desvía por un ángulo δ = 4GM/c2 R, como vimos en el recuadro anterior. El diámetro del anillo de Einstein a una distancia D del observador es 2R. Pero con un telescopio sólo observamos las proyecciones de los objetos sobre la esfera celeste, no medimos directamente las verdaderas distancias entre ellos. De modo que no medimos directamente el diámetro real del anillo de Einstein, sino su proyección en el cielo, es decir un diámetro angular θ.
Un mismo diámetro se ve bajo un ángulo más pequeño en el cielo cuanto más alejado se encuentra. El diámetro angular del anillo de Einstein es igual al ángulo de desviación de la luz, θ = δ, como puede apreciarse en la figura. Por otra parte, la trigonometría nos dice que la tangente del ángulo es tan (θ/2) = R/D. Además, cuando un ángulo es pequeño, tan θ es aproximadamente igual a θ (expresando el ángulo en radianes, no en grados). Reemplazando R = θ.D/2 en δ = θ = 4GM/c2 R, obtenemos que θ2 = 8GM/c2 D. El valor del diámetro angular del anillo de Einstein es entonces proporcional a la raíz cuadrada de la masa de la galaxia que provoca la desviación de la luz, e inversamente proporcional a la raíz cuadrada de la distancia de la Tierra a la galaxia. Una galaxia puede tener una masa que es aproximadamente 1012 veces la masa del Sol (pues tiene más o menos ese número de estrellas). La distancia a un quasar puede ser de unos diez mil millones de años luz. Con esos valores, el diámetro del anillo de Einstein resulta ser de unos tres segundos de arco aproximadamente. Si bien es pequeño, es algo que perfectamente puede distinguirse con los modernos telescopios de investigación, en particular con el telescopio espacial Hubble por ejemplo. Mucho más difícil sería observar un anillo de Einstein a partir de la luz de una estrella en nuestra propia galaxia, desviada por otra estrella. En ese caso la masa M sería la de una estrella como el Sol, y una distancia típica sería de unos cuantos miles de años luz. El diámetro del anillo de Einstein sería mil veces más chico que en el caso del formado con la luz de un quasar desviada por una galaxia.
Hubo que esperar hasta 1979 para por fin observar por primera vez el fenómeno de espejismo gravitacional, con el descubrimiento del quasar doble 0957+561. Esos números expresan, en la jerga astronómica, las coordenadas del quasar, es decir su ubicación en la esfera celeste. Los quasares son galaxias que emiten luz con una intensidad enorme, lo que permite que podamos observarlos pese a encontrarse a distancias muy alejadas. No solamente los quasares manifiestan el fenómeno de lente gravitacional, pero es justamente porque su elevada intensidad permite observarlos aunque estén muy lejos que se incrementa la probabilidad de que su luz pase cerca de una galaxia muy masiva en su camino hacia la Tierra. Eso es lo que ocurre en el caso de 0957+561: los telescopios detectan dos imágenes de ese único quasar, separadas por un ángulo de seis segundos de arco. Se ha logrado identificar a la galaxia responsable de la desviación de los rayos de luz provenientes del quasar, que se encuentra aproximadamente a ¼ de la distancia de la Tierra al quasar. En realidad no es tarea sencilla asegurar que se han detectado dos imágenes de un mismo quasar. ¿Cómo estar seguros de que no son dos quasares distintos? Para descartar, o al menos minimizar esta posibilidad, los astrónomos hacen un conjunto grande de mediciones. Se determina que la distancia a las dos imágenes sea la misma (dentro del margen definido por los errores de medición que siempre existen), que las características de la luz emitida sean comparables (excepto su intensidad, que el propio efecto de lente gravitacional modifica por la diferente focalización que hace de la luz de cada imagen), y otras pruebas por el estilo. En el caso del quasar doble 0957+561 se agregó en 1990 una prueba más, y muy contundente, de que se trata efectivamente de dos imágenes de un mismo objeto, y no de dos objetos parecidos y próximos. Resulta que la intensidad de la luz emitida por los quasares no es constante con el correr del tiempo, sino que sufre variaciones notorias. Tras un cuidadoso monitoreo de 0957+561 los astrónomos concluyeron que las mismas variaciones de intensidad que se observan en una de las dos imágenes ocurren también en la otra ¡pero con 417 días de diferencia!
Cabe destacar que la distancia al quasar es de aproximadamente diez mil millones de años luz. El año luz es una unidad común en astronomía: es la distancia que recorre la luz en un año. La estrella más cercana al Sol se encuentra a unos cuatro años luz de distancia. El tamaño de nuestra galaxia, la Vía Láctea, es de aproximadamente cien mil años luz. El grupo de galaxias vecinas a la nuestra distan más o menos un millón de años luz. La luz de 0957+561 tarda en cambio diez mil millones de años en llegar a la Tierra desde que sale del quasar. Y si va por el camino más largo demora 417 días más que si va por el más corto. Esta diferencia de tiempo no sorprendió a sus descubridores, que por el contrario perseveraban desde hacía tiempo para medirla, pues la teoría predecía que una diferencia de tiempo de valor similar al observado debía existir. Sólo si el quasar, la galaxia interpuesta en la línea de mira que provoca la desviación y la Tierra estuvieran en perfecta alineación entonces la luz tardaría lo mismo en llegar por diferentes caminos (y en realidad en ese caso no observaríamos imágenes separadas, sino un perfecto anillo de luz centrado en la posición verdadera del quasar). Un valor de aproximadamente un año para la diferencia de tiempo de viaje entre las dos imágenes de 0957+561 era justamente lo esperado, a partir de un cálculo trigonométrico sencillo, sabiendo que el tiempo total de viaje es de diez mil millones de años y que la separación angular entre las imágenes es de seis segundos de arco.
Lentes gravitacionales como herramientas astronómicas Hoy en día se han observado más de 60 quasares que manifiestan el fenómeno de lente gravitacional, en algunos casos presentando varias imágenes, incluso anillos, y para una decena de ellos se han logrado medir diferencias de tiempo de viaje entre imágenes. La medición de propiedades de estos sistemas de lentes gravitacionales se ha convertido en una herramienta extremadamente útil para determinar indirectamente otras cantidades de gran interés astronómico.
Balanzas para estimar la cantidad de materia oscura en las galaxias Una de las utilidades inmediatas del fenómeno de lente gravitacional es que actúa como balanza para determinar la masa de una galaxia. En efecto, bajo la idealización de que la materia en la galaxia que desvía la luz se distribuye en forma esférica, la separación angular que se observa entre las dos imágenes de un quasar depende solamente de la masa de la galaxia, y de la distancia desde la Tierra a la galaxia y al quasar. Si estas distancias se conocen, por mediciones independientes, la observación de las imágenes múltiples permite inferir la masa de la galaxia que provocó el espejismo gravitacional. Por supuesto la realidad no es tan sencilla como esta idealización, y las galaxias no son objetos con perfecta simetría esférica. Pero mediante cuidadosos modelados del sistema de lente gravitacional observado, puede inferirse la masa de la galaxia que provoca la desviación a partir de la medición de las propiedades de las imágenes múltiples. Éste es un resultado de gran importancia, puesto que hay evidencias astronómicas de que en las galaxias hay mucha más materia que aquella contenida en las estrellas que la
componen. El movimiento observado de las estrellas más alejadas del centro de las galaxias no puede explicarse en términos de la atracción gravitacional de las estrellas en el interior, y en cambio sugiere la existencia de abundante materia que no vemos brillar, por lo que se ha acuñado para ella el término materia oscura. La materia oscura podría ser entre 25 y 100 veces más abundante que la materia que está en estrellas, y de la que podemos dar cuenta más fácilmente porque al brillar emiten la luz que nos permite observarlas, contarlas y estimar su masa. Las propiedades de las imágenes múltiples de un quasar, en particular la separación entre ellas, son sensibles a la masa total de la galaxia que provoca la desviación de la luz, sea ésta oscura o brillante, porque la atracción gravitacional que ejerce es la misma sea de uno u otro tipo. El efecto de lente gravitacional sirve también para pesar cúmulos de galaxias, tanto su materia brillante como la oscura, y además analizar cómo está distribuida la materia en el cúmulo. Se han observado muchas galaxias que se encuentran detrás de cúmulos de galaxias muy masivos, que generan un número elevado de imágenes múltiples de la galaxia que está detrás, muchas de ellas muy deformadas, con elongaciones cuya disposición geométrica permite reconstruir cómo se distribuye en el cúmulo la materia responsable de la desviación de la luz. Ello ha permitido estimar la masa de muchos cúmulos, aportando otra evidencia indirecta a la existencia de materia oscura en ellos.
Lentes de aumento Las imágenes múltiples generadas por el efecto de lente gravitacional se observan con diferente intensidad, algunas más y otras menos intensas. Ello se debe a que la luz proveniente del objeto original ha convergido o ha divergido de diferente manera según el camino seguido. En particular, la intensidad de alguna de las imágenes puede estar altamente amplificada, siendo mucho más intensa que lo que hubiese sido la imagen del quasar original si su luz no se hubiese desviado. La intensidad relativa entre las diferentes imágenes múltiples de un quasar es también una fuente de información sobre las propiedades de la galaxia interpuesta en la línea de mira. Por otra parte, la amplificación provocada por el fenómeno de lente gravitacional permite que podamos observar quasares lejanos cuya intensidad sería demasiado pequeña como para apreciarlos en caso contrario. La lente gravitacional actúa en ese caso como una lente de aumento provista por la propia naturaleza, acercándonos a objetos celestes de otro modo inalcanzables con los telescopios actuales.
Relojes para medir la expansión del Universo La medición de una diferencia de tiempo de viaje para la luz de dos imágenes diferentes de un mismo quasar, como los 417 días en el caso del quasar 0957+561 mencionado anteriormente, permite indirectamente estimar la velocidad con que se expande el Universo. Como veremos en el capítulo 10, de acuerdo con las observaciones comenzadas por Edwin Hubble en 1929, y que dan sustento al modelo de la Gran Explosión (en inglés Big Bang), las galaxias se alejan unas de otras debido a la expansión
del Universo, con una velocidad de recesión tanto mayor cuanto más alejadas. La diferencia de tiempo de viaje entre dos imágenes de un quasar para una dada configuración de una lente gravitacional aumenta o disminuye según que el Universo se esté expandiendo más lento o más rápido respectivamente mientras la luz viaja desde el quasar hasta la Tierra. Aprovechando esta propiedad, se puede estimar la velocidad con que el Universo se expande mediante un método totalmente independiente al convencionalmente utilizado desde el descubrimiento de Hubble. Los resultados son comparables, hecho que sirve además como verificación adicional del modelo de la Gran Explosión.
Microlentes para descubrir objetos compactos Si un objeto de masa comparable a la de una estrella ordinaria se cruza en la línea de visión hacia otra estrella dentro de nuestra galaxia o en una galaxia vecina, la desviación de la luz que provoca no es tan grande como para que podamos ver por separado imágenes múltiples, pues incluso los mejores telescopios no las distinguirán de un único punto. Aunque no seamos capaces de ver las imágenes múltiples por separado, la lente gravitacional actúa de todos modos como una lente de aumento, y la luz que nos llega de la estrella es más intensa que si no se hubiera interpuesto el objeto en el camino. Si en nuestra galaxia hubiera muchos objetos compactos que no brillan lo suficiente como para que veamos directamente su emisión, podríamos de todos modos detectarlos por la amplificación que producirían sobre la luz de estrellas más alejadas durante el intervalo de tiempo en el que se interponen entre nosotros y esas estrellas. Entre los candidatos a provocar este efecto, que se denomina microlente porque la separación entre las imágenes es muy pequeña, figuran planetas muy pesados, con las características de Júpiter, que pudiera haber en otras regiones de la galaxia, o estrellas de muy baja luminosidad, o eventualmente agujeros negros. Hace una década que hay experimentos monitoreando la intensidad de millones de estrellas en las galaxias más próximas a la nuestra, las Nubes de Magallanes, y han detectado el fenómeno de microlente en varias de ellas. El tiempo durante el cual la luz de la estrella se ve amplificada cambia según la velocidad con que se mueve el objeto y cuál es su masa. Por eso este tipo de observaciones son útiles para verificar qué tipo de objetos compactos oscuros puede haber dando vueltas en la Vía Láctea.
Fig. 27: Ejemplos de lentes gravitacionales observadas por el telescopio espacial Hubble. Arriba a la izquierda: fotografía de la lente gravitacional G2237+0305, popularmente conocida como Cruz de Einstein. La luz del quasar, distante ocho mil millones de años luz, fue desviada por una galaxia veinte veces más cercana. Se observan cuatro imágenes del quasar alrededor de la galaxia que actúa como lente. Arriba a la derecha: imagen de un anillo de Einstein, conocido como B1938+666. La galaxia central desvía la luz de otra galaxia más lejana y perfectamente alineada, generando el anillo observado. Abajo: numerosos arcos se forman cuando la luz de galaxias lejanas atraviesa el cúmulo de galaxias conocido como Abell 2218, que es tremendamente masivo. El cúmulo se encuentra a dos mil millones de años luz y las galaxias cuyas imágenes se distorsionan se encuentran más de cinco veces más lejos. Algunas no podrían observarse si su luz no estuviera amplificada por el efecto de lente gravitacional en el cúmulo. (Fotos del Hubble Space Telescope Science Institute).
Capítulo 8: Agujeros negros Un agujero negro es un objeto con una concentración de materia tan grande que impide que nada pueda escapar de su interior. Ni siquiera la luz puede vencer su atracción gravitacional. Un agujero negro no es visible desde el exterior, pero se manifiesta a través de sus efectos gravitacionales. Describiremos en este capítulo las evidencias astronómicas de la existencia de agujeros negros tanto en la Vía Láctea (la galaxia que habitamos) como en otras galaxias.
Velocidad de escape y estrellas negras La propiedad más llamativa de los agujeros negros, que es la imposibilidad de que la luz se les escape, ya había sido anticipada unos ciento veinte años antes de que Einstein formulara su teoría, mediante argumentos basados en las leyes de Newton. Si arrojamos una piedra con fuerza hacia arriba, ésta se va frenando a medida que sube, llega hasta cierta altura a la cual detiene su movimiento, y luego cae, por efecto de la atracción gravitacional de la Tierra. Si arrojamos la piedra con más fuerza le imprimimos una mayor velocidad al soltarla, y la piedra alcanza mayor altura antes de comenzar su caída. Si tuviéramos suficiente fuerza, podríamos lanzarla con una velocidad tal que la piedra nunca regrese a la Tierra, es decir que logre escapar a su atracción gravitacional (ver figura 28).
vescape
M
Fig. 28: La velocidad de escape es la mínima velocidad con que debe arrojarse verticalmente un objeto para que logre vencer la atracción gravitacional de un planeta o estrella de masa M, y no vuelva a caer.
La velocidad de escape, es decir la mínima velocidad que debe tener un objeto lanzado desde la superficie terrestre para evitar volver a caer a la Tierra, es de unos 11 km/s. La expresión matemática para calcular la velocidad de escape es 2GM / R , siendo M la masa de la Tierra, R el radio terrestre y G la constante de gravitación universal. Si el objeto es lanzado desde una cierta altura sobre la superficie terrestre, llamémosla h, entonces la velocidad mínima que debe tener para poder escapar es menor, y se calcula reemplazando en la fórmula anterior a R por R+h. Es evidente que nadie es capaz de lanzar una piedra con tal fuerza como para que escape de la Tierra. Las naves espaciales que han viajado a la Luna y otros planetas, en cambio, han logrado vencer la atracción gravitacional de la Tierra pues fueron impulsadas mediante cohetes hasta superar la velocidad de escape. La velocidad de escape para el Sol es de unos 620 km/s, mientras que para las estrellas de neutrones (descriptas más adelante) es más de la mitad de la velocidad de la luz. George Michell en 1783 y Pierre Simon Laplace en 1795 señalaron que si la masa de un planeta o de una estrella estuviese lo suficientemente concentrada, podría suceder que la velocidad necesaria para escapar de su atracción gravitacional fuera mayor que la velocidad de la luz. En ese caso, y si la gravitación actuara sobre la luz del mismo modo que sobre cualquier otro objeto, la luz no podría escaparse totalmente de esa estrella o planeta. Sería, por lo tanto, una estrella negra. Un planeta o una estrella cumpliría la condición imaginada por Michell y Laplace si su radio y su masa satisficieran la relación R < 2GM/ c2. Para que se cumpla esa condición toda la masa de la Tierra debería estar concentrada en un radio de apenas 9 milímetros, es decir debería tener una densidad fenomenal. Toda la masa del Sol debería estar concentrada en un radio de 3 kilómetros, que es más de doscientas mil veces inferior al radio que en realidad tiene el Sol, para que la luz quedara esclavizada a su atracción gravitacional. Claramente ni el Sol ni la Tierra son estrellas negras.
El horizonte Sabemos que la física newtoniana no puede aplicarse a situaciones en las que las velocidades involucradas son cercanas a la de la luz. Por lo tanto, el cálculo clásico de la velocidad de escape no es extrapolable a tales velocidades. El argumento de Michell y Laplace no es correcto. A pesar de ello, la idea básica, la existencia de objetos tan compactos que no dejan escapar ni siquiera la luz, sigue siendo cierta. En 1916, algunos meses después de que Einstein formulara la teoría relativista de la gravitación, y a pesar de la complejidad de las ecuaciones de Einstein, Karl Schwarzschild descubrió la solución matemática que representa un agujero negro. En 1916 no había evidencias que permitieran especular, con algún fundamento, la posible existencia de objetos con la concentración de materia necesaria para formar un agujero negro. Por ello la solución descubierta por Schwarzschild fue considerada durante
décadas como un ejercicio matemático sumamente interesante, pero de poca relevancia para el mundo real. Los agujeros negros de Schwarzschild, con sus propiedades relativistas, son más sofisticados que las estrellas negras de Michell y Laplace, basadas en la teoría de Newton. Por ejemplo, en una estrella negra como las imaginadas por Michell y Laplace, la luz, o cualquier otro objeto, podría elevarse hasta distancias alejadas de su centro, antes de volver a caer debido a su inexorable atracción gravitacional. En cambio, en un agujero negro de Schwarzschild, ni la luz ni ningún otro objeto que se encuentre a una distancia menor que cierto valor crítico podría tan siquiera asomarse a distancias superiores. Por eso se dice que el agujero negro tiene un horizonte. Todo objeto que cruza el horizonte está inexorablemente condenado a caer al centro del agujero negro, sin posibilidad alguna de retroceder. Desde el exterior del agujero negro de Schwarzschild es imposible saber nada de lo que sucede dentro del horizonte de eventos. Esa propiedad es la que llevó a John Wheeler a acuñar el término agujero negro en 1968.
Agujeros negros: ¿ciencia o ficción? Pese a lo impactante del resultado matemático de Schwarzschild, que impresionó al propio Einstein, los agujeros negros fueron considerados durante décadas una mera curiosidad académica. Recién en la década de 1930 se realizaron avances teóricos que comenzaron a cambiar la actitud de los físicos respecto de la posibilidad de que los agujeros negros fueran más que ciencia ficción. El físico hindú Subramanyan Chandrasekhar y el estadounidense Robert Oppenheimer, entre otros, investigaron la posibilidad de que existieran estrellas con muy alta concentración de materia. En una estrella cualquiera, las fuerzas de atracción gravitacional de sus partes más internas atraen a las más externas. Si la gravitación fuera la única fuerza actuante, la materia de la estrella colapsaría, cayendo al centro. Las reacciones de fusión nuclear que se producen en el interior de la estrella generan la presión que contrarresta la atracción gravitacional, manteniéndola en una situación equilibrada. Cuando la estrella agote su combustible, colapsará hasta formar un tipo de estrella mucho más compacta. Chandrasekhar y Oppenheimer descubrieron que, llegado este punto de la evolución estelar, los efectos de la mecánica cuántica entre las partículas elementales son capaces de mantener a una estrella muy densa en equilibrio, deteniendo su colapso. Para que ello sea posible la estrella debe tener una masa inferior a 1,44 veces la masa del Sol si está sostenida por los efectos cuánticos entre electrones, e inferior a 3 veces la masa del Sol para que la puedan mantener en equilibrio los efectos cuánticos entre neutrones. Pero ¿qué pasa si la masa de la estrella es mayor? En ese caso podría colapsar hasta formar un agujero negro. En nuestro Sol, por ejemplo, la fusión nuclear del hidrógeno que hay en su interior no sólo es la fuente de calor gracias a la cual la vida en la Tierra es posible, sino que genera la presión que equilibra la atracción gravitatoria y mantiene al Sol en una situación estable. Cuando el Sol agote su hidrógeno, cosa que se estima ocurrirá dentro de unos
cinco mil millones de años, pasará a una fase en la que utilizará otros elementos como combustibles, transformándose en una estrella del tipo gigante roja, durante la cual será mucho más grande que en la actualidad. Cuando finalmente agote este otro combustible nuclear, colapsará hasta formar un tipo de estrella mucho más compacta, denominada enana blanca, en la cual los efectos cuánticos entre electrones analizados por Chandrasekhar la mantendrán en equilibrio. Será una estrella con una concentración muy alta de materia, pues casi toda la masa actual del Sol quedará compactada en un radio unas cien veces menor, pero no la suficiente como para formar un agujero negro. Todas las enanas blancas que se han observado tienen masa inferior a 1,44 veces la masa del Sol, confirmando la predicción teórica de Chandrasekhar. La mayor parte de las estrellas evolucionan como está previsto que haga nuestro Sol. Pero hay un tipo de estrellas diferente, a las que les espera otro destino para cuando se agote su combustible nuclear. Esas estrellas tendrán un final explosivo, en el que por un muy breve tiempo brillarán al menos cien millones de veces más intensamente que el Sol. Durante la explosión, que recibe el nombre de supernova, se eyectará gran cantidad de materia al exterior, pero también se compactará materia en su interior, formando el tipo de estrellas analizadas por Oppenheimer: estrellas compuestas íntegramente por neutrones. Las estrellas de neutrones tienen una concentración de materia extraordinariamente grande, más grande que las enanas blancas. Una estrella de neutrones típica puede tener una masa 1,4 veces la del Sol compactada en un radio de tan sólo 10 kilómetros. Los aproximadamente 1057 neutrones que forman la estrella están prácticamente pegados unos a otros. La estrella puede considerarse como un núcleo atómico gigantesco. Una cucharadita de la materia que compone la estrella de neutrones tiene una masa de valor 6,5x1014 gramos, comparable a la de una montaña terrestre. La fuerza de la gravedad en la superficie de una estrella neutrónica es feroz: la aceleración que tendría un cuerpo en caída libre es 1,9x1011 veces la aceleración de la gravedad en la superficie terrestre, por lo que el peso de una cucharadita de materia neutrónica en la superficie de la estrella sería comparable al peso de 1,2x1026 gramos de materia (¡es decir 1/50 de la masa de toda la Tierra!) en la superficie terrestre. Pese a lo excepcional de esta concentración de materia, no alcanza para formar un agujero negro, para lo cual debería estar compactada a un radio aún más chico, menor que unos 4,2 kilómetros. Las estrellas de neutrones sólo pueden existir si su masa es inferior a unas tres veces la masa de nuestro Sol, de otro modo la repulsión cuántica entre neutrones es insuficiente para contrarrestar el colapso gravitacional. ¿Qué sucede entonces si la explosión de la supernova origina una estrella con una masa superior a tres veces la masa del Sol? Los físicos comenzaron a especular que el destino de tales estrellas es formar agujeros negros, dado que no habría fuerzas capaces de frenar su colapso. Todas estas consideraciones no pasaron más allá del plano de la especulación teórica hasta la década de 1960. El desarrollo de la radioastronomía abrió toda una nueva ventana hacia el Cosmos, al permitir observar los objetos celestes no solamente a través de la luz que es accesible a nuestros ojos, sino también mediante las ondas de radio que emiten. Los radiotelescopios descubrieron un nuevo tipo de estrellas, que emiten ondas de radio en forma pulsante, extremadamente regular. Los pulsos electromagnéticos llegan
separados a veces por apenas la milésima parte de un segundo. El carácter de estrella pulsante hizo que los llamaran pulsares. Esa emisión pulsante es exactamente lo que se espera de una estrella de neutrones rotando muy rápidamente. En realidad la emisión de la estrella no es pulsante sino continua, pero como se concentra mayoritariamente en la dirección de sus polos magnéticos, y éstos no coinciden necesariamente con el eje de rotación de la estrella, su emisión es como la de un faro, y la recibimos sólo durante el breve lapso en que apunta hacia nosotros durante cada una de sus revoluciones. Se han observado muchas estrellas de neutrones, todas ellas con una masa inferior a unas tres veces la masa del Sol. También se han observado muchas explosiones de estrellas (supernovas) tanto en la Vía Láctea como en otras galaxias. De hecho, hay registros históricos de supernovas ocurridas hace miles de años. Ello permite estimar que una explosión tipo supernova ocurre en nuestra galaxia aproximadamente cada cincuenta años. Hacia fines de la década de 1960 ya no parecía entonces inconcebible que existiera un mecanismo capaz de compactar la materia de una estrella a la concentración necesaria para formar agujeros negros. Las explosiones de supernovas podrían generar estrellas de neutrones y pulsares si el remanente de la explosión tiene menos de tres masas solares, y podrían generar agujeros negros a partir de remanentes de masa superior. Los agujeros negros ya no estaban en el terreno de lo fantástico, por más que siguieran en el campo de lo especulativo.
¿Cómo ver un agujero negro? ¿Existen realmente los agujeros negros? ¿Cómo podríamos asegurarlo si es imposible verlos? Las manifestaciones de un agujero negro son forzosamente indirectas, producto de su atracción gravitacional. Lejos de su horizonte de eventos, un agujero negro tiene los mismos efectos gravitacionales que cualquier estrella o planeta ordinarios con la misma masa. Si un planeta tiene un satélite artificial orbitando a su alrededor, podemos medir el radio de la órbita del satélite y el tiempo que tarda en recorrerla, y con esos datos inferir la masa del planeta responsable de mantenerlo en órbita por su atracción gravitacional. No hay ninguna diferencia en este punto si el objeto central es un agujero negro en lugar de una estrella o un planeta. ¡La única diferencia es que al agujero negro no podemos verlo! Es decir, en esta situación imaginaria veríamos un satélite en órbita alrededor de la nada, al menos aparentemente. De modo que si sospechamos que en algún rincón del Universo hay un agujero negro, podríamos confirmarlo enviando un satélite artificial y colocándolo en órbitas cada vez más cercanas al lugar donde sospechamos que se esconde.
Agujeros negros en estrellas binarias Por fortuna, la situación imaginada que planteamos en el párrafo anterior se da en el Universo con bastante frecuencia, sólo que con satélites naturales en lugar de artificiales. Existe un número muy elevado de estrellas binarias, sistemas de dos estrellas en órbita
una alrededor de la otra. Si en una estrella binaria una de las integrantes del par fuera un agujero negro, la estrella visible estaría rotando sin razón aparente. La primera evidencia de la existencia de un agujero negro manteniendo en órbita a una estrella compañera se obtuvo en la década de 1970, con la observación del objeto celeste que recibe el nombre Cygnus X-1. Se trata de una estrella con una masa aproximadamente quince veces mayor que la masa del Sol, orbitando alrededor de un centro en el que no se observa ninguna otra estrella. La órbita de la estrella visible sólo se explica si en su centro hay un objeto con una masa aproximadamente cuatro veces la masa del Sol. ¡Un agujero negro! Pero: ¿cómo estamos seguros de que el culpable de mantener en órbita a Cygnus X-1 es un agujero negro y no una estrella apagada o muy poco brillante como para que la podamos observar? Es difícil responder esta pregunta con total certeza. Es llamativo que la masa que debe tener el objeto central sea cuatro veces la del Sol. Ello descarta la posibilidad de que se trate de un remanente estelar, por ejemplo una estrella de neutrones, pues desde los trabajos teóricos de Oppenheimer sabemos que éstas no pueden resistir el colapso gravitacional si su masa es mayor que tres veces la del Sol. Y por si esto fuera poco, hay más pruebas para acusar a un agujero negro como responsable material de la órbita de Cygnus X-1. Se detecta una fuerte emisión de rayos X proveniente de la zona central, justamente lo que se espera que ocurra cuando un agujero negro succiona material de una estrella vecina. Las partículas cargadas, como los electrones, fuertemente acelerados en su caída hacia el agujero negro, emiten rayos X copiosamente. En síntesis, nadie ha visto un agujero negro directamente con un telescopio, pues esto es imposible por definición. Pero hay un número considerable de observaciones que no tienen otra explicación conocida y que tienen todas las propiedades esperadas de un agujero negro. Se ha observado en nuestra galaxia un número considerable de sistemas de estrellas binarias que emiten rayos X en las cuales una de las integrantes del par no es visible y tiene una masa superior a tres veces la masa del Sol, y que por ello se estima que son agujeros negros producidos por el colapso gravitacional de estrellas masivas.
Un agujero negro supermasivo en el centro de la Vía Láctea Hay firme evidencia de que el centro de muchas galaxias, incluida la nuestra, alberga un agujero negro extremadamente masivo, con una masa entre un millón y varios miles de millones de veces la del Sol. La evidencia más directa, en el caso de nuestra galaxia, proviene de observar el movimiento de estrellas muy cercanas a su centro, cuya órbita sólo se explica si éste alberga un objeto extremadamente compacto y masivo, con una masa tres millones de veces la del Sol concentrada en una región más pequeña que nuestro sistema solar. El centro de nuestra galaxia, la Vía Láctea, se encuentra en la dirección a la constelación de Sagitario. Nuestro sistema solar se encuentra a unos veintiséis mil años luz de distancia del centro de la galaxia. La extremadamente alta resolución de los modernos telescopios ha permitido, pese a esa lejanía, observar con detalle muchísimas estrellas en su vecindad. El centro galáctico está muy poblado de estrellas. Mientras que la distancia de nuestro Sol a la estrella más cercana es de algo más de cuatro años luz, hay miles de
estrellas a menos de un año luz de distancia del centro galáctico. Sus altas velocidades y órbitas relativamente pequeñas indican que están girando alrededor de un objeto que pesa casi tres millones de veces más que el Sol, ocupando una región muy compacta en el espacio. Cuán compacta es esa región es crucial para decidir si se trata o no de un agujero negro. Por ejemplo, podría tratarse de un cúmulo de millones de estrellas de neutrones. En años recientes se ha logrado seguir con detalle el movimiento de varias estrellas extremadamente cercanas al centro galáctico. Hacia fines del año 2002, utilizando el sofisticado sistema de enormes telescopios interconectados del Observatorio Europeo Austral en Paranal, Chile, se midió la órbita de una estrella que sigue una apretada elipse con el centro galáctico en uno de sus focos, exactamente como hace la Tierra alrededor del Sol. Esta estrella tarda un poco más de quince años en dar una vuelta alrededor del centro galáctico, y llega a acercarse a éste a sólo 17 horas luz, que es aproximadamente 3 veces el tamaño de nuestro sistema solar (es decir el triple de la distancia del Sol a Plutón), moviéndose a 5000 km/s, unas doscientas veces más rápido que la Tierra orbitando alrededor del Sol. Ello sólo es posible si el centro de nuestra galaxia alberga una masa tres millones de veces superior a la del Sol, en una región del espacio que es comparable o menor que el tamaño de nuestro sistema solar. Es una concentración de materia impactante.
199 199 199
Centro de la galaxia
200
200 Fig. 29: Órbita de una estrella alrededor del centro de la galaxia. El diagrama muestra la posición aproximada de la estrella entre los años 1992 y 2002. El período de rotación es 15,2 años.
El tamaño del horizonte de eventos de un agujero negro de tres millones de masas solares es unas dos mil veces menor que el radio de la órbita de la estrella observada. No podemos entonces asegurar con total certeza que lo que alberga el centro galáctico es un agujero negro, pero no hay explicaciones alternativas conocidas para una concentración
tan grande de materia como la necesaria para generar esa órbita estelar. Por otra parte, existe otro tipo de evidencia indirecta de que los tres millones de masas solares se encuentran concentrados en una región significativamente más pequeña que el tamaño del sistema solar, al menos doscientas veces menor. Se observan ocasionalmente importantes destellos de rayos X, y también de radiación infrarroja, provenientes del centro galáctico. Se interpreta que esos destellos son producidos cuando materia próxima al horizonte del agujero negro es succionada por éste. La duración de los destellos permite inferir que la masa del agujero negro está concentrada en regiones de unos pocos minutos luz de tamaño. Nuestra galaxia no es la única que albergaría un agujero negro en su centro. Desde hace décadas se especula que debe haber agujeros negros supermasivos en el centro de los quasares, pues es la única explicación teórica razonable que se conoce a la emisión muy poderosa y en forma de chorros que se observa en las galaxias más activas. Indirectamente, la emisión de rayos X en forma de gigantescos chorros en los núcleos de las galaxias más activas es indicativa de que el motor de tan intensa actividad es un gigantesco agujero negro.
Viaje al centro de un agujero negro El centro de la Vía Láctea está habitado por un monstruoso agujero negro tres millones de veces más masivo que el Sol. ¿Representa un peligro para nuestra existencia? ¿Nos tragará en algún momento, dado que es imposible escapar a la atracción de un agujero negro? En realidad los agujeros negros no representan ningún peligro, si uno se mantiene a una distancia prudente. De lejos, sus efectos gravitacionales son como los de cualquier otra concentración de materia, como el Sol o un planeta. Así como la Tierra puede orbitar alrededor del Sol sin caer hacia su centro, podemos mantenernos en órbita o muy alejados del agujero negro en el centro galáctico sin mayor esfuerzo. El problema surge si decidimos acercarnos mucho, en particular si decidimos aventurarnos al interior de su horizonte. En ese caso sí habremos cruzado una frontera sin posibilidad de retorno. Emprendamos un viaje imaginario hacia el agujero negro en el centro de nuestra galaxia. Se encuentra a veintiséis mil años luz de distancia, así que no será breve el tiempo de acercamiento16. Pero imaginemos que logramos llegar relativamente cerca, y nos mantenemos a una distancia prudente, digamos 90 millones de kilómetros de su centro, que es 10 veces el tamaño de su horizonte. Apagamos los motores de la nave espacial que nos llevó hasta allí, y simplemente nos dejamos caer. Al principio no notaremos nada especial, estaremos flotando en nuestra caída libre hacia el centro del agujero negro, como si no hubiera gravedad actuando sobre nosotros, como flota un astronauta en medio de su viaje a la Luna. A medida que nos acerquemos un poco más empezaremos a notar que, si estamos cayendo con los pies hacia abajo, la atracción gravitacional sobre 16
Viajando a una velocidad suficientemente cercana a la de la luz, ¡los fenómenos de dilatación del tiempo y contracción de longitudes discutidos en el capítulo 4 podrían ayudarnos a recorrer ese trayecto en el lapso de una vida humana!
nuestros pies es ligeramente mayor que sobre nuestra cabeza, simplemente porque ésta se encuentra más lejos del centro, tanto como nuestra altura. Nos sentiremos un poco estirados por este efecto, pero no será algo insoportable. En poco menos de veinticinco minutos nuestra caída acelerada nos habrá llevado hasta el horizonte, a 9 millones de kilómetros del centro. Cruzaremos el horizonte sin notar nada en particular. Seguiremos viendo las cosas que se encuentran en su exterior, quizás un tanto deformadas por el efecto de lente gravitacional que describimos en el capítulo anterior, pero no dejaremos de ver qué sucede más allá del horizonte. Eso sí, aunque nos arrepintamos de lo hecho, no tendremos una segunda oportunidad. Por más potentes que sean los motores de la nave que nos llevó hasta allí, una vez cruzado el horizonte la atracción gravitacional hacia el centro es inescapable. De hecho, y por curioso que resulte, la utilización desesperada de nuestros cohetes no haría más que acelerar nuestra caída al centro. Si en cambio nos relajamos y aceptamos en calma nuestro destino, la caída será lo más larga posible: menos de cincuenta segundos habrán pasado desde que cruzamos el horizonte hasta que nos estrellemos contra la singularidad, que es como se denomina el punto central del agujero negro donde toda la materia que lo ha formado fue a parar. En realidad, antes de que nos estrellemos en su centro la fuerza que nos venía estirando ya nos habrá destrozado, así que no llegaremos vivos tan cerca de la singularidad. Vale la pena mencionar, para tomar las precauciones debidas, que desde este punto de vista es más peligroso acercarse a un agujero negro más liviano, de los que pesan sólo unas pocas veces más que el Sol, o incluso a una estrella muy densa, como una estrella de neutrones, aunque no sea un agujero negro. En ese caso, las fuerzas de marea nos estirarían verticalmente y nos destrozarían incluso mucho antes de poder llegar hasta el horizonte del agujero negro, o a la superficie de la estrella de neutrones. Un amigo que se quedara confortablemente lejos observando nuestra caída al agujero negro en el centro galáctico contaría una historia bien diferente. Según nuestro amigo, nunca habremos cruzado el horizonte. El dirá que nos aproximamos cada vez más, pero nunca nos verá cruzar el horizonte. Aquí reaparece el carácter relativo de las nociones de tiempo y espacio. Para un observador lejano, es como si el tiempo que lleva a otro observador a acercarse al horizonte se hiciera cada vez más lento, pues el tiempo transcurre más lentamente en regiones donde la atracción gravitacional es más intensa. Desde un punto de vista práctico, el amigo lejano perderá todo contacto con quien cayó en el agujero negro una vez que éste se aproxime mucho al horizonte. Por más que el arriesgado explorador no perciba nada especial al acercarse al horizonte, para su amigo prudentemente alejado transcurre cada vez más y más tiempo entre cada uno de los fotones que componen la luz que el viajero emite y que le permite verlo desde su posición lejana. Cada uno de esos fotones llega además con menor energía, debido al efecto de corrimiento al rojo gravitacional. La luz que proviene del viajero es prácticamente indetectable incluso un poco antes de que cruce el horizonte, y definitivamente es imposible ver desde el exterior nada de lo que ocurra dentro del horizonte.
Evaporación de agujeros negros De acuerdo con la teoría de la Relatividad General, un agujero negro es eterno: nada de lo que lo formó puede escapar de él, todo lo que traspasa su horizonte cae ineluctablemente en su centro. Sin embargo, se especula que el destino final de un agujero negro podría ser otro, debido a fenómenos en el dominio de la mecánica cuántica, que harían que muy lentamente los agujeros negros se evaporaran a través de la emisión de radiación hacia el exterior de su horizonte. El efecto fue predicho por el físico inglés Stephen Hawking17, en la década de 1970, y es algo que por ahora está dentro del terreno de la especulación teórica, pues no es factible realizar experimentos que pongan a prueba esta hipótesis, ni existen evidencias directas o indirectas de este fenómeno. Hecha esta advertencia, es destacable que las leyes de la mecánica cuántica sugieran que los agujeros negros no son absolutamente oscuros al fin y al cabo. En forma simplificada, podemos pensar que la emisión de los agujeros negros es consecuencia de que el principio de incertidumbre en la mecánica cuántica permite violaciones a la ley de conservación de la energía, mientras sea por muy breves períodos de tiempo. En efecto, las leyes de la mecánica cuántica, que rigen al mundo subatómico, establecen que el vacío en realidad no es algo monótono y falto de toda actividad, sino que por el contrario es un escenario en el que permanentemente se están creando y destruyendo partículas y antipartículas, por ejemplo electrones y positrones. Si esos electrones y positrones sobrevivieran, la energía necesaria para producirlos habría surgido de la nada. Pero no sobreviven: en un lapso de tiempo increíblemente pequeño desaparecen. Tan breve es su existencia que ningún instrumento nos permitiría observar directamente que están allí. Cuando el electrón y positrón virtuales se aniquilan mutuamente, la energía faltante que se usó para crearlos es restaurada. La ley de conservación de la energía sólo fue violada durante un breve lapso, tanto menor cuanto más grande fue la energía temporariamente producida, de acuerdo con el principio de incertidumbre cuántico. Por fantásticas que parezcan, la realidad de estas permanentes fluctuaciones que ocurren en el vacío está confirmada indirectamente por muchos experimentos. Estas fluctuaciones cuánticas del vacío afectan por ejemplo los niveles de energía que puede tener un electrón en un átomo de hidrógeno. También producen fuerzas entre superficies metálicas muy próximas. Es de esperar que las fluctuaciones cuánticas del vacío ocurran también en las vecindades del horizonte de un agujero negro. En ese caso podría suceder que antes de que una de las partículas creadas llegara a aniquilarse con su antipartícula, ésta cayera dentro del horizonte. Su compañera, sin nada contra qué aniquilarse, queda condenada a ser parte de la realidad, en el exterior del agujero negro. Éste es el mecanismo por el cual el agujero negro puede emitir radiación. No implica de todos modos una violación a la ley de conservación de la masa-energía, pues la emisión se produce a expensas de la masa contenida en el agujero negro, que debe disminuir a medida que éste emite. Notemos de todos modos que lo que emite el agujero negro no es nada de lo que estuviera dentro de 17
Stephen Hawking es quien ocupa actualmente en la Universidad de Cambridge la cátedra que ocupara Isaac Newton en el siglo XVII.
su horizonte. Es radiación que surge de su entorno, y las propiedades de lo que emite sólo dependen de la masa total del agujero negro, no del material específico que lo formó originalmente. Para un observador externo es como si el agujero negro emitiera como se espera que lo haga un objeto a una cierta temperatura. Ahora bien, esa temperatura es minúscula para un agujero negro de masa comparable a la del Sol: apenas seis veces una centésima de millonésima de grado por encima del cero absoluto de temperatura. Cuanto mayor sea la masa del agujero negro, menor aún será su temperatura. La velocidad con que el agujero negro pierde energía también es menor cuanto menor es la temperatura. Un agujero negro de masa estelar demorará en evaporarse debido al efecto predicho por Hawking una cantidad de tiempo abrumadoramente grande, unos 1066 años. Teniendo en cuenta que la edad del Universo se estima es algo más de 1010 años, está claro que el efecto es irrelevante desde cualquier punto de vista práctico. Para que la temperatura tenga un valor medianamente apreciable el agujero negro debería ser mucho más liviano. Para que un agujero negro se evapore en un tiempo comparable a la edad del Universo debería tener una masa de 5x1011 kilogramos, diez mil millones de veces más liviano que la Tierra. El colapso de estrellas no puede producir agujeros negros tan livianos. Quizás haya existido en los primeros instantes de expansión del Universo algún mecanismo capaz de producirlos. Si así fuese, hoy estarían en las fases finales de su evaporación, y darían lugar a una copiosa emisión de rayos gamma, que podría ser observada por detectores que actualmente orbitan la Tierra en satélites. No se ha observado nada que pueda asociarse a la emisión de agujeros negros que estén evaporándose. No podemos concluir que el efecto predicho por Hawking no exista, pero podemos asegurar que, de ser cierto, no existen demasiados agujeros negros relativamente livianos en la actualidad. Dada su importancia conceptual, la evaporación de agujeros negros (o radiación de Hawking) es un tema de amplio debate entre los físicos teóricos desde que fuera predicha teóricamente en 1975. No existe aún consenso sobre cuál sería el estado final de un agujero negro que se evapora.
La singularidad Hay un aspecto de los agujeros negros que la teoría de la Relatividad General no explica satisfactoriamente. Según la teoría, si un objeto cruza la línea del horizonte de un agujero negro, está condenado inexorablemente a caer en su centro. Toda la materia que formó al agujero negro, más todo lo que luego haya caído dentro de su horizonte, debe concentrarse en un único punto. La concentración de materia en el centro del agujero negro es singular, de hecho infinita, y por eso se dice que el punto central del agujero negro es una singularidad. En realidad lo singular de ese punto es nuestra ignorancia. La propia teoría está mal definida desde un punto de vista matemático en ese punto donde la densidad de materia y la curvatura del espacio se vuelven infinitas. Lo más probable es que sólo logremos comprender qué sucede realmente cerca del centro de un agujero negro cuando sepamos compatibilizar la mecánica cuántica con la teoría de la gravitación. Ésta es una asignatura pendiente de la física teórica, dado que pese a innumerables esfuerzos desde que la mecánica cuántica fuera descubierta en la década de 1920, no existe aún una teoría cuántica de la gravitación satisfactoria. Quizás las
denominadas teorías de supercuerdas estén en el camino correcto, pues logran al menos una formulación internamente consistente, pero sus predicciones no son unívocas. La dificultad en lograr avances de la teoría está muy ligada a la falta de guía experimental. Las correcciones cuánticas a la teoría de la Relatividad General probablemente sólo sean relevantes en situaciones en que los efectos gravitacionales son exageradamente intensos, como por ejemplo muy cerca de la singularidad de un agujero negro, o en los instantes iniciales de la evolución del Universo (ver capítulo 10). Enfaticemos que nos estamos refiriendo a la vecindad del punto central del agujero negro, no a su horizonte, donde los efectos cuánticos sobre la gravitación son despreciables, salvo que se trate de un hipotético agujero negro muy pequeño, en la fase final de su evaporación. Desde el punto de vista de la astrofísica de los agujeros negros que hoy estamos convencidos de que existen, es decir aquellos formados por colapsos estelares y los agujeros negros supermasivos que habitan los centros galácticos, los efectos cuánticos pueden ser ignorados.
Capítulo 9: Ondas gravitacionales En la teoría de Newton la atracción gravitacional entre dos objetos es una acción instantánea. La teoría relativista predice en cambio que los efectos de la gravitación se propagan de un punto a otro a la velocidad de la luz, mediante ondas gravitacionales. Estas ondas son análogas a las ondas electromagnéticas, pero en lugar de campos eléctricos y magnéticos transportan una distorsión a la curvatura del espacio-tiempo. Einstein era pesimista respecto de la posibilidad de que alguna vez se detectaran ondas gravitacionales, dado lo diminutos que serían sus efectos. El tiempo demostró que su pesimismo estaba justificado. Han pasado casi noventa años y nadie ha podido detectar directamente una onda gravitacional. Veremos en este capítulo que, sin embargo, hace ya veinticinco años que los astrónomos han descubierto evidencia indirecta pero convincente de que hay estrellas que emiten ondas gravitacionales copiosamente. Hay experimentos en marcha que esperan detectar directamente esa emisión dentro de muy poco tiempo. Cuando eso ocurra, se habrá abierto una ventana totalmente nueva desde la cual asomarse al Cosmos.
Relatividad versus acción instantánea a distancia En 1873 el físico escocés James Clerk Maxwell formuló las ecuaciones del electromagnetismo, a partir de las cuales dedujo que las ondas electromagnéticas se propagan a la velocidad de la luz, descubrimiento que puede considerarse precursor de la teoría de la Relatividad Especial. De las ecuaciones de Maxwell queda claro que, por más que la fuerza entre cargas en reposo dependa del cuadrado de la distancia, como ya había descubierto Coulomb mucho tiempo antes, la fuerza entre cargas en movimiento es mucho más compleja. La información de que una carga se mueve no se propaga a otra carga instantáneamente sino a la velocidad de la luz. En particular, cuando un electrón es acelerado emite ondas electromagnéticas, que se propagan a la velocidad de la luz. La luz visible, los rayos infrarrojos y los ultravioletas, los rayos X, los rayos gamma, las ondas de radio y televisión, son todos ejemplos de ondas electromagnéticas, que se propagan en el vacío a 299.792 km/s. Lo que las diferencia es la frecuencia con que los campos electromagnéticos están oscilando en cada uno de este tipo de ondas. La ley de gravitación universal de Newton tiene muchos puntos en común con la ley de Coulomb. Establece que la fuerza gravitatoria con que se atraen dos objetos es proporcional a sus masas e inversamente proporcional al cuadrado de la distancia que los separa. Presupone una acción instantánea a distancia, y es por lo tanto incompatible con la teoría de la Relatividad Especial, según la cual ninguna causa puede provocar un efecto en menos tiempo que lo que tarda la luz en recorrer la distancia que separa ambos eventos. La teoría de la Relatividad General, en cambio, predice (como la teoría de Maxwell para el caso electromagnético) que los efectos de la gravitación también se propagan a la velocidad de la luz. Cuando un cuerpo masivo se mueve, la distorsión a la curvatura del espacio-tiempo que provoca no se transmite instantáneamente de un punto a
otro, sino que lo hace a la velocidad de la luz. Cuerpos masivos acelerados pueden emitir ondas gravitacionales. Durante décadas hubo un gran debate acerca de si las ondas gravitacionales predichas por la Relatividad General realmente existen. Quizás la teoría de Einstein, tan acertada en muchos aspectos, podía estar errada en este punto. Entre los incrédulos figuraba el propio Sir Arthur Eddington, responsable de haber verificado experimentalmente en 1919 que la desviación de la luz por el Sol era tal cual Einstein había predicho con su teoría, a la que fervorosamente defendía en otros aspectos. Eddington decía, como demostración de su escepticismo, que “las ondas gravitacionales se propagan ... a la velocidad del pensamiento”.
¿Cómo detectar una onda gravitacional? Una onda gravitacional al propagarse distorsiona el espacio-tiempo a su alrededor. Debería ser posible observar una onda gravitacional por su efecto de estirar y comprimir el espacio a su paso. El movimiento de los cuerpos acompaña esa distorsión. Imaginemos que una onda gravitacional atraviesa un cilindro moviéndose en dirección paralela a su eje. La onda no distorsiona al cilindro de la misma manera en todas direcciones, sino que lo comprime en algunas mientras que lo estira en otras (ver figura 30). Es decir, que el cilindro cuya sección es circular, presentará secciones elípticas cambiantes a medida que la onda pasa. El problema es que las distorsiones que se espera que ocurran son minúsculas. ONDA GRAVITACIONAL
Fig. 30: El paso de una onda gravitacional deforma el espacio en su dirección transversal, estirándolo en algunas direcciones y comprimiéndolo en otras.
Otra posibilidad es detectar indirectamente las ondas gravitacionales a través de sus efectos sobre las órbitas de planetas o estrellas. El movimiento de un planeta orbitando alrededor del Sol, o de un sistema de estrellas binarias como los discutidos en el capítulo anterior, generan ondas gravitacionales. Esto produce una pérdida de energía, que se traduce en una variación de los parámetros orbitales: los astros se van acercando siguiendo una trayectoria con forma de espiral. Nuevamente, el inconveniente es que las variaciones esperadas son en general muy chicas.
Las ondas gravitacionales son muy débiles Las ondas gravitacionales tienen muchas cosas en común con las ondas electromagnéticas. Pero a la vez tienen muchas diferencias, y la mayor es la dificultad con la que se las produce o se las detecta. Sacudiendo electrones mediante una corriente eléctrica en una antena emisora se producen ondas de radio con gran eficiencia, y éstas pueden detectarse incluso a relativamente grandes distancias mediante una antena receptora apropiada. En cambio esos mismos electrones habrán producido una cantidad minúscula de ondas gravitacionales, y la posibilidad de detectarlas queda absolutamente descartada. Ello está vinculado a la debilidad de los efectos gravitacionales comparados con los eléctricos. Tomemos como ejemplo la fuerza entre un electrón y un protón en el átomo más sencillo, el átomo de hidrógeno. La fuerza de atracción eléctrica entre ambos, calculada mediante la ley de Coulomb, es 1040 veces más intensa que la atracción gravitacional entre ellos, calculada mediante la ley de Newton. La fuerza gravitacional entre las partículas elementales que componen la materia es minúscula comparada con las fuerzas electromagnéticas. En cambio en escalas macroscópicas es la fuerza gravitacional la que domina. Es la gravitación la que nos mantiene unidos a la Tierra, y a ésta en su órbita alrededor del Sol. Ello es porque la materia en escalas macroscópicas es eléctricamente neutra, es decir hay tantas cargas eléctricas positivas como negativas, y por ello la fuerza eléctrica entre cuerpos grandes es prácticamente nula. La fuerza gravitacional en cambio es más intensa cuanto mayor masa tiene el objeto, pues no hay distintos signos posibles para las masas, es decir la gravitación es siempre atractiva. La generación de ondas gravitacionales intensas requiere por lo tanto el movimiento acelerado de cuerpos muy masivos. Los cálculos indican que es totalmente impracticable generar ondas gravitacionales en un laboratorio y luego detectarlas. Más probable será detectar las ondas gravitacionales generadas, aunque lejos, en situaciones astronómicas en las que hay grandes cantidades de materia involucrada. Una explosión estelar tipo supernova, una estrella de neutrones algo deformada rotando muy rápidamente sobre su eje, o dos estrellas de neutrones orbitando una alrededor de otra en su fase final en que violentamente terminan incrustándose una contra otra, se cuentan entre posibles sistemas que pueden estar generando intensamente ondas gravitacionales en este mismo momento. Si bien la intensidad de estas ondas gravitacionales se atenúa con la distancia recorrida desde su fuente a distancia astronómica, seguirán siendo más intensas que las que podamos generar mediante algún artefacto terrestre. Así y todo, la intensidad de las ondas gravitacionales que se espera estén llegando a la Tierra es descorazonadoramente pequeña. La deformación que pueden producir en un objeto, y que uno debería medir para detectar el paso de la onda, es a lo sumo de una parte en 1021. Por ejemplo en un detector de un kilómetro de largo, una onda así produciría una deformación mil veces inferior al tamaño de un núcleo atómico. Parece descabellado intentar detectar esos efectos. Y sin embargo se están construyendo enormes instrumentos que aspiran a medirlos. Tal como mencionamos anteriormente, es posible encontrar evidencia indirecta de la generación de ondas gravitacionales estudiando las trayectorias de planetas y estrellas. Los planetas deberían perder energía por emisión de ondas gravitacionales al girar
alrededor del Sol, y como consecuencia el tamaño de sus órbitas debería disminuir paulatinamente. Sin embargo, el efecto es totalmente insignificante. Por ejemplo, la potencia emitida por Mercurio en ondas gravitacionales es solamente de 1 miliwatt (¡una lamparita eléctrica común consume 100 watt!). Por suerte, en otros sistemas astrofísicos la situación es mucho más favorable.
Un reloj astronómico que emite ondas gravitacionales Hay una observación astronómica que indica convincentemente que las ondas gravitacionales existen, aunque aún nadie las haya podido detectar en forma directa. En 1974 los astrónomos Russell Hulse y Joseph Taylor descubrieron, mediante el radiotelescopio instalado en Arecibo, en Puerto Rico, un objeto celeste ideal para poner a prueba la predicción de Einstein de que los cuerpos acelerados emiten ondas gravitacionales: el pulsar binario PSR 1913+16. Los números indican las coordenadas que definen la ubicación del pulsar en la esfera celeste. Un pulsar es una estrella de neutrones que rota sobre su eje a una velocidad fantástica. PSR 1913+16 es una estrella de neutrones con una masa aproximadamente 1,4 veces la del Sol, pero compactada en un radio de apenas unos diez kilómetros. La estrella realiza aproximadamente unas 17 revoluciones sobre su eje en cada segundo, con una regularidad comparable a la de los más precisos relojes atómicos. Como ya describimos en el capítulo previo, un pulsar tiene un campo magnético muy intenso que rota junto con la estrella. Ese campo magnético acelera partículas cargadas en su vecindad, y éstas emiten intensa radiación electromagnética que emerge de la estrella en la dirección de sus polos magnéticos. Si los polos no están alineados con el eje de rotación, la emisión del pulsar es como la de un faro, que vemos sólo cuando su haz barre la posición de la Tierra. Por eso recibimos en forma pulsante las ondas de radio que la estrella en realidad emite en forma continua. Eje de rotación
N
S
Ondas de radio
Fig. 31: Esquema de un pulsar. La emisión de ondas de radio es en la dirección de los polos magnéticos, que es diferente de la dirección del eje de rotación.
PSR 1913+16 tiene una propiedad adicional por sobre los pulsares ordinarios que lo convierte en un instrumento ideal para confirmar que las ondas gravitacionales existen. Sus descubridores notaron una peculiaridad: la frecuencia con la que llegan sus pulsos no es estrictamente constante. Tras una minuciosa investigación establecieron que las diminutas variaciones registradas son cíclicas, repitiéndose cada casi 8 horas. La conclusión de este trabajo detectivesco es que PSR 1913+16 no está sólo en el espacio, sino que sigue una órbita muy apretada alrededor de otra estrella de masa comparable. Es decir, es un pulsar binario, el primero que se haya descubierto. La estrella que acompaña al pulsar no emite ondas de radio; no está claro si es otra estrella de neutrones cuyo haz no apunta hacia nosotros, o si es otro tipo de estrella. Lo relevante es que el pulsar da una vuelta alrededor de su acompañante cada ocho horas, en una órbita elíptica de tamaño 100 veces inferior a la de la Tierra alrededor del Sol, variando su velocidad entre 100 y 400 km/s. El carácter binario explica los cambios observados en la frecuencia con que llegan los pulsos de ondas de radio. El pulsar es extremadamente regular, pero la frecuencia con que recibimos sus repeticiones cambia si se está alejando o acercando a nosotros mientras recorre su órbita alrededor de la otra estrella, debido al efecto Doppler, que describimos en el capítulo 4. El efecto Doppler hace que la frecuencia de repetición de los pulsos se incremente mientras el pulsar se acerca hacia la Tierra al recorrer su órbita alrededor de la otra estrella, y que decrezca en los tramos en que se está alejando de la Tierra. La naturaleza ha sido tan gentil de regalarnos un reloj de altísima precisión (el pulsar), más masivo que el Sol, y que sigue en una órbita apretadísima y muy acelerada alrededor de otra estrella. Esta situación permite poner a prueba la validez de la teoría de la Relatividad General en situaciones mucho más relativistas que las que se dan en nuestro sistema solar. Por ejemplo, recordemos que uno de los éxitos iniciales de la teoría de la Relatividad General fue explicar que el punto de máximo acercamiento de Mercurio al Sol avanza un pequeño ángulo en cada revolución de su órbita elíptica. La órbita del pulsar binario es tanto más relativista que la de Mercurio, que el desplazamiento del periastro (el punto de máximo acercamiento entre las dos estrellas) en un día es igual al desplazamiento del perihelio de Mercurio en un siglo. Las observaciones también indican que las variaciones en la frecuencia de repetición de los pulsos mientras la estrella recorre su órbita responden a lo esperado debido tanto a los efectos de dilatación temporal por sus cambios de velocidad, como al corrimiento al rojo por atravesar zonas de diferente intensidad de campo gravitatorio de su estrella compañera. Los efectos relativistas provocan adelantos y retardos de la frecuencia de repetición a medida que el pulsar recorre la órbita elíptica del tipo de los que se miden en el experimento de los relojes voladores descripto en el capítulo 4, que en este caso son diferencias de hasta cuatro milisegundos. Es gracias a todos estos diferentes efectos que pueden determinarse con precisión los parámetros de este sistema binario, tales como las masas de las dos estrellas y el tamaño y excentricidad de la órbita. La propiedad más importante de PSR 1913+16 es que la órbita de esta estrella binaria es lo suficientemente compacta como para que, de acuerdo con la teoría de Einstein, emita copiosamente ondas gravitacionales. La cantidad de ondas gravitacionales emitida es suficiente como para que el sistema pierda energía en forma apreciable. La pérdida de
energía hace que la distancia entre las dos estrellas y el período de tiempo que emplean en orbitar una alrededor de la otra disminuyan muy gradualmente. La regularidad extrema del pulsar como reloj permitió a Hulse y Taylor, tras seis años de cuidadoso monitoreo, comprobar que el tiempo que tarda el pulsar en completar una órbita alrededor de su estrella compañera, que es de casi ocho horas, se acorta por 6,7 veces la centésima parte de una millonésima de segundo en cada revolución. La órbita de la estrella binaria no es tan buen reloj como el pulsar mismo: es como un reloj mal calibrado, que al principio marca la hora correcta pero va adelantando y continúa haciéndolo cada vez más. Esta observación está en perfecto acuerdo cuantitativo con la predicción de la Relatividad General para este sistema binario, que por emisión de ondas gravitacionales debe perder energía orbital, y por ende reducir el tamaño de su órbita unos 3 milímetros en cada revolución. Es imposible medir directamente tan pequeña reducción de la órbita, como también medir el acortamiento de 6,7x10-8 segundos en un único período de ocho horas. Pero gracias a que el efecto es acumulativo, se puede detectar tras un monitoreo del sistema durante varios años. Supongamos que el primer tic del reloj constituido por la órbita del sistema binario ocurre cuando las estrellas pasan por periastro, la posición de máximo acercamiento. Debido a la pérdida de energía por emisión de ondas gravitacionales el periastro se adelanta 6,7x10-8 segundos en la primera revolución. En la siguiente el tic sufre un adelanto adicional de igual valor, y así sucesivamente. Por lo tanto el adelanto se acumula cuadráticamente con el tiempo de observación, de modo tal que tras un año el tic del periastro ocurre 4 centésimas de segundo antes de lo que debería si no hubiera emisión de ondas gravitacionales, y tras unos seis años el adelanto es de algo más de un segundo. Tras varios años de cuidadosa observación, se estableció sin lugar a dudas el perfecto acuerdo cuantitativo con la predicción relativista para este sistema. Desde entonces se han descubierto otros pulsares binarios, algunos de los cuales presentan órbitas más relativistas aún que el pionero PSR 1913+16.
pulsar
ondas gravitacionales Fig. 32: Esquema de un pulsar binario. El sistema pierde energía debido a la emisión de ondas gravitacionales.
Aunque indirecta, la leve disminución observada en el período orbital del pulsar binario PSR 1913+16 es evidencia convincente de que las ondas gravitacionales existen. Lamentablemente la intensidad de las ondas gravitacionales emitidas por este pulsar binario al llegar a la Tierra es demasiado pequeña como para ser detectada directamente. Sin embargo, la confirmación de que, aunque débiles, las ondas gravitacionales existen,
es un gran aliciente para construir instrumentos cada vez más sensibles, que eventualmente puedan detectar emisores más intensos que PSR 1913+16 que quizás haya en algún rincón del Universo. Por ejemplo, se espera que el propio PSR 1913+16 emita ondas gravitacionales mucho más intensamente en el final de su vida que en la actualidad, en un breve destello luego de que, a medida que pase el tiempo, ambas estrellas se acerquen más y más al perder cada vez más energía, fundiéndose en una sola estrella en un rápido final. Ello ocurrirá recién dentro de unos trescientos millones de años. Pero puede estar ocurriendo ahora mismo en alguna otra galaxia, y ese destello podría ser detectado por los instrumentos sofisticados que hoy en día operan.
Detectores de ondas gravitacionales Desde la década de 1960 que se intenta detectar ondas gravitacionales, con métodos basados en la distorsión que éstas provocan en el espacio-tiempo al pasar, que se traducen en un cambio en la distancia entre objetos, o en la deformación de cuerpos masivos. El primer detector de ondas gravitacionales, construido por Joseph Weber de la Universidad de Maryland, consistía de una barra cilíndrica de dos metros de largo que pesaba varias toneladas, suspendida de cables en una cámara de vacío y enfriada a temperaturas de apenas unos pocos grados por encima del cero absoluto, es decir casi doscientos setenta grados centígrados bajo cero. El cilindro estaba provisto de sensores llamados transductores, que convierten las deformaciones en corrientes eléctricas que luego se registran. Como el efecto que se busca medir es extremadamente pequeño, es necesario sintonizar el detector, así como uno sintoniza una radio, para captar una emisora. De ese modo el cilindro estaría en resonancia con la onda, aumentando la señal. Para ello uno debería conocer la frecuencia de las ondas gravitacionales. Los primeros cilindros estuvieron sintonizados a una frecuencia de un kilohertz, es decir de mil oscilaciones por cada segundo, que se estimaba podría ser la que tuvieran las ondas gravitacionales provenientes de fenómenos celestes que las emitieran copiosamente. Estos detectores llegaban a ser sensibles a deformaciones de una parte en 1016. Para un cilindro de dos metros de largo, ello equivale a una distancia diez veces inferior al tamaño de un núcleo atómico. Joseph Weber reportó detecciones que consideró se debieron a ondas gravitacionales. Su trabajo pionero fue seguido de varios otros sofisticados detectores basados en el mismo principio, que sin embargo no pudieron confirmar sus detecciones, y que no han encontrado ninguna evidencia de que las ondas gravitacionales existan. El problema, como mencionamos antes, es que las ondas gravitacionales son extremadamente débiles, y se estima que para poder detectar aquellas emitidas por los fenómenos astrofísicos más violentos harán falta detectores mucho más sensibles que los construidos por Weber en 1960 y otros que le siguieron, quizás más de un millón de veces más sensibles. ¿Vale la pena construirlos? La evidencia observacional indirecta de la existencia de ondas gravitacionales es una motivación muy fuerte para hacerlo.
Detectores kilométricos (o el retorno de Michelson) En la década de 1970 comenzaron a construirse detectores de ondas gravitacionales basados en una técnica alternativa a la de medir distorsiones de barras cilíndricas. La nueva técnica es en realidad una versión moderna y ampliada del método empleado por Michelson y Morley en 1879 para medir la velocidad de la luz y comprobar con precisión que ésta es la misma en la dirección de movimiento de la Tierra que en una dirección perpendicular. En el capítulo 2 describimos este experimento, que demostró que las ondas electromagnéticas no necesitan de un éter para propagarse, y que puede considerarse uno de los puntos de apoyo para la teoría de la Relatividad. La versión moderna del interferómetro de Michelson utiliza un láser, un espejo semitransparente, dos espejos y un detector (ver figura 33). El espejo semitransparente actúa como divisor del haz de luz del láser. Una parte del haz continúa su camino hasta reflejarse en uno de los espejos. El otro haz sale del espejo semitransparente en dirección perpendicular, y se refleja en el otro espejo. Cuando ambos haces regresan al espejo semitransparente parte de ellos se transmite hasta el detector. La intensidad de la luz que recibe el detector depende de las distancias entre el divisor del haz y ambos espejos. Si el largo de ambos brazos del interferómetro es idéntico, las ondas llegan en fase al detector, y cada haz refuerza al otro, aumentando la intensidad recibida. Si en cambio uno de los brazos fuera mayor que el otro y la diferencia fuera exactamente media longitud de onda, ambos haces llegan en contrafase, produciendo lo que se denomina interferencia destructiva, pues cuando una onda está en su cresta la otra está en su máxima depresión, y la intensidad resultante en el detector es nula. El arreglo experimental se dispone de modo tal que en condiciones normales no llegue luz al detector. Si pasa una onda gravitacional, modifica la distancia entre los espejos de manera diferente en cada brazo, y el detector recibe luz. El cambio en la intensidad de la luz recibida será proporcional a la intensidad de la onda, y sus variaciones temporales reflejarán las oscilaciones de la onda gravitacional.
Espejo
Divisor de haz
Láser
Espejo
Detector Fig. 33: Esquema del funcionamiento de un detector interferométrico de ondas gravitacionales. El paso de una onda modifica las distancias a los espejos, modulando la intensidad de luz que llega al detector.
El cambio en la distancia entre los espejos que podría provocar una onda gravitacional es tan diminuto que se necesita que los brazos del interferómetro sean lo más largos posible, que el haz se propague en un alto vacío, que los espejos y el sistema en su conjunto estén extremadamente aislados de cualquier tipo de movimiento. El sistema de detección más grande que existe en la actualidad tiene brazos que miden cuatro kilómetros. Así y todo, el efecto esperado de una onda gravitacional es tan minúsculo, que permanentemente se registran ruidos debidos a cualquier otra cosa menos ondas gravitacionales. De hecho, puede considerarse a estos instrumentos los sismógrafos más sensibles que existan. La única forma de asegurarse de que los registros del instrumento se deben al paso de una onda gravitacional y no a fenómenos locales que produzcan variaciones mínimas en las distancias, es operar otro instrumento similar en coincidencia en una posición muy alejada y verificar que el paso de la onda por ambos instrumentos produjo efectos comparables. Disponer además de un tercer instrumento sería ideal para poder determinar con exactitud por triangulación la dirección desde donde provino la onda. Verificando en ese caso por observaciones astronómicas convencionales que efectivamente exista un objeto capaz de emitir copiosas ondas gravitacionales desde esa dirección no habría margen para dudas y se aprenderían muchas cosas sobre los sistemas astrofísicos capaces de realizar estas proezas. El sistema de detección más grande en la actualidad se denomina LIGO, acrónimo del nombre en inglés que se traduce como Observatorio de ondas gravitacionales por interferometría láser. LIGO comenzó a planearse a principios de la década de 1980, su construcción empezó en 1992, y comenzó a operar con fines científicos (es decir luego de etapas de prueba e ingeniería de los instrumentos) a fines de 2002. Consta de un
interferómetro con brazos de cuatro kilómetros y otro con brazos de dos kilómetros en Hanford, Washington y otro interferómetro con brazos de cuatro kilómetros ubicado a 3000 kilómetros de distancia en Livingston, Louisiana, en los Estados Unidos. Hasta el momento, LIGO no ha detectado ondas gravitacionales. Durante los períodos en que estuvo tomando datos en 2003 y 2004 mostró que llega a tener sensibilidad como para detectar variaciones de longitud de una parte en 1022 para algunas frecuencias, y será aún más sensible cuando se instalen algunos sistemas avanzados. Ello permite ser optimista, y esperar que en breve sea capaz de detectar algunas de las ondas gravitacionales que se estima deben estar siendo emitidas desde distintos rincones del Universo. El rendimiento de LIGO mejora al operar como parte de una red, en coincidencia con otros grandes observatorios, como GEO600 en Alemania, TAMA300 en Japón y VIRGO en Italia. Para un futuro hay ambiciosos planes de construir un gigantesco interferómetro en el espacio, mediante satélites artificiales, proyecto que se denomina por la sigla LISA.
Buscando patrones Así como Weber en 1960 debió sintonizar su detector de barra a una frecuencia fija de un kilohertz para mejorar la sensibilidad de su instrumento, también los detectores por interferometría láser, como LIGO, mejoran su capacidad de detección si se conoce de antemano qué tipo de onda gravitacional se espera recibir. Es por eso que la búsqueda de LIGO se concentra en cuatro tipos de señales diferentes, dejando de todos modos la puerta abierta para descubrir algo distinto, aunque la sensibilidad sea menor (ya que muchas veces lo más interesante resulta ser algo totalmente inesperado). Lamentablemente en cada uno de los cuatro casos falta alguna información clave como para estar seguros de la intensidad con que las fuentes emiten ondas gravitacionales, o el número de fuentes que podrían estar emitiéndolas.
Fuentes periódicas Una búsqueda que podríamos caracterizar como conservadora es la de sintonizar el instrumento a la señal que se espera que emitan los pulsares en nuestra galaxia. Su número es bien conocido, así como la frecuencia con la que están rotando. La teoría de Einstein predice que la mayor parte de las ondas gravitacionales emitidas por una estrella rotando sobre su eje tienen una frecuencia igual al doble de la frecuencia de rotación. Es entonces sencillo sintonizar la búsqueda a frecuencias que sean el doble de las frecuencias de todos los pulsares conocidos. El problema es que una estrella esférica no emite ondas gravitacionales, por más que esté rotando sobre su eje. La estrella debe tener alguna deformación, y la emisión es más intensa cuanto menos esférica es su forma. Como se ignora cuán deformados puedan ser los pulsares, es imposible estimar si la intensidad de las ondas gravitacionales que emiten es suficientemente grande como para que un instrumento como LIGO pueda observarlas. Por ahora, se puede usar la falta de detección de ondas gravitacionales en sentido inverso: permite asegurar que la deformación de los pulsares no es exageradamente grande.
Espiral final de estrellas binarias Las estrellas de neutrones binarias son fuentes de ondas gravitacionales cuya intensidad puede calcularse con gran certeza. De hecho, el pulsar binario PSR 1913+16 nos provee la evidencia indirecta de que las ondas gravitacionales existen, pues su período orbital se va acortando 76 microsegundos cada año, exactamente como predice la Relatividad General que debe suceder por la transformación de parte de su energía orbital a ondas gravitacionales. La emisión de PSR 1913+16 es sin embargo muchísimo más débil que lo que un instrumento como LIGO puede llegar a detectar. Cuando dentro de 300 millones de años la pérdida de energía haya sido tan grande como para que las dos estrellas de neutrones estén a punto de caer una contra la otra siguiendo una trayectoria espiralada hasta su colisión, la emisión será mucho más intensa. Los cálculos indican que las ondas gravitacionales que lleguen a la Tierra desde una galaxia lejana emitidas en los momentos finales de la coalescencia de una estrella binaria de neutrones pueden producir cambios en los detectores de cuatro partes en 1022. También se sabe que para mejorar la sensibilidad se debe sintonizar el detector a una frecuencia que sea el doble de la frecuencia con que una estrella de neutrones orbita alrededor de la otra. Y se sabe que independientemente de la frecuencia con que originalmente daban vueltas, durante los últimos minutos de su existencia como binarias estarán realizando unas cinco revoluciones por segundo, e irán acelerándose hasta más de 500 vueltas por segundo en sus instantes finales. En síntesis, la frecuencia de las ondas gravitacionales emitidas durante los minutos finales de estos cataclismos estelares seguirá un patrón bien definido, que aumentará rápidamente de unos 10 Hertz hasta 1000 Hertz. El problema es que los astrónomos no pueden estar seguros de cuántos de estos cataclismos puedan estar ocurriendo por año en otras galaxias, o en la nuestra para el caso. Se estima, sobre la base de que se conocen en nuestra galaxia 400 pulsares y sólo 4 estrellas de neutrones binarias, que al menos un par de estos cataclismos debe ocurrir por año en alguna galaxia no demasiado alejada como para que el efecto de las ondas no sea inferior a cuatro partes en 1022. Pero ese cálculo es muy especulativo, por lo que la puerta está abierta a que sea tanto una subestimación como una sobreestimación de la realidad. Por otra parte, podría suceder que hubiera en el Universo sistemas binarios formados por agujeros negros, cuya caída espiralada de uno hacia otro provocaría un patrón de ondas gravitacionales muy peculiar además de intenso. La detección de sus ondas gravitacionales proveería un método para someter a las pruebas más rigurosas la validez de la teoría de la Relatividad General. La forma en que cambia la frecuencia en los últimos instantes trae enorme información sobre el sistema binario: masas, distancias, excentricidad e inclinación de la órbita.
Destellos Se sabe desde hace tiempo que ocurren con frecuencia en el Universo fenómenos mucho más violentos que lo que la aparente calma y constancia del cielo nocturno sugieren. Un ejemplo de ello son las supernovas descriptas en el capítulo 8, de las cuales hay registros desde la antigüedad. Esos eventos portentosos podrían ser una fuente significativa de
ondas gravitacionales. Como ya mencionamos, una explosión tipo supernova ocurre en cada galaxia aproximadamente cada cincuenta años, por lo que podrían explotar decenas de supernovas en galaxias relativamente no muy distantes en sólo un año. Sin embargo, no es claro que su emisión gravitacional sea muy intensa, pues un colapso perfectamente esférico no produce ondas gravitacionales. Además, el patrón de frecuencias esperadas puede ser muy variable. De todos modos conviene orientar parte de la búsqueda, aunque sea con menor sensibilidad, a posibles destellos de este tipo. Se conocen incluso fenómenos transitorios mucho más intensos que las supernovas ordinarias, que dan lugar a breves pero intensos destellos de rayos gamma. El mecanismo que los produce no es del todo conocido, quizás se trate de casos muy especiales de supernovas. No puede descartarse que ese mecanismo sea capaz de generar intensas ondas gravitacionales.
Fondo estocástico Otra posibilidad contemplada en la búsqueda de ondas gravitacionales es que haya una especie de ruido de fondo, similar al que escuchamos en una radio al pasar de una sintonía a otra. Técnicamente se lo denomina fondo estocástico, que es otra forma de decir que su comportamiento es azaroso, sin un patrón definido. Podría tener su origen en la acumulación de la emisión de ondas gravitacionales en distintas frecuencias de muchos objetos dispersos. O, por el contrario, podría tener su origen en un pasado tan remoto en el que aún no existía ninguna estrella o planeta, cuando el Universo era una sopa caliente de partículas elementales en muy rápida expansión, tal como lo describe el modelo de la Gran Explosión. De hecho, existe en el Universo un fondo de radiación de microondas, cuyos descubridores en 1965 consideraron durante un año que se trataba de un molesto ruido en su antena, hasta que se convencieron de que en realidad estaban detectando una reliquia fósil de la Gran Explosión. Análogamente, podría existir un fondo de ondas gravitacionales producidas durante los primeros instantes de la expansión del Universo, y podrían llegar hasta nosotros trayendo información crucial de las épocas más primitivas del Cosmos gracias a que las ondas gravitacionales no son frenadas o absorbidas por la materia que encuentran a su paso. La detección de este fondo no es sencilla porque es fácil confundirlo con el ruido normalmente detectado por los instrumentos, pero la operación en coincidencia de dos o más detectores facilita su búsqueda.
Una nueva ventana para asomarse al Universo La detección directa de ondas gravitacionales nos permitirá una mirada diferente del cielo. Hasta la década de 1940 sólo supimos lo que la luz visible a nuestros ojos, ayudados por potentes telescopios, podía mostrarnos de los objetos celestes. Desde entonces, la radioastronomía amplió nuestro horizonte. Los pulsares, los quasares y otros interesantes objetos astronómicos fueron descubiertos gracias a que su emisión de ondas de radio es mucho más intensa o peculiar que su emisión de luz visible. Hay objetos que se detectan mediante ondas de radio y no se observan en el rango óptico y viceversa. En décadas siguientes nuevas ventanas se fueron abriendo, que permiten observar por
ejemplo la emisión de rayos infrarrojos, rayos X y rayos gamma de numerosos objetos en el cielo. El acceso a otros rangos de frecuencias de ondas electromagnéticas nos ha enseñado muchísimo sobre las características de los objetos que las emiten. Cuando por fin podamos observar su emisión de ondas gravitacionales, tendremos una perspectiva totalmente nueva. La detección directa de ondas gravitacionales confirmará un aspecto de la teoría de la Relatividad de Einstein que aún no ha podido ser verificado, a noventa años de su formulación. La detección de un destello de ondas gravitacionales cuyo lugar de origen pueda rastrearse en coincidencia con un destello luminoso desde el mismo lugar confirmará no sólo que las ondas gravitacionales existen sino también que se propagan a la misma velocidad que las ondas electromagnéticas, como predice la teoría. Pero además de estas confirmaciones, las ondas gravitacionales serán una herramienta nueva para aprender cosas acerca de los violentos fenómenos astrofísicos que las generan. Podrían traernos información sobre los primeros instantes de la historia del Universo. Podrían revelarnos que existen violentas colisiones entre agujeros negros. Y, muy probablemente, podrían revelarnos cosas que no somos siquiera capaces de imaginar.
Capítulo 10: La constante cosmológica En 1917 Einstein advirtió que las ecuaciones de la Relatividad General no admitían como solución un Universo estático. En esa época no había motivos para sospechar que el Universo se expandiera. Einstein agregó a sus ecuaciones un término constante, con el cual una cosmología estática era posible. Después que en 1929 Hubble descubrió que el Universo se expande, Einstein consideró a la introducción de la constante cosmológica el mayor error de su vida. En la actualidad, el modelo cosmológico de la Gran Explosión (Big Bang en inglés), basado en la teoría de la Relatividad General, provee un marco exitoso para comprender la evolución del Universo. A la vez, el éxito de ese modelo deja al descubierto que ignoramos tanto más cuanto más conocemos, pues pone de manifiesto que no sabemos qué tipo de partículas o qué forma de energía constituyen el 95% del contenido del Universo. Observaciones recientes sugieren que quizás gran parte de ese contenido oscuro tenga propiedades equivalentes a la constante cosmológica introducida por Einstein en 1917, por lo que su gran error podría no haber sido tal.
La Gran Explosión La Cosmología es la disciplina científica que se propone describir las propiedades del Universo a gran escala. El aporte de la física y la astronomía del siglo XX a la cosmología fue facilitar que se desarrollara como disciplina científica, con un balance entre teoría y experimento mucho más parecido al que hay en otras áreas de la física. El modelo de la Gran Explosión se ha consolidado como un paradigma apropiado para describir la evolución del Universo. Las observaciones que le dan sustento han logrado que la cosmología dejara de ser una disciplina altamente especulativa, tan poco fundada como cualquier mito cosmogónico de la antigüedad, para convertirse en una disciplina rigurosa y basada en la experimentación.
El universo se expande El primer descubrimiento crucial para la cosmología moderna fue realizado en 1929 por Edwin Hubble. El objetivo de su trabajo era clasificar los diferentes tipos de galaxias que se reconocían por entonces. Mediante el telescopio gigante de Monte Wilson en los Estados Unidos, de reciente construcción, descubrió que las galaxias muy distantes se alejan respecto de la Tierra, con una velocidad que es mayor cuanto más lejos se encuentran. Podríamos concluir que la Tierra está ubicada en una posición de gran privilegio en el Universo, en el centro desde donde se produce la expansión. La interpretación que la teoría de la Relatividad General provee para estas observaciones en cambio es tal que la Tierra no ocupa ninguna posición de privilegio, sino que lo que se expande es el propio espacio-tiempo, por igual en todas partes. Una analogía bidimensional ilustrativa surge de
considerar al Universo como la superficie de un globo y a las galaxias como marcas pintadas sobre la superficie. A medida que el globo se infla, cada marca se aleja de todas las demás. Ninguna es el centro de la expansión. De acuerdo con la teoría de la Relatividad General, un Universo lleno de materia puede expandirse o contraerse por efectos de su propia gravitación. El espacio es el que se expande o contrae, modificando la distancia entre las galaxias. Las observaciones realizadas por Hubble, que se han ido perfeccionando con el tiempo, miden la velocidad con que actualmente se está expandiendo y permiten estimar que viene haciéndolo desde hace unos trece mil millones de años. Esto se infiere de imaginar esta expansión hacia atrás en el tiempo, y calcular cuánto transcurrió desde que toda la materia que hoy observamos estaba concentrada en una región pequeñísima, increíblemente densa y caliente.
Fig. 34: Puntos pintados sobre la superficie de un globo. La distancia entre ellos aumenta al inflar el globo.
Nucleosíntesis Según el modelo de la Gran Explosión, hace trece mil millones de años el Universo estaba lleno de una densa y caliente sopa de partículas elementales en permanente colisión, que se enfriaba a medida que el Universo se expandía. Los cálculos de física nuclear indican que tras unos pocos minutos de expansión esa sopa se habría enfriado lo suficiente como para permitir que protones y neutrones se combinaran formando los núcleos de los elementos más livianos (hidrógeno, helio, litio y berilio) en proporciones bien definidas. Todos los demás elementos (carbono, nitrógeno, hierro, etc.) se habrían formado dentro de las estrellas, cientos o miles de millones de años después. La observación en el Universo de unas tres veces más hidrógeno que helio (en peso) y cantidades mucho menores de otros núcleos livianos, está en total acuerdo con lo que se espera del modelo de la Gran Explosión. George Gamow, Ralph Alpher y Ralph Hermann predijeron en la década de 1940 que la abundancia relativa entre helio e hidrógeno en el Universo podría explicarse como consecuencia de la expansión del Universo si existiera actualmente un fondo de radiación cósmica, compuesto por fotones
que eran parte de esa sopa cósmica original. Los fotones de la radiación cósmica de fondo eran los responsables, en los primeros minutos de expansión del Universo, de desarmar los núcleos livianos que comenzaban a formarse. Sólo cuando transcurridos unos minutos de expansión los fotones se enfriaron lo suficiente, a unos miles de millones de grados, pudieron los protones y neutrones mantenerse unidos en núcleos atómicos. El número de fotones necesarios es un número bien preciso, cercano actualmente a los 420 por centímetro cúbico en todo el Universo, pues si fuera mucho mayor o mucho menor la fracción de helio a hidrógeno resultante hubiese sido bien diferente.
La radiación cósmica de fondo El descubrimiento de la radiación cósmica de fondo, realizado accidentalmente por Arno Penzias y Robert Wilson en 1964, fue crucial para la cosmología moderna. Estos investigadores trabajaban para la Bell Telephone, utilizando una gran antena de microondas para analizar las emisiones de la Vía Láctea, con el propósito de caracterizar potenciales fuentes de ruido que pudieran perturbar el funcionamiento de satélites de comunicaciones. Penzias y Wilson desconocían las especulaciones acerca de la posible existencia de la radiación cósmica de fondo basadas en el modelo de la Gran Explosión, realizadas por Gamow en la década de 1940, y por otros investigadores en la universidad de Princeton, muy cercana a donde realizaban sus mediciones, en esa misma época. Demoraron un año en convencerse de que el ruido que detectaban en su antena era una reliquia fósil de las primeras etapas de expansión del Universo. Hay 422 fotones de la radiación cósmica de fondo en cada centímetro cúbico del Universo. Esos fotones están hoy enfriados por la expansión del Universo a unos 2,7 grados por encima del cero absoluto de temperatura, o sea unos 270 grados centígrados bajo cero. La radiación cósmica de fondo no es la acumulación de emisiones provenientes de estrellas u otros objetos celestes repartidos por todo el Universo. Es radiación que estaba ya presente en el Universo mucho antes de que existieran planetas o estrellas, de hecho desde el momento en que se formaban los primeros átomos. Los fotones que hoy llegan a la Tierra desde todas las direcciones posibles fueron emitidos cuando habían transcurrido menos de trescientos mil años desde el comienzo de la expansión. En ese momento se formaban los primeros átomos, por combinación de electrones y núcleos que anteriormente no podían agruparse pues las altas temperaturas lo impedían. Antes de que se formaran los átomos también había fotones en la radiación cósmica de fondo, pero en permanente colisión con electrones y protones. Una vez formados los átomos neutros, los fotones de la radiación cósmica de fondo viajan sin impedimentos, y por ello nos traen información del pasado más remoto al que podemos acceder directamente. Desde 1992 se logran medir, con precisión cada vez creciente, diminutas variaciones en la intensidad de la radiación cósmica de fondo proveniente de diferentes direcciones. Esto se logra mediante antenas de microondas instaladas tanto en tierra como en globos estratosféricos y en satélites (ver figura 35). Esas variaciones revelan los pequeñísimos contrastes de densidad, de apenas una parte por millón, que actuaron como semillas que
la atracción gravitacional logró hacer crecer hasta formar las galaxias que hoy observamos. El patrón de diminutas variaciones en la intensidad de la radiación cósmica de fondo según la dirección de arribo es actualmente una de las fuentes de información más precisas sobre las propiedades del Universo a gran escala.
Fig. 35: Mapa obtenido por el satélite WMAP en el año 2003 que se interpreta como una fotografía del Universo en su infancia, hace trece mil millones de años. El mapa es una proyección de toda la esfera celeste, y el tono de gris en cada punto representa la mayor o menor temperatura de la radiación cósmica de fondo proveniente de cada dirección. Las mayores diferencias corresponden pocas decenas de millonésimas de grado. Esas variaciones revelan las semillas alrededor de las cuales crecieron las galaxias. (Mapa producido por NASA-WMAP/Science Team).
¿La expansión será eterna? Hubble descubrió en 1929 que el Universo se expande, cuando observó que existe una relación lineal entre la velocidad de recesión de las galaxias y la distancia a la que se encuentran. Esta relación se escribe v=H.d. A la constante de proporcionalidad H entre la velocidad v y la distancia d se la denomina constante de Hubble. Su valor es aproximadamente 71 (km/s) /Mpc18. Una galaxia a una distancia de 10 Mpc se aleja de la nuestra a 710 km/s debido a la expansión del Universo. La relación descubierta por Hubble es aproximada. Mediciones muy precisas pueden encontrar apartamientos de esta relación, que se espera que existan por ejemplo debido a que la velocidad de expansión cambie con el tiempo, frenándose o acelerándose.
18
Mpc es la abreviatura de la unidad de distancia llamada Megaparsec, que corresponde a unos 3,3 millones de años luz, o sea unos 3x1019 kilómetros. Un pársec es la distancia a la que habría que alejarse de la Tierra para que el tamaño de su órbita alrededor del Sol subtienda un ángulo de un segundo de arco y un Megaparsec es un millón de parsecs.
Distancias extragalácticas La velocidad de recesión de una galaxia se mide, indirectamente, a través del corrimiento al rojo que sufre el espectro de su emisión. Recordemos que el corrimiento al rojo es consecuencia del efecto Doppler, fenómeno que analizamos en el capítulo 4. Consiste en una disminución en la frecuencia de la luz (cuyo color es entonces más rojizo) que se observa cuando el emisor se aleja del receptor. Pero ¿cómo se mide la distancia a un objeto celeste lejano? Las distancias a estrellas relativamente cercanas en nuestra galaxia se miden con gran precisión y de un modo muy directo aprovechando el efecto de paralaje, que es el cambio en la posición que aparentemente ocupa la estrella en la esfera celeste como consecuencia del desplazamiento de la Tierra en su órbita alrededor del Sol. Conocido el tamaño de la órbita terrestre y el ángulo que subtiende el desplazamiento aparente de la estrella, se deduce la distancia que nos separa de ella. Pero este método no sirve para el caso de una estrella lejana, pues el ángulo sería demasiado pequeño como para que incluso los mejores telescopios pudieran percibirlo. En la década de 1920 Edwin Hubble detectó estrellas variables en varias nebulosas. En esa época había un acalorado debate en la comunidad astronómica acerca de si las nebulosas eran nubes de material interestelar dentro de nuestra propia galaxia, o si eran galaxias en sí mismas, exteriores por ende a la Vía Láctea. El debate habría quedado inmediatamente zanjado si se hubiese conocido la distancia hasta las nebulosas, por comparación con el tamaño de nuestra galaxia. Lo novedoso de las observaciones de Hubble fue que identificó dentro de las nebulosas estrellas variables cuyas características eran similares a las denominadas estrellas Cefeidas. Henrietta Levitt y otras astrónomas habían analizado en detalle este tipo de estrellas cercanas, y concluido que presentan una relación bien definida entre el período de su variabilidad y su luminosidad. Gracias a ello, Hubble pudo usar a estas estrellas variables como patrones de luminosidad. Si un objeto de luminosidad dada se coloca más y más lejos, se lo ve cada vez más débil. Recíprocamente, midiendo la intensidad con que se observa un objeto de luminosidad conocida, se puede inferir a qué distancia se encuentra. Ésa es la base del método utilizado por Hubble y perfeccionado desde entonces para estimar la distancia a objetos extragalácticos muy lejanos. Es necesario contar con patrones de luminosidad bien calibrados. Vale la pena destacar que la calibración utilizada por Hubble adolecía de ciertas deficiencias, lo que le llevó a estimar una velocidad de expansión del Universo casi siete veces superior a lo que hoy se considera es su valor. En consonancia, el tiempo que se estima ha transcurrido desde que la expansión comenzó resultaba siete veces menor que los trece mil millones de años que hoy calculamos19. Este valor es compatible con la que se calcula es la edad de las estrellas más viejas. El valor deducido por Hubble era claramente conflictivo, pues estimaba un Universo mucho más joven que algunos de los objetos que lo componen, algo claramente contradictorio.
19
El lector interesado puede calcular que 1/H son unos trece mil millones de años. La inversa de la constante de Hubble da una estimación aproximada de la edad del Universo
En años recientes se ha comenzado a utilizar un nuevo patrón de luminosidad para estimar distancias extragalácticas: las explosiones de estrellas tipo supernova, que hemos descripto en el capítulo 8. Se observa que cierto tipo de supernovas a pesar de tener diferencias unas con otras, alcanzan la misma luminosidad máxima en el momento de la explosión. Su utilización como patrón de luminosidad ha permitido medir no solamente la velocidad con que el Universo se expande, sino también detectar variaciones en el ritmo de expansión que nos permiten estimar si ésta continuará eternamente, o si por el contrario revertirá a una contracción en un futuro remoto.
¿Expansión o contracción? Las ecuaciones de Einstein admiten ambas posibilidades, según la cantidad y naturaleza de la materia que llena el Universo. De acuerdo con la teoría, el ritmo de frenamiento de la expansión depende del balance entre la tasa de expansión actual, caracterizada por la constante de Hubble, y la capacidad de la atracción gravitatoria de frenar esa expansión. El efecto gravitacional depende de la densidad y de la presión de la materia que llena el Universo. Si la presión es muy pequeña, como es el caso de la materia ordinaria, la densidad de materia es la que define cómo continúa la expansión. Si la concentración promedio de materia es inferior a un valor crítico, que es aproximadamente 10-29 g/cm3, el Universo continuará su expansión para siempre. En cambio, si la concentración promedio de materia es mayor, la expansión se irá frenando lentamente hasta comenzar en algún momento un proceso de contracción.
Espacio de curvatura hiperbólica
R
Espacio plano (densidad crítica)
Expansión
Espacio de curvatura esférica Contracción
t Fig. 36: Evolución del Universo en función del tiempo. Si la concentración de materia es igual o menor que el valor crítico, 10-29 g/cm3, se expandirá para siempre. Si la densidad de materia es mayor, el Universo tiene curvatura esférica y pasará en el futuro a una fase de contracción. R representa el radio del Universo en el caso de curvatura esférica, y el factor por el que crecen las distancias cuando el Universo (infinito) se expande, en los otros dos casos.
El espacio tridimensional es (casi) plano Curiosamente, las mediciones actuales indican que el valor promedio de concentración de materia o energía es extremadamente cercano al valor crítico. Si difiere, no es más que por un pequeño porcentaje. Esta conclusión no surge de una medición directa, sino de las propiedades observadas en la radiación cósmica de fondo. Sucede que la teoría de la Relatividad General predice que en un modelo cosmológico con densidad de materia o energía igual al valor crítico el espacio tridimensional es plano, es decir con geometría euclidiana. En cambio si la densidad es superior a la crítica, la curvatura del espacio es como la de una esfera. Esto significa que la suma de los ángulos interiores de los triángulos es mayor que 180 grados, el cociente entre el perímetro y el diámetro de las circunferencias es menor que π, etc. Por otra parte, si la densidad es inferior al valor crítico, la curvatura del espacio es como la de un hiperboloide, en cuyo caso las propiedades geométricas mencionadas antes se invierten: la suma de los ángulos interiores de los triángulos es inferior a 180 grados, y el cociente entre el perímetro y el diámetro de las circunferencias es mayor que π. Es importante recalcar que en cualquiera de estos tres casos (aun si el espacio tridimensional es plano), el espacio-tiempo sigue siendo curvo, ya que debido a la evolución del Universo las distancias varían con el tiempo. También vale la pena destacar que un modelo cosmológico describe las propiedades del espacio a escalas muy grandes, mucho mayores que el tamaño de una galaxia. En las vecindades de una estrella o de cualquier otro objeto masivo el espacio siempre tiene curvatura. ¿Es posible realizar experimentos que nos permitan discernir cuál es la geometría de nuestro espacio tridimensional? La propagación de la radiación cósmica de fondo desde el momento en que se formaron los primeros átomos hasta hoy es diferente en una u otra geometría, pues dos fotones paralelos viajan en línea recta si el espacio es plano, o levemente convergen o divergen si el espacio es curvo como una esfera o como un hiperboloide. Según cómo hayan viajado los fotones se ven de ligeramente distinto tamaño las manchas que dejaron en la radiación cósmica de fondo los pequeños excesos o defectos de concentración de materia que más tarde actuaron como semillas para formar las galaxias. La teoría predice que las manchas más intensas en la radiación cósmica de fondo deben tener un tamaño de un grado si los fotones viajan en línea recta, o ser ligeramente mayores o menores en caso contrario. Retomando la discusión del final del capítulo 1, notemos que a partir de la observación de dichas manchas nosotros, seres tridimensionales, podemos efectivamente determinar las características geométricas del espacio en que vivimos. A pesar de que la respuesta no es aun definitiva, las propiedades que se observan coinciden con las que se esperan de un Universo cuyo espacio tridimensional es prácticamente plano, es decir, donde los fotones han viajado por trayectorias muy rectas. De acuerdo con las mediciones recientes realizadas mediante el satélite WMAP de la NASA, si la densidad de materia o energía difiere del valor crítico que determina si el Universo se expandirá o no para siempre, no lo hace por más que un 2%.
¿Dónde está la materia? Es posible estimar la densidad promedio de materia que hay en las estrellas, y ésta resulta ser unas cien veces inferior a la densidad de materia que las mediciones de la radiación cósmica de fondo indican que existe en el Universo. Es decir, sólo podemos dar cuenta del 1% del contenido del Universo con las estrellas que vemos brillar en el firmamento. ¿Qué es y dónde está el resto? No lo sabemos a ciencia cierta. Ya mencionamos en el capítulo 7 que hay firmes evidencias de que existe materia oscura, de la que no podemos dar cuenta si sólo contabilizamos la materia que brilla en las estrellas. Mediciones indirectas, basadas en las propiedades de la radiación cósmica de fondo, en cómo se mueven cúmulos de galaxias, y en el uso de lentes gravitacionales para estimar su masa, sugieren que la materia oscura tendría una densidad de aproximadamente un 30% del total. Por otra parte, la abundancia relativa entre helio e hidrógeno observada en el Universo sólo se explica como resultado de nucleosíntesis en el modelo de la Gran Explosión si la materia ordinaria (es decir aquella formada por protones, neutrones y electrones como todo lo que nos rodea) es a lo sumo un 5% de la densidad crítica. De modo que el grueso de la materia oscura no es materia ordinaria, no está por ejemplo en estrellas que pasan inadvertidas por su escaso brillo. Ignoramos de qué se trata. Existen numerosas especulaciones teóricas acerca de qué podría ser la materia oscura, pero por ahora no hay claves que indiquen si esas especulaciones están bien encaminadas. Para colmo, si la materia ordinaria (tanto brillante como oscura) es a lo sumo el 5% del total, y la restante materia oscura de naturaleza enigmática es el 25% del total, nos queda por responder ¿qué es el 70% restante?
La energía oscura El uso de supernovas como patrón de luminosidad para estimar distancias sugiere una respuesta inesperada a esta pregunta. Las correcciones a la ley de Hubble que se lograron medir desde 1998 hasta el presente mediante la detección de supernovas en galaxias lejanas indican que la expansión del Universo no se está frenando, ¡sino que se está acelerando! Las supernovas se ven menos intensas de lo que se espera si el Universo se frenara. Una alternativa posible es que haya algún material desconocido en el medio intergaláctico que atenúe el brillo de las supernovas, pero no parece ser el caso. La dependencia de la atenuación con la distancia ajusta muy bien a lo que se espera que ocurra en un Universo con expansión acelerada. Este sorprendente resultado es una de las posibilidades que las ecuaciones de la Relatividad General contemplan, pero sólo si la materia o energía que llena el Universo ejerce grandes presiones negativas, que empujan la aceleración de la expansión. Estas características son idénticas a las que produce el agregado a las ecuaciones de un término de constante cosmológica. Einstein imaginó en 1917 esa posibilidad como forma de balancear la atracción gravitacional para lograr una solución estática, que en esa época
(antes del descubrimiento de Hubble) consideraba la solución más realista. Hoy en día sabemos que ése no es el caso, pero sin embargo las observaciones sugieren que la forma de energía o materia dominante en el Universo podría tener características similares. No existen por el momento confirmaciones independientes de que la expansión sea acelerada. Éste es un tema candente de investigación en la actualidad. Si la expansión es actualmente acelerada el Universo seguramente continuará en eterna expansión. Si estas conclusiones se confirman, no sólo queda como tarea pendiente descubrir qué es la materia oscura que existe en las galaxias, sino también qué forma de energía oscura constituye el 70% del contenido del Universo.
Epílogo: 100 años no es nada Einstein y su Teoría de la Relatividad cambiaron de manera radical la concepción del espacio y del tiempo. Einstein supo interpretar que no existe movimiento absoluto en el Universo, sino que todo movimiento es relativo, y que la velocidad de la luz es absoluta y es la máxima con la que una causa puede provocar un efecto. Predijo varios efectos sorprendentes, como la dilatación del tiempo y la contracción de longitudes debido al movimiento, la posibilidad de intercambiar masa y energía de acuerdo con la fórmula E = mc2, y que el espacio-tiempo no es plano sino curvo, con propiedades geométricas determinadas por la materia y la energía. La Relatividad Especial es imprescindible para entender el comportamiento de las partículas elementales, las estructuras más pequeñas con las que podemos experimentar. La Relatividad General revolucionó nuestra concepción del mundo macroscópico, dominado por la gravitación, y predijo fenómenos tan curiosos como los agujeros negros, las ondas gravitacionales y la expansión del Universo. La Relatividad Especial y la General no son en realidad dos teorías diferentes, sino una teoría completa del espaciotiempo, la gravitación, y la dinámica de las partículas y sus interacciones. Pese al éxito de la teoría, y al hecho de que transcurridos cien años de su formulación no hay experimentos que la contradigan, no son pocos los científicos que dedican su trabajo a buscar fallas en la relatividad. ¡Quizás esto se deba en parte a que el propio Einstein nos enseñó a desconfiar! En general las búsquedas experimentales a la violación de la relatividad no son azarosas, sino que están guiadas por especulaciones teóricas con fundamentos de diversa naturaleza. Por el momento, la relatividad sigue invicta como teoría. Ello no implica, por supuesto, que en el futuro no se vayan a descubrir limitaciones a su dominio de validez. Pero muestra que el actual paradigma tiene aún mucho por revelar. A cien años de formulada, la Relatividad nos sigue planteando enormes desafíos. Desde el punto de vista teórico, la formulación de una teoría cuántica de la gravitación es una asignatura pendiente. Se han logrado formulaciones internamente consistentes, mediante las teorías de supercuerdas, pero sus predicciones no son unívocas y se está aún muy lejos de poder someterlas a prueba. Entre los grandes desafíos experimentales se cuenta la detección directa de ondas gravitacionales, que pueden abrirnos una ventana totalmente nueva a los fenómenos más violentos que ocurren en el Cosmos, incluyendo la formación de agujeros negros. Se trabaja también en comprobar que la rotación de los cuerpos produce efectos gravitacionales. Se buscan nuevas verificaciones de la relatividad en sistemas de estrellas binarias donde la gravitación es de una intensidad fabulosa comparada con la que actúa en el sistema solar. Y nos queda por averiguar, nada más y nada menos, qué tipo de materia o energía conforma el 95% de nuestro Universo. Las mediciones muy precisas de la radiación cósmica de fondo obtenidas recientemente, interpretadas mediante el modelo relativista de la Gran Explosión, indican que la materia ordinaria sólo puede ser un 5% del total y el resto es de naturaleza desconocida.
La Relatividad fue en sus comienzos un desafío a la imaginación. Hoy es parte de nuestra cultura, conozcamos o no sus detalles, pues ha cambiado nuestra perspectiva sobre el mundo que nos rodea.
ÍNDICE Prólogo: 100 años de relatividad Capítulo 1: Leyes y experimentos Newton, el espacio y el tiempo Leyes físicas y experimentos Geometría y experimentos
Capítulo 2: Luz y éter Un punto crucial: la velocidad de la luz Sistemas de referencia, velocidad total y de arrastre El experimento de Michelson y Morley (o la muerte del éter) La manera correcta de sumar velocidades
Capítulo 3: Las ideas básicas Los postulados de la Relatividad Especial El principio de relatividad La velocidad de la luz es absoluta
El principio de equivalencia: “la idea más feliz de mi vida” ¿Son “sagrados” estos principios?
Capítulo 4: Espacio y tiempo son relativos El movimiento dilata el paso del tiempo Los muones viven más cuando se mueven
El movimiento contrae las longitudes La simultaneidad es relativa (la causalidad no) Gravitación y tiempo El tiempo pasa más lento cerca de un objeto masivo Relojes voladores: el experimento de los aviones La relatividad y el sistema de posicionamiento global (GPS)
Paradojas relativistas
Capítulo 5: La fórmula más famosa Modificando la ley de Newton Masa y energía son equivalentes La fórmula más famosa Reacciones nucleares Antimateria
Capítulo 6: Espacio-tiempo curvo
Líneas rectas y geodésicas La materia curva el espacio-tiempo La trayectoria de Mercurio: primer gran éxito de la teoría ¿Es la Relatividad General la única alternativa?
Capítulo 7: Espejismos astronómicos Desviación de la luz que pasa cerca del Sol
Lentes gravitacionales Lentes gravitacionales como herramientas astronómicas Balanzas para estimar la cantidad de materia oscura en las galaxias Lentes de aumento Relojes para medir la expansión del Universo Microlentes para descubrir objetos compactos
Capítulo 8: Agujeros negros Velocidad de escape y estrellas negras El horizonte Agujeros negros: ¿ciencia o ficción? ¿Cómo ver un agujero negro? Agujeros negros en estrellas binarias Un agujero negro supermasivo en el centro de la Vía Láctea
Viaje al centro de un agujero negro Evaporación de agujeros negros La singularidad
Capítulo 9: Ondas gravitacionales Relatividad versus acción instantánea a distancia ¿Cómo detectar una onda gravitacional? Las ondas gravitacionales son muy débiles
Un reloj astronómico que emite ondas gravitacionales Detectores de ondas gravitacionales Detectores kilométricos (o el retorno de Michelson) Buscando patrones Fuentes periódicas Espiral final de estrellas binarias Destellos Fondo estocástico
Una nueva ventana para asomarse al Universo
Capítulo 10: La constante cosmológica La Gran Explosión
El Universo se expande Nucleosíntesis La radiación cósmica de fondo
¿La expansión será eterna? Distancias extragalácticas ¿Expansión o contracción? El espacio tridimensional es (casi) plano ¿Dónde está la materia? La energía oscura
Epílogo: 100 años no es nada