LAS GRANDES REVOLUCIONES
DEL SIGLO XX .
Durante la primera mitad del siglo xx –estrictamente
en su primer cuarto– se produjeron dos grandes revoluciones científicas. Fue en
la física donde tuvieron lugar tales cataclismos cognitivos, a los que
conocemos bajo la denominación de revoluciones relativista y cuántica,
asociadas a la formulación de las teorías especial y general de la relatividad
(Einstein 1905 a
1915) y de la mecánica cuántica (Heisenberg 1925; Schrödinger 1926).
Relatividad
Mucho se ha escrito y escribirá en el futuro sobre la
importancia de estas formulaciones teóricas y cómo afectaron al conjunto de la
física antes incluso de que la centuria llegase a su mitad. Creada para
resolver la «falta de entendimiento» que crecientemente se percibía entre la
mecánica newtoniana y la electrodinámica de James Clerk Maxwell (1831-1879), la
teoría de la relatividad especial obligó a modificar radicalmente las ideas y
definiciones –vigentes desde que Isaac Newton (1642-1727) las incorporase al
majestuoso edificio contenido en su Philosophiae Naturales Principia
Mathematica (1687)– de conceptos tan básicos desde el punto de vista físico,
ontológico y epistemológico como son espacio, tiempo y materia (masa). El
resultado, en el que las medidas de espacio y tiempo dependían del estado de
movimiento del observador y la masa, m, era equivalente a la energía, E (la
célebre expresión E=m•c2, donde c representa la velocidad de la luz), abrió
nuevas puertas a la comprensión del mundo físico; sirvió, por ejemplo, para
comenzar a entender cómo era posible que los elementos radiactivos (uranio,
polonio, radio, torio) que Henri Becquerel (1852-1908) junto a Marie
(1867-1934) y Pierre Curie (1859-1906) habían sido los primeros en estudiar
(1896, 1898), emitiesen radiaciones de manera continua, sin aparentemente
perder masa.
¡Y qué decir de la teoría general de la relatividad,
que explicaba la gravedad a costa de convertir el espacio –mejor dicho, el
cuatridimensional espacio-tiempo– en curvo y con una geometría variable!
Inmediatamente se comprobó que con la nueva teoría einsteiniana era posible
comprender mejor que con la gravitación universal newtoniana los fenómenos
perceptibles en el Sistema Solar (se resolvió, por ejemplo, una centenaria
anomalía en el movimiento del perihelio de Mercurio). Y por si fuera poco,
enseguida el propio Einstein (1917) tuvo la osadía intelectual de aplicar la
teoría de la relatividad general al conjunto del Universo, creando así la
cosmología como disciplina auténticamente científica, predictiva. Es cierto que
el modelo que Einstein propuso entonces, uno en el que el Universo era
estático, no sobrevivió finalmente, pero lo importante, abrir la puerta al
tratamiento científico del universo, constituyó un acontecimiento difícilmente
igualable en la historia de la ciencia (1).
Para encontrar la solución exacta de las ecuaciones de
la cosmología relativista que utilizó, Einstein (1879-1955) se guio por
consideraciones físicas. Otros matemáticos o físicos con especiales
sensibilidades y habilidades matemáticas, no siguieron semejante senda,
hallando muy pronto nuevas soluciones exactas –que implícitamente representaban
otros modelos de universo– recurriendo únicamente a técnicas matemáticas para
tratar las complejas (un sistema de diez ecuaciones no lineales en derivadas
parciales) ecuaciones de la cosmología relativista. Así, Alexander Friedmann
(1888-1925), Howard Robertson (1903-1961) y Arthur Walker (n. 1909) encontraron
soluciones que implicaban modelos de universo en expansión. De hecho, hubo otro
científico que obtuvo un resultado similar: el sacerdote católico belga Georges
Lemaître (1894-1966), pero éste debe ser mencionado por separado ya que al
igual que había hecho Einstein con su modelo estático, Lemaître (1927) se basó en
consideraciones físicas para defender la idea de una posible, real, expansión
del Universo.
Ahora bien, todos estos modelos surgían de soluciones
de las ecuaciones cosmológicas; esto es, se trataba de posibilidades teóricas.
La cuestión de cómo es realmente el Universo –¿estático?, ¿en expansión?–
quedaba aún por dilucidar, para lo cual el único juez aceptable era la
observación.
La gloria imperecedera de haber encontrado evidencia
experimental a favor de que el Universo se expande pertenece al astrofísico
estadounidense Edwin Hubble (1889-1953), quien se benefició del magnífico
telescopio reflector con un espejo de 2,5 metros de diámetro
que existía en el observatorio de Monte Wilson (California) en el que
trabajaba, al igual que de unos excelentes indicadores de distancia, las
cefeidas, estrellas de luminosidad variable en las que se verifica una relación
lineal entre la luminosidad intrínseca y el periodo de cómo varía esa
luminosidad (Hubble 1929; Hubble y Humason 1931). Y si, como Hubble sostuvo, el
Universo se expandía, esto quería decir que debió existir en el pasado
(estimado inicialmente en unos diez mil millones de años, más tarde en quince
mil millones y en la actualidad en unos trece mil setecientos millones) un
momento en el que toda la materia habría estado concentrada en una pequeña
extensión: el «átomo primitivo» de Lemaître, o, una idea que tuvo más éxito, el
Big Bang (Gran Estallido).
Nació así una visión del Universo que en la actualidad
forma parte de la cultura más básica. No fue, sin embargo, siempre así. De
hecho, en 1948, cuando terminaba la primera mitad del siglo, tres físicos y
cosmólogos instalados en Cambridge: Fred Hoyle (1915-2001), por un lado, y
Hermann Bondi (1919-2005) y Thomas Gold (1920-2004), por otro (los tres habían
discutido sus ideas con anterioridad a la publicación de sus respectivos
artículos), dieron a conocer un modelo diferente del Universo en expansión: la
cosmología del estado estable, que sostenía que el Universo siempre ha tenido y
tendrá la misma forma (incluyendo densidad de materia, lo que, debido a la
evidencia de la expansión del Universo, obligaba a introducir la creación de
materia para que un «volumen» de Universo tuviese siempre el mismo contenido
aunque estuviese dilatándose); en otras palabras: que el Universo no tuvo ni un
principio ni tendrá un final (2).
A pesar de lo que hoy podamos pensar, imbuidos como
estamos en «el paradigma del Big Bang», la cosmología del estado estable
ejerció una gran influencia durante la década de 1950. Veremos que fue en la
segunda mitad del siglo cuando finalmente fue desterrada (salvo para unos pocos
fieles, liderados por el propio Hoyle).
Física cuántica
La segunda gran revolución a la que hacía referencia
es la de la física cuántica. Aunque no es rigurosamente exacto, hay sobrados
argumentos para considerar que el punto de partida de esta revolución tuvo
lugar en 1900, cuando mientras estudiaba la distribución de energía en la
radiación de un cuerpo negro, el físico alemán Max Planck (1858-1947) introdujo
la ecuación E=h•? donde E es, como en el caso de expresión relativista, la
energía, h una constante universal (denominada posteriormente «constante de
Planck») y ? la frecuencia de la radiación involucrada (Planck 1900). Aunque él
se resistió de entrada a apoyar la idea de que este resultado significaba que
de alguna manera la radiación electromagnética (esto es, la luz, una onda
continua como se suponía hasta entonces) se podía considerar también como
formada por «corpúsculos» (posteriormente denominados «fotones») de energía
h•?, semejante implicación terminó imponiéndose, siendo en este sentido
Einstein (1905b) decisivo. Se trataba de la «dualidad onda-corpúsculo».
Durante un cuarto de siglo, los físicos pugnaron por
dar sentido a los fenómenos cuánticos, entre los que terminaron integrándose
también la radiactividad, la espectroscopia y la física atómica. No es posible
aquí ofrecer ni siquiera un esbozo del número de científicos que trabajaron en
este campo, de las ideas que manejaron y los conceptos que introdujeron, ni de
las observaciones y experimentos realizados. Únicamente puedo decir que un
momento decisivo en la historia de la física cuántica se produjo en 1925,
cuando un joven físico alemán de nombre Werner Heisenberg (1901-1976)
desarrolló la primera formulación coherente de una mecánica cuántica: la
mecánica cuántica matricial. Poco después, en 1926, el austriaco Erwin
Schrödinger (1887-1961) encontraba una nueva versión (pronto se comprobó que
ambas eran equivalentes): la mecánica cuántica ondulatoria.
Si la exigencia de la constancia de velocidad de la
luz contenida en uno de los dos axiomas de la teoría de la relatividad
especial, la dependencia de las medidas espaciales y temporales del movimiento
del observador o la curvatura dinámica del espacio-tiempo constituían
resultados no sólo innovadores sino sorprendentes, que violentan nuestro
«sentido común», mucho más chocantes resultaron ser aquellos contenidos o
deducidos en la mecánica cuántica, de los que es obligado recordar al menos
dos: (1) la interpretación de la función de onda de la ecuación de Schrödinger
debida a Max Born (1882-1970), según la cual tal función –el elemento básico en
la física cuántica para describir el fenómeno considerado– representa la
probabilidad de que se dé un resultado concreto (Born 1926); y (2) el principio
de incertidumbre (Heisenberg 1927), que sostiene que magnitudes canónicamente
conjugadas (como la posición y la velocidad, o la energía y el tiempo) sólo se
pueden determinar simultáneamente con una indeterminación característica (la
constante de Planck): ?x•?p?h, donde x representa la posición y p el momento
lineal (el producto de la masa por la velocidad). A partir de este resultado,
al final de su artículo Heisenberg extraía una conclusión con implicaciones
filosóficas de largo alcance: «En la formulación fuerte de la ley causal “Si
conocemos exactamente el presente, podemos predecir el futuro”, no es la
conclusión, sino más bien la premisa la que es falsa. No podemos conocer, por
cuestiones de principio, el presente en todos sus detalles». Y añadía: «En
vista de la íntima relación entre el carácter estadístico de la teoría cuántica
y la imprecisión de toda percepción, se puede sugerir que detrás del universo
estadístico de la percepción se esconde un mundo “real” regido por la
causalidad. Tales especulaciones nos parecen –y hacemos hincapié en esto–
inútiles y sin sentido. Ya que la física tiene que limitarse a la descripción
formal de las relaciones entre percepciones».
La mecánica cuántica de Heisenberg y Schrödinger abrió
un mundo nuevo, científico al igual que tecnológico, pero no era en realidad
sino el primer paso. Existían aún muchos retos pendientes, como, por ejemplo,
hacerla compatible con los requisitos de la teoría de la relatividad especial,
o construir una teoría del electromagnetismo, una electrodinámica, que
incorporase los requisitos cuánticos. Si Einstein había enseñado, y la física
cuántica posterior incorporado en su seno, que la luz, una onda
electromagnética, estaba cuantizada, esto es, que al mismo tiempo que una onda
también era una «corriente» de fotones, y si la electrodinámica que Maxwell
había construido en el siglo xix describía la luz únicamente como una onda, sin
ninguna relación con la constante de Planck, entonces era evidente que algo
fallaba, que también había que cuantizar el campo electromagnético.
No fue necesario, sin embargo, esperar a la segunda
mitad del siglo xx para contar con una electrodinámica cuántica. Tal teoría,
que describe la interacción de partículas cargadas mediante su interacción con
fotones, fue construida en la década de 1940, de manera independiente, por un
físico japonés y dos estadounidenses: Sin-itiro Tomonaga (1906-1979), Julian
Schwinger (1918-1984) y Richard Feynman (1918-1988) (3).
La electrodinámica cuántica representó un avance
teórico considerable, pero tampoco significaba, ni mucho menos, el final de la
historia cuántica; si acaso, ascender un nuevo peldaño de una escalera cuyo
final quedaba muy lejos. En primer lugar porque cuando la teoría de
Tomonaga-Schwinger-Feynman fue desarrollada ya estaba claro que además de las
tradicionales fuerzas electromagnética y gravitacional existen otras dos: la
débil, responsable de la existencia de la radiactividad, y la fuerte, que unía
a los constituyentes (protones y neutrones) de los núcleos atómicos (4). Por
consiguiente, no bastaba con tener una teoría cuántica de la interacción
electromagnética, hacía falta además construir teorías cuánticas de las tres
restantes fuerzas.
Relacionado íntimamente con este problema, estaba la
proliferación de partículas «elementales». El electrón fue descubierto, como
componente universal de la materia, en 1897 por Joseph John Thomson
(1856-1940). El protón (que coincide con el núcleo del hidrógeno) fue
identificado definitivamente gracias a experimentos realizados en 1898 por
Wilhelm Wien (1864-1928) y en 1910 por Thomson. El neutrón (partícula sin
carga) fue descubierto en 1932 por el físico inglés James Chadwick (1891-1974).
Y en diciembre de este año, el estadounidense Carl Anderson (1905-1991) hallaba
el positrón (idéntico al electrón salvo en que su carga es opuesta, esto es,
positiva), que ya había sido previsto teóricamente en la ecuación relativista
del electrón, introducida en 1928 por uno de los pioneros en el establecimiento
de la estructura básica de la mecánica cuántica, el físico inglés Paul Dirac
(1902-1984).
Electrones, protones, neutrones, fotones y positrones
no serían sino los primeros miembros de una extensa familia (mejor, familias)
que no hizo más que crecer desde entonces, especialmente tras la entrada en
funcionamiento de unas máquinas denominadas «aceleradores de partículas». En el
establecimiento de esta rama de la física, el ejemplo más característico de lo
que se ha venido en llamar Big Science (Gran Ciencia), ciencia que requiere de
enormes recursos económicos y de equipos muy numerosos de científicos y
técnicos, nadie se distinguió más que Ernest O. Lawrence (1901-1958), quien a
partir de la década de 1930 desarrolló en la Universidad de
Berkeley (California) un tipo de esos aceleradores, denominados «ciclotrones»,
en los que las partículas «elementales» se hacían girar una y otra vez, ganando
en cada vuelta energía, hasta hacerlas chocar entre sí, choques que se
fotografiaban para luego estudiar sus productos, en los que aparecían nuevas
partículas «elementales». Pero de esta rama de la física, denominada «de altas
energías», volveré a hablar más adelante, cuando trate de la segunda mitad del
siglo xx; ahora basta con decir que su origen se encuentra en la primera mitad
de esa centuria.
Establecido el marco general, es hora de pasar a la
segunda mitad del siglo, a la que está dedicada el presente artículo. Y
comenzaré por el escenario más general: el Universo, en el que la interacción
gravitacional desempeña un papel central, aunque, como veremos, no exclusivo,
particularmente en los primeros instantes de su existencia.
El mundo de la gravitación
Evidencias de la expansión del
Universo la radiación cósmica de microondas
Señalé antes que no todos los físicos, astrofísicos y
cosmólogos entendieron la expansión descubierta por Hubble como evidencia de
que el Universo tuvo un comienzo, un Big Bang. La cosmología del estado estable
de Hoyle-Bondi-Gold proporcionaba un marco teórico en el que el Universo había
sido siempre igual, y esta idea fue bien aceptada por muchos. Sin embargo, en
la década siguiente a la de su formulación, la de 1950, comenzó a tener
problemas. El que fuese así se debió no a consideraciones teóricas, sino a las
nuevas posibilidades observacionales que llegaron de la mano del desarrollo
tecnológico. Es éste un punto que merece la pena resaltar: eso que llamamos
ciencia es producto de una delicada combinación entre teoría y observación. No
hay, efectivamente, ciencia sin la construcción de sistemas (teorías) que
describen conjuntos de fenómenos, pero mucho menos la hay sin observar lo que
realmente sucede en la naturaleza (simplemente, no somos capaces de imaginar
cómo se comporta la naturaleza). Y para observar se necesitan instrumentos;
cuanto más poderosos –esto es, capaces de mejorar las potencialidades de
nuestros sentidos–, mejor. Y esto equivale a desarrollo tecnológico.
Sucede que la segunda mitad del siglo xx fue una época
en la que la tecnología experimentó un desarrollo gigantesco, mucho mayor que
en el pasado, y esto repercutió muy positivamente en el avance de la ciencia,
en general, y de la astrofísica y cosmología en particular. En lo relativo a
los problemas que afectaron a la cosmología del estado estable, a los que antes
me refería, tales dificultades nacieron del desarrollo de la radioastronomía,
una disciplina que había dado sus primeros pasos en la década de 1930, gracias
a los trabajos de Karl Jansky (1905-1950), un ingeniero eléctrico que trabajaba
para los laboratorios Bell (estrictamente Bell Telephone Laboratories), el
«departamento» de American Telephone and Telegraph Corporation encargado de la
investigación y el desarrollo. En 1932, mientras buscaba posibles fuentes de
ruido en emisiones de radio, Jansky detectó emisiones eléctricas procedentes
del centro de nuestra galaxia. A pesar de la importancia que visto
retrospectivamente asignamos ahora a tales observaciones, Jansky no continuó
explorando las posibilidades que había abierto; al fin y al cabo, el mundo de
la investigación fundamental no era el suyo.
No inmediatamente, pero sí pronto aquellas antenas
primitivas se convirtieron en refinados radiotelescopios; habitualmente discos
de cada vez mayor diámetro, que recogían radiación electromagnética procedente
del espacio. La importancia de estos instrumentos para el estudio del Universo
es obvia: los telescopios ópticos en los que se basaba hasta entonces la
astrofísica únicamente estudiaban un rango muy pequeño del espectro
electromagnético; eran, por así decir, casi «ciegos».
Uno de los primeros lugares en los que floreció
institucionalmente la radioastronomía fue en Cambridge (Inglaterra). Fue allí
donde Martin Ryle (1918-1984), continuó decididamente por la senda esbozada por
Jansky. En semejante tarea se vio ayudado por los conocimientos que había
obtenido durante la
Segunda Guerra Mundial (trabajó entonces en el
Telecommunications Research Establishment gubernamental, más tarde bautizado
como Royal Radar Establishment), así como por la mejora que esa conflagración
había significado para la instrumentación electrónica. Utilizando
radiotelescopios, algunos de cuyos componentes diseñó él mismo, Ryle identificó
en 1950 cincuenta radio-fuentes, número que aumentó radicalmente cinco años más
tarde, cuando llegó a las dos mil. Uno de sus hallazgos fue descubrir una
radio-fuente en la constelación de Cygnus, situada a 500 años-luz de la Vía Láctea. Al ver más
lejos en el espacio, estaba viendo también más atrás en el tiempo (las señales
que recibía habían sido emitidas hacía mucho, el tiempo que les había costado
llegar a la Tierra ).
Con sus observaciones se estaba, por tanto, adentrando en la historia pasada
del universo. Hubble había dado el primer gran paso en el camino de la
cosmología observacional; Ryle –que recibió el Premio Nobel de Física en 1974–
el segundo.
Gracias a sus observaciones con radio-fuentes, Ryle
llegó a conclusiones que iban en contra de la cosmología del estado estable,
reivindicando así la del Big Bang. Al analizar las curvas que relacionaban el
número de radio-estrellas por unidad de ángulo sólido con la intensidad que
emiten, Ryle (1955) concluía que no veía la manera en la que las observaciones
se pudiesen explicar en términos de la teoría del estado estable».
Mucho más concluyente a favor de la existencia en el
pasado de un gran estallido fue otro descubrimiento, uno de los más célebres e
importantes en toda la historia de la astrofísica y cosmología: el del fondo de
radiación de microondas.
En 1961, E. A. Ohm, un físico de una de las
instalaciones de los laboratorios Bell, situada en Crawford Hill, New Jersey,
construyó un radiómetro para recibir señales de microondas procedentes del
globo Echo (un reflector de señales electromagnéticas lanzado en 1960) de la NASA. No era una
casualidad: los laboratorios Bell querían comenzar a trabajar en el campo de
los satélites de comunicación. En observaciones realizadas en la longitud de
onda de 11 cm .,
Ohm encontró un exceso de temperatura de 3,3°K (grados kelvin) en la antena,
pero este resultado apenas atrajo alguna atención (5).
Otro de los instrumentos que se desarrollaron por
entonces en Crawford Hill fue una antena en forma de cuerno, una geometría que
reducía las interferencias. El propósito inicial era utilizarla para
comunicarse, vía el globo Echo, con el satélite Telstar de la compañía (la
antena debía ser muy precisa, ya que debido a la forma del globo, las señales
que incidiesen en él se difundirían mucho). En 1963, sabiendo de la existencia
de esta antena, Robert Wilson (n. 1936) abandonó su puesto posdoctoral en el
Instituto Tecnológico de California (Caltech) para aceptar un trabajo en los
laboratorios Bell. Arno Penzias (n. 1933), un graduado de la Universidad de
Columbia (Nueva York) tres años mayor que Wilson, ya llevaba por entonces dos
años en los laboratorios. Afortunadamente, aquel mismo año la antena, pequeña
pero de gran sensibilidad, pudo ser utilizada para estudios de radioastronomía,
ya que la compañía decidió abandonar el negocio de comunicaciones vía satélite.
Realizando medidas para una longitud de onda de 7,4 centímetros ,
Penzias y Wilson encontraron una temperatura de 7,5°K, cuando debía haber sido
únicamente de 3,3°K. Además, esta radiación (o temperatura) suplementaria, que
se creía efecto de algún ruido de fondo, resultó ser independiente de la
dirección en la que se dirigiese la antena. Los datos obtenidos indicaban que
lo que estaban midiendo no tenía origen ni atmosférico, ni solar, ni galáctico.
Era un misterio.
Después de descartar que los ruidos proviniesen de la
propia antena, la única conclusión posible era que tenía algo que ver con el
cosmos, aunque no se sabía cuál podía ser la causa. La respuesta a esta
cuestión llegó de algunos colegas de la cercana Universidad de Princeton,
algunos de los cuales, como James Peebles (n. 1935), ya habían considerado la
idea de que si hubo un Big Bang debería existir un fondo de ruido remanente del
universo primitivo, un ruido que, en forma de radiación, correspondería a una
temperatura mucho más fría (debido al enfriamiento asociado a la expansión del
Universo) que la enorme que debió producirse en aquella gran explosión. Las
ideas de Peebles habían animado a su colega en Princeton Robert Dicke
(1916-1995) a iniciar un experimento destinado a encontrar esa radiación de
fondo cósmico, tarea en la que se les adelantaron, sin pretenderlo, Penzias y
Wilson. Aun así, fue el grupo de Princeton el que suministró la interpretación
de las observaciones de Penzias y Wilson (1965), que éstos publicaron sin hacer
ninguna mención a sus posibles implicaciones cosmológicas. La temperatura
correspondiente a esa radiación situada en el dominio de las microondas
corresponde según las estimaciones actuales a unos 2,7°K (en su artícu-lo de
1965, Penzias y Wilson daban un valor de 3,5°K).
El que Penzias y Wilson detectasen el fondo de
radiación de microondas en un centro dedicado a la investigación industrial, en
donde se disponía y desarrollaban nuevos instrumentos es significativo. Expresa
perfectamente la ya mencionada necesidad de instrumentos más precisos, de nueva
tecnología, para avanzar en el conocimiento del Universo. Según se dispuso de
esta tecnología, fue ampliándose la imagen del cosmos. Y así llegaron otros
descubrimientos, de los que destacaré dos: púlsares y cuásares.
Púlsares y cuásares
En 1963, un radioastrónomo inglés, Cyril Hazard, que
trabajaba en Australia, estableció con precisión la posición de una poderosa
radio-fuente, denominada 3C273. Con estos datos, el astrónomo holandés Maarten
Schmidt (n. 1929), del observatorio de Monte Palomar (California), localizó
ópticamente el correspondiente emisor, encontrando que las líneas del espectro
de 3C273 estaban desplazadas hacia el extremo del rojo en una magnitud que
revelaba que se alejaba de la
Tierra a una velocidad enorme: 16% de la velocidad de la luz.
Utilizando la ley de Hubble, que afirma que la distancia de las galaxias entre
sí son directamente proporcionales a su velocidad de recesión, se deducía que
3C273 estaba muy alejada, lo que a su vez implicaba que se trataba de un objeto
extremadamente luminoso, más de cien veces que una galaxia típica. Fueron
bautizados como quasi-stellar sources (fuentes casi-estelares), esto es,
quasars (cuásares), y se piensa que se trata de galaxias con núcleos muy
activos.
Desde su descubrimiento, se han observado varios millones
de cuásares, aproximadamente el 10% del número total de galaxias brillantes
(muchos astrofísicos piensan que una buena parte de las galaxias más brillantes
pasan durante un breve periodo por una fase en la que son cuásares). La mayoría
están muy alejados de nuestra galaxia, lo que significa que la luz que se ve ha
sido emitida cuando el universo era mucho más joven. Constituyen, por
consiguiente, magníficos instrumentos para el estudio de la historia del
Universo.
En 1967, Jocelyn S. Bell (n. 1943), Anthony Hewish (n.
1924) y los colaboradores de éste en Cambridge construyeron un detector para
observar cuásares en las frecuencias radio. Mientras lo utilizaba, Bell observó
una señal que aparecía y desaparecía con gran rapidez y regularidad. Tan constante
era el periodo que parecía tener un origen artificial (¿acaso una fuente
extraterrestre inteligente?). No obstante, tras una cuidadosa búsqueda Bell y
Hewish concluyeron que estos «púlsares», como finalmente fueron denominados,
tenían un origen astronómico (Hewish, Bell, Pilkington, Scott y Collins 1968)
(6). Ahora bien, ¿qué eran estas radio-fuentes tan regulares? La interpretación
teórica llegó poco después, de la mano de Thomas Gold, uno de los «padres» de
la cosmología del estado estable, reconvertido ya al modelo del Big Bang. Gold
(1968) se dio cuenta de que los periodos tan pequeños implicados (del orden de
1 o 3 segundos en los primeros púlsares detectados) exigían una fuente de
tamaño muy pequeño. Las enanas blancas eran demasiado grandes para rotar o
vibrar con tal frecuencia, pero no así las estrellas de neutrones (7). Pero ¿el
origen de las señales recibidas se debía a vibraciones o a rotaciones de estas
estrellas? No a vibraciones, porque en estrellas de neutrones éstas eran
demasiado elevadas (alrededor de mil veces por segundo) para explicar los
periodos de la mayoría de los pulsares. Por consiguiente, los púlsares tenían
que ser estrellas de neutrones en rotación. En la actualidad, cuando se han
descubierto púlsares que emiten rayos X o gamma (incluso algunos luz en el
espectro óptico), también se admiten otros mecanismos para la producción de la
radiación que emiten; por ejemplo, la acreción de materia en sistemas dobles.
Además de su interés astrofísico, los púlsares cumplen
otras funciones. Una de ellas ha sido utilizarlos para comprobar la predicción
de la relatividad general de que masas aceleradas emiten radiación
gravitacional (un fenómeno análogo al que se produce con cargas eléctricas: la
radiación electromagnética).
La confirmación de que, efectivamente, la radiación
gravitacional existe derivó del descubrimiento, en 1974, del primer sistema
formado por dos púlsares interaccionando entre sí (denominado PSR1913+16), por
el que Russell Hulse (n. 1950) y Joseph Taylor (n. 1941) recibieron en 1993 el
Premio Nobel de Física. En 1978, después de varios años de observaciones
continuadas de ese sistema binario, pudo concluirse que las órbitas de los
púlsares varían acercándose entre sí, un resultado que se interpreta en
términos de que el sistema pierde energía debido a la emisión de ondas
gravitacionales (Taylor, Fowler y McCulloch 1979). Desde entonces han sido
descubiertos otros púlsares en sistemas binarios, pero lo que aún resta es
detectar la radiación gravitacional identificando su paso por instrumentos
construidos e instalados en la
Tierra , una empresa extremadamente difícil dado lo minúsculo
de los efectos implicados: se espera que las ondas gravitacionales que lleguen
a la Tierra
(originadas en algún rincón del Universo en el que tenga lugar un suceso
extremadamente violento) produzcan distorsiones en los detectores de no más de
una parte en 1021; esto es, una pequeña fracción del tamaño de un átomo.
Existen ya operativos diseñados para lograrlo: el sistema de 4 kilómetros de
detectores estadounidenses denominado LIGO, por sus siglas inglesas, Laser
Interferometric Gravitational wave Observatories.
También los cuásares resultan ser objetos muy útiles
para estudiar el Universo en conjunción con la relatividad general. Alrededor
de uno entre quinientos cuásares se ven implicados en un fenómeno relativista
muy interesante: la desviación de la luz que emiten debido al efecto
gravitacional de otras galaxias situadas entre el cuásar en cuestión y la Tierra , desde donde se
observa este fenómeno, denominado «lentes gravitacionales» (8). El efecto puede
llegar a ser tan grande que se observan imágenes múltiples de un solo cuásar.
En realidad, las lentes gravitacionales no son
producidas únicamente por cuásares; también lo son por grandes acumulaciones de
masas (como cúmulos de galaxias) que al desviar la luz procedente de, por
ejemplo, galaxias situadas tras ellas (con respecto a nosotros) dan lugar, en
lugar de a una imagen más o menos puntual, a un halo de luz, a una imagen
«desdoblada». Fueron observados por primera vez en 1979, cuando Walsh, Carswell
y Weyman (1979) descubrieron una imagen múltiple de un cuasar en 0957+561.
Posteriormente, se han tomado fotografías con el telescopio espacial Hubble de
un cúmulo de galaxias situado a unos mil millones de años-luz de distancia en
las que además de las galaxias que forman el cúmulo se observan numerosos arcos
(trozos de aros) que se detectan con mayor dificultad debido a ser más débiles
luminosamente. Estos arcos son en realidad las imágenes de galaxias mucho más
alejadas de nosotros que las que constituyen el propio cúmulo, pero que
observamos mediante el efecto de lente gravitacional (el cúmulo desempeña el
papel de la lente que distorsiona la luz procedente de tales galaxias). Además
de proporcionar nuevas evidencias en favor de la relatividad general, estas
observaciones tienen el valor añadido de que la magnitud de la desviación y
distorsión que se manifiesta en estos arcos luminosos es mucho mayor del que se
esperaría si no hubiese nada más en el cúmulo que las galaxias que vemos en él.
De hecho, las evidencias apuntan a que estos cúmulos contienen entre cinco y
diez veces más materia de la que se ve. ¿Se trata de la materia oscura de la
que hablaré más adelante?
Para muchos —al menos hasta que el problema de la
materia y energía oscuras pasó a un primer plano— la radiación de fondo, los
púlsares y los cuásares, de los que me he ocupado en esta sección, constituyen
los tres descubrimientos más importantes en la astrofísica de la segunda mitad
del siglo xx. Ciertamente, lo que estos hallazgos nos dicen, especialmente en
el caso de púlsares y cuásares, es que el Universo está formado por objetos
mucho más sorprendentes, y sustancialmente diferentes, de los que se había
supuesto existían durante la primera mitad del siglo xx. Ahora bien, cuando se
habla de objetos estelares sorprendentes o exóticos, es inevitable referirse a
los agujeros negros, otro de los «hijos» de la teoría de la relatividad
general.
Agujeros negros
Durante décadas tras su formulación en 1915 y haber
sido explotadas las predicciones de la teoría einsteiniana de la gravitación
con relación al Sistema Solar (movimiento del perihelio de Mercurio, curvatura
de los rayos de luz y desplazamiento gravitacional de las líneas espectrales), la
relatividad general estuvo en gran medida en manos de los matemáticos, hombres
como Hermann Weyl (1885-1955), Tullio Levi-Civita (1873-1941), Jan Arnouldus
Schouten (1883-1971), Cornelius Lanczos (1892-1974) o André Lichnerowicz
(1915-1998). La razón era, por un lado, la dificultad matemática de la teoría,
y por otro el que apenas existían situaciones en las que se pudiese aplicar. Su
dominio era el Universo y explorarlo requería de unos medios tecnológicos que
no existían entonces (también, por supuesto, era preciso una financiación
importante). Este problema fue desapareciendo a partir de finales de la década
de 1960, y hoy se puede decir que la relatividad general se ha integrado
plenamente en la física experimental, incluyendo apartados que nos son tan
próximos como el Global Positioning System (GPS). Y no sólo en la física
experimental correspondiente a los dominios astrofísico y cosmológico, también,
como veremos más adelante, se ha asociado a la física de altas energías.
Y en este punto, como uno de los objetos estelares más
sorprendentes y atractivos vinculados a la relatividad general cuya existencia
se ha descubierto en las últimas décadas, es necesario referirse a los agujeros
negros, que de hecho han ido más allá del mundo puramente científico, afincándose
asimismo en el social.
Estos objetos pertenecen, como digo, al dominio
teórico de la teoría de la relatividad general, aunque sus equivalentes
newtonianos habían sido propuestos –y olvidados– mucho antes por el astrónomo
británico John Michell (c. 1724-1793) en 1783, y por Pierre Simon Laplace
(1749-1827) en 1795. Su exoticidad proviene de que involucran nociones tan
radicales como la destrucción del espacio-tiempo en puntos denominados
«singularidades» (9).
El origen de los estudios que condujeron a los
agujeros negros se remonta a la década de 1930, cuando el físico de origen
hindú, Subrahamanyan Chandrasekhar (1910-1995), y el ruso Lev Landau
(1908-1968), mostraron que en la teoría de la gravitación newtoniana un cuerpo
frío de masa superior a 1,5 veces la del Sol no podría soportar la presión
producida por la gravedad (Chandrasekhar 1931; Landau 1932). Este resultado
condujo a la pregunta de qué sucedería según la relatividad general. Robert
Oppenheimer (1904-1967), junto a dos de sus colaboradores, George M. Volkoff y
Hartland Snyder (1913-1962) demostraron en 1939 que una estrella de semejante
masa se colapsaría hasta reducirse a una singularidad, esto es, a un punto de
volumen cero y densidad infinita (Oppenheimer y Volkoff 1939; Oppenheimer y
Snyder 1939).
Pocos prestaron atención, o creyeron, en las
conclusiones de Oppenheimer y sus colaboradores y su trabajo fue ignorado hasta
que el interés en los campos gravitacionales fuertes fue impulsado por el
descubrimiento de los cuásares y los púlsares. Un primer paso lo dieron en 1963
los físicos soviéticos, Evgenii M. Lifshitz (1915-1985) e Isaak M. Khalatnikov
(n. 1919), que comenzaron a estudiar las singularidades del espacio-tiempo
relativista. Siguiendo la estela del trabajo de sus colegas soviéticos e
introduciendo poderosas técnicas matemáticas, a mediados de la década de 1960
el matemático y físico británico Roger Penrose (n. 1931) y el físico Stephen
Hawking (n. 1942), demostraron que las singularidades eran inevitables en el
colapso de una estrella si se satisfacían ciertas condiciones (10).
Un par de años después de que Penrose y Hawking
publicasen sus primeros artículos, la física de las singularidades del
espacio-tiempo se convirtió en la de los «agujeros negros», un término
afortunado que no ha hecho sino atraer la atención popular sobre este ente
físico. El responsable de esta aparentemente insignificante pequeña revolución
terminológica fue el físico estadounidense, John A. Wheeler (1911-2008). Él
mismo explicó la génesis del término de la forma siguiente (Wheeler y Ford
1998, 296-297):
En el otoño de 1967, Vittorio Canuto, director
administrativo del Instituto Goddard para Estudios Espaciales de la NASA en el 2880 de Broadway,
en Nueva York, me invitó a dar una conferencia para considerar posibles
interpretaciones de las nuevas y sugerentes evidencias que llegaban de
Inglaterra acerca de los púlsares. ¿Qué eran estos púlsares? ¿Enanas blancas
que vibraban? ¿Estrellas de neutrones en rotación? ¿Qué? En mi charla argumenté
que debíamos considerar la posibilidad de que en el centro de un púlsar se
encontrase un objeto completamente colapsado gravitacionalmente. Señalé que no
podíamos seguir diciendo, una y otra vez, «objeto completamente colapsado
gravitacionalmente». Se necesitaba una frase descriptiva más corta. ¿Qué tal
agujero negro?, preguntó alguien de la audiencia. Yo había estado buscando el
término adecuado durante meses, rumiándolo en la cama, en la bañera, en mi
coche, siempre que tenía un momento libre. De repente, este nombre me pareció
totalmente correcto. Cuando, unas pocas semanas después, el 29 de diciembre de
1967, pronuncié la más formal conferencia Sigma Xi-Phi Kappa en la West Ballroom del
Hilton de Nueva York, utilicé este término, y después lo incluí en la versión
escrita de la conferencia publicada en la primavera de 1968.
El nombre era sugerente y permanecería, pero la
explicación era errónea (como ya he señalado un púlsar está propulsado por una
estrella de neutrones).
Aunque la historia de los agujeros negros tiene sus
orígenes, como se ha indicado, en los trabajos de índole física de Oppenheimer
y sus colaboradores, durante algunos años predominaron los estudios puramente
matemáticos, como los citados de Penrose y Hawking. La idea física subyacente
era que debían representar objetos muy diferentes a cualquier otro tipo de
estrella, aunque su origen estuviese ligado a éstas. Surgirían cuando, después
de agotar su combustible nuclear, una estrella muy masiva comenzase a
contraerse irreversiblemente debido a la fuerza gravitacional. Así, llegaría un
momento en el que se formaría una región (denominada «horizonte») que
únicamente dejaría entrar materia y radiación, sin permitir que saliese nada,
ni siquiera luz (de ahí lo de «negro»): cuanto más grande es, más come, y cuanto
más come, más crece. En el centro del agujero negro está el punto de colapso.
De acuerdo con la relatividad general, allí la materia que una vez compuso la
estrella es comprimida y expulsada aparentemente «fuera de la existencia».
Evidentemente, «fuera de la existencia» no es una idea
aceptable. Ahora bien, existe una vía de escape a semejante paradójica
solución: la teoría de la relatividad general no es compatible con los
requisitos cuánticos, pero cuando la materia se comprime en una zona muy reducida
son los efectos cuánticos los que dominarán. Por consiguiente, para comprender
realmente la física de los agujeros negros es necesario disponer de una teoría
cuántica de la gravitación (cuantizar la relatividad general o construir una
nueva teoría de la interacción gravitacional que sí se pueda cuantizar), una
tarea aún pendiente en la actualidad, aunque se hayan dado algunos pasos en
esta dirección, uno de ellos debido al propio Hawking, el gran gurú de los
agujeros negros: la denominada «radiación de Hawking» (Hawking 1975), la
predicción de que, debido a procesos de índole cuántica, los agujeros negros no
son tan negros como se pensaba, pudiendo emitir radiación (11).
No sabemos, en consecuencia, muy bien qué son estos
misteriosos y atractivos objetos. De hecho, ¿existen realmente? La respuesta es
que sí. Cada vez hay mayores evidencias en favor de su existencia. La primera
de ellas fue consecuencia de la puesta en órbita, el 12 de diciembre de 1970,
desde Kenia, para conmemorar la independencia del país, de un satélite
estadounidense bautizado como Uhuru, la palabra suajili para «Libertad». Con
este instrumento se pudo determinar la posición de las fuentes de rayos X más
poderosas. Entre las 339 fuentes identificadas, figura Cygnus X-1, una de las
más brillantes de la Vía
Láctea , en la región del Cisne. Esta fuente se asoció
posteriormente a una estrella supergigante azul visible de una masa 13 veces la
del Sol y una compañera invisible cuya masa se estimó –analizando el movimiento
de su compañera– en 7 masas solares, una magnitud demasiado grande para ser una
enana blanca o una estrella de neutrones, por lo que se considera un agujero
negro. No obstante, algunos sostienen que la masa de este objeto invisible es
de 3 masas solares, con lo que podría ser una estrella de neutrones. En la
actualidad se acepta generalmente que existen agujeros negros supermasivos en
el centro de aquellas galaxias (aproximadamente el 1% del total de galaxias del
Universo) cuyo núcleo es más luminoso que el resto de toda la galaxia. De
manera indirecta se han determinado las masas de esos superagujeros negros en
más de doscientos casos, pero sólo en unos pocos de manera directa; uno de
ellos está en la propia Vía Láctea.
Inflación y «arrugas en el
tiempo»
El estudio del Universo constituye un rompecabezas
descomunal. Medir ahí distancias, masas y velocidades, tres datos básicos, es,
obviamente, extremadamente complejo: no podemos hacerlo directamente ni tampoco
podemos «ver» todo con precisión. Con los datos de que se disponía, durante un
tiempo bastó con el modelo que suministraba la solución de
Robertson-Walker-Friedmann de la relatividad general, que representa el
Universo expandiéndose con una aceleración que depende de su contenido de
masa-energía. Pero existían problemas para la cosmología del Big Bang que
fueron haciéndose cada vez más patentes.
Uno de ellos era si esa masa-energía es tal que el
Universo continuará expandiéndose siempre o si es lo suficientemente grande
como para que la atracción gravitacional termine venciendo a la fuerza del
estallido inicial haciendo que, a partir de un momento, comience a contraerse
para finalmente llegar a un Big Crunch (Gran Contracción). Otro problema
residía en la gran uniformidad que se observa en la distribución de masa del
Universo si uno toma como unidad de medida escalas de unos 300 millones de
años-luz o más (a pequeña escala, por supuesto, el Universo, con sus estrellas,
galaxias, cúmulos de galaxias y enormes vacíos interestelares, no es
homogéneo). El fondo de radiación de microondas es buena prueba de esa
macro-homogeneidad. Ahora bien, en la teoría estándar del Big Bang es difícil
explicar esta homogeneidad mediante los fenómenos físicos conocidos; además, si
tenemos en cuenta que la transmisión de información sobre lo que sucede entre
diferentes puntos del espacio-tiempo no puede ser transmitida con una velocidad
superior a la de la luz, sucede que en los primeros momentos de existencia del
Universo no habría sido posible que regiones distintas «llegasen a un
consenso», por decirlo de alguna manera, acerca de cuál debería ser la densidad
media de materia y radiación (12).
Para resolver este problema se propuso la idea del
Universo inflacionario, según la cual en los primeros instantes de vida del
Universo se produjo un aumento gigantesco, exponencial, en la velocidad de su
expansión. En otras palabras, el miniUniverso habría experimentado un
crecimiento tan rápido que no habría habido tiempo para que se desarrollasen
procesos físicos que diesen lugar a distribuciones inhomogéneas. Una vez
terminada la etapa inflacionaria, el Universo habría continuado evolucionando
de acuerdo con el modelo clásico del Big Bang.
En cuanto a quiénes fueron los científicos
responsables de la teoría inflacionaria, los principales nombres que hay que citar
son los del estadounidense Alan Guth (n. 1947) y el soviético Andrei Linde (n.
1948) (13). Pero más que nombres concretos, lo que me interesa resaltar es que
no es posible comprender esta teoría al margen de la física de altas energías
(antes denominada de partículas elementales), de la que me ocuparé más
adelante; en concreto de las denominadas teorías de gran unificación (Grand
Unified Theories; GUT), que predicen que tendría que producirse una transición
de fase a temperaturas del orden de 1027 grados Kelvin (14). Aquí tenemos una
muestra de uno de los fenómenos más importantes que han tenido lugar en la
física de la segunda mitad del siglo xx: la reunión de la cosmología, la
ciencia de «lo grande», y la física de altas energías, la ciencia de «lo pequeño»;
naturalmente, el lugar de encuentro ha sido los primeros instantes de vida del
Universo, cuando las energías implicadas fueron gigantescas.
Bien, la inflación da origen a un Universo uniforme,
pero entonces ¿cómo surgieron las minúsculas inhomogeneidades primordiales de
las que habrían nacido, al pasar el tiempo y actuar la fuerza gravitacional,
estructuras cósmicas como las galaxias?
Una posible respuesta a esta pregunta era que la
inflación podría haber amplificado enormemente las ultramicroscópicas
fluctuaciones cuánticas que se producen debido al principio de incertidumbre
aplicado a energías y tiempo (?E•?t?h). Si era así, ¿dónde buscar tales
inhomogeneidades mejor que en el fondo de radiación de microondas?
La respuesta a esta cuestión vino de los trabajos de
un equipo de científicos estadounidenses a cuya cabeza estaban John C. Mather
(n. 1946) y George Smoot (n. 1945). Cuando la NASA aprobó en 1982 fondos para la construcción
de un satélite –el Cosmic Background Explorer (COBE), que fue puesto en órbita,
a 900 kilómetros
de altura, en el otoño de 1989– para estudiar el fondo cósmico de microondas,
Mather se encargó de coordinar todo el proceso, así como del experimento (en el
que utilizó un espectrofotómetro enfriado a 1,5°K) que demostró que la forma
del fondo de radiación de microondas se ajustaba a la de una radiación de
cuerpo negro a la temperatura de 2,735°K, mientras que Smoot midió las
minúsculas irregularidades predichas por la teoría de la inflación. Diez años
después, tras haber intervenido en los trabajos más de mil personas y con un
coste de 160 millones de dólares, se anunciaba (Mather et al. 1990; Smoot et
al. 1992) que el COBE había detectado lo que Smoot denominó «arrugas» del
espacio-tiempo, las semillas de las que surgieron las complejas estructuras
–como las galaxias– que ahora vemos en el Universo (15). Podemos captar algo de
la emoción que sintieron estos investigadores al comprobar sus resultados a
través de un libro de divulgación que Smoot publicó poco después, Wrinkles in
Time (Arrugas en el tiempo). Escribió allí (Smoot y Davidson 1994, 336):
Estaba contemplando la forma primordial de las
arrugas, podía sentirlo en mis huesos. Algunas de las estructuras eran tan
grandes que sólo podían haber sido generadas durante el nacimiento del
Universo, no más tarde. Lo que tenía ante mí era la marca de la creación, las
semillas del Universo presente.
En consecuencia, «la teoría del Big Bang era correcta
y la de la inflación funcionaba; el modelo de las arrugas encajaba con la
formación de estructuras a partir de la materia oscura fría; y la magnitud de
la distribución habría producido las estructuras mayores del Universo actual
bajo el influjo del colapso gravitacional a lo largo de 15.000 millones de
años».
El COBE fue un magnífico instrumento, pero en modo
alguno el único. Los ejemplos en los que astrofísica y tecnología se dan la
mano son múltiples. Y no sólo instrumentos instalados en la Tierra , también vehículos
espaciales. Así, hace ya bastante que el Sistema Solar se ve frecuentado por
satélites con refinados instrumentos que nos envían todo tipo de datos e
imágenes. Sondas espaciales como Mariner 10, que observó, en 1973, Venus desde 10.000 kilómetros ;
Pioneer 10 y Voyager 1 y 2, que entre 1972 y 1977 se adentraron por los alrededores
de Júpiter, Saturno, Urano y Plutón, o Galileo, dirigido hacia Júpiter y sus
satélites.
Un tipo muy especial de vehículo es el telescopio
espacial Hubble, que la NASA
puso en órbita, después de un largo proceso, en la primavera de 1990 (16).
Situar un telescopio en un satélite artificial significa salvar ese gran
obstáculo para recibir radiaciones que es la atmósfera terrestre. Desde su
lanzamiento, y especialmente una vez que se corrigieran sus defectos, el Hubble
ha enviado y continúa enviando imágenes espectaculares del Universo. Gracias a
él, por primera vez disponemos de fotografías de regiones (como la nebulosa de
Orión) en las que parece que se está formando una estrella. No es completamente
exagerado decir que ha revolucionado nuestro conocimiento del Universo.
Planetas extrasolares
Gracias al avance tecnológico los científicos están
siendo capaces de ver nuevos aspectos y objetos del Cosmos, como, por ejemplo,
la existencia de sistemas planetarios asociados a estrellas que no sean el Sol.
El primer hallazgo en este sentido se produjo en 1992, cuando Alex Wolszczan y
Dale Frail descubrieron que al menos dos planetas del tipo de la Tierra orbitan alrededor de
un púlsar (Wolszczan y Frail 1992); tres años después, Michel Mayor y Didier
Queloz hicieron público que habían descubierto un planeta del tamaño y tipo de
Júpiter (un gigante gaseoso) orbitando en torno a la estrella 51 Pegasi (Mayor
y Queloz 1995). Desde entonces el número de planetas extrasolares conocidos ha
aumentado considerablemente. Y si existen tales planetas, acaso en algunos
también se haya desarrollado vida. Ahora bien, aunque la biología que se ocupa
del problema del origen de la vida no descarta que en entornos lo
suficientemente favorables las combinaciones de elementos químicos puedan
producir, debido a procesos sinérgicos, vida, ésta no tiene porque ser vida del
tipo de la humana. La biología evolucionista, apoyada en los registros
geológicos, ha mostrado que la especie humana es producto del azar evolutivo.
Si, por ejemplo, hace 65 millones de años no hubiese chocado contra la Tierra , a una velocidad de
aproximadamente treinta kilómetros por segundo, un asteroide o un cometa de
unos diez kilómetros de diámetro, produciendo una energía equivalente a la que
librarían cien millones de bombas de hidrógeno, entonces acaso no habrían
desaparecido (no, desde luego, entonces) una cantidad enorme de especies
vegetales y animales, entre las que se encontraban los dinosaurios, que no
dejaban prosperar a los, entonces, pequeños mamíferos, que con el paso del
tiempo terminarían produciendo, mediante procesos evolutivos, especies como la
de los homo sapiens.
Precisamente por semejante aleatoriedad es por lo que
no podemos estar seguros de que exista en otros planetas, en nuestra o en otra
galaxia, vida inteligente que trate, o haya tratado, de entender la naturaleza
construyendo sistemas científicos, y que también se haya planteado el deseo de
comunicarse con otros seres vivos que puedan existir en el Universo. Aun así,
desde hace tiempo existen programas de investigación que rastrean el Universo
buscando señales de vida inteligente. Programas como el denominado SETI, siglas
del Search of Extra-Terrestrial Intelligence (Búsqueda de Inteligencia
Extraterrestre), que ha utilizado receptores con 250 millones de canales, que
realizan alrededor de veinte mil millones de operaciones por segundo.
Materia y energía oscuras
La existencia de planetas extrasolares ciertamente nos
conmueve y emociona, pero no es algo «fundamental»; no altera los pilares del edificio
científico. Muy diferente es el caso de otros descubrimientos relativos a los
contenidos del Universo. Me estoy refiriendo a que tenemos buenas razones para
pensar que existe en el Cosmos una gran cantidad de materia que no observamos,
pero que ejerce fuerza gravitacional. La evidencia más inmediata procede de
galaxias en forma de disco (como nuestra propia Vía Láctea) que se encuentran
en rotación. Si miramos a la parte exterior de estas galaxias, encontramos que
el gas se mueve de manera sorprendentemente rápida; mucho más rápidamente de lo
que debería debido a la atracción gravitacional producida por las estrellas y
gases que detectamos en su interior. Otras evidencias proceden de los
movimientos internos de cúmulos de galaxias. Se cree que esta materia «oscura»
constituye el 30% de toda la materia del Universo. ¿Cuál es su naturaleza? Ése
es uno de los problemas; puede tratarse de estrellas muy poco luminosas (como
las enanas marrones), de partículas elementales exóticas o de agujeros negros.
No podremos entender realmente lo que son las galaxias, o cómo se formaron,
hasta que sepamos qué es esa materia oscura. Ni tampoco podremos saber cuál
será el destino último de nuestro Universo.
Junto al problema de la materia oscura, otro parecido
ha adquirió prominencia en la última década del siglo xx: el de la energía
oscura. Estudiando un tipo de supernovas –estrellas que han explotado dejando
un núcleo–, un grupo dirigido por Saul Perlmutter (del Laboratorio Lawrence en
Berkeley, California) y otro por Brian Schmidt (Observatorios de Monte Stromlo
y Siding Spring, en Australia) llegaron a la conclusión de que, al contrario de
lo supuesto hasta entonces, la expansión del Universo se está acelerando
(Perlmutter et al. 1998; Schmidt et al. 1998). El problema es que la masa del
Universo no puede explicar tal aceleración; había que suponer que la gravedad
actuaba de una nueva y sorprendente manera: alejando las masas entre sí, no
atrayéndolas. Se había supuesto que para propulsar el Big Bang debía de haber existido
una energía repulsiva en la creación del Universo, pero no se había pensado que
pudiera existir en el Universo ya maduro.
Una nueva energía entraba así en acción, una energía
«oscura» que reside en el espacio vacío. Y como la energía es equivalente a la
masa, esta energía oscura significa una nueva aportación a la masa total del
Universo, distinta, eso sí, de la masa oscura. Se tiene, así, que alrededor del
3% del Universo está formado por masa ordinaria, el 30% de masa oscura y el 67%
de energía oscura. En otras palabras: creíamos que conocíamos eso que llamamos
Universo y resulta que es un gran desconocido. Porque ni sabemos qué es la
materia oscura ni lo que es la energía oscura. Una posible explicación de esta
última se podría encontrar en un término que introdujo Einstein en 1916-1917 en
las ecuaciones de campo de la relatividad general. Como vimos, al aplicar su
teoría de la interacción gravitacional al conjunto del Universo, Einstein
buscaba encontrar un modelo que representase un Universo estático y ello le
obligó a introducir en sus ecuaciones un nuevo término, la ya citada constante
cosmológica, que en realidad representaba un campo de fuerza repulsiva, para
compensar el efecto atractivo de la gravitación. Al encontrarse soluciones de
la cosmología relativista que representan un Universo en expansión y
demostrarse observacionalmente (Hubble) que el Universo se expande, Einstein
pensó que no era necesario mantener aquella constante, aunque podía
incorporarse sin ningún problema en los modelos expansivos teóricos. Acaso
ahora sea necesario resucitarla. Ahora bien, semejante resurrección no se podrá
limitar a incluirla de nuevo en la cosmología relativista; esto ya no basta: es
preciso que tome su sentido y lugar en las teorías cuánticas que intentan
insertar la gravitación en el edificio cuántico; al fin y al cabo la energía
oscura es la energía del vacío, y éste tiene estructura desde el punto de vista
de la física cuántica. Y puesto que ha salido, una vez más, la física cuántica
es hora de pasar a ella, a cómo se desarrolló y consolidó la revolución
cuántica durante la segunda mitad del siglo xx.
Un mundo cuántico
Antes, al tratar de la revolución cuántica que surgió en
la primera mitad del siglo, me referí a la búsqueda de los componentes básicos
de la materia, las denominadas «partículas elementales». Vimos entonces cómo ir
más allá de protones, electrones y neutrones, las más básicas de esas
partículas, requería energías más elevadas de las que podían proporcionar los
«proyectiles» –por ejemplo, partículas alfa– que proporcionaban las emisiones
de elementos radiactivos (especialmente el radio), y que fue Ernest Lawrence
quien abrió una nueva senda introduciendo y desarrollando unos instrumentos
denominados aceleradores de partículas (ciclotrones en su caso), cuyo
funcionamiento se basa en acelerar partículas a energías elevadas, haciéndolas
chocar luego unas con otras (o con algún blanco predeterminado) para ver qué es
lo que se produce en tales choques; esto es, de qué nuevos componentes más
pequeños están compuestas esas partículas… si es que lo están (17).
La física de partículas elementales, también llamada,
como ya indiqué, de altas energías, ha sido una de las grandes protagonistas de
la segunda mitad del siglo xx. Se trata de una ciencia muy cara (es el ejemplo
canónico de Big Science, Gran Ciencia, ciencia que requiere de grandes equipos
de científicos y técnicos y de grandes inversiones); cada vez, de hecho, más
cara, al ir aumentado el tamaño de los aceleradores para poder alcanzar mayores
energías. Después de la
Segunda Guerra Mundial contó –especialmente en Estados
Unidos– con la ayuda del prestigio de la física nuclear, que había suministrado
las poderosas bombas atómicas. Limitándome a citar los aceleradores más
importantes construidos, señalaré que en 1952 entró en funcionamiento en
Brookhaven (Nueva York) el denominado Cosmotrón, para protones, que podía
alcanzar 2,8 GeV (18); luego vinieron, entre otros, el Bevatrón (Berkeley,
protones; 1954), 3,5 Gev; Dubna (URSS, protones; 1957), 4,5 Gev;
Proton-Synchroton (CERN, Ginebra, protones; 1959), 7 GeV; Slac (Stanford;
1966), 20 GeV; PETRA (Hamburgo, electrones y positrones; 1978), 38 GeV;
Collider (CERN, protones y antiprotones; 1981), 40 GeV; Tevatron (Fermilab,
Chicago, protones y antiprotones), 2.000 GeV, y SLC (Stanford, California,
electrones y positrones), 100 GeV, los dos de 1986; LEP (CERN, electrones y
positrones; 1987), 100 GeV, y HERA (Hamburgo, electrones y protones; 1992), 310
GeV.
Las siglas CERN corresponden al Centre Européen de
Recherches Nucleaires (Centro Europeo de Investigaciones Nucleares), la
institución que en 1954 crearon en Ginebra doce naciones europeas para poder
competir con Estados Unidos. Con sus aceleradores, el CERN –formado ahora por
un número mayor de países (España es uno de ellos)– ha participado de manera
destacada en el desarrollo de la física de altas energías. De hecho, en tiempos
difíciles para esta disciplina como son los actuales, el CERN acaba de
completar (2008) la construcción de un nuevo acelerador, uno en el que los
protones chocarán con una energía de 14.000 GeV: el LHC (Large Hadron
Collider). Toma así la vieja Europa la antorcha en mantener el «fuego» de esta
costosa rama de la física.
¿Por qué he dicho «tiempos difíciles para esta
disciplina»? Pues porque debido a su elevado costo, en los últimos años esta
rama de la física está pasando por dificultades. De hecho, hace poco sufrió un
duro golpe en la que hasta entonces era su patria principal, Estados Unidos. Me
estoy refiriendo al Supercolisionador Superconductor (Superconducting Super
Collider; SSC). Este gigantesco acelerador, que los físicos de altas energías
norteamericanos estimaban indispensable para continuar desarrollando la
estructura del denominado modelo estándar, iba a estar formado por un túnel de 84 kilómetros de
longitud que debería ser excavado en las proximidades de una pequeña población
de 18.000 habitantes, situada a 30 kilómetros al sudoeste de Dallas, en
Waxahachie. En el interior de ese túnel miles de bobinas magnéticas
superconductoras guiarían dos haces de protones para que, después de millones
de vueltas, alcanzaran una energía veinte veces más alta que la que se podía
conseguir en los aceleradores existentes. En varios puntos a lo largo del
anillo, los protones de los dos haces chocarían, y enormes detectores
controlarían lo que sucediera en tales colisiones. El coste del proyecto, que
llevaría diez años, se estimó inicialmente en 6.000 millones de dólares.
Después de una azarosa vida, con parte del trabajo de
infraestructura ya realizado (la excavación del túnel), el 19 de octubre de
1993 y después de una prolongada, difícil y cambiante discusión parlamentaria,
tanto en el Congreso como en el Senado, el Congreso canceló el proyecto. Otros
programas científicos –especialmente en el campo de las ciencias biomédicas–
atraían la atención de los congresistas y senadores americanos; y también,
¿cómo negarlo?, de la sociedad, más interesada en asuntos que atañen a su
salud.
Pero dejemos los aceleradores y vayamos a su producto,
a las partículas aparentemente «elementales». Gracias a los aceleradores, su
número fue creciendo de tal manera que terminó socavando drásticamente la idea
de que la mayoría pudiesen ser realmente elementales en un sentido fundamental.
Entre las partículas halladas podemos recordar, por ejemplo, piones y muones de
diversos tipos, o las denominadas ?, W o Z, sin olvidar a sus correspondientes
antipartículas (19). El número –cientos– resultó ser tan elevado que llegó a
hablarse de un «zoo de partículas», un zoo con una fauna demasiado elevada.
A ese zoo se les unió otra partícula particularmente
llamativa: los quarks. Su existencia fue propuesta teóricamente en 1964 por los
físicos estadounidenses Murray Gell-Mann (n. 1929) y George Zweig (n. 1937).
Hasta su aparición en el complejo y variado mundo de las partículas
elementales, se pensaba que protones y neutrones eran estructuras atómicas
inquebrantables, realmente básicas, y que la carga eléctrica asociada a
protones y electrones era una unidad indivisible. Los quarks no obedecían a
esta regla, ya que se les asignó cargas fraccionarias. De acuerdo a Gell-Mann
(1964) y Zweig (1964), los hadrones, las partículas sujetas a la interacción
fuerte, están formados por dos o tres especies de quarks y antiquarks,
denominados u (up; arriba), d (down; abajo) y s (strange; extraño), con,
respectivamente, cargas eléctricas 2/3, -1/3 y -1/3 la del electrón (20). Así,
un protón está formado por dos quarks u y uno d, mientras que un neutrón está
formado por dos quarks d y por otro u; son, por consiguiente, estructuras
compuestas. Posteriormente, otros físicos propusieron la existencia de tres
quarks más: charm (c; 1974), bottom (b; 1977) y top (t; 1995). Para
caracterizar esta variedad, se dice que los quarks tienen seis tipos de
«sabores» (flavours); además, cada uno de estos seis tipos puede ser de tres
clases, o colores: rojo, amarillo (o verde) y azul. Y para cada quark existe,
claro, un antiquark.
Por supuesto, nombres como los anteriores –color,
sabor, arriba, abajo…– no representan la realidad que asociamos normalmente a
tales conceptos, aunque puede en algún caso existir una cierta lógica en ellos,
como sucede con el color. Veamos lo que el propio Gell-Mann (1995, 199) ha
señalado con respecto a este término:
Aunque el término «color» es más que nada un nombre
gracioso, sirve también como metáfora. Hay tres colores, denominados rojo,
verde y azul a semejanza de los tres colores básicos en una teoría simple de la
visión humana del color (en el caso de la pintura, los tres colores primarios
suelen ser el rojo, el amarillo y el azul, pero para mezclar luces en lugar de
pigmentos, el amarillo se sustituye por el verde). La receta para un neutrón o un
protón consiste en tomar un quark de cada color, es decir, uno rojo, uno verde
y uno azul, de modo que la suma de colores se anule. Como en la visión del
color blanco se puede considerar una mezcla de rojo, verde y azul, podemos
decir metafóricamente que el neutrón y el protón son blancos.
En definitiva, los quarks tienen color pero los
hadrones no: son blancos. La idea es que sólo las partículas blancas son
observables directamente en la naturaleza, mientras que los quarks no; ellos
están «confinados», asociados formando hadrones. Nunca podremos observar un
quark libre. Ahora bien, para que los quarks permanezcan confinados deben
existir fuerzas entre ellos muy diferentes de las electromagnéticas o de las
restantes. «Así como la fuerza electromagnética entre electrones está mediada
por el intercambio virtual de fotones», utilizando de nuevo a Gell-Mann (1995,
200), «los quarks están ligados entre sí por una fuerza que surge del
intercambio de otros cuantos: los gluones (del inglés glue, pegar), llamados así
porque hacen que los quarks se peguen formando objetos observables blancos como
el protón y el neutrón» (21).
Aproximadamente una década después de la introducción
de los quarks, se desarrolló una teoría, la cromodinámica cuántica, que explica
por qué los quarks están confinados tan fuertemente que nunca pueden escapar de
las estructuras hadrónicas que forman. Por supuesto, el nombre cromodinámica
–procedente del término griego cromos (color)– aludía al color de los quarks (y
el adjetivo «cuántica» a que es compatible con los requisitos cuánticos). Al
ser la cromodinámica cuántica una teoría de las partículas elementales con
color, y al estar éste asociado a los quarks, que a su vez tratan de los
hadrones, las partículas sujetas a la interacción fuerte, tenemos que la
cromodinámica cuántica describe esta interacción.
Con la electrodinámica cuántica –logro, como ya
indiqué, de la primera mitad del siglo xx– y la cromodinámica cuántica, se
disponía de teorías cuánticas para las interacciones electromagnética y fuerte.
Pero ¿y la débil, la responsable de los fenómenos radiactivos? En 1932, Enrico
Fermi (1901-1954), uno de los mejores físicos de su siglo, desarrolló una
teoría para la interacción débil (que aplicó, sobre todo, a la denominada
«desintegración beta», proceso radiactivo en el que un neutrón se desintegra
dando lugar a un protón, un electrón y un antineutrino), que mejoraron en 1959
Robert Marshak (1916-1992), E. C. George Sudarshan (n. 1931), Richard Feynman y
Murray Gell-Mann, pero la versión más satisfactoria para una teoría cuántica de
la interacción débil llegó cuando en 1967 el estadounidense Steven Weinberg (n.
1933) y el año siguiente el paquistaní (afincando en Inglaterra) Abdus Salam
(1929-1996) propusieron independientemente una teoría que unificaba las
interacciones electromagnética y débil. Su modelo incorporaba ideas propuestas
en 1960 por Sheldon Glashow (n. 1932) (22). Por estos trabajos, Weinberg, Salam
y Glashow compartieron el Premio Nobel de Física de 1979; esto es, después de
que, en 1973, una de las predicciones de su teoría –la existencia de las
denominadas «corrientes neutras débiles»– fuese corroborada experimentalmente
en el CERN.
La teoría electrodébil unificaba la descripción de las
interacciones electromagnética y débil, pero ¿no sería posible avanzar por la
senda de la unificación, encontrando una formulación que incluyese también a la
interacción fuerte, descrita por la cromodinámica cuántica? La respuesta,
positiva, a esta cuestión vino de la mano de Howard Georgi (n. 1947) y Glashow,
que introdujeron las primeras ideas de lo que se vino a denominar teorías de
gran unificación (GUT), que ya mencioné con anterioridad (Georgi y Glashow
1974).
El impacto principal de esta familia de teorías se ha
producido en la cosmología; en concreto en la descripción de los primeros
instantes del Universo. Desde la perspectiva de las GUTs, al principio existía
sólo una fuerza que englobaba las electromagnética, débil y fuerte, que fueron
separándose al irse enfriando el Universo. Con semejante equipaje teórico es
posible ofrecer explicaciones de cuestiones como el hecho de que exista (al
menos aparentemente y para nuestra fortuna) más materia que antimateria en el
Universo. Esto es debido a que las GUTs tienen en común que en ellas no se conserva
una magnitud denominada «número bariónico», lo que significa que son posibles
procesos en los que el número de bariones –entre los que se encuentran,
recordemos, los protones y los neutrones– producidos no es igual al de
antibariones. Utilizando esta propiedad, el físico japonés Motohiko Yoshimura
(1978) demostró que un estado inicial en el que exista igual número de materia
y antimateria puede evolucionar convirtiéndose en uno con más protones o
neutrones que sus respectivas antipartículas, produciendo así un Universo como
el nuestro, en el que hay más materia que antimateria.
Gracias al conjunto formado por las anteriores
teorías, poseemos un marco teórico extraordinario para entender de qué está
formada la naturaleza. Su capacidad predictiva es increíble. De acuerdo con él,
se acepta que toda la materia del Universo está formada por agregados de tres
tipos de partículas elementales: electrones y sus parientes (las partículas
denominadas muón y tau), neutrinos (neutrino electrónico, muónico y tauónico) y
quarks, además de por los cuantos asociados a los campos de las cuatro fuerzas
que reconocemos en la naturaleza (23); el fotón para la interacción
electromagnética, las partículas Z y W (bosones gauge) para la débil, los
gluones para la fuerte y, aunque la gravitación todavía no se ha incorporado a
ese marco, los aún no observados gravitones para la gravitacional. El
subconjunto formado por la cromodinámica cuántica y teoría electrodébil (esto
es, el sistema teórico que incorpora las teorías relativistas y cuánticas de
las interacciones fuerte, electromagnética y débil) es especialmente poderoso
si tenemos en cuenta el balance predicciones-comprobaciones experimentales. Es
denominado modelo estándar. De acuerdo al distinguido físico e historiador de
la ciencia, Silvan Schweber (1997, 645), «la formulación del Modelo Estándar es
uno de los grandes logros del intelecto humano, uno que rivaliza con la
mecánica cuántica. Será recordado –junto a la relatividad general, la mecánica
cuántica y el desciframiento del código genético– como uno de los avances
intelectuales más sobresalientes del siglo xx. Pero, mucho más que la
relatividad general y la mecánica cuántica, es el producto de un esfuerzo
colectivo». Quiero hacer hincapié en esta última expresión, «esfuerzo
colectivo». El lector atento de estas páginas se dará cuenta fácilmente, sin
embargo, de que yo únicamente me he referido en estas páginas a unos pocos
físicos; a la punta de un gran iceberg. Ha sido inevitable: la historia de la
física de altas energías requiere no ya de un extenso libro, sino de varios.
Ahora bien, no obstante su éxito obviamente el modelo
estándar no es «la teoría final». Por una parte porque la interacción
gravitacional queda al margen, pero también porque incluye demasiados parámetros
que hay que determinar experimentalmente. Se trata de las, siempre incómodas
pero fundamentales, preguntas del tipo «¿por qué?». ¿Por qué existen las
partículas fundamentales que detectamos? ¿Por qué esas partículas tienen las
masas que tienen? ¿Por qué, por ejemplo, el tau pesa alrededor de 3.520 veces
lo que el electrón? ¿Por qué son cuatro las interacciones fundamentales, y no
tres, cinco o sólo una? ¿Y por qué tienen estas interacciones las propiedades
(como intensidad o rango de acción) que poseen?
¿Un mundo de ultraminúsculas
cuerdas?
Pasando ahora a la gravitación, la otra interacción
básica, ¿no se puede unificar con las otras tres? Un problema central es la
inexistencia de una teoría cuántica de la gravitación que haya sido sometida a
pruebas experimentales. Existen candidatos para cumplir ese espléndido sueño
unificador, unos complejos edificios matemáticos llamados teorías de cuerdas.
Según la teoría de cuerdas, las partículas básicas que
existen en la naturaleza son en realidad filamentos unidimensionales (cuerdas
extremadamente delgadas) en espacios de muchas más dimensiones que las tres
espaciales y una temporal de las que somos conscientes; aunque más que decir
«son» o «están constituidas» por tales cuerdas, habría que decir que «son
manifestaciones» de vibraciones de esas cuerdas. En otras palabras, si nuestros
instrumentos fuesen suficientemente poderosos, lo que veríamos no serían
«puntos» con ciertas características a los que llamamos electrón, quark, fotón
o neutrino, por ejemplo, sino minúsculas cuerdas (cuyos cabos pueden estar
abiertos o cerrados) vibrando. La imagen que suscita esta nueva visión de la
materia más que «física» es, por consiguiente, «musical»: «Del mismo modo que
las diferentes pautas vibratorias de la cuerda de un violín dan lugar a
diferentes notas musicales, los diferentes modelos vibratorios de una cuerda
fundamental dan lugar a diferentes masas y cargas de fuerzas… El Universo –que
está compuesto por un número enorme de esas cuerdas vibrantes–. Es algo
semejante a una sinfonía cósmica», ha señalado el físico, y miembro destacado
de la «comunidad de cuerdas», Brian Greene (2001, 166-168) en un libro titulado
El Universo elegante, que ha sido un éxito editorial.
Es fácil comprender el atractivo que algunos sienten
por estas ideas: «Las cuerdas son verdaderamente fundamentales; son “átomos”,
es decir componentes indivisibles, en el sentido más auténtico de la palabra
griega, tal como la utilizaron los antiguos griegos. Como componentes
absolutamente mínimos de cualquier cosa, representan el final de la línea –la
última de las muñecas rusas llamadas “matrioskas”– en las numerosas capas de
subestructuras dentro del mundo microscópico» (Green 2001, 163). Ahora bien,
¿qué tipo de materialidad es la de estos constructos teóricos unidimensionales?
¿Podemos pensar en ellos como una especie de «materia elemental» en algún
sentido parecido a aquel en el que se piensa cuando se habla habitualmente de
materia, incluso de partículas tan (a la postre acaso sólo aparentemente)
elementales como un electrón, un muón o un quark?
Decía antes que las teorías de cuerdas son unos
complejos edificios matemáticos, y así es. De hecho, las matemáticas de la
teoría de las cuerdas son tan complicadas que hasta ahora nadie conoce ni
siquiera las ecuaciones de las fórmulas exactas de esa teoría, únicamente unas
aproximaciones de dichas ecuaciones, e incluso estas ecuaciones aproximadas
resultan ser tan complicadas que hasta la fecha sólo se han resuelto
parcialmente. No es por ello sorprendente que uno de los grandes líderes de
esta disciplina sea un físico especialmente dotado para las matemáticas. Me
estoy refiriendo al estadounidense Edward Witten (n. 1951). Para hacerse una
idea de su talla como matemático basta con señalar que en 1990 recibió (junto a
Pierre-Louis Lions, Jean-Christophe Yoccoz y Shigefumi Mori) una de las cuatro
medallas Fields que se conceden cada cuatro años y que constituyen el
equivalente en matemáticas de los Premios Nobel. Fue Witten (1995) quien
argumentó, iniciando así lo que se denomina «la segunda revolución de la
cuerdas», que para que la teoría de cuerdas (o supercuerdas) pueda aspirar a
ser realmente una Teoría del Todo, debe tener diez dimensiones espaciales más
una temporal, esto es, once (Witten denominó Teoría M a esa formulación,
todavía por desarrollar completamente) (24).
Enfrentados con las teorías de cuerdas, es razonable
preguntarse si al avanzar en la exploración de la estructura de la materia no
habremos alcanzado ya niveles en los que la «materialidad» –esto es, la
materia– se desvanece transformándose en otra cosa diferente. Y ¿en qué otra
cosa? Pues si estamos hablando de partículas que se manifiestan como
vibraciones de cuerdas, ¿no será esa «otra cosa», una estructura matemática?
Una vibración es, al fin y al cabo, la oscilación de algo material, pero en
cuanto a estructura permanente tiene probablemente más de ente matemático que
de ente material. Si fuese así, podríamos decir que se habría visto cumplido el
sueño, o uno de los sueños, de Pitágoras. Los físicos habrían estado laborando
duramente a lo largo de siglos, milenios incluso, para descubrir, finalmente,
que la materia se les escapa de las manos, como si de una red se tratase,
convirtiéndose en matemática, en estructuras matemáticas. La teoría de cuerdas,
en resumen, resucita viejos problemas, acaso fantasmas. Problemas como el de la
relación entre la física (y el mundo) y la matemática.
Independientemente de estos aspectos de naturaleza en
esencia filosófica, hay otros que es imprescindible mencionar. Y es que hasta
la fecha las teorías de cuerdas han demostrado muy poco, sobre todo si no
olvidamos que la ciencia es explicación teórica, sí, pero también experimentos,
someter la teoría al juez último que es la comprobación experimental. Las
teorías de cuerdas son admiradas por algunos, comentadas por muchos y
criticadas por bastantes, que insisten en que su naturaleza es excesivamente
especulativa. Así, Lee Smolin (2007, 17-18), un distinguido físico teórico, ha
escrito en un libro dedicado a estas teorías:
En los últimos veinte años, se ha invertido mucho
esfuerzo en la teoría de cuerdas, pero todavía desconocemos si es cierta o no.
Incluso después de todo el trabajo realizado, la teoría no ha proporcionado
ninguna predicción que pueda ser comprobada mediante experimentos actuales o,
al menos, experimentos que podamos concebir en la actualidad. Las escasas
predicciones limpias que propone ya han sido formuladas por otras teorías
aceptadas.
Parte de la razón por la que la teoría de cuerdas no
realiza nuevas predicciones es que parece presentarse en un número infinito de
versiones. Aun limitándonos a las teorías que coinciden con algunos de los
hechos básicos observados sobre nuestro Universo, por ejemplo, su vasto tamaño
o la existencia de energía oscura, nos siguen quedando algo así como 10500
teorías de cuerdas diferentes; es decir, un 1 con 500 ceros detrás, más que
todos los átomos conocidos del Universo. Una cantidad tal de teorías, nos deja
poca esperanza de poder identificar algún resultado de algún experimento que no
se pudiera incluir en alguna de ellas. Por tanto, no importa lo que muestren
los experimentos, pues no se puede demostrar que la teoría de cuerdas sea
falsa, aunque lo contrario también es cierto: ningún experimento puede
demostrar que sea cierta.
Recordemos en este punto que uno de los sistemas
metodológicos de la ciencia más influyentes continúa siendo el construido por
el filósofo de origen austriaco, instalado finalmente en la London School of
Economics de Londres, Karl Popper (1902-1994), quien siempre insistió en que
una teoría que no es refutable mediante ningún experimento imaginable no es
científica; esto es, que si no es posible imaginar algún experimento cuyos
resultados contradigan las predicciones de una teoría, ésta no es realmente
científica. Y aunque en mi opinión tal criterio es demasiado exigente para ser
siempre verdad, constituye una buena guía. En cualquier caso, el futuro tendrá
la última palabra sobre las teorías de cuerdas.
Nucleosíntesis estelar
En las páginas anteriores me he ocupado de los
aspectos más básicos de la estructura de la materia, pero la ciencia no se
reduce a buscar lo más fundamental, la estructura más pequeña; también pretende
comprender aquello que nos es más próximo, más familiar. Es obligado, en este
sentido, referirse a otro de los grandes logros de la física del siglo xx: la
reconstrucción teórica de los procesos –nucleosíntesis– que condujeron a formar
los átomos que encontramos en la naturaleza, y de los que nosotros mismos
estamos formados. De estas cuestiones se ocupa la física nuclear, una
disciplina relacionada, naturalmente, con la física de altas energías, aunque
ésta sea más «fundamental» al ocuparse de estructuras más básicas que los
núcleos atómicos.
De hecho, la física de altas energías proporciona las
bases sobre las que se asienta el edificio de la física nuclear que se ocupa de
la nucleosíntesis estelar. Han sido, en efecto, los físicos de altas energías
los que se han ocupado, y ocupan, de explicar cómo de la «sopa» indiferenciada de
radiación y energía que surgió del Big Bang fueron formándose las partículas
que constituyen los átomos (25).
Al ir disminuyendo la temperatura del Universo, esa
sopa se fue diferenciando. A la temperatura de unos 30.000 millones de grados
Kelvin (que se alcanzó en aproximadamente 0,11 segundos), los fotones –esto es,
recordemos, la luz– se independizaron de la materia, distribuyéndose
uniformemente por el espacio. Únicamente cuando la temperatura del Universo
bajó a los 3.000 millones de grados Kelvin (casi 14 segundos después del
estallido inicial) comenzaron a formarse –mediante la unión de protones y
neutrones– algunos núcleos estables, básicamente el hidrógeno (un protón en
torno al cual orbita un electrón) y el helio (dos protones y dos neutrones en el
núcleo, con dos electrones como «satélites»). Estos dos elementos, los más
ligeros que existen en la naturaleza, fueron –junto a fotones y neutrinos–, los
principales productos del Big Bang, y representan aproximadamente el 73% (el
hidrógeno) y el 25% (el helio) de la composición del universo (26).
Tenemos, por consiguiente, que el Big Bang surtió
generosamente al Universo de hidrógeno y de helio. Pero ¿y los restantes
elementos? Porque sabemos que hay muchos más elementos en la naturaleza. No
hace falta ser un experto para saber que existe el oxígeno, el hierro, el
nitrógeno, el carbono, el plomo, el sodio, el cinc, el oro y muchos elementos
más. ¿Cómo se formaron?
Antes incluso de que los físicos de altas energías
hubiesen comenzado a estudiar la nucleosíntesis primordial, hubo físicos
nucleares que durante la primera mitad del siglo xx se ocuparon del problema de
la formación de los elementos más allá del hidrógeno y el helio. Entre ellos es
obligado mencionar a Carl Friedrich von Weizsäcker (1912-2007) en Alemania y a
Hans Bethe (1906-2005) en Estados Unidos (Weizsäcker 1938; Bethe y Critchfield
1938; Bethe 1939a, b) (27). Justo cuando iba a comenzar la segunda mitad de la
centuria, George Gamow (1904-1968) y sus colaboradores, Ralph Alpher
(1921-2007) y Robert Herman (1914-1997), dieron otro paso importante, que fue
seguido diecisiete años después por Robert Wagoner (n. 1938), William Fowler
(1911-1995) y Fred Hoyle, que armados con un conjunto mucho más completo de
datos de reacciones nucleares, explicaron que en el universo el litio
constituye una pequeña fracción (10-8) de la masa correspondiente al hidrógeno
y al helio, mientras que el total de los restantes elementos representa un mero
10-11 (Wagoner, Fowler y Hoyle 1967) (28).
Gracias a aportaciones como éstas –y las de muchos
otros– ha sido posible reconstruir las reacciones nucleares más importantes en
la nucleosíntesis estelar. Una de estas reacciones es la siguiente: dos núcleos
de helio chocan y forman un átomo de berilio, elemento que ocupa el cuarto
lugar (número atómico) en la tabla periódica, tras el hidrógeno, helio y litio
(su peso atómico es 9, frente a 1 para el hidrógeno, 4 para helio y 6 para el
litio). En realidad se produce más de un tipo de berilio; uno de ellos, el
isótopo de peso atómico 8 es muy radiactivo, existiendo durante apenas una
diezmilbillonésima de segundo, tras lo cual se desintegra produciendo de nuevo
dos núcleos de helio. Pero si durante ese instante de vida el berilio choca con
un tercer núcleo de helio puede formar un núcleo de carbono (número atómico 6 y
peso atómico 12), que es estable. Y si las temperaturas son suficientemente
elevadas, los núcleos de carbono se combinan y desintegran de maneras muy
diversas, dando lugar a elementos como magnesio (número atómico 12), sodio
(11), neón (10) y oxígeno (8). A su vez, los núcleos de oxígeno pueden unirse y
formar azufre y fósforo. De este modo, se fabrican elementos cada vez más
pesados. Hasta llegar al hierro (26).
Hechos de este tipo nos llevan a otra cuestión: la de cómo
han llegado estos elementos a la
Tierra , puesto que el lugar en el que fueron fabricados
necesita de energías y temperaturas que no se dan en nuestro planeta. Y si
suponemos que no deben existir diferencias grandísimas entre nuestro planeta y
los demás –salvo en detalles como composición o posibilidad de que exista
vida–, cómo han llegado a cualquier otro planeta. Pues bien, una parte de los
elementos (hasta el hierro) que no se produjeron en los primeros instantes del
Universo, se han fabricado sobre todo en el interior de estrellas. La emisión
al espacio exterior de esos elementos puede tener lugar de tres maneras:
mediante la lenta pérdida de masa en estrellas viejas, en la denominada fase
«gigante» de la evolución estelar; durante los relativamente frecuentes
estallidos estelares que los astrónomos denominan «novas»; y en las dramáticas
y espectaculares explosiones que se producen en la etapa estelar final que
alumbran las denominadas «supernovas» (una de estas explosiones fue detectada
en 1987: la supernova SN1987A; la explosión había tenido lugar 170.000 años
antes, el tiempo que ha tardado la luz en llegar a la Tierra ).
Es sobre todo en la explosión de las supernovas cuando
los elementos pesados fabricados en la nucleosíntesis estelar se difunden por
el espacio. No se conoce demasiado bien por qué se producen estas explosiones,
pero se cree que además de expulsar los elementos que acumulaba la estrella en
su interior (salvo parte que retiene convertidos en objetos muy peculiares,
como estrellas de neutrones), en el estallido se sintetizan elementos todavía
más pesados que el hierro; elementos como el cobre, cinc, rubidio, plata,
osmio, uranio, y así hasta una parte importante de los más de cien elementos
que contiene en la actualidad la tabla periódica, y que son relativamente
abundantes en sistemas estelares como el nuestro, el Sistema Solar.
Precisamente por esta abundancia de elementos pesados,
parece razonable pensar que el Sol es una estrella de segunda generación,
formada, algo menos de hace 5.000 millones de años, por la condensación de
residuos de una estrella anterior que murió en una explosión de supernova. El
material procedente de semejante explosión se agrupó en un disco de gas y polvo
con una protoestrella en el centro. El Sol se «encendió» cuando el núcleo
central de materia se comprimió tanto que los átomos de hidrógeno se fundieron
entre sí. Y alrededor suyo, a lo largo de bandas elípticas, siguiendo un
proceso parecido pero menos intenso gravitacionalmente, se formaron los
planetas de lo que llamamos Sistema Solar: Mercurio, Venus, la Tierra , Marte, Júpiter,
Saturno, Urano, Neptuno y Plutón (aunque éste no es desde hace poco considerado
en la categoría de «planeta»), y los satélites de éstos, como la Luna.
Desde esta perspectiva, la Tierra (formada hace unos
4.500 millones de años), al igual que los demás planetas, es algo parecido a un
pequeño basurero (o cementerio) cósmico; un lugar en el que se han acumulado
restos de la vida de estrellas, no lo suficientemente importantes como para dar
lugar a un astro; esto es, aglomerados de elementos en cantidades tan pequeñas
que no han podido desencadenar en su interior reacciones termonucleares como
las que se producen en las estrellas. Pero al igual que en los basureros
también se abre camino la vida, así ocurrió en esta Tierra nuestra, con su
diámetro de, aproximadamente, 12.700 kilómetros y su peso de unas 6•1021 (6
seguido de 21 ceros) toneladas. Nosotros somos testigos y demostración de este
fenómeno.
Dentro de unos 7.500 millones de años, la zona central
del Sol, en la que el hidrógeno se convierte en helio, aumentará de tamaño a
medida que el hidrógeno se vaya consumiendo. Y cuando ese núcleo de helio
alcance un tamaño suficiente, el Sol se dilatará hasta convertirse en una
estrella de las denominadas gigantes rojas. Se hará tan gigantesca que su
diámetro terminará alcanzando la órbita de la Tierra , acabando con ella. Antes de que suceda
esto, la superficie terrestre llegará a estar tan caliente como para que el
plomo se funda, hiervan los océanos y desaparezca todo rastro de vida. De esta
manera, los procesos nucleares que nos dieron la vida acabarán con ella.
Más allá del mundo microscópico
Las teorías físicas de las que he estado tratando en
las secciones precedentes son, es cierto, teorías cuánticas; ahora bien, el
mundo de la física cuántica no se restringe a ellas y constituiría un grave
error no referirse a otras novedades que surgieron en ese mundo durante la
segunda mitad del siglo xx. Enfrentado con la difícil cuestión de buscar los
avances más importantes, he optado por seleccionar dos grupos. El primero
incluye desarrollos que han reforzado a la física cuántica frente a críticas
como las que lideró Einstein junto a Podolsky y Rosen. El segundo trata de los
trabajos que han puesto de relieve la existencia de fenómenos cuánticos
macroscópicos.
Una teoría no local: el
entrelazamiento cuántico
El fin de la ciencia es suministrar sistemas teóricos
que permitan relacionar cuantos más fenómenos naturales mejor y que estos
sistemas tengan capacidad predictiva. A esto le llamamos «explicar la
naturaleza». Ahora bien, «explicar» no quiere decir encontrar respuestas que
nos resulten familiares, que no violenten nuestras categorías explicativas más
comunes: ¿por qué la naturaleza iba a seguir tales pautas? Ya aludí antes a que
la física cuántica muestra con especial virulencia que la realidad nos puede
resultar, de acuerdo con algunas teorías de gran éxito, profundamente
contraintuitiva. Si este rasgo estaba claro desde que en 1925-1926 se contó con
la mecánica cuántica, ahora lo está aún más. Veamos a qué me refiero.
En 1935, Albert Einstein, junto a dos colaboradores
suyos, Boris Podolsky (1896-1966) y Nathan Rosen (1910-1995), publicaron un
artículo (Einstein, Podolsky y Rosen 1935) en el que argumentaban que la
mecánica cuántica no podía ser una teoría completa, que era necesario
introducir nuevas variables. Sería largo explicar los argumentos que emplearon,
que van más allá de lo puramente físico, adentrándose en terrenos claramente
filosóficos (daban una definición de lo que es la «realidad física»);
simplemente diré que su análisis condujo a que un físico natural de Belfast que
trabajaba en el División de Teoría del CERN, John Stewart Bell (1928-1990),
demostrase que existían unas relaciones (desigualdades) que se podían emplear
para decidir experimentalmente qué tipo de teoría era correcta, si una
«completa» (que incluyese unas variables «ocultas» para la formulación
cuántica) que obedeciese a los requisitos que Einstein, Podolsky y Rosen habían
planteado en 1935 o la mecánica cuántica tradicional (Bell 1964, 1966).
Provistos del análisis de Bell, John Clauser, Michael Horne, Abner Shimony y
Richard Holt (1969) propusieron un experimento concreto para aplicar en él la
prueba de las desigualdades de Bell. Este experimento se llevó a cabo en el
Instituto de Óptica Teórica y Aplicada de Orsay, en las cercanías de París, por
un equipo dirigido por Alain Aspect (n. 1947). Y el resultado (Aspect, Dalibard
y Roger 1982) favoreció a la mecánica cuántica. Será rara, contraintuitiva, con
variables que no se pueden determinar simultáneamente, socavará nuestra idea
tradicional de lo que es la realidad, pero es cierta. El análisis de Bell y el
experimento de equipo de Aspect mostraron además un rasgo de la mecánica
cuántica que aunque conocido apenas había sido destacado: su no localidad; que
todos los elementos de un sistema cuántico están conectados, entrelazados,
entre sí; no importa que, alejados por tanta distancia, no sea posible que se
transmita la señal de lo que le ha sucedido a uno de sus elementos a otro con
la velocidad de la luz, la máxima permitida por la relatividad especial. En
otras palabras, un elemento se «entera» –y reacciona– instantáneamente de lo
que le sucede a otro independientemente de la distancia que les separe. La no
localidad –que Einstein siempre rechazó, como contraria al «sentido común»
físico– plantea, no hay duda, un problema de compatibilidad con la relatividad
especial, pero no existe ninguna razón para pensar que no se encuentre en el
futuro una generalización de la mecánica cuántica que resuelva esta dificultad.
Eso sí, seguro que no será fácil.
La no localidad abre, asimismo, posibilidades que
parecen pertenecer al dominio de la ciencia-ficción. Utilizaré, en este
sentido, lo que ha escrito el divulgador científico Amir Aczel (2004, 20):
«Mediante el entrelazamiento puede también “teleportarse” el estado de una
partícula hasta un destino lejano, como sucede con el capitán Kirk en la serie
televisiva Star Trek cuando pide ser proyectado de vuelta al Enterprise. Para
ser preciso, nadie ha sido todavía capaz de teleportar a una persona. Pero el
estado de un sistema cuántico ha sido teleportado en el laboratorio. Es más,
este increíble fenómeno está comenzando a emplearse en criptografía y (podría
usarse) en la futura computación cuántica».
Ideas –y, al menos en parte, realidades– como éstas,
muestran que la ciencia puede superar incluso a la ciencia-ficción. En
cualquier caso, consecuencias de la física cuántica como éstas pertenecerán más
al siglo xxi que al que hace poco se cerró.
Fenómenos cuánticos
macroscópicos:
«Lo submicroscópico deviene
macróscopico»
Estamos acostumbrados a pensar que el dominio de la
física cuántica es únicamente el microscópico, el de partículas elementales,
átomos o radiaciones, pero no es así aunque es cierto que históricamente estos
fenómenos fueron los responsables de la génesis de las teorías cuánticas. Las
dos manifestaciones principales de esa física cuántica macroscópica son los
condensados de Bose-Einstein y la superconductividad.
Condensados de Bose-Einstein
Desde el punto de vista de la teoría, los condensados
(o condensación) de Bose-Einstein proceden del artículo que publicó en 1924 el
físico hindú Satyendranath Bose (1894-1974), en el que introducía una nueva
estadística (una forma de contar fotones) para explicar la ley de radiación de
un cuerpo negro que había llevado a Max Planck a introducir la primera noción
de cuantización en 1900. Fue Einstein quien reconoció el valor (y ayudó a que fuese
publicado) del trabajo de Bose (1924), al que completó con dos artículos
(Einstein 1924, 1925) en los que ampliaba las conclusiones de Bose. Señaló, por
ejemplo, que se podría producir en un gas de fotones una condensación: «Una
parte “se condensa” y la restante continúa siendo un gas perfecto saturado»
(Einstein 1925). Con la expresión «condensación», Einstein quería decir que un
grupo de fotones actúa como si fuese una unidad, sin que entre ellos parezca
que existen fuerzas de interacción. Además, predijo que «si la temperatura
desciende lo suficiente», se produciría en ese gas «una caída brutal y
acelerada de la viscosidad en el entorno de una cierta temperatura», que
estimaba para el helio líquido –en el que ya había indicios de tal
superfluidez– en unos 2°K.
Hubo, no obstante, que esperar hasta el 8 de enero de
1938 para que se produjera un avance en la predicción einsteiniana de la
existencia de superfluidez. Fue entonces cuando se publicaron en la revista
inglesa Nature dos breves artículos, uno a cargo del Piotr Kapitza (1894-1984),
director del Instituto de Problemas Físicos en Moscú y anteriormente (hasta que
en 1934 Stalin le retuvo en la Unión Soviética , durante uno de sus viajes de
vacaciones) catedrático en el Laboratorio Cavendish de Cambridge, y otro de dos
jóvenes físicos canadienses que estaban trabajando en el Laboratorio Mond que la Royal Society
patrocinaba en Cambridge, Jack Allen (1908-2001) y Don Misener (1911-1996). En
ellos (Kapitza 1938; Allen y Misener 1938) se anunciaba que el helio líquido
fluía casi sin sufrir la resistencia de la viscosidad por debajo de 2,18°K.
Fueron, sin embargo, Fritz London (1900-1954) y Laszlo Tisza (n. 1907) quienes
demostraron teóricamente que este fenómeno constituía la evidencia de la
superfluidez (29).
Se trataba, por supuesto, de la vieja idea que
Einstein había propuesto en 1924, y a la que apenas se había prestado atención,
aunque ahora más desarrollada y aplicada a otros sistemas muy diferentes a los
gases ideales considerados por el creador de la relatividad.
Es preciso señalar, sin embargo, que a pesar de que en
la actualidad damos a los descubrimientos de 1938 un gran valor, en la medida
en que mostraban macroscópicamente un comportamiento cuántico, en su momento
este aspecto no se destacó tanto. Para comprender mejor la relación entre la
condensación de Bose-Einstein y los aspectos macroscópicos de la física
cuántica, hubo que tratar con átomos, producir «superátomos», conjuntos de
átomos que se comportasen como una unidad y fuesen perceptibles
macroscópicamente. Semejante logró se alcanzó mucho más tarde, en 1995. Aquel
año, dos físicos de Colorado, Eric Cornell (n. 1961) y Carl Wieman (n. 1951),
produjeron un superátomo de rubidio, y unos meses después Wolfgang Ketterle (n.
1957), del MIT, otro de sodio (los tres recibieron el Premio Nobel de Física de
2001). Veamos cómo han descrito los dos primeros su aportación (Cornell y
Wieman 2003, 82):
Nuestro grupo de investigación del Instituto Conjunto
de Astrofísica de Laboratorio (o JILA ahora), en Boulder, creó en junio de 1995
una gota, aunque minúscula, maravillosa. Al enfriar 2.000 átomos de rubidio
hasta una temperatura de menos de 100 milmillonésimas de grado sobre el cero
absoluto (100 milmillonésimas de grados kelvin) hicimos que los átomos perdiesen
su identidad individual y se comportaran como si fuesen un solo «superátomo».
Las propiedades físicas de todos ellos, sus movimientos, por ejemplo, se
volvieron idénticas. Este condensado de Bose-Einstein, el primero observado en
un gas, viene a ser el análogo material del láser, con la diferencia de que en
el condensado son átomos, no fotones, los que danzan al unísono (30).
Y más adelante añadían (Cornell
y Wieman 2003, 82-84):
Raras veces vemos los efectos de la mecánica cuántica
reflejados en la conducta de una cantidad macroscópica de materia. Las
contribuciones incoherentes del inmenso número de partículas de cualquier
porción de materia oscurecen la naturaleza ondulatoria de la mecánica cuántica;
sólo podemos inferir sus efectos. Pero en la condensación de Bose la naturaleza
ondulatoria de cada átomo está en fase con las demás; y lo está de manera
precisa. Las ondas mecanocuánticas atraviesan la muestra entera y se observan a
simple vista. Lo submicroscópico deviene macroscópico.
La creación de condensados de Bose-Einstein ha
arrojado luz sobre viejas paradojas de la mecánica cuántica. Por ejemplo, si
dos o más átomos están en un solo estado mecanicocuántico, y eso es lo que pasa
en un condensado, será imposible distinguirlos, se haga la medición que se
haga. Los dos átomos ocuparán el mismo volumen de espacio, se moverán a la
misma velocidad, dispersarán luz del mismo color, etc.
En nuestra experiencia, basada en el trato constante
de la materia a temperaturas normales, no hay nada que nos ayude a comprender
esta paradoja. Por un motivo: a las temperaturas normales y a las escalas de
magnitud en que nos desenvolvemos, es posible describir la posición y el
movimiento de todos y cada uno de los objetos de un conjunto… A temperaturas
bajísimas o a escalas de magnitud pequeñas, la mecánica clásica va perdiendo
vigor… No podemos saber la posición exacta de cada átomo, y es mejor
imaginarlos como manchas imprecisas. La mancha es un paquete de ondas, la
región del espacio donde cabe esperar que esté el átomo. Conforme el conjunto
de átomos se enfría, crece el tamaño de los paquetes de ondas. Mientras cada
uno esté espacialmente separado de los demás será posible, al menos en
principio, distinguir átomos entre sí. Pero cuando la temperatura llega a ser lo
bastante baja los paquetes de ondas de los átomos vecinos se solaparán.
Entonces, los átomos «se Bose-condensarán» en el menor estado de energía que
sea posible, y los paquetes de ondas se fundirán en un solo paquete
macroscópico. Los átomos sufrirán una crisis cuántica de identidad: ya no
podremos distinguir unos de los otros.
Superconductividad
La superconductividad es otro de los fenómenos físicos
en los que la cuantización se manifiesta macroscópicamente. El fenómeno en sí
fue descubierto hace mucho, en 1911, cuando el físico holandés Heike Kamerlingh
Onnes (1853-1926), el gran pionero y experto mundial en bajas temperaturas,
encontró en su laboratorio de Leiden que cuando enfriaba el mercurio metal a
4°K, se anulaba por completo su resistencia ante el paso de una corriente
eléctrica (Kamerlingh Onnes 1911). Una vez iniciada esa corriente, continuaría
indefinidamente aunque no se le aplicase ninguna diferencia de potencial. Más
tarde se encontró que otros metales y compuestos se hacían también superconductores
a temperaturas cercanas al cero absoluto de temperatura. Ahora bien, una cosa
es la evidencia experimental y otra la explicación teórica, y ésta tardó en
llegar. Fue, en efecto, en 1957 cuando los estadounidenses John Bardeen
(1908-1991), Leon Cooper (n. 1930) y John Robert Schrieffer (n. 1931) dieron
con tal teoría (conocida por las iniciales de sus apellidos: BCS) (31). Su
explicación (Bardeen, Cooper y Schrieffer 1957) consistía en que a partir de
una cierta temperatura los electrones que transportan la corriente eléctrica en
un elemento o compuesto superconductor se agrupan en parejas –como había
supuesto con anterioridad Cooper (1956); de ahí los «pares de Cooper»– que
actúan como bosones; esto es, partículas como los fotones que no están sometidos
a ciertos requisitos cuánticos. Este agrupamiento se produce a temperaturas muy
bajas y se debe a la interacción entre los electrones y la red de átomos
metálicos del compuesto superconductor. En este momento, agrupados, los pares
de electrones marchan como un armonioso ejército de bosones que ignoran los
impedimentos atómicos. Es así como se manifiesta macroscópicamente este efecto
cuántico.
La teoría BCS constituyó un éxito formidable de la
física cuántica, pero no es totalmente satisfactoria, como se puso en evidencia
por su incapacidad de predecir la existencia de superconductividad en
materiales cerámicos a temperaturas mucho más elevadas que las que se manejaban
hasta entonces. Fue en 1986, en los laboratorios de IBM de Zúrich, donde Georg
Bednorz (n. 1950) y Alexander Müller (n. 1927) encontraron que un óxido de
lantano, bario y cobre era superconductor a temperaturas tan altas (no, claro,
para nuestras experiencias cotidianas) como 35°K (32). El año siguiente, Paul
Chu (1987) elevó la escala de temperaturas superconductoras, hallando un óxido
de itrio, bario y cobre que se volvía superconductor a la temperatura de 93°K,
una temperatura que se puede alcanzar sin más que bañar ese óxido en nitrógeno
líquido que –a diferencia del helio– es abundante y barato. Desde entonces, el
número de estos materiales y de las temperaturas a las que se hacen
superconductores no ha hecho sino aumentar.
El hallazgo de Bednorz y Müller (1986) (33) por el que
recibieron el Premio Nobel de Física en 1987, abre nuevas perspectivas no sólo
a la física sino también, y acaso sobre todo, a la tecnología: materiales
superconductores a temperaturas a las que se puede llegar en el mundo cotidiano
(esto es, fuera del laboratorio) pueden tal vez revolucionar nuestras vidas
algún día.
Artilugios cuánticos:
transistores, chips, máseres y
láseres
El comentario anterior, la relevancia de la física
cuántica en la tecnología, va mucho más allá de la superconductividad. Es
posible que materiales superconductores cambien en el futuro nuestras vidas,
pero de lo que no hay duda es de otros materiales, los semiconductores, ya las
han cambiado (34).La primera gran aplicación de los semiconductores llegó con
la invención del transistor, debida a John Bardeen, William Shockley
(1910-1989)) y Walter Brattain (1902-1987), mientras trabajaban en el
departamento de física del estado sólido de los laboratorios Bell (35). En 1956
los tres recibieron el Premio Nobel de Física, el primero de los dos que ganó
Bardeen (el segundo, como ya vimos, fue por la superconductividad).
Un transistor es un dispositivo electrónico hecho de
material semiconductor, que puede regular una corriente que pasa a través de él
y también actuar como amplificador o célula fotoeléctrica, y, que comparado con
los tubos de vacío que le precedieron, necesita cantidades muy pequeñas de
energía para funcionar; además son más estables, compactos, actúan
instantáneamente y duran más.
Tras los transistores vinieron los circuitos
integrados, minúsculos y muy delgados dispositivos en los que se fundamenta el
mundo digital. Los circuitos integrados se fabrican sobre un sustrato
(habitualmente de silicio) depositando finas películas de materiales que, ora
conducen, ora aíslan, la electricidad. Estas películas, ensambladas según
patrones elaborados de antemano, forman transistores (cada circuito integrado
puede albergar millones de transistores) que funcionan como interruptores
encargados de controlar el flujo de electricidad a través del circuito, o chip.
Integrados en los chips, los transistores desempeñan
funciones básicas en los billones y billones de microprocesadores que,
repartidos, controlan, por ejemplo, motores de coche, teléfonos celulares,
misiles, satélites, redes de gas, hornos microondas, ordenadores o aparatos
para discos compactos. Han cambiado, literalmente, las formas en las que nos
comunicamos, relacionamos con el dinero, escuchamos música, vemos televisión,
conducimos coches, lavamos nuestras ropas o cocinamos.
Hasta la llegada de los transistores y circuitos
integrados, las máquinas de calcular utilizadas eran gigantescos amasijos de
componentes electrónicos. Durante la Segunda Guerra Mundial se construyó una de los
primeras máquinas de calcular electrónicas: el Electronic Numerical Integrator
and Computer (Computador Integrador Numérico Electrónico, también conocido por
sus siglas inglesas, ENIAC). Tenía 17.000 tubos electrónicos, unidos por miles
de cables, pesaba 30 toneladas y consumía 174 kilowatios. Podemos considerarlo
el paradigma de la primera generación de computadores. Con los transistores
llegó, en la década de 1950, la segunda generación: el primer computador
surgido de la física del estado sólido –una rama de la física cuántica– fue el
TRADIC (de Transistor Digital Computer), construido en 1954 por los
laboratorios Bell para la
Fuerza Aérea estadounidense; utilizaba 700 transistores y
podía competir en velocidad con ENIAC. A finales de la década de 1960, gracias
a los circuitos integrados, llegaría la tercera generación, a la que siguió una
cuarta, con computadoras que utilizan microprocesadores y refinados lenguajes
de programación. Y ya se habla de los computadores cuánticos, que en lugar de
utilizar bits, que toman valores 1 o 0, definidos, recurren a qubits, bits
cuánticos, que pueden estar en superposiciones cuánticas de 0 y 1, lo mismo que
un fotón puede estar en superposiciones de polarización horizontal y vertical.
Pero los computadores cuánticos, si se logran, pertenecerán a, posiblemente, la
segunda mitad del siglo xxi.
Gracias a todos estos desarrollos nos encontramos
sumergidos de lleno en un mundo pleno de computadoras que realizan, a
velocidades y fiabilidades extraordinarias, todo tipo de funciones, y sin las
cuales nuestra vida sería muy diferente. Y nada de esto, es muy importante
destacarlo, se habría producido sin los resultados obtenidos en una rama de la
física cuántica: la física del estado sólido (también denominada de la materia
condensada).
En el haber de esta rama de la física se encuentra
también el que ha estrechado las relaciones entre ciencia y sociedad. En 1955,
por poner un ejemplo, Shockley, uno de los inventores del transistor, abandonó
los laboratorios Bell para fundar su propia compañía en el área de la bahía de
San Francisco. El Shockley Semiconductor Laboratory abrió sus puertas en febrero
de 1956, reclutando un excelente grupo de profesionales. No tuvo, sin embargo,
demasiado éxito, pero a la postre constituyó el germen que condujo al
crecimiento de una zona en la que se agruparon diversas compañías tecnológicas
en un lugar de California que terminó siendo conocido como Silicon Valley, el
Valle del Silicio.
Ciencia y técnica se alían en este mundo
tecnocientifíco de una manera tan, digamos, íntima, que no es cierto que las
innovaciones fundamentales se den sólo en los enclaves científicos y los
negocios en los tecnológicos. Recordemos, en este sentido, que las técnicas
fundamentales (proceso «planar») para la fabricación de los chips fueron
ideadas en 1957 por Jean Hoerni (1924-1997), de la empresa Fairchild
Semiconductors. El primer circuito integrado fue construido allí por Robert N.
Noyce (1927-1990) en 1958. Diez años después (1968), Noyce dejó Fairchild para
fundar, junto a Gordon Moore (n. 1929), Intel, donde dirigió con Ted Hoff (n.
1937), la invención del microprocesador, que generó una nueva revolución.
Quiero mencionar, asimismo, que el desarrollo de los
microprocesadores electrónicos ha estimulado –y, a su vez, se ha visto él mismo
beneficiado por– la denominada «nanotecnología», cuyo objetivo es el control y
manipulación de la materia a una escala del orden de entre 1 y 100 nanómetros
(1 nanómetro equivale a 10-9
metros ). La nanotecnología es más una técnica (un
conjunto de técnicas) que una ciencia, pero de ella cabe esperar (en parte ya
lo está dando) desarrollos que no sólo beneficien nuestras posibilidades
materiales sino también al conocimiento científico más básico.
Máseres y láseres
Aún no he mencionado –aunque cronológicamente
precedieron a algunos de los desarrollos anteriores– al máser y al láser,
acrónimos de, respectivamente, Microwave Amplification by Stimulated Emission
of Radiation (amplificación de microondas mediante emisión estimulada de
radiación) y de Light Amplification by Stimulated Emission of Radiation
(amplificación de luz por emisión estimulada de radiación).
Desde el punto de vista de la teoría, estos
instrumentos-procedimientos para amplificar ondas de la misma frecuencia
(longitud de onda) se explican en base al contenido de dos artículos de
Einstein (1916a, b). Sin embargo, su realización práctica, con todos los nuevos
elementos teóricos y experimentales que ello conllevó, no llegó hasta la década
de 1950. Los responsables de este logro fueron, de manera independiente, los
físicos del Instituto Lebedev de Física de Moscú, Aleksandr M. Prokhorov
(1916-2002) y Nikolai G. Basov (1922-2001), y el estadounidense Charles Townes
(n. 1915), de la
Universidad de Columbia, Nueva York (los tres compartieron el
Premio Nobel de Física de 1964).
En mayo de 1952, durante una conferencia sobre
radio-espectroscopía en la Academia
de Ciencias de la URSS ,
Basov y Prokhorov describieron el principio del máser, aunque no publicaron
nada hasta dos años después (Basov y Prokhorov 1954). Y no sólo describieron su
principio, sino que también Basov construyó uno como parte de su tesis
doctoral, unos pocos meses después de que Townes hiciese lo propio.
Merece la pena resumir cómo Townes llegó por su parte
a la misma idea del máser, ya que ilustra acerca de lo muy diversos que pueden
ser los elementos que forman parte de los procesos de descubrimiento
científico. Tras permanecer en los laboratorios Bell entre 1939 y 1947, en
donde se ocupó, entre otros temas, de la investigación relacionada con el
radar, Townes pasó al Radiation Laboratory de la Universidad de
Columbia, creado durante la
Segunda Guerra Mundial para desarrollar radares, esenciales
para el desarrollo de la guerra. Al igual que otras instituciones, este
laboratorio continuó recibiendo dinero de los militares después de la
contienda, dedicando el 80% de su presupuesto al desarrollo de tubos que
generasen microondas. En la primavera de 1950, Townes organizó en Columbia para
la Oficina de
Investigación de la Marina
un comité asesor para considerar nuevas formas de generar microondas de menos
de un centímetro. Tras un año de considerar la cuestión, se le ocurrió un nuevo
enfoque antes de asistir a una de las sesiones de su comité: era la idea de
máser. Cuando logró, en 1954 y en colaboración con un joven doctor, Herbert J.
Zeiger, y un doctorando, James P. Gordon, hacer realidad operacional esa idea
utilizando un gas de moléculas de amoniaco (Gordon, Zeiger y Townes 1954),
resultó que las oscilaciones producidas por el máser se caracterizaban no sólo
por su alta frecuencia y potencia, sino también por su uniformidad. El máser, en
efecto, produce una emisión coherente de microondas; esto es, radiación
altamente concentrada, de una única longitud de onda.
Incluso antes de que los másers empezasen a
proliferar, algunos físicos comenzaron a intentar extender su idea a otras
longitudes de onda. Entre ellos se encontraba el propio Townes (también Basov y
Prokhorov), quien a partir del otoño de 1957 inició trabajos para ir desde las
microondas a la luz visible, colaborando con su cuñado, Arthur Schawlow
(1921-1999), un físico de los laboratorios Bell. Fruto de sus esfuerzos fue un
artículo básico, en el que mostraban cómo se podría construir un láser, al que
todavía denominaban «máser óptico» (Schawlow y Townes 1958). No está de más
mencionar que los abogados de los laboratorios Bell, para los que trabajaba
Schawlow y con los que Townes tenía un contrato de asesor, pensaron que la idea
del láser no tenía interés suficiente como para ser patentada; únicamente lo
hicieron ante la insistencia de Townes (Schwalow y Townes 1960).
La carrera por construir un láser se intensificó a
partir de entonces. Aunque la historia posterior no siempre ha sido lo
suficientemente clara en este punto, el primero que tuvo éxito fue Theodore
Maiman (1927-2007), de los Hughes Research Laboratories de Malibu (California),
que consiguió poner en funcionamiento un láser de rubí el 16 de mayo de 1960.
Maiman envió a la entonces recién establecida Physical Review Letters un
manuscrito con sus resultados, pero su editor, Samuel Goudsmit, lo rechazó como
«sólo otro artículo sobre el máser». En su lugar, Maiman recurrió a Nature, en
cuyo número del 6 de agosto de 1960 consiguió publicar el resultado de su
trabajo (Maiman 1960). Poco después, Schawlow anunciaba –en Physical Review
Letters– que había puesto en funcionamiento otro láser, también de rubí
(considerablemente más grande y potente que el de Maiman) junto a cinco
colaboradores (Collins, Nelson, Schawlow, Bond, Garret y Kaiser 1960). Habida
cuenta de estos hechos es cuestionable que fuese Schawlow quien recibiese en 1981
el Premio Nobel (compartido con Nicolaas Bloembergen y con Kai Siegbahn) aunque
formalmente fuese por su contribución (y la de Bloembergen) al desarrollo de la
espectroscopia láser (36).
Los máseres y, sobre todo, los láseres (otro «hijo»,
por cierto, de la física cuántica que muestra macroscópicamente efectos
cuánticos) son instrumentos bien conocidos por el público, en particular
algunas de sus aplicaciones (por ejemplo, en operaciones de desprendimientos de
retina, en las que se emplean láseres); sin embargo, lo son menos otras de gran
importancia científica. Una de ellas es su utilización en espectroscopía. Al
ser radiaciones monocromáticas de gran energía es posible dirigirlas con
precisión a niveles atómicos determinados; los resultados obtenidos permiten
conocer mucho mejor las propiedades de las moléculas, cuya estructura las hace
mucho más complicadas de estudiar que los átomos.
Un mundo no lineal
Los descubrimientos y desarrollos a los que me he
referido hasta ahora son, probablemente, los más sobresalientes desde un punto
de vista, digamos, fundamental; no obstante, no incluyen un conjunto de avances
que están abriendo nuevas y sorprendentes ventanas a la comprensión científica
de la naturaleza. Se trata de los fenómenos no lineales; esto es, los
gobernados por leyes que involucran ecuaciones con términos cuadráticos (37).
Si repasamos la historia de la física hasta bien
entrado el siglo xx, nos encontramos con que sus teorías más básicas o son
esencialmente lineales (los casos de la teoría de la gravitación universal de
Newton y de la electrodinámica de Maxwell), o, permitiendo ser utilizadas para
sistemas no lineales, como sucede con la mecánica newtoniana, se han aplicado
mayoritariamente a sistemas lineales, incluso cuando es transparentemente claro
que ello implica una aproximación a la realidad. El ejemplo más sencillo en
este sentido es el de un péndulo plano simple. Cualquier estudiante de
bachillerato, no digamos de física, sabe que la ecuación diferencial que se
utiliza para describir el movimiento de este tipo de péndulo es
d2?(t)/dt2 + (g/l)?(t) = 0
donde ? representa el desplazamiento angular del
péndulo, l la longitud del péndulo, g la aceleración de la gravedad y t el
tiempo. Ahora bien, cuando se deduce (no es un problema difícil) la ecuación
que debe cumplir el movimiento de un péndulo plano simple, no es ésta la
ecuación a la que se llega, sino
d2?(t)/dt2 +
(g/l)sen?(t) = 0
que es obviamente no lineal, ya que
sen(?1+?2)?sen?1+sen?2
Para evitar esta circunstancia, que complica enormemente
la resolución del problema, se restringe el problema a oscilaciones pequeñas,
esto es, a ángulos pequeños, lo que permite utilizar el desarrollo en serie de
Taylor de la función seno
sen???-?3/6+…
y quedándose únicamente con el primer término, obtener
la primera (lineal) de las dos ecuaciones citadas.
Lo que este ejemplo tan sencillo nos muestra es que la
denominada «física clásica» no es ajena a sistemas no lineales, pero que trata
de evitarlos debido a la dificultad matemática de su tratamiento: no existen,
de hecho, métodos matemáticos generales sistemáticos para tratar las ecuaciones
no lineales. Por supuesto, son numerosos los problemas conocidos de antiguo
asociados a sistemas (leyes) no lineales, especialmente los pertenecientes al
ámbito de la hidrodinámica, de la física de los fluidos. Así, por ejemplo,
cuando el agua fluye con una velocidad pequeña por una tubería, su movimiento
(denominado laminar), regular y predecible, se describe mediante ecuaciones
lineales, pero cuando las velocidades involucradas son elevadas entonces el
movimiento del agua se hace turbulento, formándose remolinos que siguen
trayectorias irregulares, aparentemente erráticas, características típicas de
un comportamiento no lineal. La aerodinámica, naturalmente, es otro ejemplo de
dominio no lineal, como saben muy bien todos aquellos implicados en el diseño
de aviones (38).
La riqueza de los sistemas no lineales es
extraordinaria; la riqueza y las novedades que aportan con respecto a los
lineales. Desde el punto de vista matemático (que con frecuencia encuentra su
correlato en dominios reales), las ecuaciones-sistemas no lineales pueden
mostrar transiciones de comportamientos regulares a aparentemente arbitrarios;
pulsos localizados, que en sistemas lineales producen perturbaciones que decaen
más pronto que tarde, mantienen su individualidad en los sistemas no lineales;
esto es, dan lugar a estructuras localizadas y altamente coherentes, con las
obvias implicaciones que este fenómeno puede tener en la aparición y
mantenimiento de estructuras relacionadas con la vida (desde las células y
organismos pluricelulares hasta incluso, aunque pueda parecer una idea
peregrina, pensamientos). Uno de los primeros ejemplos conocidos de este tipo
de comportamiento son los célebres «solitones», soluciones de la ecuación no
lineal en derivadas parciales denominada de Korteweg-de Vries (o ecuación KdV),
desarrollada en 1895 como una descripción aproximada de las ondas de agua que
se movían en un canal estrecho y poco profundo. No fue, sin embargo, hasta 1965
cuando Norman Zabusky y Martin Kruskal encontraron una solución de esta
ecuación que representa una de las formas más puras de estructura coherente en
movimiento (Zabusky y Kruskal 1965): el solitón, una onda solitaria que se
mueve con velocidad constante. Lejos de ser entelequias matemáticas, los
solitones se manifiestan en la naturaleza: por ejemplo, en las ondas
superficiales (que se mueven esencialmente en una dirección) observadas en el
mar de Andamán, que separa las islas de Andamán y de Nicobar de la península de
Malasia.
El caos
Un caso particularmente importante de sistema no
lineal son los sistemas caóticos. Un sistema caótico se caracteriza porque las
soluciones de las ecuaciones que lo representan son extremadamente sensibles a
las condiciones iniciales; esto es, son tales que si se cambian un poco,
minúsculamente, esas condiciones, entonces la solución (la trayectoria que
sigue el objeto descrito por la solución) se ve modificada radicalmente,
siguiendo un camino completamente diferente, al contrario que en los sistemas
no caóticos, aquellos con los que la física nos ha familiarizado durante
siglos, en los que pequeños cambios en las condiciones iniciales no alteran
sustancialmente la solución. Es por su extrema variabilidad frente a
aparentemente insignificantes cambios en sus puntos y condiciones de partida,
que esas soluciones y los sistemas a que pertenecen se denominan caóticos. Pero
que sean «caóticos» no significa que no puedan ser sometidos a leyes
expresables en términos matemáticos. Es preciso recalcar que los sistemas
caóticos están descritos por leyes codificadas en expresiones matemáticas,
expresiones de hecho similares a las que pueblan el universo de las leyes
lineales de la dinámica newtoniana.
El tiempo meteorológico constituye uno de los grandes
ejemplos de sistemas caóticos; de hecho, fue estudiándolo cuando se descubrió
realmente el caos: pequeñas perturbaciones en la atmósfera pueden cambiar el
clima en proporciones enormes. Su descubridor fue el meteorólogo teórico
estadounidense Edward Norton Lorenz (1938-2008).
Estaba trabajando en sus investigaciones sobre el
tiempo atmosférico, desarrollando modelos matemáticos simples cuyas propiedades
exploraba con la ayuda de ordenadores, cuando, en 1960, observó que algo raro
ocurría cuando repetía cálculos anteriores. He aquí como él mismo reconstruyó
los acontecimientos y su reacción en un libro que escribió años después, La
esencia del caos (Lorenz 1995, 137-139):
En un momento dado, decidí repetir algunos de los
cálculos con el fin de examinar con mayor detalle lo que estaba ocurriendo.
Detuve el ordenador, tecleé una línea de números que había salido por la
impresora un rato antes y lo puse en marcha otra vez. Me fui al vestíbulo a
tomarme una taza de café y regresé al cabo de una hora, tiempo durante el cual
el ordenador había simulado unos dos meses de tiempo meteorológico. Los números
que salían por la impresora no tenían nada que ver con los anteriores.
Inmediatamente pensé que se había estropeado alguna válvula o que el ordenador
tenía alguna otra avería, cosa nada infrecuente, pero antes de llamar a los
técnicos decidí comprobar dónde se encontraba la dificultad, sabiendo que de
esa forma podría acelerar la reparación. En lugar de una interrupción brusca,
me encontré con que los nuevos valores repetían los anteriores en un principio,
pero que enseguida empezaban a diferir, en una, en varias unidades, en la
última cifra decimal, luego en la anterior y luego en la anterior. La verdad es
que las diferencias se duplicaban en tamaño más o menos constantemente cada
cuatro días, hasta que cualquier parecido con las cifras originales desaparecía
en algún momento del segundo mes. Con eso me bastó para comprender lo que
ocurría: los números que yo había tecleado no eran los números originales
exactos sino los valores redondeados que había dado a la impresora en un
principio. Los errores redondeados iniciales eran los culpables: se iban
amplificando constantemente hasta dominar la solución. Dicho con terminología
de hoy: se trataba del caos.
Lo que Lorenz había observado empíricamente, ayudado
por su ordenador, es que existen sistemas que pueden desplegar un
comportamiento impredecible (lo que no quiere decir «no sujeto a leyes»):
pequeñas diferencias en una sola variable tienen efectos profundos en la
historia posterior del sistema. Por eso, por ser un sistema caótico, el tiempo
meteorológico es tan difícil de predecir, tan, como solemos decir,
imprevisible.
El artículo en el que presentó sus resultados (Lorenz
1963) constituye uno de los grandes logros de las ciencias físicas del siglo
xx, aunque pocos científicos que no fueran meteorólogos repararon entonces en
él, una situación que cambiaría de forma radical a lo largo de las décadas
siguientes. No poco tuvo que ver en semejante cambio de actitud la célebre
frase «El aleteo de una mariposa en Brasil puede producir un tornado en Texas»,
que Lorenz incluyó en una conferencia que pronunció el 29 de diciembre de 1972
en una sesión de la reunión anual de la American Association
for the Advancement of Science (39).
Cada vez está más claro que los fenómenos caóticos
abundan en la naturaleza. Los encontramos ya en dominios propios de la
economía, aerodinámica, la biología de poblaciones (en, por ejemplo, algunos
modelos «presa-depredador»), termodinámica, química y, por supuesto, en el
mundo de las ciencias biomédicas (un ejemplo es el de algunas arritmias).
Parece que puede manifestarse incluso en los aparentemente estables movimientos
planetarios.
Las consecuencias que para nuestra visión del mundo
tiene el descubrimiento del caos y su, por lo que parece, ubicua presencia son
incalculables. El mundo no es como suponíamos. Y no lo es sólo en los dominios
atómicos, descritos por la física cuántica, en los que reinan la probabilidad y
la incertidumbre, sino también en aquellos gobernados por las más «clásicas»
leyes de tipo newtoniano. Newtonianas, sí, pero no como las que utilizó el gran
Isaac Newton y todos sus seguidores, esto es, leyes lineales sino no lineales.
La naturaleza no es lineal, sino no lineal. No todos los sistemas no lineales
son caóticos, pero sí que todos los sistemas caóticos son no lineales. El mundo
es por ello más complicado de explicar; no podemos predecir todo lo que va a
suceder siguiendo el viejo, newtoniano, estilo, pero ¿por qué iba a ser la
naturaleza tan «sencilla»? Lo maravilloso es que seamos capaces de descubrir
tales comportamientos y las leyes matemáticas que subyacen en ellos.
Podría, y acaso debería, haber mencionado otros
desarrollos que se han producido, o iniciado, durante la segunda mitad del
siglo xx, como, por ejemplo, en la termodinámica del no equilibrio, en la que
uno de los elementos centrales son los gradientes, diferencias de magnitudes
como pueden ser la temperatura o la presión. Su importancia reside en que los
gradientes son la auténtica fuente de la vida, que tiene que luchar contra la
tendencia de la naturaleza a reducir gradientes, es decir, contra la tendencia
de la energía a disiparse conforme a la segunda ley de la termodinámica
(expresada según la a menudo citada entropía). Para los seres vivos, el
equilibrio termodinámico equivale a la muerte, por lo que para comprender la
vida es imperativo entender la termodinámica del no equilibrio y no limitarse a
la del equilibrio, que dominó gran parte de los siglos xix y xx. La complejidad
de la vida –y de otros sistemas existentes en la naturaleza– es una derivación
natural de la tendencia a reducción de gradientes: allí donde las
circunstancias lo permiten, surgen organizaciones cíclicas para disipar
entropía en forma de calor. Puede incluso argumentarse –es una nueva forma,
poco darwiniana, de entender la evolución– que puesto que el acceso a los
gradientes se mejora mediante el perfeccionamiento de la percepción, el
incremento de la inteligencia es una tendencia evolutiva que promueve
selectivamente la prosperidad de aquellos que explotan recursos menguantes sin
agotarlos. Esta rama de la física (y de la química) experimentó un gran
desarrollo en la segunda mitad del siglo xx, y por ello constituye un magnífico
ejemplo de otros avances que han tenido lugar a lo largo de ese periodo en la
física y que, como decía, tal vez debería haber tratado aquí, aunque sean en
cierto sentido de un carácter «menos fundamental». Pero ya me he extendido
demasiado y es hora de poner punto final.
Notas a pie de página
1.
Para poder construir un modelo de universo estático, Einstein
tuvo que modificar las ecuaciones básicas de la elatividad general, incluyendo
un término adicional, en el que aparecía una «constante cosmológica».
2.
Hoyle (1948), Bondi y Gold (1948).
3.
Fukuda, Miyamoto y Tomonaga (1949), Schwinger (1949) y Feynman
(1949). Por sus trabajos los tres compartieron el Premio Nobel de Física en
1965.
4.
Hasta entonces se suponía que los núcleos atómicos estaban
constituidos por protones (cargados positivamente) y electrones (cargados
negativamente). ¿Cómo si no,se pensaba, podía explicarse la emisión de
electrones (radiación beta) que tenía lugar en los procesos radiactivos? La
desintegración beta terminaría siendo explicada utilizando una de las
propiedades más llamativas de la física cuántica: la creación y aniquilación de
partículas: los electrones no están en el núcleo, se crean en la desintegración
beta.
5.
La relación entre temperaturas y longitudes de onda se puede
obtener a partir de leyes como la de Stefan-Boltzmann, Wien o Planck. La
relación entre grados celsius y kelvin viene definida por las relaciones
siguientes: 0°C
equivale a 273,15°K y 100°C
a 373,15°K.
6.
En 1974 Hewish compartió el Premio Nobel de Física con Ryle.
Jocelyn Bell, que había observado por primera vez los púlsares, fue dejada al
margen.
7.
La posibilidad de que existieran estrellas de neutrones —especie
de núcleos gigantes formados únicamente por neutrones y unidos por la fuerza de
la gravedad— fue propuesta por primera vez en 1934 (esto es, sólo dos años
después de que Chadwick descubriese el neutrón) por el físico y astrofísico
suizo afincando en California (Caltech) Fritz Zwicky (1898-1974). La masa
mínima para que pueda existir una estrella de neutrones es, según la
relatividad general, 0,1 masas solares, mientras que el máximo parece
encontrarse en torno a 6 masas solares. En el caso de una estrella de neutrones
de 1 masa solar, su radio sería de unos 13 kilómetros y su
densidad 2•1017 kg•m-3, alrededor de 2•1014 veces la densidad del agua.
8.
Como en otras ocasiones, Einstein (1936) ya había predicho la
existencia de este fenómeno.
9.
9. Hay que recordar que desde el punto de vista de la teoría de
la relatividad general espacio-tiempo y gravedad representan el mismo concepto
físico, en tanto que es la curvatura del primero la que describe la segunda.
10.
Véase, por ejemplo, Penrose (1965), Hawking (1965, 1966a, 1966b)
y Hawking y Penrose (1969). Aunque no me detendré en este punto, sí quiero
señalar que en esta empresa también participaron otros científicos, como G. F.
R. Ellis.
11.
Semejante emisión conduciría a una lenta disminución de la masa
del agujero negro. Si la disminución fuese continua, el agujero negro podría
terminar desapareciendo. Sin embargo, para agujeros negros normales (de unas
pocas masas solares), esto no sucedería. En el caso, por ejemplo, de un agujero
negro de una masa solar, su temperatura sería menor que la de la radiación del
fondo de microondas, lo que significa que agujeros negros de semejante masa
absorberían radiación más rápidamente de la que emitirían; esto es,
continuarían aumentando de masa. Sin embargo, si existiesen agujeros negros muy
pequeños (formados, por ejemplo, en los primeros instantes del Universo, debido
a las fluctuaciones de densidad que se debieron producir entonces), éstos
tendrían una temperatura mucho mayor y radiarían más energía de la que
absorberían. Perderían masa, lo que les haría todavía más calientes, estallando
finalmente en una gran explosión de energía. Su vida sería tal que quizás
podríamos observar tales explosiones ahora. No obstante, aún no han sido
detectadas.
12.
Esta dificultad recibe el nombre de «problema del horizonte».
13.
Guth (1981), Linde (1982).
14.
En una transición de fase tiene lugar un cambio repentino en el
estado del sistema en cuestión. Un ejemplo es cuando el agua (líquida) se
convierte en hielo (sólido).
15.
Por sus trabajos ambos recibieron el Premio Nobel de Física de
2006.
16.
Hasta comienzos de la década de 1990 el tamaño de los espejos de
los telescopios ópticos instalados en la Tierra más grandes era de entre 5 y 6 metros de diámetro. El
mayor telescopio de entonces, con un espejo primario (o colector) de 6 metros de diámetro,
estaba en el Cáucaso ruso. Venía después el telescopio del observatorio de Monte
Palomar, inaugurado poco después de la Segunda Guerra
Mundial, con un diámetro de 5
metros , y a continuación una larga serie de telescopios
de en torno a 4 metros .
En la actualidad se han completado o están en marcha una serie de proyectos de
construcción de grandes telescopios que, por sus características y su
aprovechamiento de las tecnologías más modernas, están permitiendo ya dar un
importante salto cuantitativo —y en más de un sentido cualitativo también— en
la investigación astrofísica. Se trata de telescopios de hasta 10 metros , como el que ya
está en funcionamiento en Manua Kea, Hawai, propiedad del California Institute
of Technology y de la
Universidad de California, y otro que se está construyendo en
el mismo lugar. Con el construido, el más grande del mundo, se observó, en el
cúmulo de las Pléyades, una enana marrón (PPL15), una estrella tan pequeña que
no luce como las demás, por lo que hasta entonces no habían sido vistas, aunque
sí detectadas en algún caso a través de sus efectos gravitacionales. Otro
instrumento de este tamaño es el Gran Telescopio del Instituto de Astrofísica
de Canarias, instalado en el Roque de los Muchachos, que ya ha visto la primera
luz.
17.
Estrictamente no fue Lawrence quien inició el camino de la
física de partículas elementales utilizando fuentes no radiactivas, aunque sí
quien dio con el procedimiento técnico más adecuado. Antes, en Cambridge, John
D. Cockcroft (1897-1967) y Ernest T. S. Walton (1903-1995) utilizaron un
multiplicador voltaico que les proporcionó los 500 kV (1 kV=1.000 voltios) que
necesitaron para ser los primeros en observar, en 1932, la desintegración
artificial de átomos de litio en dos partículas ?. Y hubo más precedentes, como
los generadores desarrollados por Robert J. Van de Graaff (1901-1967).
18.
1 GeV=1.000 millones de electrón-voltios. 1 electrón-voltio es
la energía de movimiento que ganaría un electrón sometido a la diferencia de
potencial de un voltio.
19.
Cada partícula tiene su antipartícula (aunque a veces
coincidan): cuando una y otra se encuentran, desaparecen —se aniquilan—
produciendo energía.
20.
Los hadrones pueden ser de dos tipos: bariones (protones,
neutrones e hiperones) y mesones (partículas cuyas masas tienen valores entre
la del electrón y la del protón).
21.
Es interesante también citar lo que Gell-Mann (1995, 198) ha
señalado a propósito del nombre quark: «En 1963, cuando bauticé con el nombre
de “quark” a los constituyentes elementales de los nucleones, partí de un
sonido que no se escribía de esa forma, algo parecido a “cuorc”. Entonces, en
una de mis lecturas ocasionales de Finnegans Wake, de James Joyce, descubrí la
palabra “quark” en la frase “Tres quarks para Muster Mark”. Dado que “quark”
(que se aplica más que nada al grito de una gaviota) estaba para rimar con
“Mark”, tenía que buscar alguna excusa para pronunciarlo como “cuorc”. Pero el
libro narra los sueños de un tabernero llamado Humphrey Chipden Earkwicker. Las
palabras del texto suelen proceder simultáneamente de varias fuentes, como las
“palabras híbridas” en A través del espejo, de Lewis Carroll. De vez en cuando
aparecen frases parcialmente determinadas por la jerga de los bares. Razoné,
por tanto, que tal vez una de las fuentes de la expresión “Tres quarks para
Muster Mark” podría ser “Tres cuartos para Mister Mark” (cuarto en inglés es
quart) en cuyo caso la pronunciación “cuorc” no estaría totalmente
injustificada. En cualquier caso, el número tres encaja perfectamente con el
número de quarks presentes en la naturaleza».
22.
Glashow (1960), Weinberg (1967), Salam (1968).
23.
Para entenderla la idea de cuanto de una interacción basta con
pensar en el ya citado caso de la radiación electromagnética, que según la
teoría clásica se propaga a través de campos (ondas), mientras que de acuerdo
con la física cuántica lo hace mediante los corpúsculos (fotones), cuantos de
energía h•? propuestos en 1905 por Einstein.
24.
No hay consenso acerca del porqué de la letra M. Unos opinan que
es por Teoría Madre, otros Teoría del Misterio, Teoría de la Membrana o Teoría Matriz.
25.
Una magnífica y pionera exposición es la de Weinberg (1979).
26.
No he tenido ocasión de mencionarlo: los neutrinos, que durante
mucho tiempo se supuso no tenían masa (como los fotones), sí la tienen. Éste es
otro de los resultados importantes de la física de la segunda mitad del siglo
xx.
27.
Por estos trabajos, Bethe recibió el Premio Nobel de Física de
1967.
28.
Fowler obtuvo el Premio Nobel de Física de 1983 por estos
trabajos, compartido con Chandrasekhar. Es sorprendente que Hoyle, que inició
muchos de estos trabajos, quedase al margen de la decisión de la Academia sueca.
29.
London (1938), Tisza (1938).
30.
El cero absoluto de temperatura (0°K) corresponde a –273,15°C. A
esa temperatura, las moléculas no se mueven.
31.
Los tres compartieron el Premio Nobel de Física en 1972.
32.
Hasta entonces, el superconductor de temperatura más elevada era
una aleación de niobio y germanio, que actuaba así a 23°K.
33.
Ver, asimismo, Müller y Bednorz (1987).
34.
Como su nombre indica, y aunque ciertamente no es una definición
que en principio ilustre mucho, un semiconductor es un material que conduce la
electricidad en un rango entre el que caracteriza a un metal y a un aislante.
Habitualmente, la conductividad de los semiconductores puede ser mejorada
añadiéndoles pequeñas impurezas o por otros factores, como en el caso del silicio,
que es muy poco conductor a bajas temperaturas, aunque su conductividad aumenta
si se aplica calor, luz o una diferencia de potencial (por ello el silicio se
utiliza en transistores, rectificadores y circuitos integrados).
35.
Ver Shockley (1947, 1948) y Bardeen y Brattain (1948, 1949).
36.
Siegbahn lo recibió por sus aportaciones al desarrollo de la
espectroscopía electrónica de alta resolución.
37.
De manera simbólica, se puede decir que la expresión de la
linealidad es la ecuación A + A = 2A, mientras que en el mundo de la no
linealidad, el universo en el que la reunión de dos seres genera, crea, nuevas
propiedades, A+A ? 2A. De manera rigurosa, esto es, matemáticamente, la
diferencia esencial entre un sistema lineal y otro no lineal es que mientras
que dos soluciones de un sistema lineal se pueden sumar formando una nueva
solución del sistema inicial («principio de superposición»), esto no es cierto
en el caso de un sistema no lineal.
38.
De las grandes teorías de la física clásica, la más
intrínsecamente no lineal es la teoría de la relatividad general (las
ecuaciones del campo de esta teoría de la interacción gravitacional son no
lineales).
39.
Esta conferencia no fue publicada en su momento; ha sido
incluida en Lorenz (1995, 185-188).
Bibliografía
Aczel, A. D. Entrelazamiento. Barcelona: Crítica, 2004
(edición original en inglés de 2002).
Allen, J. y D. Misener. «Flow of liquid helium II».
Nature 141 (1938): 75.
Aspect, A., J. Dalibard y G. Roger. «Experimental test
of Bell’s inequalities using time-varying analyzers». Physical Review Letters
49 (1982): 1.804-1.807.
Bardeen, J. y W. Brattain. «The transistor, a
semiconductor triode». Physical Review 74 (1948): 230-231 (L).
— «Physical principles involved in transistor action».
Physical Review 75 (1949): 1.208-1.225.
— L. N. Cooper y J. R. Schrieffer. «Microscopic theory
of superconductivity». Physical Review 106 (1957): 162-164 (L).
Basov, N. G. y A. M. Prokhorov. «3-level gas
oscillator». Eksperim. i Teor. Fiz. (JETP) 27 (1954): 431.
Bednorz, J. G. y K. A. Müller. «Possible high Tc
superconductivity in the Ba-La-Cu-O system». Zeitschrift für Physik B-
Condensed Matter 64 (1986): 189-193.
Bell, J. S. «On the Einstein-Podolsky-Rosen paradox».
Physics 1 (1964): 195-200.
— «On the problem of hidden variables in quantum mechanics».
Reviews of Modern Physics 38 (1966): 447-452..
Bethe, H. «Energy production on stars». Physical
Review 55 (1939a): 103.
— «Energy production in stars», Physical Review 55
(1939b): 434-456.
— y C. L. Critchfield. «The formation of deuterons by
proton combination», Physics Review 54 (1938): 248-254.
Bondi, H. y Th. Gold. «The steady-state theory of the
expanding universe». Monthly Notices of the Royal Astronomical Society 108
(1948): 252-270.
Born, M. «Zur Quantenmechanik der Stossvorgänge.
(Vorläufige Mitteiling)». Zeitschrift für Physik 37 (1926): 863-867.
Bose, S. «Plancks Gesetz und Lichtquantenhypothese».
Zeitschrift für Physik 26 (1924): 178-181.
Chandrasekhar, S. «The maximum mass of ideal white
dwarfs». Astrophysical Journal 74 (1932): 81-82.
Chu, P. C. W. «Superconductivity above 90 K».
Proceedings of the National Academy of Sciences 84 (1987): 4.681-4.682.
Clauser, J. F., M. A. Horne, A. Shimony y R. A. Holt.
«Proposed experiment to test local hidden-variable theories». Physical Review
Letters 23, (1969): 880-884.
Collins, R. J., D. F. Nelson, A. L. Schawlow, W. Bond,
C. G. B. Garret y W. Kaiser. «Coherence, narrowing, directionality, and
relaxation oscillations in the light emission from ruby». Physical Review
Letters 5 (1960): 303-305.
Cooper, L. N. «Bound electron pairs in a degenerate
Fermi gas». Physical Review 104 (1956): 1.189-1.190 (L).
Cornell, E. A. y C. E. Wiemann. «El condensado de
Bose-Einstein». Investigación y Ciencia. Temas 31 (primer trimestre 2003):
82-87.
Einstein, A. «Zur Elektrodynamik bewegter Körper».
Annalen der Physik 17 (1905a): 891-921.
— «Über einen die Erzeugung und Verwandlung des
Lichtes betreffenden heuristischen Gesichts-punkt». Annalen der Physik 17
(1905b): 132-148.
— «Die Feldgleichungen der Gravitation». Preussische
Akademie der Wissenschaften (Berlin). Sitzungsberichte (1915): 844-847.
— «Strahlungs -Emission und -Absorption nach der
Quantentheorie». Deutsche Physikalische Gesellschaft. Verhandlungen 18 (1916a):
318-323.
— «Zur Quantentheorie der Strahlung». Physikalische
Gesellschaft Zürich. Mitteilungen 18 (1916b): 47-62. También publicado en
Physikalische Zeitschrift 18 (1917): 121-128.
— «Kosmologische Betrachtungen zur allegemeinen
Relativitätstheorie», Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte
(1917): 142-152.
— «Quantentheorie des einatomigen idealen Gases».
Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte (1924):
261-267.
— «Quantentheorie des einatomigen idealen gases. 2.
Abhandlung». Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte
(1925): 3-14.
— «Lens-like action of a star by the deviation of
light in the gravitational field». Science 84 (1936): 506-507.
— B. Podolsky y N. Rosen. «Can quantum.mechanical
description of physical reality be considered complete?». Physical Review 47
(1935): 777-780.
Fermi, E. «Tentativo di una teoria dei raggi». Il
Nuovo Cimento 11 (1934a): 1-19.
— «Versuch einer Theorie der ?-Strahlen. I».
Zeitschrift für Physik 88 (1934b): 161-177.
Feynman, R. P. «Space-time approach to quantum
electrodynamics». Physical Review 76 (1949): 769-789.
— y M. Gell-Mann. «Theory of the Fermi interaction».
Physical Review 109 (1958): 193-198.
Fukuda, H., Y. Miyamoto y S. Tomonaga. «A
self-consistent subtraction method in the quantum field theory. II». Progress
in Theoretical Physics 4 (1939): 47-59.
Gell-Mann, M. «A schematic model of baryons and
mesons». Physic Letters 8 (1964): 214-215.
— El quark y el jaguar. Barcelona: Tusquets, 1995
(edición original en inglés de 1994).
Georgi, H. y S. L. Glashow. «Unity of all elementary
particle forces». Physical Review Letters (1974): 438.
Glashow, S. L. «Partial-symmetries of weak
interactions». Nuclear Physics 22 (1960): 579-588.
Gold, T. «Rotating neutron stars as the origin of the
pulsating radio sources». Nature 218 (1968): 731-732.
Gordon, J., P. Herbert, J. Zeiger y Ch. H. Townes.
«Molecular microwave oscillator and new hyperfine structure in the microwave
spectrum of NH3». Physical Review 95 (1954): 282-284 (L).
Greene, B. El universo elegante. Barcelona: Crítica /
Planeta, 2001 (edición original en inglés de 1999).
Guth, A. H. «Inflationary universe: a possible
solution to the horizon and flatness problem». Physical Review D 23 (1981):
347-356.
Hawking, S. W. «Occurrence of singularities in open
universes». Physical Review Letters 15 (1965): 689
— «Occurrence of singularities in cosmology».
Proceedings Royal Society A 294 (1966a): 511-521.
— «Occurrence of singularities in cosmology».
Proceedings Royal Society A 295 (1966b): 490-493.
— «Particle creation by black holes», en Isham,
Penrose y Sciama, eds. (1975): 219-267.
— y R. Penrose. «The singularities of gravitational
collapse and cosmology». Proceedings of the Royal Society of London A 314
(1969): 529-548.
Heisenberg, W. «Über quantentheoretische Umdeutung
kinematischer und mechanischer Beziehungen». Zeitschrift für Physik 33 (1925):
879-893.
— «Über den anschaulichen Inhalt der
quantentheoretischen Kinematik und Mechanik». Zeitschrift für Physik 43 (1927):
172-198.
Hewish, A., S. J. Bell, J. D. H. Pilkington, P. F.
Scott y R. A. Collins. «Observation of a rapidly pulsating radio source».
Nature 217 (1968): 709-713.
Hoddeson, L., L. Brown, M. Riordan y M. Dresden,
(eds). The Rise of the Standard Model. Cambridge: Cambridge University Press,
1997.
Hoyle, F. «A new model for the expanding universe».
Monthly Notices of the Royal Astronomical Society 108 (1948): 372-382.
Hubble, E. «A relation between distance and ra-dial
velocity among extra-galactic nebulae». Proceedings of the National Academy of
Sciences of the U.S.A. 15, (1929): 168-173.
— y M. L. Humanson. «The velocity-distance relation
among extra-galactic nebulae». Astrophysical Journal 74 (1931): 43-80.
Hulse, R. A. y J. H. Taylor. «Discovery of a pulsar in
a binary system». Astrophysical Journal 195 (1975): L51-L53.
Isham, Ch. J., R. Penrose y D. W. Sciama, (eds).
Quantum Gravity. An Oxford Symposium. Oxford: Oxford University Press, 1975.
Kamerlingh Onnes, H. «Further experiments with liquid
helium. C. On the change pf electric resistance of pure metals at very low
temperature. IV. The resistance of pure mercury at helium temperatures».
Communications from the Physical Laboratory at the University of Leiden N°.
120a (1911): 3-15.
Kapitza, P. «Viscosity of liquid helium above the
?-point». Nature 141 (1938): 74.
Landau, L. «On the theory of stars». Phys. Z.
Sowjetunion 1 (1932): 285-287.
Lemaître, G. «Un univers homogène de masse
constante et de rayon croissant, rendant compte de la
vitesse radiale des nébuleuses extra-galactiques». Annales de la Société Scientifique
de Bruxelles 47 (1927): 49-59.
Linde, A. D. «A new inflationary universe scenario: a
possible solution of the horizon, flatness, homogeneity, isotropy and
primordial monopole problem». Physics Letters 108 D (1982): 383-393.
London, F. «The ?-point phenomenon of liquid helium
and the Bose-Einstein degeneracy». Nature 141 (1938): 643-644.
Lorenz, E. N. «Deterministic non-periodic flows».
Journal of Atmospheric Science 20 (1963): 130-141.
— La esencia del caos. Madrid: Debate, 1995 (edición
original en inglés de 1993).
Maiman, Th. H. «Stimulated optical radiation in ruby».
Nature 187 (1960): 493-494.
Mather, J. C. et al. «A preliminary measurement of the
cosmic microwave background spectrum by the Cosmic Background Explorer (COBE)
satellite». Astrophysical Journal 354 (1990): L-37-L40.
Mayor, M. y D. Queloz. «A Jupiter-mass companion to a
solar-type star». Nature 378 (1995): 355-359.
Müller, K. A. y J. G. Bednorz. «The discovery of a
class of high-temperature superconductivity». Science 237 (1987): 1133-1139.
Oppenheimer, J. R. y H. Snyder. «On continued
gravitational contraction». Physical Review 56 (1939): 455-459.
— y G. Volkov. «On massive neutron cores». Physical
Review 55 (1939): 374-381.
Penrose, R. «Gravitational collapse and space-time
singularities». Physical Review Letters 14 (1965): 57-59.
Penzias, A. A. y R. W. Wilson. «A measurement of
excess antenna temperature at 4080 Mc/s». Astrophysical Journal 142 (1965):
414-419.
Perlmutter, S. et al. «Discovery of a supernova explosion
at half the age of the universe and its cosmological implications». Nature 391
(1998): 51-54.
Planck, M. «Zur Theorie des Gesetzes der
Energieverteilung im Normalspektrum». Verhandlungen der Deutschen
Physikalischen Gesellschaft 2 (1900): 237-243.
Ryle, M. «Radio stars and their cosmological
significance». The Observatory 75 (1955): 137-147.
Salam, A. «Weak and electromagnetic interactions», en
Svartholm, ed. (1968).
Schawlow, A. y Ch. H. Townes. «Infrared and optical
masers». Physical Review 112 (1958): 324-327.
— «A medium in which a condition of population
inversion exists». U.S. Patent 2.929.922, 22 de marzo de 1960.
Schödinger, E. «Quantisierung als Eigenwertproblem. (Erste Mitteilung)». Annalen der Physik 79 (1926): 361-376.
Schmidt, B. et al. «High-Z supernova search: Measuring
cosmic deceleration and global curvature of the universe using type Ia
supernova». Astrophysical Journal 507 (1998): 46-63.
Schweber, S. «A historical perspective on the rise of
the standard model». En Hoddeson, Brown, Riordan y Dresden, eds. (1997):
645-684.
Schwinger, J. S. «On radiative corrections to electron
scattering». Physical Review 75 (1949): 898-899 (L).
Shockley, W. «Density of surface states on silicon
deduced from contact potential measurements». Physical Review 72 (1947): 345.
— «Modulation of conductance of thin films of
semiconductors by surface changes». Physical Review 74 (1948): 232-233.
Smolin, L. Las dudas de la física en el siglo XXI.
Barcelona: Crítica, 2007 (edición original en inglés de 2006).
Smoot, G. et al. «Structure of the COBE differential
microwave radiometer first year maps». Astrophysical Journal 396 (1992): L1-L5.
— y K. Davison. Arrugas en el tiempo. Barcelona:
Círculo de Lectores, 1994 (edición original en inglés de 1993).
Sudarshan, E., C. George y R. E. Marshak. «The nature
of the four-fermion interaction». Padua Conference on Mesons and Recently
Discovered Particles. Padua, 1957: V14-24.
— «Chirality invariance and the universal Fermi
interaction». Physical Review 109 (1958): 1.860-1.862.
Svartholm, N., ed. Elementary Particle Theory:
Relativistic Groups and Analyticity. Estocolmo: Almqvist and Wilksell, 1968.
Taylor, J. H, L. A. Fowler y P. M. McCulloch.
«Measurements of general relativistic effects in the binary pulsar PSR1913+16».
Nature 277 (1979): 437-440.
Tisza, L. «Transport phenomena in helium II». Nature
141 (1938): 913.
Wagoner, R. V., W. A. Fowler y F. Hoyle. «On the synthesis of elements at very high temperatures». Astrophysical
Journal 148 (1967): 3-49.
Walsh, D., R. F. Carswell y R. J. Weyman. «0957+561
{A}, {B}: twin quasistellar objects or gravitational lens?». Nature 279 (1979):
381.
Weinberg, S. «A model of leptons». Physics Review
Letters 19 (1967): 1.264-1.266.
— The First Three Minutes: A Modern View of the Origin
of the Universe. Nueva York: Basic Books, 1979.
Weizsäcker, C. F. von. «Über elementumwandlungen im
inner der sterne, II». Physikalische Zeitschrift 39 (1938): 633-646.
Wheeler, J. A. y K. Ford. Geons, Black Holes and
Quantum Foam. Nueva York: Norton, 1998.
Witten, E. «String theory dynamics in various
dimensions». Nuclear Physics B 443 (1995): 85-126.
Wolszczan, A. y D. Frail. «A planetary system around
the millisecond pulsar PSR1257+12». Nature 355 (1992): 145-147.
Yoshimura, M. «Unified gauge theories and the baryon
number of the universe». Physical Review Letters 41 (1978): 281-284.
Zabusky, N. J. y M. D. Kruskal. «Interaction of
“solitons” in a collisionless plasma and the recurrence of initial states».
Physical Review Letters 15 (1965): 240-243.
Zweig, G. «An SU(3) model for strong interaction
symmetry and its breaking». CERN Report
A little note to let everybody know about the powerful work of doctor chimnedum herbal home. My name is Gazalee from Malaysia and i was ones a HEPATITIS and HBP victim until i read about Dr chimnedum herbal home online on how he cured so many people with herbal remedies,and i contacted him for help and he really helped, after i applied his herbal remedies. i am testifying to this great Dr chimnedum herbal home because i want everybody to be informed so that you will contact him today for your cure, Contact him through: dr.chimnedumherbalhome1616@gmail.com Call/Whatsapp: +2347086675538,I'm healed,
ResponderEliminaris a great thing in my life today.