You are on page 1of 19

32

MICROCOSMOS y MACROCOSMOS

En este capítulo se tratan dos partes de la física que se ocupan de los extremos opuestos
de la escala de distancias. En uno de ellos, la física de partículas, también llamada física de
las altas energías, explora los componentes primarios que constituyen el mundo, las par-
tículas elementales, y las fuerzas entre ellas. En el otro, la cosmología abraza el estudio del
Universo en un sentido global, tratándolo como un único sistema físico. En su concepción
contemporánea, ambas disciplinas nacen más o menos en la década de 1930, desarrollándo-
se en la segunda mitad del siglo xx. La física de partículas, al desgajarse de la física nuclear
para seguir un camino propio; la cosmología, al aceptar la idea de un Universo en expan-
sión a partir de una singularidad inicial. Ambas ramas de la física, aparentemente tan dis-
pares, se fusionan a la hora de dar cuenta de los primeros momentos del Universo, mo-
mentos en que la energía era lo suficientemente alta como para que se originasen los
procesos que han llevado a su constitución actual.
El espacio disponible en este capítulo no hace justicia a estos desarrollos. Particu-
larmente, en el caso de la física de partículas, se ha optado por dejar de lado los aspectos
experimentales, aun a pesar de la importancia y delicadeza de los experimentos realizados en
los grandes aceleradores, en aras de una mejor comprensión de los aspectos teóricos. Estos
son bastante extraños, habida cuenta de que la imaginación no alcanza a representarlos.
Hoy día, superado el que se ha llamado «modelo de las canicas», en el que las partículas
serían como pequeñas bolas, nadie puede concebir una partícula elemental sino como el
conjunto de parámetros y números cuánticos que la caracterizan. Tampoco, desde la habi-
tual geometría euclídea que constituye nuestro marco cotidiano, resulta fácil entender un
espacio curvo y en expansión. A superar estas dificultades conceptuales no contribuye pre-
cisamente el hecho de que las matemáticas que emplean estas teorías sean de una gran
complejidad, lo que obliga a dar de su contenido una descripción poco matizada.
Con todo, su importancia es difícil de exagerar. Hay físicos que tienen la esperanza de
que gracias al desarrollo de estas teorías, si es que acaba por lograrse su unificación en una
«teoría de todo», algo en lo que se trabaja activamente en la actualidad, podrá ponerse
punto final a la empresa. Se dispondría entonces de una única teoría a partir de la cual se
podrían describir todos los aspectos de la naturaleza (lo cual no quiere decir que no quede
mucho trabajo por hacer para afinar todos los aspectos y consecuencias del modelo). Los
hay que creen, además, que este final no estaría muy lejano, si bien muchos se muestran
menos optimistas (cuadro 32.1).
HISTORIA DE LA CIENCIA MICROCOSMOS Y MACROCOSMOS

Cuadro 32.1
evitar que se cierren las puertas si existe una persona u objeto interpuesto; cuadro 32.2). En
años sucesivos, Einstein trabajó intermitentemente en sus cuantos de radiación, a los que el
En esta conferencia quisiera discutir la posibilidad d 1 b' . .. ,
da alcanzarse en un tuturo no muv dist t d' fe qU e e o ¡euvo de la {¡sIca teorica pue- químico G. Lewis denominaría «fotones» en 1926. También se vio, al comentar la antigua
. an e, Igamos a !nales de este si 1 L . d'
con esto es que podemos tener una teoría 1 . . . g o. o que qUIero eClr teoría cuántica, que en 1916 Einstein estudió las probabilidades de transición entre dos esta-
físicas que describiría todas las observ . comp etba , conNslstente y unI6cada de las interacciones dos cuánticos, ligándolas con la existencia de fotones y su absorción o emisión por la mate-
aClOnes pOSI les atural t h
sos a la hora de hacer predicciones com t. H . men e, ay que ser muy cautelo- ria. Ese mismo año, al considerar la situación de equilibrio térmico entre la radiación y un
'
1a s!ntesis o es a. emos pensado que t 'b d
final por lo menos dos veces ante d h A ' . es a amos a punto e lograr gas molecular, sobre e! que aquella ejercería una presión de radiación, asoció a los fotones
a principios del siglo xx y al entusiasmo s. eda ora. l[ qUI se. ~e6ere aJ estado de la física clásica
un momento de valor hv/c; algo que sería confirmado en 1923 por el ya comentado efecto
hecho grandes progresos en Jos últun' SUscIta
-
o por a ecuaClOn de DI ] N b
Id' .
h
rae. o o stante, emos
os anos y, ta como eSCflbl' . l' fu d Compton.
suscitar un cauteloso optimismo acerca de d d Jire, eXIste a gun n amento para
que, entro e apso de vIda d al di'
presentes, podamos llegar a ver una teoría completa rc j i ' . e gunos e os aqUI
Cuadro 32.2
ocupar la cátedra Lucasiana de Cambrid e el 29 ' . on erenCla pronu~clada por S. Hawking al
for Theoretical Physics?». Recogida en}. ~SLOU~~a~~pdhe 1980, kba¡O,elUlltulo «ls the End in Sight
, e en Haw mg s nzverse (1985).] El efecto fotoeléctrico se produce cuando una superficie metálica se irradia con luz visible o
ultravioleta. Fue observado por W. Hertz en 1887, yen 1899, W. Thomson estableció que el
efecto consistía en la emisión de los recientemente descubiertos electrones. En 1902, P. Lenard
estableció que esta emisión resultaba independiente de la intensidad de la luz y que la energía de
EL MODELO ESTÁNDAR los electrones emitidos dependía de la frecuencia de esta luz incidente. En 1905, Einstein expli-
có el efecto en términos de cuantos de luz. Al chocar con los electrones del metal, los fotones les
cons!~~:::~~;<~o::;~r~;!~dya::se~loba l.os conEocimientos actuales sobre los últimos transmiten su energía. La energía de los fotones depende de su frecuencia, por lo que si esta no
es lo bastante elevada la aportación de energía no resulta suficiente para liberar al electrón. Su-
eracclOnes n su evolución se p d d" .
tres etapas. La primera se inicia en la década de 1930 d b d ~e en IstIngUlr perado este umbral, el exceso sobre este de la energía transferida se convierte en energía cinética
terior de! núcleo atómico formulánd 1 . ,cuan o se a or a e estudio de! in- del electrón: por ello la energía de los electrones depende de la frecuencia y no de la intensidad

abnna una segunda etapa, caracterizada por e! descubr"


J:
co~~onentes y de la desi~tegración r~~~ac~~v;.r~:;: !~l::~o~e inte:acción entre sus
d a decada ~e 1950 se
de la luz. Si E es la energía del electrón, P la que necesita para escapar y hv la energía del cuanto
luminoso, se cumple que E=hv- P, expresión de la que se podía deducir el valor de la constante

~:sl::~~~e~~s l~~ ~;~d:;e;gc;~:r::ol P?si~ilitan er:~~~:~to ~;r::::aa:~~~:~ó~


de Planck.
res, que
os rayos cosmlcos a su producci . 1d E
tercera y por el momento últ' f . on contra a a. n una En 1924, Satyendra Nath Bose (1894-1974) envió a Einstein una nueva derivación de la
de! siglo XX con la aparición :~;;;~' [u~ Pluede conkslderadrse iniciada hacia los años sesenta ley de Planck en la que el tratamiento estadístico se aplicaba a los fotones del campo de ra·
• . e o e os quar s, se es arrolla e! modelo t' d
en te~Inos generales quedaría completado a finales de la década de 1970 C es a~ ar, que diación. En ella, Bose creyó estar aplicando la estadística de Boltzmann, pero en realidad
la teona acelPtada, aunque, corno se comentará al final de este epígrafe se ~on~~~utu~e h? hizo algo distinto. Allá donde Boltzmann empleó el número de partículas, Bose interpretó
Clente, por o que se confía en que se pueda extend d' l' era InSU 1- la partición en términos del número de celdas del espacio de las fases. Esto constituía una
que se .comenzó a trabajar ya desde la misma décad:~:~9~~n~ a guna de las teorías en l?s nueva estadística, sin la cual Bose no hubiese podido llegar a la fórmula de Planck. Una de
en el aIre aunque c h ' d . e momento, las cosas estan sus características era que los fotones de la misma energía se consideraban indistinguibles
menos al~unos nu~v~~~::res:~:~~~o~:rá~ ::pl:r~~tmroduhcción, e! sentir general es que al entre sí. Otra, que el número de fotones presente no tenía por qué conservarse, algo que re-
uc o.
sultaba particularmente apropiado a la hora de considerar que estos se están absorbiendo
y emitiendo incesantemente por las paredes de la cavidad que encierra a la radiación. Esta
Campos y partículas: la electrodinámica cuántica «forma de contar», llamada estadística de Bose-Einstein, no solo se aplica a los fotones, JI
sino también, corno se vería, a otras partículas con valor entero de su espín, las cuales pue- l'
il
Cuando se introdujo el cuanto con la t . d PI k 1 ' .. den ocupar en cualquier número el mismo nivel de energía, es decir, no están sometidas al ir
materia, modelizada mediante osciladores qU~~~: e .anc b' a cuanltIzaclon se aplicó a la 1I
pero no se aplicó a la radi . . . eraCClona an con e campo de radiación, principio de exclusión. Corno mostrarían independientemente Fermi y Dirac en 1926, las
!!
los físicos concebían la rad~:~~~nm:~~:;!~ hecho,.hasta la década de 1920 la mayoría de
partículas que sí lo están -aquellas con espín semientero--, corno los electrones, respon- 1,

t
~e~~;~!:~:~ ~;~::dt~~~~:~r~od;á~i.ca Yl::ac~~~I:~;;d~~~~~, :m1~~;, ~~~~:~~~:~~~
dose así en forma discreta en ::~n::~~~~i~ne~~~~agnet¡~a estaba cuanti~a.~a: comportán.
den a una estadística distinta (la denominada de Fermi-Diracl. Por ello a las partículas del
primer tipo se las llamaría bosones, y a las del segundo, fermiones (cuadro 32.3).
En 1925, Born y Jordan publicaron un trabajo en el que señalaban que el campo elec-
¡
efecto fotoeléctrico, la emisión de electrones desd ~ mate~~ .. E~o le perm1t!o Interpretar el
tromagnético en el vacío se podía representar mediante una superposición de ondas planas t

,I'
vibrando armónicamente; es decir, mediante osciladores armónicos. Ese mismo año publica-
(un efecto en el que se basan los dispositivos com~n~~~t: ::epleedun metlal expuesto a la luz ron junto con Heisenberg otro artículo en el que se establecía la equivalencia entre una par-
a os en os ascensores para
'- - ----_ .. - - - - : : : - : : - - - - - - - -
lOS( 1
1,ro
,(
HISTORIA DE LA CIENCIA
MICROCOSMOS y MALKUCU:'MU:'
.
"
,
i 1
dientes a los niveles d~ .energía S y P del átomo de hidrógeno, que en la teoría de Dirac ,,
entonces las predicciones de la teoría encontraron un muy buen acuerdo con los datos ex- ¡
e~an ~~generados: ~asl ~nmediat~mente, ~. Bethe dio cuenta de este efecto, en una apro- ¡

'
perimentales.
XlmaClOn n~ relativIsta, IntroducIendo la dIferencia entre la autoenergía de un electrón li-
bre y ot~o hga~o, como en el átomo de hidrógeno (aunque las autoenergías fuesen infini-
tas, su. dlfer~ncla no lo era)' El modo de actuar de Bethe era una forma del procedimiento De los mesones a los quarks 11

c~nocldo mas tarde como «re~ormalización» para la eliminación de los infinitos. Esta téc- .i
Dlca fue desarrollada por Juhan Seymour Schwinger (1918-1994) S' . T Los positrones se descubrieron en los rayos cósmicos. Desde los primeros años del si- I!
( 9 ' ID-Uro omonaga
1 06-1979) ~ .Richard Phillips Feynman 0918-1988) en 1948. Schwinger explicó el mo- glo, los detectores habían mostrado la presencia de una radiación parecida a la de los re- JI
,1
~ento magnetlco .anómalo del electrón, llamado así porque se había encontrado un valor cién descubiertos rayos 'f que parecía provenir de los materiales radiactivos del entorno o "
11
hgeramente s,upenor al predicho por Dirac; en esencia, el origen de esto es que, para un de la atmósfera. En ascensiones en globo llevadas a cabo en 1911 y 1912, Victor F. Hess il
campo magnetlco externo, el electrón se ve durante una parte del tiempo disociado virt al- (1883-1964) halló que la intensidad de esta radiación aumentaba con la altitud, lo que ;1
mente en un el.ectrón más un fotón, con lo que presenta un momento magnético disti~to apuntaba a su origen extraterrestre. Pero hasta 1929 no se desechó la idea de que consis-
del :~rrespondlente al electrón no disociado. La teoría de Schwinger, muy complicada ma- tían en rayos 'Y de alta energía. Ese año se comprobó que cuanto menos parte de esta ra- JI

tematlcam~nte, era general y por completo relativista, permitiendo la descripción de elec- diación debía consistir en partículas cargadas. En los años siguientes quedó claro que los :i
¡
trones, ~osl~rones ~ ~otones en el seno de un campo externo coulombiano. Pronto se supo rayos, que al chocar con los átomos de los elementos de la atmósfera producían una cascada
que ~abla.sldo antiCIpada por los trabajos de Tomonaga en 1943, los cuales no pudieron
ser ~Ifu~dldos a causa de la guerra, y que constituían una formulación distinta de la misma
de partículas secundarias, tenían naturaleza corpuscular, y que algunas de estas partículas
tenían energías muy altas. Experimentos de absorción de la radiación en metales pesados
I
teo~la. SIn entrar e.n detalles, y s!gui~~do una descripción del mismo Tomonaga, se puede mostraron que estos rayos constaban de una componente «blanda», compuesta por elec-
decIr .que en esencia la renormahzaclon consistía en lo siguiente: en lugar de consider 1 trones y positrones, y otra «dura», que en 1937 se sospechaba que consistía en un nuevo
magDltU?e.s «desnuda.s», e infinitas, para la masa y la carga del electrón, se introducía~ 1;: tipo de partículas de carga unidad y con masa mayor que la del electrón, pero mucho me-
valores.fl~Itos determInado~ ex~:rimen:almente. Como se vería más tarde, los orígenes del nor que la del protón: se trataba del mesón o mesotrón (hoy, como se verá algo más ade-
procedImiento de renormalizaclon habna todavía que remontarlos a un artículo publicado lante, se le denomina muón; cuadro 32.5).
en 1938 por Ernst Cad Gerlach Stueckelberg (1905-1985) que pasó inadvertido. El méto- La existencia de esta partícula parecía haber sido predicha algunos años antes por Hi-
do de. F~~man, po: s.u pa.rte, era, distinto a los anteriores, y los diagramas que dibujó en deki Yukawa (1907-1981) en el contexto de la teoría de las fuerzas nucleares. Tras el des-
un pnnClplO para dIS~IngU1r a que parte (electrón, fotón, interacción) pertenecían los de- cubrimiento del neutrón ese mismo año de 1932, Heisenberg introdujo un modelo de
sarra.llos.de.sus ecuacIOnes se conocen hoy como «diagramas de Feynman» (cuadro 32.4) fuerzas nucleares basado en una analogía molecular. Entre un protón y un neutrón (pn)
Al ano slg~lente (194:), Freeman Dyson (n. 1923) demostró su equivalencia matemátic~ tomó como modelo el ion H/: dos protones que comparten un electrón. En este caso el
con la teona de SchwInger-Tomonaga, yen 1950 formuló una teoría sintética. A partir de neutrón emitiría un electrón, convirtiéndose en un protón, y el electrón emitido sería atraí-
Cuadro 32.4
do por el protón próximo, el cual se convertiría en un neutrón, tras lo cual se repetiría, a la
inversa, el proceso, en rápida sucesión. Entre dos neutrones (nn) el modelo sería la mo-
Diagramas de Feynman
lécula de H 2 : aquí dos protones compartirían dos electrones. A falta de analogía molecular,
entre dos protones (pp) actuarían solo las fuerzas -respulsivas- de Coulomb. Neutrones
En estos diagramas las tra- y protones, sin embargo, tienen el mismo espín, por lo que el espín del electrón comparti-
yectorias de las partículas en el
do introduciría una violación de las leyes de conservación, de modo que ese electrón ten-
p espacio-tiempo se representan
por líneas. El ejemplo de la figu- dría que ser algo así como virtual. Sea como fuere, la idea de una fuerza nuclear, un cam-
ra (a) es el diagrama de la in- po, mediada por el intercambio de una partícula --como es el caso del fotón en el campo
teracción electromagnética entre electromagnético--, estaba presente.
dos electrones, en la que ambos En un trabajo publicado en 1935, Yukawa retomó esta idea, apoyándose en el estudio
intercambian un fotón, represen- de Fermi de la emisión /3. En este las leyes de conservación se salvaban incorporando al es-
(a) (b) tado por la línea ondulada. En el quema una nueva partícula desconocida, el neutrino. Del mismo modo, Yukawa dedujo
diagrama (b) se representa la de- las propiedades de la partícula que mediaría entre los protones y neutrones nucleares: la
d 1 sintegración del neutrón gober-
na a por a fuerza débil de la que es portador el bosón w, aquí representada mediante u~a línea denominó el «cuanto U» y dos años después fue identificada con el mesón (cuadro 32.6).
de traz~s. Al repn;sentar cada línea de uno de estos diagramas una partícula, le corresponde una Pero diez años más tarde, en 1947, se había alcanzado la convicción de que el mesón de-
expreSlOn matematJca que la descnbe; a los vértices o puntos de intersección entre líneas les tectado en los rayos cósmicos no era, en realidad, el cuanto U de Yukawa. Se habían en-

I
corresponde otra que expresa su interacción. . contrado discrepancias en la masa yen la vida media y además no se cumplían las previsio-
nes en el caso de la dispersión y absorción de los mesones por los núcleos atómicos.

1084 1085
,:.
!
HISTORIA DE LA CIENCIA

Cuadro 32.5
Cámaras de niebla y de burbujas
Cuadro 32.6

En el caso de la interacción electromagnética, esta se halla representada por el intercambio de


.•¡ . , ! l.
un fotón virtual entre dos partículas cargadas. El principio de indeterminación permite el inter- 1 ;
El estudio de las trayectorias e interacciones de las partículas fue posibilitado a partir cambio de una partícula con energía !lE durante un tiempo tlt siempre y cuando !lE·!lt s hI2'IT;
;

de 1911 por la cámara de niebla desarrollada por Charles T. R. Wilson (1869-1959). En esencia, de otro modo se violaría el principio de conservación de la energía. En el caso del fotón, que via-
se trata de una cámara con una pared transparente y otra móvil, que permite variar su volumen. ja a la velocidad de la luz e y cuya energía es relativamente pequeña al carecer de masa, en el
Si la cámara se llena con aire saturado de vapor y el volumen se aumenta bruscamente, el vapor tiempo !lt puede recorrer una distancia bastante grande, por lo que la fuerza electromagnética
pasará a un estado conocido como «sobresaturado», en el que se halla a punto de condensarse es de largo alcance. A partir de esta relación de indeterminación cabe hacerse una idea de la masa
en gotitas. Esta condensación, del mismo modo que la que se produce en la atmósfera en el caso de la partícula mediadora en las fuerzas nucleares. Estas son de corto alcance, típicamente del
de la lluvia, se efectúa en torno a unos núcleos, partículas de polvo o iones. Estos iones se produ- orden de 10- 15 m, pues actúan dentro de los núcleos atómicos. Si tal partícula viajase a la veloci-
cen en la cámara al paso de una partícula cargada, que de este modo deja tras de sí un rastro de dad de la luz, !lt =dlc, resultando !lE =hc/2'ITd. Si se parte del dato d =2· 10- 15 m, obtenido como
minúsculas gotitas, el cual se puede fotografiar. Si a su paso por la cámara la partícula ionizante la distancia a la que la fuerza deja de sentirse entre dos núcleos, y se sustituyen c= 3· 108 mis y
se somete a campos eléctricos o magnéticos, estos alteran su trayectoria, de forma que se pueden hl2'IT=6,55 MeV/s, de E=m¿ se obtiene una masa de unos 100 MeV/¿, doscientas veces supe-
medir sus propiedades. Las partículas neutras, claro está, no dejan trazas. rior a la del electrón y diez veces inferior a la del protón. De ahí el nombre de mesón, que deno-
La cámara de burbujas, inventada en 1952 por Luis Á1varez (1911-1988), se basa en un prin- ta a una partícula de masa intermedia.
cipio similar. En este caso lo que se hace es disminuir la presión sobre un líquido (se empleó hi-
drógeno líquido) a punto de ebullición, de tal modo que el líquido queda «sobrecalentado» y las
burbujas de gas se forman en torno a los iones creados al paso de la partícula que atraviesa la cá- go, los rayos cósmicos todavía iban a deparar por esas fechas una nueva sorpresa: las «par-
mara. Su ventaja respecto de la cámara de niebla reside en la superior densidad del medio que tículas en v». Detectadas por primera vez en 1946 y confirmada su existencia al año
atraviesan las partículas, el cual las detiene en mayor número; además, los protones del hidróge- siguiente, se trataba de partículas con miles de veces la masa del electrón que, al desintegrar-
no sirven de blanco, lo que permite ampliar el estudio. Pese a la simplicidad de su principio de se, dejaban una traza en forma de horquilla (de ahí su nombre). A partir de 1953 los gran-
funcionamiento, estas cámaras constituyen instrumentos complejos y costosos; por ejemplo, el
des aceleradores de partículas (cuadro 32.7) también realizaron su aportación, desvelándo-
BEBC (Big European Bubble Chamber) que funcionó en el Centro Europeo de Investigaciones
Nucleares (CERN) de Ginebra entre 1972 y 1984 estaba constituido por un cilindro de 3,7 m de Cuadro 32.7
diámetro y 2 m de altura que contenía 22 m' de hidrógeno líquido. Una cámara de este tipo pue-
Los aceleradores de partículas
de realizar entre 20.000 y 40.000 expansiones diarias, con sus correspondientes placas fotográfi-
cas (tres por expansión, para obtener una imagen tridimensional de los sucesos), con lo que el
estudio de los resultados requirió, desde la aparición de los ordenadores, el empleo de los mode- Al tubo de Crookes, que como se vio se empleó en las primeras investigaciones que penetra-
los más potentes disponibles. ron en el mundo subatómico, se le puede considerar el primer acelerador de partículas cargadas,
aun cuando la energía impartida a estas solo fuese de algunos cientos de eVo Para obtener pro-
yectiles de mayores energías con los que producir nuevos sucesos había que aumentar e1.campo
Yukawa había previsto dos tipos de partículas, una con carga positiva y la otra con negati- que los aceleraba, pero las tensiones elevadas no resultan fáciles de manejar: pueden producirse
va: un protón que emitiese un U+ se convertiría en un neutrón, y un neutrón que emitiese chispas y aparecen problemas con el aislamiento. Durante un tiempo, la fuente de partículas de
altas energías la constituyeron los rayos cósmicos. Pero con estos solo se podía observar. Los
un U- se convertiría en un protón. Al atravesar la materia, los núcleos atómicos deberían
aceleradores posibilitaron el paso desde los observatorios situados a gran altitud a los laborato-
rechazar los U+ y absorber los U- debido, respectivamente, a las fuerzas coulombianas de
rios, en donde los sucesos que se deseaban observar podían producirse a voluntad (dentro del
repulsión y de atracción. Y así sucedía en el caso del plomo, pero no en el del carbón, que
rango de energías que se podía alcanzar, siempre en aumento).
mostraba que los U- interaccionaban con el núcleo mucho más débilmente de lo previsto. Los primeros avances se realizaron hacia la década de 1930. Entre 1928 y 1932, Ernest Tho-
El experimento fue realizado a finales de 1946 por Marcello Conversi (1917-1988), Ettore mas Sinton Walton 0903-1995) y John Douglas Cockroft (1897-1967) construyeron, en el Labo-
Pancini (1915-1981) y Oreste Piccioni (1915-2002). La solución que se encontró fue suge- ratorio Cavendish de Cambridge, un acelerador que por medio de un gran transformador creaba
rir la existencia de dos tipos de mesones: uno sería la partícula de Yukawa, producida en una tensión capaz de acelerar protones hasta los 0,75 MeV; en 1930, Robert Jemison van de
colisiones de los rayos cósmicos en la alta atmósfera, y el otro sería el detectado a nivel del Graaff (1901-1967) ideó
suelo, producto de la desintegración del anterior; ambos tendrían diferentes masas y vidas otro sistema en el que las
medias. Esta sugerencia la hizo Robert Eugene Marshak (1916-1992) en 1947, ignorando cargas se generaban por
rozamiento y se trans-
-por retrasos en la publicación debidos a la guerra- que ya había sido formulada en Ja-
portaban hasta una esfe-
pón en 1942 yen 1943. Y también que simultáneamente se había detectado esto en los ra-
ra metálica, donde se
yos cósmicos. A la más pesada de las dos partículas, que corresponde a las previsiones de acumulaban, lo que per-
Yukawa, se le llama mesón TI o «pión», y a la otra, mesón J.l o «muón». mitía crear un importan-
El muón no parecía desempeñar ningún papel, y en este punto constituye ya un tópi- te potencial e1ectrostáti- Esquema de un acelerador lineal de protones
co citar a Isidor Rabi 0898-1988) al preguntar: «¿Quién ha encargado esto?». Sin embar-

1087
1086
HISTORIA DE LA CIENCIA ' !
MICROCOSMOS Y MACROCOSMOS I j
l ¡
co que, no obstante, tiene sus límites. También se desarrollaron otros dos modelos, el acelerador pios básicos, el ciclotrón pronto dio paso al sincrociclotrón, cuyo diámetro llegaba a alcanzar
¡:i:
r.
lineal (abreviadamente, Linac, de Linear Acceleralor) y el cíclico, que son los que se han ido per- unos 6 m, un dispositivo capaz de acelerar protones a una energía de 680 MeV, y luego al sincro-
feccionando hasta la actualidad. 1I
trón, que pasó la escala al orden de los GeV: 2,8 GeV en el de Brookhaven en 1952,6,4 en el de
El primer acelerador lineal fue construido en 1928 por RolfWideriie 0902-1996), aplicando Berkeley dos años después, 28 GeV en el CERN en 1959 y 33 GeV en Brookhaven en 1960; el 1I
un campo eléctrico variable sinusoidalmente, lo que permite alcanzar, al instante, tensiones más diámetro era de 200 m. En estos nuevos aparatos las trayectorias se controlaban de tal modo que
elevadas sin que dé tiempo a la producción de descargas. El problema aquí era aprovechar el fuesen circulares en luga'!' de espirales. Una nueva generación es la de los colisionadores, en los 1f
campo eléctrico cuando va en el sentido deseado, y eliminar sus efectos cuando lo hace en que se hace chocar frontalmente a dos haces de partículas aceleradas en sentidos opuestos,
el contrario. Para ello se hace recorrer a la partícula el interior de un conjunto de rubos alineados y lo que permite alcanzar mayores energías. Si las partículas son iguales y de carga opuesta -elec- 11
separados entre sí. Suponiendo que las partículas son electrones, estas se aceleran hacia los tubos trones y positrones, o protones y antiprotones-, basta con un solo anillo; pero si se trata de par- ,[
cuando estos tienen un potencial positivo. Dada la variación del campo, los tubos tienen alterna- .1
tículas distintas, cada una de ellas se acelera en un anillo por separado antes de hacerlas cruzar- I
tivamente un potencial negativo y positivo, y esta inversión del campo se sincroniza de tal forma
que el electrón siempre penetra en un nuevo tubo cuando este tiene potencial positivo, acelerán-
dose en el tramo entre dos tubos (dentro de los tubos, el campo es nulo). Tratándose de electro-
se. El LEP, el colisionador de electrones del CERN, puesto en marcha en 1989, tiene un anillo
de 27 km de circunferencia y alcanza los 100 GeV. El Tevatrón, un colisionador de protones que se
puso en marcha en el Fermilab en 1985, alcanza 1.000 GeV O TeV). Aprovechando la infraes-
¡
nes de masa pequeña, estos alcanzan con rapidez velocidades próximas a la de la luz, y a partir
de ahí el aumento de energía cinética se debe fundamentalmente a un incremento en su masa.
tructura del LEP, en la actualidad se construye el LHC, otro colisionador de protones, que se r
Los protones, más pesados, tardan más en ganar velocidad, por lo que para conservar la sincro-
espera alcance energías de 14.000 GeV. :¡
nización del campo a medida que esta velocidad crece los tubos necesitan ser progresivamente ·í
más largos. Naruralmente, el conjunto está encerrado en un rubo en el que se ha hecho el vacío. se un nuevo mundo de componentes submicroscópicos, En 1952 se encontraron las que se 1
El acelerador lineal de electrones de Stanford (SLAC, de Stanford Linear Accelerator Centre), denominaron «resonancias», dado que en un primer momento se dudó de que constituye-
construido en 1966, tiene una longitud de 3,2 km y alcanza los 22 GeV. sen verdaderas partículas: su vida media es tan corta que solo se pueden detectar por me-
Hoy día los aceleradores lineales se usan, en general, como paso previo para la obtención de dios indirectos, Para redondear el panorama, el antiprotón se detectó en 1955, el neutrino
1
energías aún mayores en los aceleradores cíclicos. La idea de estos la tuvo Ernest Orlando Law-
en 1956 yel antineutrón en 1957, hallazgos que ya por entonces no constituyeron ninguna 11
rence 0901-1958) al saber del acelera- sorpresa,
dor lineal; consistía en acelerar las par-
En un primer momento las partículas se clasificaron, por orden de peso creciente, en
tículas en una trayectoria circular,
haciéndolas describir varias vueltas,
tres clases: leptones, mesones y bariones, Estos últimos, a su vez, se dividieron en nucleones
mediante la aplicación de un campo (protón y neutrón) e hiperones. También se vio que los mesones y bariones eran afectados
magnético. El primero de estos dispo- por la fuerza nuclear -la llamada «fuerza fuerte>>--, por lo que se englobaron en el grupo
sitivos, al que se llamó ciclotrón, se de los llamados hadrones; los leptones no eran afectados por esta fuerza (cuadro 32.8). A ni-
construyó en 1931, tenía 27 cm de diá- veles más finos, se recurrió a caracterizar a las nuevas partículas mediante la introducción
metro y aceleraba protones a 1 MeV. de nuevos números cuánticos. El primero fue el denominado «espín isotópico» o «isos-
Las partículas giran en el campo mag- pín». Su introducción se remonta al modelo de Heisenberg de las fuerzas nucleares. En
nético uniforme creado en el entre- este contexto, y dada la igualdad -en realidad, aproximada- de masa entre ambas par-
hierro de un imán circular, y son acele-
tículas, consideró que constituían dos aspectos, uno con carga y otro sin ella, de la misma
(a) radas en el espacio que separa a dos
partícula; a esta se la llamaría más tarde nucleón. Para dar cuenta de esta dualidad introdu-
electrodos en forma de D sometidos
-es el mismo principio del acelerador
jo una cuantificación similar a la del número cuántico de espín. Cuando en 1936 se com-
lineal- a una diferencia de tensión al- probó que las fuerzas pp, pn y nn eran iguales -una propiedad denominada «independen-
terna. Al aumentar la velocidad de las cia de la carga», pues implica que la fuerza no (<ve» si el nucleón está cargado o no-, se
(b) (e) partículas, aumenta su radio de giro, resucitó el vector introducido por Heisenberg. El isospín está representado por un vector
Esquema de sÍncrotrón. La figura (a) muestra el polo inferior pero estas trayectorias de radio cre- en un espacio hipotético, el llamado espacio de carga, en el que, como el vector de espín,
del imán (e! superior no se ha representado) sobre el que se ciente se describen todas en el mismo
solo puede orientarse en determinadas direcciones permitidas. A cada partícula se le asig-
hallan los dos electrodos en forma de D, así como la travec-
tiempo. Las partículas se inyectan en el na un número cuántico que es la proyección I z del isospín sobre el eje Z del espacio hipoté-
toria de la partícula. Las figuras (b) y (e) muestran cóm~ se
centro del dispositivo y giran hasta al- tico. De este modo, los valores del isospín para el neutrón y el protón son, respectivamen-
alterna la orientación del campo eléctrico acelerando a la
canzar el máximo diámetro, siendo en-
partícula cuando pasa entre los electrodos. te, de -1/2 y + 112. En 1938, Nicholas Kemmer (1911-1998) extendió la idea a la partícula
tonces extraídas del acelerador.
Antes de la Segunda Guerra Mundial estos aceleradores tenían dimensiones relativamente de Yukawa, señalando que debería presentar tres estados de isospín (+ 1, Oy -1, asociados
reducidas y alcanzaban energías igualmente modestas (en comparación con las actuales). El ci- con la carga positiva, la neutra y la negativa). La independencia de la carga implica que en
clotrón que construyó Lawrence en 1939 tenía un imán de 1,52 m y alcanzaba los 16 MeV. Sin las interacciones fuertes el isospín se conserva.
entrar en detalles técnicos, por otra parte nada triviales, cabe decir que, bajo los mismos princi- Otro número cuántico, la «extrañeza», fue introducido en 1953 independientemente
por Murray Gell-Mann (n. 1929) y Kazuhiko Nishijima (n. 1926). Se comprobó que cuan-

1088 1089
MICROCOSMUS y MIIL!{ULU:l!VIU.:l

Cuadro 32.S tendrían A = _ 1), siendo A =O para mesones Y leptones. Según esta ley de conservación, la
suma de los números bariónicos de las partículas originales resulta igual a la suma de los
Partículas elementales
correspondientes números de los productos. Finalmente está la ley de conservación de la
Partícula Sfmbolo Masa (MeV/¿) Caraare) Espln Vida medíiiSi paridad. Ya se ha comentado que toda partícula se puede representar como una función
»,» ;;0 O 112 00 de ondas. Si la función es simétrica (no cambia de signo cuando se cambia el signo de las
neutrino ",O O 112
coordenadas espaciales), a la partícula se le asigna una paridad + 1; si es antisimétrica (la
v.u,vp 00
función cambia de signo cuando lo hacen las coordenadas), se le asigna de -1. La paridad
leptones Vr,Vr ;;0 O 112 00
se conserva en las interacciones (salvo, como se verá más adelante, en las mediadas por la
electrón e·.e 0.5 .1 112 00 fuerza débil, lo cual vendrá a constituir una sorpresa). El número bariónico Y la paridad,
muón IJi, J/ 106 .1 112 2.2·10" junto con el isospín y la extrañeza, unidos al espín y a la carga eléctrica, constituyen el con-
mesóntau T, r+ 1.784 .1 112 3,0.10=
1(," 140 ±1 O 2,6·10"
junto de números cuánticos que en la década de 1950 caracterizaban a las partículas.
mesónrr
\1 135 O O 8,3·10' Por esOS años se ensayaron dos vías para lograr entender mejor el creciente número de
mesones LK', K 494 .1 O 1.2·10" partículas. Una consistía en reducirlas a combinaciones de un pequeño número de partículas
mesón K
kO ,k" 498 O O 8,8,10" fundamentales; la otra era agruparlas por sus propiedades con la esperanza de encontrar algo
eta in 549 O O 2,5·10' más fundamental. Ambas vías buscaban una explicación, y más adelante se vería que no eran tan
protón p,p 938 ,1 112 00 distintas como a primera vista podía parecer. En 1949, Fermi y Chen Ning Yang (n. 1922)
neutrón 11,11 940 O 1/2 917 sugirieron que los piones podían estar compuestos por nucleones Ysus antipartículas. En
hiperión A 11.,11. 1.116 O 112 2,6·10·'0 la misma línea, Shoichi $akata (1911·1970) sugirió en 1956 que los hadrones podían foro
~ .. r+ 1.189 ,1 1/2 6.10. 11 marse como combinación de tres partículas (el protón, el mesón y la lambda N) y sus
hiperión 1: r,E" 1.192 O 112 5,8·10·21> correspondientes antipartículas. En los años siguientes este modelo se trató de extender a
bariones
mesones Y bariones, pero no llegó a funcionar muy bien: para que la masa de una panícula
r-,r 1.197 >1 112 1,5·10·'0
llegase a corresponderse con la suma de las masas de sus componentes se requería suponer
3°,:5:° 1.315 O 112 2,9·10·'0
energías de ligadura extremadamente elevadas (superiores a la masa de la misma partícu·
hiperión E:
-=- ':;'
~ ,~ 1.321 .1 1/2 1,6.10·'0 la), de modo que la idea fue acogida con reservas. La otra vía la desarrollaron en 1961, in·
hiperiónO cr,n+ 1.627 .1 312 8,1.10. 11 dependientemente, Gell.Mann y Yuval Ne'eman (n. 1925), dividiendo los hadrones en fa·
O 1 milias cuyos miembros, dentro de cada una de ellas, estaban conectados mediante una
bosones fotón Y O 00

de bosón W W-,W+ 81.000 .1 1 10.25 representación geométrica. A tal vía, empleando un término de la doctrina budista, se la
interacción 10'25
bosón ZO 12' 92.400 O 1 calificó como «el camino óctuple».
Básicamente, la idea del camino óctuple consistía en agrupar a todas las partículas
con los mismos números cuánticos, salvo los de isospín y de extrañeza. Si estas se repre·
d~ colisionaban dos protones o un protón u n '
hlperones por la acción de la fuerza fuert/ lo me~on s~ podlan crear kaones (mesones K) e
,
sentaban en un sistema de coordenadas en función de estos dos números, se obtenían con-
(del orden de 10--22 s). Si la misma fuerza f' que Implicaba un lapso de tiempo muy breve figuraciones de forma hexagonal, con seis partículas en los vértices Yotras dos en el centro,
. uese responsable d d' .,
ro uCLrse en un lapso de tiempo simil . . e su esmtegraClon, esta debería y déahí la denominación de «óctuple» que recibió la teoría; aunque además de octetos
~ue
P d
estas partículas se desintegran por I:~~::: J~b~d~ ~.:ucho más larga, lo que supone también se podían formar singletes y decupletes (cuadro 32.9). Esto era prometedor, pero
nas». Se constató, además que siempre s d e, . e loa esto se las calificó de «extra- en los diagramas había demasiados lugares en blanco y todavía no quedaba muy claro lo
de una ley de conservació~ (Se puede p e pro UCLan ealn pares. Esto apuntaba a la existencia que implicaban estas figuras simétricas. (No obstante, el esquema se anotó importantes
sa d I " de la carga nI' 1 ensar,
e a conservacIón I ,por . an ogJa, ' en e1 proceso ')1 ..... e+ + e-o a cau- éxitos con la predicción, entre otras, de las panículas 'TIo, detectada en 1961, Yde la n-, de·
, e e ectron nI el p ' t ' d '
que se encuentren con su antipanícula ) Al ' ,OSI. ron pue en desaparecer a menos tectada en 1963.) La interpretación que se les dio fue la de unos «supermultipletes». Del
le d enomrno . , «extrañeza»' adopta valor. numeroS cuannco que se conserva en este caso se mismo modo que, difiriendo en su isospín, las partículas podían agruparse en multipletes
c~ones
. fu ' es enteros u .,
enes y electromagnéticas, pero no en las ·déb.conser;aclon se cumple en las interac' (como el protón y el neutrón, o los mesones 'Tí+, 'Tí-, 'TíO), atendiendo también a su extrañe-
ton y del mesón es cero sus productos d b ileso AsI, dado que la extrañeza del pro· za, se agruparían en supermultipletes que representarían distintos estados caracterizados
opuestos. Y estos produ~tos no pued d e. en aparecer en pares con extrañezas de signos por los diferentes valores de un «espín unitario» que se conservaría en las interacciones
tes d e eII a a no ser mediante la fuerza en
de'bilesrntegrarse
el en otros con menor extrañeza o careno fuertes y cuyas diferentes rotaciones en un espacio hipotético transformarían unas partícu'
' caso en que la con .,
tra. característica es la del n'umero b'" servaclOn no se cumple . las en otras dentro del mismo supermultiplete.
O aflomco 1 d El camino óctuple desvelaba una simetría, pero no alcanzaba a explicarla. Tal expli·
to as as mteracciones en las que intervienen b . ,cuya ey e conservación se cumple en
d 1
las produzcan. A cada barión se l e ' ar~ones, sea cual fuere el tipo de fuerzas que cación llegaría en términos de unos componentes más fundamentales, recogiendo así la
aSIgna un numero bariónico A = + 1 (los antib l'
_"____ ar ones
1091
1090
HISTORIA DE LA CIENCIA
MICROCOSMOS Y MACROCOSMOS

Cuadro 32.9
uniforme, sino que parecían existir ciertos núcleos en el interior de la partícula, denomina-
La figura de la izquierda rep l d dos «partones» por Feynman, que se identificaron con los quarks.
rech l d l d b' resenta e octeto e mesones semiestables (espín O), y la de la de.
en a~~c~sase~rfs::;Ín ~,; Ql~~~e~:~::~s ::::::ifc~~ic:~ ordenadas se representa la extrañeza S y De todos modos, el modelo de tres quarks pronto se reveló demasiado simple. Para co-
menzar, a la hora de componer con quarks las distintas partículas, estos, teniendo espín 1/2
y siendo, por lo tanto, fenniones, no obedecían en algunos casos al principio de exclusión
s p P
\\
o
~ (por ejemplo, la n- consta de tres quarks s). En 1965, Yoichiro Nambu (n. 1921) y Moo-
(:)~ Young Han (n. 1934) introdujeron para los quarks un nuevo número cuántico, el «color»,
+1 S
que podía adoptar tres valores: rojo, amarillo y azul (R, Y Y B, de las iniciales, respectiva-
O mente, de red, yellow y blue); los antiquarks tendrían «anticolores». La unión de los tres
O 3t'
-1 colores, o de los tres anticolores, o de un color y de su anticolor, daría «blanco»; es decir,
que las partículas compuestas por quarks no tendrían color.
-2 Con el modelo de quarks la lista de partículas verdaderamente elementales se había
K- KO reducido mucho: se limitaba a los tres quarks, que componían todos los hadrones, y a los
-3
n- leptones, que por entonces eran cuatro: electrón, muón, neutrino electrónico y neutrino
.lo
-1
2
O 1.
2 'z .l.
2
-1 .lo
2
O 1. 1. ,
2 z
muónico (pues, como se descubrió en 1962, no todos los neutrinos eran iguales). Por razo-
nes estéticas y de simetría, nada más presentarse el modelo de los quarks (que Gell-Mann
2
había construido en paralelo con los tres únicos leptones conocidos hasta hacía poco),
vía de Sakata, aunque estos componentes t d' d' . algunos físicos pensaron que debía existir un cuarto quark, para igualar el número de
En 1964 Gell.Mann G Z' en ~I~n otras muy IstIntas características. leptones. En 1964, algunos meses después de la publicación de Gell-Mann, Sheldon Lee
hadron' d 1 y eorge welg (n. 193~) sugirieron ~dependientemente que todos los
. es, e os que por entonces se conoclan unos tresCientos --el mod 1 Glashow (n. 1932) y James Daniel Bjorken (n. 1934) sugirieron la existencia de este quark,
dla a los 1 pt ones b e o no se exten- portador -al igual que el s lo era de extrañeza- de una nueva propiedad llamada «encan-
Gell-M e d -:-, ~sta ~n. compuestos solo por tres partículas fundamentales, a los que
, ;n; ;nJommoJgenencamente «quarks», un ténnino extraído de la novela Finne- to» (charm). El nuevo quark, designado por la letra c, tendría carga eléctrica + 2/3 yextra-
gan s_ a e, e ames oyce. Los denominó u, d y s (de up arriba' down aba'o t ñeza cero. Sin embargo, no se tuvieron indicios de su existencia hasta diez años después,
;.xt~ano, d;do ~ue estle último tiene extrañeza), que repres~ntan l~ que Íos fÍ~i;~ ~;a;:;: en 1974, cuando se detectó una partícula conocida como J/I\I, o simplemente 1\1, un mesón
lCU as sue en amar os «sabores» con que se presentan los quarks G II M • compuesto por el quark y el antiquark portadores de encanto; dos años después se encon-
cómo . . e· ann mostro
hadronce~n {stos y co~ ~us co.rresp~ndlentes antiquarks podían construirse los diferentes traron mesones «encantados» (pues el encanto de la 1\1 es cero). Pero no quedó aquí la
. ' . a caracten~t!ca mas cunosa de estas supuestas nuevas partículas era ue su car- cosa. En 1977 se descubrió un nuevo mesón muy pesado que sugería la existencia de un .
g~ COnStItUla. ~n.a fracclOn de la carga del electrón (2/3 para y -113 ara d u s; nuevo quark, este portador de un nuevo sabor denominado «belleza» (beauty, aunque

¡
n u~eros balnomcos e;an asimismo fraccionarios (113); su extrañeza er; cero :ara ~o;u: :~ también recibe el nombre de bottom, fondo), y designado por b. Entre tanto, el número de J
y - para e s; su espm, 112; y su isospín 112 para u d . ' leptones también había aumentado, pues en 1975 se descubrió un nuevo leptón, el tau (T), "

;~~n~co ~ extrañeza cambiaban de signo ~n los antiqu~rk/ {::~~~:: ~eCc:!~o~~:~oe~: y este y su neutrino pasaron a fonnar parte de la lista. Inevitablemente, se pensó también J
de t~~aqs'ul~:k~ey7nes et~tbab~n formdados por pares quark-antiquark; los bariones constaban en un nuevo quark, portador de otro sabor, que se denominó «verdad» y se designó por t ;1
, os an l anones, e tres antIquarks. (de true, aunque también se emplea top, cima); se detectó experimentalmente en 1995. :1
comp:~i:~~e~~li:i~~~a~u~~~ c:!~~=~~~~:se~~uqe:~~sd~
1 'bl
camino y las de
y por consigUIente que partlcu-
óc~uP.Ie, .regla~ Hasta el momento, el número de leptones y de quarks no ha aumentado más; pero parece
que actualmente los físicos de altas energías se inclinan a pensar que en los próximos años
:1.1
!i
as- eran pOSI es. Pero su aceptación en un primer momento no fu .. este modelo podría ser ampliado o superado, y se habla de una «teoría supersimétrica», I
l' . f' e unamme' unas car- ;,11
~:~~i~~tncas ~~e e:a~ r~c~lOnes de la carga del electrón sonaban bastante extraBas. A ello extensión de la actual, en la que las partículas tendrían «supercompañeras». Sin duda, los
tar un quCa~~t~b~:°!u ~~n~ ueg~,. ellque frac~sasen todos !os intentos realizados por detec- próximos años serán interesantes (cuadro 32.10).
ban confinados en' 1 . q~e ~ ~~o que os ~uarks, SI es que existían realmente, esta- 1I
'f
d . as ~artICu. as arse sometidos a una fuerza que, aumentando ran- I¡
Fuerzas, simetrías y teorías de unificación
m:~efteh~on la distanCia, les I~pe?ía escapar. Pero aun siendo los quarks indetectabl:s el
0,

peri;:nt lzo u~~s cua~~as ¡retlcclOnes contrastables, que se verificaron, y además los ~x-
d Hacia los años 1930 los físicos todavía pensaban en términos dinámicos, centrando su

:~~'d~:~:' ~::~~::~~;::~I~::~~:B~~: ~~~I::E!~;:n::;::~~:


atención en la caracterización de las fuerzas entre las partículas. Treinta años después, esta
concepción dinámica había dado paso a otra, considerada más fundamental, que se expre-
saba en términos de simetrías. Como es sabido. se dice de un objeto que es simétrico si no
--"'---. - - - - - -- - - - - - -
,1
MICROCOSMOS Y MACROCOSMOS
HISTORIA DE LA CIENCIA

Cuadro 32.10
ción de la carga eléctrica se debía a la actuación de campos electromagnéticos que cancela-
rían e! efecto. Su idea no se sostuvo, pero en 1927 Fritz London señaló que la conserva-
Sabor Q A S e B T ción de la carga estaba en realidad asociada a la fase de la función de ondas que describe a
la partícula cargada. Si se quiere que, como en realidad se observa, la carga no cambie, en-
d (abajo) -1/3 1/3 O O O O tonces, por así decir, la simetría tendrá que apelar -a veces se dice que lo crea- a un
u (arriba) 2/3 1/3 O O O O campo electromagnético -fotones virtuales- cuya acción contrarreste los efectos sobre la
s (extraño) -1/3 1/3 -1 O O O
carga del cambio de fase.
e (encanto) 2/3 1/3 O 1 O O
En términos generales, pues, se puede decir que si una determinada magnitud o «car-
b (fondo o belleza) -113 1/3 O O 1 O
ga» se conserva bajo un grupo de transformaciones gauge locales, entonces existe un cam-
t (cima o verdad) 2/3 113 O O O 1
po cuya acción, representada por una o varias partículas virtuales, garantiza esa conser-
Propiedades de los quarks. Téngase en cuenta que todos tienen espín 1/2 y que cada sabor vación. En 1954, Ning Yang y Robert Laurence Milis (1927-1999) aplicaron la teoría,
se presenta en tres colores; para los antiquarks, los valores de la tabla tienen signos opuestos. extendiéndola desde la electrodinámica cuántica al caso de las interacciones fuertes, en las
que la «carga» a conservar sería e! isospín, la orientación del espín isotópico. Llamaron
«campo B» al campo encargado de esta conservación y concluyeron que su fuerza se hallaba
sufre cambios -permanece invariante- cuando se le aplica una operación determinada
mediada por tres partículas, todas con espín e isospín unidad, y con cargas eléctricas ± 1 y O,
como por ejemplo una rotación o una reflexión en un espejo. Los casos más conocidos so~
cuya emisión y absorción daría cuenta de la fuerza entre protones y neutrones. El proble-
las s!metr~as, resp~cto de un ~j,e o de un plano, de las figuras geométricas. Pero el concepto
ma era que, según la teoría, estas partículas B, aunque cargadas, carecían de masa -como
de slmetna se extIende tamblen a otro tipo de entidades, como las funciones de onda las
es el caso del fotón- y para entonces una partícula de estas características tendría que ha-
c~ales, como se ha visto, se califican de simétricas o antisimétricas según que cambie~ de
signo o no cuando lo hacen las coordenadas espaciales. Subyace también una simetría en el ber sido detectada.
Veamos ahora otros acontecimientos que sucedieron poco después en el contexto de la
g~U?O de transformaciones de Galileo, que conservan la forma de las ecuaciones de la me-
fuerza débil. Cuando Fermi desarrolló su teoría de la emisión ~, la atribuyó a la llamada
ca.mca cuando se cambia de sistema de referencia inercial, o el de Lorentz, que hace lo
«fuerza débil», una fuerza de muy corto alcance. A finales de la década de 1940 esta fuerza
mismo co~ todas las leyes de la física. Un «grupo» es una estructura matemática que desig-
fue asimismo invocada en la desintegración y captura de muones, y más adelante, como ya
na un conJunto de elementos, que en el presente caso son operaciones o transformaciones
se mencionó, en la desintegración de las partículas extrañas. En este último contexto, dos
som~tidos a un~s reglas ~eterminadas, como la de que el resultado de aplicar dos transfor: partículas, la ij+ y la T+, parecían distinguirse solo en sus modos de desintegración:
ma~lon~s sucesivas constItuye una transformación que también pertenece al grupo. La in-
6+ --. 1T+ + 1To Yla T+ --. 1T+ + 1T+ + 1T-. Dado que el pión tiene paridad -1, en el primer caso de
vanancla de las leyes de la física bajo determinadas transformaciones está vinculada con las
desintegración -las paridades de los productos de esta desintegración se multiplican-la
I~yes .de conservación. En física clásica la conservación de la energía deriva de esta inva-
paridad sería + 1, yen el segundo, -1. Supuesto que la paridad se conserve en las interac-
nancla .respecto del tiemp~ yas leyes serán las mismas no importa qué instante de tiempo
ciones mediadas por la fuerza débil, las partículas 6+ y T+ no podían ser la misma. Esta con-
s~ conSidere); la conservaclOn del momento lineal, de la invariancia bajo traslaciones espa-
servación de la paridad, asumida hasta entonces como algo natural, fue puesta en duda
Ciales; y la del momento angular, de la invariancia respecto de rotaciones.
en 1956, y ese mismo año Isung Dao Lee (n. 1926) y Yang constataron que en realidad nunca
. En 1918, Amalie Emmy Noether (1882-1935) demostró -para transformaciones con-
se había demostrado y sugirieron algunas posibilidades de contrastación experimental. Al
tI.nuas como las rotaciones- el teorema que lleva su nombre y que se podría enunciar di-
año siguiente, la violación de la paridad se confirmó en el laboratorio (cuadro 32.11). Esto
clend~ ~ue to?a simetría del espacio y de! tiempo implica una correspondiente ley de con-
suponía también la violación de la invariancia bajo la conjugación de la carga (inversión
serv~ClO?: y viceversa. Ese mismo año, Hermann Weyl (1885-1955), buscando unificar la
del signo de la carga que transforma a las partículas en antipartículasl. La paridad (P), la
gravltaClOn y el electromagnetismo, introdujo una simetría conocida como «invariancia
conjugación de carga (C) y la inversión temporal (D constituyen simetrías básicas discretas
gauge» o, como a veces se traduce en castellano, «de aforo». Cabe hacerse una idea de lo
que se incorporaron en mecánica cuántica desde la física clásica. Por esas fechas, en 1955,
que supon~n I~s transformaciones gauge si se interpretan, como lo hizo originalmente
W. Pauli había demostrado e! llamado «teorema CPI» -aunque de hecho Pauli no fue el
Wey!, en termmos de transformaciones de escala. Por ejemplo, imagínese la medida de
único en intervenir en su formulación-, según el cual, en una teoría cuántica y relativista
longl~udes y ~upóngase ~ue se efectúa siempre en centímetros. Una transformación gauge
de campos, un proceso es indistinguible de otro en el que se han efectuado los cambios
podna cambiar .Ios centImetros en pulgadas, alterando así todas las medidas de longitud,
izquierda-derecha, partícula-antipartícula y pasado-futuro, no importa en qué orden. En el
aunq~e las longitudes en sí permanecerían invariantes. Si este cambio de escala se verifica
caso considerado, al violarse a la vez C y P, cumpliéndose r, el producto CP satisface la in-
del mismo ~odo en t~dos los puntos de! espacio-tiempo, la transformación es global. Si la
variancia cpr (cuadro 32.12).
escala ca~bla dependléndo ~el punto considerado, es local, lo cual constituye e! caso inte-
En 1957, J. Schwinger intentó unificar las interacciones débil y electromagnética su-
resante. SI en este caso se qUiere salvar la simetría, reconduciendo la transformación local a
poniendo que podían ser dos manifestaciones de la misma fuerza. Análogamente a las par-
otra global, habrá que introducir algo que compense las irregularidades locales. La idea de
tículas del «campo B» de Yang-MilIs, introdujo tres partículas portadoras de las interac-
Weyl era que las propiedades del espacio-tiempo cambian localmente, y que la conserva-

1(\O.c:;
HISTORIA DE LA CIENCIA
MICROCOSMOS Y MACROCOSMOS

Cuadro 32.11
intervenir un nuevo concepto, la llamada «ruptura de la simetría». Este concepto había surgi-
El primer experimento que demostró la violación de la paridad fue realizado por la físico do a principios de esa década en los estudios de superconductivida?, un fenómeno descu-
Chen-Shiung Wu (I 912- 1997) a través de la observación de la desintegración J3 en los núcleos de bierto en los primeros años del siglo. Cuando algunos metales se enf~an a u~os ?ocos grad~s
Co~). un isótopo muy radiactivo. y publicado en 1957. La idea era alinear los espines de las par- por encima del cero absoluto pierden su resistencia al paso. ~e la cornent~ electrlca. La expli-
tículas de estos núcleos -lo que se llama «polarizar» el núcleo----. algo que solo podía conseguir- cación que finalmente se había dado era que en estas condiCIOnes, es deCIr, c~ando la tempe-
se en un número suficiente de ellos enfriando la sustancia hasta las proximidades del cero abso-
ratura descendía lo suficiente, se rompía la simetría gauge del electromagnetIsmo. Otro cas~
luto,lo que conllevaba importantes dificultades técnicas, y aplicar un campo magnético. En estas
condiciones, si la paridad se conserva. los electrones emitidos en la desintegración debían mos- de ruptura conocido se daba en el magnetismo: los campos magn.ét!cos, q~e m.arcan una di-
trar una distribución espacial simétrica. Los resultados del experimento fueron que se emitían rección privilegiada en el espacio, rompiendo la simet~a entre las dis~tas dir~cclOnes, desapa-
más electrones en una dirección. correlacionada con la del espín del núcleo. que en cualquier recen cuando un hierro imantado se calienta por encima de los 770 C, volVIendo a aparecer
otra. Rápidamente siguieron otras dos confirmaciones experimentales distintas de esta violación cuando se enfría por debajo de esta temperatura. Aplicada a la teoría cuántic~ de :ampos, la
de la paridad. idea consistía en formular la teoría de la fuerza electrodébil partiendo de la IdentI~ad e~tre
La violación de la paridad se manifiesta también en la helicidad de los neutrinos. La helici- ambas fuerzas, electromagnética y débil, y atribuir su separación, una ruptura de la ~Imetna, a
dad representa la dirección del espín de una partícula relativa a la dirección de su movimiento; la actuación de un supuesto nuevo campo, al cual estaría asociada la correspondiente par- !
I
I
dado el sentido del avance, será a la izquierda si la rotación es contraria a la de las agujas del re- tícula. La idea de este campo había sido introducida en 1960 por J effrey Goldstone (n. 1933), ¡
loj (corno un tornillo que se desenrosca) y a la derecha en el caso contrario (un tornillo que se !
quien llegó a la conclusión de que la partícula asociada al mismo debía t~ner ~asa nula.
enrosca). Cabría suponer que los neutrinos -y los antineutrinos- pueden aparecer con las dos
helicidades; pero sucede, como se comprobó en un delicado y complejo experimento publicado
Con esto el problema de la masa de los bosones mediadores paso a prImer pla?o. ~e !
en 1958, que el neutrino presenta helicidad a la izquierda, y el antineutrino, a la derecha. acuerdo con la teoría gauge de Yang-Mills, estos debían tener masa nula; y esta slmetrIa
gauge debía romperse mediante la intervención de u.na partícula o partículas de ~asa !
Cuadro 32.12
asimismo nula. La solución vino de la mano de una Idea desarrollada por Peter ~Iggs
(n. 1929) en 1964, motivo por el que las partículas responsables de la ruptura de la SIme- t.
tría se llaman «bosones de Higgs» [aunque hay que mencionar que Robert Brout (n. 1928)
En 1964 se descubrió que. en el caso de los kaones, también se violaba la simetría CP en las y Franc;ois Englert (n. 1932) desarrollaron asimismo una ide~ simi!ar]. ¿?Iicada a la teoría,
interacciones débiles. El experimento fue realizado por Val L. Fitch (n. 1923) YJames W. Kro-
la idea consistía en lo siguiente: a energías muy elevadas, la slmetna esta mdemne -es ma-
nin. Normalmente, el mesón neutro de corta vida Ka, se desintegra en tres piones, pero se obser-
varon sucesos del tipo KO, -> 7T+7T- que suponían una violación de la simetría CP; si se quiere con- nifiesta- las fuerzas electromagnéticas y débil no se han diferenciado, y las partículas W±
servar la invariancia cpr, esto implica inevitablemente que en este caso se viola r, la simetría y l!', así c~mo el fotón, tienen masa nula. Las partículas de Higgs co~sis~irí~n en un doble-
temporal. De momento, esta ruptura de la simetría parece limitada a los kaones. te H+ y HD Ysu antidoblete H- y HO. En el momento en que, la energla dlsmmu~e y se rom-
pe la simetría, los H+ y H-se incorporan a los W+ y W-, ~otandolos de masa, aSI ~omo a l!',
ciones: una neutra, el fotón, que mediaría tanto las interacciones electromagnéticas como que incorpora una parte de las partículas neutras de HIggs; la ~tra parte debena poderse
aquellas otras débiles en las que no se producía transferencia de carga, y otras dos carga- detectar experimentalmente. La interacción con el campo de Hlggs es, ?ues, la q~e dota a
das, los bosones W+ y W-, que darían cuenta de estas transferencias en las interacciones las partículas de masa; de hecho, las masas de t~da~ las ?artículas te~dnan este ongen. Tal
débiles. La no conservación de la paridad en estas últimas, sin embargo, obligó a extender ruptura de la simetría, dadas las elevadas energlas Implicadas, tendna que haberse ~rod~­
la teoría. Esto 10 hicieron en 1961 S. Glashow y John C. Ward (1924-2000). La extensión cido en un momento temprano de la edad del Universo, algo sobre lo que se volvera al fi-
consistía en la introducción de una nueva partícula neutra, la l!', la cual vendría a sustituir nal de este capítulo. , .
al fotón en el papel mediador que se le había atribuido en las interacciones débiles. La in- En un primer momento la teoría de Weinberg-Salam tuvo una fna acogida,. pues nada
teracción global estaría compuesta en parte de la electromagnética y en parte de la débil. de su contenido se había detectado experimentalmentre por entonces. Las cor:lentes ~eu­
De modo que, según esta teoría, aun cuando ambas fuerzas operasen conjuntamente, no se tras se encontrarían en 1973, y los bosones W± y l!', diez años después; el boson de HIggs
verificaba una verdadera unificación: las fuerzas actuaban más bien en paralelo, la una todavía se sigue buscando, aunque existen esperanzas de que su ?etecc~ón n? ta~dará m~­
conservando la paridad y la otra no. Por otra parte, la introducción dell!' planteaba el cho. Pese a esta demora en su contrastación experimental, la teona g~no audienCia a partir
problema conocido como el de las «corrientes neutras débiles»: este era el nombre que re- de 1971, cuando Gerardus t'Hooft (n. 1946) mostró que era renormahzable.
cibía la mediación del ZO entre dos partículas. Tales corrientes no habían sido observadas Por otra parte, el confinamiento de los quarks dentro de los ~ad~ones, ~ue los torna-
hasta la fecha, aunque se suponía que debían haberse visto. Otro problema era la asigna- ba in detectables como partículas libres, requería, como se mencIOno antenormentc:, un
ción de masas a los bosones W± y l!', sobre 10 que la teoría nada predecía; aunque, siendo tipo de fuerza que aumentase con la distancia. Para dar cue~ta ,d~ esta fuer~a se necesitaba
la fuerza débil una interacción de corto alcance, debían tener masa. una teoría cuántica de campos que fuese, como se decía, «asmtotlcamente libre», en la cual
La teoría de la que hoy se llama fuerza electrodébil fue desarrollada en 1967 indepen- los quarks, en el límite de separación nula, se comportasen como partículas I~bres. E.n 197?

I
dientemente por Stephen Weinberg (n. 1933),y Abdus Salam (1926-1996). En ella se hacía se encontró que las únicas teorías que admitían esta condición er~n las.teonas ~e slmetrla
local gauge del tipo Yang-Mills. Esto permitió configurar la teona de mteraCClOnes entre

1096
1097
HISTORIA DE LA CIENCIA MICROCOSMOS Y MACROCOSMOS

quarks, en la que la «carga» es el color y las partículas mediadoras, de masa nula -aquí no tante mayor que la edad del Universo. Tal duración explica por qué todavía estamos aquí,
habría ruptura de la simetría-, son ocho «gluones» portadores de la carga de color. Por pero hace que la desintegración de un protón sea un suceso muy improbable y, por consi-
analogía con la electrodinámica cuántica, a esta teoría se la llamó cromodinámica cuántica. guiente, difícil de observar; de hecho, todavía no se ha observado, lo que constituye, dado
E.~ este conte~to, las fuerzas entre nucleones -protones y neutrones- que Yukawa descri- el empeño puesto en su detección, una muestra de que su vida media es en todo caso supe-
blO como un mtercambio de piones resultan de las fuerzas fuertes cromodinámicas como rior a la predicha por la teoría y un argumento en su contra.
consecuencia de que los quarks no están concentrados en un solo punto, sino que se hallan Otro tipo de teoría que parece gozar en la actualidad de mayor favor es la de la su-
r~?artidos por el interior de los hadrones. Así, salvando las distancias y el signo, la interac- persimetría. La idea fue lanzada asimismo en 1974 por Julius Wess y Bruno Zumino. La
clon se produce de una manera similar a la repulsión que se da entre las cortezas electróni- supersimetría constituye una extensión del modelo estándar en la que a cada partícula
cas de dos átomos próximos. conocida hasta el momento le correspondería una compañera «supersimétrica», siendo
Todos estos acontecimientos configuraron en la década de 1970 el modelo estándar la de un bosón un fermión, y viceversa. Aunque tales partículas, supuestamente de una
d~ la física de partículas. En él, las partículas se dividen en fermiones y bosones. Los fer- gran masa, no se han detectado, tienen nombre, formado haciendo anteceder la letra «s»
mlOnes, a su vez, en quarks y leptones, que se disponen en lo que se llaman tres generacio- a los de las partículas conocidas: squarks, selectrones, sneutrinos y, dentro de los boso-
nes o familias. Los fermiones de primera generación, que forman la materia ordinaria, son nes, fotinos, winos, zinos y gluinos. El hecho de poseer estas grandes masas supone, por
el elec:rón y los quarks arriba (u) y abajo (el), junto con el neutrino electrónico; las partícu- otra parte, la complicación adicional de que la supersimetría sería, ella misma, una sime-
I~~, análogas, de las otras dos generaciones tienen energías superiores. La segunda genera- tría rota. Pero el modelo resulta atractivo, pues predice que a energías lo suficientemente
clon comprendería al muón, al neutrino muónico y a los quarks encanto (e) y extraño (5)' elevadas las intensidades de las fuerzas electromagnética, débil y fuerte serían las mismas
la tercera, de aún superior energía, al tauón, al neutrino tauónico y a los quarks belleza (b) -se unificarían-, mientras que el modelo estándar actual solo indica que serían aproxi-
y verdad (t), o fondo y cima. Los bosones son portadores de tres tipos de fuerzas. El fotón, madamente iguales.
sm masa, de la electromagnética; los bosones, estos con masa, W± y l}l, unidos al fotón, de Un último grupo de teorías, las llamadas de supercuerdas y su reciente generalización
la electrodébil, que incorporaría a la anterior, y a los que hay que añadir el bosón de Higgs' y a «p-branas», buscan incorporar también en el esquema a la gravitación, por lo que se cali-
los ocho gluones, sin masa, de la fuerte. La otra fuerza que se encuentra en la naturaleza 'la fican de «teorías de todo» (abreviadamente, TOE: Theorzes 01 Everything). Sus orígenes se
gravitatoria, queda fuera del esquema, aunque si fuese reducible a esto -mediante una t~­ remontan a 1968, cuando Gabriele Venziano (n. 1942) desarrolló una fórmula para la dis-
ría cuántica del campo gravitatorio que hasta la fecha se ha mostrado intratable en términos persión de partículas. Como se descubrió un par de años después, la teoría de Venziano,
de renormalización- tendría asimismo una hipotética partícula mediadora, el gravitón.
Desde su formulación, el modelo estándar ha mostrado siempre un buen acuerdo con
los datos experimentales, por lo que en la actualidad se le considera bien asentado. Pero se
en principio un mero procedimiento matemático, implicaba la interpretación de los hadro-
nes no ya como partículas puntuales, sino como «cuerdas» cuánticas unidimensionales
muy pequeñas. En una primera interpretación, dentro del contexto de las investigaciones
I
,1
pien.sa que n~ c.onstituy~ una teoría definitiva. No solo porque la gravitación no se haya sobre la interacción fuerte entre hadrones, las cuerdas se interpretaron al modo de gomas
podIdo todavla mtroduClf en el esquema; también porque deja bastantes cosas por expli- elásticas con un quark en cada extremo. Esto daba cuenta del aumento de la fuerza entre
car, como las masas de los quarks y los leptones, o por qué existen tres generaciones de quarks con la distancia; también del hecho de que no se observasen quarks aislados, pues,
partículas (si no aparecen más). Asimismo, el modelo no unifica las fuerzas electrodébil y dado que la energía aplicada fuese lo suficientemente elevada como para romper su unión
fuerte, y aun en el caso de la pr1mera su descripción en términos de simetría resulta más cordal, se formaría un par quark-antiquark en el punto de ruptura y se tendrían entonces
una superposición que una verdadera unificación. Por otra parte, no da idea de cómo ac- dos cuerdas con quarks en sus extremos. El modelo representaba bien a los bosones, for-
túa en concreto el bosón de Higgs. mados por dos quarks; pero en el caso de los bariones, formados por tres, resultaba más
Ya en la primera parte de la década de 1970 se construyeron dos modelos de las que difícil de interpretar: resultaría una cuerda con tres extremos. La teoría estaba plagada de
se llaman «teorías de gran unificación» (abreviadamente, GUT, de Crea! Unification Theo- dificultades: requería nada menos que veintiséis dimensiones y hacia extrañas prediccio-
,ies). Jogesh Pati y A. Salam, en 1973, presentaron un modelo al que llamaron «unificación nes, como la existencia de unas hipotéticas partículas de masa imaginaria que se moverían
el~ctronucleaf». En este modelo intervenían los cuatro quarks entonces conocidos y se asi- más rápido que la luz, los taquiones -aunque esto en principio no era incompatible con la ;¡

milaban con los cuatro leptones, suponiendo que cada uno de estos consistía en un sabor relatividad-, o la de una partícula sin masa y de espín 2. "j\
dife~ente con un nuevo color, el lila, que se habría separado del resto en algún momento Como modelo para las interacciones fuertes, las cuerdas fueron sustituidas por la cro-
J
medla?te una ruptura de la simetría. Al año siguiente, en 1974, S. Glashow y Howard modinámica cuántica. Pero en 1974 John Schwartz (n. 1941) y Joe! Scherk (1947-1980)
1I
Georgl (n. 1947) ensayaron otro camino para vincular quarks y leptones, introduciendo una elaboraron una versión reducida a diez dimensiones en un nuevo contexto, el de la unifica-
nueva fuerza a la que denominaron superdébil, con sus correspondientes bosones (de he- ción de las fuerzas, dentro del cual desaparecían los taquiones y la partícula de espin 2 po-
cho, la teoría planteaba otros ocho bosones adicionales y además muy pesados). Este tipo
de teorías concibe que mediante la emisión de uno de estos bosones un quark se convierta
en un leptón, lo que, si el quark está constituyendo un protón, conlleva la posibilidad de
día identificarse con el gravitón. En este modelo las cuerdas serían más pequeñas -tendrían
la llamada longitud de Planck, 10-35 m-, podían ser abiertas o cerradas (como aros) y las
diferentes partículas estarían constituidas por sus distintos modos de vibración, cada uno
II

desintegración de este, que según la última tendría una vida media de unos lOlo años, bas- de ellos con una energía fija.

1
,1
l()QQ 1099 li
HISTORIA DE LA CIENCIA MICROCOSMOS Y MACROCOSMOS

El recurso a más de cuatro dimensiones para el espacio-tiempo en teorías de unifica- cos físicos consideran esta teoría excesivamente especulativa y creen más práctico trabajar
ción tenía un precedente. En 1921, buscando unificar las dos fuerzas entonces conocidas en la extensión supersimétrica del modelo estándar, en la teoría que se llama el modelo es-
(gravitación y electromagnetismo), Theodor Kaluza (1885-1954) introdujo un espacio con tándar supersimétrico mínimo (MSSM); lo que no implica que el mundo de la física no se
cinco dimensiones; en la dimensión adicional las partículas se movían en trayectorias cerra- mantenga a la expectativa. Como suele suceder, el futuro traerá una respuesta.
das. En 1926, Oskar Klein (1894-1977) desarrolló la teoría buscando introducir la cuánti-
ca. En su concepción, el espacio estaría cerrado en la dirección de la quinta dimensión; es
decir, que mientras las dimensiones normales se representarían por líneas rectas ilimitadas, LA COSMOLOGÍA CIENTÍFICA
la dimensión adicional lo sería por una circunferencia que podía estar ceñida por ondas
cuánticas tales que cupiesen en ella solo números enteros de longitudes de onda; cada una El Universo infinito de la cosmología newtoniana se enfrentaba a un serio problema de
representaría a una partícula con una energía diferente. El radio sería del orden de 10-30 m, condiciones en los límites porque, sencillamente, no tenía límites. Ya Newton trató el pro-
lo que explicaba que esta dimensión resultase inobservable. Del mismo modo, en la nueva blema de su estabilidad, el hecho de que no se produjese un colapso gravitatorio; para ex-
teoría de cuerdas, que pronto se convirtió en una teoría de supercuerdas al incorporarle la plicarlo supuso que, dada una distribución uniforme de estrellas e.n un espacio !nfinito, la~
supersimetría, las seis dimensiones extra estarían «enrolladas». La ventaja de las supercuer- infmitas atracciones ejercidas por estas sobre cada punto del espacIo se cancelanan entre SI,
das es que evitaban los problemas de renormalización, pues en la teoría las partículas ya no manteniendo estático ;U conjunto. En esta concepción de Universo se presentaba un problema
se interpretaban como un punto. Pese a esto, tenía sus propios problemas con los infinitos, que recibe el nombre de «paradoja de Olbers» por haber sido presentada por H. W. M. 01-
conocidos como anomalías, que surgían cuando se cuantizaba la teoría. Estos problemas se bers en 1823, aunque su formulación se remonta a Kepler y pasa por Newton y Halley.
resolvieron cuando en 1984 Schwartz y Michael Green mostraron que si la teoría se asocia- Formulado en términos modernos, el problema consiste en lo siguiente. Supóngase un con-
ba con uno de dos determinados grupos de simetría interna las anomalías desaparecían al junto de estratos esféricos (como las capas de una cebolla) centr~dos e.n la Tierra. El nún;-e-
cancelarse entre sÍ. ro de estrellas en cada estrato aumenta como el cuadrado de la distanCia, mientras que la m-
A partir de aquí se construyeron cinco teorías distintas de supercuerdas, que conta- tensidad luminosa de cada estrella disminuye en la misma proporción; de este modo cada
ban con miles de soluciones según cómo se compactasen las seis dimensiones extra, impli- capa contribuye con la misma luminosidad. Siendo infinitas las capas, la luminosidad sería
cando cada una de ellas una imagen distinta del mundo tetradimensional. Se puede tener infinita, así como la iluminación recibida en la Tierra. De hecho, la paradoja no es tal, pues
una idea de cómo se produce una compactación con el siguiente ejemplo, en el que una basta considerar -una sugerencia que se hizo ya en 1744- la existencia de una absorción
hoja se reduce a un punto enrollando la hoja en forma de cilindro estrecho, uniendo las interestelar de la luz por parte de un medio interpuesto, como el éter. También bastaba con
bases o extremos para formar un anillo y adelgazando este y reduciendo su radio hasta ha- considerar una edad finita del Universo de modo que la luz de las estrelIas más alejadas no
cerlo aproximarse a un punto. Del aprieto que constituía la coexistencia de estas teorías se hubiese tenido tiempo de alcanzar a nuestro planeta, lo que asimismo se podía combinar
comenzó a salir cuando irrumpió en escena una nueva especie de simetría: la dualidad. Di- con una vida fmita de las estrellas.
cho en términos generales, dos teorías o descripciones son duales si, aun siendo distintas, La paradoja de Olbers es una muestra de la imposibilidad ~e tratar m~te~átic~me~te
arrojan los mismos resultados físicos. Gracias a la dualidad se han podido conectar las teo- un modelo de Universo euclídeo infinito, porque en él la matena resulta aSimismo mfimta
rías de supercuerdas, que a partir de 1995 se englobaron en una extensión a once dimen- y el potencial gravitatorio indefinido. Por ello el pensamiento cosmológico quedaría. e~
siones conocida como «teoría M». Dentro de este espacio se contemplan unas entidades suspenso hasta principios del siglo xx, momento en que en la teoría general ~e. l.a relativI-
denominadas «p-branas», indicando p el número de sus dimensiones, las cuales pueden lle- dad de Einstein se abandonó la geometría euclídea, abriéndose con ello la pOSibilidad de la
gar hasta diez, una menos que el espacio-tiempo en el cual se mueven. Si p =O, se trata de que, para distinguirla de la etapa anterior, se ha calificado de una «cosmología científica».
¡¡
una partícula; con p = 1 se tiene una cuerda, y con p =2, una membrana. Por ejemplo, una '¡¡1
supermembrana se convertiría en una supercuerda, usando el símil del ejemplo de com-
pactificación de más arriba, pegándola en la hoja de papel de modo que se enrolIase con
La teoría general de Einstein y los modelos relativistas
elIa y adelgazando lo suficiente el cilindro resultante. De este modo se generarían desde la
La historia de la teoría general de la relatividad comienza en 1907, dos años después
teoría M las supercuerdas cerradas; las abiertas se obtendrían al contraerse la dimensión
de que Einstein presentase su trabajo sobre la teoría restringida. Ese añ.o publi~ó u~ ar-
adicional hasta un segmento de línea.
tículo en el que presentaba su elaboración del que calificó como el pensamiento mas felIz de
Un problema con estas teorías de todo es que hasta ahora no han conducido a nin-
su vida. Se le ocurrió que una persona que cae libremente no siente su propio peso. Así, un
guna predicción contrastable mediante el experimento, por lo que de momento siguen
observador en caída libre en un campo gravitatorio homogéneo puede considerarse en re-
constituyendo un campo de juego de índole teórica, cuyos resultados concretos están toda-
poso en un entorno libre de gravitación, pues al caer todos los cuerpos con la misma acel~­
vía por obtenerse. Resulta, además, que la teoría no admite parámetros libres determina-
ración no tiene manera de discernir entre ambas situaciones. De modo que se da una eqUi-
bles por el experimento (circunstancia que debe verse como una virtud): de ella se deduci-
valencia física completa entre dos sistemas de referencia, el uno acelerado, pongamos, en la
rían, por ejemplo, todas las masas de las partículas elementales, con lo que sería curioso
dirección del eje OX con una aceleración "/, y el otro en reposo y sometido a un campo
ver lo que sucedería si estas no coincidiesen con las observadas. En fin, entre tanto, no po-

1100 1101
HISTORIA DE LA CIENCIA
MICROCOSMOS Y MACROCOSMOS

gravitatorio homogéneo dirigido según el mismo eje y que imparte una aceleración _"{.
ue 21T: en este sistema el espacio no sería euclídeo. En cuan.to a los r~lojes, estos mostr~­
Con esto, el principio de relatividad, válido en la teoría restringida para sistemas en movi-
miento relativo rectilíneo y uniforme, se extiende al caso de sistemas con aceleración uni- ~an tanto más retraso cuanto más distantes estuviesen del ongen del slste~a de referen.~la
forme. (cuadro 32.13). Según afirmaría Einstein en 1921: fue .este pro~lema del diSCO ~n rot~clOf
Este artículo de 1907 contenía además otros dos puntos importantes. Uno era la pre- el que le condujo a pensar que, si los sistemas no merclales debla~ pone~se en pie de 19ua
dicción de un corrimiento al rojo gravitatorio. El otro era la curvatura de los rayos de luz dad con los inerciales, entonces era preciso abandonar la geometna euc!l~e~.
bajo la influencia de la gravedad. Para obtener estos resultados usó la idea, que desarrolla- Comenzó aquí una nueva etapa en la que E~nstein ~ue ayudado 1n1~lalmente For su
ría posteriormente, de la existencia de un sistema inercial local para cada punto del campo amigo el matemático Marcel Grossmann, quien lo introdUJO en I.a ge.ometna no eucl~dea de
gravitatorio en el que se pueden realizar medidas de espacio y tiempo de acuerdo con la Riemann y en el cálculo tensorial. La geometría que Georg Fne?nch Ber~hard Riemann
relatividad restringida. Respecto del corrimiento al rojo, Einstein encontró que la frecuen- (1826-1866) desarrolló a mediados de! siglo XIX era una geometTla no euchdea para espa-
cia de un reloj situado en un punto cuyo potencial gravitatorio es pequeño resulta menor
Cuadro 32.13
que la de un reloj situado en un punto cuyo potencial gravitatorio sea mayor. Existe, de
este modo, una dilatación de tiempos gravitatoria susceptible en principio de comproba- 1
1
Sea S el sistema inercial, y ¡ el
ción experimental; pues, al comportarse los átomos que generan las líneas espectrales
como una especie de relojes, resultaría, por ejemplo, que la luz emitida por la superficie
S 1---1 sistema en rotación. Los ejes Ol
II'
~_J
de ambos sistemas coinciden y
del Sol, en un campo gravitatorio intenso, debería tener una longitud de onda mayor que 1 constituyen el eje de rotación.
la luz emitida por fuentes similares en la superficie terrestre. Pero este efecto, muy peque- 1
1 Considérese un círculo de radio R
1
ño, no era entonces fácil de medir e interpretar. Poco tiempo antes se había observado tal 1 centrado en el origen O, y ligado
1
desplazamiento, explicándose por un efecto de presión y desplazamiento Doppler de los 1 al sistema. Sea w la velocidad an-
1
estratos en descenso hacia el interior del Sol. 1 gular, de modo que los puntos de
1
El otro resultado importante surgía de la imposición de que las ecuaciones de Max-
1 la circunferencia se moverán con
__-..¡¡.:_"""..;v_////"' . . respecto a S con una velocidad li-
\Vell tuviesen la misma forma en ambos sistemas. Si tenía que ser así resultaba que los rayos
neal v= w· R. Supongamos que un
de luz que no viajasen en la dirección de la aceleración del campo debían ver curvadas sus
observador quiere medir el radio
trayectorias por él (y, por consiguiente, la velocidad de la luz ya no sería constante). Tam- R con una regla de longitud { res-
bién encontró que la relación entre masa y energía, E::o me", que en la relatividad restringi- pecto al sistema en reposo S, y que
da se establecía para la masa inercial, era también válida para la masa gravitatoria. la medición se efectúa en un inter-
Durante los tres años siguientes, las obligaciones académicas y el interés por la teoría valo de tíempo lo suficientemente
cuántica interrumpieron estas investigaciones. En 1911 publicó otro artículo abordando e ueño como para considerar que, respecto del sistema en reposo S, y en este intervalo, la regla
las mismas cuestiones que en el trabajo de 1907; en relación con la curvatura de los rayos p q un movlmlen
posee . . to re ctilm' eo v" uniforme Siendo el movimiento transversal , ahla regla no ten-
.
en un campo gravitatorio, Einstein llamó la atención de los astrónomos sobre la deflexión drá efectos sobre ella, y el observador medirá la longitud R. Pero supongase a ora que qUiere
medir la circunferencia. Para ello tendrá que situar la regla (cuya lo~gltud se supone muy p~que­
que sufriría un rayo de luz que rozase el Sol, cuyo valor calculó en 0,83" (más adelante
ña en relación con dicha circunferencia) perpendicularmente al rad!?, y.entonces el m~Vlmlen~o
corrigió este resultado al doble de este valor). En otros dos artículos publicados en el año
de la regla respecto del sistema S se efectuará en la dirección long!tudmal. De .~cu~r o con ~
siguiente (1912) llegó a algunas conclusiones. Advertía en él que las ecuaciones de Lorentz teoría de la relatividad restringida, sufrirá un acortamiento dado por la contraCClon . e Lorentz.
no son aplicables en general, sino que solo son válidas a nive!local (y, por lo tanto, tam- l'=1 (1-1;/;')[/2. Por consiguiente, el observador habrá medido una longitud de la Clfcunferen;
bién lo es e! principio de equivalencia), y que la fuente de campo gravitatorio no es solo la . mayor de la que hubiese medido si el disco no estuviese girando, mientras .que
Cla , la 1 medida
. de
densidad de materia, sino que hay que añadirle la «masa» de la densidad de energía en radio sería la misma en las dos situaciones. Por lo tanto, en el sistema en .rotaclOn e .coClente en;
cada punto del espacio, incluida la misma densidad de energía del campo gravitatorio. tre la longitud de la circunferencia y el radio es mayor que 21r: el espacIo en este SIstema, en e
ue está presente un campo gravitatorio, no es euclídeo. .. ..
~e
Hasta ese momento, Einstein había estado considerando campos estáticos. En un se-
gundo paso, consideró la situación estacionaria como un preliminar para e! caso general de q Algo similar sucede con los tiempos. De acuerdo con la relauVl?ad .restrmglda, puede de-
finir el tiempo en el sistema en reposo S mediante una serie de reloJes sltua~os en d!stlOto~ pun- li:¡
los campos dinámicos. Un caso sencillo de campo estacionario sería el de un disco en rota-
tos v sincronizados mediante señales luminosas. Supóngase ahora q~e se qUler~ defimr el uem~~ ¡¡
ción, es decir, el de un sistema de referencia que gira con velocidad uniforme relativamen-
de ía misma manera con relojes en reposo en el sistema en rotaclOn. Se pue en pon~r en T-
te a un sistema inercial (por ejemplo, en torno al eje de coordenadas común Ol). De cuando los relojes del sistema S con los que coinciden en ese momento muestren t - O. Ahor~ 1I
I
acuerdo con el principio de equivalencia, el sistema en rotación sería equivalente a un sis- 1
tema inercial en el que existiese un campo gravitatorio (un campo de fuerza centrífuga).
Analizando este caso, encontró que un observador desde el sistema en rotación encontra-
b' n un reloj en el borde del sistema tiene una velocidad v=w' R con respecto del SistemaS, aSI
~ee
1. d~do
'de acuerdo con la relatividad restringida, mostrará un retraso con respecto a los relOJes de
por T =t (1- tl-/ ¿.) 112. Dado que el valor. del radio R es arbitrario, se ve que los retrasos
¡
ría que el cociente entre la longitud de la circunferencia del disco y su radio sería mayor de los relojes en el sistema ~ dependerán de su dlstanCla al origen O.
l'
1102
1103
1I
HISTORIA DE LA CIENCIA MICROCOSMOS Y MACROCOSMOS

cios curvos con n dimensiones. Cabe hacerse una idea de lo que es una geometría no euclí. dentro de dichos espacios. Se trata de entidades matemáticas caracterizadas por un con-
dea si se considera un espacio de dos dimensiones en lugar de las tres habituales. En este junto de componentes que, bajo un cambio de coordenadas, varían de forma interrelacio-
caso el espacio euclídeo vendría representado por un plano, y su curvatura sería nula. nada de modo que se conservan algunos invariantes. Por ejemplo, el intervalo, la distancia
Cualquier otra superficie representaría un espacio con curvatura no nula. En el caso de los diferencial entre dos puntos del espacio-tiempo, no debería modificarse con un cambio de
espacios que estudió Riemann, la curvatura sería positiva y el espacio se cerraría sobre sí coordenadas. Los tensores son, pues, aptos para representar magnitudes físicas.
mismo. El caso típico sería el de la esfera. El plano euclídeo de nuestro ejemplo constitui- Las investigaciones de Einstein culminaron en 1916 con la publicación de su artículo
ría un espacio infinito en el que la distancia más corta entre dos puntos, digamos la «métri- «Die Grundlage der Allgemeinen Relativitatstheorie» [Los fundamentos de la teoría de la
ca» de dicho espacio, sería el segmento de recta que los une. Pero sobre la esfera esta dis- relatividad generall. La esencia de las llamadas «ecuaciones del campo» que presentó en él
tancia sería la del arco de círculo máximo que pasa por ellos, equivalente al segmento de sería la siguiente. Un tensor relevante físicamente es el llamado de «energía-impulso», cu-
recta en el caso del plano. Hasta aquí se ha visualizado la esfera como una superficie inser- yas componentes expresan, por así decir, las propiedades de la materia en un punto (densi-
ta en un espacio euclídeo tridimensional. Considérese ahora que la esfera constituye el mis- dad, cantidad de movimiento, energía); estas componentes resultarían nulas en un espacio
mo espacio, elévense sus dimensiones a las cuatro del espacio-tiempo, y se tendrá una idea vacío. Otro es el que caracteriza la curvatura del espacio en cada punto (si todas sus com-
del espacio riemanniano con el que trabajaba Einstein (cuadro 32.14). Los otros elementos ponentes son nulas, entonces el espacio es euclídeo). Las ecuaciones de Einstein, que son
mencionados, los tensores, constituyen, por decirlo así, una generalización de los vectores covariantes (es decir, conservan la misma forma bajo una transformación de coordenadas),
establecen una proporcionalidad directa entre el tensor energía-impulso y la curvatura
Cuadro 32.14 {cuadro 32.15}: la presencia de masa-energía es así la que determina las propiedades geo-
Las geometrías no euclídeas métricas del espacio.
En términos generales, se puede decir que con la teoría restringida la sustitución del
Una superficie puede estudiarse como una entidad inserta en un espacio euclídeo tridimen- espacio y del tiempo absolutos por un espacio-tiempo «relativo» permitió que todos los
sional, de coordenadas (x, y, ¡), o bien puede estudiarse por sí misma. Este último aspecto es e! observadores inerciales trabajasen con las mismas leyes físicas. Con la teoría general, al in-
que desarrolló C. F. Gauss. Tal como había mostrado L. Euler, cualquier punto de la superficie
quedaría detertninado por dos parámetros (u, v), de modo que cada una de las coordenadas x, y,
¡ es una función de u y de v. Un intervalo diferencial de arco sobre la superficie, dado por: Cuadro 32.15

ds' = d>? + dy' + di


El que cabría llamar «problema de Einstein» en relación con la teoría general se podría des-
se representaría en forma paramétrica como: cribir como sigue. Como se vio, Einstein adoptó una variedad riemanniana tetradimensional
ds'=E(u, v)dll + 2F(u, v)dudv+ g(u, v)dtl como modelo de espacio. En esta variedad e! elemento diferencial de línea ds debía ser invarian-
te bajo las transfortnaciones de coordenadas, así como también debía resultar invariante 8Jds = O,
expresión obtenida derivando x(u, v), y(u, v), ¡(u, v) y donde las funciones E, F, G encierran to- la fortnulación variacional de las ecuaciones para una partícula libre en e! seno de! campo. Ade-
das las propiedades de la superficie. Esto pertnite considerar a la superficie como un «espacio» más, había que introducir e! principio de equivalencia estableciendo que existe una transforma-
en sí misma, al margen de! espacio euclídeo en el que estaría inserta. Un caso típico sería e! de la ción particular de las coordenadas tal que en cada punto de la variedad existe un sistema de
esfera, por ejemplo la terrestre, que con sus parámetros de latitud y longitud geográficas era ob- coordenadas local seudoeuclídeo en e! que se puede aplicar la relatividad restringida.
jeto de tratamiento tradicional de geógrafos y navegantes. La distribución de energía y materia en cada punto vendrían caracterizados por e! tensor de
Partiendo de las investigaciones de Gauss, Riemann desarrolló un trabajo sobre los funda- energía-momento Tij , ye! problema se concretaba en encontrar unas ecuaciones de la fortna:
mentos de la geometría. Partió de un punto de vista general y consideró un espacio no solo de
tres, sino de n dimensiones, de! cual aquel sería un caso particular. Un punto en un espacio de n f,¡=k· Ti;
dimenSIOnes -a tal espacio se le denomina una <<variedad>)- está determinado por n paráme- que fuesen covariantes (es decir, que mantuviesen la misma fortna) bajo la transfortnación de
tros x" ... , x,: el conjunto de todos ellos constituye la variedad. De esta fortna la expresión para coordenadas, y en donde e! tensor incógnita r i¡viniese determinado por las gi¡ Ysus dos primeras
e! Intervalo diferencial sería: derivadas, y que, finalmente, se redujesen a la ecuación de Poisson de la mecánica clásica:
n n V2<!>=41TGp
ds' = L L U 1X¡(lx, en donde <!> representa e! potencial gravitatorio, y p la densidad de materia.
= I j= I
j

La solución se escribe como: ¡¡


(en. donde, por decirlo así, las g,¡ desempeñarían e! pape! de las E, F, G de la expresión de más l¡
amba). Pues bien, e! espacio de trabajo de Einstein era una variedad riemanniana tetradimensio- Ri;-hi,R=-kT,¡ il
nal (n =4, tres coordenadas de espacio y otra de tiempo) en la que los diez gi¡ (diez, pues gi¡= g¡i) en donde R" es e! tensor de curvatura, R es un escalar obtenido a partir de aque!, e! intervalo es ¡;
"

deSCrIbían las propiedades geométricas de! espacio, las cuales venían determinadas por e! campo ds'=g,¡dxidx; (es decir, gi, son las componentes de! tensor métrico fundamental que caracterizan l'
gravitatOrIo.
el intervalo) y k es una constante que representa la constante de gravitación.
\1-

------------------
I li
¡',I

11"'"
HISTORIA DE LA CIENCIA

vador Siendo el intervalo de tiempo inversamente proporcional a la fr~cuen~ia, la luz mos-


troducirse la curvatura de este espacio, se permite que todos los observadores, inerciales o traría 'un desplazamiento al rojo tanto mayor cuanto mayor fuese la distanCia d~ su fuent~
no, trabajen con estas mismas leyes. al observador. Este desplazamiento no tendría nada que ver con un de~~lazamlento Dop
Algunas de las consecuencias de la teoría general no tardaron en confirmarse. La pri- pler, y por consiguiente no implicaba una verdadera velocidad de receslon: era una conse-
mera fue el avance del perihelio de Mercurio, que hace que la órbita de este planeta prece-
sione con un período de 23.000 años. La magnitud de esta precesión, de 43" por siglo, no cuencia de la métrica. ., l' d
El modelo B mantenía la constante cosmológica y era estaclona~lO, no. contemp an o-
podía ser explicada por la mecánica celeste a menos que se formulasen hipótesis especiales se otras posibles soluciones. Pero, en 1922, Aleksandr Aleksandro~ch Fnedmann (18.88-
como la existencia de un planeta entre Mercurio y el Sol -llegó a tener nombre, Vulca-
1925) mostró la existencia de soluciones no estáticas: con masa unIfor~emen~e ~e~artl~a:
no-, o una posible luna de Mercurio. Einstein dedujo la magnitud de este efecto a partir en las que la curvatura del Universo variaba con el uemp~. Estas solUCiones m~ UI~n, ~_
de su teoría. Otra confirmación fue la predicción de la curvatura de los rayos de luz por un pendiendo del valor de la constante cosmológica, tanto unIversos que se exp~~dl~n mde~
fuerte campo gravitatorio. Esta desviación podía observarse en la luz de las estrellas cuan- nidamente como un tipo de Universo cíclico, que tras una etapa de .expanslOn canza a
do sus rayos pasaban por las cercanías del Sol: en ese momento su posición debía verse un unto a partir del cual comenzaba a colapsarse. Se trataba de universos c.errad?~, con
modificada. En las proximidades del Sol, las estrellas solo se pueden observar durante un p .. E 1924 abordó los modelos de Universo abierto o «hlperbohcos»,
eclipse. La observación se intentó sin éxito en CrÍmea en 1914 (debido a la situación políti- una curvatura posltlva. n i " " ( d 32 17)
con curvatura negativa, mostrando que no ~dmitían u~a so UClOn e~tauca cua ro . :
ca, la expedición alemana fue arrestada por los rusos), y se logró finalmente, con expedi- El enfoque de Friedmann era matemático, sm referencia a cualesqUIera. datos de la ~bser
vación. Pero sus modelos en expansión introdujeron la. idea de un com~enz~ ~el ~n;:r~o
ciones británicas enviadas a Sudamérica y a África, en 1919, confirmando las previsiones
de la teoría. El enrojecimiento gravitatorio del espectro se observó en la enana blanca com- a artir de un punto y( de una edad de este. En un prImer momento e tr.a aJo e r~e­
ponente de Sirio en 1929, lográndose detectar en un laboratorio con un haz de fotones m~nn asó bastante inadvertido, y todo lo más se consideró que.sus soluclo~es e~~lutlvas
en 1960. teníanPun carácter meramente matemático y se halla~an despr?vlstas de senudo flSlco. La
En un trabajo publicado en 1917, Einstein abordó las implicaciones cosmológicas de
idea de que esto no era así sería formulada algunos anos despues.
su teoría, empleándolas para construir un modelo de Universo. Este salvaba el obstáculo
del Universo newtoniano que suponían las condiciones en los límites, pues ahora su geo- Cuadro 32.17
metría era finita y cerrada. El modelo era sencillo, pues, en un momento en que la exis-
tencia de otras galaxias todavía estaba en entredicho, suponía una distribución continua y En la gráfica se muestran Tamaño del
uniforme de masa, que ahora sería finita. La constancia de la densidad implicaba una tres tipos de universos. El hi- Universo
Hiperbólico
curvatura espacial constante, determinada por dicha densidad. La condición de que el perbólico tiene curvatura nega-
Universo fuese estático (es decir, que la curvatura resultase independiente del tiempo) le tiva (aquí la estructura del espa-
llevó a introducir en sus ecuaciones la llamada «constante cosmológica». Su interpretación cio no se asemejaría, como en el
física sería la de una fuerza de repulsión sensible solo a escalas cósmicas. Podría decirse caso de una curvatura positiva,
a la de una esfera, sino a la for-
que la función de esta fuerza de repulsión sería la de equilibrar a la fuerza gravitatoria con
ma de una silla de montar). La
el fin de que el Universo no sufriese cambios con el transcurso del tiempo: el radio de la
expansión es indefinida en este
hiperesfera permanecería constante (cuadro 32.16). caso y en el de curvatura nula,
en el que se llega a un Universo
Cuadro 32.16 euclídeo. Cuando la curvatura
es positiva, la expansión se frena
En el modelo cosmológico de Einstein. las ecuacÍones resultaban: y el Universo pasa a sufrir una
fase de contracción. Una posi-
R;í-~g;í-Ag;í=-kT;í bilidad es que, una vez finaliza-
en donde Aera la constante cosmológica. da esta, se abra una nueva fase
de expansión; sería entonces un ., ' b uIi da
Universo cíclico. Nótese que en un Universo sin materia la expa~slOn no ,se vena o stac . za
Einstein pensaba que esta era la única solución de sus ecuaciones. Pero ese mismo por las fuerzas gravitatorias, por lo que su representacÍón en la figura sena una recta partiendo
año el astrónomo Willem de Sitter (1872-1934) mostró que se satisfacían igualmente en el
caso límite de un Universo desprovisto de materia. Llamó modestamente a su solución la del ~i7=' ortante notar que la expansión se refiere al espacio mismo. Dos cU,erpos situad~s en un
solución B, frente a la de Einstein, que denominó A. La solución B presentaba un par de . p "halla'ndose en reposo relativo, se separarían entre SI debido al, digamos,
Universo en expanSlon, . d d I b er-
características curiosas. Una era que una «masa de prueba» puesta en él a cierta distancia «crecimiento» del espacio entre ellos. La apariencia para qu~:n des e uno e os cuerpos o s
de un observador se alejaría de este con una aceleración proporcional a la distancia. Y la vase al otro sería que este presentaría una velocidad de receslon.
otra, que los relojes marcharían más lentos cuanto más alejados estuviesen de dicho obser-

1107
1106
HISTORIA DE LA CIENCIA MICROCOSMOS Y MACROCOSMOS

Otro modelo de Universo fue el propuesto por Einstein y De Sitter en 1932 P ciase con la física nuclear para configurar una teoría en la que se pueden reconocer ya los
t hE"· ·d b . or esas
~c ~s mstem consl era a que su introducción ad hoc de una constante cosmológica ha- rasgos principales de la que se sostiene actualmente. El autor de la fusión entre ambos
bla sido un e:r?f. El modelo que elaboró con De Sitter era muy simple: anulada la cons- campos fue G. Gamow. El motivo no fue e! desarrollo de la idea de Lema/tre, sino la inca-
tante. cosmologlca, se ,trataba de un Universo en expansión indefinida y con la particular pacidad de la astrofísica de dar cuenta de la formación y abundancias de los elementos más
propIedad de ser euchdeo (la curvatura del espacio es nula). La virtud de t d 1
Id·· . d 1 es e mo e o era pesados en e! seno de las estrellas. Esto llevó a pensar que tal formación habría podido te-
a ~ ,COnStlt~lr, sIen o nu a la constante cosmológica, la frontera entre universos en ex- ner lugar en un estadio anterior a la formación de las mismas estrellas. Esta fue la conclu-
pansl~n y Universos cíclicos, por 10 que se le llama el «modelo crítico» y a su densidad d sión de la VIII Conferencia de Física Teórica de Washington en 1942, cuyo tema, sugerido
materia, la «densidad crítica». ' e
por Gamow, era «Los problemas de la evolución estelar y la cosmología». Pero nadie abordó
la tarea hasta que Gamow lo hizo en 1945, publicando un primer trabajo al año siguiente. La
Lematfre, Gamow y el bíg-bang idea era que el Universo primordial era algo así como una espesa sopa gaseosa de neutro-
nes, que como resultado de la expansión -en esos momentos iniciales, muy rápida- «coa-
~n 1927, desconociendo todavía el trabajo de Friedmann, el belga Georges Édouard gularían» en complejos neutrónicos que darían lugar a los elementos mediante la emisión
~ema!t~e 0894-1966) propuso el primer modelo de Universo en expansión dotado de sen- de partículas 13. El proceso de captura de neutrones, sin embargo, no estaba claro, y
tido flSlco. En el ~odelo se 'partía del Universo estacionario de Einstein, suponiéndose que Gamow pronto pensó en que estos podían ser capturados por protones y otros núcleos.
en este se ~~oduC1a d~ algun m?do una perturbación que lo desestabilizaba, iniciándose Afortunadamente, Había datos disponibles sobre la captura de neutrones por los distintos
una expanslOn que lo Iba aproximando asintóticamente al modelo de De Sitter El . elementos, elaborados con vistas a la construcción de centrales nucleares. Ralph Asher
. al· d 1 l· . corn-
mle~to ,roJo e as ga aXlas se interpretaba como un efecto detectable de esta expansión Alpher (n. 1921), que realizaba su tesis de doctorado con Gamow sobre el proceso de nu-
consldera.ndose co~o una verd,adera ~elocidad de recesión. Manejando datos de cuarenta; cleosíntesis primordial, encontró una relación entre la captura de neutrones y las abundan-
dos galaXIas, Le~aItre e~cont~o que.d.lchos movimientos podían encajar con una relación lí- cias relativas de los núcleos. Estas abundancias habían sido elaboradas por e! geoquímico
ne~ entre velOCidad y distanCia, antiCIpando así los resultados observacionales que Hubbl Victor Moritz Goldschmidt (1888-1947), basándose en datos terrestres, de análisis de
dan a a conocer dos años más tarde. e meteoritos y de abundancias en objetos estelares, y publicados, tras largos años de trabajo,
. El ~rtículo de Lema/tre fue publicado en una revista belga de escasa difusión y así pasó en 1937.
I~adve.rtldo dur.ante tres años, hasta que se buscó una alternativa a los modelos extremos de La publicación de la nueva teoría del big-bang revisada tiene su anécdota. Elaborada
Emstem ~ ~e Sltter. En ese momento el modelo de Lemaítre se veía además apoyado por el por Alpher y Gamow, se incluyó también la firma de H. A. Bethe con el fin de completar
«descubnmlent?» de los trabajos de Friedmann y por la relación velocidad-distancia d la secuencia alfabética: se le conoce por ello como el «artículo a¡3'Y». En la teoría, que fue
Hubble. ~demas, se c.omp~obó rápidamente que la formación de condensaciones locale: desarrollada en artículos subsiguientes de sus autores, se partía de un gas de neutrones ca-
en u~ Umve~so de Emstem podría conducirlo a la expansión. Por su parte, en 1931 liente y altamente comprimido, con una densidad de radiación superior a la de la materia.
Lemalt:e ,opto por suponer que la desestabilización podía producirse por un proceso qu~ En un momento dado, por razones que no se especificaban, los neutrones daban lugar a
denommo stagnatlOn (estan.camiento), que suponía una súbita caída de la presión que con- protones y electrones. Los protones se unirían con los neutrones remanentes para formar
llevaba un aumento del radiO. deuterones; y los elementos se irían formando por sucesivas capturas de neutrones y desin-
En est~ pri~~r modelo de Lema/tre el Universo no tenía un principio. Podía haber tegraciones beta. Partiendo de las abundancias relativas en el momento actual se podían
perd~rado mdeflmdamente en su estado estacionario de partida antes de comenzar la ex- estimar las condiciones iniciales. Alpher introdujo el término «ylem» (con el significado de
panslOn. No obstante, el ~echo de, que el Universo tuviese una energía finita, unido a la ley una sustancia primordial de la cual se habrían formado los elementos) para designar el es-
d.e} aumen~o de la entropla, sugefla un estado inicial de entropía nula o máxima organiza- tado primitivo. Un aspecto importante de la teoría es que predecía la existencia de un fon-
c.I~n a partir del cual la en~:gía habría comenzado a degradarse. La desintegración radiac- do de radiación cósmico de microondas, el residuo actual de la radiación primitiva, algo a
tI\ a, por otra parte, tamblen parecía sugerir la existencia de un origen. Ese mi m - lo que en ese momento no se prestó mucha atención. Subsistía, sin embargo, un importan-
d 1931 LA .. , s o ano
e ,e~aItre suglflO u.n segundo modelo en e! cual un «átomo primitivo», con toda la te problema que los refinamientos que se imprimieron a la teoría en los años subsiguientes
masa ~e1 UnlV~:so y u~ r~dlO, aunque no nulo, relativamente pequeño, sufriría una especie no pudieron resolver: la ausencia de núcleos con pesos atómicos 5 y 8, por lo que estos no
de ~esmtegraclOn radiactIva que 10 fragmentaría y que gradualmente habría conducido al se podían usar y debía buscarse algún mecanismo distinto de la captura de neutrones.
U,n1v:rso a su estado actual. El modelo ofrecía, por otra parte, una explicación de los rayos
COS~!COS como pr~ducto de estos procesos de desintegración. Nació con esto la primera El modelo de Milne y la teoría estacionaria
verslOn ~e la conOCida teoría del big-bang, la «gran explosión».
La Idea de l~ formación de! Universo por la desintegración de un átomo primitivo ex-
li
La década de 1930 fue bastante fecunda en lo que se refiere al pensamiento cosmoló- 11
p~esta por LemaItre no pasaba de ser una vaga especulación. Tendría que transcurrir una Ir
decada para que e! modelo del Universo en expansión de la cosmología relativista se aso-
gico, aunque la mayor parte de los modelos propuestos, enfrentados por lo general a la
!~
teoría de la relatividad, fueron efímeros y tuvieron poca influencia. Algo más influyente fue

1'.[
11
- - - - - - ----.-- -- ---- ------
1109 il
HISTORIA DE LA CIENCIA MICROCOSMOS Y MACROCOSMOS

el modelo de Milne-McCrea, aun cuando quedó finalmente fuera de la corriente principal el espectro de los cuásares, que los situaba a distancias cosmológicas y, por consiguiente,
de pensamiento cosmológico que conduce a las concepciones actuales. muy alejados en el tiempo, vulnerando así el principio cosmológ~co, según el c~~l deberí~n
Edward Arthur Milne se contaba entre quienes no aceptaban la teoría de la relativi- existir también cuásares «locales». Otro fue el problema del heho. La producclon de heho
dad general. Concebía que el espacio era euclídeo y carente de estructura, un simple siste- en las estrellas no alcanzaba a explicar su abundancia, debiéndose recurrir a su formación
ma de referencia, y de acuerdo con ello desarrolló un modelo de Universo entre 1932 en una etapa inicial de alta temperatura o bien -esta era la idea de H~yle, q.ue no fue
y 1950; ofreció la última exposición completa de su teoría en su libro Kinematic Relativity aceptada- a su producción en el interior de hipot~ticas est~ellas supermaSlvas. FIn.alrnente,
(1948). En realidad, su modelo surgió de un intento de reestructuración de la física, desde en 1965 se encontró una radiación de fondo cósmIca de mIcroondas. Fue descubIerta por
posiciones convencionalistas, en el que la medida del tiempo ocupaba una posición funda- Arno Penzias (n. 1933) y Robert Wilson (n. 1936) trabajando en la longitud de onda de
mental. Su teoría es bastante complicada, por lo que aquí bastará con señalar que contem- 7,4 cm; la radiación provenía incluso de partes vacías del cielo, era.ind:pendiente de.la .~i­
pla la existencia de dos escalas de tiempos. Una, la escala t del tiempo cinemático, sería la rección y señalaba una temperatura de unos 3 0K. Pronto se confIrmo que esta radlaclon
que comparten un conjunto de observadores que se separan entre sí con movimiento rela- era la predicha por la teoría del big-bang. . ., .
tivo uniforme, y a los cuales se aplicarían las transformaciones de Lorentz; la otra, el tiem- Hacia finales de la década de 1960 o principios de la de 1970 la opInlOn general se In-
po dinámico, es el que comparten observadores en reposo relativo, y se corresponde con el clinaba a favor de la teoría del big-bang. (Por cierto, el término «big-bang» se debe a Hoy-
tiempo de la mecánica newtoniana. Ambas escalas de tiempo se relacionan 10garÍtmica- le, quien lo empleó en un sentido despectivo, pese a lo cual acabó por ser adoptado.) Eso
mente [T = to log (t/to) + to; to es una constante tal que cuando t = to coinciden ambos tiem- no quiere decir que l~ teoría del estado estacionario, modificada por Hoyle y Jayant
pos]. En la escala t, el Universo estaría en expansión; en la T sería estacionario, constitu- V. Narlikar (n. 1938) para dar cuenta de los nuevos datos, dejase de estar sobre el tapete,
yendo ambas diferentes versiones de la misma realidad física. Su teoría, cabe destacar aquí, aunque actualmente cuenta con pocos partidarios. Desplazándose a partir de su formu-
se basaba en la constancia de la velocidad de la luz y en un «principio cosmológico» lación inicial, Hoyle y Narlikar desarrollaron en 1960 la teoría del «campo C», la de .los
formulado en 1933 que incorporaba los postulados de homogeneidad e isotropía implíci- «universos-burbuja» en 1966 y, junto con G. R. Burbidge, el modelo de un estado cuaSles-
tos en teorías anteriores y que establecía que el Universo debía mostrar, a gran escala, la tacionario (QSSC) en 1993.
misma apariencia a todos los observadores, independientemente de su posición.
Otra teoría, digamos, poco ortodoxa era la llamada teoría del estado estacionario. En
sendos artículos publicados en 1948, F. Hoyle, por un lado, y Hermann Bondi (n. 1919) y COSMOLOGÍA DE PARTÍCULAS, TEORÍA INFLACIONARIA Y MATERIA OSCURA
Thomas Gold (n. 1920), por el otro, sugirieron desde Cambridge (Reino Unido) un mode-
lo de Universo que habían discutido previamente en común. La idea era que el Universo se La aceptación más o menos generalizada de la teoría del big-bang llevó a configurar lo
mantenía estacionario gracias a la creaóón continua de materia, lo que conservaría su den- que se llama el «modelo estándar» de la cosmología. En lo esen.c,ial, este modelo recoge la
sidad constante. En este Universo, que tenía la métrica de De Sitter, la presencia de mate- existencia de una etapa explosiva inicial seguida de una expanSlon, decelerada por la pre-
ria originaba la expansión (recuérdese que si en el modelo de De Sitter se situaban dos ma- sencia de masa; en el estado «caliente» originado en los primeros momentos, del que, la
sas de prueba, estas se separaban entre sí), yel valor de la constante cosmológica era nulo. radiación cósmica de fondo constituiría el registro «fósil», habría tenido lugar la nucleos1O-
Partían para ello del que denominaron «principio cosmológico perfecto», que constituía tesis de los elementos ligeros. De este modo pasó a primer plano el problema de la deter-
una extensión del principio de Milne: el Universo no solo debía presentar la misma apa- minación, por diversos medios observacionales, de las caract~rísticas más finas ?el modelo
riencia a todos los observadores, sino que también debía preservar esta apariencia con el y del valor de sus parámetros. Ligados en parte por las ecuaclones,que los r~laclo?an entre
transcurso del tiempo. La creación de materia vulneraba el principio de conservación de la sí estos parámetros consistirían en el parámetro de Hubble h (numero adlmenslOnal que
energía. Hoyle pensaba que era preciso reformularlo, mientras que Bondi y Gold opinaban r~sulta de dividir por 100 el valor de la constante de Hubble H), ~l parámetro de dece~era­
que no se había probado empíricamente su exactitud, lo que dejaba un margen de error que ción, el parámetro de densidad (D= Po/Pcn cociente entre la denSIdad ac~ual y la denSIdad
aprovechaba su teoría. Su estimación de la materia creada, realizada con los datos de la crítica), la curvatura del espacio o la edad del Universo, junto con un pOSIble valor no nulo
época, daba una cantidad relativamente pequeña, correspondiente a la creación de tres de la constante cosmológica. . .
átomos de hidrógeno por metro cúbico cada millón de años. Lo que no estaba claro era el En la década de 1970, dos cuestiones cobraron importancia. Una era la uniformlda~ a
mecanismo responsable de la creación de esta nueva materia. La teoría fue mejor aceptada gran escala del Universo. Daba cuenta de ello, por un lado, l.a apariencia similar de s~s d.ls-
entre los medios científicos británicos que entre los de otros países, y se convirtió en una tintas regiones. Si se observan dos regiones opuestas del UnIverso, estas no han pO~ldo 10- 1,"
:t
cuestión controvertida que los recursos de la observación no alcanzaban por entonces a di- teraccionar entre sí para igualar sus densidades o temperaturas, pues la luz tod~vla n? ha
lucidar. En 1956-1957, la teoría B2FH de la nucleosíntesis en el interior de las estrellas, en tenido tiempo de viajar de la una a la otra. Por consiguiente, el origen de la UnIformIdad
la que colaboró el mismo Hoyle, se consideró un apoyo a la teoría estacionaria frente a la tiene que remontarse a un momento en que dichas regiones es~viesen ,conect~das. Por
alternativa del big-bang. En la década de 1960 los progresos de la radioastronomía acumu- otro lado, la radiación cósmica de fondo presentaba una singular Isotropla. Y, SIn embar-
laron problemas sobre la teoría del estado estacionario, mientras que se mostraban favora- go, tuvieron que darse pequeñas variaciones de densidad para qu~ se fo~asen las estruc-
bles a la teoría del big-bang. Destacan tres hallazgos. Uno fue el desplazamiento al rojo en turas galácticas y supragalácticas. La otra cuestión es que el espacIO parecla tener una cur-

-----------------------------
1 1 11\
MICROCOSMOS Y MACROCOSMOS
HISTORIA DE LA CIENCIA

Cuadro 32.18
vatura notablemente plana. lo que significaba que el parámetro de densidad tendría un
valor n = 1 o ~rácticam~nte igual a él. Dada la aceleración del proceso. una densidad algo
Energía
may~r ya habna conducido a un colapso, que obviamente no se ha dado; una menor, a una potencial
densidad extremadamente pequeña, en contradicción con la observación.
E~ mod~lo «inflacionario» propuesto por AJan Guth (n. 1947) en 1981 y refinado por
Andrel D. LlOde (n. 1948) y Andreas AJbrecht y Paul J. Steinhardt al año siguiente busca- En la figura se re·
ba resolver estos problemas. Según este modelo, en una etapa primitiva del Universo, cu- presenta, de una mane·
yas par~~s estaban tan próximas que pudieron tener propiedades comunes, se produjo una
expanslO~ tremenda.mente rápida (tanto, que el espacio habría crecido entre estas partes a
~~a.veloCldad supenor a la de la luz), que se conoce como etapa inflacionaria. La conexión
IOlClal entre estas partes explicaría la simetría en el Universo observable. Asimismo esta
ra arbitraria, el poten·
cial del campo inHatón,
con su mínimo relativo
correspondiente al falso
vacío; aquí el símil sería
/\
Efecto túnel
expansión, aunque brevísima, exponencial, habría convertido la curvatura en práctica~en­ el de una bola rodando
te plana, cuanto me~o.s en la pequeña porción de Universo observable. (Se puede interpre- hacia abajo por un cam-
tar ~sto usando el slmIl de un globo: la curvatura de su superficie disminuye a medida que po gravitatorio.
se hlOcha.) Tras la etapa inflacionaria, el Universo habría seguido expandiéndose al ritmo
del ~ode~o ~stándar del big-bang, con un parámetro de densidad -como lo dicta su geo-
metrla practlcamente plana- muy próximo a la unidad. Mínimo verdadero
La teoría inflacionaria, de la que existen actualmente distintas versiones en desarrollo
ha ga?ado aceptación porque de momento parece resolver más problemas de los que plan:
un cambio de fase, por ejemplo de agua a hielo, se libera el calor latente, al llegar a este es-
tea. SIO e~ba:go, hay quienes la contemplan con cautela, pues su grado de especulación es
tado, en el q,ue el valor de la constante cosmológica disminuye hasta práctic~ente cero,
alto. ~n ter~l~os general~s, la evolución del Universo, incluyendo esta etapa inflacionaria,
esta energía se libera, convirtiéndose en masa y radiación, recalentando a un UOIverso que,
podna descr~blrSe.como sigue (téngase en cuenta que algunas cifras pueden cambiar algo,
como el agua por debajo de su punto de congelación, podría decirse que se habría «su-
tanto por la IOcertldumbre con que se conocen como por la versión de la teoría). Una pri-
perenfriado». A partir de aquí el Universo, que ha aumentado mucho de tamaño, sigue
~era etapa es la llamada «era de Planck», que abarcaría desde el supuesto origen hasta el
su expansión al ritmo normal, produciéndose la ruptura de la fuerza electrodébil a los
tiempo .de Planck, unos, ~0-43 s. Realmente, aquí no se sabe qué sucedió, y aun cabe plan-
10- 12 s, con una temperatura de unos 10 15 K. Sigue el confinamiento de los quarks forman-
tearse SI las leyes de la fIslca que conocemos son anteriores o no al Universo que describen
do los hadrones, los nucleones se fusionan para formar núcleos ligeros y se inicia la forma-
y el alcanc~ de su aplicación en esta etapa. Cabe imaginarse que entonces el Universo, que
ción de elementos; aquí la teoría está en buen acuerdo con los datos de abundancias. Así, a
pudo surgir de una fluctuación cuántica, estaba en un estado plenamente simétrico, con
los 300.000 años, con una temperatura que había descendido hasta los 3.000 K, protones y
un~ ~ola fuer.za -~osones y fermiones serían dos aspectos de la misma partícula-, y tenía
electrones se unieron para formar átomos de hidrógeno, y con ello el Universo se tornó
qUlza once dimenSIOnes. Las dimensiones extra se enrollaron entonces y el Universo surgió
transparente; la radiación cósmica de fondo se originó por entonces.
de la era. d~ Planck co~ las cuatro perceptibles y habituales del espacio-tiempo, con dos La teoría inflacionaria, como se dijo, da cuenta de la isotropía de esta radiación cós-
fuerzas dlstlOtas, la gravitatoria y la electronuclear, y con una temperatura del orden de los
mica de fondo. Pero si el Universo primitivo era homogéneo, resulta difícil explicar la for-
1032 K .. Haci,a los 10-35 s, ~~n u.~a temperatura del orden de 1027 K, se produjo la ruptura mación de galaxias. Deben, pues, existir perturbaciones en la densidad de materia que de-
de la slIDeWa de gran uOlfIcaclon, que separó la fuerza fuerte de la electrodébil. AJ rom-
bieran estar reflejadas en esta radiación. Tales perturbaciones, según la teoría, podían
perse esta simetría, quark.s y leptones dejaron de ser interconvertibles, la energía descendió haberse producido a partir de fluctuaciones cuánticas del campo inflatón. En 1992, el saté-
de modo que ya no pudieron crearse los hipotéticos bosones X mediadores de la fuerza
lite COBE detectó unas «granulaciones» muy pequeñas (una parte en cien mi!) en esta
electronuclear, y los existentes se desintegraron. radiación. Estas inhomogeneidades procedentes de las fluctuaciones se habrían plasmado
, De la ruptura de esta simetría sería responsable un campo de Higgs, el «campo infla- en la distribución de masas, dando origen a las galaxias y cúmulos de galaxias. Por ello la
ton», que ~~bría producido la inflación. Se supone que el estado de mínima energía no
corre~pondlO a un val~r cero del ca~po, el verdadero estado del vacío, sino a otro de mayor
exploración del fondo de radiación cósmica constituye hoy una de las principales áreas de
interés en cosmología. Además, en él se podría detectar la existencia de ondas gravitatorias.
li
energla que se denomlOa «falso vaclo». Este estado constituiría, pues, un mínimo relativo, lo que podría constituir una confirmación de la teoría inflacionaria. Así como las ondas 1I
en, el cual la m~y.or parte ~e la energía del Universo se encontraba en el campo. Por decirlo electromagnéticas surgen como una consecuencia de las ecuaciones de Maxwell (por decir- l'

II
aSI, estas condiCiones eqUivalen a tener una constante cosmológica de valor muy elevado, lo así), las gravitatorias, perturbaciones del campo análogas a las anteriores, surgen de las
q~e produce una ~iperexpansión. El Universo escapa de este mínimo relativo por efecto ecuaciones de Einstein, quien las predijo en 1918. Las ondas gravitatorias generarían a su
tunel, lo que permite superar la barrera de potencial (cuadro 32.18). En estas condiciones, paso contracciones y dilataciones del espacio, que deberían reflejarse en ciertos movimien- r
!I
se encuentra con una energía superior a la del verdadero vacío. Del mismo modo que en

1113 lit
HISTORIA DE LA CIENCIA
MICROCOSMOS Y MACROCOSMOS

tos de las masas insertas en él. Estas ondas gravitatorias también debieron generarse en el
Esto no deja de tener ventajas, pues hace más viejo al Universo y ensancha los estrechos
Universo inflacionario. En él las fluctuaciones creaban pares virtuales gravitón-antigravitón
márgenes entre la edad del Universo y sus objetos más antiguos.. .
y la rápida expansión los debió separar de tal modo que no podrían recombinarse de nue-
De modo que ahora mismo la cosmología está en plena efervescencia. Cab; renunc~ar
vo, lo que habría motivado la generación de ondas gravitatorias. Si en el momento de emi-
al Universo plano y admitir una curvatura abierta, hiperbólica, I? que pondna en senos
tirse la radiación cósmica de fondo estas ondas actuaban sobre el plasma que la emitió, la
apuros, cuanto menos, a la teoría inflacionaria. Cabe salvar la plamtud acoplando la que ~e
radiación debería mostrar huellas de su presencia en la forma de polarización y desplaza-
ha llamado más arriba materia oscura cosmológica y vinculándola a la constante cosmol~­
mientos alternativos al rojo y al azul de su temperatura de radiación. Hasta el momento no
se han podido detectar. gica, en cuyo caso se trataría de una energía repulsiva -energía oscura- ~on la car~ctens­
Finalmente, otro aspecto que explicaba la inflación era la curvatura notoriamente pla- tica de que su densidad permanecería constante aun al aumentar el radiO del Umverso.
na del Universo, lo que implica, como se dijo, un parámetro de densidad muy próximo a la O quizá un campo cuántico, de energía variable con el tiempo,. que en est~s momentos
unidad. Sucede, sin embargo, que si se contabiliza la materia visible en el Universo (funda- aportaría precisamente el 0,7 por 100 o así de la energía, la. c~ntlda? necesaria para ten:r
mentalmente, protones y neutrones) esta solo alcanza a contribuir con algo así como n"" 1; tiene incluso nombre: la quintaesencia, de la que qmza podna dar cuenta la teona
en 0,01 al valor de n. A esas alturas se tenían indicios bastante claros de que existía tam- de supercuerdas.
bién materia no visible, porque a finales de la década de 1970 se había encontrado una dis-
crepancia -una deficiencia- en las masas de las galaxias y cúmulos de galaxias. Las velo-
cidades en las órbitas de las estrellas en torno a los centros galácticos deberían disminuir BIBliOGRAFÍA
con la distancia a dichos centros, como sucede en el caso de los planetas del Sistema Solar;
sin embargo, a partir de cierta distancia del centro galáctico esto no sucede, sino que la ve- Estudios
locidad se mantiene prácticamente constante. Por otra parte, la fortnación de estas estruc-
turas a escala cosmológica parece haberse producido con demasiada rapidez. Para arreglar Como en capítulos anteriores, estas cuestiones se pueden ver en 1. M..BRO\fN,. A. PAIS y B. PI~.
las cuentas se necesitaría una «materia oscura», materia no luminosa, que en el caso de la PARD Twentieth Century Physics, 3 vals., Institute of Physics Publishing, Bnstol y Ftladel6a, y Amen-
Vía Láctea la envolvería esferoidalmente, pesando diez veces más que el disco visible y con can I~stitute of Physics Press, Nueva York, 1995. Buena parte de los contenidos ~eIlibro d~ HeI.ge
un diámetro casi diez veces mayor. Esta materia oscura no emitiría luz, y así solo sería de- KRAGH, Quantum generations. A History of Physics in the Twentieth Century, Pnncet~n Umvers~ty
Press, Princeton (Nueva Jersey), 1999, se ajusta a los aspectos comentados e~ este capitulo. ASImIS-
tectable por sus efectos gravitatorios. Aquí se incluirían los MACHOs (Massive Compact
mo, algunas de las cuestiones relativas a la física de partículas se tratan en Jose Manuel SANCHEZ RON
Halo Objects), enanas marrones, restos estelares y agujeros negros, los neutrinos -a los (ed.), El siglo de los cuantos, España Nuevo Milenio, Madrid, 2001.
que determinaciones recientes parecen haber dotado de una cierta masa- y los WIMPs, Más específicamente, la historia de la física de partículas se aborda en Abraham PAIS, Inw~rd
partículas neutras estables o de muy larga vida: partículas exóticas y desconocidas de con- Bound. Of Matler and Forces in the Physical World, C1arendon Press, O~ford, y Oxford ~.mverslt.y
siderable peso que, como se ha visto, se predicen en las teorías supersimétricas: fotinos, Press, Nueva York, 1986, un libro destinado a lectores con ciertos conocImIentos m~temat1cos; a~l-
neutralinos, etc. De entre estos, los primeros, materia oscura bariónica, podría contribuir . T' n Y CAO Conceptual Develonments o/20th Century Field Theories, Cambndge Umverslty
mismo, la . , r . f Ph . P bl' h
a f1 con un 0,05, y la segunda, materia no bariónica, hasta con un 0,3 (la radiación también Press, Cambridge, 1997, y Gordon FRASER (ed.l, The Partiele Century, Insutute o ySlcs u IS -
pesa, pero su aportación es muy escasa). Sigue faltando algo más de un 0,6 para llegar al ing, Bristol y Filadelfia, 1998. Resulta más sencillo el libro de Robert P. CREASE YCharles C. .MANN,
valor de la unidad. Esta podría calificarse de «materia oscura cosmológica», 10 que viene a The Second Creation. Makers of the Revolution in Twentieth-Centu,,! Physlcs, Rutgers Um~efSlty
querer decir que no se sabe de dónde sale. Podría sugerirse, dado que el vacío, según la Press Nueva Brunswick y Nueva]ersey, 1996 (ed. revisada de la antenor de 1986), que ademas con-
mecánica cuántica, está hirviendo de partículas virtuales, que su energía no es nula; pero si tiene 'interesantes entrevistas con muchos de los protagonistas. En castellano, Manuel G. DONCEL,
Partículas, campos y simetrías: Historia de la física de altas energías d~ los años ~O ~ los 60, CEHI.C,
se suman las energías de todas las partículas virtuales posibles -ya se vio este problema-
Universidad Autónoma, Barcelona, 1982. Por último, cabe citar dlstmtas recopilaCIOnes de trabaros
el resultado es infmito. Este sería un problema por resolver.
presentados a diversos simposios: Laurie M. BROWN y LilIian HODDESON (eds.), ~he Blrth of P~rtlcle
Por otra parte, hay datos recientes -se expusieron en 1998- que muestran que la Physics, Cambridge University Press, Cambridge, 1980; LiIlian HODDESON,Laune BROWN, Mlchael
expansión, contrariamente a lo que se creía, está acelerándose. Estos datos provienen de RIORDAN y Max DRESDEN (eds.), The Rise ofStandard Model. Part/~le PhyslCls m the 1960s and 1~70s,
la observación de supernovas del tipo la, en las que existe una relación entre brillo y dura- Cambridge University Press, Cambridge, 1997; «Colloque Internatlonal1982. ~ol~oq~e Internatlo?a1
ción. En supemovas de este tipo con alto corrimiento al rojo (muy alejadas, pues, tanto en sur I'Histoire de la Physique des Particules: Quelques découvertes, concepts, mstltutlons des annees
el espacio como en el tiempo) se ha encontrado que el brillo resulta más débil-alrededor 30 aux années 50 (parís, 21-23 juillet 1982)>>, Joumal de Physique 43 (supl. n.o 12); y Manuel G. DoN-
de un 25 por 100- de lo esperado. Esto quiere decir que en realidad estas supemovas de- CEL, Arminn HERMANN, Louis MICHEL y Abraham PAIS (eds.), Symmetrtes m Physlcs (1600-1980).
bían estar más alejadas de lo que se supone por su corrimiento al rojo o, en otros tértninos, CEHIC, Universidad Autónoma, Barcelona, 1987. .
que el ritmo de la expansión del Universo era menor en el pasado. Lo que implica que la Los aspectos experimentales se pueden estudiar en Yuval NE'EMAN y Yoram KIR'iH, The Part:cle
acción gravitatoria, y por lo tanto el parámetro de densidad, es menor de lo que se suponía, Hunters, Cambridge University Press, Cambridge, 1986 (trad. al casteJlan~: Los cazad~res de,partlcu,
las, Gedisa, Barcelona, 1988), y Michel CROZON. La matiere premiere, Eds. du.Seud, Pans, 1987
y que además hay que reintroducir la constante cosmológica para explicar la aceleración.
(trad. al castellano: La materia prima, Gedisa. Barcelona, 1988).
HISTORIA DE LA CIENCIA

Sobre la teoría de quarks, A. PICKERING, Constructing Quarks, University of Chicago Press, Chica-
go, 1984. A nivel de divulgación puede verse el libro de James S. TREFIL, From atoms to quarks,
Charles Scribner's Sons, Nueva York, 1980 {trad. al castellano: De los átomos a los quarks, Salvat,
Barcelona, 1985l. Sobre las teorías de unificación puede verse el libro de Steven WEINBERG, Dreams
of a Final Theory. The Search for the Fundamental Laws of Nature, Pantheon Books, Nueva York,
1993 (trad. al castellano: El sueño de una teoría final. La búsqueda de las leyes fundamentales de la na-
turaleza, Crítica, Barcelona, 1994), que resulta de fácil lectura. A nivel de divulgación, John GRIBBIN,
En busca de SUSY. Supersimetría, cuerdas y la teoría de todo, Crítica, Barcelona, 2000 (ed. orig. 1998).
En cosmología, además de los capítulos correspondientes de las obras generales sobre historia de 33
la física del siglo XX citadas más arriba, véase John NORTH, The Measure of the Universe. A History of
Modern Cosmology, Dover, Nueva York, 1990 (ed. orig. 1965). También pueden verse otros estudios
GENÉTICA, EVOLUCIÓN Y BIOLOGÍA
de carácter específico. Sobre los orígenes, Jacques MERLEAU-PON1Y, La science de l'univers d l'age du
positivisme. Étude sur les origines de la cosmologie contemporaine, Vrin, París, 1983; sobre la teoría
MOLECULAR
general de la relatividad, el ya anteriormente citado libro de Abraham PAIS, <<Subtle is the Lord. .. ».
The Science and Llfe of Albert Einstein, Oxford University Press, Oxford, 1982 (trad. al castellano:
«El Señor es sutil. .. ». La vida y la obra de Albert Eimtein, Ariel, Barcelona, 1984); sobre el surgimien-
to de los primeros modelos, Pierre KERZSBERG, The Invented Universe: The Einstein-De Sitler Contro-
versy (I916-17) and the Rise ofthe Relativitic Cosmology, Oxford University Press, Oxford, 1989, y la
biografía de Friedmann de E. A. TRoPp, V. y. FRENKEL Y A. D. CHERNIN, Alexander A. Friedmann.
J unto a las disciplinas fisicoquímicas, la otra gran. ram~
de las ciencias de la na~~raleza
está constituida por el conjunto de las disciplinas bIOlógIcas. Tan aparentement.e ~spares
The Man Who Made the Univers Expand, Cambridge University Press, Cambridge, 1983; el debate entre sí como la sistemática, la biología molecular o la ecología, encuent:~ la umda en su
entre el Universo en expansión y la teoría del estado estacionario puede verse en Helge KRAGH, Cos-
objeto de estudio, la vida, y la justificación de su diversidad en las múltIple~ ~~~er~ ~n
mology and Controversy. The Hlstorical Development ofTwo Theories of the Universe, Princeton Uni-
que esta se manifiesta. Su desarrollo en el siglo XX se centra aquí en la ~~~ilIaclo~ el a
versity Press, Princeton (Nueva Jersey), 1996. Los desarrollos más recientes se exponen ya en las bas-
teoría evolucionista con la genética clásica y en la formula~ión de una genetIca mo ec~ ~r
tante numerosas obras de divulgación que existen sobre el tema, de entre los cuales cabe citar algunas
traducciones al castellano. El libro de Stephen WEINBERG, Los tres primeros minutos del Universo. des-ialada de la bioquímica como una disciplina independlente_ Se trata de una selecclO~
Una concepción moderna del origen del Universo, Alianza, Madrid, 1982 (ed. orig. 1977), se ha con- ortodox-a érÍ el sentido de que, desde la perspectiva hi~tóri~a actual, e,stos son los aconteCI-
vertido en un clásico; la búsqueda de la materia oscura se discute en Lawrence M. KRAuss, La quinta mientos que se consideran con carácter más revoluclOnano; por mas que otro~ campos,
esencia. La búsqueda de la materia oscura del Universo, Alianza, Madrid, 1992 (ed. orig. 1989); John como la fisiología, hayan experimentado muy notables avances, o se hayan esta.ble.C1do,_ como
GRIBBIN, En busca del big-bang, Pirámide, Madrid, 1988 (ed. orig. 1986) cubre a nivel de divulgación en el caso de la etología y de la ecología, nuevos ámbitos de ind~gación_ Se inVita, Sin em-
el desarrollo de la cosmología del siglo xx; la cosmología cuántica también se expone en James S. bargo, al lector a no perder de vista el ~a~co mucho más amplIo en el que se efectuaron
TREFIL, El momento de la creación. Del Big Bang hasta el Universo actual, Salvat, Barcelona, 1986 (ed. los progresos que se comentan en estas pagInas_
orig. 1983); asimismo, Stephen W. HAWKING, Historia del tiempo. Del Big Bang a los agujeros negros,
Alianza, Madrid, 1990 (ed. orig. 1988), se ocupa de algunas de estas cuestiones. Si bien solo constitu-
yen opciones entre otras posibles; tratándose de obras de este tipo, y dados los rápidos cambios en las
últimas décadas, el lector debería atender a la fecha de su redacción. EL ECLIPSE DEL DARWINISMO

Fuentes En las dos décadas que siguieron a la publicación del Origin, la teor~~ de. Darwin
anó una notable aceptación. Pero se trató de una aceptación de la ~voluclOn, Idea que
Como en el caso anterior, las fuentes son lo suficientemente recientes como para que muchas de
tarwin contribuyó en gran medida a difundir, más bien que del mecams~o concreto de la
ellas se puedan encontrar accesibles en las bibliotecas. Una interesante recopilación es la de Abdus 1 ., t ral Dado que Darwin elaboró una teoría relativamente fleXIble, presentando
se eCClOn na u . - - -.-- d 1 t "' de las es
SALAM, Werner HEISENBERG y Paul DlRAe, compilada por J. EvANS Y G. WAITS, Uniflcation of Fun- a la selección como el mecanismo principal, pero no único, e a trans ormaClOn " -
damental Forces, Cambridge University Press, Cambridge, 1990 (trad. al castellano: La unificación de -:--quedaban del todo excluidas otras posibilidades. Pero tras la formulaclOn ~eJa
las fuerzas fundamentales, Gedisa, Barcelona, 1991). Algunos clásicos han sido traducidos al castella- ~e:~~':e~ germoplasma de Weismann en 1886, q~~ ~amado _«neO~l!rwm_Is-
dio ori.gen al
no, como la recopilación de A. EINSTEIN, El signzficado de la relatividad, Planeta, Barcelona, 1985, 1 '
mo» a teona se o d gmatI'zo' . Excluía ahora la posibilIdad de influenCIasd ambIentales,
I ' 1y esto
que recoge dos traducciones anteriores de Sobre la teoría especial y la teoria general de la relatividad, prov~có que las posiciones se polarizasen. Los problemas sin resolver e a te?n~, p .a~te~­
Alianza, Madrid, 1973, y El significado de la relativIdad, Espasa-Calpe, Madrid, 1948, 1952 y 1971; o
dos a desde su aparición, volvieron a un primer plano, y en ~~n:o al cambIO e SIg o.-N
la obra divulgativa de George GAMOW, La creación del Unzverso, RBA, Barcelona, 1993. Se encontra-
rá una selección de artículos sobre cosmología en Jeremy BERNSTEIN y Gerald FEINBERG (eds.), Cos-
evol~ción 'pQr s~lec~ión..E.a.ttl~~1
sufrió lo que ]ulian Huxley.calIflco en 19~O ~e ~~ .«ec~p~
mological Comtants: Papers in Modern Cosmology, Columbia University Press, 1986. se» al verse enfrentada a otras alternativas. Por entonces la Idea de .un deslgmo ,IV~O ,~ ¡I
bía'sido prácticamente abandonada, pues de aceptarse no sería poslbl.e una teona C1~ntIfI­ "
;1
i/¡
ca de la evolución. Pero existían otras opciones, cada una con sus matices; ellam~~klsmo~
1-- --------------_._---
1117
i[
h
il
r:

You might also like