LA FÍSICA DEL SIGLO XXI - rac.es · será la física del siglo XXI lo que vamos a hacer es...

13
Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp) Vol. 99, Nº. 1, pp 87-99, 2005 V Programa de Promoción de la Cultura Científica y Tecnológica LA FÍSICA DEL SIGLO XXI F. J. YNDURÁIN MUÑOZ * * Departamento de Física Teórica, C-XI, Universidad Autónoma de Madrid, Canto Blanco, E-28049, Madrid. E-mail: [email protected]. "Y Pasjur, sacerdote, hijo de Inmer, que era inspector jefe de la casa de Yavé, oyó a Jeremías vaticinando estas cosas e hizo azotar a Jeremías, profeta, y ponerle en el cepo que hay en la puerta superior de Benjamín, junto a la casa de Yavé." JEREMÍAS, 20 : 1-2 INTRODUCCIÓN No es el de profeta o adivino un oficio tranquilo. A los peligros que acecharon a los de la antigüedad (baste recordar cuántos murieron lapidados, quemados o, como Laocoonte y sus hijos, presa de serpientes; por no hablar de la Sibila de Cumas, convertida en grillo), se une uno indudablemente menos violento, pero más seguro, que es el de la confrontación de las predic- ciones con la realidad. Existen ejemplos en la historia de la física de grandes científicos que han errado ampliamente en sus predicciones e incluso en sus esti- maciones de la ciencia conocida: Lord Kelvin, que cuestionó la naturaleza corpuscular de la electricidad o los hallazgos de la geología es uno entre muchos; las meteduras de pata del gran Rutherford, que calificó a la relatividad de fantasía sólo apropiada para alemanes o negó la posibilidad de desarrollar la energía nuclear son famosas entre los científicos. Aunque, como se ha dicho, no es fácil predecir, lo que es relativamente más sencillo es extrapolar. En este sentido, más que predicciones acerca de cómo será la física del siglo XXI lo que vamos a hacer es referirnos a los problemas de la física actual: el título de este texto sería, por tanto, de forma más apropiada el de Fronteras de la física. Por ello, vamos a comenzar con una discusión de lo que sabemos en física en la actualidad, es decir, de la física del último siglo. Lo que no es poco: puede decirse que el siglo XX ha estado, desde el punto de vista científico, e incluso desde el punto de vista sociológico, dominado por la física. Después discutiremos algunos de los puntos oscuros de este conocimiento, y ciertas prolongaciones naturales del mismo. Por supuesto, sin pretender com- pletitud: el área de conocimientos físicos es muy vasta y nadie (ciertamente no yo) puede pretender enciclope- dismo en este campo. Este será nuestro modesto ejer- cicio de profecía. Por ordenar un poco la discusión vamos a separar la física básica de la aplicada; y dentro de la primera, a la que voy a dedicar más espacio por ser en la que me considero más competente, la cuestión de la estructura última de la materia del problema del origen del uni- verso. Digamos, la física del microcosmos y la del macrocosmos. 1. LAS PARTÍCULAS E INTERACCIONES ELEMENTALES Uno de los descubrimientos más impactantes del siglo XX es que, aparentemente, toda la materia está hecha de tres tipos de partículas elementales: elec- trones, neutrinos y quarks. Este descubrimiento podemos acotarlo en le tiempo entre 1897, año en que J. J. Thomson desubrió el electrón, y 1995, cuando se descubrió el último quark (conocido como quark t) en el laboratorio Fermilab, cerca de Chicago. Pero, además, a mediados de los años setenta del mismo

Transcript of LA FÍSICA DEL SIGLO XXI - rac.es · será la física del siglo XXI lo que vamos a hacer es...

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp)Vol. 99, Nº. 1, pp 87-99, 2005V Programa de Promoción de la Cultura Científica y Tecnológica

LA FÍSICA DEL SIGLO XXI

F. J. YNDURÁIN MUÑOZ *

* Departamento de Física Teórica, C-XI, Universidad Autónoma de Madrid, Canto Blanco, E-28049, Madrid.E-mail: [email protected].

"Y Pasjur, sacerdote, hijo de Inmer, que era inspector jefe de la casa deYavé, oyó a Jeremías vaticinando estas cosas e hizo azotar a Jeremías,profeta, y ponerle en el cepo que hay en la puerta superior de Benjamín,junto a la casa de Yavé."

JEREMÍAS, 20 : 1-2

INTRODUCCIÓN

No es el de profeta o adivino un oficio tranquilo. Alos peligros que acecharon a los de la antigüedad(baste recordar cuántos murieron lapidados, quemadoso, como Laocoonte y sus hijos, presa de serpientes; porno hablar de la Sibila de Cumas, convertida en grillo),se une uno indudablemente menos violento, pero másseguro, que es el de la confrontación de las predic-ciones con la realidad. Existen ejemplos en la historiade la física de grandes científicos que han erradoampliamente en sus predicciones e incluso en sus esti-maciones de la ciencia conocida: Lord Kelvin, quecuestionó la naturaleza corpuscular de la electricidad olos hallazgos de la geología es uno entre muchos; lasmeteduras de pata del gran Rutherford, que calificó ala relatividad de fantasía sólo apropiada para alemaneso negó la posibilidad de desarrollar la energía nuclearson famosas entre los científicos.

Aunque, como se ha dicho, no es fácil predecir, loque es relativamente más sencillo es extrapolar. Eneste sentido, más que predicciones acerca de cómoserá la física del siglo XXI lo que vamos a hacer esreferirnos a los problemas de la física actual: el títulode este texto sería, por tanto, de forma más apropiadael de Fronteras de la física. Por ello, vamos a comenzar

con una discusión de lo que sabemos en física en laactualidad, es decir, de la física del último siglo. Loque no es poco: puede decirse que el siglo XX haestado, desde el punto de vista científico, e inclusodesde el punto de vista sociológico, dominado por lafísica. Después discutiremos algunos de los puntososcuros de este conocimiento, y ciertas prolongacionesnaturales del mismo. Por supuesto, sin pretender com-pletitud: el área de conocimientos físicos es muy vastay nadie (ciertamente no yo) puede pretender enciclope-dismo en este campo. Este será nuestro modesto ejer-cicio de profecía.

Por ordenar un poco la discusión vamos a separar lafísica básica de la aplicada; y dentro de la primera, a laque voy a dedicar más espacio por ser en la que meconsidero más competente, la cuestión de la estructuraúltima de la materia del problema del origen del uni-verso. Digamos, la física del microcosmos y la delmacrocosmos.

1. LAS PARTÍCULAS E INTERACCIONESELEMENTALES

Uno de los descubrimientos más impactantes delsiglo XX es que, aparentemente, toda la materia estáhecha de tres tipos de partículas elementales: elec-trones, neutrinos y quarks. Este descubrimientopodemos acotarlo en le tiempo entre 1897, año en queJ. J. Thomson desubrió el electrón, y 1995, cuando sedescubrió el último quark (conocido como quark t) enel laboratorio Fermilab, cerca de Chicago. Pero,además, a mediados de los años setenta del mismo

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99F. J. Ynduráin Muñoz88

siglo se completó la descripción de las tres interac-ciones básicas, conocidas como electromagnética,fuerte y débil en términos de las cuales se puedencomprender todos los procesos que se dan en el micro-cosmos. El consiguiente modelo, conocido comomodelo estándar, ha sido validado por innumerablesexperimentos y nos permite predecir con precisión aveces fantástica los fenómenos que observamos en eluniverso atómico y subatómico.

No es este el lugar de presentar una descripcióndetallada de la teoría de las interacciones básicas de lanaturaleza. Simplemente quiero recordar que el mode-lo estándar describe toda la naturaleza microscópica (ypor ende, al menos en principio, toda la naturaleza) entérminos de las masas de tres tipos de neutrinos, trestipos de electrones y seis tipos de quarks; y las intensi-dades de las interacciones que actúan entre estas partí-culas. Tenemos la intensidad de la interacción electro-magnética, que podemos identificar con la carga delelectrón, la intensidad de la interacción débil y la de lainteracción fuerte; esta última nos mide la intensidadde la interacción entre gluones y quarks.

La lista de estas partículas elementales, que formanlos ladrillos con los que, al parecer, todo el cosmosestá construido, la presentamos en el cuadro adjunto.Prácticamente toda la materia que se encuentra anuestro alrededor está constituida por partículas de laprimera familia (mas los fotones y gluones, quanta delas interacciones electromagnéticas,y fuertes, respecti-vamente).

Aunque conocemos con enorme precisión las inter-acciones y propiedades de las partículas de la segunday tercera familias, nadie sabe el papel que juegan estaspartículas. Prácticamente todo el universo está com-puesto solo por partículas de la primera familia; lasotras sólo se encuentran en raros rayos cósmicos oproducidas artificialmente en los grandes acelera-dores.

Aparte de las masas de las partículas del cuadroque hemos presentado, y la intensidad de las tres inter-acciones operativas en el microcosmos, hay otrosparámetros que nos describen el modelo estándar.Tenemos la masa de las partículas W y Z, intermedia-doras de la interacción débil, y la masa de la (todavíahipotética) partícula de Higgs, que se supone es laresponsable de las masas de las demás partículas y dela que hablaremos con algo más de detalle a continua-ción. Existen además otros parámetros (lo que seconoce como ángulos de mezcla y dos fases) que nodiscutiremos en absoluto.

1.1. El problema de las masas de las partículasW, Z y el mecanismo de Higgs

Para explicar el problema del mecanismo de Higgstenemos que discutir con un cierto detalle las teoríasde las interacciones débiles. Ya en 1961 SheldonGlashow había formulado una teoría, esencialmenteidéntica a la que ha sido comprobada experimental-mente de forma aplastante a partir de 1973, suponien-do que las interacciones débiles son mediadas porpartículas W y Z. Para estar de acuerdo con los resulta-dos experimentales, Glashow reconoció que estaspartículas tenían que tener unas enormes masas, doce-nas de veces mayores que el protón (como hoy sabe-mos, la W unas noventa veces y la Z casi cien).

Esto era un desastre; debido a que las partículas W,Z tienen autointeracciones, la teoría sólo puede serconsistente si su masa es cero. Higgs, entre otros,encontró una via para solucionar el problema.Consiste en imaginar que el vacío esta lleno de uncampo, que en su honor se conoce hoy como campo deHiggs. En su modelo no todas las partículas interac-cionan con ese campo; las que lo hacen adquieren algoindistinguible de la masa ya que, al moverse en elvacío ocupado por el campo de Higgs, tienen quearrastrarlo.

Todas las partículas elementales, agrupadas en "familias". Juntoa cada partícula mostramos su carga eléctrica (Q), en unidades dela del protón, que denotamos por |e| . A las partículas µ y τ se lasconoce también como "electrones pesados."

Weinberg e, independientemente, Salam y Ward, sedieron cuenta de que se podía salvar el modelo deGlashow suponiendo que las partículas W y Z notienen masa por sí, sino sólo como reflejo de su inter-acción con el vacío de Higgs. De hecho, hay quesuponer que las masas de todas las partículas queconocemos tienen este extraño origen.

Este vacío, lleno del campo de Higgs, es muy incó-modo. En primer lugar, la partícula correspondiente esla única que no ha sido encontrada experimentalmente.Es cierto que existen indicaciones indirectas sobre suposible existencia en las medidas de precisión realiza-das, especialmente en los aceleradores LEP y LEP200,en el CERN (Centro europeo de física de partículas,cerca de Ginebra), particularmente debido a la influen-cia de la partícula de Higgs sobre propiedades de laspartículas W y Z; pero no hay nada definitivo. Lo peor,sin embargo, es el parecido del campo de Higgs con eléter, y el presentar problemas casi tan formidables

como aquel. Por ejemplo, la existencia del campo deHiggs tiene importantes consecuencias en conexióncon las interacciones gravitatorias, a las que el campode Higgs no puede sustraerse. En particular, la presen-cia de un campo llenando el "vacío" implica que todoel universo debería colapsar inmediatamente. La únicasolución para evitar este colapso es introducir unaconstante cosmológica ad hoc que cancele exacta-mente, con más de cincuenta cifras decimales de pre-cisión, el efecto del campo de Higgs: una solución difí-cilmente creible.

En el otoño de 2000, llegaron noticias de que unode los cuatro grupos que trabajan en el aceleradorLEP200, en el laboratorio CERN conocido con elnombre de Aleph, había encontrado señales de la exis-tencia de la partícula de Higgs con una masa de unas123 veces la del protón: compatible con la deducida demedidas de precisión a través de correcciones radiati-vas que mencionamos con anterioridad. Y esta señal hasido parcialmente corroborada por indicaciones, algomenos claras, que aparecen en otros de los detectoresde LEP, en particular L3 y Opal. En la figura 1mostramos la reconstrucción de una señal con cuatrochorros de partículas encontrada en el detector Aleph,tal vez la más convincente de todas.

Sin embargo, la evidencia no es concluyente; cua-tro o cinco señales, obtenidas al límite de la energíadisponible, bien pueden ser debidas a ruido de fondo.Indudablemente, la confirmación (o no) de la existen-cia de la partícula de Higgs será uno de los platosfuertes de la física de partículas en los próximos años.Como lo será la investigación de sus propiedades:¿existe realmente el campo de Higgs como campo fun-damental? Nótese que no me estoy refiriendo aquí a siexiste o no una partícula con las propiedades similaresa las que predice el modelo de Weinberg-Salam; podríaexistir, pero no ser una entidad fundamental. ¿Es laintroducción del campo de Higgs únicamente unartilugio que esconde nuestra ignorancia acerca de unateoría más básica? Sin duda esta última será una de lascuestiones más ardorosamente investigadas en loscomienzos del siglo XXI.

1.2. Las masas de los neutrinos

La cuestión de la masa de los neutrinos está ligada,en sus inicios, con los experimentos que han intentado

F. J. Ynduráin Muñoz Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99 89

Figura 1. La señal de cuatro chorros de partículas, observadaen el verano de 2000 en el detector Aleph, en LEP, puede inter-pretarse como producción de Z y Higgs, y posterior desinte-gración de estos.

detectar los neutrinos que, en grandes cantidades, elsol produce en las reacciones nucleares que ocurren ensu interior. El intento de estudiar estos neutrinos, cono-cidos como "neutrinos solares", empezó desde 1964,cuando se realizó la propuesta formal de construir undetector con casi medio millón de kilos de un com-puesto de cloro (percloretileno), que sería capaz deregistrar las señales de los neutrinos solares. Despuésde varias peripecias, y con la ayuda del LaboratorioNacional de Brookhaven, en Estados Unidos, unpequeño equipo formado por Raymond Davis, DonHarmer y John Galvin diseñó y construyó el experi-mento en la mina de oro Homestead, en Dakota delSur, en 1965. La razón de utilizar una mina (como enel experimento de Davis) o el interior de un túnel,como en otros experimentos, es que en tales lugares seestá blindado contra los rayos cósmicos que, de lo con-trario, producirían un gran ruido de fondo, imposibili-tando la detección de algo tan sutil como las interac-ciones de los neutrinos.

Se rellenó el depósito con el medio millón de litrosde percloretileno (ver la figura 2); cada varios meses seciclaba el material por detectores de radiactividad,esperándose detectar algún átomo de argon radiactivo,y por tanto el rastro de la interacción de algún neutrino,una o dos veces al año.

Pero durante mucho tiempo el experimento, cono-cido como experimento de Davis (que era quien lo li-deraba), funcionó sin éxito aparente. Las señales de

neutrinos tardaron en llegar y, cuando llegaron (a partirde 1968), resultaron mucho menos frecuentes de loque se esperaba: al menos un factor dos, tal vez un fac-tor tres. Sin embargo, el detector de Davis era tan difí-cil de controlar que la comunidad científica no prestódemasiada atención al hecho y durante casi veinte añosDavis prosiguió, prácticamente ignorado, sus experi-mentos, a cuyos resultados la comunidad se referíaocasionalmente como el problema de los neutrinossolares.

Sin embargo, a finales de la década de los ochenta,y a lo largo de los noventa, y ayudados los investi-gadores por la experiencia adquirida en los intentos dedetectar la desintegración del protón (algo de lo quehablaremos más adelante), se han llevado a cabo otrosexperimentos utilizando materiales distintos del deDavis, y con sensitividad a neutrinos producidos enreacciones solares distintas de las consideradas por él.Los resultados de todos estos experimentos confir-maron los hallazgos de Davis.

También se obtuvo información sobre la "desapari-ción" de los neutrinos en los experimentos dedicados adetectar neutrinos producidos en la atmósfera porrayos cósmicos, en especial el de Kamiokande, situadoen una mina en las montañas del Japón. Estos experi-mentos (dirigidos por Masatoshi Koshiba y YojiTotsika), estuvieron entre los que observaron los neu-trinos producidos por la supernova de 1987 y despuésse dedicaron a la observación de neutrinos producidospor rayos cósmicos.

A partir de 1996, el detector de Kamioka se reem-plazó por uno mucho más grande, conocido comoSuperkamiokande, en que la posibilidad de detectarneutrinos de origen extraterrestre se tuvo en cuentadesde el principio. En la actualidad se planean tambiéndetectores de neutrinos procedentes de rayos cósmicosultraenergéticos en lugares tan exóticos como el polosur (conocido como AMANDA), las profundidades delMediterráneo (con los nombres clave de ANTARES,NESTOR) e incluso en el espacio.

Aunque los experimentos son muy difíciles, ya quedespués de grandes esfuerzos sólamente se recogenunos pocos sucesos en varios años, la conclusiónparece confirmarse: se detectan algo menos de la mitadde los neutrinos que el sol emite. Y además, los experi-

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99F. J. Ynduráin Muñoz90

Figura 2. Davis y Bahcall, con el recipiente utilizado en el ex-perimento de Davis.

mentos con rayos cósmicos (tal los de Kamioka) pare-cen indicar que también el número de interacciones deneutrinos procedentes de esta fuente decrece, cuandolos neutrinos tienen que viajar un largo recorrido antesde llegar al detector.

Esto lo podemos saber porque en los más modernosexperimentos (en particular en los realizados enKamioka) es posible inferir la dirección desde la quellegan los neutrinos. Es por tanto posible diferenciarentre los neutrinos producidos en la atmósfera porrayos cósmicos directamente encima del detector, yaquellos neutrinos que llegan después de atravesar latierra, habiendo sido producidos en los antípodas. Elsorprendente resultado que se encuentra es que elnúmero de neutrinos procedentes de los antípodas quese detectan es bastante inferior a los neutrinos detecta-dos procedentes de encima del detector: aparentemen-te, desde los antípodas al detector desaparece casi lamitad de los neutrinos.

No podemos, con seguridad, dar una razón paraestos curiosos comportamientos de los neutrinos.Cuando viajan una pequeña distancia entre la fuenteque los produce y el detector, como es el caso con losgenerados en reactores nucleares, en la atmósferainmediatamente encima del detector, o en aceleradoresde partículas, sus señales son exactamente lo que seespera teóricamente. Pero cuando media una gran dis-tancia entre fuente y detector parece que los neutrinosse perdiesen por el camino.

Se han propuesto docenas de explicaciones paraeste fenómeno. La más sencilla, sugerida ya en 1968por Vladimir Gribov y Bruno Pontecorvo, es suponerque los neutrinos tienen una muy pequeña masa (talvez generada por el mecanismo de Higgs), con lo cualpodrían desintegrarse, o tal vez oscilar, entre los tresposibles tipos de neutrino. Así, el neutrino electrónico(que es el que producen las reacciones solares) podríadesintegrarse, o transmutarse, en neutrinos tipo mu otau, que los aparatos utilizados por Davis y los demásexperimentos no son capaces de detectar.

Esto es un problema abierto; no cabe duda de que,dada la lentitud que, por su propia naturaleza, tiene eldesarrollo de los experimentos, esta cuestión será unade las que tendrán ocupados tanto a teóricos comoexperimentadores durante mucho tiempo.

1.3. Gran unificación; desintegración de lamateria

No cabe duda de que el progreso en la comprensiónde la estructura de la materia que ha representado elmodelo estándar es enorme. Los fenómenos que afinales del siglo XIX constituían importantes puntososcuros, tales como desintegraciones radiactivas o losmecanismos de producción de energía por las estrellas,han sido explicados; como lo ha sido la estructura delnúcleo atómico descubierto a principios del siglo XX.De los casi cien elementos químicos de la tabla deMendeleyev hemos pasado a cuatro: los quarks de tipou, d, el electrón y el neutrino electrónico. Podemosdecir que, a partir de 1971-1973, años en que se pro-pusieron las teorías correctas de interacciones débilesy fuertes, y culminando en 1982, en que se des-cubrieron (con todas las propiedades predichas por lateoría) las partículas intermediadoras de la interaccióndébil, las W y Z, tenemos una descripción sencilla ycoherente de la materia.

Sin embargo, casi desde el principio, desde ya1974, comenzaron los intentos por ir más allá del mo-delo estándar. Intentos que, hasta hoy, se han saldadocon un fracaso: a pesar de lo cual vamos a discutirbrevemente uno de los más interesantes. Aun sin éxitopor el momento, podrá tal vez integrarse en la física departículas en el siglo XXI.

Este intento de ir más allá del modelo estándar loconstituyen las llamadas "teorías de gran unificación".Teorías que vienen sugeridas por un hecho indudable:tanto las partículas como las interacciones que compo-nen el modelo estándar presentan unas notables simili-tudes. Electrones, neutrinos y quarks son todos ellosfermiones, esto es, obedecen la estadística de Fermi-Dirac y el principio de exclusión de Pauli. Tambiéntienen el mismo valor para el número cuántico deespín, 1/2 (en unidades de la constante de Planck, ).

Con respecto a las interacciones, las similitudes sontambién claras. Las interacciones electromagnéticas,débiles y fuertes son las tres de tipo gauge, y estánmediadas por partículas (fotones, W y gluones) queson todas ellas bosones y tienen el mismo valor delespín, 1. Finalmente, resulta que las interacciones elec-tromagnéticas y débiles están, en el modelo deGlashow-Weinberg, parcialmente unificadas. Parece,

h

F. J. Ynduráin Muñoz Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99 91

pues, natural intentar completar esta unificación, eintentar extenderla para incluir también las interac-ciones fuertes.

En efecto, esto es (teóricamente) posible. Y así, amediados de los años setenta Pati y Salam y, especial-mente, Georgi y Glashow, construyeron modelos enlos que las tres fuerzas (débiles, electromagnéticas yfuertes) se unificaban en una única interacción; y lascuatro partículas (quarks u, d, electrón y neutrino elec-trónico) resultaban ser diferentes estados de una únicapartícula elemental.

Las teorías de gran unificación propuestas porGeorgi y Glashow tenían importantes consecuencias.En primer lugar, explicaban por qué todas las cargasson múltiplos enteros de la del quark d, que a su vez es1/3 de la del electrón. En segundo lugar, eliminabanalgunos de los problemas de autoconsistencia de laelectrodinámica cuántica. En tercer lugar, la intensidadrelativa de las fuerzas resultaba una predicción de lateoría, predicción que estaba de acuerdo con los resul-tados experimentales, dentro de la precisión alcanzableen los años setenta-ochenta.

Finalmente, la gran unificación implicaba que elprotón (o, en general, toda la materia) tenía que serinestable, siendo su tiempo de desintegración de unpoco más de 1029 años. Esta última predicción llevabaa impactantes consecuencias cosmológicas, ya queofrecía una posible explicación de la aparición de lamateria en el big bang, a partir de energía pura, por elproceso inverso al de desintegración, algo sobre lo quevolveremos más adelante. Y lo que es más importante,las teorías de gran unificación ofrecían resultadoscuantitativos sobre ritmos de desintegración del pro-tón, los que, además, resultaban estar al alcance de latecnología experimental de la época. Y, de hecho, va-rios grupos experimentales en la India, Japón, EstadosUnidos y Europa habían comenzaron al final de losaños setenta una frenética carrera por detectar la posi-ble inestabilidad de la materia.

Pero, desgraciadamente, los experimentos realiza-dos en varios laboratorios del mundo para intentarencontrar la desintegración del protón (sin duda lapredicción más importante de estas teorías de granunificación) no dieron fruto, llegándose a establecer enla actualidad la vida media del protón como superior a

1033 años, decididamente incompatible con los mode-los de gran unificación.

Nos quedan, sin embargo, una serie de preguntasabiertas. ¿Es posible reformular las teorías de granunificación guardando sus importantes atractivos, perohaciéndolas compatibles con la vida media del protón?¿Existen otros procesos (además de los debidos a granunificación) que impliquen desintegración de la mate-ria? Sólo el futuro podrá respondes a estas cuestiones,sobre las que volveremos brevemente más adelante.

1.4. Gravitación, clásica y cuántica. Cuerdas

La gravitación es la única de las cuatro interac-ciones que operan en la naturaleza que no ha sido aúnposible comprender a nivel microscópico. Una de lasrazones, indudablemente, es la de que no tenemos evi-dencia experimental en la que basarnos: las interac-ciones gravitatorias son tan extraordinariamentedébiles que sólo la enorme cantidad de masa que hayen un cuerpo como la tierra permite que sus efectossean observables; pero la interacción gravitatoria entreun electrón y un protón (por poner un ejemplo) en unátomo de hidrógeno es 1054 veces más débil que laelectromagnética.

Es posible intentar atacar el problema en otra direc-ción, y trabajar con la teoría clásica (aquí la palabraclásica se utiliza en el sentido de no-cuántica) de lagravedad de Einstein, y realizar en ella cambios análo-gos a los que llevan de la teoría clásica de Maxwell delelectromagnetismo a la electrodinámica cuántica; peroesta vía presenta varios problemas. En primer lugar, noestá claro el papel de la teoría de la gravitación univer-sal de Einstein, ni siquiera a nivel clásico, y su cuanti-zación choca con dificultades notables. Pero, antes dediscutirlas, comenzaremos por considerar la teoría dela gravitación a nivel no-cuántico.

Diez años después de la formulación de la teoría dela relatividad especial por Lorentz, Poincaré y, sobretodo, Einstein, Hilbert y el propio Einstein obtuvieronlas ecuaciones generales que gobiernan, en una teoríarelativista, la interacción gravitatoria. Como se harepetido muchas veces, la virtud principal de la formu-lación einsteniana de la gravitación es que reduce éstaa geometría: en efecto, la misma cantidad que propor-

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99F. J. Ynduráin Muñoz92

ciona la métrica del espacio representa también alcampo gravitatorio.

De hecho, la formulación de la teoría de la gravi-tación de Einstein es la más general posible, sisuponemos que el campo gravitatorio es único y que lateoría es predictiva. Pero si aceptamos la existencia deotros campos acompañando al gravitatorio ordinario(como ocurre por ejemplo en las teorías de cuerdas, delas que diremos algo después), entonces podemosañadir términos suplementarios, que modificarán laspredicciones de la teoría de Einstein de la gravedad.Sin embargo, estas modificaciones son difícilmenteobservables. Por ejemplo, si consideramos el efectomás ajustado que se sigue de la teoría de Einstein, laprecesión del periastro de un cuerpo sujeto a la interac-ción gravitatoria, tenemos un desplazamiento, a primerorden en la constante de gravitación universal k, de

Aquí rSchwar. 2Mk/c2 es el llamado radio deSchwartzschild del objeto,1 de masa M, que crea elcampo gravitatorio; a es el semieje mayor, y laexcentricidad de la órbita del cuerpo cuyo movimientoestudiamos. En el caso del planeta Mercurio, y com-parando con el resultado observacional, tenemos, ensegundos de arco por siglo,

La coincidencia entre teoría y observación no selimita al movimiento del planeta Mercurio. También seda en otros objetos celestes en los que se ha medido:Venus, el asteroide Ícaro, la propia tierra e incluso unobjeto alejado miles de años luz, el púlsar PSR1913+16, en el que la precisión en δφ es todavía mejorque en el caso de Mercurio.

El acuerdo es indudablemente espectacular; peronos dice poco sobre posibles correcciones, cuya influ-encia, a distancias grandes comparadas con el radio deSchwartzschild, son despreciables. Para detectar posi-bles términos suplementarios al lagrangiano de

Hilbert-Einstein necesitaríamos hacer observaciones adistancias comparables con el radio de Schwartzschilddel objeto cuya influencia gravitatoria estamos estu-diando: es decir, tendríamos que observar lo queocurre en la vecindad de un agujero negro. Y tampocoestá claro qué ocurre a muy grandes distancias, algoque discutiremos más adelante.2

Con respecto a lo que ocurre si intentamos cuanti-zar la teoría gravitatoria, la situación es aún másobscura. Las observaciones clásicas todavía nos per-miten verificar la aproximación de primer ordendeducida del lagrangiano de Hilbert-Einstein. Pero losefectos cuánticos, incluso de la teoría a primer orden,son completamente inobservables, y probablemente loseguirán siendo durante muchos años. A las energíasactualmente alcanzables son de menos de una milési-ma de billonésima de los efectos de las otras interac-ciones y, por tanto, indetectables.

Podemos decidir no hacer caso de la falta de infor-mación experimental, e intentar cuantizar directamentela teoría clásica, simplemente reinterpretando las va-riables como operadores. Si hacemos esto nos encon-tramos con lo que se llama una teoría no-renormaliza-ble: al hacer cálculos de orden superior al primeroencontramos infinitos, los que no podemos reabsorberen la definición de los parámetros de la teoría. Portodos estos motivos muchos físicos piensan que ellagrangiano de Hilbert-Einstein representa sólo unateoría efectiva, a ser utilizada únicamente a primerorden. Las claves de una teoría más fundamental serándifíciles de encontrar mientras no tengamos resultadosexperimentales sensibles a órdenes superiores (y aefectos cuánticos, lo que es de momento inimagina-ble).

Pero la situación no es, tal vez, tan desesperada. Enlas teorías de supergravedad, que no discutiremos, losinfinitos que ocurrirían en segundo orden de aproxi-mación desaparecen, lo que resulta un indudableavance; y en las teorías de cuerdas, que consideramosa continuación, los infinitos desaparecen, tal vez atodos los órdenes.

43.03" (teoría)42.11" 0.45" (observado).

δφ ⎧= ⎨ ±⎩

=

F. J. Ynduráin Muñoz Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99 93

1 El radio de Schwartzschild de un objeto es el radio tal que, si comprimiésemos el objeto en el interior de dicho radio, se convertiría en unagujero negro.2 Lo que no discutiremos son las indicaciones astronómicas, cada vez más fundamentadas, de la existencia de lo que se conoce como una“constante cosmológica,” que implica una modificación de las ecuaciones de Einstein.

En 1984 John Schwartz en CalTech y MichaelGreen, en el Queen Mary College de Londres, publi-caron unos trabajos resucitando las teorías de cuerdas,que se habían ya postulado quince años antes paraexplicar la dinámica de hadrones. En la nueva versiónla dimensión de estas cuerdas no es ya el tamaño de loshadrones, digamos una billonésima de milímetro, sinomuchísimo menor, de 10-32 centímetros. Esta es la lla-mada "longitud de Planck," y es la distancia a la cuallos efectos cuánticos de la gravedad compiten con losde las interacciones, débiles, electromagnéticas yfuertes, del modelo estándar. Schwartz y Green pro-pusieron interpretar las partículas elementales queconocemos como vibraciones de estas cuerdas. Esdecir: el fotón y el electrón, los quarks, las partículasW y Z, etcétera, deben considerarse como los quantade estas vibraciones.

Para que las teorías de cuerdas más sencillas seanconsistentes es necesario suponer que el universo tienediez dimensiones. El problema que plantean lasdimensiones extra, que nadie por supuesto ha observa-do, se resuelve (?) suponiendo que están confinadas enuna región muy pequeña, del orden del tamaño de lascuerdas.3 Podemos pues imaginar el universo como untubo muy largo, pero muy estrecho. Unos seres fili-formes que vivieran en este tubo (es decir, nosotros)serían conscientes de una dimensión, a lo largo deltubo, pero no de las otras dos, ya que no podrían ape-nas moverse a lo ancho.

Estas dimensiones extra son esenciales para lasteorías de cuerdas; en efecto, aunque plantean proble-mas, exhiben indudables virtudes. En primer lugar,podemos identificarlas con las propiedades internas(isospín débil, color, carga eléctrica) de las distintasinteracciones. En segundo lugar, proporcionan unmecanismo regulador de los infinitos que aparecen enel modelo estándar cundo se hacen cálculos a órdenesde aproximación superiores al primero: la teoría decuerdas produce resultados finitos, sin necesidad derenormalización. Finalmente, el reflejo a escala mi-croscópica de la existencia de estas longitudes elemen-tales, las de las dimensiones extra y la del tamaño de

las cuerdas, es la interacción gravitatoria que así (porfin) aparece integrada con las demás.

Una propiedad extra de las teorías de cuerdas esque, para poder acomodar todas las partículas queconocemos, necesitan ser supersimétricas,4 por lo queen la actualidad a estas teorías se las conoce tambiéncomo supercuerdas. A principios de los años ochenta,cuando la supersimetría era más popular e inclusoparecía haber evidencia experimental de su existencia,esta característica era un punto más a favor de loscuerdistas.

Todos estos motivos espolearon a una buena partede la comunidad teórica de físicos de altas energías aexplorar en detalle las teorías de cuerdas, exploraciónque no ha concluido, ni lleva visos de concluir. Pero elproblema con estas teorías es que la plétora de dimen-siones extra que predicen son tan extraordinariamentepequeñas que son inobservables. No sólo con losmétodos de detección que poseemos hoy, sino concualquiera de los que podamos imaginar: haría faltaconstruir un acelerador que llegase a la energía dePlanck, diez millones de billones de GeV, o ir a lasproximidades de un agujero negro. Y por otra partepredicen la existencia de muchas nuevas partículas,entre ellas de los compañeros supersimétricos, todasellas inobservadas.

Estos no son los únicos problemas de las teorías decuerdas. Además de lo dicho, resulta que las teorías noson únicas; los mecanismos por los que las dimen-siones extra se enrollan no son conocidos; y nadie haconseguido demostrar que realmente contengan elmodelo estándar. Y, lo que tal vez es peor, no resuelvenni uno sólo de los problemas que parecen básicos deeste modelo. No proporcionan indicaciones de los va-lores de las masas de las partículas, ni de las intensi-dades de las interacciones, ni del mecanismo de Higgs.

Pero esto no detiene a los entusiastas de las teoríasde cuerdas, fascinados por su consistencia y bellezainterna (según ellos), y convencidos de que es posibledescubrir la estructura última del universo por consi-

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99F. J. Ynduráin Muñoz94

3 Este mecanismo había sido propuesto mucho antes, en otro contexto, por Kaluza y Klein.4 No discutiré en detalle el significado de esta "supersimetría", pero sí indicare que implica la existencia, por cada una de las partículas yfuerzas conocidas de lo que se conoce como compañeros supersimétricos, que son otras particulas con propiedades similares excepto la masay el espín.

deraciones de simetría. Sin embargo, mi opinión per-sonal al respecto es bastante pesimista; aunque no ten-go duda de que la investigación de estas teorías conti-nuará a lo largo del siglo actual. Por supuesto nopodemos demostrar que las teorías de cuerdas son fal-sas: y tal vez en el acelerador LHC, que produciráresultados a partir del año 2008, en el CERN, seencuentre algún "compañero supersimétrico", o algunapartícula de tipo Z, además de la familiar que contieneel modelo estándar. Pero lo que va a ser poco menosque imposible es hallar indicaciones de que estaspartículas impliquen una estructura de cuerdas.

Mientras tanto, mientras no haya indicacionesexperimentales, deberán permanecer estas teorías enlos dominios de la fantasía, y de lo que podríamos lla-mar física-ficción, en que cada vez se adentran más suspracticantes.

2. MATERIA Y ANTIMATERIA. EL “BIGBANG”. ¿UNIVERSO, O UNIVERSOS?

2.1. Desintegración del protón, y creación demateria a partir de energía pura

Ligado al problema de la posible desintegración delprotón, que discutimos a propósito de las teorías degran unificación, está el de la simetría entre partículasy antipartículas. Las leyes que rigen la naturaleza,resumidas en el modelo estándar, son simétricas bajoel cambio de materia en antimateria. (Para expertosdiré que dicho cambio debe incluir el de "derecha" en"izquierda" y una inversión del movimiento). Sinembargo, en el universo que nos rodea la materia do-mina de forma aplastante: sólo producidas por algúnraro rayo cósmico se encuentran antipartículas. Porsupuesto, las partículas y antipartículas se aniquilan alencontrarse, por lo que no es sorprendente que no que-den, por ejemplo en nuestro sistema solar, restos deuna hipotética antimateria primigenia. Lo que sí es sor-prendente es que al parecer, y como ya hemos comen-tado, no existen otros sistemas solares, ni otras gala-xias, hechos de antimateria: la evidencia, en algunoscasos aplastante, es que todos están hechos de la mis-ma materia que nosotros, y contienen tan poca antima-teria como el sistema solar.

No es posible afirmar nada definitivo con respectoa la pregunta que planteamos. Sólo podemos adelantar

posibles soluciones, desgraciadamente aún no con-trastadas experimentalmente; tenemos que conten-tarnos con especulaciones alguna de las cuales, sinduda, adquirirán caracter de teorías con firme baseempírica a lo largo del presente siglo. Paso a discutircon más detalle la cuestión.

Uno de los descubrimientos más fundamentales delsiglo XX fue la existencia de la llamada "radiación defondo" (Wilson y Penzias, en 1965): esto es, que todoel espacio está lleno de una radiación electromagnéti-ca, prácticamente isótropa, constituida por fotones demuy poca energía correspondiente a unos 3 gradosKelvin —doscientos setenta grados centígrados bajocero—. La cantidad de estos fotones es inmensa, milmillones de fotones por cada partícula material. Elnúmero de fotones, y las características de la radiaciónde fondo, son lo esperable si el universo comenzó conuna gran explosión, conocida como el "big bang". Laextraordinaria densidad de fotones sugiere que en talcomienzo nuestro universo pudo ser energía pura, y lamateria que encontramos en la actualidad una merafluctuación.

Para que esto sea posible es necesario que hayainteracciones que conviertan energía en materia, sinnecesidad de introducir antimateria: por ejemplo, queconviertan dos fotones en un átomo de hidrógeno. Sino existiesen tales interacciones, en el big bang sehubiese producido tanta materia como antimateria, loque, como ya se contó, es contrario a la evidenciaobservacional. Si, por el contrario, efectivamente exis-ten estas interacciones, también se podrá desintegrar lamateria: más pronto o más tarde, el hidrógeno, y todoslos elementos materiales se desintegrarían en radia-ción. El estado actual del universo sería pues unapequeña asimetría transitoria entre el big bang y elestado final, ambos consistentes en energía (radiación)pura sin presencia de partículas.

Como hemos visto con anterioridad, los mecanis-mos de gran unificación, de creación o aniquilación demateria (al menos los más sencillos) fallan. ¿Quiereesto decir que no es posible crear materia a partir deenergía sin crear antimateria? En absoluto. Además delos mecanismos que aparecen en los modelos sencillosde gran unificación existen los que se dan en teorías degran unificación supersimétrica. También hay conver-sión de materia en energía catalizada por monopolos

F. J. Ynduráin Muñoz Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99 95

magnéticos o agujeros negros o, sin salir del modeloestándar, por los llamados instantones. Por ser decarácter muy técnico no discutiremos estos procesos.Por desgracia, las correspondientes desintegracionesson muy difíciles de observar experimentalmente en laactualidad, aunque hay propuestas que tal vez produz-can resultados positivos en el futuro.

2.2. El universo inflacionario

Consideremos el universo visible, es decir, la partedel universo del que nuestros telescopios y radioteles-copios nos dan noticia y que se extiende en una esferacon radio unos trece mil millones de años luz a nuestroalrededor. En él las galaxias se están alejando unas deotras, movimiento que es reliquia de la explosión delbig bang. La cantidad de materia que contienen estasgalaxias puede estimarse directamente, por obser-vación telescópica o, indirectamente, por argumentosrelacionados con la creación de elementos ligeros (enespecial helio y deuterio) en el big bang. Pero esta can-tidad de materia no es suficiente para, por atraccióngravitatoria, frenar la expansión del universo al ritmoobservado.5 Hace falta (tal vez) postular la existenciade materia extra que nuestros telescopios no detectan yque, por ello, se conoce con el nombre de materiaoscura.

Otra indicación de la posible existencia de estamateria, invisible a la observación óptica, es la veloci-dad de giro, alrededor del centro de las galaxias, de lasestrellas y, sobre todo, de las nubes de gas más peri-féricas. Estas masas gaseosas giran bastante másdeprisa de lo que se podría esperar, dada la cantidadobservada de materia en el interior de las galaxias:¿quizás debido a la presencia de grandes cantidades dela misteriosa materia oscura?

¿Existe realmente la materia oscura? Y si existe,¿qué es? Hay muchas sugerencias al respecto: los lla-mados axiones (que no discutiremos), neutrinosmasivos, etc. Y, por supuesto, los compañeros super-simétricos.

El siguiente tipo de materia exótica que vamos adiscutir está también relacionado con cuestiones cos-mológicas, concretamente con el llamado modeloinflacionario del cosmos. Este modelo, propuesto porAlan H. Guth y desarrollado por Andrei D. Linde,entre otros, es una respuesta a dos importantes obser-vaciones realizadas en 1960 por R. Dicke: ¿por qué eluniverso es casi exactamente plano? y, ¿por qué es casicompletamente homogéneo?

La primera cuestión se refiere a lo siguiente. Te-niendo en cuenta la relatividad general de Einstein, sepueden clasificar las posibles estructuras del universoen tres tipos, clasificación debida a Alexander A.Friedmann.6 Según ésta, el universo podría ser de tipoelíptico. En este caso, ocurriría que, después de unperíodo de expansión, que duró desde el big bang has-ta nuestros dias, y que continuará durante un tiempoindeterminado en el futuro, el universo volvería a con-traerse, hasta llegar a un "big crunch" (gran aplas-tamiento). El universo podría ser del tipo conocidocomo hiperbólico, y entonces se expandiría a un ritmocada vez más rápido. Y, finalmente, el universo podríaser plano. Esto es, la expansión del propio espacio

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99F. J. Ynduráin Muñoz96

5 De hecho, más que la propia expansión del universo es la dinámica de los cúmulos, globulares y galácticos, la que indica la necesidad deexistencia de materia oscura, o modificar la teoría de la relatividad general de Einstein a gran escala.6 Para expertos, añadimos que estas soluciones suponen ausencia de constante cosmológica.

Figura 3. La superficie de una esfera hinchable se parece másy más, para un pequeño observador situado sobre ella, a unasuperficie plana.

(recuérdese que en la teoría general de la relatividad elespacio tiene propiedades dinámicas) estaría exac-tamente compensada por la atracción gravitatoria entrelas estructuras materiales —galaxias, quásares, etc.—contenidas en él, de manera que el ritmo de la expan-sión del universo sería prácticamente constante. Porsupuesto, parece muy poco probable, salvo que hayauna importante razón, la existencia de tan delicadoequilibrio.7

La siguiente cuestión es la increíble homogeneidaddel espacio cósmico. La radiación electromagnética defondo, que ya hemos mencionado, ha resultado ser, almedirse con más y más precisión, extraordinariamentehomogénea e isótropa. Tal homogeneidad pareceincompatible con las irregularidades que se espera quese hubiesen producido en el big bang; por ejemplo, porefectos cuánticos amplificados. ¿Cuál es la razón de lafalta de estructura?

El mecanismo de inflación resuelve ambos proble-mas de golpe, con el coste de una hipótesis fantástica yel postular partículas inobservadas. La hipótesis fan-tástica se basa en que la teoría de la relatividad prohibevelocidades superiores a la de la luz, c, en nuestroespacio; pero, el propio espacio podría expandirse avelocidades muy superiores a c. El modelo infla-cionario supone que esto es exactamente lo quesucedió en el principio del big bang: una expansión deluniverso extraordinariamente rápida que generó ununiverso curvado pero, con tan enorme radio de cur-vatura, que a una criatura que habita una pequeña por-ción de él le parece plano (ver Fig. 3); de la mismamanera que la superficie de la tierra nos parece plana,si no nos desplazamos una gran distancia. Porsupuesto, esto implica que el universo visible, diez milmillones de años luz, sería sólo una minúscula fraccióndel universo total.

3. LA FÍSICA APLICADA

3.1. Las aplicaciones de la física

No es exagerado decir que nuestra civilizaciónactual depende de la física para su propia existencia.

Esto es literalmente cierto; gracias a la física (tal vezsería mejor decir por culpa de la física) somoscapaces, desde hace más de cuarenta años, de destru-irnos utilizando armas nucleares. Que, no es necesariorecordar, fueron desarrolladas primeramente por físi-cos. Pero aparte de esta influencia, sin duda importantepero hasta hoy (afortunadamente) tan solo virtual, te-nemos otras mucho más presentes. El fenomenaldesarrollo de aparatos electrónicos, desde televisoreshasta ordenadores, pasando por un largo etcétera, sedebe a descubrimientos e invenciones de la física delsiglo XX y (en un caso, el tubo de rayos catódicos) definales del XIX: cristales líquidos (para pantallas),efecto fotoeléctrico (para tomavistas) o diodos y tran-sistores. Hasta algo tan aparentemente alejado de laciencia como la música ha recibido un importanteimpulso de la física del último siglo: los CD, cuyabaratura y calidad para la reproducción musical hanposibilitado un desarrollo espectacular de ésta, sonposibles por el uso del laser y el transistor.

Indudablemente los últimos desarrollos deben serconsiderados como beneficiosos; pero mucho másbeneficiosos aún han sido los avances en biología ymedicina hechos posibles por la ciencia física. Sin losmicroscopios de rayos X o los electrónicos, estos últi-mos basados en el comportamiento ondulatorio de lamateria, el descubrimiento de la estructura del ADN,los estudios de virus o el desciframiento del genomahumano hubiesen sido imposibles.

Las aplicaciones directas de la física en medicinatambién son innumerables; mencionaré sólo dosavances en el estudio de la medicina interna basadosen física del microcosmos. El primero son los escánerpor resonancia magnética nuclear, a los que la un tantoabsurda mala prensa de la palabra nuclear en la actua-lidad ha hecho que pasen a llamarse resonancia mag-nética, a secas. En estos análisis unos fuertes camposelectromagnéticos interaccionan con el momento mag-nético de los núcleos de los átomos del paciente, per-mitiendo una detallada imagen de su interior.

El segundo método es la tomografía de positrones.Aquí se introduce (bucal o intravenosamente) un flui-do, ligeramente radiactivo, en el paciente. Este fluido

F. J. Ynduráin Muñoz Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99 97

7 La "llaneza" del universo constituye una de las indicaciones de existencia de la materia oscura, como ya hemos dicho; pero la existencia dela materia oscura no es suficiente para explicarla.

emite positrones (que son las antipartículas de los elec-trones) los que se aniquilan con los electrones de losátomos del paciente, emitiendo rayos gamma. Estosrayos son muy penetrantes y escapan del cuerpo delpaciente prácticamente sin interaccionar, siendo detec-tados en el exterior por unos aparatos conocidos como"cámaras de hilos", desarrollados originalmente por elfranco-polaco Charpak para experimentos de física departículas. Sin duda este es el método menos invasor ymás preciso para explorar el interior del cuerpohumano.

3.2. Retos para el siglo XXI

¿Qué retos nos quedan para el presente siglo? Sinánimo, por supuesto, de ser exhaustivo, y también sinquerer exagerar, vamos a citar algunos de los quedepende en buen aparte el futuro de nuestra civi-lización tecnológica, y otros que proporcionarían unincremento en el bienestar individual.

En primer lugar tenemos el problema de la energía.No es probable que la energía fotovoltaica o fototérmi-

ca sean más que parches en un mundo cada vez másvoraz de energía. El petróleo, gas natural y carbón nosllevan a un peligroso calentamiento global y, además,es poco parobable que duren el siglo. Nos queda puesla energía nuclear: la única posibilidad seria deresolver, a medio plazo, el problema energético. Perola energía nuclear presenta sus propios problemas.Sería necesario desarrollar un método barato de desac-tivar los desechos radiactivos y, además tendríamosque perfeccionar los métodos existentes (muy peli-grosos) para poder utilizar como combustible materia-les tales como el torio; el uranio fisionable no existe encantidad suficiente para durar mucho más quepetróleo, gas natural y carbón. Este programa es, en miopinión, el que tiene más posibilidades de ser realiza-ble. En efecto, la fusión nuclear que es, en principio, elmejor método de todos para obtener energía nuclear(ya que emplea un material superabundante, elhidrógeno, y no deja molestos residuos radiactivos) noestá claro que sea utilizable de forma controlada. Laexperiencia de casi cincuenta años de experimentos esbastante negativa. Sin embargo, es seguro qe seguiráintentándose a lo largo del siglo XXI.

El problema energético, y también el de trasporte,podrían recibir un importante impulso si se desarro-llaran, a nivel industrial, materiales superconductoresa altas temperaturas; algo que está ya comenzando aocurrir. Esto, nos permitiría transporte de electricidadprácticamente sin pérdidas, trenes sin fricción y(quizás) campos magnéticos suficientemente intensospara lograr el confinamiento necesario para la fusiónnuclear controlada.

El desarrollo de supercomputadores y, sobre todo,de ordenadores miniaturizados, a nivel del milímetro omenos, es sin duda posible. Tal vez gracias a orde-nadores cuánticos, o a desarrollos menos esotéricos,me atrevería a profetizar un fuerte progreso tanto enpotencia como en miniaturización de computadores.La potencia podría —quién sabe— llegar a permi-tirnos construir ordenadores inteligentes. Este es untema muy controvertido; no voy a discutirlo más ypaso, para terminar, a decir unas pocas palabras sobremecanismos, en particular basados en ordenadores,miniaturizados, con aplicaciones en medicina.

Las guias de ondas, ya en la actualidad, permiten latransmisión de imágenes a través de hilos muy delga-

Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99F. J. Ynduráin Muñoz98

Figura 4. Imagen de un virus (conocido como rhinovirus)obtenida por medio de un microscopio electrónico. La calidadde la imagen depende no sólo del poder resolutorio del mi-croscopio, sino de la técnica de enfriamiento instantáneo quecongela al virus sin destruir su estructura, a diferencia de losmétodos tradicionales químicos.

dos, e incluso realizar operaciones a través de micro-sensores con controles remotos. Pero no solo esto;estamos ya muy cerca de poder construir pequeñosingenios que se podrían introducir y mover, autónoma-mente, en el interior de un cuerpo humano para allírealizar todo tipo de labores. Desde limpieza del inte-rior de las arterias hasta eliminación de coágulos ytumores. E incluso realizar una labor de monitori-zación, analizando el flujo sanguíneo e introduciendolas substancias correctoras necesarias. A poca suerte eingenio que tengan nuestros sucesores, la fructífera

colaboración de la física y la biología continuará vien-to en popa a lo largo del presente siglo.

NOTA BIBLIOGRÁFICA

El lector interesado puede encontrar más infor-mación sobre los temas tratados, así como más biblio-grafía, en el libro del autor Electrones, neutrinos yquarks, Ed. Crítica, 2001, de donde se han extractadolas primeras partes de este artículo.

F. J. Ynduráin Muñoz Rev.R.Acad.Cienc.Exact.Fís.Nat. (Esp), 2005; 99 99