Título: EL UNIVERSO SENSIBLE. - WordPress.com · inevitablemente en la esfera de la conciencia...

254
1 Título: EL UNIVERSO SENSIBLE. Autor: GUILLERMO AGUDELO MURGUÍA Y JUAN SEBASTIAN AGUDELO Instituto de Investigaciones sobre la Evolución Humana, A.C., colección Hacia el futuro, México © 2002 Guillermo Agudelo Murguía; Juan Sebastián Agudelo EL UNIVERSO SENSIBLE. INDICE Presentación……………………………………………………………………………. 2 Prefacio…………………………………………………………………………………...6 Introducción…………………………………………………………………………….11 Capítulo 1 LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD……..18 Capítulo 2 LA MÚSICA DEL UNIVERSO………………………………………..48 Capítulo 3 QUANTUM: PUNTOS EXTREMOS…………………………………77 Capítulo 4 EL SIEMPRE INALCANZABLE SANTO GRIAL: LA TEORÍA DEL TODO…………………………………………………………….102 Capítulo 5 DE BÁRBAROS Y BLASFEMOS……………………………………117 Capítulo 6 EL ABISMO DE LA SÍNTESIS: EL FENÓMENO HUMANO COMO UNA HISTORIA UNIVERSAL…………………..…………136 Capítulo 7 EL PUNTO DE PARTIDA DETERMINA EL DESTINO………….156 Capítulo 8 LA EVOLUCIÓN CÓSMICA: UN MODELO……………………...178 Capítulo 9 COMPLEJIDAD Y EVOLUCIÓN…………………………………...206 Epílogo LA VISIÓN DE TEILHARD DE CHARDIN………………………..226 Bibliografía………………………………………………………………………….....250

Transcript of Título: EL UNIVERSO SENSIBLE. - WordPress.com · inevitablemente en la esfera de la conciencia...

1

Título: EL UNIVERSO SENSIBLE.

Autor: GUILLERMO AGUDELO MURGUÍA Y JUAN SEBASTIAN AGUDELO

Instituto de Investigaciones sobre la Evolución Humana, A.C., colección Hacia el futuro, México

© 2002 Guillermo Agudelo Murguía; Juan Sebastián Agudelo

EL UNIVERSO SENSIBLE.

INDICE

Presentación……………………………………………………………………………. 2

Prefacio…………………………………………………………………………………...6

Introducción…………………………………………………………………………….11

Capítulo 1 LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD……..18

Capítulo 2 LA MÚSICA DEL UNIVERSO………………………………………..48

Capítulo 3 QUANTUM: PUNTOS EXTREMOS…………………………………77

Capítulo 4 EL SIEMPRE INALCANZABLE SANTO GRIAL: LA TEORÍA DEL TODO…………………………………………………………….102

Capítulo 5 DE BÁRBAROS Y BLASFEMOS……………………………………117

Capítulo 6 EL ABISMO DE LA SÍNTESIS: EL FENÓMENO HUMANO COMO UNA HISTORIA UNIVERSAL…………………..…………136

Capítulo 7 EL PUNTO DE PARTIDA DETERMINA EL DESTINO………….156

Capítulo 8 LA EVOLUCIÓN CÓSMICA: UN MODELO……………………...178

Capítulo 9 COMPLEJIDAD Y EVOLUCIÓN…………………………………...206

Epílogo LA VISIÓN DE TEILHARD DE CHARDIN………………………..226

Bibliografía………………………………………………………………………….....250

2

PRESENTACIÓN

Ha debido costar mucho esfuerzo culminar este libro, pese al acervo

de erudición y cultura científicas de los autores. Me parece una expresión de

generosidad, enhebrada con la maestría de un detective de la ciencia metido

a cirujano del conocimiento científico, muy de agradecer. Pero hay bastante

más.

Esta obra es una contribución al mundo de la ciencia y del

pensamiento, que nunca debieron separarse. Más exactamente, es una

aportación y un refuerzo a la “y” [o al guión o a la relación, llamémosla

conciencia], que a la vez los une y los distancia.

Se desarrolla en un sentido y con un compás distinto al de la ciencia

convencional, pero también difiere de las inercias hacia la estrechez de la

formación académica al uso, del prurito de rentabilidad ciega característico

de esta sociedad de sonámbulos satisfechos (N. Caballero) y sistemas

egocéntricos, de la macdonalización de los contenidos de la vida cotidiana,

incluidas educación y ciencia, etc.

Todas estas razones nos han forzado a soltar la amarra de lo esencial.

Por ello, cuando alguien nos ofrece néctar de cultura fundamental, no sólo

se agradece, sino que se comprende su utilidad en el marco de un diálogo

profundo y posible de conciencia a conciencia.

Los señores Agudelo toman como referente a un autor injusta y

torpemente desaprovechado: Pierre Teilhard de Chardin, nacido en 1881,

como Pablo Picasso o Cousinet, y muerto en 1955, con sólo unos días de

diferencia de A. Einstein. Para algunos –entre los que me encuentro-,

Teilhard de Chardin es el germen del nuevo paradigma de la complejidad,

de la evolución o de la universalidad.

3

Los autores no tratan tanto de reparar el daño que la iglesia católica

infringió a este jesuita prohibido (Vigorelli), sino de mostrar la actualidad de

sus tesis, esta vez desde la ciencia. Lo que ocurre es que, al hacerlo, impacta

inevitablemente en la esfera de la conciencia personal y colectiva del

científico. Por eso su lectura resulta a la vez ilustrativa, formativa y cercana.

El universo sensible discurre a lo largo de dos trayectorias

convergentes. Por un lado, recorre la circunferencia de la actualidad

científica de algunas realizaciones sobresalientes. Por otro, desciende al

centro de su geometría e indaga en la percepción del científico.

Desde esta dialéctica exterior-interior, nos invita a todos a reflexionar

conjuntamente sobre el eje de la posible evolución de un universo orientado

hacia el Omega teilhardiano. Esta inducción es tan importante, tan

definitoria o tan necesaria como la brújula para el excursionista. ¿Cómo

podría si no aquella circunferencia pasar de una estructura plana (recurrente

y sin profundidad) a la espiral (autoconstructiva y elevable)?

La vida humana y el quehacer científico –parafraseando al propio

Teilhard de Chardin- podrían aparecer, a los ojos de un observador externo,

como un inmenso tanteo no aleatorio. De esto deducimos [desde el criterio

de complejidad de conciencia], que existen varios grupos de científicos:

a) Los que saben o creen que saben, y centran su motivación en los qués y

en los porqués. Podríamos denominarles científicos explicativos. Sin

duda, integrarían la mayor parte de la comunidad de investigadores.

b) Los que saben que saben, y han podido ahondar en la naturaleza y raíces

epistémicas de su conocimiento. Serían los científicos reflexivos.

c) Los que saben lo que saben y no saben, y han profundizado en la propia

madurez personal, buscando su integración con la formación profesional.

Podríamos calificarles como científicos humildes.

4

d) Los que saben para qué saben que saben, a su vez, de dos clases:

1. Aquellos cuyo para qué se orienta a la rentabilidad de su sistema

concreto (tiempo, espacio, ámbito científico, nación, religión,

cultura, etc.) -que son la mayoría de ellos-. Identifiquémoslos

como científicos sistémicos, parciales o egocéntricos.

2. Aquellos cuya motivación les lleva a interpretar la vida como un

proceso de evolución trascendente cuyas coordenadas van mucho

más allá de su sistema, su parcialidad, su limitación, su terrenito,

etc. Podríamos llamarles científicos complejos, evolucionistas,

universales.

Desde luego, hay pocos con este último perfil, quizá propio de quienes

han cultivado su mentalidad y no sólo se han centrado en lo objetal

(investigaciones, sistema rentable, etc.), porque han entendido su trabajo

como punto de partida, y no como punto de llegada. Pero cada vez son más y

más.

La obra los señores Agudelo, orientada a un futuro posible vertebrado

por una sensibilidad, una conciencia, una ciencia y una educación más

complejas, es una producción del último grupo. Por tanto, podría acicatear a

los demás, no sólo desde numerosos contenidos -por ejemplo, los contenidos

sustantivos que desarrolla su trabajo-, sino desde aquello que los mueve y

los orienta. O sea, desde la respuesta al para qué del conocimiento

científico, en el seno de un universo evolutivo, del cual el ser humano actual

no es el centro ni sobre todo una culminación, sino un eslabón hallado del

ser humano que todavía no nacido, un paso hacia la noosferización, un

centímetro primero de un viaje apasionante que apenas ha empezado.

5

Ésta es, a mi juicio, la utilidad teleológica de este trabajo, que estimo

fundamental para la preparación del profesional que se forma en la

universidad o a lo largo de su vida.

AGUSTÍN DE LA HERRÁN GASCÓN

Universidad Autónoma de Madrid

6

PREFACIO

Este libro tiene una larga historia. Empezó con la lectura del trabajo

del paleontólogo y filósofo jesuíta Pierre Teilhard de Chardin y la

comprensión de que existe una discrepancia perturbadora entre el

pensamiento de Teilhard de Chardin y lo que sus sucesores científicos

piensan, sin que esto necesariamente se deba a que existen muchas

imprecisiones en el trabajo científico de Teilhard de Chardin. Hay algo

extremadamente estimulante en nuestro clima intelectual. Nunca en la

historia de nuestra especie ha habido tantas respuestas a lo que usalmente se

considera como las preguntas eternas; nunca habíamos tenido tantas teorías

coherentes que explicaran cada fenómeno, misterioso aún hace cien años.

Estamos entendiendo el cerebro; hemos hecho tremendas incursiones en la

memoria, el más misterioso de los regalos. Tenemos una cierta idea del

cosmos que dejó perplejos a nuestros antepasados, de su origen, su

composición y su tamaño. Sabemos de dónde venimos y cómo hemos

llegado a lo que somos. Conocemos también los más profundos secretos de

la materia y el átomo. Y con todo, pese a lo estimulante de todo este

conocimiento, nunca en nuestra historia ha habido tal sentimiento de

desaliento en los circulos intelectuales. Como los juerguistas de uno de esos

banquetes llenos de excesos que encontramos en la descripción de los

historiadores romanos, los pensadores actuales parecen aburridos, saciados:

nada parece motivarlos. Como si tuvieran demasiada estimulación. Y, con

tantas respuestas, parece que nunca ha habido tal desecho de teorías.

Somos prisioneros de las circunstancias históricas. La crítica sobre el

conocimiento y el pensamiento que tomó sus raices del trabajo de Nietzsche,

creció y se volvió perentorio después de la segunda guerra mundial, sucedió

7

porque algunos pensadores creyeron que buena parte de nuestro porvenir

intelectual como cultura y como especie, había sido maltratada en la retórica

del fascismo y el nazismo. Después de Hitler y de Stalin, después de

Hiroshima y del Holocausto, cada tentativa humana parecía sospechosa.

Después de los genocidios, de las carencias y de las represiones, es difícil

creer en nuestra noble naturaleza. Aun la ciencia, esa enrarecida rama del

esfuerzo humano, se mostró a sí misma más que cómplice de las atrocidades

de nuestra pasada centuria. Los proyectiles que devastaron poblaciones

enteras, los productos químicos que envenenan el planeta entero, etc., no son

más que sus propios trabajos prácticos.

La crítica del conocimiento que nos ha cuestionado nuestra

centralidad y la centralidad de la inteligencia no es, en otras palabras, sino

precisa y necesaria. Sin embargo, después de cuarenta años –pensamos– se

ha salido de cauce. Nos parece que aquellos pensadores que se enfocaron en

destapar nuestro etnocentrismo o la falsa autoconfianza que deriva de

nuestra racionalidad o lo que descansa detrás de nuestros grandiosos

propósitos políticos, ya no está siguiendo la intención de una crítica, sino

que actualmente sigue sus propios motivos; la crítica está tan vacia y más

vana que el honor del mundo que trata de destruir.

Para nosotros, buena parte del rechazo que Teilhard de Chardin ha

sufrido, surge del hecho de que él no está au courant, por así decirlo. Su

pensamiento no sólo no siguió lo que ha llegado a ser una visión del mundo

cada vez más nihilista sino que se estableció para negar ésta. Teilhard de

Chardin, a diferencia de otros pensadores del siglo XX, nos recuerda que

estamos aquí con un propósito, nos recuerda que el universo y la vida no son

ni inútiles ni accidentales, nos recuerda que el pensamiento y el intelecto son

centrales. Algunos piensan que su visión es ingenua. Nada más lejos de la

8

verdad. Él está consciente, como lo está Nietzsche, de lo vago que subyace

nuestro discurso, está consciente como ningún científico de los muchos

hechos que contradicen nuestra centralidad. A diferencia de la mayoría de

los pensadores y científicos, él dió ese paso extra y en lugar de señalar lo

obvio, se alineó con la gran tradición sintética del siglo XIX e intentó hacer

frente a nuestra posición real, no central, en el cosmos, nuestra mayor

debilidad. Él logró lo anterior porque detrás de su mente filosófica tenía un

respaldo científico. La ciencia, en otras palabras, le dió la respuesta. La

ciencia le permitió entender que si vamos a restablecer un propósito para

nuestras vidas, si vamos, como especie, a pensar en metas y teleologías,

entonces tenemos que entendernos a nosotros mismos como componentes de

una mayor y más trascendente entidad.

Teilhard de Chardin no sólo suministró un sistema coherente, una

lúcida visión y la solución a problemas filosóficos y científicos que su

misma visión impuso, sino que nos la regresó con todos los datos científicos

disponibles en ese momento. Sus datos fueron precisos y permanecen

correctos

En realidad, es sorprendente lo acertado que fue seleccionando sus

datos. Muy poco de lo que argumentó ha quedado obsoleto. Sin embargo, él

ha sido rehuido en los circulos científicos. El principal propósito de este

libro es tratar de convencer, tanto a científicos como a pensadores, que

Teilhard de Chardin tiene una importante y sólida visión que debe ser

reconsiderada. El libro, no obstante, no pretende ser un tratado de

conocimiento científico. Los expertos sabrán que para el momento en que la

información se llevó a estas páginas, eran viejas noticias. Libros de ciencia,

de divulgación, revistas especializadas, artículos periodísticos e internet

fueron las vias para llegar al filo de la información científica. Este libro

9

intenta usar lo que ahora se conoce mucho más como “dogma” en la

comunidad científica y mostrar cómo ésto se compara con las ideas de

Teilhard de Chardin; intenta demostrar que sus ideas son más válidas y

actuales hoy, que cuando fueron escritas por primera vez hace más de medio

siglo. Más allá, le pide al lector que vea como las ideas de Teilhard de

Chardin no son solamente actuales, sino realmente vitales para nuestro

futuro. Nadie, científico o filósofo, ha ofrecido tan vasta perspectiva en su

trabajo. Si nada más esto fuera, Teilhard de Chardin nos recuerda que como

humanos, podemos elegir, que pese a lo que digan las filosofías nihilistas de

nuestros días, nuestras elecciones pueden ser correctas o equivocadas y

tienen efectos más allá de nuestro círculo inmediato, más allá de nuestras

cortas vidas. Teilhard de Chardin nos recuerda que somos parte de algo más

grande y menos fugaz que nosotros mismos.

Para refrescar el trabajo de Teilhard de Chardin hemos hecho lo

siguiente: intentamos explicar lo más claramente posible las tres principales

ramas del conocimiento científico. A continuación hemos tratado de mostrar

cómo estas ramas y sus descubrimientos pueden ser entendidos siguiendo el

trabajo de Teilhard de Chardin, y cómo mediante él se llega a que no sean

solamente unas jergas sin interés, sino temas relevante que pueden iluminar

nuestra existencia. El libro, sin embargo, no será de fácil lectura. Es

afortunado por una parte y desafortunado por otra, que si uno intenta

sintetizar cualquier clase de pensamiento científico, los escritos tienen que

llevar el paso de cada disciplina. En el libro hay referencias a los más

grandes científicos y artistas. Hemos tratado de llenar la mayor cantidad de

huecos posibles. Finalmente nos hemos acogido a la creencia de que a los

lectores no se les debe dar todo masticado siempre. Así que si hay una

referencia a Haydn y el lector no está familiarizado ni con Haydn ni con la

10

pieza que se discute, o si encuentra una referencia a un filósofo del que

nunca ha oído, entonces le rogamos al lector que no solamente nos crea, sino

que haga lo que siempre han hecho los buenos lectores: que vaya y busque.

Que escuche a Haydn, que lea al filósofo. Si por algo, la obra de Teilhard de

Chardin ha sido afectada porque sus detractores no comparten su punto de

vista sobre la lectura y los lectores. Teilhard de Chardin creyó en el lector

activo y reactivo, en un inteligente y desafiante pensador que confrontara su

pensamiento. Nosotros difícilmente cumplimos su desafío, pero con este

libro esperamos haber, por lo menos, igualado su deseo.

11

INTRODUCCIÓN

Al igual que nuestras almas, siendo aire, nos mantienen unidos, el aliento y el aire

abrazan al universo en su totalidad. -ANAXÍMENES

Lo que el lector va a encontrar en el presente libro se refiere a la física, a la

astrofísica, a la biología, pero, sobre todo, al momento en el cual un

individuo asume su responsabilidad y otro se abstiene, en explicarnos lo que

los múltiples descubrimientos científicos del presente siglo – estructura del

ADN, relatividad, quantum, etc. – han revelado respecto de lo que somos y a

nuestro papel como especie en nuestro planeta, en nuestro cosmos. También

es un libro que se refiere a la manera que han utilizado muchos científicos

para interpretar la ciencia, sobre cómo algunos de ellos han luchado y se han

esforzado para hacer de la ciencia un simple ejercicio mental y de cómo

otros han tratado realmente de hacer que la ciencia nos conteste esas difíciles

preguntas de existencialismo y ontología.

Sin embargo, antes de empezar a hablar de ciencia, y sin referirme a

laboratorios ni citar eruditos eminentes, quiero ubicarme en mi hogar, que

supongo es la ubicación inicial de cualquier lector. Si no es verídico lo que a

continuación expongo, es rutinario para la mayoría de los lectores. Entonces

empecemos con un escenario imaginario: una sala o una biblioteca.

Imagínese que está a punto de sentarse a leer, pero antes de empezar su

lectura, se acompaña de los últimos cuartetos de Beethoven seleccionados de

su colección de música clásica. En lo personal, cuento con un CD grabado

por el Hollywood String Quartet que aquilato enormemente. Si usted está

12

familiarizado con los últimos cuartetos de Beethoven podrá comprender el

significado de mi referencia. Estos últimos cuartetos, aunados a las últimas

sonatas que Beethoven nos legó, constituyen sus meditaciones más

profundas y privadas. Son todas piezas difíciles y melancólicas que sondean

profundidades y escalan grandes alturas dentro de la música occidental.

Algunos críticos, como por ejemplo Salomon, el gran biógrafo de

Beethoven, ha considerado sus últimos cuartetos como el postrer

cuestionamiento del autor respecto al significado de la vida, del cosmos, de

la naturaleza. Al escuchar a los ejecutantes luchar con la difícil partitura,

usted se da cuenta de que es testigo de una de las actividades

quintaesenciales de la existencia humana. No sólo disfrutamos todo tipo de

ejecución, sino que cuando disfrutamos la gran música o el gran arte, la

mayoría de nosotros consideramos que estamos ante los más recónditos e

ininteligibles aspectos de nuestro desarrollo.

Cuando estamos frente al gran arte, de alguna manera creemos que esa

entidad a la cual teologías y religiones han etiquetado como alma, ha

encontrado su manifestación.

Si usted es un escéptico, tenga en cuenta que la actitud o fe a las que

me refiero no son exclusivas de auditorios musicales o artísticos. Una de la

mentes científicas más grandes de este siglo, Einstein, compartió con

nosotros su actitud. Cuando escuchó la ejecución del entonces joven

prodigio Jehudi Menuhin, al concluir el concierto le comentó al violinista:

“El día de hoy comprobé que Dios existe”. Es asombroso saber que la mente

más insigne del siglo, la mente que tan profundamente cambió el concepto

del quién, el dónde y el cómo, haya hecho tal pronunciamiento.

Verdaderamente, el comentario de Einstein expresado con esa

sencillez e imaginación que le eran tan características, podría ser lo único

13

que tendríamos en común con esa mente superior. Ya sea que uno sea

religioso o no, el que uno sea creyente o no, la mayoría de nosotros hemos

sentido reverencia ante el arte superior o ante la Naturaleza. Hemos

percibido la sensación de que el mundo no es superficial.

Y sin embargo, varios científicos contemporáneos han dedicado toda

su vida a contrarrestar esa sensación. A primera vista parecen tener la razón.

Hasta donde sabemos, lo que denominamos mente parece ser una red de

múltiples células específicas de una complejidad que tiende al infinito y que

reaccionan ante descargas químicas transmitiendo impulsos eléctricos

infinitesimales que constituyen no sólo nuestra vida sensible sino lo que

denominamos emociones.

Desde este punto de vista, una apreciación promedio del escenario

descrito –la sala en donde disfrutamos a Beethoven– sería como sigue: los

cuatro instrumentos de cuerdas que conforman el Hollywood String Quartet,

son cajas de madera que amplifican la fricción de arco y cuerda. Esa fricción

produce una vibración y pequeños cambios en la frecuencia con la que se

transporta la onda sonora. penetra en la caja y dicha caja, por su naturaleza,

la amplifica y la proyecta al micrófono. Dicho micrófono convierte las ondas

sonoras en ondas electromagnéticas que permiten su grabación. Lo que es

más, el disco que imagino es “digitalizado”, la cinta fue digitalizada al

conectar las señales electromagnéticas en “cero” y en “uno”, mismas que el

láser puede leer y una computadora puede procesar y devolver.

Cuando introducimos nuestro CD imaginario al tocadiscos y

oprimimos el botón o tecla de iniciar, nuestro tímpano debidamente afinado

por nuestra evolución en la búsqueda de presas y depredadores, vibra y

alimenta esa información a un nervio.

14

De conformidad con muchas explicaciones científicas y de acuerdo

también con los panoramas que la mayoría de los científicos se han fijado

para sí mismos, el sonido que escuchamos no tiene valor. Haciendo una

broma cruel podríamos decir que, de acuerdo con los científicos, oímos

menos que Beethoven. La acústica nos dice que la música que escuchamos

son sólo cambios mínimos en la presión del aire. Los neurólogos nos dirán

que las emociones que sentimos son simples vibraciones eléctricas. Los

psicólogos nos argumentarán que el sonido nos produce placer porque lo

ligamos a alguna sensación placentera de nuestra niñez. Sin embargo, el

sentido común nos dice lo contrario. Nos dice que la música no es algo

superficial sino que penetra nuestras almas –como nos dice el epígrafe de

Anaxímenes– y al hacerlo, abraza al universo. Esto es lo que el sentido

común dicta.

Los científicos, sin embargo, consideran al sentido común un

anatema. Stephen Jay Gould, el científico al cual nos estaremos refiriendo

ampliamente en el primer capítulo, ha sido uno de los más estrictos y

vociferantes opositores del sentido común. En uno de sus libros más

recientes Full House: The Sproad of Excellence from Plato to Darwin,1 ataca

la actitud de E. O. Wilson respecto a que usemos sentido común; Gould nos

dice:

Nothing could be more antithetical to intellectual reform than an appeal

against thoughtful scrutiny of our most hidebound mental habits –notions so

“obviously” true that we stopped thinking about them generations ago, and

moved them into ours hearts and bosoms. Please do not forget that the sun

really does rise in the east, move through the sky each day, and set in the west.

1 Aquí Full House se refiere al término del juego de póker, por lo que no tiene traducción.

15

What knowledge could be more visceral than the earth´s central stability and

the sun´s subordinate motion?2

Al argumento de Gould no le falta validez. Muchos de los

descubrimientos científicos a partir del Renacimiento han desmentido las

ideas sobre nuestro posición en el mundo. Sin embargo, no creemos

imposible sostener que los debates tanto contra la geocentricidad como en

contra de la evolución fueron más bien ataques teológicos y no reacciones

“viscerales” ante las premisas que las dos teorías presentaron. Tampoco

debemos olvidar que mientras se conozca más y más respecto a nuestro

universo, mientras entendamos más y más respecto del átomo y sus

partículas, muchos de los conceptos discutidos primero por los filósofos

presocráticos y después por algunos autores epicúreos, han sido

confirmados. Sin aceleradores de partículas, Demócrito tuvo un

entendimiento razonable del átomo como partícula básica. Los físicos están

confirmando muchas de las ideas agustinianas de su tiempo. Muy pronto

dejaremos de confundir el sentido común con el dogma.

Gould es un extraordinario artesano de la palabra y un mejor sofista.

Cuando los científicos reclaman el uso del sentido común, no reclaman el

regreso a la superstición sino el uso de la propia intuición que nos guíe al

“escrutinio atento”. Ocupando las gradas, nos consideramos unos extraños,

que sin embargo hemos sido seguidores cercanos de la ciencia y pensamos

que el sentido común y la intuición han guiado muchos de los más grandes

descubrimientos científicos. Aun con un conocimiento superficial del

método de trabajo de Einstein, sería imposible negar lo anterior.

2 Stephen Jay Gould, Full House: The Spread of Excellence from Plato to Darwin. Three Rivers Press. Nueva York, 1997, p. 28

16

También estamos convencidos de que el sentido común ayudó a

Darwin y a Wallace, a Newton y a Maxwell; las instituciones, únicamente

con el afán de canonizar y mantener saneados sus iconos, los mantienen

arropados, como a los grandes científicos, en la seda de la lógica pura y la

razón. Einstein pudo no haber estado hablando en forma figurativa cuando

comentó que intentaba descifrar los designios de Dios. Es más, si algo ha

impulsado a la ciencia ha sido esa certidumbre de que el cosmos no es

solamente un sistema accidental no pensante; la vida no sólo es una cadena

proteica que con el tiempo sigue creciendo de una forma más elaborada.

No es que el universo no sea un sistema en el cual el azar tuvo y sigue

teniendo importancia, ni es que la vida no sea una cadena proteica. Son

desde luego datos verídicos que, sin embargo, son insignificantes e

incompletos. Lo que vamos a debatir es que el rompecabezas cuyas piezas

ha tratado de embonar la ciencia desde la época del Renacimiento, dista

mucho de estar terminado, y que los caminos que muchos científicos han

adoptado están sumamente influenciados por tendencias ideológicas como

son la destrucción, la crítica cultural y los estudios neocoloniales que en

realidad podrían impedir la culminación correspondiente debido a que las

preguntas que se están haciendo no son las correctas.

En los tres primeros capítulos nos vamos a referir al estado en que se

encuentran las ciencias, exponiendo lo que se sabe, y mostrando los métodos

que algunos de los más prominentes científicos utilizaron para interpretar. El

primer capítulo tratará la evolución y el segundo y el tercero tratarán la

física. En la segunda mitad del libro trataremos los puntos de vista

alternativos a los de los científicos que se mencionan en la primera mitad,

enfocandonos principalmente en Pierre Teilhard de Chardin. A diferencia de

muchos libros que ofrecen información similar, el nuestro intentará llenar

17

algunos huecos del rompecabezas, así como proponer y ofrecer caminos a

una solución.

Lo anterior no lo hacemos en forma individual, sino con la

información que existe en diversas bibliotecas con respecto al trabajo de

muchos científicos que, desafortunadamente, por sus ideas, han sido evitados

por los científicos contemporáneos. Lo cual es precisamente de lo que trata

este libro.

18

I

LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD

The passion of our kind for the process of finding out

Is a fact one could hardly doubt, but I would rejoice in it more

If I knew more clearly what we wanted the knowledge for

W. H. AUDEN.

El epígrafe de este primer capítulo proviene de un poema que W. H.

Auden escribió en 1961, cuyo título es: "After Reading a Child’s Guide to

Modern Physics". El poema es una curiosidad y no es una de sus más

importantes ni profundas obras, pero sigue siendo válida por dos razones:

Primero, porque proporciona una apreciación global, inteligente, de los

principios de la física que Auden destacó y que son válidos; segundo, por

que hace una pregunta crucial y muy importante –la pregunta que conforma

el epígrafe. Al igual que la propia física, el poema contrapone lo

enormemente grande con lo infinitamente pequeño. Trata de la cosmología,

su nebuloso universo con forma de silla de montar. También trata de átomos,

partículas, su escala y lo indeterminado. Sin embargo, el poema no es un

poema didáctico, no trata de enseñarnos lo que fueron los descubrimientos

de la física ni lo que significaron. En todo caso, Auden descubrió la imagen

global mundial que los físicos pintan desagradable, rígida y fría: La

“futilidad” e insalubridad de nuestro mundo cotidiano le parecen mejor a

Auden que la gran frialdad de una nebulosa; las dificultades matrimoniales

también le parecen más fáciles de sortearse que aquellas que se nos

presentan cuando intentamos descifrar los secretos del átomo.

19

La postura de Auden no es extraña, ya que como muchos de nosotros

confrontados con las ideas científicas de nuestro tiempo, está tratando de

darle sentido al universo de la manera en que la física lo describe, situándolo

a partir de su propia experiencia. Auden está, como muchos de nosotros,

tratando de ubicar su mundo individual dentro de la lógica de un continuum

universal. De hecho lo que el poema de Auden dramatiza es su ineptitud en

cuanto a adecuar su ego a ese continuo y por consecuencia cuestiona la

naturaleza del conocimiento científico.

Una paráfrasis de la estrofa de Auden sería: a los humanos nos

encanta averiguar3 y obtener información respecto a todo, pero este

entusiasmo, este impulso por averiguar, parece poco meritorio si no sabemos

para qué es el conocimiento, si éste no nos es de utilidad. En resumen, el

poema reconoce los esfuerzos que los físicos hubieron de hacer en el siglo

XX con objeto de entender los fenómenos que conforman nuestro mundo,

pero al reconocerlo cuestiona la utilidad de los hechos. Los hechos por sí

solos no pueden explicarnos ni quiénes somos, ni qué somos, ni en dónde

nos encontramos.

Queremos considerar la pregunta retórica de Auden como un desafío

real para los científicos. En otras palabras, nos gustaría pensar que la ciencia

está lista para decirnos no sólo que existen quarks y leptones, o que el

universo tuvo como comienzo una singularidad, sino también que nos

explicara cuáles son las implicaciones de estos datos, para nosotros como

individuos, como cultura y como especie.

A partir de 1961, cuando Auden escribió su poema, muchos han sido

los científicos que han intentado contestar su pregunta. Los físicos dedicados

a partículas han escrito respecto a las implicaciones del quantum; los

20

astrofísicos han intentado explicarnos el vínculo que tienen para nuestro

futuro la flecha del tiempo y la flecha termodinámica; los biólogos han

tratado de probar la evolución, sus consecuencias e implicaciones.

De hecho, la última década ha visto un verdadero auge de la industria

editorial científica. Sin embargo, la mayoría de esos libros, en lugar de tratar

de contestar la pregunta de Auden, intentan invalidarla. En el tope del citado

auge editorial existen cuatro increíbles autores considerados best - sellers.4

El primero de ellos y el más académico fue Carl Sagan. Sagan, más que

nadie, les demostró a los editores que la ciencia se podía vender. No fue sino

hasta después del fenómeno Sagan que los científicos sintieron la suficiente

confianza para incursionar en el mercado. Sagan, sin embargo, era

explicativo, un divulgador popular ya que raramente se enfocó a la gran

meta. Aquellos libros que siguieron sus pasos sí lo hicieron, y los tres

autores que a pregunta expresa de cuáles son los científicos, aún vivos, que

los escribieron, la respuesta probablemente sería Stephen Jay Gould, Richard

Dawkins y Stephen Hawking, siendo los dos primeros biólogos y, el último,

el más eminente físico que aún vive. A diferencia del trabajo de Sagan, el de

estos autores tiene un doble propósito ya que superficialmente todos son

didácticos. El libro más importante de Dawkins, The Blind Watchmaker

podría considerarse como un libro que se refiere a la evolución, pero su

objetivo principal es desmentir el argumento de diseño. El libro más vendido

de Hawking, A Brief History of Time, no es únicamente una escalada en

nuestro entendimiento del universo y de la física de partículas, sino que está

preñado de subtonos teológicos y metafísicos que él mismo desacredita.

3 Aristóteles empieza su Metafísica diciendo “El hombre tiene necesidad de conocer” 4 Como todo el mundo sabe, best- seller no significa calidad sino solo ser de los más vendidos.

21

Gould, el más prolífico de los tres, pudiéndose más bien decir libertino, ha

dedicado gran parte de su carrera autoral a disipar los errores en las lecturas

relativas a evolución y a luchar contra los malos entendidos de la teoría de la

evolución. Sus libros más importantes y más coherentes, sin embargo, aun

ostentan el sello de profesor. Wonderful Life, es una reconstrucción

meticulosa, aún cuando a menudo defectuosa, del bosque Cámbrico, basada

en los fósiles encontrados en Burgees Shale, un sitio en Canadá. Full House

es un recorrido por el mundo de las estadísticas y las bacterias. Nos

referiremos a Gould y a Hawking ampliamente.

De momento, es suficiente decir que existe un común denominador de

estos tres autores, y este es, que en vez de intentar contestar la pregunta de

Auden, la ignoran o la tratan de invalidar. Los tres científicos han visto su

disciplina como divorciada del principio de propósito social que Auden

parece estarle reclamando a las ciencias. Si usted pregunta a los autores

mencionados qué nos dice su información respecto a nosotros mismos y qué

objeto tiene ese conocimiento, su respuesta sería que usted está buscando

respuestas existenciales u ontológicas en el lugar equivocado. De hecho, su

programa pareciera un intento de borrar toda teleología del fenómeno que

describen, aun cuando dicho fenómeno incluya el big bang y el big crunch,

el comienzo y el final de nuestro universo. Todos ellos han rehusado tratar

cualquier esbozo de diseño en la evolución, menos aún respecto al

determinismo. Esta desmistificación, este intento de borrar cualquier

discurso extracientífico de la ciencia es sin embargo superficial. Los libros

están infiltrados de ideología. Por otro lado, a diferencia del determinismo

de épocas anteriores, el mantra de estos nuevos gurús científicos es “el azar”,

“el accidente”. No es que los autores estén tratando de defraudarnos,

creemos que cada uno de ellos escribió creyendo haber sido objetivo; sin

22

embargo, sus suposiciones los han cegado tanto con respecto a sus propios

prejuicios como con los prejuicios de su época.

Resumiendo, la respuesta común de éstos y muchos otros científicos a

Auden, sonaría así: su pregunta no es válida para la investigación científica

ya que no sólo es irrelevante sino terca y equivocada, antropocéntrica y

egoísta. El conocimiento es conocimiento puro y simple. Responde sólo a

los fenómenos que él mismo explica y explora, pero no contesta ni puede

contestar a su intento egocéntrico de colocarse en un continuo cósmico o

evolutivo. De hecho, continúa la respuesta de los científicos mencionados, si

estos hechos científicos dieran respuesta a algo, esto sería que todas las ideas

éticas, religiosas, ontológicas o existenciales que usted tenga con base en la

física o en la biología, constituyen una ficción. Causa y efecto, así como el

continuo, son invenciones conceptuales, ficciones.

En las páginas siguientes intentaremos analizar al más incisivo de

estos autores que quieren ser polémicos, Stephen Jay Gould. Asimismo

procuraremos separar los hechos científicos de las interpretaciones. A

medida que caminemos a través de Wonderful Life, trataremos de presentar

una clara imagen de la evolución, en virtud de que nuestra meta no consiste

solamente en la simple discusión de una interpretación alternativa de los

hechos, lo cual vendrá más adelante, sino que queremos satisfacer nuestras

propias demandas y plantear las teorías con una relevancia social y tan

claramente como sea posible. Después de todo, esperamos que este libro no

sea únicamente para un sector de lectores especializados.

Así como nuestros esquemas de lenguaje se remontan al modelo

cosmológico precopernicano y todavía decimos que el sol “sale” y el sol “se

mete”, subrayando la antigua creencia de que la Tierra era el centro del

universo, nuestra lectura, la forma que tenemos de leer libros y entenderlos,

23

parece provenir de la época prekantiana. Antes de Kant, los filósofos, al

reflexionar respecto al conocimiento, con frecuencia divorciaban al

conocimiento del lenguaje. Entendían el conocimiento como una entidad

autocontenida, algo así como una mónada. En otras palabras, la filosofía pre-

Kantiana entendía el lenguaje como una especie de vasija, donde la gente

simplemente vertía conocimientos previos. Kant cambió nuestra perspectiva

ya que entendió que el lenguaje no estaba subordinado al conocimiento sino

que era en sí mismo el conocimiento. Kant subrayó que “las formas de

juicio” son portadores del conocimiento. Como el lenguaje es corruptible,

prejuicioso, artificial y convencional, en consecuencia el pensamiento es

corruptible, prejuiciado y culturalmente determinado.

Sin embargo, probablemente porque parte de nuestra modernidad

supone un respeto reverencial hacia la autoría y a pesar de la crítica kantiana

que nos dice que el conocimiento no puede estar divorciado del lenguaje,

tendemos a leer libros sin la intención de clasificar información. En otras

palabras, con poca frecuencia analizamos cuál parte del texto es exposición,

cual información de hechos conocidos, cuál es interpretación, cuál

explicación de hechos distorsionados y manipulados por los antecedentes

ideológicos del autor, cuál obligación profesional o prejuicio cultural.

Podemos sostener que el grueso de los libros científicos publicados durante

la última década son tanto interpretación como explicación de hechos,

efectuadas a través de la lupa distorsionada del autor o aún más, hechos

organizados con fines proselitistas, para ganar conversos a su propia escuela.

Pocos de los autores científicos han tenido tanto poder y tan grande

auditorio como Stephen Jay Gould, un profesor de Harvard cuya bibliografía

incluye más de una docena de libros e incontables artículos. Aun cuando ha

sido frecuentemente criticado, dentro de la comunidad científica es

24

considerado –como nos dice Richard Foley en su libro Life– el pontífice de

la paleontología. Su fama, empero, no surge de su carrera estrictamente

científica, sino de una trayectoria editorial exitosa por sus escritos de ciencia

popular. La mayoría de sus libros constituyen colecciones de ensayos y

únicamente dos o tres de ellos intentan rastrear o detallar sus ideas respecto a

la evolución. Como ensayista es el mejor proselitista de la evolución y ha

demostrado suficiente claridad y perspicacia argumentativa para defender la

evolución cuando ésta ha recibido golpes retóricos e ideológicos de los

cristianos fundamentalistas, quienes creen en el creacionismo.5 Gould ha

iniciado una guerra contra el intento de prohibir la enseñanza de la evolución

en las aulas.

Desafortunadamente, la retórica pugilística que ha demostrado ser tan

ventajosa en sus argumentos contra de creacionistas y todo tipo de fanáticos,

también está inmersa en sus mas serios escritos. Es bueno cuando intenta

convertir, pero también hace enfurecer cuando sermonea al converso. Sus

dos libros más importantes Wonderful Life y Full House son tan

contenciosos como sus otros ensayos. En primer lugar aquí nos vamos a

referir a Wonderful Life. Sin embargo, consideramos necesario describir una

breve semblanza general de la evolución, de manera que el lector, quien

quizá no esté muy familiarizado con el tema o quien pudiera tener una visión

distorsionada de los principios de la evolución, pueda seguir y entender el

argumento de Gould, de manera que podamos ordenar sus valiosas

introspecciones y sus interpretaciones contenciosas.

En los años cincuenta, cuando Watson y su equipo lograron hacer un

modelo de la partícula del ácido desoxirribonucleico (ADN), lo que

5 El creacionismo no necesariamente es de un solo tipo. Existen creacionistas dogmáticos, deterministas, no deterministas, etc.

25

modelaron fue una hélice doble; más exactamente, encontraron que las

largas cadenas del ácido nucleico, no estaban solitarias, generalmente se les

encontraba en pares, formando una estructura de doble hélice. El libro de

Watson, The double helix, es un fascinante relato de un proceso científico.

Alrededor de cuarenta años después, es del dominio público que la doble

hélice es la estructura que encierra la información que hace de nosotros lo

que somos. Cada semana, al menos, tenemos la oportunidad de leer en el

periódico algo referente al ADN. Ha permeado nuestras vidas y se utiliza en

juzgados y desde luego apenas estamos comenzando a explorar la manera en

que va a cambiar a la medicina. Resumiendo, aún cuando el Proyecto del

Genoma Humano ha descifrado todos los genes humanos, bien sabíamos qué

clase de información es la que está codificada en las secuencias del ADN.

Aunque la secuencia de bases en cualquier segmento de ADN parece no

tener orden alguno, constituye el instructivo completo para construir el

organismo de todo ser viviente. Al conjunto completo de instrucciones de

una especie se le denomina “genotipo”. El genotipo de nuestra especie

contiene no sólo las instrucciones en cuanto a cómo y cuándo se divida un

huevo fertilizado, sino a desarrollos anatómicos posteriores. También tiene

el sello de nuestros padres. Por lo tanto, como bono adicional, no muy

agradable por cierto, nuestro ADN contiene varios de los problemas

congénitos que pudieran acosarnos en años posteriores.

Los progenitores masculino y femenino, producen, cada uno, células

especializadas que contienen sólo la mitad de la información genética que

poseen las células de un individuo. Estas células llamadas gametos, al

fecundarse unen la información procedente del padre con la de la madre. De

esta manera se adquiere la información completa para formar un organismo

que presenta variaciones respecto a los progenitores. En palabras más

26

sencillas, el ADN de cada individuo es una combinación del ADN de ambos

padres y desde luego, contiene la mitad del ADN de la madre y al otra mitad

del ADN del padre. Esta precisa combinación es uno de los pivotes de la

evolución.

Recientemente el mundo se sacudió con los encabezados que dieron la

bienvenida al mundo a Dolly. Sólo aquel que viva en otro planeta no ha oído

o leído algo respecto a Dolly, la clonación de una oveja que fue el resultado

del trabajo de científicos británicos. Al ser clonada, Dolly no surgió como

una combinación de dos ramales de ADN. Los científicos extrajeron el ADN

de una oveja y pudieron hacer una réplica exacta de ella. Este experimento

ha causado gran revuelo, ya que los éticos y los políticos reaccionaron ante

la noticia, la condenaron y cuestionaron sus ramificaciones. De inmediato el

presidente Clinton presentó una iniciativa de ley que prohibe la clonación.

Casi todo el mundo piensa que la clonación puede iniciar tendencias

terribles. Para la mayoría, el experimento equivalía al hecho de que

cualquiera que tuviera acceso, el suficiente dinero y ser tan tonto o egoísta

como para crear una réplica exacta de sí mismo, diera el paso y lo lograra.

Esta percepción, desde luego, es estrecha, equivocada y crucial para nuestro

posterior argumento. Por ahora, es suficiente afirmar que Dolly fue “hija”

gemela genética de la oveja progenitora, que existen por ahí dos ovejas con

el mismo material genético, el mismo y preciso ADN. Sorprendentemente lo

que pocos toman en cuenta, es el hecho de que aun cuando el ADN

determina en gran parte lo que somos, por decirlo de alguna manera, una vez

que nuestro clon, nuestra réplica, comienza a vivir su propia vida, él o ella

tendrán diferentes experiencias y consecuentemente él o ella serán una

persona diferente.

27

De momento continuemos con la evolución. La razón por la que me

referí a Dolly es porque en caso de que usted le pagara a un científico para

que lo clonaran, su clon, aunque sería una copia exacta suya, de todos

modos, él o ella sufrirían muchos de los dolores que usted padece. Si usted

tiene problemas de rodillas, él o ella también los tendrá y si usted es miope,

él o ella será igual de miopes. En otras palabras, si usted fuera el producto de

una rama de ADN y sus hijos o hijas fueran producto de la misma rama de

ADN, no existiría ningún cambio. Por lo tanto, la naturaleza o la vida –y

aquí no puedo dejar de antropomorfizar– ha buscado la reproducción

multicelular. Lo que la combinación de dos ramas de ADN permite es la

variación, uno de los tres principales dogmas de la evolución. En forma más

literal, variación significa que tenemos un ligero parecido con alguno de

nuestros padres. Podemos tener los problemas de rodillas de la madre pero

también podemos tener un corazón sano que el padre no tiene. A primera

vista esto parece obvio pero las repercusiones de la variación son tremendas

si usted las comprueba en las dimensiones en las que opera la evolución.

Recuerde que hablar de evolución implica hablar de eras geológicas.

Los humanos han estado conscientes de la variación desde hace

mucho tiempo; de hecho, para argumentar su teoría, Darwin comienza El

orígen de las especies con el conocimiento que entresacó durante

conversaciones con granjeros y horticultores. De lo que Darwin se dió

cuenta fue del tipo de repercusión que la variación produciría a largo plazo.

Para comenzar a sondear las posibilidades permítasenos utilizar una

analogía. Tomemos el idioma inglés e imaginemos la totalidad de su medio

millón de palabras como una reserva de material genético; las diferentes

ramas de ADN están allí listas para combinarse con otras ramas de ADN.

Digamos que nuestra reserva genética es una reserva de una especie llamada

28

poema. El idioma, como el ADN tiene una estructura, por lo que aquellos

que redactan un poema tienen que seguir ciertas reglas métricas, sintácticas y

gramaticales. A pesar de las reglas y de la limitada cantidad de palabras, se

puede obtener lo siguiente:

Vanity! said the preacher. Vanity!

Esta línea de Browning repite la palabra y nos da la sensación de una

novela o historia corta. Sin embargo, también se puede obtener lo siguiente:

To glide a sunbeam by the blasted pine.

Esta línea de Tennyson observa la misma métrica que la anterior, pero

en lugar de ser dramática o narrativa es puramente lírica.

Este tipo de posibilidad imperante, esta habilidad para operar y variar

dentro de los límites y aun poder producir algo diferente, fue lo que, por lo

menos en parte, impulsó a la evolución. Como el lenguaje, la reserva

genética permite cambios y diferencias debido a la reproducción. Lo que son

sintaxis y gramática en el lenguaje, corresponde a las reglas y limitaciones

de transformación genética. La solución a esta cuestión descubre el modus

operandi de la evolución.

La evolución tiene tres aspectos. El primero es un principio

conservador y su germen, por llamarlo de alguna manera, está incrustado en

nuestro ADN. Como hemos mencionado anteriormente, el ADN es nuestro

manual de instrucciones. Aún si somos producto de dos ramales de ADN

unidos uno con el otro, la información esencial que necesitamos pasa a

través de ellos. Para continuar nuestra analogía linguistica, si pensamos en la

evolución como un proceso similar a la escritura, el principio conservador es

análogo a la gramática y a la sintaxis. Muchas de la reglas gramaticales y de

sintaxis son flexibles, pero sólo algo flexibles. Lo que es más, deben de

existir y si estamos de acuerdo con los principios de la gramática generativa

29

de Noam Chomsky y los aplicamos a nuestra analogía, podríamos decir que

esas reglas deben preexistir. Pero aquí nos estamos adelantando a nuestro

argumento.

De momento, aunque sólo superficialmente, tratemos de averiguar por

qué es necesario el principio conservador. Posteriormente hablaremos de la

física y abarcaremos la segunda ley de la termodinámica, que postula que la

entropia del universo siempre crece. Sin embargo por ahora es suficiente

decir que –según muchos científicos –la naturaleza6 tiende al desorden. En

Full House Gould destacó que muchos biólogos malinterpretaron la segunda

ley de la termodinámica cuando dijeron que la vida se opone a tal ley. Gould

está equivocado, ya que su argumento gira sobre el hecho de que, segun él,

la ley se aplica sólo a sistemas cerrados, sistemas a los cuales no se les puede

alimentar con energía. La entropía sucede en todos los sistemas. Un sistema

abierto por definición requiere suministro continuo. La segunda ley de la

termodinámica sí opera en los sistemas abiertos, tanto así que por eso se

llaman abiertos, pues reciben energía externa y reemplazan la perdida en las

transformaciones. De hecho, la entropía se estudió originalmente en

máquinas, que constituyen sistemas abiertos. Consideramos que un sistema

es cerrado cuando no se le quita ni agrega nada y además cuando el medio

en que está no lo perturba. Y, aparentemente, el único sistema que cumple

estrictamente estos requisitos es el universo.

Nosotros no somos sistemas cerrados como tampoco es nuestro

planeta. El planeta es radiado constantemente con energía solar. Nosotros los

mamíferos, que somos sistemas abiertos, sujetos a la entropía, tenemos que

comer, tenemos que recargar combustible de alguna manera. Sin embargo, a

nivel molecular, al inicio absoluto de la vida y antes de la existencia de

30

organismos complejos, cuando las primeras moléculas se agruparon y, lo que

es más importante, cuando pudieron reproducirse entre ellas, la segunda ley

de la termodinámica estaba si no contra ellas, definitivamente no a favor. La

segunda ley no funciona contra los sistemas de autoreproducción, pero si

individualmente contra los elementos que los conforman. Si ciertos patrones,

como por ejemplo el ADN, son recurrentes de generación en generación es

porque, a niveles moleculares, únicamente algunas estructuras tienen la

capacidad de tender un puente entre lo orgánico y lo inorgánico. Una vez

más, aquí la diferencia depende de la autoreproducción y la no

autoreproducción. No debemos confundir, tal como lo han hecho algunos

biólogos, una roca que funciona únicamente a través de yuxtaposiciones, con

un compuesto orgánico que tiene la capacidad de evolucionar.

Paradójicamente, el segundo principio de la evolución incluye lo

contrario a la preservación, a saber, innovación o divergencia, como Darwin

lo llama. Hemos sido testigos de cómo en un corto lapso la herencia nos

puede convertir en animales que están más adaptados a su ambiente. La

combinación de dos ramas de ADN permite diversidad y una reserva

genética de mayores proporciones. La innovación sin embargo, al operar en

la combinación de las dos ramas de AND, también funciona en las

mutaciones. Para obtener mayor ilustración utilizaremos otra analogía y en

esta ocasión recurriremos a la música. Imagínese que el principio

conservador de la música se parece a la armonía tradicional, misma que

organiza las doce notas de la escala occidental alrededor de una tónica y un

dominante. Hacia el siglo XIX, los compositores comenzaron a sentirse

incómodos con esas limitaciones y decidieron ampliar las posibilidades hasta

que en un momento dado el sistema de tónica y dominante se desplomó y

6 Naturaleza significa todo aquello que el hombre no ha hecho.

31

para principios del siglo XX se pudo transformar el arreglo de los 12 tonos

para eliminar el valor agregado tanto del tono como del dominante. Este

nuevo sistema representó una mutación. Si los 12 tonos son el ADN,

entonces las mutaciones surgen de sus arreglos. La clave está en que la

mutación tiene como resultado una diferente estructura. Las mutaciones

ocurren debido a la alteración de las moléculas de ADN por errores de

reproducción. Entonces las mutaciones, al contrario de los cambios

musicales a los que hice referencia, no serían ni planeadas ni deseadas.

Cuando se lee El origen de las especies de Darwin, la palabra que uno

encuentra en los días de la biología premolecular es monstruosidad. Por

monstruosidad o monstruo Darwin no se refiere a nuestras ficciones y

fantasías sino a una ligera o drástica desviación de la norma. He aquí a

Darwin hablando de divergencia:

Here, then, we see in man´s productions the action of what may be called the

principle of divergence, causing differences, at first barely appreciable, steadily

to increase, and the breeds to diverge in character both from each other and from

their common parent.

(Vemos, pues, en las producciones del hombre la acción de lo que

puede llamarse el principio de divergencia, produciendo diferencias, primero

apenas perceptibles, que aumentan continuamente, y que las razas se

separan, por sus caracteres, unas de otras y también del tronco común.) 7

La divergencia es el principio que separa una especie de otra y es el

principio que nos permite evolucionar.

7 Charles Darwin, On the Origin of Species. [Facsímile de la primera edición]. Harvard University Press, Cambidge (MA), 1964. p. 112

32

Distanciados como estamos de nuestro ambiente natural y apartados

de las condiciones primarias que acuñaron al Homo sapiens primitivo, con

frecuencia dejamos de considerar lo que es la divergencia. Ahora bien, las

mutaciones genéticas aun podrían tener consecuencias calamitosas, pero

muchas mutaciones se atienden en clínicas. En otras palabras, al poner en

manos de los doctores las mutaciones genéticas habremos aislado aquello

que no únicamente para los humanos primitivos sino para los humanos de

finales de siglo XIX y del siglo XX ha sido gran parte de nuestra cultura; es

decir, la incapacidad de adaptarnos a las desviaciones. Las desviaciones

pueden ser provechosas para la especie cuando son exitosas, pero cuando no

lo son, las consecuencias pueden ser trágicas. Es más, estas consecuencias se

deben al tercero y último principio de la evolución: la selección natural. La

selección es un principio donde el ambiente parece ejercer su mayor

influencia. Muchas mutaciones se deben a la influencia ambiental y, sin

embargo, ningún aspecto de nuestro ambiente es más despiadado que el del

principio de la selección. A pesar de lo despiadado de la selección, ella es el

eje alrededor del cual giran la conservación y la innovación. La esencia de la

selección podría interpretarse como sigue: La especie –mosca de la fruta,

humano, perro– se reproducen con más rapidez de lo que el ambiente natural

puede soportar. El Homo sapiens es el mejor ejemplo de esto. Debido a la

civilización y los ecosistemas que ha arrasado, muchas de nuestras especies

no han sobrevivido, pero de todos modos, dentro de su escasez, los

individuos se ven obligados a luchar por su supervivencia. Dentro de dicha

competencia, alguno de los individuos de una especie llegan a la edad de

reproducción y otros no, dando como resultado que los primeros estarán en

la posibilidad de perpetuar su material genético. En consecuencia, el material

33

genético que se transmite resulta el más adecuado para sobrevivir en su

ambiente. Como dice Darwin:

Natural selection acts through the preservation of variations in some way

advantageous which consecuently endure.

(La selección natural obra solamente mediante la conservación de variaciones en

algún modo ventajosas y que, por consiguiente, persisten.)8

Por lo menos para nosotros existe una cantidad considerable de

crueldad en la selección y desde luego también gran ineficiencia en el

esquema de la selección natural. Poca gente han tenido que tratar con la

ineficiencia y el dolor como Darwin mismo y como Teilhard de Chardin.

Veremos cómo éste último pudo lidiar con ellas. Darwin sin embargo

diseñó, a pesar de la crueldad y la ineficiencia, un método bien afinado para

mantener un equilibrio ecológico:

In looking at Nature, it is most necessary to keep the foregoing considerations

always in mind –never to forget that every single organic being around us might be

said to be striving to the utmost to increase in numbers; that each lives by a struggle

in some period in its life; that heavy destruction inevitably falls either on the young

or old, during each generation or at recurrent intervals. Lighten any check, mitigate

the destruction ever so little, and the number, and the number of the species will

almost instantaneously increase in amount.

(Al contemplar la naturaleza es muy necesario tener siempre presentes las

consideraciones mencionadas; no olvidar que todos y cada uno de los seres

orgánicos puede decirse que están esforzándose hasta el extremo por aumentar el

número, que cada uno vive merced a una lucha en algún período de su vida; que

inevitablemente los jovenes o los adultos, durante cada generación o repitiendose a

intervalos, padecen importante destrucción. Disminúyase cualquier obstáculo,

8 Ibid., p. 109

34

mitíguese la destrucción, aunque sea poquísimo, y el número de individuos de la

especie crecerá casi instantaneamente hasta llegar a un nivel incalculable.)9

Aquí Darwin no sólo está explicando la razón de la muerte y las

extinciones naturales, sino que nos está advirtiendo, pronosticando el futuro

ecológicamente desequilibrado que estamos viviendo. El más famoso

ejemplo desde luego es la extinción de los depredadores. En América del

Norte, el siglo XIX presenció una campaña contra el lobo y aún a principios

del XX las pieles de lobo fueron altamente recompensadas tanto por

granjeros como por las autoridades. Una vez que el lobo desapareció, una

vez que “el contratiempo se aligeró”, la población del venado creció

estratosféricamente. El venado se ha convertido en una plaga.

Regresaremos a los tres principios evolutivos –conservación,

innovación y selección- una vez más. Pero antes de discutirlos con mayor

amplitud, me gustaría mencionar lo que Stephen Jay Gould añadió a la

introspectiva de Darwin y cómo la interpretó.

El origen de las especies de Darwin, al igual el El capital de Marx es

un monstruo de libro que catalizó nuestro siglo. Es uno de esos libros que

provocan reacciones y significan cosas completamente diferentes en

personas diferentes. Filósofos como Bergson, teólogos como Klüger y desde

luego muchos científicos, han interpretado la teoría de Darwin de manera

diferente. Algunos han encontrado a la evolución como sacrílega mientras

que otros la encuentran como consuelo. Richard Dawkins, por ejemplo, a

pesar de su enfoque objetivista, arguye un tanto inmaduramente que

“Darwin logró que alguien pudiera ser un ateo intelectualmente realizado”.

De hecho, a lo largo de este siglo la evolución ha sido interpretada de tantas

9 Ibid., pp. 66-67

35

maneras que un crítico cultural pudiera seguir nuestras huellas solamente

rastreando nuestras actitudes respecto a Darwin.

El significado etimológico de evolución simplemente implica que algo

que evoluciona es algo que se desenvuelve o se desenrolla. Sin embargo,

hasta los diccionarios definen la evolución como un fenómeno jerárquico;

por ejemplo, uno de los diccionarios más importantes el Oxford English

Dictionary, la define así ( entre otras acepciones):

"De organismos animales y vegetales y sus partes; proceso de desarrollo del estado

rudimentario al estado maduro y completo".

Esta definición con sus antípodas, lo rudimentario vs. lo maduro o

completo, ha promovido la idea de que el Homo sapiens es superior, menos

rudimentario, más maduro, en un estado más completo que el de otros

animales. Solo recientemente al ir encontrando el sistema sonar de los

murciélagos y las ballenas, la visión termal de las serpientes y la

superioridad de muchos de los sentidos animales hemos empezado a revisar

nuestra terminología. Más recientemente aun, con el surgimiento de la

ecología como ciencia, nos hemos dado cuenta de que la naturaleza no opera

con jerarquías sino con ecosistemas10.

Darwin no dijo que la evolución implicara las antípodas que la

definición del diccionario citado enlaza. Como hemos visto y de acuerdo con

Darwin, los organismos evolucionan, cambian y se adaptan a su entorno, por

lo que entender la evolución a través de aquellos términos antípodas es un

error. Nadie ha intentado tanto disipar ese mito como Stephen Jay Gould. El

10 Estamos refiriéndonos a la parte puramente material del ser y como veremos en la segunda parte del libro, no podemos comparar aptitudes físicas solamente, sino que

36

proyecto total de Gould parece desmentir el sofisma de los retóricos y los

logistas llamado post hoc, ergo propter hoc. Si se entiende la evolución

mediante este sofisma, se puede aducir que preexistimos y que ya fuimos

predestinados en los primeros organismos que colonizaron la Tierra. En

otras palabras, Gould se ha esforzado en socavar la idea de que nuestra

inteligencia y nuestra complejidad anatómica estuviera implícita en las

primeras etapas de la vida. De acuerdo con Gould, la vida humana y la

inteligencia eran “poco probables”. Lo que trata de enfatizar, es su idea de

que la vida fue un accidente.

Las herramientas argumentativas de Gould han sido principalmente

réplicas a otros científicos, la revisión del trabajo de otros científicos y la

crítica semiótica de la iconografía de la evolución, la crítica de las imágenes

que utilizamos para entender la evolución. Wonderful Life, el que podría ser

el libro más importante de Gould, toma su título del filme de Frank Capra

It`s a Wonderful Life. Al igual que El Mago de Oz, el filme de Capra está

profundamente incrustado en la psique norteamericana. Es uno de esos

filmes que vuelven a estar obligatoriamente en cartelera durante las

vacaciones. La trama gira alrededor de una suposición. George Bailey

protagonizado por James Stewart había tenido una buena vida y había

antepuesto los intereses de terceros a los suyos. Su compañía va a la

bancarrota y Mr. Potter, protagonizado por Lionel Barrymore, lo acusa de

fraude. En absoluta desesperación, George está a punto de suicidarse

tirándose al agua cuando su ángel de la guarda se interpone tirándose

primero y sabiendo que George pediría auxilio. George piensa que su vida

no ha valido la pena y que hubiera sido mejor no haber nacido. Su ángel

tenedremos que incluir otro concepto fundamental, el conocimiento. La evolución es una evolución de las formas en relación directa a la evolución de la conciencia.

37

decide regresarlo en el tiempo y mostrarle como afectó o como cambió la

vida de tanta gente durante su vida. En pocas palabras, el filme se basa en la

retrovisión de la vida de George.

En su libro Wonderful Life, Gould propone un experimento similar

aunque imaginario, con la cinta de la vida. Gould opina que si regresamos la

cinta de la vida y luego la volvemos a proyectar desde el principio, el

resultado probablemente nos excluiría. Los resultados, en otras palabras,

serían completamente diferentes. No sólo el Homo sapiens no se hubiera

desarrollado nunca, sino que la flora y la fauna que conocemos sería

totalmente diferente:11

I call this experiment “replaying life´s tape.” You press the rewind button and,

making sure you thoroughly erase everything that actually happened, go back to

any time and place in the past –say, to the seas of the Burgess Shale. Then let the

tape run again and see if the repetition looks at all like the original. If each replay

strongly resembles life´s actual pathway, then we must conclude that what really

happened pretty much had to occur. But suppose that the experimental version all

yield sensible results strikingly different from the actual history of life? What could

we then say about the predictability of self-conscious intelligence?12

Los científicos con frecuencia suenan como gente que sale con

preguntas tontas, con el tipo de preguntas que parecen más apropiadas para

juegos de salón que interrogantes científicas reales. Algunas de estas

preguntas han proporcionado resultados increíbles. Einstein descubrió su

principio de la relatividad especial formulándose un experimento hipotético

11 O no hubiera habido Homo Sapiens ni flora ni fauna, como de hecho sucedió en la mayoria de los planetas que se han formado. 12 Stephen Jay Gould, Wonderful Life: The Burgess Shale and the Nature of History. W.W. Norton & Co., Nueva York, 1989, p. 48.

38

parecido. (“si yo fuera en un tren que se desplazara a la velocidad de la

luz…”). El experimento de Gould podría ser importante –sobre todo para

demostrar la validez de la teoría del caos – pero definitivamente no es nada

original. Un cuento corto de Ray Bradbury presentó el mismo esenario de

viaje en el tiempo, en el cual unos hombres del futuro construyen una

máquina del tiempo y regresan a cazar dinosaurios. A estos cazadores de

trofeos se les prohibió distorsionar la historia, por lo que solamente se les

permitía cazar dinosaurios moribundos. Sin embargo, uno de los miembros

de la expedición pisa un insecto y cuando los cazadores regresan a su época

se encuentran con una raza de hormigas gigantes.

Los lectores más sensatos se podrían preguntar qué caso tiene dicho

ejercicio mental. Si no sucediera así, ¿por qué preocuparse? Nuestro viejo

refrán “lo pasado, pasado” es aquí aplicable. Pero la hipótesis tiene cierta

brillantez y proporciona varias introspecciones profundas e importantes. Una

de ellas, la que se pregunta cuáles métodos debemos utilizar para interpretar

el registro de fósiles. En efecto, el argumento central de Gould es que nos

hemos leído o identificado en el registro de fósiles. Pero la hipótesis también

proporciona una introspección más importante, a saber: el papel que

desempeña lo que Gould llama contingencia. Gould apoya su opinión

reconstruyendo y reinterpretando lo que él llama “los fósiles más

importantes del mundo”: Burgess Shale, que es una fauna Cambriana

impecablemente preservada. Gould no está hablando en hipérbolas. Él está

en lo correcto al colocar a Burgess Shale en lo alto de la lista. La mayor

parte de nuestro registro de fósiles es un registro de partes duras, dientes,

huesos, etc. por lo que consecuentemente la mayoría de los animales de los

39

que tenemos registro son vertebrados. Burgess Shale es importante porque

contiene invertebrados preservados.

Gould hace un espléndido trabajo al reconstruír la fauna de Burgess

Shale pero su reconstrucción tiene una intención incrustada. Como lo

apuntamos anteriormente, Gould piensa que las primeras reconstrucciones

de los bosques fueron prejuiciadas. De acuerdo con él, los primeros

biólogos, quienes interpretaron la fauna, fueron parciales, ya que la

iconografía con la cual entendieron la evolución describía un modelo

piramidal, un modelo que presenta a la evolución ya sea como una escalera o

como un cono invertido. El primer modelo resulta sencillo para aquellos que

han abierto un libro de texto y han visto el diagrama de un simio que se

desenrrolla y se convierte en un humano. El modelo de cono invertido, por

otro lado, es un poco más sofisticado. Implica entender la evolución como si

fuera un cepillo con una única raíz en la base, desplegando ramas en la parte

superior. Si fuéramos a reconstruir la fauna cambriana simplemente con el

modelo de cono invertido, el intento inmediato sería encontrar una

contraparte moderna de cada uno de los animales cambrianos. En otras

palabras, supondríamos que cada animal fue un predecesor de cada uno de

los animales que conocemos y que la extinción jamás eliminó a las especies

que no tuvieron descendencia. Gould opta por un cono normal. Él piensa

que la vida empezó con una increíble variedad y que al paso del tiempo se

redujo a un menor número de especies.

¿Hasta qué punto es radical el modelo de Gould? Al reinvertir el cono

invertido, o sea hacerlo “normal”, él tiene la posibilidad de contradecir el

modelo de evolución que va de lo “primitivo” a lo “avanzado”, de lo

“simple” a lo “complejo”. Gould puede deshacerse de la interpretación de

linealidad, progresivismo y determinismo – palabras estorbosas para Gould.

40

Está también en condiciones de mostrar que el Homo sapiens no es el

propósito hacia el cual apunta la fauna cambriana sino que más bien es

simplemente una “ramita”.

Se pueden deducir dos resultados de la crítica de Gould. El primero es

limitado pero muy importante e inteligente. El segundo es fatuo,

desafortunadamente. Comencemos con el importante e inteligente. Muchos

críticos han encajado el trabajo de Gould con el tipo de interpretación

evolucionista que ve a la suerte, al azar, como el común denominador de la

evolución. Han tomado su trabajo como adherido a un nihilismo

evolucionista. Gould no cree en jerarquías, ni en progreso ni en linealidad,

ni en determinismo, ni cree que la evolución tenga un objetivo. Desde luego,

como muchos biólogos, sabe que el azar es un factor de gran importancia.

Sin embargo, para Gould el principal empuje, –aun cuando ésta sería una

palabra errónea para él– el principal motor de la evolución, ha sido la

contingencia. Por contingencia Gould quiere decir que la evolución no es

“insensible” ni le falta un “patrón”, sino que está “determinada por miles de

improbables” y sucesos impredecibles:

I am not speaking of randomness (for E had to arise, as a consequence of A

through D), but of the central principle of all history –contingence. A historical

explanation does not rest on direct deductions from laws of nature, but on an

unpredictable sequence of antecedent states, where any major in any step of the

sequence would have altered the result. This final result is therefore dependent, or

contingent, upon everything that came before –the unerasable and determining

signature of history.13

13 Ibid., p. 283

41

Por lo tanto la contingencia no esta muy lejos de la visión de Darwin

del balance, una buena sintonía de la población con los recursos. Deshágase

de un depredador y la presa florecerá. Lo que Gould discute es que la vida en

sus diferentes etapas no contó con un único empuje: por el contrario, miles

de circunstancias propiciaron el resultado. Resumiendo, la contingencia

representa realmente una visión de la evolución generosa y ecológica.

Contempla la vida como una red de la cual no sólo somos parte sino que

somos sus dependientes. Sin embargo existe un problema, ya que la idea de

la contingencia funciona en el “condicional”. Si las aguas del periodo

cámbrico hubieran sido un poco más templadas, hubiéramos podido no estar

aquí. Se necesitan todos los “si” y los “habría” o “hubiese”. Este tipo de

argumento hipotético perpetuo podría motivar insignificantes revisiones de

las ideas que tuvimos en el pasado. Pero una cosa que no puede hacerse por

más que Gould lo intente, es probar que los humanos no son inevitables.

Somos inevitables porque estamos aquí. Mientras no podamos viajar en el

tiempo –si es que alguna vez eso es posible– no podremos manipular la

palanca que borre nuestro parentesco, por lo que el argumento es meramente

una curiosidad metafísica, que podría demostrar nuestra suerte, o lo precario

de la vida o el fino equilibrio sobre el cual cabalga nuestra existencia. Todas

estas cosas son importantes, es importante tener en mente todo esto. Con

todo ello, no se puede desmentir nuestra importancia aquí. Gould podrá

tratar de hacerlo pero en su intento realmente socavará el poder de la

contingencia. Al hacer de nuestra especie algo marginal marchita las

implicaciones ecológicas de la contingencia. Somos, después de todo, una

de las especies con mayor influencia por lo que al ambiente se refiere.

Existe un aspecto aún más defectuoso en el trabajo de Gould.

Aparecen sus peores momentos cuando intenta borrar las malas

42

interpretaciones sobre la evolución. Como hemos visto, su proyecto intenta

desmentir el progreso, el determinismo y la linealidad. Y es en hacerlo, al

intentar demostrar que estos conceptos son ficciones, en donde falla en ver

cómo sus propias ideas están infectadas con tantos prejuicios como las ideas

que trata de disipar. En orden de corregir las malas interpretaciones, Gould

ha adoptado muchas de las técnicas que los críticos culturales han

desarrollado durante este siglo. Su crítica de la iconografía de la evolución

tiene la misma redundancia que muchas de las críticas iconográficas que

llevan a cabo los semiotistas. Su intento de derrocar al Homo sapiens de sus

alturas jerarquicas, asemeja en su enfoque, si no en su estilo, a un proyecto

de destrucción. Concretando, al igual que los críticos culturales a los que se

asemeja, Gould tiende a tomar una buena idea y explayarse en ella, aplicarla

sin discriminación, sin ningún respeto ni al sentido común ni a la lógica.

Para los críticos culturales, como para Gould, se ha convertido en una moda

etiquetar cada patrón como una falacia o ficción: Como opina en Full House,

cada “tendencia fundamental” de la que nos enteramos al leer algo respecto a

la evolución “se basa en una falacia”.14

Esta tendencia ha sido, por lo menos, perjudicial. Ha enlodado su

trabajo con imprecisiones y errores, con los mismos pasos en falso de

interpretación y situaciones sin solución lógica que critica en otros.

Probablemente, sus callejones sin salida lógica se desprenden de su

interpretación del tiempo. Una vez más, en Full House destaca que debido a

que somos “criaturas que cuentan cuentos”, quienes estamos “fascinados con

las tendencias” hemos “impartido direccionalidad al tiempo”.15 Tal

enunciado, desde luego, no solo es sorprendente sino atroz, viniendo como

14 Op. cit. p. 19 15 Op. cit. p. 31

43

lo es, no de un preparatoriano quien apenas terminó su primer curso de

filosofía, sino del “pontífice” de la paleontología. Hablaremos

posteriormente de la direccionalidad del tiempo cuando hablemos de física y

por lo pronto, será suficiente decir que los físicos aseveran que la dirección

del tiempo es la misma que tiene la flecha de la termodinámica. Según la

flecha de la termodinámica las cosas tienden al desorden. La analogía común

en este caso es el vaso de leche a la orilla de la mesa. Digamos que alguien

pasa y simplemente hace que la casa vibre tanto como para hacer que el vaso

se caiga y se rompa y que la leche s desparrame. Así es como

experimentamos el tiempo. Nunca hemos visto vasos que se rehacen, se

vuelven a llenar y se regresan a las mesas en donde estaban colocados.

¿Por qué Gould habría de ignorar tal hecho obvio? ¿Por qué habría

Gould de ignorar lo que la física nos dicen respecto a que el tiempo tiene una

dirección? Parte de su argumento es por absoluta ceguera, por su inhabilidad

para separar el condicional de sus experimentos mentales –sus “si” en “si

rebobináramos la cinta de la Vida”, sus “hubiera” y “habria” que siguen en

la oración principal- de la realidad, de las imposibilidades físicas. Sin

embargo, realmente es necesario para cualquier pensador poder distinguir

una hipótesis de la realidad física. La segunda razón por la cual Gould ignora

las leyes físicas podría ser ideológica. En verdad, está inmerso en el

ambiente ideológico de la academia. Sus escritos suenan a ese tipo de

nihilismo de izquierda que ha sido tan comun en la cademia: en la critica del

conocimiento de Derrida, en la crítica de la historia de Foucault, etc. Como

tantos académicos, Gould forma parte del Zeitgeist.

A la larga, el intento de Gould de desmentir la direccionalidad del

tiempo lo condujo a errores tremendos. Con objeto de defender su idea, hace

exactamente lo que critica en sus predecesores ya que forza su información

44

de manera de adecuarla a su argumento. En Wonderful Life, por ejemplo, al

tratar de demostrar que no existen ni secuencia, ni linaje, ni direccionalidad,

francamente llegó a una interpretación errónea y finalmente cercenó el linaje

de varios organismos. Uno de estos organismos que forma parte del núcleo,

la raíz, la semilla del argumento del autor debido a la copiosa variedad de los

mismos durante las etapas tempranas de la Vida, fué la Hallucigenia, un

artrópodo perfectamente descrito por su nombre científico. La Hallucigenia

es un gusano con siete pares de púas de un lado y siete extensiones tubulares

por el otro, un tubérculo como protuberancia en un extremo y una cola

tubular en el otro. Gould se refería a “esta extraña maravilla” como prueba

de una variedad de diseño en la vida primitiva. Al girarlo, lo interpretó al

reves. Tan obsesionado estaba con sus artículos revisionistas que trataban de

corregir las interpretaciones originales de la fauna, que los tubos de la

espalda resultaron ser patas –un segundo juego de patas apareció cuando el

fósil fué debidamente excavado. Las púas que Gould creía que eran patas

eran justamente eso: púas. De hecho la Hallucigenia reinterpretada con

posterioridad a Gould, probó ser ancestro de los gusanos terciopelo

(Onycophora) que aún sobreviven debajo de troncos podridos en el

hemisferio sur.

Para los admiradores de Gould, este tipo de error, este tipo de ceguera

debido a sus prejuicios –el tipo de ceguera al que Gould tan mordazmente

atacó– es solo peccata minuta. Sin embargo, no lo es. El rechazo de Gould a

nuestra tendencia a encontrar “tendencias” en nuestras lecturas e

interpretaciones de los registros de fósiles, lo invalidó. Simon Conway

Morris, uno de los asistentes de Gould en el proyecto Burgess Shale ha sido

probablemente quien ha proporcionado el argumento de mayor peso contra

la interpretación de Gould, al ofrecer una alternativa para la contingencia

45

como el modus operandi de la evolución. Originalmente, cuando Darwin

hizo su gran descubrimiento, no contaba con nuestros puntos de ventaja, ya

que el ADN y su estructura habían de descubrirse con posterioridad. No

estaba enterado de los experimentos genéticos de Mendel y su idea surgió

por medio de la observación y lo que observaba eran unicamente formas.

Darwin descubrió la evolución, porque hizo observaciones cuidadosas de los

patrones anatómicos y de sus respectivas modificaciones. Y es precisamente

en esta ingenuidad respecto a lo formal, lo anatómico o lo estructural en lo

que Gould ha sido más defectuoso.

En su libro The Crucible of Creation, Conway Morris discute el tema

a la par. Razona más allá de simples malas interpretaciones del registro de

fósiles, ya que su argumento gira alrededor de la idea de que, aun cuando

uno regrese la cinta de la vida y la vuelva a reproducir, el resultado no sería

tan diferente. ¿Por qué? Porque Conway Morris, como Darwin, es un

formalista por llamarlo de alguna manera. Tomemos tres animales: el oso

hormiguero gigante sudamericano, el equidna de Oceanía y el pangolín

gigante de Africa. Si usted observa los tres animales, va a contemplar tres

animales muy similares. Los tres tienen una lengua larga y pegajosa y garras

de cimitarra. Todos son desdentados y su hocico carece de pelo y asemeja

una manguera de hule. Todos ellos tienen protuberantes glándulas salivales y

un estómago sumamente áspero. Sin embargo y a pesar de sus muchas

semejanzas, ninguno de éstos animales están emparentados, es más, no

tienen una línea común. El equidna pone huevos y está relacionado

íntimamente con el ornitorrinco. Lo que hace a estos tres animales

semejantes, es un fenómeno que Conway Morris denomina convergencia. La

convergencia es el mismo fenómeno que asemeja al murciélago (mamifero),

al aguila (ave) y al extinto pterodáctilo (reptil). Lo que la convergencia

46

señala, es que la vida sólo puede tener tantas formas como las que puedan

hacer frente al medio ambiente de manera exitosa. Existen varios diseños

que pueden permitirle a un animal volar. En el caso de nuestros tres animales

hormigueros, la razón por la cual son tan similares es que todos ellos,

precisamente, se alimentan de hormigas, tarea difícil, que explica por qué,

para quitarse facilmente las hormigas y prevenir mordidas tienen hocico

duro y sin pelo; garras que les permitan excavar y estómago que les ayuda a

digerir, etc.

Estaremos tratando con la convergencia más ampliamente ya que es

crucial para nuestro argumento, que va más allá de las simples similitudes

anatómicas. De hecho, la convergencia se dá también a niveles moleculares.

Peces no emparentados, que nadan en aguas muy frias, han desarrollado la

misma proteina anticongelante. Por ahora, nos gustaría concluir este capítulo

con la respuesta de Stephen Jay Gould a la pregunta de Auden:

We may, as this book advocates, accept [geology´s] implications and learn to seek

the meaning of human life, including the source of morality, in other, more

appropiate, domains –either stoically with a sense of loss, or with joy in the

challenge if our temperament be optimistic.

Entónces, ¿para qué queremos el conocimiento? La respuesta de

Gould nos dice que la aceptemos por resignación o más bien para hacernos

tontos. Volveremos a Gould, con optimismo, para debatirlo respecto a lo

equivocado de sus más preciada idea, la insistencia en contemplar a la vida

como algo sin significado, la evolución como sin propósito. Pero primero,

para dar nuestra respuesta de para que queremos el conocimiento, debemos

encontrar nuestra escala, tenemos que ver como encajamos en este cosmos

47

de lo infinitamente pequeño y de lo tremendamente grande, y también

entender como lo infinitamente pequeño nos configura, como también

configura lo infinitamente grande.

48

2

LA MÚSICA DEL UNIVERSO

The larger music of the world, which contains all sounds and silences

and whichone rarely notices, either because its rhythms occur too quickly

or it takes centuries for harmonies to resolve,

emerges for a moment through the crevasse of the sky.

RODNEY JONES

Ya sea que tenga que ver con el proyecto del genoma humano y que llegue

diariamente a través del periódico o que se trate del caos y que se inserte

poco a poco en la conciencia del público por medio de artículos ocasionales

en revistas, uno de los problemas principales es interpretar la ciencia y los

datos que involucrados en un determinado contexto. La palabra contexto

viene del verbo latino contextere, que significa insertar junto o entrelazar.

Desafortunadamente, en su uso moderno la palabra ha perdido su capacidad

de indicar no sólo la manera en la que el significado se presenta, sino la idea

de un tejido que está en su totalidad construido detalladamente. En realidad,

como los teóricos de la comunicación usan la palabra hoy dia, el contexto es

solamente la parte que precede y sigue a un cierto segmento de información

y a la cual le da significado. Actualmente pensamos en contexto como si

fuera un marco de una pintura, un rectángulo completamente extraño a la

pintura a la cual enmarca. Es quizá por esta manera superficial en la que

pensamos sobre el contexto, que nos parece extremadamente difícil el que al

tomar una importante teoría científica podámos sacar mayores conclusiones

de ella.

El fenómeno no es del todo un malestar moderno. Desde fines del siglo

XVIII, con la crítica kantiana de la razón, la cultura ha tomado como su

49

cometido el cuestionamiento del significado. Esta actitud, aun cuando

saludable en sus ramificaciones políticas, es completamente opuesta a lo que

tanto pensadores como sus seguidores trataban de llevar a cabo antes de la

arremetida del periodo moderno. Los pensadores anteriores al siglo de las

luces como Descartes, Bacon y Spinoza, creían que su deber era interpretar

una visión unificada de la naturaleza y la condición humana. Mientras que

esta meta permaneció entre muchos filósofos posteriores, el comienzo del

siglo XX, para ser más precisos, de la primera guerra mundial, vió el fin de

este proyecto intelectual. Desde entonces, nuestro conocimiento ha venido a

ser más y más “atomizado”. Si en periodos previos el cometido del pensador

era ligar las humanidades con la ciencia, ahora, este pensador se ha movido

del panóptico16 al microscopio. El historiador no escribe las crónicas de las

ascensiones y caidas, como lo hace Gibbon en el libro Historia de la

decadencia y caída del imperio romano, sino que ha llegado a ser –por

decirlo de alguna manera– el que colorea, el que recrea vívidamente un

evento o fenómeno particular. El filósofo no intenta hacer conexiones entre

cosmología, historia y conocimiento, pero sí ha llegado a ser una tenaz voz

que insiste en la imposibilidad de la lógica.

Finalmente, el cambio de énfasis e interes en los pensadores alcanzó

una crísis epistemológica y moral, a la cual estos mismos pensadores gustan

de referirse como una condición postmoderna. No corresponde al ámbito del

presente libro adentrarse en la visión anacrónica del término o en su histórica

estrechez de pensamiento. Sin embargo, justo es mencionar el más

importante esfuerzo del pensamiento postmoderno, no solamente porque va

16 El panóptico fue un diseño arquitectónico de prisión en el que desde una posición central se podían observar las celdas que están colocadas en forma poligonal a su alrededor

50

en contra de las principales ideas que queremos presentar, sino también

porque ejemplifica la manera en la cual estos pensadores han hecho hasta lo

imposible para poner la información en contexto. Un breve vistazo a alguno

de los proyectos de estos pensadores será suficiente. Si bien su fama de

alguna manera ha disminuido, uno de los más influyentes filósofos de la

postguerra ha sido Jacques Derrida. Sus trabajos incluyen libros sobre Platón

y Freud, Rousseau y Herder, pintura y literatura. Sin embargo, a pesar de la

diversidad de sus temas, su filosofía es una insistente, o mejor dicho,

defectuosa exploración hacia la imposibilidad del significado. Mientras otro

muy influyente filósofo francés, un poco menos monomaniaco, Michel

Foucault ha abordado la filosofía históricamente. Bajo su influencia, muchos

eruditos han argumentado que la ciencia no es un método mediante el cual

entenderemos los fenómenos naturales que nos rodean, sino que es un

“tratado”, una manera de organizar la información en la cual, como cualquier

otro tratado el concepto está imbuido y simplemente refleja el sesgo de la

cultura que realzan los científicos. En otras palabras, de acuerdo con Foucault

y sus discípulos, la ciencia refleja la hegemonia de la cultura.

Existe una pizca de verdad en la crítica de Foucault. Su trabajo sobre

medicina, sobre la institucionalización de la locura y el nacimiento de la

clínica, es perspicaz y en su mayor parte correcto. Sin embargo, de lo que

muchos de sus seguidores no se han dado cuenta, es de la diferencia entre

medicina, una ciencia que es, a falta de mejores palabras, de habla

complicada, y física y biología, ciencias que pueden influir en la cultura, pero

cuyos métodos y propositos estan, si no enrarecidos, al menos fuera de la

linea principal de la cultura. Claro, muchos descubrimientos médicos han

sido posibles gracias al apoyo del gobierno y la industria farmacéutica. Pero

la injerencia politica o económica ganadas en la ciencia no necesariamente

51

han propiciado resultados prejuiciados, ni esto significa que los innegables

logros en la genética o en la física de partículas, etc., sean menos válidos. En

politica, el fin y los medios van de la mano. En la ciencia y en las artes el fin

no puede considerarse equivalente a los medios. Los tempranos Anthems

Chandos de Händel no dejan de ser piezas maestras porque el duque de

Chandos se las haya encargado, ni las sinfonias Salomon de Haydn fueron

trabajos de mero oropel simplemente porque Salomon le pago para que las

escribiera. Estas obras reflejan la cultura de su tiempo, reflejan la elevación

de una clase comerciante, por su forma sinfónica entre otras cosas, pero

también van más allá de meras agradables palmaditas en la espalda. De modo

similar, en la ciencia, mucho de lo que conocemos del átomo y de la energía

atómica viene, desafortunadamente, del proyecto Manhattan. El resultado

social de este proyecto es y seguirá siendo hasta que el último ser consciente

en la Tierra desaparezca, una de las más grandes atrocidades humanas. Y aun

cuando no pretendemos minimizar la responsabilidad personal y moral de los

científicos involucrados en este hecho –nadie pretenderia hacerlo– podemos

argumentar que lo ganado en cuanto a la formación de la idea del átomo, fue

sin paralelo; y si bien no sopesamos los beneficios futuros para la humanidad

contra los costos inmediatos, podemos razonar que es posible despojar los

descubrimientos de su idea de beneficio económico y utilitario y verlos con

más penetración en lo que realmente son por sí mismos. En otras palabras, asi

como es posible conmovernos con la catedral de Chartres o la de la Ciudad

de México, y verlas más grandes que la corrupción de la Iglesia y la

explotación que permitió su construcción, es posible valorar los

descubrimientos de la ciencia y divorciarlos de las fuerzas sociales y el

discurso cultural que los provocaron.

52

Hemos caminado un buen trecho para establecer la necesidad del

contexto y hemos cubierto quizá demasiado terreno. A pesar de todo, es

importante tratar con estas ideas actuales porque de muchas formas, lo que

nos proponemos es ir en sentido contrario de la nueva ortodoxia. Las ideas de

los filósofos y los historiadores influyen en la manera en que los científicos

interpretan su material. Como vimos en el capítulo previo cuando discutimos

el trabajo de Stephen Jay Gould, la interpretación contemporánea de la

evolución ha sido influenciada por los pensadores sociales como Comte,

Spencer, Marx, etc. La advertencia de Gould de que la evolución no es el

lugar para que los humanos nos ubiquemos en el mundo, o que si quisiéramos

obtener un código moral, deberíamos buscar en cualquier otra parte, pero no

en la evolución, está relacionada con las críticas culturales que expusimos

arriba. Tanto Gould como las críticas culturales insisten en que no podemos

encajar ningún descubrimiento científico en un contexto amplio. Dicho de

otra forma, es una insistencia en el hecho de que es imposible situar la

evolución, la física de partículas o la cosmología dentro de algun contexto.

Al rechazar el colocar la evolución o la cosmología dentro de un

contexto, los científicos han vuelto sus disciplinas una jerga, un argot que no

tiene relevancia (por eso mucha gente rehusa interesarse en los agujeros

negros o en los descubrimientos de evidencias antropologicas en el sentido de

que alguna vez compartimos el planeta con otros Homo a los que

probablemente eliminamos, etc.). A pesar de todo, nosotros pensamos como

el físico cuántico David Bohm, quien en su libro La totalidad y el orden

implicado argumenta que no estamos en una era definida por una serie de

“callejones sin salida” científicos, una época en la que todas las ciencias están

atomizadas, sino que en vez de esto, nos encontramos en el umbral de una

revolución científica, tan importante o más que la revolución galileana que

53

nos condujo a la ciencia moderna. Y nuestra insistencia sobre un contexto

proviene del hecho de que a menos que se contextualize cada rama de las

ciencias, tal revolución será imposible. Por consiguiente, el grueso de este

capítulo estará dedicado a ver cómo la evolución, que es la descripción

historica del surgimiento de la vida y de las espécies, encaja en un mayor

esquema, en un lienzo mayor, hablando de historia cósmica.

En su libro The Fabric of Reality, David Deutsch sostiene que la

ciencia moderna se puede dividir en tres ramas principales. Cada una de estas

ramas esta representada por una teoría que explica el mundo natural. Las

primeras dos ramas son la física cuántica, que trata con el átomo y sus

componentes, y la relatividad, que se ocupa del universo, su arquitectura y su

historia. La tercera rama es la evolución. En la tentativa de explicar cómo

cada rama se relaciona con la otra, Deutsch hace una diferencia entre ciencias

de “bajo nivel” y ciencias de “alto nivel”. Para Deutsch, las ciencias de alto

nivel son las que tienen la habilidad de predecir resultados con precisión, y

las de bajo nivel son aquéllas en las que la predicción de resultados es casi

imposible. La única rama de la ciencia que tiene la capacidad de predecir

resultados con una precisión casi infalible es la física cuántica. Los físicos

cuánticos tratan principalmente con probabilidades y sus ecuaciones son las

más exactas al describir el posible comportamiento de las partículas. En el

siguiente capítulo nos ocuparemos en forma un poco más amplia de la física

cuántica. Por ahora será suficiente dejar asentado que entre las ramas de la

ciencia, la física cuántica es la más exacta, y su exactitud proviene del hecho

de que es capaz de predecir con gran precisión el comportamiento de sus

objetos.

Pero ¡ay!, de ninguna manera podemos decir lo mismo de la evolución.

Por lo tanto, Deutsch etiqueta la evolución como una ciencia de bajo nivel.

54

¿Por qué lo hace así? ¿Por qué la evolución no es precisa aun cuando

describe tan bien la historia de la vida en el planeta? La respuesta descansa en

la propia historicidad de la evolución. El descubrimiento de Darwin, en otras

palabras, es historico; está basado en la observación de las transformaciones

morfológicas que han tenido lugar a lo largo del tiempo y que solamente se

confirmaron cuando los datos geológicos se analizaron contra los cálculos de

Darwin, puesto que el proceso que él describió requiere que la Tierra sea

mucho más antigua de lo que creian los científicos del siglo XIX. La

evolución no puede entonces, por sí misma, sin los recursos de la genética o

la física, predecir un resultado, ni tampoco puede decirnos el futuro de

nuestra o cualquier otra especie en el planeta sólo puede describir resultados

posibles. Pero estas predicciones son altamente falibles. La fuente de esta

falibilidad es lo que los científicos llaman comportamiento caótico. Un

elemento caótico es un término matemático que se refiere al número de

variables inciertas dentro de un sistema. La física cuántica es exacta debido a

que el número de variables con las que se calcula cada probabilidad es

limitado y finito. Por otra parte, la biología evolucionista es falible porque la

evolución de los sistemas orgánicos en este planeta está entretejida con

muchos otros factores. En otras palabras, la evolución podría predecir los

cambios morfológicos dentro de una especie, siempre que ésta permaneciera

por un largo periodo de tiempo en un ambiente estable y reteniendo ciertos

hábitos de reproducción. Sin embargo, como todos sabemos no existe en el

planeta ningun ambiente o nicho ecológico estable. Aun antes de que la

Revolución Industrial y la explosión demográfica hicieran estragos en

nuestros frágiles y finamente armonizados ecosistemas, las especies habían

estado a merced de factores impredecibles como los cambios de clima y las

enfermedades.

55

Para muchos, la falibilidad inherente a la biología evolucionista es

prueba de que hasta ahora no hay una posible via para unificar las tres ramas

del conocimiento científico.

Para quienes así piensan, la falibilidad de la evolución, en otras

palabras, es el motivo por el cual no se puede poner ésta (la evolución) en un

contexto más amplio. De hecho, para la mayoría de los científicos, la

tentativa de aplicar una perspectiva evolucionista a cualquier otra cosa que no

sea los sistemas orgánicos es absurda o imposible. Para ellos el mundo que el

quantum y la relatividad describen es totalmente diferente, totalmente extraño

al mundo que la evolución describe. Por lo tanto, cualquier mención de

evolución fuera del reino de los seres vivientes es solamente metafórica y

forzada.

Parte del rechazo de los científicos para ver la evolución como

descriptiva de otro mundo que no sea el que el orgánico origina, pensamos, es

en primer lugar la falta de un contexto global para el universo, y también el

vacío de perspectiva y analogias adecuadas. Muchas de las analogías que

actualmente usamos para entender la evolución y la línea de tiempo que

describe, son de naturaleza didáctica, y se deja de lado el uso de analogías y

metáforas como lo hacen los poetas y que son una fuente de descubrimiento

epistemológico. Por lo tanto, en orden de empezar a colocar la evolución en

una espécie de contexto, debemos empezar por buscar una nueva analogía.

Como bien sabe todo estudiante y cualquier visitante de un museo de

historia natural, el Homo sapiens, si bien tiene muchos años en el planeta,

empequeñece cuando se le considera cronologicamente junto a la línea del

tiempo de la evolución, y ese empequeñecimiento es más desalentador

cuando se le coloca en un esquema del tiempo cósmico. Cuando los

científicos tratan de comparar la edad del planeta con la de nuestra propia

56

historia, la mayoria de las veces, tanto en libros de texto como en museos,

usan la analogía del calendario anual. La analogía funciona como sigue: si la

historia del planeta abarca un año, el momento en que el Homo sapiens

apareció corresponde al último minuto del 31 de diciembre. Mientras que esta

analogía es de alguna manera precisa y muy útil para que visualicemos las

vastas edades que precedieron a la aparición de la raza humana, en lo que

falla, por supuesto, es en colocar la evolución dentro de un contexto más

amplio. Para lograr esto, necesitamos de una metáfora completamente

diferente, una metáfora que sea capaz de simular un proceso que se

desenvuelve en el tiempo, pero el cual contiene a su vez diferentes tipos de

tiempos o medidas.

Los poetas han intentado tales metáforas desde el inicio de nuestra

historia literaria. Ovidio abrió su Metamorfosis con un extenso catálogo de

las eras. El epígrafe del principio del capítulo, de alguna manera usa lo que

pensamos es una mejor analogía. Si vamos a comparar toda la historia del

universo, desde el principio hasta el presente, una mejor analogía debería

involucrar nuestras cronologías, calendarios, relojes etc. sólo marginalmente.

Y si los humanos tenemos una manera diferente de medir el tiempo que no

sea a base de calendarios y relojes, un arte como la música, que depende del

tiempo y trata con él, puede ser la mejor opción. En otras palabras, para

visualizar la historia cósmica completa, uno debe imaginar una obra musical

en una vasta escala. Al igual que el antropólogo Claude Levi-Strauss, quien

al principio de su voluminosa obra sobre el mito, razona que los dramas

musicales de Wagner parecen ser la analogía perfecta para mostrar el camino

por el cual los mitos se desarrollan, nosotros pensamos que solamente

trabajos a escala similar pueden ayudarnos a imaginar las vastas cantidades

de tiempo con las cuales los científicos trabajan. Imaginemos entonces un

57

trabajo a gran escala. Para nuestro propósito, afortunadamente no tenemos

que lidiar con los dramas wagnerianos. En vez de esto, regresemos a

Beethoven, con quien empezamos el libro y permítasenos ser más osados con

nuestra analogía y olvidar el año cósmico que los científicos usan para

ilustrar nuestro tardío arribo al universo.

Imaginemos entonces que la historia del universo, la historia total del

cosmos está contenida en una de las últimas sonatas para piano del citado

compositor. La sonata Hammerklavier puede servir de más apto ejemplo.

Como los cuartetos con los que empezamos el libro, esta sonata es uno de los

trabajos más atrevidos de Beethoven. Un trabajo a gran escala con más de mil

compases de música, la sonata explora una variedad de formas musicales,

incluyendo la sonata misma, el tema y la variación y una larga fuga que en la

producción de Beethoven, sólo rivaliza con la Gran fuga de sus últimos

cuartetos. Para quienes mil compases no signifiquen nada, entonces una

aproximación para comprender qué tan larga es la sonata, es recordar que a

los pianistas les lleva alrededor de 44 minutos ejecutar la pieza. En ese lapso

lo que tenemos es una transmutación de ideas. Esta transmutación, desde la

enérgica apertura hasta el triste adagio, ocurre no sólo a través de desarrollos

lineales o diacrónicos de la música, sino a través de sus aspectos sincrónicos:

a saber, los “experimentos” armónicos que realizó Beethoven. En otras

palabras, si vamos a usar la citada sonata como una metáfora para entender la

historia y la evolución del universo, debemos considerar no sólo el impulso

lineal que emprendió el universo rápidamente después del big bang, sino

también esas “células sincrónicas” que le añadieron algo más. Permítasenos

explicar. El eje diacrónico es aquel en el que las cosas se mueven hacia

adelante pero en diferentes tiempos o ritmos. Las cronologías y las

genealogias son diacrónicas porque son lineales. El eje sincrónico es aquél en

58

el cual no hay movimiento per se; en vez de esto, hay un instante en el que

varias cosas suceden simultáneamente. En la música, si tenemos solamente

un eje diacrónico, obtenemos ritmo y las bases de la melodía. En otras

palabras, tendremos una forma rudimentaria de música. Lo que le da

profundidad a ésta, lo que la hace una forma sofisticada de arte, es la

armonía. Nuestro argumento es que, como en la música, en la historia del

universo las cronologías sólo pueden ser entendidas y colocadas en un

contexto, si vemos el escenario completo y la ocurrencia de los eventos

sincrónicos. El big bang es, por supuesto, uno de estos eventos. Pero también

lo son la formación de la materia y de los sistemas planetarios. ¿Qué

ganamos viendo el escenario de esta forma? Una anécdota acerca de la sonata

que hemos tratado podría ser suficiente para darnos cuenta. Cuando Ries –un

alumno de Beethoven– estaba cerca de publicar la sonata en Londres,

Beethoven le envió dos notas que debían ser insertadas en un compás abierto

del adagio. La mayoría de nosotros hubiera reaccionado tal como hizo Ries.

Con más de mil compases, con cuarenta o más minutos de música ¿qué

diferencia harían realmente dos segundos o menos? Para cualquiera que

posea la grabación de la sonata, la recomendación sería que experimentaran

oyendo la grabación después de las dos notas y compararan. Pero como no

todos poseen la grabación y quizá ni les interese tenerla, debemos

persuadirlos de que esas dos notas hacen toda la diferencia. No solamente son

las celulas sonoras básicas que establecen el tono y la dirección de todo el

movimiento, sino que forman el eje emocional. Sí, esos dos segundos

resuenan en todo el movimiento. Podemos argumentar que el universo no es

muy diferente. Las grandes cronologías son inevitables. Si existe una manera

de darle sentido a estas cronologías, tenemos que mirar los eventos

relativamente diminutos de la historia cósmica, y darnos cuenta de cómo

59

estos también son el pivote de otros eventos mayores. Recordemos que la

prehistoria de la materia, como la prehistoria del adagio de Beethoven es

simple, no dos notas, sino dos elementos.

Para no trabajar sólo con metáforas y tratar de discutir la manera en la

cual la historia del cosmos, la historia del universo, puede dar un contexto a

la evolución y viceversa, es necesario adentrarnos en algunos detalles

minuciosos del universo, dar un vistazo a lo que los científicos saben acerca

de él. Hay dos maneras de hacer esto. La primera y más inevitable es tomar

una aproximación histórica, para ver cuándo y cómo empezó su historia,

cuándo y cómo se desarrolló y adónde y cómo llegará en el futuro. Por lo

tanto, a esta aproximación la llamaremos histórica. Para entender tal

universo debemos colocarnos en un linea temporal. Sin embargo, mientras

que el universo ciertamente tiene una larga historia y ésta es más que

relevante para nosotros, existe otra manera de entenderlo.

60

El cosmos, durante toda la historia humana en la que los filósofos y

los científicos lo han podido observar, ha permanecido practicamente sin

cambio. Claro que sabemos de eventos violentos que han ocurrido dentro del

universo: explosiones, desapariciones, transformaciones etc. Estos eventos

en cuanto a los humanos concierne han sido imperceptibles, o si no

imperceptibles, por lo menos no han alterado significativamente la estructura

del universo. En otras palabras, todos los cataclismos que han ocurrido a

partir del arribo del hombre, han sido lo suficientemente pequeños, como

para mantener intacta la estructura (o el tejido) del universo.

Consecuentemente, la segunda manera de enfocar el universo es mirar su

estructura. Lo que resta del capítulo lo dedicaremos a explorar someramente

tanto la estructura como la historia del universo.

Antes de embarcarnos en la estructura del universo –y estamos

usando aquí muy cautelosamente la palabra estructura– debemos hacer una

aclaración. La mayoría de los no especialistas, cuando se les dice que van a

leer sobre la estructura del universo, saben que se tratará acerca de estrellas,

galaxias, pulsares, etc. Nosotros trataremos tales estructuras pero en un

intento de ver cómo se insertan en la totalidad del cosmos. Sin embargo

nuestro propósito no es taxonómico. Este libro, aun cuando pueda ser

didáctico en algunos puntos, no pretende ser un libro de texto y tampoco

pretendemos trabajar como naturalistas, que coleccionan plantas secas y

pájaros disecados, sino que nos enfocaremos en las verosímiles

explicaciones que los científicos nos ofrecen de tales fenómenos como

estrellas, galaxias, pulsares, etc.

Existen varios problemas al tratar tanto con la historia como con la

estructura del universo. El primero y más difícil de superar es que la mayoría

de los conocimientos que tenemos del universo desafían el sentido común. Y

61

no nos estamos refiriendo a los fenómenos que se encuentran dentro del

universo, sino al universo en sí. Si las fuerzas gravitacionales en un hoyo

negro –de los cuales hablaremos después– parecen insondables e

inimaginables, entonces no sólo el tamaño del universo sino su estructura y

la manera por la cual los científicos han llegado a conocer esta estructura, es

realmente para dejarnos pasmados. Otro problema más técnico cuando se

discute la estructura del universo es que nuestro “mapa” de éste, el modelo

matemático mediante el cual lo entendemos, no puede discutirse

completamente sin contemplar el universo desde un punto de vista histórico.

Este modelo matemático fue deducido en su mayor parte por Einstein y es lo

que ahora conocemos como relatividad general. Antes de entrar en detalles

de esta teoría es suficiente señalar que el entramado mediante el cual la

relatividad general hace el mapa del universo es uno de cuatro dimensiones:

así como la Tierra es tridimensional y ningún mapa bidimensional puede

captar fielmente sus características, el universo no puede ser comprendido

sin una cuarta dimensión. Por lo tanto, antes de ver cómo está formado el

universo, necesitamos tener en mente que si aunque sea momentáneamente

hablamos de estrellas o galaxias como si fueran tridimensionales, la

estructura entera y el concepto completo de espacio sólo puede ser entendido

en un entramado de cuatro dimensiones, donde al espacio se le adjudican sus

tres dimensiones usuales y al tiempo se le considera como la cuarta: por lo

tanto la relatividad general y los científicos posteriores a ella hablan de un

espacio-tiempo.

Para aclarar esto, tomemos el ejemplo que propone Brian Greene

en The Elegant Universe: Cuando queremos encontrarnos con alguien, le

decimos en qué “espacio” esperamos verlo. Para esto tenemos que

proporcionarle tres piezas de información, por ejemplo situarnos en el 9o

62

piso de un edificio que está en la esquina de la calle 3a y la avenida 2a; esto

refleja una localización particular en las tres dimensiones espaciales del

universo. Pero es igualmente importante especificar cuándo vamos a

encontrarnos en ese espacio, por ejemplo a las 3 PM. Esta pieza de

información nos indica dónde “en el tiempo” va a tener lugar nuestro

encuentro. Los eventos por lo tanto están especificados por cuatro piezas de

información: tres espaciales y una temporal.

¿Qué es el espacio-tiempo y qué nos dice acerca de la estructura

del universo? La idea del espacio-tiempo surgió de un problema científico

completamente práctico. Por miles de años, la mayoría de los estudiosos

adoptó el mapa aristotélico del universo17, donde lo celestial, el espacio más

allá de la Luna era gobernado por leyes diferentes al espacio más acá de la

Luna. Este modelo comenzó a disolverse una vez que el modelo copernicano

del universo fue adoptado. Sin embargo, nadie hasta Newton fue capaz de

dar una respuesta que explicara y sintetizara la dicotomia. La explicación de

Newton incluye tanto las leyes terrestres como las celestes.

Existen momentos particularmente intensos en la historia del

pensamiento humano y algunas veces podemos ser testigos de ellos, aun

cuando de forma idealizada, en los recuerdos autobiograficos de sus

creadores. Stravinsky, por ejemplo, traía a la memoria que:

One day, when I was finishing the last pages of L’Oiseau de Feu in St. Petesburg, I

had a fleeting vision which came to me as a complete surprise, my mind as the

moment being full of other things. I saw in my imagination a solemn pagan rite:

sage elders, seated in a circle, watched a young girl dance herself to death. They

were sacrificing her to propitiate the god of spring.18

17 Aun cuando en Alejandría ya había un modelo heliocéntrico de Aristarco de Samos 18 Stravinsky, Igor. Chronicle of My Life. London: Victor Golancz, 1936

63

La explicación de Stravinsky, aun cuando aparentemente inocua,

rastrea, por supuesto, el germen de una de las obras maestras de la música,

La consagración de la primavera. Sentimos que esto tiene mucho

significado, no solamente porque La consagración de la primavera es una

obra maestra, sino porque fue un parteaguas en la historia de la música, una

pieza que transformó la música occidental, su lenguaje armónico y melódico,

así como su rítmica. Hemos citado a Stravinsky para tener un sentido de la

proporción. En las crónicas de sus momentos inspirados, Newton, literal y

metafóricamente alcanza la estratosfera:

In those days I was in the prime of my age for invention & minded Mathematics and

Philosophy more than any time since…I began to think of gravity extending to the

orb of the moon &…from Kepler’s rule of the periodical times of the Planets being

in sesquilateral proportion of their distances from the center of their Orbs, I

deduced that the forces which keep the planets in their Orbs must be reciprocally as

the squares of their distances from the centers about which they revolve: & thereby

compared the force requisite to keep the Moon in her Orb with the force of gravity

at the surface of the earth, and found them answer pretty neatly.19

Lo que la teoría de Newton finalmente logró en su tiempo fue

proveer una explicación del comportamiento de las cosas terrestres y

celestes. Nosotros tocaremos solo muy brevemente la física Newtoniana.

Las hazañas de Newton sólo marcaron el camino de la física

moderna: sus “fallas”, los huecos y las paradojas que su sistema dejó

abiertas y sin responder, fueron el trampolín desde el cual Einstein y otros

científicos empezaron.

19 Herbert Westfall, Never at Rest: A biography of Isaac Newton. London, Cambridge University Press, 1980

64

Algunas de las afirmaciones de Newton son muy de sentido común

y parece excesivo repetirlos aquí. Sin embargo, puesto que veremos que

Einstein, aparentemente no es tan apegado al sentido común, vale la pena dar

otra mirada.

La primera ley de Newton involucra el movimiento de los cuerpos.

Antes de Newton, la mayoría de los científicos tenía que atenerse al

concepto aristotélico de que la dinámica de los cuerpos dependía de su

composición elemental: así el agua se regía por una ley diferente que el

fuego. En la mecánica newtoniana, los objetos se describen por una sola

variable, su masa (hay que notar que pese al hecho de que Einstein

sobrepasará la mecánica newtoniana, su teoría de la relatividad y su mas

famosa fórmula incluirán este término newtoniano).

La primera ley de Newton sostiene que “todo cuerpo mantiene su

estado de reposo, o de movimiento uniforme en línea recta, a menos que se

le imponga un cambio de estado”.20 Mientras que esta última afirmación

parece trivial y obvia, sus implicaciones son grandes, ya que lo que sea que

obligue a un objeto dado a moverse es catalogado y visto por las

matemáticas newtonianas como una fuerza. Cuando una fuerza obliga a una

masa a moverse, el cambio puede ser registrado como una aceleración. De

aquí, la segunda ley de Newton:

La fuerza es igual a la masa por la aceleración F=ma

Como quiera que sea, la aplicación de una fuerza tiene un precio.

Consecuentemente, la tercera ley de Newton establece que “a cada acción

20 Isaac Newton, Mathematical Principles of Natural Philosophy and His Systems of the

World. Berkeley, University of California Press, 1934.

65

siempre se opone una reacción igual”.21 Reiterando, estas tres leyes nos

parecen bastante apegadas al sentido común. Lo que denota el genio de

Newton es que las haya aplicado a la dinámica completa del sistema solar

conocido. De acuerdo con la primera ley, los planetas no deberían orbitar al

Sol sino moverse en una línea recta, es decir “conservar su movimiento

uniforme”. Puesto que esto no es así, debía existir una fuerza responsable de

curvar su trayectoria. Finalmente Newton demostró que la gravedad era la

que originaba tal fuerza y justificaba la ley de Kepler sobre el movimiento

planetario.

Newton proveyó un bello modelo matemático del movimiento

planetario. Sin embargo, no explicó la gravitación misma. Sus Principia no

contienen una explicación causal para la gravedad. Más aun, Newton

admitió que “la causa de la gravedad era algo que él no pretendía conocer”.22

Esta “grieta” en el universo de Newton, por decirlo de alguna manera, sería

la fuente de la física de Einstein. Aunque a primera vista no lo parece, éste

no es un problema pequeño. En realidad, el no saber la causa de la gravedad,

significó para Newton el no poder explicar cómo la gravedad se conducía,

para hacerse sentir, a través de vastos espacios sin ningun contacto. Para

subsanar este problema, los seguidores de Newton propusieron que el

espacio estaba lleno de una sustancia invisible llamada éter, que era, así, una

espécie de transmisor.

No vamos a tratar los intrincados argumentos mediante los cuales

varios científicos postularon la existencia del éter. Baste decir que Einstein,

entre otros, fue capaz de eliminar el concepto proporcionando una ecuación

21 Ibid. 22 A. Bernard Cohen, The Newtonian Revolution, London, Cambridge University Press, 1983.

66

más elegante para explicar el movimiento planetario. La línea de acción de

Einstein no es fácil. De hecho, en él tenemos, si no la más grande, una de las

mentes más brillantes, no solo del siglo XX, sino de todos los tiempos. Más

aún, el camino mediante el cual fue capaz de proveernos con un mapa del

universo, es largo y, a diferencia de la mecánica de Newton, con frecuencia

desafía el sentido común. Para comenzar, entendiendo cómo Einstein fue

capaz de deshacerse del éter como un componente necesario para explicar la

acción a distancia o incluso para explicar la manera en que la luz viaja a

través del vasto espacio, y finalmente, para entender el tipo de mapa que

Einstein nos legó, es necesario retroceder un poco, porque antes de que

resolviera el problema del origen de la gravedad en la teoría de la relatividad

general, él pudo explicar la ausencia del éter en su teoría de la relatividad

especial. Esta teoría no proviene de un problema cosmológico, si bien

explica el comportamiento de las estrellas y de la materia en general, en

cualquier parte.

Einstein llegó a la teoría de la relatividad especial tratando de resolver

dos problemas que surgían de la teoría del campo electromagnético de

Maxwell y Faraday, cuando éste se considera en un espacio newtoniano

absoluto. Un campo es un dominio o ambiente donde la acción de una fuerza

actual o potencial puede ser descrita matemáticamente en cada punto del

espacio-tiempo mediante un grupo de números, que proporcionan en ese

punto la intensidad y dirección de la fuerza apropiada. (Así, para describir el

valor del campo electromagnético en cualquier punto del espacio

tridimensional, se necesita un grupo de ocho números –uno para decribir la

intensidad de la componente eléctrica y tres para especificar su dirección,

más otro grupo similar para describir la intensidad y dirección de la

componente magnética). En otras palabras, un campo explica como actúa

67

una fuerza sobre una masa, por medio de ecuaciones diferenciales. Con las

ecuaciones, la presencia del éter es innecesaria, puesto que ningún elemento

se necesita para que la aguja de un compás –la más obvia manifestación de

un campo electromagnético– se mueva. En lugar de esto, la interacción de

fuerzas y masas están explicadas como entidades matemáticas. En otras

palabras, tal como las ecuaciones de Newton explican la inercia, las de

Maxwell explican cómo una fuerza parece actuar a distancia. De hecho,

Einstein pudo llamar a las fórmulas de Maxwell “revolucionarias”, porque

“es el cambio de la acción de fuerzas a distancia, por campos como variables

fundamentales.”23

La teoría del campo, en lugar de resolver completamente las "grietas”

en la teoría de Newton, solamente las exacerbó. En el mundo de Newton, la

posición, la velocidad y la aceleración son absolutas, por lo que Einstein

inventó un experimento mental –como en general hizo– en el que se

preguntaba qué observaría si viajara a la velocidad de la luz. Un newtoniano

contestaría que vería “un haz de luz como un campo electromagnético

espacial oscilatorio en reposo”.24 Sin embargo, Einstein sostuvo que “no

parece haber tal cosa, con base en la experiencia ni de acuerdo con las

ecuaciones de Maxwell”.25 Einstein resolvió esta paradoja por la vía de Ernst

Mach, destacado filósofo de la ciencia y matemático de su tiempo. Como

Leibniz y Huygens antes que él, que criticaron el espacio absoluto de

Newton, Mach lo pensó como “una obscuridad metafísica”. Para Mach, el

espacio no era absoluto, sino que “todas las masas y velocidades, y en

23 Paul Arthur Schilpp, Albert Einstein: Philosopher Scientist. La Salle, IL: Open Court, 1969. p. 33 24 Ibid. P.54 25 Ibid.

68

consecuencia todas las fuerzas, son relativas”.26 Mach fue una inspiración

para Einstein, pero el sistema de Mach o su criterio no encajaban

completamente en la relatividad especial. Einstein resolvió la paradoja y

concluyó que uno no puede desplazarse a la velocidad de la luz, y que la

velocidad de la luz es la misma para todos los observadores sin importar su

movimiento relativo. Las implicaciones de la relatividad especial son

trascendentales y requieren un poco más de explicación. En este punto

Einstein todavía no esta tratando con la gravedad sino con la luz. Empero,

esto es importante para nosotros porque la teoría de la relatividad general

mediante la cual hacemos el mapa del universo, contiene los conceptos en

los que Einstein se apoyó para crear una explicación de la gravitación que se

equiparara con los resultados de la teoría de la relatividad especial.

Lo que tuvo de revolucionario la relatividad especial, fue que se

deshizo de un marco inmóvil de referencia donde las medidas se hacian con

respecto a un tiempo y a un espacio absolutos, para remplazar esta norma

con la luz. La luz es el único sistema absoluto de medición. La relatividad

especial remplaza el espacio absoluto con un entramado de haces de luz.

Existen otras consecuencias que se desprenden del experimento mental

donde están involucrados unos viajeros imaginarios. Permítasenos por un

momento regresar a Newton y recordar que cuando un objeto es puesto en

movimiento, una fuerza es responsible de ello. En otras palabras, para que

un objeto sea acelerado, otro objeto tiene que perder energía. La energía que

la fuerza pierde es ganada por el objeto en movimiento. Así imaginemos

ahora, el escenario común que la relatividad especial propone, e imaginemos

una nave espacial que se acelera a una velocidad cercana a la de la luz.

Puesto que la aceleración impone un intercambio de energía; puesto que, en

26 Ernst Mach, The Science of Mechanics. 6th ed. La Salle, IL: Open Court, 1960. p. 279.

69

otras palabras, las masas del astronauta y su nave se volveran plásticas, se

podrán dilatar y encojer y se incrementarán, mientras que el tiempo

transcurre más lentamente. Aquí es donde dejamos el universo “lógico” de

Newton y nos adentramos en el “absurdo” de Einstein, si bien sabemos que

este último es más exacto. Lo que revela finalmente el experimento mental,

el último resultado del escenario de Einstein, viene dado por la conclusión

de que si la masa de un objeto absorbe energía, entonces la masa decrece

cuando el objeto radia energía. Con esta conclusión, Einstein fue capaz de

mover el electromagnetismo de Maxwell, del laboratorio al universo entero,

puesto que toda la materia, estrellas y planetas, automóviles y las páginas de

este libro, está gobernada por la misma ley. La masa y la energía son

entonces intercambiables. A partir del decubrimiento de este hecho, Einstein

consideró la equivalencia de la masa con la energía:

m = E

c2

En esta ecuación m es la masa del objeto, E es la energia contenida y c

es la velocidad de la luz que está elevada al cuadrado, es decir multiplicada

por sí misma. Otra vez, la constante contra la que se miden las cosas, sean

masa o energía, es la velocidad de la luz. En su forma más famosa la fórmula

no está expresada en función de la masa, sino de la energía

E = mc2

Cualquiera que sea la manera en la que se lea la fórmula, la

conclusión es la misma: para Einstein, la materia es energía congelada. Esta

intuición, como bien sabemos, produjo tragicas consecuencias históricas y

70

ecológicas en su aplicación práctica. Y tendrá tremendas ramificaciones

cuando abordemos, no la estructura, sino la historia del universo.

Pero antes, vamos a echar una mirada al siguiente gran

descubrimiento de Einstein. Como ya dijimos, la relatividad especial trata

con la energía, la masa y la luz. Sintetiza las ecuaciones del

electromagnetismo de Maxwell, viendolo como el sistema de permuta

mediante el cual se intercambian la masa y la energía.

Lo que no trató fue la gravitación. Otra vez, Einstein diseñó la teoría

de la relatividad general para crear una explicación de la gravitación acorde

con la teoría de la relatividad especial, y en aquella postuló el principio de

equivalencia entre la aceleración y la gravedad. Veamos un ejemplo:

Imaginemos un carrito de servicio de un avión en tierra donde la

tripulación lo prepara y supongamos que tienen que empujarlo. En estos

momentos, quienes lo empujan están sintiendo la masa inercial, pero si

tratan de levantar el carro entonces sienten la masa gravitacional. En otras

palabras, la masa inercial es una propiedad de los objetos. La masa

gravitacional se siente sólo cuando hay una fuerza gravitacional. Ahora

imaginemos un escenario angustiante. Una vez que el avión despega,

encuentra turbulencias y mientras que la tripulacion está sirviendo los

alimentos, el avión se desploma en una bolsa de aire; el carro de servicio

mantendrá su masa inercial. En realidad, si la caida es lo suficientemente

pronunciada el angustiado pasajero se sentirá sin peso y probablemente verá

el carro salir volando hacia alguien.

El experimento anterior no es muy diferente del que Einstein realizó

cuando propuso la teoría de la relatividad general. El fenómeno que condujo

a Einstein a su visión tiene que ver con el hecho de que la masa gravitacional

de un objeto y su masa inercial, son en realidad la misma. Esta visión de

71

Einstein le llegó en 1907, y aun cuando hemos leido recuerdos del creativo

invento, leamos la versión del propio Einstein:

I was sitting in a chair at the patent office at Bern, when all of a sudden a thought

occurred to me: “If a person falls freely, he will not feel his weight.” I was startled.

This simple thought made a deep impression on me. It impelled me to the theory of

gravitation. 27

Así como la persona del experimento mental de Einstein se siente

carente de peso, el carro de servicio en el avión, en el ejemplo anterior,

cuando éste se precipita, también carece de peso porque el avión está en una

caída libre.

¿Qué importancia tiene el significado de todo esto? Imaginemos una

nave espacial que se mantiene en órbita debido al campo gravitacional de la

Tierra. El astronauta deja de sentir su peso, pero no porque la nave vaya

cayendo. Si selláramos las ventanas y le pidieramos que respondiera si va

viajando hacia el espacio o cayendo hacia la Tierra, no podría hacerlo.

Ninguna experiencia sensorial puede indicarle la diferencia. Ahora,

imaginemos un experimento en sentido contrario: con las ventanas aún

cerradas la nave se desploma hacia la Tierra, ésta la atrae con una fuerza

igual a la de la gravitación terrestre, es decir G. Si en lugar de tener a la nave

cayendo, se encendiera la máquina y se acelerara a 1 G, el astronauta sería

incapaz de saber en qué dirección viaja o si va cayendo, no sentiría la

diferencia, sentiría exactamente lo mismo. Por esto, Einstein concluyó

finalmente que si los efectos de la gravitación eran similares a los de la

aceleración, entonces la gravitación era una forma de aceleración. De

72

cualquier modo, la cuestión es con respecto a qué marco de referencia se

considera la aceleración, pues como vimos con el experimento hipotético del

astronauta y su incapacidad de diferenciar entre la aceleración y la gravedad,

el campo gravitacional es relativo.

La solución a este asunto requirió un cambio de paradigma, y es este

cambio el que finalmente nos conduce a lo que hemos llamado nuestro mapa

del cosmos. La razón por la cual la respuesta de Einstein constituye uno de

los grandes cambios de paradigma en la historia, es porque abandonó la

geometría euclidiana que trata con dos y tres dimensiones y adoptó una

geometria de cuatro dimensiones. Esta geometria tetradimensional de

Einstein le adjudica al usual espacio de tres dimensiones –alto, ancho y

largo- una dimensión más, el tiempo. La formulación de Einstein fue el

verdadero requiem al espacio absoluto de Newton. Ya no hay un espacio

sino un continuum espacio-tiempo.

Dentro de este marco, Einstein fue capaz de contestar lo que Newton

nunca pudo. ¿Qué es la gravedad y de dónde proviene? La gravedad es la

aceleración de los objetos que se desplazan siguiendo las trayectorias de

campo en un espacio tridimensional que se curva en la cuarta dimensión. En

otras palabras, la teoría de Einstein se aleja de la gravedad per se y nos dice

que la materia curva el espacio, y lo que llamamos gravitación es la

aceleración de los objetos cuando se deslizan a lo largo de las curvas

descritas por sus trayectorias en el tiempo.

La cuarta dimensión es algo que aun confunde a algunos científicos y

más a los no iniciados. El resultado parece más que ligeramente extraño. A

pesar de todo, la teoría ha probado ser correcta una y otra vez. La primera

27 Abraham Pais, Subtle is the Lord…The Science and the Life of Albe rt Einstein . London, Oxford University Press, 1982, p. 179

73

evidencia de lo correcto de la teoría llegó cuando Eddington observó cómo

la luz se desviaba al pasar cerca del Sol durante un eclipse solar en 1919. Lo

que esta desviación de la luz probó es que el espacio se curva alrededor de

los objetos masivos. De acuerdo con Einstein, la luz viaja en línea recta, lo

que se curva es el espacio. En otras palabras, lo que la relatividad general

prueba, es que la gravedad, que usualmente concebimos como una fuerza,

puede ser entendida como un efecto de la hiperdimencionalidad fuera de la

experiencia normal, del mundo tridimensional.

La relatividad general no solamente se desembaraza del problema de

la procedencia de las formulaciones de Newton, sino que nos provee de un

mapa actual del universo mediante sus predicciones. En su estructura, la

relatividad general, ve al universo como un espacio curvo. La cuestión de si

el universo es hiperbólico y abierto o esférico y cerrado está aún por

resolverse. De cualquier manera, en este espacio curvo, una de las cosas que

observamos es que el universo es isotrópico y homogéneo. El que sea

isotrópico significa que hacia donde veamos, lo que veremos será siempre lo

mismo. Este es un efecto similar al de caminar en medio del desierto. El que

sea homogéneo, significa que aun cuando la materia está agrupada en

nebulosas, galaxias, etc. la composición global del universo es prácticamente

la misma si tomamos una porción suficientemente grande.

La relatividad general explica lo anterior por medio de la curvatura.

Sin embargo, su más importante predicción fue una con la que el mismo

Einstein no se sentía confortable. Y esta primera y más importante

predicción, desde un punto de vista cosmológico, fue que el universo se está

expandiendo. Einstein estaba consciente de esta predicción de la teoría, y

para compensar este efecto introdujo la idea de una “constante cosmológica”

en un intento de hacerla compatible con los hechos de la observación. Nadie

74

había probado que el universo se estuviera expandiendo. Como Einstein

escribió en 1917:

Had to introduce an extension of the field equations of gravitation which is not

justified by our actual knowledge of gravitation…That term is necessary only for

the purpose of making possible a quasi-static distribution of matter, as required by

the fact of the small velocities of stars. 28

Más tarde Einstein llamó a la “constante cosmológica” el más grande

error de su carrera. Esto fue bastante extraño, como veremos más adelante,

porque los cosmólogos, que no se explican cómo el universo se aceleró en

sus inicios, han revivido el concepto al menos teoricamente. Einstein, a

pesar de su oposición a un universo en expansión, finalmente tuvo la

evidencia cuando Edwin Hubble, bastante ignorante de lo que había

descubierto, le mostró la prueba de un desplazamiento de las líneas

espectrales hacia el extremo rojo. En otras palabras, Hubble descubrió,

mediante el efecto Doppler, que las estrellas se estaban alejando del Sol.

Hay dos consecuencias debidas a la expansión del universo. La

primera es que si el universo se ha estado expandiendo, debe haber un lugar

donde la expansión se inició. Georges Lemaítre, un sacerdote y matemático

Belga, fue el único científico en señalar lo anterior. Lo que Lemaítre vió fue

que si el universo se estaba expandiendo, era posible imaginar que en el

pasado el espacio era más denso y convergía en un mismo eje. En realidad,

Lemaítre propuso que el universo había empezado en un punto infinitamente

28 Albert Einstein, The Principle of Relativity . Nueva York, Dover, 1952, p. 188

75

pequeño, una “singularidad”, “un dia sin ayer”.29 Para decirlo brevemente,

puesto que la relatividad general sostiene que el espacio no es solamente

espacio, sino espacio-tiempo, y predice que el universo se está expandiendo,

entonces para imaginar al universo en sus principios debemos imaginar un

punto sin tiempo. Lemaítre nunca llevó esta idea a su conclusión. No

obstante, al irse desarrollando, el big bang abrió las puertas de la cosmología

a los físicos nucleares.

La relatividad general no para en deducir el origen del universo. De

hecho, una de sus predicciones involucra también su destino:

En su intento de “organizar” el universo, la relatividad general

sostiene que, puesto que la materia curva el espacio, la densidad de la

materia determinará el destino del universo. Los científicos se refieren a esta

densidad como omega. Si el valor de omega es mayor que 1, esto significa

que el universo es relativamente denso y las fuerzas gravitacionales lo

obligaran a colapsarse dentro de sí mismo. Si omega es menor que 1, el

universo continuará expandiendose. Todavía se desconoce el valor de

omega, y aun pensando que discutiremos esto más adelante, lo que es

importante aquí, es darnos cuenta de que la teoría de la relatividad no

solamente le da forma al universo, sino que predice que no es estático y

absoluto, sino un continuum en expansión.

Pocos se adentraron a las consecuencias de ver al universo de tal

manera, hasta que George Gamow, un emigrante ruso a Estados Unidos,

empezo a especular con el estado de la materia en un universo muy denso y

muy pequeño. Lemaítre ya había discutido que el universo había empezado

29 A. Berger (ed.), The “big bang” and Georges Lemaitre, Dordrecht, Reidel, 1985, p. 373

76

en una explosión de energía y materia. No obstante, Gamow se planteaba

que si el universo temprano era tan denso, la posibilidad de que existiera en

él materia como la conocemos era nula. En tales condiciones, el núcleo

atómico está demasiado caliente para fusionarse en los elementos que

conocemos.

Fue Gamow quien predijo la radiación cósmica de fondo, aunque

su contribución más importante fue su idea de que si el universo se expandió

a partir de un plasma denso y caliente, debería irse enfriando a medida que

se expandía, permitiendo la formación de la materia en el estado en el que

nos es familiar. Este modo de ver las cosas es lo que nos permite colocar la

evolución humana en un contexto cósmico, pues lo que Gamow vió fue que

el universo seguía un proceso evolutivo similar. En realidad, sabemos ahora

que en el universo temprano, el universo a los 3 minutos y 42 segundos de

su inicio, se formaron principalmente elementos ligeros, cerca de 20% de

helio y 80% de hidrógeno. Y no fue sino hasta que la materia se “congeló” y

se agrupó en estrellas y galaxias, que los elementos más pesados empezaron

a formarse. En otras palabras, la tabla periódica de los elementos es un

registro del desarrollo evolutivo.

Hay científicos que rehusan aceptar este modelo y afirman, al igual

que lo hace Stephen Jay Gould con la evolución orgánica, que el universo y

su historia no se pueden entender por medio de un esquema evolucionista.

En los siguientes capítulos veremos al universo como un continuum

y trataremos de mostrar la evidencia que existe de un proceso evolutivo.

Para hacer esto, requerimos dar una ojeada a la materia, puesto que sus

elementos serán la fuente de nuestra especulación. Y para echar un vistazo a

la materia, necesitamos entender la otra rama de la física: el quantum o física

cuántica, y lo que el quantum tiene que decir acerca del universo primitivo.

77

3

QUANTUM: PUNTOS EXTREMOS

The Needle’s Tip that we would call infinitesimal, is,

in its “scanning electron micrograph,” the corbelled and tunneled

and buttressed and corrugate Tower of Babel as Bruegel

envisioned it under construction

ALBERT GOLDBARTH

Hemos tomado el título de este capítulo del poeta epicúreo Lucrecio,

quien en el siglo I A.C., fue quizá hasta ese momento de la historia humana

–sin olvidar a Demócrito y Leucipo– el más claro proponente del átomo:

Entonces, más allá, puesto que hay puntos extremos, uno tras otro en ese cuerpo,

los cuales nuestros sentidos no pueden ya distinguir, cada punto, podemos estar

seguros, existe sin partes y está dotado con lo mínimo de la naturaleza, nunca ha

sido separado fuera de sí mismo y no lo será en el futuro.

Si más y más modernos y complejos telescopios y aparatos ópticos, de

radio o microondas están demostrando que Einstein está en lo correcto y la

relatividad general ha superado su prueba, si no su justificación, a medida

que los astrónomos son capaces de detectar pulsares u oír la radiación de

fondo que dejó el big bang, y con cada descubrimiento comprendemos más

y más la extensión del universo y su asombrosa naturaleza, a medida que

usamos los instrumentos con los cuales se explora el mundo atómico, las

maravillas crecen aún más.

78

A partir del Renacimiento, cuando una temprana ciencia se asomaba

curiosa al microscopio, se topaba con sorpresa tras sorpresa, sólo para

descubrir, a medida que el microscopio alcanzaba sus límites y tuvo que

recurrir a otras herramientas, que mientras se adentraba a escalas más y más

pequeñas, el mundo que se percibía no parecía reducirse a lo que se pensaba

que eran nuestros bloques de construcción. En este capítulo veremos algunos

de los más asombrosos descubrimientos que la ciencia efectuó en el siglo

XX y que ponen a prueba la mente. Estos descubrimientos no tratan, como

los de la relatividad de Einstein, con el lugar que habitamos, sino con el

tejido fundamental del que nosotros y todo los que nos rodea estamos

hechos: los átomos y sus partículas, objetos de estudio del quantum o física

cuántica.

Como tratamos en el capítulo anterior, al final del siglo XIX los

físicos trabajaban con certidumbres. El modelo newtoniano del universo

presentaba ciertas paradojas que eran difíciles de solucionar, pero la mayoría

de los científicos pensaban que podrían resolverse sin perturbar radicalmente

el marco Newtoniano. A pesar de lo conservadores que eran Einstein y

muchos otros científicos, sus descubrimientos de principios del siglo XX no

sólo revolucionaron la física y la ciencia en general, sino que cambiaron los

paradigmas dentro de los cuales la ciencia trabajaba. Como vimos, la

relatividad de Einstein hizo eso precisamente. La teoría general sostiene que

galaxias, estrellas y planetas se desplazan a través de un espacio-tiempo

tetradimensional el cual se curva en su cuarta dimensión.

Si bien las conclusiones de Einstein parecían de muchas maneras

pasmosas, él mismo y muchos de sus contemporáneos trataban no solamente

de solucionar las paradojas cosmológicas heredadas de la mecánica clásica,

79

sino que también trabajaron con algunas paradojas y problemas que surgían

del estudio del átomo y sus componentes.

Es un hecho que si alguna rama de la ciencia ha retado al sentido

común hasta revolucionar por añadidura nuestra concepción del mundo en

que vivimos, ésta ha sido la mecánica cuántica, que es tan enigmática en sus

afirmaciones que tanto científicos como filósofos han rechazado o se han

encogido de hombros ante sus descubrimientos. La famosa cita de Einstein

de que Dios no jugaba a los dados con el universo, fue una respuesta directa

a una de las más apreciadas premisas de la física cuántica. El filósofo de la

Universidad de Columbia, David Z. Albert ha escrito que la del quantum es

“una historia perturbadora… la más perturbadora historia que quizá ha

emergido de cualquiera de las ciencias físicas desde el siglo XVII.”30i

Igualmente, Nick Herbert en su libro Quantum Reality: Beyond the New

Physics, discute que, con el quantum, los científicos “han perdido su asidero

con la realidad”.31

En una de sus mejores popularizaciones al tema, David Lindley

explica porqué el quantum parece a la vez tan opuesto a la lógica de la física

clásica y, usando una palabra que los físicos cuánticos han adoptado, tan

extraño:

This is the heart of the fundamental issue. In classical physics, we are accostumed

to thinking of physical properties as having definite values, which we can try to

apprehend by measurement. But in quantum physics, it is only the process of

meassurement that yields any number for a physical quantity, and the nature of

quantum measurements is such that it is no longer possible to think of the

30 David Z. Albert, , Quantum Mechanics and Experience, Cambridge, Harvard University Press, 1992, p.1. 31 Herbert, Nick, Quantum Reality: Beyond the New Physics, New York, Doubleday, 1985, p. 15.

80

underlying physical property (magnetic orientation of atoms, for example) as

having any definite or reliable reality before the measurement takes place. 32

La dificultad y lo extraño de la física cuántica o quantum deriva del

hecho de que la realidad que describe –a diferencia de la distancia de un

planeta a otro o del tiempo que tarda la luz en llegar del Sol a la Tierra– no

puede ser medida a causa de que una vez que se efectúa la medición, la

realidad ha cambiado. Como la mayoría de la física cuántica, la anterior

afirmación suena paradójica. Sin embargo, más paradójico es el hecho de que

si uno ve las diferentes ramas de la ciencia e intenta señalar la disciplina que

es capaz de predecir resultados de la manera más precisa, encuentra que la

física cuántica es la más exacta de las ciencias. El problema, claro, es que

cualquiera que sea la precisión que el quantum nos de, es solamente para

desafiar nuestro sentido común.

En este capítulo intentaremos entender la mecánica cuántica: qué es lo

que estudia, cuáles son sus conclusiones y cómo estas conclusiones se ligan

con el macrocosmos que tratamos en el capítulo previo. El quantum estudia

el comportamiento del átomo y sus componentes, y lo hace prediciendo las

probabilidades de los posibles resultados. En otras palabras, una disciplina

análoga a la física cuántica en el macromundo puede ser la balística.

La balística, por ejemplo, toma un proyectil, una plataforma de

lanzamiento, la fricción, la gravedad, etc., como sus variables, y por medio

de fórmulas calcula la manera en la cual el misil viajará y dónde tocará hará

impacto. Otro modo de decir esto es que la balística toma ciertas variables y

las convierte en posibles resultados. Igualmente, la física cuántica toma el

32 David Lindley, Where Does the Weirdness Go: Why Quantum Mechanics is Strange,

but not as Strange as You Think,. New York, Basic Books, 1996, p. 14

81

átomo y calcula la probabilidad de su carga o su “color”. La diferencia,

claro, es que la balística funciona en un universo clásico. Los expertos en

balística tienen que considerar dos cosas primordiales: la materia, o sea la

substancia de que estan hechos el proyectil y el aparato de lanzamiento y los

campos, en este caso el campo gravitacional de la Tierra. El proyectil está

hecho de metal (materia), sigue una trayectoria debida a la inercia y, si no es

detenido, eventualmente caerá debido a que el campo gravitacional de la

Tierra lo atrae. La física cuántica no es tan simple.

Cuando la gente habla del quantum, están a menudo hablando de

varias interpretaciones que los científicos tratan de enmarcar para poder

describir o explicar lo que el quantum está diciendo. Por ejemplo, Niels

Bohr, pionero de la física cuántica y conocido por la interpretación de

Copenhague33, pudo argumentar que lo que el quantum nos dice es que no

existe una realidad profunda. Al igual que el Obispo Berkeley tres siglos

antes que él, Bohr sostuvo que el mundo que vemos alrededor de nosotros

puede ser lo suficientemente real, pero sus componentes, de lo que está

construido, no es real. De esto se sigue entonces que la segunda premisa de

la interpretación de Copenhague gira alrededor de la idea de que, si no existe

una realidad profunda, los científicos observan una realidad fenomenológica.

Esta realidad fenomenológica sostiene que en ausencia de un observador, el

fenómeno no existe. Dicho de otro modo, los científicos crean la realidad

33 La interpretación de Copenhague, llamada así porque fue en esta ciudad donde Bohr trabajo, une diferentes ideas para hacer de la física cuántica un paquete manejable, sin ninguna teoría que la soporte de una manera coherente. Así por ejemplo, no tiene sentido preguntarse cómo se comportan el átomo y otras entidades cuánticas mientras no se les observa. Como Bohr explicó: todo lo que podemos hacer es calcular la probabilidad (nunca una certeza) de que un experimento particular llegue a un resultado particular. Es la interpretación de la física cuántica que se da en la mayoría de los libros de texto y de los cursos universitarios.

82

cuando determinan el espín34 o el momentum (producto de la masa por la

velocidad) del electrón.

Para el no especialista, lo que pretende la interpretación de

Copenhague suena escandaloso. Pero Bohr, que estructuró su premisa

principal, sostuvo que era pragmática. Para él, el trabajo de los científicos

implicaba el estudio de los fenómenos naturales sin explorar las

implicaciones éticas, filosóficas o existenciales de sus descubrimientos.

Muchos científicos han rechazado esta posición, entre los cuales quizá el

principal sea Einstein, quien sostuvo una posición casi mística ante la

ciencia. De hecho, Einstein dedicó los últimos años de su vida a un intento

de reconciliar la física clásica de su relatividad general con los herméticos

descubrimientos del quantum. Más tarde otros científicos han brindado

diferentes interpretaciones. Estas interpretaciones posteriores, desarrolladas

varios años después de la teoría cuántica, la han establecido como la más

exacta rama del conocimiento científico. Nosotros examinaremos de cerca

estas interpretaciones, puesto que algunas incluyen afirmaciones

interesantes, otras son solamente indignantes y otras parecen ofrecer rutas

viables para futuras investigaciones. En realidad, estas últimas nos parece

que abren nuevos panoramas. Sin embargo, antes de adentrarnos en estas

interpretaciones, nos gustaría dar un bosquejo de las principales premisas del

quantum, porque sin esto es imposible entender ninguna ciencia, menos aun

una que trata con el átomo y sus partículas y que ha inspirado tan variadas y

extrañas reacciones.

La mayoría de los libros de texto y de divulgación sobre el quantum

empiezan por una discusión sobre la luz. La razón de esto es completamente

34 El espín o spin es una propiedad de las entidades cuánticas relacionada con el concepto de giro en la física clásica

83

simple. La física cuántica se inventó para tratar las interacciones de la luz

con los átomos. Soló después, una vez que el quantum solucionó su

problema, fue que los científicos trataron de verificar si sus descubrimientos

eran también aplicables a las entidades de mayor orden, puesto que el

quantum había revelado la estructura del núcleo atómico y de otras

partículas subnucleares, así como la naturaleza de los sólidos, líquidos y

gases. Mientras un número creciente de físicos intentaron aplicar la teoría

cuántica a cada partícula, descubieron que la teoría no solamente explica el

comportamiento de la luz, sino que aclara muchos misterios del átomo y la

materia, por lo que finalmente, cuando hablamos acerca de génesis cósmica,

acerca del momento en que el universo se inició, la cosmología se tiene que

acercar al quantum.

¿Qué es exactamente lo que el quantum tiene que decir acerca de la

luz? Para entender los adelantos del quantum, debemos, aunque sea

brevemente, ver los diferentes problemas que los científicos se han puesto a

resolver. Uno de los más conservadores científicos a comienzos del siglo

XX pudo haber iniciado la reacción en cadena del quantum cuando trataba

de resolver más bien un enigmático problema que había venido a conocerse

como la radiación del cuerpo negro, que es, por definición, una superficie

que absorbe toda la radiación electromagnética que le llega. Los físicos en el

siglo XIX sabían que los objetos poseen un color intrínseco. Durante la

primavera las hojas son verde; la mayoría de la madera cae en el rango del

café. Estos objetos están formados por muy pequeñas piezas de materia.

Siempre que estas piezas se mueven, vibran y producen ondas de los

correspondientes campos electromagnéticos, que nuestro cerebro, a través

de los ojos y nervios ópticos, interpreta como color. Cuanto más

rápidamente se muevan las partículas, mayor será la frecuencia de la luz que

84

se excita. Por supuesto que la vibración de la partícula puede ser alterada

aplicando una energía extra. Nosotros somos testigos de este fenómeno

cuando encendemos un foco.

De acuerdo con los físicos, los cuerpos negros no tienen un color

intrínseco; sin embargo, paradójicamente emiten radiación. Si calentamos lo

suficiente una pieza de metal, brillará con un color rojo.

En 1900, Max Planck abordó el problema de la radiación del cuerpo

negro de una nueva manera. Estudiando la radiación de osciladores

armónicos en equilibrio térmico y utilizando técnicas mecánico-estadísticas,

dividió la energía total del sistema en cantidades discretas. Haciendo esto, se

dio cuenta de que obtenía una ley de distribución apropiada de la radiación,

a condición de que los osciladores pudieran absorber o emitir energía sólo en

cantidades discretas e(épsilon) que en la actualidad se conocen como quanta.

La energía de estos quanta están relacionadas a la frecuencia v de la emisión

o absorción de la radiación como:

ε = hv

donde h es una constante de proporcionalidad conocida ahora como

constante de Planck.

El uso de la constante parecía arbitrario, y si bien resolvió el problema

de la radiación del cuerpo negro, a la mayoría de los científicos les pareció

un truco, porque para Planck la energía de la partícula tenia que ser un

múltiplo de la frecuencia por la constante. Lo que la fórmula finalmente

muestra es que la energía viene en paquetes cuya denominación es hv. Estos

paquetes, estos quanta vinieron a iniciar una revolución, puesto que forzaron

a los científicos a repensar todas sus premisas acerca de la naturaleza de la

materia.

85

Para comenzar, puesto que la teoría cuántica se desarrolló para

resolver el problema de la interacción de la luz con las partículas, la

concepción científica de la luz cambió completamente. Una vez asimilado

este cambio, los científicos pudieron aplicar las nuevas ideas a sus

investigaciones, a solucionar más y más problemas, hasta que eventualmente

se dieron cuenta de que toda la materia, la naturaleza de sólidos, líquidos y

gases, la estructura del núcleo, etc., se comportaba de acuerdo a los

principios cuánticos. Estos principios, aunque extraños, son actualmente

bastante simples. Durante todo el siglo XIX, los científicos creyeron que la

luz era una onda de energía electromagnética. Pensaban que un haz de luz

“iluminaba” una superficie y por ello se veía. Puesto que las ondas eran la

manifestación de una fuerza, deducían que, como todas las ondas, las ondas

de luz podían ejercer su fuerza, y haciendo esto, alteraban la superficie

donde brillaban. En otras palabras, tal como las ondas de sonido empujan las

moléculas de aire, las ondas de luz golpean los electrones de la superficie

donde brillan. De acuerdo con la física clásica, la intensidad de la onda

determina la perturbación de la superficie que afecta. Sin embargo, los

científicos cuánticos descubrieron que esto no era verdad para la luz. Una

luz de mayor intensidad no golpea los electrones con mayor energía. Este

último descubrimiento es uno de los muchos de la física cuántica que

confunden. Para entender qué tan contradictorio es al sentido común, lo

único que necesitamos es visualizar unas ondas de agua diferentes.

Imaginemos que tiramos una pequeña piedra en un estanque: la onda que se

produce se desplaza con rizos que se alejan del centro y perturban todo lo

que encuentran en su camino. Las hojas que flotan en la superficie podrían

equipararse a los electrones y ser “golpeados” por la onda. Si en lugar de

tirar una piedra pequeña nos las arreglamos para arrojar una gran roca, la

86

energía con la cual las hojas se mueven será mayor, tal como la fuerza con

que la ola al subir la marea golpea la costa es mayor que cuando sólo llegan

pequeñas olas. Lo que el quantum nos refiere como el efecto fotoeléctrico es

una historia menos apegada al sentido común. Si la persona que conduce un

experimento incrementa la intensidad de la luz, más fotones golpearan la

superficie, pero ellos llegaran con la misma energía. De hecho, lo que el

efecto fotoeléctrico confirma es que en orden de transferir una mayor

energía a los electrones, uno debe incrementar no la intensidad sino la

frecuencia. La energía de la luz no está en relación con su intensidad, sino

con su color. La luz azul, que es de alta frecuencia, golpea los electrones con

más fuerza que la luz roja, que es de baja frecuencia. Los resultados de los

experimentos nos dicen entonces que las ondas cortas y rápidas son más

poderosas que las largas.

Quien explicó el extraño comportamiento de la luz fue Einstein.

Tomando en cuenta la constante de Planck, razonó que la luz afecta la

superficie sobre la cual brilla, no como una onda, sino como una lluvia de

partículas. Estas conclusiones, por supuesto, contradijeron una de las más

apreciadas certidumbres de los científicos: el que la luz era una onda. Desde

los tiempos de Maxwell, la luz era entendida como la manifestación de un

campo magnético; más aún, el comportamiento de la luz en nuestra diaria

experiencia parece contradecir el hecho de que la luz sea una partícula. Un

haz de luz puede propagarse sobre un área, puede dividirse, redirigirse,

difractarse y finalmente puede cruzar su curso con el de otro haz. Todas

estas cualidades nos sugieren que la luz es una onda. Las ondas se esparcen,

se dividen, se redirijen y cruzan caminos con otros haces. Las partículas, por

otro lado, están confinadas a regiones pequeñas; su viaje está limitado a una

sola dirección y no pueden interferir unas con otras sin chocar. En pocas

87

palabras, las partículas y las ondas parecen irreconciliablemente diferentes.

No obstante, tanto la solución de Einstein al efecto fotoeléctrico como la

evidencia experimental nos lo dicen de otra manera. Nos dicen que la luz

pude ser ambos, ondas y partículas, que la luz interactúa con una superficie

mediante una lluvia de partículas que están divididas en “monedas de

energía”. La denominación de estas unidades ha venido a conocerse como

fotones.

Si la solución de Planck y Einstein parece contradictoria, cuando

algunos de estos descubrimientos empezaron a introducirse en la comunidad

científica y los científicos intentaron aplicarlos a otros aspectos de la

materia, los resultados fueron aún más extraños. Planck, Einstein y Compton

pudieron mostrar que las ondas son también partículas. En Francia, Louis de

Broglie razonó que tal como Einstein había demostrado que las ondas de luz

tienen cualidades de partículas, las partículas de materia también tienen

propiedades de onda. De hecho, en su tesis de doctorado sólo utilizó

formulaciones de Einstein y Planck. Para él, cada partícula de materia podía

ser asociada con una onda cuyas frecuencias espacial y temporal podían ser

entendidas como energía y momentum o, dicho de otra manera, existe una

dualidad formal entre las ondas y toda materia, de acuerdo con la cual la

longitud de onda se puede asociar a cualquier momentum. En pocas

palabras, el argumento de De Broglie complementa los descubrimientos de

Einstein y Planck. Sin embargo, esto puede ser más difícil de digerir puesto

que implica que la materia puede volverse un campo. En otras palabras,

rompe con la distinción materia/campo y nos dice que todo está hecho de lo

que los científicos han venido a llamar “material cuántico”.

Mientras que estos descubrimientos constituyen la espina dorsal del

mundo con el cual la física cuántica trata, no son por sí mismos la teoría

88

cuántica. Hasta 1925, los científicos pudieron haber descubierto nuevas y

sorprendentes cosas acerca del átomo, y no obstante, para interpretarlas,

tenían que utilizar los esquemas provistos por la física clásica y entonces

jugar con sus fórmulas a manera de adaptarlas a los experimentos. De

acuerdo con Max Jammer, la situación era una “lamentable mezcolanza de

hipótesis, principios, teoremas y recetas computacionales”.35 La teoría

cuántica, empero, es todo menos una mezcolanza. Sistematizada y exacta, la

teoría es un método para representar el “material cuántico”

matemáticamente. La mecánica cuántica es, entonces, una representación del

mundo por medio de símbolos, en la que un valor matemático es dado al

material cuántico, una ley científica describe cómo esta cantidad se

transforma y, finalmente, una especie de norma determina cómo las

matemáticas pueden ser trasladadas a los fenómenos del mundo.

La primera de estas teorías en ser formulada de manera completa fue

la de Werner Heisenberg. Conocida como mecánica “matricial”, Heisenberg

desarrolló su sistema en 1925 mientras se recuperaba de una enfermedad en

la isla de Heligoland. En sus memorias recordaba lo siguiente:

At 3 a.m. one night he could no longer doubt the mathematical consistency and

coherence of the kind of quantum mechanics to which my calculations pointed. At

first I was deeply alarmed. I had the feeling that, through the surface of atomic

phenomena, I was looking at a strangely beautiful interior, and felt almost giddy at

the thought that I now had to probe this wealth of mathematical structures nature

had so generously spread out before me. 36

35 Max Jammer, The Conceptual Development of Quantum Physics, New York, Mc Graw-Hill, 1996. 36 Werner Heisenberg, Physics and Beyond, New York, Harper and Row, 1971

89

La suposición inicial de Heisenberg parece ahora muy

simple; sin embargo, no lo fue cuando él desarrolló sus matrices. Ello

implicó algo que había oído cuando estaba trabajando en Gottingen,

Alemania, con Max Born: que una teoría física debería tener que ver

con cosas que pudieran ser observadas por experimentos. Mientras

que al principio la idea parece obvia, no lo era tanto entonces, y de

hecho el llevarla a cabo implicaba desprenderse de paradigmas de la

física clásica que los científicos seguían aplicando al mundo atómico.

Nadie había visto un electrón siguiendo una órbita elíptica alrededor

del núcleo. El modelo era adoptado de la física clásica. Lo que los

experimentos reportaban eran los estados de onda y partícula del

electrón, su espin y su momentum. Lo que los resultados confirmaban

era que había transformaciones entre los estados.

Para tratar con estas transformaciones y con las relaciones entre dos

estados, Heisenberg tuvo que recurrir a las matrices. Los científicos que

intentan popularizar la mecánica cuántica han sugerido que las matrices de

Heinsenberg se parecen a las tablas de kilometraje de los mapas. Una

analogía aún más fácil puede hacerse con el juego de ajedrez: los cuadros del

tablero pueden ser representados por unas únicas coordenadas (A1, A2, B1,

etc.) y el “estado” del juego en un momento dado, puede ser representado

por la notación de estas coordenadas. En las matrices de Heisenberg, el

“estado” de una partícula o un electrón, las “transiciones cuánticas”, pueden

ser descritas mediante una notación similar que liga los estados inicial y

final.

Aunque actualmente la mecánica matricial de Heisenberg se maneja

no solamente para reemplazar las ecuaciones de la mecánica clásica, sino

también para redefinir muchos de sus principios, como el de la conservación

90

de la energía, no llegó a tener gran éxito en la comunidad científica. Esta

falta de éxito se debió, en parte, a lo poco familiar que eran las matemáticas

en las que se fundaba. Pero más importante fue el que no proveía una

imagen física del fenómeno que representaba. No había órbitas, no había

ondas ni partículas. Por lo tanto, cuando un año después de que las matrices

de Heisenberg fueron publicadas, Erwin Schrödinger propuso una teoría

cuántica, la mecánica ondulatoria, que utilizaba la imagen de las familiares

ondas, la comunidad científica adoptó este modelo que llegó a ser el

estándar.

Desarrollada en 1926, la mecánica ondulatoria, como la mecánica

matricial, resolvió los problemas de las interacciones cuánticas; sin embargo,

la primera no se basaba en una rama impopular de las matemáticas, sino en

unas matemáticas que eran ya usadas ampliamente por los físicos. En pocas

palabras, Schrödinger usó una ecuación de onda, una ecuación similar a la

que describía las ondas comunes, como las ondas sonoras. Así, mientras que

el modelo de Heisenberg suponía que el electrón era una partícula, el de

Schrödinger lo establecía como una onda. Ambas teorías llegaron al mismo

resultado y eventualmente fue el propio Schrödinger, junto con Carl Eckhart

y Paul Dirac, quien pudo demostrar que los dos modelos eran

matemáticamente equivalentes. Este último descubrimiento provocó el

disgusto de Schrödinger, puesto que él originalmente formuló la mecánica

ondulatoria para restablecer la sensatez de la física cuántica, intentando

eludir lo extraño, como los saltos cuánticos, lo discontinuo y aleatorio de las

transiciones entre estados cuánticos.

De hecho, ninguna de las teorías anteriores, ni las teorías por venir

podrán eliminar lo extraño. Si el quantum es enigmático, es porque viola al

menos dos de nuestros principales paradigmas intelectuales: la causalidad y

91

la identidad. En un salto cuántico, el electrón en cierto nivel de energía –el

estado permitido de una cierta cantidad de energía acumulada– puede pasar

instantáneamente a otro nivel energético, emitiendo o absorbiendo energía al

hacerlo. No existe un estado intermedio y el salto ocurre sin tomar tiempo.

En consecuencia un salto cuántico viola nuestro apreciado sentido de

causalidad, lógica y continuidad. El “y” y el “uno u otro” que George Boole

codificó en los símbolos que pudieron anclar su “lógica algebraica”, pierden

su habitual significado. De manera similar, en el mundo cuántico, las

identidades, nuestra capacidad de identificar ciertas características y

añadirlas a los componentes de los átomos, como si el átomo fuera, como los

seres vivientes, sujeto a la taxonomía, no funciona. El casi arquetípico

experimento al que recurren los físicos para explicar los enigmas de la

mecánica cuántica es el experimento de la doble rendija. Richard Feynman

argumentó que el experimento contenía el “misterio central” del quantum

porque presentaba “un fenómeno que es imposible, absolutamente imposible

explicar de una manera clásica, y que tiene el corazón de la mecánica

cuántica.” Feynman añadió: “en realidad contiene el único misterio…las

peculiaridades básicas de la mecánica cuántica.”37

Desarrollado originalmente a principios del siglo XIX por el físico

inglés Thomas Young para confirmar la teoría ondulatoria de la luz

propuesta por Christopher Huygens, que se oponía a la teoría corpuscular de

Newton, el experimento es sorprendentemente simple: si un haz de luz se

proyecta en una pantalla que tiene una estrecha ranura en ella, la luz pasa a

través de esta ranura y se proyecta hacia otra pantalla que a su vez tiene dos

rendijas. La luz sale a través de ambas rendijas y se proyecta a una pantalla

donde forma un patrón de franjas de sombra y luz. Este patrón no es muy

37 Richard.Feynman, Lectures in Physics Vol. III, Boston, Addison Wesley, 1965

92

diferente al de los códigos de barras que aparecen en la mayoría de los

productos que compramos hoy día, excepto que las barras son menos

definidas y más regulares, y esta regularidad es debida a la interferencia de

dos ondas que se traslapan. Este comportamiento, entonces, es semejante a

lo que sucede con las ondas sonoras en un equipo estereofónico de música:

si colocamos las bocinas en cierta forma de manera que las ondas sonoras

choquen, uno u otro sonido puede ser eliminado. En una gran pieza

sinfónica, por ejemplo, en un momento dado, ciertas frecuencias –como las

de la flauta o el clarinete, por ejemplo– pueden no ser oídas. Igualmente, en

el experimento de las dos rendijas, las barras que se forman en la pantalla

final, vinculan las zonas brillantes con la coincidencia de las crestas de las

ondas, y las zonas obscuras con las zonas donde las crestas de uno de los

conjuntos de ondas pueden coincidir con las hondonadas del otro conjunto,

en cuyo caso los dos conjuntos de ondas se cancelan mutuamente.

Los resultados del experimento de Young, no pueden duplicarse

cuando se usan partículas. Imaginemos que en lugar de los haces de luz

usáramos municiones para hacerlos pasar a través de los agujeros. Las

municiones pasarán por el primer agujero y después, de acuerdo con la

gravedad y las fuerzas inerciales, pasarán a través de cada uno de los otros

dos agujeros. Sin embargo, al final no tendremos un patrón similar al de

barras de luz y sombras, sino que tendremos dos pilas de perdigones, una

detrás de cada agujero. El aspecto curioso, o mejor el aspecto

verdaderamente sorprendente, emerge cuando los científicos usan un haz de

electrones. Recordemos de nuestra discusión previa sobre el efecto

fotoeléctrico que, gracias a Einstein, llegamos a pensar en los electrones

como partículas. Si los electrones se lanzan a través de ambas rendijas y

llegan a una pantalla de fósforo, a una pantalla como de computadora o de

93

TV, que registre los impulsos eléctricos de cada electrón, lo que obtenemos

es exactamente es un patrón semejante al de las ondas de luz. Aun si los

electrones fueran lanzados uno por uno, eventualmente la pantalla exhibiría

el mismo patrón: cada electrón arribaría a un punto en particular de la

pantalla y dejaría un punto de luz y después de –por decir un número–

700,000 electrones que fueran lanzados uno a uno, el patrón sería

increíblemente similar al del experimento inicial.

Finalmente, el experimento de Young demuestra no solamente que la

luz es una onda, sino algo más asombroso: las entidades cuánticas viajan

como ondas pero arriban como partículas. De ahí la eficiencia tanto de la

mecánica ondulatoria como de la matricial, pese al hecho de que esta última

considera partículas, y la primera onda. Además, las implicaciones de este

experimento van más allá de la sola dualidad onda partícula. A lo que apunta

es a aquello que Feynman llamó el “único misterio”. Abundemos un poco,

pues este es un experimento crucial, y otra vez, citando los argumentos de

Feynman: “Cualquier otra situación que surge en la mecánica cuántica,

puede siempre explicarse diciendo: ¿recuerda el caso del experimento de las

dos rendijas? Es la misma cosa”.38 Así es que aquí volvemos: las partículas

individuales que se lanzan a través de las dos rendijas marcan un solo punto

en la pantalla. El sentido común nos dice que cada partícula pasa a través de

una u otra de las rendijas. Sin embargo, a medida que más y más puntos se

marcan en la pantalla, el patrón que emerge es el clásico de interferencia de

una onda que pasa a través de dos rendijas. Los electrones no solamente son

capaces de pasar a través de ambas rendijas al mismo tiempo sino que (y

volveremos a esto en un capítulo posterior) tienen que llegar a un

determinado punto en la pantalla para contribuir a la formación del patrón.

94

Las implicaciones del experimento han sido exploradas e interpretadas

de diferentes maneras. Cada una de estas interpretaciones ha provocado una

plétora de preguntas filosóficas sobre lo que nuestro mundo es y por lo tanto,

con lo que con los físicos cuánticos están tratando es con el tejido, con la

estructura fundamental del mundo. Ya hemos tocado brevemente la

interpretación de Copenhague, que sostiene que no hay una realidad

profunda. Sin embargo, la interpretación de Copenhague no es la única

interpretación. Enfrentados con la dualidad onda-partícula del electrón y

también con el hecho de que el electrón parece estar “consciente” del

observador y afectarse por el acto de la observación, de manera que puede

afectar su comportamiento en conformidad, otros físicos como Hugh Everett

y Bryce de Witt,39 y más recientemente David Deutsch en The Fabric of

Reality, han argumentado que siempre que el mundo se enfrenta a una

elección a nivel cuántico –en otras palabras, cada vez que un electrón marca

un punto y no otro en la pantalla, o escoge una rendija en lugar de la otra

entonces el universo se divide en dos o en tantas partes como opciones

pueda seguir. En otras palabras, la interpretación de los muchos mundos

sostiene, como De Witt lo escribe, que 10100 copias un poco imperfectas de

uno mismo se están dividiendo constantemente en copias adicionales.

La interpretación de los muchos mundos, como tantas otras

interpretaciones, puede ser probada matemáticamente. De hecho, esta

interpretación, en su forma completa de desarrollo matemático, es acorde

con la interpretación de Copenhague. Sin embargo, aun cuando ha probado

38 Richard Feynman, The Character of Physical Law, London, Penguin, 1992 39 Para el trabajo de Everett véase Reviews of Modern Physics, vol. 29, p. 454. Para el trabajo de DeWitt véase Physics Today (septiembre de 1970, p. 30). Para un tratamiento completo de la interpretación de los multiples mundos, una forma de empezar puede ser el libro de Paul Davies, Other Worlds.

95

ser útil para los cosmólogos que han empezado a especular sobre

multiuniversos o multiversos (en su forma más usual), sus defectos son de la

clase de defectos a los que, desafortunadamente, demasiados científicos son

proclives: a permitir que a una teoría que, como hemos visto brevemente,

puede ser matemáticamente precisa pero de ninguna manera completa, se le

exijan demasiadas pretensiones. En otras palabras, la interpretación

sobreextrapola los resultados a tal extremo, que aún la prosa de su

explicación tiene ese halo inmaduro que uno encuentra en las

investigaciones entusiastas pero filosóficamente indisciplinadas. David

Deutsch es el principal ejemplo de esto. Después de discutir que “la teoría

cuántica de los universos paralelos no es el problema, [sino] la solución… la

explicación –la única que es defendible– de una realidad notable y

contraintuitiva”, Deutsch se entusiasma al decir:

Not only do the copies of an abject have any privileged position in the explanation

of shadows [by shadows Deutche means the particles in other universes] that I

have just outlined, neither do they have a privileged position in the full

mathematical explanation provided by quantum theory. I may feel subjectively that

I am distinguished among the copies of the tangible one, because I can directly

perceive myself and not the others, but I must come to terms with the fact that all

the others feel the same about themselves.

Many of those Davids are at this moment writing these very words. Some are

putting it better. Others have gone for a cup of tea.40

La especulación de Deutche es, por supuesto, un buen ejemplo de una

falacia central en la cual los científicos a menudo incurren. La falacia es en

el fondo semántica e involucra la aplicación indiscriminada de terminología

40 David Deutch, The Fabric of Reality, London, Penguin, 1967.

96

científica que tiene un significado específico en el laboratorio, distinta al que

tiene fuera de aquél.

En el corazón del asunto también hay que considerar el hecho de que

el quantum, con todo y su precisión en la descripción del micromundo y del

comportamiento del átomo y sus partículas, de ninguna manera es una

ciencia que esté completa. El quantum puede resumir en tablas las fuerzas

nucleares débil y fuerte, así como la fuerza electromagnética; sin embargo,

hasta ahora nadie ha podido arreglárselas para integrar la gravedad en el

esquema cuántico. Las razones de esta falla son diversas. Una de ellas puede

concluirse si recordamos, del capítulo previo, que la masa inercial y la masa

gravitacional son indistinguibles en la relatividad general de Einstein. La

segunda razón tiene que ver con las escalas a las cuales el quantum trabaja.

La gravedad es una fuerza demasiado débil, lo cual significa que sus efectos

no pueden detectarse en el reino de las dimensiones de Planck.41

Algunas interpretaciones del quantum toman en cuenta lo incompleto

de las teorías. Admitir lo incompleto del quantum no implica la falla de éste.

De hecho, nosotros como muchos científicos –entre ellos el matemático

Roger Penrose y los físicos Danah Zohar y John Gribbin– creemos que

finalmente el quantum desenmarañará no solamente los misterios del mundo

físico, sino los más profundos y complejos misterios, como los de la

memoria molecular que se ve en la formación del ADN, así como los de

nuestra memoria y nuestra conciencia. En la segunda parte de este libro se

41 La longitud y el tiempo de Planck son, de muchas maneras, las varas de medir de la mecánica cuántica. La longitud de Planck se refiere a la escala a la cual las ideas clásicas acerca de la gravedad y del espacio-tiempo dejan de ser válidas. Actualmente la longitud de Planck tiene un valor aproximado de 10¬33 cm. El tiempo de Planck es el tiempo que le tomaría a la luz el recorrer la longitud de Planck. Esta es la medida más pequeña de tiempo que tiene algún significado y su valor es de 10¬43 seg. Ninguna medida menor de tiempo tiene significado.

97

hará énfasis en estos temas.42 Sin embargo, mientras en el futuro estos

misterios pueden ser resueltos mediante los principios de la mecánica

cuántica, esto sólo sucederá cuando los pretextos, por decirlo de alguna

manera, sean borrados.

Una de las interpretaciones del quantum que reconoce estos pretextos

y enseña las posibilidades de una futura teoría cuántica fue propuesta por

David Bohm. Desafortunadamente, las ideas de Bohm, así como su

reputación estuvieron sujetas a los caprichos de las políticas académicas.

Nacido en Pennsylvania en 1917, Bohm se graduó en el Pennsylvania State

College y como muchos físicos del siglo XX, afinó su técnica primero con

Oppenheimer en Berkley y después en Los Alamos. Bohm no solamente

tenía una filosofía sospechosa, sino también una consciencia y cuando fue

requerido para que delatara a sus colegas al HCUA (House Committee on

Un-American Activities) de McCarthy, se rehusó, por lo que fue despedido

de su cargo en la Universidad de Princeton. Sus tendencias marxistas lo

hicieron sospechoso a la comunidad. Mientras escribía lo que es uno de los

más claros y accesibles libros de texto sobre la mecánica cuántica, Bohm se

convenció de las imperfecciones del quantum y desarrolló una nueva

interpretación, diversamente conocida como onda piloto, el todo indivisible

o la interpretación de las variables ocultas.

42 Para el quantum como una herramienta para entender la inteligencia y la conciencia ver La nueva mente del emperador de Roger Penrose. Danah Zohar amplificó, para decir lo menos, el argumento de Penrose y usó el quantum para razonar las raíces del ser así como la conexión del ser con el universo en su libro The Quantum Self. Finalmente, para la relación entre el quantum, el DNA y la memoria molecular, véase In Search of the

Double Helix de John Gribbin. Futuros capítulos estarán verdaderamente en deuda con el trabajo de estos científicos.

98

El estímulo de esta interpretación fue una teoría que llegó a ser más

que una mera estadística, una teoría que podría tener alguna relevancia en el

mundo:

Se supone que todo lo que importa en una teoría física es el desarrollo de las

ecuaciones matemáticas que nos permitan predecir y dirigir el comportamiento de

grandes conjuntos estadísticos de partículas… Ciertamente esta clase de

suposición está de acuerdo con el espíritu general de nuestra época, pero la

principal propuesta de este libro es que no podemos prescindir alegremente de

tener un concepto global del mundo…En efecto, uno se da cuenta de que los

físicos no pueden sumergirse precisamente ahora en cálculos de predicción y

control: necesitan utilizar imágenes que se basen en cierto tipo de nociones

generales acerca de la naturaleza del mundo físico…43

La interpretación con la cual Bohm intenta hacer que el quantum

adopte una visión general ha sido etiquetada como determinista. Pese a todo,

como veremos, la extrañeza misma del quantum ha rescatado la

interpretación de su etiqueta. Muchos también han señalado el principal

defecto de la interpretación, que parece confiar en la pesadilla que perturbó a

Einstein tan frecuentemente: la acción a distancia, la idea de que las

interacciones operan sin que intervenga ningún mecanismo.

Pese a todos sus detractores, la interpretación es importante, y si tiene

fallas, definitivamente, como ha argumentado Timothy Ferris, apunta a

“vislumbrar una futura ciencia”.44 La suposición inicial de Bohm es que la

versión usual de la física cuántica es defectuosa porque es incompleta. Este

vacío se funda en el hecho de que, según Bohm, existe una capa subyacente

43 David Bohm, La Totalidad y el Orden Implicado, Barcelona, Kairós, 1988. 44 Timothy Ferris, The Whole Shebang: A State of the Universe Report, New York, Simon & Schulster, 1997.

99

de realidad, un mundo subcuántico que contiene información adicional

acerca del mundo. Esta información adicional está en forma de variables

ocultas que predicen los resultados precisos de mediciones particulares. En

otras palabras, las variables ocultas de Bohm suponen y sostienen un tipo de

“conciencia” global, una fuerza que controla, que determina el resultado de

los eventos.

Aun cuando esta teoría es infinitamente más elegante y parece tener

más sentido común que la de los múltiples universos o que la interpretación

de Copenhague, los científicos la rechazaron bruscamente, primero porque el

matemático John Von Neumann probó matemáticamente que las variables

ocultas no operan en el mundo cuántico y por consiguiente la mayoría de los

científicos no se atrevieron a admitir que para determinar el resultado de

múltiples eventos, las variables ocultas daban por sentada la acción a

distancia.

Recientemente, sin embargo, la interpretación de las variables ocultas

ha tenido una especie de resurgimiento. David Z. Albert ha sido uno de sus

principales proponentes:

This is the kind of theory whereby you can tell an absolutely low-brow story about

the world, the kind of story (that is) that’s about the motions of material bodies, the

kind of story that contains nothing cryptic and nothning metaphysically novel, and

nothing ambiguous and nothing inexplicit and nothing evasive and nothing

unintelligible and nothing inexact and nothing subtle……in which the whole

universe evolves.45

45 David Z. Albert, “Bohm´s Alternative to Quantum Mechanics”, Scientific American, mayo 1994.

100

Para otros no filósofos-científicos como Albert, la interpretación ha

sido reivindicada por el experimento llamado de “Aspect”. Este experimento

consta actualmente mas bien de una serie de experimentos, efectuados por

Alain Aspect y sus colegas, y establece que lo que Einstein etiquetó como la

“horripilante o fantasmal acción a distancia” realmente opera en el mundo

cuántico. El corazón del experimento implica la polarización de los fotones.

Los fotones pueden llegar a pensarse con flechas que apuntan hacia “arriba”

o hacia “abajo”. Si un átomo es estimulado de manera que produzca dos

fotones, éstos se dirigen en direcciones opuestas cancelándose uno al otro.

De estos fotones, uno puede ser “arriba” y el otro “abajo”. De acuerdo con la

teoría cuántica estándar, los fotones existen en una sobreposición de estados.

En otras palabras, pueden existir como “arriba” o “abajo” hasta que el

experimentador efectúe la medida; en ese momento se produce un colapso

de la función de onda y el fotón se establece en uno de los dos estados. El

experimento toma esto en cuenta, pero lo usa a su favor efectuando la

medida únicamente sobre un fotón. El experimento revela que tomando la

medida del primer fotón, la función de onda del segundo fotón, no medido,

se colapsa en el preciso momento en que la medida del primer fotón lo hace

cambiar de una superposición de estados a un estado definitivo, y este

segundo fotón, sin que se le efectúe ninguna medida, también cambia a un

estado definitivo.

La respuesta instantánea del segundo fotón a lo que ocurre al ser

medido el primero, contradice la imposibilidad de la acción a distancia. El

experimento de Aspect, prueba, en otras palabras, mas allá de cualquier

duda, que el mundo cuántico, el mundo del átomo es no local. Esta no

localidad que para los científicos significa la manera en la cual una entidad

es afectada no sólo por lo que funciona en un punto –su localidad– sino

101

también por lo que funciona en otro lugar en el mismo instante, puede ser

aún más misterioso que el resultado del experimento de la doble rendija que

Feynman sostuvo como el misterio cuántico central. No obstante, las

pruebas experimentales existen y por lo menos dan indicio de la existencia

de variables ocultas hasta el punto de que algunos científicos han tomado el

asunto donde Bohm lo dejó y, por ejemplo, John Crammer ha propuesto

teorías que son afines a la de las variables ocultas de Bohm.

Volveremos a Bohm y las variables ocultas, pero primero

dedicaremos un capítulo al intento de mostrar la convergencia entre el

quantum y la cosmología.

102

4

EL SIEMPRE INALCANZABLE SANTO GRIAL:

LA TEORÍA DEL TODO

Si un historiador en el futuro tuviera que escribir la historia de la

ciencia del siglo XX, sin duda alguna se impresionaría por los nombres de

los científicos y sus logros. Tan solo en el reino atómico, la lista sería

extensa.

En 1902, Lord Kelvin presentó el primer modelo del átomo; en 1910,

J.J. Thomson identificó el protón; en 1911 Ernest Rutheford descubrió que el

átomo estaba formado por un núcleo central que de alguna manera estaba

rodeado por una nube de electrones; en 1913, Niels Bohr completó el primer

modelo de un átomo que tomó en cuenta las implicaciones del quantum; En

1920, trabajando separadamente, Heisenberg y Shrödinger sistematizaron la

teoría cuántica y Bohr presentó su interpretación de Copenhague; George

Gamow presentó un modelo donde el núcleo atómico recordaba una gota de

líquido que se mantenía unida por una especie de tensión superficial; en

1932 James Chadwick descubrió el neutrón, una partícula sin carga eléctrica

y con la misma masa del protón y John Cockroft junto con Ernest Walton

usaron el primer acelerador de partículas para dividir el átomo. Así como en

menos de 40 años la física de partículas se revolucionó no solo a sí misma

sino también a nuestra concepción del mundo físico y a la tecnología que lo

rodea, la astrofísica progresó tanto como la anterior en cuanto al

conocimiento concierne. El año clave de la astrofísica pudiera ser 1915,

cuando Einstein presentó su teoría de la Relatividad General ante la

academia de ciencias de Prusia, describiendo que pasa cuando el espacio se

103

distorsiona por la presencia de la materia. Hacia 1916, las implicaciones de

la Relatividad General empezaron a aflorar y una miriada de consecuencias

teóricas se postularon, entre las cuales se encuentran los agujeros negros y

los de gusano (worm holes) así como la expansión del universo. En 1919,

una de las primeras confirmaciones experimentales de una de las

predicciones de la Relatividad general, se obtuvo cuando pudo ser medida

la curvatura de la luz causada por la gravedad del Sol. La historia cuenta que

cuando se efectuó el experimento, Max Planck estuvo toda la noche

aguardando los resultados. Al enterarse de esto, Einstein comentó: “El

realmente no ha entendido la ciencia…si hubiera entendido la manera en que

la teoría de la Relatividad explica la equivalencia entre la masa gravitacional

y la inercial, se hubiera ido a la cama”.46 En los años veintes, más y más

predicciones fueron confirmadas y quizá la más impresionante fue el

descubrimiento por parte de Edwin Hubble de que la Vía Láctea era solo una

entre muchas galaxias en un cosmos que se estaba expandiendo. Este

descubrimiento de la expansión del universo no solo confirmó algunas de las

predicciones que la Relatividad había sugerido, sino que confirmó su más

sorprendente predicción, que el universo había tenido un nacimiento, que fue

posteriormente conocido como la Gran Explosión o big bang. En la década

de los cuarentas, George Gamow y Ralfh Alpher intentaron describir las

condiciones cuantitativas del big bang, investigando el tipo de interacciones

nucleares que debieron haber ocurrido en el nacimiento del universo.

Si nuestro historiador del futuro observara el trabajo de Gamow y

Alfher, podría deducir que anticipaba dos cosas. Primero, que establecía las

bases de lo que vendría a ser la mayor inquietud de los físicos en la segunda

46 Gerard Holton, and Yehuda Elkana, (eds.) Albert Einstein, Historical and Cultural

Perspectives, Princeton, NJ., Princeton University Press, 1982.

104

mitad del siglo XX. Segundo, ante estas inquietudes, el trabajo experimental

que se hizo para resolverlas, aunque muy brillante, hizo parecer que la física

estaba estancada. Nuestro historiador quizá cambiaría el tono de su narrativa

de triunfal y laudatorio a irónico y pesimista. Tal vez él escribiría: “Mientras

que el trabajo de Gamow iluminó los posibles nuevos caminos que la física

podría tomar, también estableció un santo grial que los científicos han

ambicionado encontrar, pero como todos los santos griales éste demostró ser

también muy elusivo. Hubo muchos falsos principios. Hubo muchas

tecnologías inasequibles. Pero lo más importante es que lograr la meta ha

sido imposible por dos motivos: los conflictos institucionales y el

dogmatismo. Pese a sus creencias en la simetría y la simplicidad, los

científicos se apoyaron en esquemas elaborados y se rehusaron a aceptar el

sentido común, cuando era tiempo para la ciencia introducirlo en sus

métodos. Más aun, ellos se cegaron o restringieron por sus métodos y no

pudieron ver las pistas obvias que podrían haberlos llevado al logro de su

meta.”

Nuestro imaginario historiador del futuro debería, por supuesto –como

los historiadores de todas las épocas– contar con el beneficio de mirar el

pasado con lo que conocemos como una visión de 20/20, perfecta. Sin

embargo la pregunta sería ¿porqué la física nos ha ofrecido tan triste visión

en sus conclusiones en la última parte del siglo XX? Después de todo la

física de partículas y la astrofísica han tenido tremendos avances. El más

reciente a punto de resolverse es el valor de omega, el número que

determinará la cantidad de materia existente en el universo y que nos dirá si

éste se expandirá indefinidamente o eventualmente colapsará. En 1998 se

105

hizo también un descubrimiento importante: λ, una insospechada fuerza que

controla la expansión del universo.

Por otra parte, la física de partículas ha venido a ser una parte

intrínseca de nuestras vidas. Aun pensando que la mayoría de la gente la

perciba como un rompecabezas para los académicos en sus torres de marfil,

la física cuántica ha transformado nuestro ambiente y nuestro modo de vida,

desde lo más trivial hasta lo más comercial. En el reino doméstico, la TV,

los equipos de sonido y las computadoras no existirían sin el quantum.

Todos estos aparatos y hasta los autos, dependen de los semiconductores,

materiales con propiedades conductivas que se encuentran entre los

aisladores y los conductores y donde los electrones pueden saltar de un

átomo al siguiente bajo las condiciones adecuadas. Estos saltos de átomo a

átomo dependen de una serie de reglas cuánticas conocidas como

estadísticas Fermi-Dirac, sin ellas, nadie sería capaz de diseñar las rápidas

computadoras que tenemos actualmente. Claro que podemos darnos cuenta

que tanto TV como computadoras y equipos de sonido son simplemente

triviales. La civilización se ha manejado sin ellos por milenios, ¿son

realmente tan importantes?

Como quiera que sea, puesto que el quantum está empotrado en la

naturaleza, nos permitirá entender no solamente el comportamiento de lo

inanimado, sino también los fenómenos sin los cuales nuestra existencia no

sería posible. Debido a la incertidumbre cuántica, podemos entender como

en el Sol –nuestra única fuente de energía– los núcleos de hidrógeno se

fusionan generando calor. También por la física cuántica podemos entender

como la molécula de DNA se replica a sí misma. La vida en este planeta

depende en gran medida de la habilidad de ésta molécula para

“desabrocharse” y hacer dos copias de la doble hélice original construyendo

106

una contraparte de cada ramal de la molécula original con ésta como

modelo. Las ligas o enlaces que utiliza este proceso para mantener las ramas

de la molécula juntas la mayoría del tiempo, pero que también le permite

separarse cuando es necesario o apropiado, es una especie de pegamento

químico conocido como pegamento de hidrógeno. Este pegamento, un solo

protón, comparte los electrones de otros dos átomos y forma la liga entre

ellos. Para decirlo brevemente, la física cuántica explica el misterio

fundamental de la vida a través de un proceso cuántico que está en el

corazón de los sistemas de pegamento de hidrógeno.

Por lo tanto, si astrofísicos y físicos de partículas han hecho tales

avances y nos han dado un entendimiento mucho mas profundo del mundo

en que vivimos, ¿por qué las quejas de nuestro imaginario historiador? El

camino que en los años cuarenta iniciaron Gamow y Alpher, fue el que se

dirigió a lo que se conoce como la Teoría del Todo (Theory of Everything o

TOE). No se debe confundir esta teoría con las grandes teorías unificadas

que sólo intentan combinar la descripción de la fuerza electromagnética, la

fuerza nuclear débil y la fuerza nuclear fuerte en un sólo paquete matemático

similar al que James Clerk Maxwell encontró para unificar las fuerzas

eléctrica y magnética. La TOE intenta introducir la gravedad en el paquete.

En otras palabras, una teoría del todo, si llega a desarrollarse, debe explicar

el electromagnetismo, las fuerzas nucleares débil y fuerte y la gravedad bajo

una sola rúbrica matemática.

Existen muchos obstáculos a sobrepasar para que tal teoría alguna vez

emerja. Sin embargo en los siguientes capítulos, en la segunda mitad de este

libro, discutiremos que más que modelos matemáticos o tecnología, lo que

parece obstruir más el camino es una cosa: el dogmatismo o los intereses

políticos de los científicos, su inhabilidad o falta de voluntad para pensar

107

creativamente y fuera de la academia o de artículos de fe institucionales.

Este dogmatismo es de lo más obvio cuando encontramos científicos que

han sido estigmatizados por sus ideas. David Bohm, cuyas ideas tocaremos

en el último capítulo, es solo uno de estos científicos. Teilhard de Chardin,

cuyas ideas dominarán la segunda mitad de este libro, es no solamente otro

ejemplo, sino el arquetipo de los científicos rechazados. Regresaremos con

Teilhard de Chardin y con David Bohm porque en el corazón de sus

variables escondidas, así como en su exploración sobre la naturaleza de la

conciencia existe una gran coincidencia con Teilhard de Chardin. Sin

embargo primero aislaremos lo que ha surgido de los dos teorías principales

que contienden por el éxito.

Los científicos creen en la simetría y la simplicidad. Para muchos el

famoso comentario de Paul Dirac de que “es más importante que exista

belleza en las ecuaciones a que éstas encajen en los experimentos”, se ha

vuelto un precepto.47 Los números mediante los cuales ellos entienden el

mundo que tienen que representar, no son los de los elementos caóticos e

inestables en la naturaleza, sino los estables. En otras palabras, sus fórmulas

cuantifican fenómenos que permanecen estables a través de las

transformaciones.

Para entender lo que es esto y lo que la simetría significa, vamos a

imaginar que el mundo conocido que los científicos estudian es un texto.

Supongamos que Dante está en lo correcto y que su cosmología también es

la correcta. Imaginemos que los científicos intentan entender el más

profundo funcionamiento de ese texto. La primera cosa que deben hacer es

capturar cada línea del poema en su supercomputadora y tabular los

47 Paul Dirac, “The Evolution of the Physicist’s Picture of Nature.” Scientific American mayo 1963, p. 47.

108

diferentes patrones que aparecen. Rápidamente, tan pronto como el texto

completo –Infierno, Purgatorio y Paraíso- haya sido capturado, se darán

cuenta de que los cien cantos están constituidos por permutaciones de 25

letras. El descubrimiento de estas letras puede no ser muy distinto al que nos

llevó al modelo estándar de la física cuántica. Los científicos encontrarían

una leve simetría, algo que permanece constante pese a las permutaciones.

Sin embargo, el descubrimiento apenas explica la profundidad y rango del

texto que han capturado en su computadora. Por lo tanto, su siguiente tarea

será encontrar si estas 25 letras están arregladas en alguna especie de patrón.

La computadora, por supuesto, deberá ser rápida en realizar este tipo de

trabajo que a los lingüistas les ha tomado siglos, y encontrará morfemas y

fonemas, prefijos y sufijos. Posiblemente no se entienda la manera en que

las letras han llegado a ser semánticas, pero los patrones deben surgir y

nuestros imaginarios científicos habrán descubierto las palabras. De nueva

cuenta, pese a los diferentes terrenos de la cosmología del texto de Dante –

los ríos congelados del infierno o los inclinados riscos del purgatorio- la

única constante de tal mundo es que está hecho de unidades significativas. Y

así como el contraste meteorológico de una región de ese universo con la

siguiente puede ser asimétrico, el hecho de que cada región está constituido

de palabras, apunta a una simetría. Aunque nuestros científicos celebran el

descubrimiento, saben que falta trabajo por hacer si han de entender como es

que ese mundo realmente funciona. Las palabras son un gran descubrimiento

pero ¿siguen estas palabras un patrón? Los discos de la supercomputadora

podrían tartamudear y tropezarse un poco más aquí, pero eventualmente

obtendrían un logro: ciertos tipos de palabras parecen tener alguna función y

toman cierto lugar en el poema. Los científicos habrán descubierto lo que

ciertos lingüistas han logrado en la última parte del siglo XX, una sintaxis y

109

gramática generativa. Eventualmente la computadora también descubrirá el

esquema de la métrica y la rima del poema, así como su diseño en conjunto.

Una vez que los científicos se hayan dado cuenta que todas estas cosas son

simétricas –es decir, que ocurren en iguales partes o medidas, para recurrir al

significado original de la palabra– tendrán un entendimiento más profundo

del mundo de Dante. Sin embargo, después de todas sus investigaciones,

permanecerán elementos caóticos, elementos asimétricos, elementos que no

tienen patrón o recurrencia.

Tal como nuestros imaginarios científicos analizaron a Dante, los

científicos reales buscan encontrar patrones en los diferentes fenómenos de

la naturaleza. Durante el siglo XX, la fe de los científicos en la simetría sólo

se consolidó cuando se dieron cuenta que cada ley o fuerza que habían

descubierto era aplicable en cualquier lugar del universo. Como el texto de

Dante, gobernado por las leyes del lenguaje y organizado por la métrica y la

rima, las partículas tienen las mismas características en cualquier parte y

están sujetas a las mismas leyes. Este tipo de simetría que sostiene que las

leyes de la naturaleza son las mismas en todas partes del universo, es

conocida como “invariancia transicional” y corresponde a la ley de

conservación del momento lineal.

En el esquema de las cosas según los científicos y central a su fe en la

simetría y su rompimiento, se encuentran las cuatro fuerzas de la naturaleza.

Las dos con más amplio rango y más obvios efectos en la escala macro del

mundo, son la gravedad y el electromagnetismo. Las otras dos fuerzas, las

nucleares débil y fuerte, actúan sólo en el rango del núcleo atómico. Cada

una de las fuerzas parece estar más que sutilmente sintonizadas, de manera

que si alguno de los valores fuera ligeramente mayor o menor, el universo

como lo conocemos no existiría. Pese al hecho de ser la más obvia para

110

nosotros, la gravedad es la fuerza más débil, pero fue la primera en ser

entendida de una manera sistemática. Hemos tratado esto en el capítulo en el

que hablamos de Newton y Einstein. Si sentimos la gravedad mas que

cualquiera de las otras fuerzas, es porque es aditiva, es decir, que cada átomo

que apilamos en una masa contribuye al efecto total.

El electromagnetismo es con mucho una fuerza más fuerte. Sin

embargo ni la electricidad ni el magnetismo se suman de la manera que la

gravedad lo hace. La electricidad se manifiesta a través de sus cargas,

positiva y negativa; el magnetismo a través de sus polos, también positivo y

negativo (o norte y sur), y puesto que ambos, polos y cargas, tienden a

cancelarse mutuamente, en muchas condiciones se anula o se reduce la

influencia global del electromagnetismo. En el electromagnetismo vemos

una versión a pequeña escala de los intentos para llegar a una teoría del todo.

Hasta el siglo XIX, la electricidad y el magnetismo se veían como dos

fuerzas diferentes y sus influencias se entendían a través de dos fórmulas

separadas. Brevemente, los científicos entendían la electricidad y el

magnetismo, como entienden ahora las cuatro fuerzas: sin una única rúbrica

matemática que abarcara su acción. James Clerk Maxwell descubrió un

grupo de ecuaciones que describían tanto la electricidad como el

magnetismo en un solo paquete. Este impulso sintético es exactamente el

mismo al que ahora guía a los físicos a intentar encontrar una teoría del todo.

Lo anterior fue el primer intento exitoso de unificación y todavía inspira a

los científicos para ir más allá con la unificación de las fuerzas de la

naturaleza, con la meta de encontrar un solo grupo de ecuaciones que

describan todas las fuerzas como facetas de una sola superfuerza. El

electromagnetismo, a diferencia de la gravedad, domina en las regiones de

pequeña escala, en la formación de los átomos y las moléculas, tanto, que los

111

electrones y el núcleo del átomo están unidos por el electromagnetismo, que

es también el pegamento, por así decirlo, que mantiene unidas las moléculas.

Si un alpinista tiene que luchar por subir por una cuerda en contra de la

obvia fuerza de gravedad, lo que lo previene de una caída es la fuerza

electromagnética, que es más fuerte aunque no tan obvia. Si la soga se

rompiera por el peso del escalador, se debería a que el jalón gravitacional de

la tierra entera que contiene 5.97x1024 kg. de materia habría tenido éxito en

romper el “pegamento” electromagnético de unas cuantas moléculas de la

soga.

La potencia del electromagnetismo es tal, que sin control sería capaz

de desintegrar el núcleo del átomo. Lo que previene esto, es una fuerza aun

más fuerte: la fuerza nuclear fuerte, que sobrepasa la repulsión eléctrica a la

escala del núcleo en 100 veces. Sólo recientemente la fuerza nuclear fuerte

ha sido entendida como la manifestación de una “fuerza de color o de

pegamento”, más profunda, que opera entre los quarks y entre los gluones

dentro de los protones y neutrones que forman el núcleo.

Cada una de las fuerzas se manifiesta a través de un intercambio de

mensajes entre partículas. Y si la fuerza nuclear débil no es parecida a las

otras tres fuerzas, sí lo es en este aspecto. El rango de la fuerza es limitado y

la interacción toma lugar a través de partículas mensajeras llamadas

“vectores bosones intermediarios”. Como la consolidación de la electricidad

y el magnetismo un siglo antes, en el siglo XX, Aldous Salam y Steve

Weinberg, trabajando independientemente, encontraron la manera de

consolidar la interacción débil y la interacción electromagnética bajo un solo

rubro matemático.48

48 El descubrimiento de Salam y Weinberg así como el de Sheldon Glashow que extendió y generalizó la reformulación de su trabajo, está, junto a la función y rol de las cuatro

112

Sin embargo, el encontrar una superfórmula, por llamarla de alguna

manera, de un grupo de ecuaciones que revele como cada fuerza interactúa

de modo que los más profundos mecanismos de nuestro mundo puedan ser

entendidos, sigue siendo una meta inalcanzable. Las dos teorías que parecen

los más posibles candidatos para la consecución de la meta son, la teoría de

las supercuerdas y la supersimetría. Más adelante seremos breves al tratar

ambos temas debido a su complejidad, pero puesto que ambas teorías son

verdaderamente unos bellos modelos matemáticos, trataremos de ver como

se sostienen ante el mundo de los hechos. Después de todo, pese a la

aseveración de Dirac de que es primero la belleza de las ecuaciones a que se

adapten a los experimentos, debemos recordar que hay concepciones bellas

que son verdaderas. Mientras tanto, hacia el final del capítulo y como una

guía que nos ilumine a través de la segunda parte del libro, nos gustaría

alinearnos con Bertrand Rusell, quien sostiene que los científicos, filtrando

las partes de la naturaleza que no son accesibles al razonamiento

matemático, brindan al universo un tinte de racional belleza que corresponde

más a las matemáticas que a las características centrales del universo.49

La Teoría de la Supersimetría surgió del exito que la simetría gauge

tuvo en la manera de entender las fuerzas y las partículas.50 En los años

setentas, la mayor asimetría era la distinción entre partícula y fuerza, o

fuerzas, extensamente explicado en el libro de Flank Close The Cosmic Onion (Heinemann, London, 1983) y en el de Coughlan and Dodd The Ideas of Particle Physics (Cambridge University Press, Cambridge, 1991). 49 La cita de Dirac ha inspirado cantidad de debates. El libro de Judith Wechsler Aesthetics in Science (Cambridge, MIT Press, 1978) ofrece muchas e interesantes perspectivas. 50 La simetría gauge es un concepto usado en la teoría de los campo, que describe un campo el cual no cambia cuando se aplica alguna operación a todas las partículas dondequiera en el espacio. El término gauge simplemente significa “medida”, y el punto en el que los campos con simetría gauge, pueden ser remedidos desde diferentes lineas base, sin afectar sus propiedades.

113

fermiones y bosones respectivamente. La asimetría como era percibida

entonces, no era necesariamente cosmética, sino que era el reflejo del espín

de cada entidad. La supersimetría resolvió el problema añadiendo otras

cuatro dimensiones a las cuatro dimensiones del espacio-tiempo. Estas

dimensiones no son las mismas que aquellas que encontramos al mirar la

teoría de las supercuerdas. Sin embargo, para ser imparciales, tenemos que

admitir que los preceptos de la Supersimetría permitieron trabajar la teoría

de las supercuerdas.51

La supersimetría, a diferencia de otras muchas teorías, no emergió de

la necesidad de resolver un problema. Originalmente reconocida como una

propiedad de ciertos modelos, eventualmente los científicos se dieron cuenta

de que la teoría podía resolver un cierto número de misterios de la física de

partículas, asi como proveer nuevos acercamientos para resolver otros

rompecabezas ¿Qué misterios resuelve la Supersimetría? Básicamente el

Modelo Estandar tiene un serio problema conceptual llamado el problema de

la jerarquía.52 La escala natural de la teoría primaria es la escala de Planck

(10-35 m.) El Modelo Estándar es la descripción de los quarks y los leptones

y de sus interacciones a la escala de 10-17 m. El problema es que la teoría

cuántica, la física a una escala, debe contribuir, o ser coherente con la física

51 Tenemos otra versión sobre el surgimiento de la teoría de las supercuerdas, pues en su libro de 1965, La connaissance de l´univers, el astrofísico Jean Charon hablaba, refiriendose a lo elemental, de un medio continuo que puede poseer ciertos estados vibratorios. Una cuerda vibratoria que posee una oscilación fundamental que pudíeramos calificar de “natural”. Rastreando el origen de este supuesto llegamos a Teilhard de Chardin a través del físico Louis de Broglie, quién fuera miembro del comité científico que aprobó la publicación en 1955 de El fenómeno humano. Pero no poseemos la suficiente documentación probatoria para dar esto como un hecho. 52 Este problema de la jerarquía se puede plantear mas simplemente de la siguiente manera: El porqué las diferentes fuerzas operan a tan diferentes energías, cuando realmente son todas manifestaciones de un mismo fenómeno subyacente, y como pueden

114

a otras escalas, asi que no es consistente tener estas escalas tan separadas. En

vez de lo anterior, la escala cuántica y la de Planck deberían estar muy cerca

una de otra. El problema realmente tiene dos partes. Primero, dado que hay

una separación de la escala del modelo estándar de la escala de Planck,

¿porqué el modelo estándar termina precisamente en esa y no en otra escala?

El asunto sondea lo más profundo del modelo estándar ¿es una escala

aleatoria, un modelo impuesto por el hombre o sólo un modelo elegante? La

última cuestión nos lleva a un segundo problema: ¿qué puede hacer que la

teoría mantenga la separación de una manera consistente? El modelo

supersimétrico resuelve la segunda parte del problema y nos da una idea de

como resolver la primera parte. Esto lo hace utilizando primordialmente la

unificación de bosones y fermiones. La verdadera naturaleza de fermiones y

bosones, implica que deben llegar a juntarse en la escala a la que se

cancelen, por lo que la mezcla de escalas puede ser cancelada de una manera

general.

La supersimetría nos da una contribución más importante para

resolver los serios misterios que la ciencia ha encontrado en su búsqueda de

una teoría del todo. Como hemos visto, por siglos los físicos activamente

han taratado de unificar nuestra descripción de las fuerzas de la naturaleza.

Digámoslo otra vez, el tener cuatro fuerzas diferentes en lugar de una sola

fuerza básica, sugiere que la física todavia no tiene bien fundado un

principio de unificación. Con la teoría cuántica, uno puede calcular como se

comportaría una fuerza si se estudiara en muy pequeñas distancias.

Notablemente, cuando esto se hace a escalas cada vez más pequeñas con las

fuerzas nucleares débil y fuerte y con el electromagnetismo, nos damos

ser unificadas matemáticamente, si esto es posible. Pero el definirlo así nos limitaría el argumento.

115

cuenta que estas fuerzas tienden a ser similares. Más notablemente, cuando

el estudio se repite con las fórmulas del modelo de la supersimetría –como

se hizo en los años ochentas– las fuerzas llegan a ser esencialmente iguales a

distancias realmente muy pequeñas, aunque en el modelo estándar nada

sugiera que esto debería pasar.

Como anotamos anteriormente, la supersimetría no sólo precede a la

teoría de las supercuerdas, sino que presenta las condición necesaria para

que la teoría de las supercuerdas funcione. Esta última, sin embargo, es una

teoría mucho más efectiva en su intento de unificar las cuatro fuerzas. Como

muchas de las teorías que intentan ser exitosas, las supercuerdas es una

teoría elegante, pero además muy apegada al sentido común. Resuelve la

división entre las fuerzas y las discrepancias de la física atómica, postulando

que las partículas y sus interacciones, no son puntos (o “partículas”), ni

puntos matemáticos, sino cuerdas, y la materia y las fuerzas como las

conocemos, son solamente las manifestaciones de los diferentes modos de

vibración de dichas cuerdas. El postular estas cuerdas, resuelve muchas

discrepancias menores.

Si bien, su mayor contribución hasta el momento, es que a medida que

los físicos ven el modelo estándar a través de la perspectiva de las

supercuerdas, son más capaces de darse cuenta como todas las fuerzas son

iguales cerca de la escala de Planck.

En un capítulo posterior exploraremos la teoría de las supercuerdas un

poco más a fondo. Y aunque nosotros preferimos los postulados de las

supercuerdas a los de la supersimetría, la razón por la cual pensamos que

ambas parecen seguir el camino correcto, que ambas se están haciendo las

preguntas correctas, es porque las dos se enfocan en aspectos importantes.

Primero, confirman lo que muchos científicos parecieran negar: a saber, los

116

límites de nuestras actuales herramientas científicas, asi como la manera en

la que debe ser revisado el enfoque actual del asunto. Tanto la supersimetría

como las supercuerdas, resuelven discrepancias de la física hasta el punto de

unificar las cuatro fuerzas, solo hasta, o por debajo de la escala de Planck.

Su solución, dicho de otra manera, no puede ser confirmada usando los

actuales métodos y tecnología, puesto que ningun supercolisionador puede

lograr la energía necesaria para romper el átomo a la escala de Planck.53

Subrayando las deficiencias de la física experimental, las supercuerdas

también nos provee de un universo donde los límites son importantes, un

universo donde existen límites al tiempo y al espacio, un universo donde

pasado el límite, contemplaríamos, no necesariamente una diferente realidad,

donde el mundo fracturado que la física nos describe, no lo estaría más.

La pregunta que surge, si los postulados de la teoría de las

supercuerdas, socavan el decir y los métodos de la física de partículas, es:

¿Significa que no hay manera de confirmar la teoría y de probar que en lo

profundo la naturaleza está unificada por un elegante y legible grupo de

leyes? ¿Establece, en otros términos, que la física llegó a su final? Para

muchos la respuesta es sí. Para nosotros, sin embargo, es un definitivo no.

Para nosotros la teoría de las supercuerdas es sólo un prisma que concentra

la difusa luz de cuatro diferentes fuerzas, las unifica y luego las difracta, de

manera que esto puede ser explicado a través de otras ciencias, otras teorías.

En la segunda parte del libro, veremos las posibles opciones.

53 De acuerdo a la ecuación de transformación de Lorenz m= mo√1-v2/c2, para acelerar cualquier cantidad de masa a velocidades cercanas a la de la luz, se requiere una energía que tiende a infinito.

117

5

DE BÁRBAROS Y BASFEMOS

…que escribir docta poesía se llama entre los bárbaros blasfemia.

LOPE DE VEGA

Concluimos el tercer capítulo tratando con la interpretación de Bohm

acerca del quantum. Esta interpretación es conocida indistintamente como

“de la onda piloto”, “del todo indivisible” o “de las variables escondidas”.

Debido a la principal premisa de trabajo de Bohm, uno tiene que considerar

la no localidad como una posibilidad, en otras palabras, uno tiene que

aceptar que las nociones de sentido común sobre causalidad no operan en el

mundo atómico. En esta segunda parte del libro volveremos a ver las ideas

de Bohm con un poco más de profundidad. Por ahora, será suficiente

refrescar nuestra memoria, puesto que si bien de una manera superficial

tocamos el trabajo de Bohm, lo que definitivamente casi no examinamos fue

su biografía.

Para la mayoría de los científicos existen dos posibilidades: o son

triunfadores y recordados, o fallan y son olvidados, y aunque pueda ofrecer

un puñado de divertidas anécdotas y una docena de ingeniosas o extrañas

citas, la vida de casi todos es poco interesantes. Como sucede con los

artistas, cuyas vidas son considerablemente menos reservadas y quizá más

aventureras, lo que uno toma en cuenta en la vida del científico es el

funcionamiento de una mente individual. Lo anterior, por supuesto, está

contenido en su trabajo. Tal como la gente regresará a Cervantes aunque

crean que hay poco que saber del hombre mismo, la gente regresará a

Einstein, no por las poses de sus últimos años, sino porque, como Cervantes,

Shakespeare o Dante, Einstein nos proporcionó no solamente un camino

118

único para contemplar el mundo, sino también un proceso único mediante el

cual descubrir cosas acerca de éste. De hecho, más que los resultados de los

experimentos mentales de Einstein, el asunto más asombroso acerca del

hombre es que fue capaz de formularlos tan en primer lugar. Finalmente nos

reveló una mente fresca, inefable e inexorable.

En algunos casos, sin embargo, las circunstancias históricas pueden

intersectar la biografía de un intelectual o de un artista y los datos que

recogemos de tal intersección, aunque no pueden iluminar suficientemente lo

que concierne al trabajo del científico o el intelectual, definitivamente brillan

como un faro sobre la cultura y las instituciones que rodean al sujeto de la

biografía. Mientras que muchos creadores pueden ser imposibles o casi

imposibles de entender sin un conocimiento de las instituciones que los

rodean (podríamos leer a Dante sin tener la más leve idea de la historia

florentina?), con los científicos realmente la única cosa que podemos esperar

obtener de su vida es entender la manera en la cual la comunidad científica y

sus instituciones funcionan, y la manera en la cual fomentan o impiden el

proceso y el destino de un proyecto particular o la fortuna de una idea.

La biografía de David Bohm, desafortunadamente, no nos muestra una

bella pintura de sus colegas ni de las instituciones. Aunque la literatura

sobre el trabajo de Bohm es, si no extensiva, por lo menos considerable, no

existe todavía una biografía hecha y derecha de él. Su perfil, sin embargo es

bastante familiar y hasta la primera mitad de su vida, poco notable. Nacido

en Wilkes-Barre, Pensilvania, en 1917, de niño llegó a interesarse en la

ciencia por las lecturas de ciencia ficción. Más tarde pasó a los libros de

astronomía y obtuvo su preparación formal, primero en el Pennsylvania

State College y después en la Universidad de California en Berkeley, donde

estudió bajo la tutela de Robert Oppenheimer, quien lo llevó a trabajar con él

119

a Los Álamos, en el proyecto Manhattan, junto a los más prominentes físicos

y estudiantes de la época.

Como casi todos los niños que vivieron la gran depresión, Bohm

comprensiblemente desarrolló inclinaciones marxistas. Cuando abandonó el

proyecto Manhattan tomó un trabajo en Princeton, donde escribió lo que aún

es uno de los más accesibles libros de texto sobre la interpretación de

Copenhague.

Sin embargo, el año en que fue publicado su libro, es el mismo año en

el que encontramos la intersección perturbadora de los hechos históricos, la

ceguera institucional y el infortunio personal. Pocos años después de Los

Álamos, una vez que la guerra terminó, los Estados Unidos se zambulleron

en su pánico rojo. Los catalizadores de este pánico fueron la desinformación

y la propaganda. Si uno quisiera dar una fecha exacta del inicio de la guerra

fría, tendría que remontarse a los días 9 y 16 de Febrero de 1946. La primera

fecha sólo marca uno de los más demagógicos discursos de Stalin, donde

echaba la culpa de la Segunda Guerra Mundial al “monopolio capitalista” y

sostenía que el capitalismo debería ser reemplazado por el comunismo si se

quería prevenir futuras guerras. Mientras que el discurso de Stalin parecía

agresivo, tenía un velo de hostilidad e implicaba amenaza, el telegrama que

envió al presidente Truman, George F. Keenan, el ministro consejero de la

embajada estadounidense en Moscú –ahora conocido como el “telegrama

largo”– definitivamente selló la guerra fría. En este telegrama, Keenan

afirmó que la Unión Soviética era un “despotismo oriental” en el cual “el

extremismo es la costumbre y donde se supone que los extranjeros son

enemigos mortales”. De acuerdo con Keenan, el Kremlin usó el marxismo

como la hoja de parra para cubrirse de respetabilidad moral e intelectual,

para justificar el crecimiento militar, la opresión en el hogar y la expansión

120

fuera del país. El tendencioso telegrama ofrecía una elección a los Estados

Unidos hasta donde llegaba su interés en la Unión Soviética: “contenerse.”

Esto también provocó el miedo a la expansión del comunismo en la

conciencia Americana. Como todos los miedos, éste en particular surgió y

fue aprovechado para ser explotado por cualquier charlatán. El primero en

aparecer en escena fue Joseph McCarthy, senador por el estado de

Wisconsin, quien mientras hablaba en una asamblea de mujeres republicanas

en Wheeling, Wisconsin, con un ademán señaló unos documentos que,

aseguraba, eran la evidencia de una extendida conspiración. Los

documentos, declaraba, contenían una lista de 205 nombres de personas que

eran conocidas como miembros del Partido Comunista y estaban dando

forma a la política norteamericana. A pesar de que, según sus detractores,

McCarthy era un mentiroso, un alcohólico y un político corrupto, sus

acusaciones llegaron en el momento preciso. El desenlace de los cargos de

McCarthy son bien conocidos. Durante cerca de tres años, McCarthy

encabezó el House Committee on Un-American Activities o HCUA (algo así

como Comité para la represión de actividades antinorteamericanas). El

HCUA fue una cacería de brujas; su modus operandi, el mismo que la

Inquisición usó para paralizar la vida intelectual de Europa. Miembros de

universidades, actores de Hollywood, directores, escritores y políticos, eran

requeridos para confesar sus lealtades políticas y denunciar a sus asociados.

En 1948 la Universidad de Washington suspendió a tres profesores porque

se rehusaron responder las preguntas de los legisladores del estado acerca de

su calidad de miembros del Partido Comunista. Los profesores nunca

encontraron otro trabajo. Más tarde en el mismo año, la Federación

Americana de Profesores, votó en contra de permitir a comunistas el acceso

a la enseñanza. La Junta Gobierno de la Universidad de California exigió la

121

facultad de tomar un juramento anticomunista y aquellos que se rehusaron

fueron despedidos después de una larga batalla. El sistema finalmente se

deshizo de 31 profesores. Al final del pánico, el corte de cabezas tan solo en

el mundo académico ascendía a 600 profesores que habían perdido su

trabajo.

Entre estos 600 no solamente había profesores de ciencias políticas,

historia o humanidades, pues la HCUA y sus subsidiarias fueron a fondo; no

dejaron piedra sin voltear. Así, la lista incluía físicos, biólogos, etc. La

confrontación más famosa en el mundo científico fue con Oppenheimer.

Pese al hecho de que había probado ser pivote en el éxito del proyecto

Manhattan, en los años cincuenta se enfrentó con la HCUA y perdió sus

prebendas. El de Oppenheimer fue un caso de gran resonancia porque el

proyecto Manhattan lo había convertido en una figura pública. Fue más leído

y más sincero que la mayoría de sus colegas científicos. El de Bohm, por

otro lado, fue un caso menos notorio. No obstante, se le presionó para que

implicara a sus colegas como miembros del Partido Comunista, a lo que se

rehusó, por lo que en 1951 la Universidad de Princeton, el mismo sitio

donde Einstein trabajó y una de las principales instituciones educativas en el

mundo, lo despidió. Se le pagó el último año de su contrato a condición de

que no volviera a entrar al campus.

Estas intersecciones de las circunstancias históricas con las

actividades intelectuales suelen ser triviales si no son muy duraderas o no

tienen amplias repercusiones. Además, las repercusiones puede manifestarse

no sólo en el orden personal (Bohm dejó los Estados Unidos, enseñó en

Brasil, después en Israel y más tarde se estableció en Inglaterra) sino que

afectan el mundo de las ideas. Pero el hacer una víctima de Bohm fue más

allá de un comité y un exilio. De hecho, la consecuencia más cruel de esto, a

122

largo plazo, ha sido el abandono de sus ideas en la comunidad científica. Por

lo que su caso, de muchas maneras trágico, es un arquetipo del modo como

opera en general la comunidad científica.

Podría uno preguntarse ¿por qué el abandono de las ideas científicas,

considerando que ninguna lealtad política de Bohm podía afectar en gran

medida las matemáticas en las cuales apoyó su teoría? Como la teoría de las

supercuerdas o la supersimetría, la teoría de las variables escondidas no ha

sido probada experimentalmente; es por tanto, como los científicos llaman a

las teorías no probadas, una teoría en proceso de investigación (TPI). Sin

embargo, a diferencia de las supercuerdas o la supersimetría, la teoría de las

variables escondidas de Bohm, ni ha tenido la misma cantidad de adeptos, ni

ha sido pródigamente beneficiada con dinero para investigación.

Muchos podrían argumentar que la razón del abandono o rechazo de

la teoría de Bohm se debe más a lo insostenible de sus propuestas que a

cuestiones ideológicas. No obstante, este argumento sería idealista y con una

visión ingenua de como la comunidad científica trabaja; quien lo propusiera

estaría abrigando el mito de ver a los científicos como pensadores solitarios

en su torre de marfil, viviendo fuera de las ideologías políticas o de las

necesidades económicas y sin ser afectados por el Zeitgeist. Como muchos

de los mitos, éste también es perjudicial a largo plazo, porque distorsiona la

realidad y por lo tanto impide todo tipo de pensamiento crítico o analítico.

El hecho es que, contrariamente a la creencia popular, la ciencia no

está menos enrarecida que cualquier otro campo y los físicos, como otros

científicos, políticos, humanistas o historiadores, voluntariamente o no, se

hacen eco o se ven influenciados por los dogmas ideológicos, políticos o

institucionales. En el capítulo 2 discutimos cómo muchos biólogos, en su

esfuerzo por promover el escepticismo científico que permita la objetividad,

123

han abrazado también una especie de nihilismo moderno y postmoderno que

rechaza toda teleología. El mundo de la física no está menos influenciado

por ideologías similares.

Aparte de estas ideologías que los enajenan de la gente común, los

físicos tienen que hacer frente a la política de aniquilación mutua en sus

instituciones. Las teorías y los experimentos, las publicaciones y las

posiciones de enseñanza no ocurren en un vacío, sino que obedecen a las

presiones del mercado académico e institucional. El físico Michael Hawkins

ha sostenido que los científicos “tendrían que tener el coraje casi suicida de

abandonar el rebaño y desafiar el centro de poder de la astrofísica”. Si se

envía un documento a una revista para su publicación y falla en someterse a

la línea ideológica, o falla en estar en la moda actual en cuanto a la

investigación e interpretación concierne, entonces los autores son “relegados

de la comunidad astronómica por sus iguales.” En la mayoría de las

instituciones, este jaloneo de categorías es una necesidad económica: el

“fundamentalismo ideológico” de la mayoría de los científicos, argumenta

Hawkins, es una manera de proyectar la estabilidad interna hacia el mundo

exterior, donde se deben encontrar las concesiones y el dinero para la

investigación.

El libro de Hawkins, Haunting Down the Universe es en parte teoría y

en parte una revelación comprometedora a la comunidad científica, y cuando

llegó a los conocedores, éstos tomaron en cuenta, no la necesidad de la

crítica a lo establecido, sino la amargura con la cual Hawkings trató sobre la

comunidad. Las reacciones fueron desafortunadas, puesto que no pusieron

atención al criticismo de Hawkins. De hecho, la mayoría de los que

soslayaron las quejas de Hawkins se volvieron a la frustrante lógica de

culpar a su pasado, su hechura psicológica, etc., para explicar las razones

124

del libro, como si Hawkins hubiera tenido la osadía de apuntar el dedo en

algún desconocido inocente. Su crítica, sin embargo, vertió luz sobre

muchos asuntos. Su argumento es que no debería existir ningún grupo de

mandarines dictando lo que las evidencias científicas significan. Como él

indicó “casi todas las evidencias están abiertas a varias interpretaciones”.

Aun más, las actuales interpretaciones de las evidencias no necesariamente

deben ser visiones etéreas sino ideas falibles imbuidas por un “contexto

histórico”. El cri-de-coeur de Hawkins, involucra entonces un saludable

escepticismo que de adoptarse puede abrir un diálogo, no solamente entre las

diversas ramas de la ciencia, sino entre las ciencias y las humanidades. En

pocas palabras, él pretende poner el trabajo científico en una especie de

contexto, no sólo en el sentido de proveer interpretaciones viables a los

experimentos, sino de obtener a largo plazo la visión de que la ciencia no es

una disciplina que tiene lugar a niveles enrarecidos, sino que es una

disciplina sujeta a ideologías, modas, etc. Poder al menos, proporcionar a la

ciencia una conciencia histórica y a los científicos un sistema revisado y

balanceado. Ya ha habido algunos intentos en este sentido pero no han

progresado, y quizá el caso más notable sea el del científico que a

continuación trataremos

Como vimos, Bohm sufrió en dos frentes. Lo que ambiciona la teoría

de la “onda piloto” es colocar al comportamiento extraño del quantum

dentro de un marco con sentido. En un clima en el que cualquier intento de

interpretar datos dentro de un contexto significativo es un anatema, los

científicos tienen que usar cualquier argumento en contra de la onda piloto:

algunos discuten que es insostenible porque no hace caso de la restricción de

Einstein sobre la acción a distancia. Otros, más imbuidos en las ideologías

de la época, lo han acusado etiquetando a la teoría como determinista. Esta

125

última acusación es sostenida frecuentemente no como resultado de un

detallado análisis de las ideas científicas de Bohm, sino sólo por recurrir a su

política. En otras palabras, en el más repulsivo de los gestos, los detractores

de Bohm han acudido a su encuentro con la HCUA y a su supuesta ideología

política para obstaculizar la difusión de su teoría e interpretación sobre la

física cuántica. La lógica está por supuesto mal dirigida, pero funciona como

sigue: puesto que Bohm, según se afirma, es un marxista y el marxismo

plantea una versión determinista y teleológica de la historia, se sigue que el

trabajo científico de Bohm está matizado con tal ideología. Brevemente, los

mismos científicos que sostienen que la empresa científica ocurre fuera de

cualquier contexto histórico, utilizan las circunstancias históricas que

rodearon el trabajo de Bohm para argumentar que su trabajo no tiene

validez, para argumentar, además, que su trabajo –por decirlo de alguna

manera– está “infectado” con ideología política.

Si una supuesta ideología marxista hizo de Bohm un científico inferior

a los ojos de su comunidad, si sufrió desaires a causa de los dogmas que

muchos científicos abrigan, entonces el caso de Pierre Teilhard de Chardin

no debe sorprendernos. Mientras que Bohm se inclinó hacia una ideología

que era en lo esencial materialista y atea, Teilhard de Chardin, aun cuando

no abrazaba ninguna ideología, estaba formado por dos impulsos que

desafortunadamente eran considerados perjudiciales al esfuerzo científico.

En una era de especialización, en la que la lógica cartesiana de la

fragmentación y el análisis ha llevado a los físicos de partículas a emplear

más y más tiempo dividiendo átomos que, por así decirlo, no pueden volver

a unir; cuando los biólogos más bien se dedican a estudiar fenómenos

minúsculos, y en la que las ciencias y las humanidades han llegado a un

abismo insuperable, Teilhard de Chardin está definitivamente fuera de lugar.

126

Su propósito era en primer lugar y principalmente sintético y la síntesis que

intentó era múltiple. Como muchos de los científicos a los que hemos visto

luchando para tratar de unificar diferentes teorías en una sola, Teilhard de

Chardin intentó unir la cosmología y la física de partículas. A diferencia de

estos mismos científicos que hemos visto perderse en los recónditos enigmas

de una jerga matemática, la simplicidad de su solución es asombrosamente

intuitiva e involucra una segunda síntesis: a saber, él sugirió que lo que liga

estas dos ramas de la física debería buscarse, no en algún oscuro sistema

matemático o en esa insistencia cartesiana de romper la naturaleza en sus

más y más pequeños componentes, sino en la evolución. Veremos esta

solución con mayor detalle más adelante en éste y en los siguientes

capítulos. Por ahora y a riesgo de parecer simplistas será suficiente decir que

Teilhard de Chardin vio la evolución como la manifestación de otra fuerza

como el electromagnetismo o la gravedad, pero más fuerte aun, y cuyo

modus operandi determina el comportamiento de las otras fuerzas.

Las ambiciones de Teilhard de Chardin no paran aquí. Él no era la

mente posmoderna explayándose en la taxonomía y sin salir de la rutina de

una sola disciplina. Como sus predecesores del Siglo de las Luces o a los

que el Renacimiento llamó acertadamente filósofos naturalistas, hombres

como Liebniz que no encontró problema negociando entre el mundo de la

teología y la filosofía y el mundo de la ciencia formal,54 Teilhard de Chardin

se opuso a lo literal del materialismo científico e intentó una síntesis más a

fondo. De nuevo, como Liebniz antes que él, Teilhard de Chardin se

enfrentó a los duros y fríos hechos de la ciencia de una manera moderna

Liebniz, entendió su irrelevancia y limitación si se ven fuera de un contexto

54 El concepto filosófico de las mónadas de Liebniz anticipa el trabajo de Teilhard de Chardin, y Liebniz también pudo haber inventado el cálculo antes que Newton.

127

teológico y metafísico. Para los científicos, por supuesto, este último intento

es, pese a su pretendido vacío de dogma, blasfemia pura.

Así, otra vez, el destino del trabajo de Teilhard de Chardin no debe

sorprendernos. El rechazo que ha sufrido hace que el rechazo a Bohm

parezca benigno. Como quiera que sea, al añadir perjuicio al insulto, puesto

que Teilhard de Chardin se movió en dos mundos, el científico y el religioso,

su trabajo fue también denostado por las autoridades eclesiásticas.

Teilhard nació en 1881 en la región de Auvergne, que el compositor

Canteloube inmortalizó en su extensa colección de Cantos de Auvergne. Su

fecha de nacimiento lo coloca dentro de una generación que revolucionó la

ciencia y el arte y que incluye a Proust (1871) y Joyce (1882), a Rilke (1875)

y T. S. Elliot (1888), a Schoenberg (1874) y Stravinsky (1882), a Einstein

(1879) y Bohr (1883). El padre de Teilhard fue un naturalista amateur,

coleccionista de minerales, insectos y plantas. Como tal, alentó la

predilección de Teilhard por las ciencias naturales. A los 11 años se

matriculó en un colegio jesuita, y hacia 1899 entró al seminario para estudiar

el sacerdocio. La sensibilidad moderna ha hecho a un lado a los sacerdotes.

Gracias a los medios, el sacerdote ha llegado a ser el emblema de un

anticuado modo de vida: provincial en sus puntos de vista, cerrado de mente

e inconsciente del avance moderno. Mientras que la Iglesia como institución

ha hecho lo que ha podido para llevar más allá tal punto de vista, la verdad

ha sido totalmente diferente. Como todos los estereotipos, este último sólo

subraya un aspecto de la institución, que ha producido más que hombres

austeros y piadosos. En realidad, si uno lee el contorno de la biografía de

Teilhard de Chardin, puede uno recordar que su orden, fundada durante la

Contrareforma, siempre se ha enfocado en el conocimiento y la educación.

Originalmente establecida para emprender la “reconversión” de aquellas

128

almas indecisas que habían cambiado de denominación, así como para

prevenir cualquier deserción de las almas jóvenes y resueltas, concibió la

educación como la mejor herramienta para contener los problemas que la

Reforma había causado.

Para muchos de los lectores, la información anterior puede resultar

irrelevante. En estos días podemos prestar atención a diferentes instituciones

que tienen una historia similar. Oxford, Princeton o La Sorbona y otras

instituciones, tuvieron, como los jesuitas, una meta original, y han tenido,

como los jesuitas, una notabilísima lista de alumnos. Con todo, estas

famosas universidades, aunque siguen fieles a su pasado por motivos

comerciales y si bien mantienen algunas de las más notables facultades,

utilizan su historia como trampa turística más que como un modelo

didáctico. Por consiguiente, Oxford, Princeton o La Sorbona no son más que

espejos distantes de sus originales. La orden jesuita a principios del siglo XX

era totalmente otra cosa, ligada como estaba, y como había luchado a lo

largo del siglo, a su carácter original, y más importante, a sus métodos

didácticos originales.

Entonces fue allí, en el seminario, donde debemos suponer (y suponer

debemos porque desgraciadamente hace falta una biografía completa y

erudita de Teilhard de Chardin) que Teilhard pudo heredar una herramienta

cognoscitiva que, transformada, pudo haber influido de manera decisiva en

su posterior trabajo científico. Como discutimos antes, la orden jesuita,

tratando con los problemas didácticos surgidos de la Reforma, desarrolló lo

que conocemos ahora como casuística. “Casuístico” y “jesuítico” han

llegado a ser en nuestros días sinónimos de lo tortuoso. No obstante, los

casuistas originales, como Mariana y Jeremy Taylor, eran gente de alto

calibre intelectual.

129

La casuística es la teoría de los casos: nos enseña como aplicar las

reglas generales que gobiernan la conducta en un problema moral particular.

En otras palabras, inventando la casuística los jesuitas le dieron al mundo

moderno una manera mediante la cual tratar con casos particulares. El

método todavía está con nosotros en el derecho y en la medicina. Cuando un

juez decide sobre un caso, está usando la casuística. En todos los códigos de

conducta de las diferentes profesiones, desde la militar hasta la médica, la

ley usa la casuística. En tono más rimbombante, la casuística requiere dar un

paso epistemológico que no había sido codificado antes de los jesuitas y que

requiere a su vez la abstracción de la mente para generalizar a partir de la

integración de casos particulares. Así, la herencia de los jesuitas va más allá

de la conducta e influye sobre cualquier disciplina que requiere lógica.

Uno puede darse cuenta de que el trabajo de Teilhard de Chardin está

de muchas maneras influenciado por este impulso intelectual. A diferencia

de la mayoría de los científicos, que eluden las generalidades y las

abstracciones y se enfocan sólo en casos particulares para derivar principios

generales después de meticulosos experimentos, el trabajo de Teilhard toma

esos principios generales que los científicos han derivado y entiende que

debe unificarlos, sin ser necesario dar pie atrás y revisitar los detalles

minuciosos de lo todavía más particular, sino que sólo se necesita encontrar

un concepto bajo el cual el comportamiento de lo particular pueda tener

sentido. Para muchos esto puede sonar anticientífico. Pero realmente no lo

es. Los grandes ejemplos de tal método de trabajo son bien conocidos.

Einstein no necesitó dar marcha atrás y redescubrir la física newtoniana para

llegar a la relatividad. Igualmente, a pesar de que el público en general cree

que los principios de la ciencia sólo se dibujan en el laboratorio, después de

horas interminables de investigación, la verdad es que en física, por lo

130

menos en los últimos cien años, la teoría ha precedido al experimento. Aun

en la biología evolucionista, en ciertos trabajos, uno encuentra este tipo de

casuística. En efecto, contra la creencia popular, la biología evolucionista no

ha progresado este siglo gracias a trabajos polémicos de escritores como

Gould o Dawking, a quienes les encanta explayarse en las diferencias y en lo

particular, y que son completamente literales cuando llegan a la lectura de

Darwin. No, el trabajo más interesante, el trabajo que encontramos

posteriormente, ha sido emprendido por gente que recurre a las

generalidades.

En realidad, si el trabajo de Teilhard de Chardin como biólogo y

paleontólogo anticipa alguna cosa en la biología evolucionista, es lo que ha

llegado a conocerse como cladística. La cladística no solo resuelve un

problema central para los biólogos evolucionistas, sino que provee un

modelo para otros científicos. Encarada con el problema crucial nunca

resuelto de reconstruir completamente el pasado geológico o evolutivo, es

decir con el problema de que no hay suficientes datos específicos para

desarrollar una teoría coherente, la solución cladística implica cambiar la

especulación en la historia evolutiva acerca de las discusiones sobre las

verdaderas descendencias en teorías acerca de las relaciones. A diferencia de

los árboles evolutivos que Gould condena y que para todo propósito práctico

son modelados después de nuestras cartas genealógicas, los cladogramas

suponen que si la evolución sucedió, entonces los cambios evolutivos –ya

sea que afecten miembros o genes– deben transmitirse a futuras especies que

comparten un ancestro común. Estas características derivadas son la base de

la cladística. En lugar de tratar de reconstruir árboles de descendencia hasta

sus más minuciosos detalles, en lugar de volverse algo afín a lo que hacen

los físicos de partículas, quienes se dedican a sumar partículas a su catálogo,

131

los cladogramas dibujan las relaciones entre especies como una serie de

ramas que se dividen regularmente, basados en las características de los

actuales animales vivientes55. La cladística es deductiva en vez de inductiva.

El trabajo de Teilhard de Chardin parece ser de muchas maneras el pionero

de esta técnica: de hecho, veremos algo muy similar a lo que ahora se

conoce como cladística cuando nos adentremos en El fenómeno humano, y

veamos cómo el libro mismo está estructurado para destacar no las

cronologías detalladas y las descendencias directas, lo cual es imposible,

sino las relaciones entre familias.

Que Teilhard de Chardin haya anticipado la cladística no debe verse

sólo como una tendencia abstracta que hubiera heredado de su educación

jesuita. Mientras que la casuística jesuita debe haber tenido un papel central

en su desarrollo intelectual, la ciencia, la ciencia dura con observación y

campo de trabajo, fue también central en la vida de Teilhard. Después de

1911, cuando fue ordenado sacerdote, después de vivir en El Cairo y

Hastings, Teilhard le dedicó por completo 44 años a la investigación

científica. Trabajó primero en el Musée National d`Historie Naturelle; allí,

bajo la tutela de Marcellin Boule, un especialista en el hombre de

Neandertal, tomó sus primeras lecciones de paleontología humana. No fue

solamente como curador de museo, sino que realizó un verdadero trabajo de

campo y tomó parte en las excavaciones de las cuevas del noroeste de

España.

Los críticos de Teilhard de Chardin, que abundan, y que lo han

acusado de toda blasfemia posible contra la ciencia, también han visto su

trabajo como “poético” y han argumentado que su tendencia teológica es

55 Este concepto puede ampliarse a la botánica y así, a cada paso evolutivo de la fauna de un nicho ecológico, correspondería un paso evolutivo de la flora.

132

antihistórica, tanto en el plano evolutivo como en humano. A pesar de todo,

si algo informa el pensamiento de Teilhard de Chardin, es la historia. Su

vida, como la de muchos de aquellos que pertenecieron a su generación, fue

intersectada por las dos catástrofes centrales del siglo XX: las dos guerras

mundiales. Lejos de ser un espectador de ambos acontecimientos, fue un

activo participante por lo menos en la Primera guerra mundial; en realidad,

si algo interrumpió su investigación científica, fue su labor como camillero

en esta guerra. John Keegan, uno de los principales historiadores de lo

militar, se refirió a la Primera guerra como “un conflicto trágico e

innecesario”, “una cadena de eventos que pudo ser prevenida” y la cual “dio

fin a la vida de diez millones de personas, torturó la vida emocional de

millones más y destruyó la benevolente y optimista cultura del continente

europeo y dejó, cuando las ametralladoras al fin se silenciaron, un legado de

rencor político y odio racial tan intensos, que no es posible esperar ninguna

explicación de la Segunda guerra que no tenga referencia a esas raíces.”

Teilhard de Chardin fue un testigo de primera mano de esta tragedia, la cual

catalizó su visión final, una visión que requirió “una vida cósmica” (como

tituló su primer ensayo) para expiar la brutalidad del hecho.

De esta manera, las ideas de Teilhard de Chardin son, entre otras

cosas, intentos de proyectar el medio científico en un contexto social. Más

tarde, cuando Teilhard de Chardin vio el inicio de la Segunda guerra y

visualizó toda la pesadilla otra vez, ahora con su enfoque firmemente

asentado, pudo escribir un conmovedor ensayo tratando de interpretar la

guerra. “El momento de la elección” como se tituló el ensayo, es impactante,

no a causa de su optimismo –una razón más que los críticos de Teilhard

tienen para rechazar su trabajo– sino porque su interpretación del conflicto

es casi presciente de la manera en que ahora se ve el conflicto, puesto que

133

concuerda casi a la letra con la mayoría de las interpretaciones que los

historiadores ofrecen hoy día. Teilhard vio la Segunda guerra mundial como

un conflicto entre el “internacionalismo”, entre una cultura cosmopolita y el

nacionalismo, la “fragmentación reaccionaria de los grupos étnicos en

nombre de la historia.”

En el pensamiento teilhardiano, las dos guerras mundiales llevaron a

la necesidad de una ciencia que pudiera tener algún contexto social y una

visión que eliminara de la evolución lo calamitoso y pesimista. Que diera

una visión que en lugar de considerar a la “humanidad” como “las lianas de

un tronco que aumentan con el agotamiento del mismo tronco al que matan

mientras crecen”, viera a esta humanidad como un “organismo que obedece”

las “más inequívocas leyes del universo”: “no más como una sucesión de

eliminaciones, sino como una confluencia de energías”. De cualquier modo,

Teilhard emprendió también un trabajo más científico después de la Primera

guerra mundial. En los años que siguieron, pudo estudiar en La Sorbona y

escribió en 1922 su tesis sobre “Los mamíferos del Eoceno superior en

Francia”, enseñó y trabajó en China56. Fue con el primer intento de sintetizar

la teología con la ciencia cuando empezó a sentir la presión de los jerarcas

de la Iglesia. Después de presentar un documento sobre “El pecado

original”, Teilhard perdió su cátedra y fue exiliado a China.

El documento, como casi todo el trabajo de Teilhard, permaneció

inédito hasta después de su muerte, pero es importante que el lector tenga

una clara visión de su interpretación de las Escrituras. Teilhard de Chardin

no era un literalista. A diferencia de muchos creyentes que hoy todavía son,

56 En este país, Teilhard de Chardin entre otros trabajos e investigaciones participó en el equipo que descubrió el cráneo del Sinanthropus u hombre de Pekin en diciembre de 1929, siendo el encargado de fechar el depósito en el cual fue encontrado.

134

en nombre de los creacionistas, incapaces de reconciliar el hecho científico

con sus creencias religiosas, Teilhard entendió el hecho científico como tal,

y vio en la Escrituras una descripción popular de este hecho y de todos los

fenómenos que lo rodean. Así, para Teilhard, lo supremo de la teología

cristiana, la caída del Edén, no es un evento literal, sino una figura que

representa la necesidad de redención. En el fondo, Teilhard comprendió el

pecado original como lo simbólico de los “contratiempos” en la historia de

la humanidad. Y puesto que él visualizó la historia de la humanidad como

sujeta a las mismas “leyes”, como siguiendo la misma dinámica de la

historia del universo, entonces comprendió la caída como lo emblemático de

las muchas “crisis” que se encuentran en cualquier proceso.57 El ensayo es

fundamental para un entendimiento pleno de Teilhard de Chardin, pues no

solamente clarifica la manera en la cual interpreta la ciencia y la escritura,

sino que también establece tres temas verdaderamente importantes.

Primero, la historicidad de la vida. Para Teilhard, la vida ocurre en el

tiempo, y el tiempo tiene que tomarse en su acepción más amplia, como un

tiempo cósmico, geológico o como lo llamó en su ensayo “El misticismo de

la ciencia”, “un tiempo orgánico”. En pocas palabras, si uno quiere entender

a Teilhard de Chardin, tiene uno que pensar en un “tiempo ilimitado”,58 una

cronología que abarca el total de la historia cósmica.59

57 Con esto, Teilhard anticipa el concepto de una ciencia importantísima que habría de desarrollarse con el advenimiento das computadoras, la ciencia del Caos o la ciencia que estudia el comportamiento de los sistemas dinámicos no lineales. 58 Este concepto de tiempo ilimitado o infinito, se puede ver confirmado en el libro “The End of Certainty” del notable científico y premio novel Ilya Prigogine, quien afirma que “el tiempo ha existido y existirá por siempre” 59 La historia cósmica no empieza ni termina con el actual universo, pues si como veremos, todos los procesos son fractales, es, ha sido y será una serie de universos que tienden a unirse y en cada repetición empiezan con diferentes parámetros, cada vez más complejos en una secuencia que no tiene final.

135

Segundo, el ensayo establece que el tiempo, en lugar de ser una flecha

que apunta en una dirección, es más como un proceso mental; en otras

palabras, es una proposición inicial que sucede en múltiples pasos, y que en

cada paso es informada por el índice y la bibliografía completas de la cual el

pensamiento no sólo toma el conocimiento sino que lo ramifica.60 A medida

que cada rama aparece, la idea aparenta estancarse o dispararse en diferentes

direcciones. De hecho, si uno quiere encontrar una concepción similar del

tiempo en nuestro siglo, es necesario recurrir a la literatura61, y no

precisamente a la visión de Proust, donde la memoria y el arte recapturan los

momentos perdidos, sino a la biblioteca borgesiana, donde el emblema

universal no es el hombre –cerca de la extinción– que sólo es un accesorio

de la biblioteca que sobrevivirá pese a las extinciones: “iluminada, solitaria,

infinita, perfectamente inmóvil, armada de volúmenes preciosos, inútil,

incorruptible, secreta”.

60 Aquí se puede captar un concepto que veremos más a fondo, la noosfera teilhardiana, pero no solo privativa del hombre, sino ampliada a cuanto ser existe, desde las partículas elementales hasta el universo mismo. 61 Y no sólo a la literatura, puesto que se puede ver un concepto similar en el reciente libro del físico Julián Barbour, The End of Time

136

6

EL ABISMO DE LA SÍNTESIS:

EL FENÓMENO HUMANO COMO UNA HISTORIA

UNIVERSAL

Aunque parece ser antigua, la idea de una historia universal, una

historia que abarque toda la existencia humana es, por el contrario, una idea

relativamente reciente. Los más prominentes historiadores Griegos se

concentraron en sucesos fundamentales, más allá de los caracteres de la vida.

Herodoto, el llamado padre de la historia, escribió sus laberínticas y

fascinantes crónicas sobre las Guerras Persas. Tucídides, una mente

completamente diferente, cuyo propósito era escribir un libro para las

épocas, se enfocó en un suceso promordial el cual explicó el fin de lo que

conocemos como la Grecia clásica: la Guerra del Peloponeso.

De igual manera, los historiadores Romanos, aunque fueran tan vastos

como Tácito, o tan familiares como Suetonio, tendian a registrar

acontecimientos que estaban dentro de una reducida esfera de acción.

Plutarco y Suetonio son más afines a lo que llamamos ahora biógrafos en sus

narrativas. Tácito rara vez se desvió fuera del Imperio.

Si uno se desentiende de las raíces y del significado original de la

palabra historia –que viene del Griego y significó búsqueda, investigación–

y si uno deja la tradición histórica grecoromana y mira hacia otras culturas,

el impulso de una historia universal siempre es predominante, aunque este

predominio no divorcia la cronología de los historiadores grecoromanos del

mito, la superstición y la poesia. Incluso, es imposible examinar la Biblia y

los diferentes textos sagrados para otras religiones, sin encontrar en sus

137

genealogías no sólo la cuenta de la descendencia, sino también una historia

que si no es del todo exacta y está permeada por el mito, intenta cumplir el

papel de una historia universal.

Agustín de Hipona fue quizá uno de los primeros –y definitivamente

uno de los primeros que aún se sigue leyendo– que se esforzó hacia una

reconciliación de los fríos y duros hechos de la razón en la tradición

grecoromana con la ambición grandiosa de los escribas Bíblicos. Su Ciudad

de Dios, aunque no fue significativo como historia, sino como un tratado que

justificaría la cristiandad, nos dió el primer vislumbre, tanto de las

posibilidades como de los riesgos inherentes a la forma de una historia

universal. La Ciudad de Dios de San Agustín, está dividida en 22 libros y

aunque pudiera parecer algo rudo si uno no considera su contexto (fue

escrito justo después de que las tropas de Alarico saquearan Roma) y a pesar

de que no es significativo como una obra de historia estrictamente o que

apunte hacia a ella, cada libro contiene lo suficiente. De hecho, es posible

dividir la obra en dos partes, viendo los primeros diez libros como unas

historias cuasi-antropológicas en las que San Agustín explica largamente la

historia y las costumbres de las comunidades paganas. La segunda parte, los

últimos doce libros, parecen ser la antítesis de los primeros diez en cuanto a

que son la “verdadera” historia de la humanidad, desde el Génesis hasta el

Juicio Final.

El argumento de La Ciudad de Dios tendría una gran influencia

durante la Edad Media. Muchos vieron su cronología como un pronóstico de

una larga cadena de potentados, reyes y papas. Sin embargo no sería el

contenido del libro, sino su espíritu, el que daría lustre, el que brillaría con

fuerte luz en el escolasticismo, puesto que dicho espíritu es sintético, es un

intento de tomar una tésis y una antítesis, y ver el resultado final, o sea lo

138

que llamamos una síntesis. San Agustín no usó tal terminología, aun cuando,

como retórico, debió estar familiarizado con ella. En realidad, la idea de

tésis, antítesis y síntesis, no entraría en el discurso filosófico con la fuerza

que tuvo a partir del Siglo de las Luces, hasta Hegel. Tomás de Aquino, por

supuesto, emplearía a Aristóteles para reconciliar la fe y la razón. Y el más

destacado logro literario de la Edad Media, La Divina Comedia de Dante

popularizaría la tipología de la vida trascendente, con una fisonomía

histórica que volvería a los caractéres biblicos, a los griegos y a los romanos,

y que también incluyó su largo catálogo de papas, lores, etc.

Si algo pudiera hacer que esta esperanza de una historia universal

disminuyera, habría que esperar al Renacimiento. Los pensadores

renacentistas abandonaron el escolasticismo medieval y retornaron a la

Antiguedad por sus modelos, y vieron en los modelos y objetivos griegos y

romanos, una concepción racional del mundo. Ciertamente, en la historia de

la humanidad, la búsqueda de los inicios es por lo general infructuosa, pero

para los pensadores del Renacimiento, si el advenimiento del pensamiento

“racional” o, más precisamente, del logos, y la decadencia del pensamiento

mitológico, pudiera señalarse con precisión, se podría fijar a principios del

siglo VI a.C. en el Mileto Jónico, con hombres como Tales, Anaxímenes y

Anaximandro. Estos hombres, de acuerdo con sus herederos renacentistas,

marcaron un nuevo camino sobre cómo pensar acerca de la naturaleza e

hicieron de esto el objeto de una destacada investigación sistemática (una

historia) y ofrecieron una visión comprensiva de ella (una teoría). Las

explicaciones que ofrecieron sobre el origen del mundo, su composición y su

estructura, asi como de los fenómenos meteorológicos, no estuvieron

influenciadas por la dramática maquinaria de las más tempranas teogonías y

cosmogonías.

139

El Renacimiento fue, por supuesto, la idealización del pensamiento y

de los pensadores de la Antiguedad. No obstante, esta idealización estableció

los principios para cualquier historia universal, o de todo lo que viniera a ser

historia en el futuro. Los agentes sobrenaturales cuyas aventuras, luchas y

proezas formaron la red de los mitos de la creación, que trazaron la

emergencia del mundo y del establecimiento del orden, no fueron ya

permitidos, ni siquiera una referencia a los dioses que estuvieron ligados a

las fuerzas de la naturaleza por la creencia y observancia de una religión

oficial. El gran cambio paradigmático que llamamos Renacimiento, en otras

palabras, impuso un espíritu de positivismo. Nada existe que no sea

naturaleza. Los mundos natural y humano hacen un solo mundo, la manera

en la cual la naturaleza ha venido a ser comprensible para el ser humano.

El espíritu positivista del Renacimiento ha participado en toda

tentativa humana desde entonces, cuando esta tentativa es filosófica,

histórica, etc. Mucho de lo que hemos visto en este libro, la teoría de la

evolución, la física, etc., son descendientes directos del espíritu del

Renacimiento. Sin embargo, cuando uno ve las obligaciones que este

positivismo impone sobre las diferentes disciplinas, sorprende el hecho de

que tantos intelectos sigan aún persiguiendo el sueño de una vasta historia.

El Siglo de las Luces pudo producir, por supuesto, trabajos monumentales y

enciclopédicos como Decline and Fall of the Roman Empire de Gibbon,

pero si algun nombre pudiera sobresalir como autor del primer intento

disciplinado de reunir una historia universal, sería el de Giambattista Vico

(1668-1744). Dentro de la historia de las ideas, ciertamente Vico tiene un

papel especial, pues las suyas han sido adoptadas en muchos campos

ideológicos, tanto que ahora es dificil tener un claro sentido de su proyecto.

La principal ambición de Vico fue reunir la historia humana y proveer una

140

nueva filosofía para esta historia redefinida, para formar una visión unificada

del hombre y del mundo. Él realizó esta hazaña en un complejo y al parecer

mal escrito libro titulado Principi de una scienza nuova d´intorno alla

comune natura delle nazioni (1725).

Irónicamente –casi como una prueba de que el mundo poco ha

cambiado desde los días de Vico– “La ciencia nueva” tuvo grandes

dificultades para ser publicada, no a causa de lo mal escrita, sino por sus

méritos, sus cualidades. El libro de Vico vio a la humanidad –a las naciones,

a las civilizaciones, a las culturas– como pasando por estados progresivos,

de la bestialidad a una alta civilización y después hundiéndose en el

barbarismo. En otras palabras, Vico fue pionero en iniciar la tradición en la

que la historia no solamente es una cronología o una acumulación de datos,

sino una serie de estados, de ascensiones y caídas. Esta tradición en la

historia de buscar patrones y señalar estados va de la mano con su utilidad

para aprender y predecir, y Vico fue también pionero en esto. Asi,

investigando los diferentes estados de la historia humana, llegó a su más

“escandalosa” predicción cuando dijo que el segundo barbarismo se tragaría

las civilizaciones después de que éstas alcanzaran su cumbre y que sería peor

que el primero, con el que habían empezado. Vico argumentaba que los

barbaros originales poseían toscas virtudes, mientras que a los últimos no les

quedaba ninguna, y mientras su visión de dos barbarismos interrumpidos, el

principio y el final de la civilización, parecería artificial en nuestros dias, hay

una especificidad en el escrito que parece presciente en su intuición

psicológica. Para el segundo barbarismo que él predijo, Vico argumentaba

que la vida en las ciudades atestadas produciria hombres incrédulos, que

estimarian el dinero como medida de todas las cosas, que carecerían de

141

cualidades morales, particularmente de modestia, de responsabilidad familiar

y de valor civil. Emancipados de la ética vivirian en la delación y el engaño.

“La ciencia nueva” ha tenido una extraña vida. Vico murió a

mediados del siglo XVIII, no completamente en el olvido, pero si

definitivamente ignorado de una manera que no merecía. En realidad, si

algún reconocimiento se le hizo, éste llegó durante el siglo XIX, cuando

historiadores como Michelet encontraron sus métodos y su ambición, afines

a sus propios proyectos. “La ciencia nueva” debió haber influenciado la

visión de los procesos historicos tanto en Hegel como en Marx, aun si en sus

trabajos parecen contradecir algunas de las premisas de Vico. Ironicamente,

por supuesto, el siglo XX ha tenido más que equívocos.

Pocos pensadores se han suscrito a la idea de contemplar la historia

como una sucesión de estados; en cambio, la mayoria ha escojido ver la

historia como transformaciones temáticas. Por ejemplo, uno de los más

eminentes historiadores, Philipe Aries, ha escrito una historia de la niñez y

una historia de la muerte, el resultado, en su caso, ha sido siempre

satisfactorio. En otros casos, difícilmente ha sido así. La Histoire de la

Sexualité de Foucault, desafortunadamente un libro mucho más influyente,

esta lleno de inexactitudes y artimañas tan torpes, que los estudiantes de

primer año de historia serían reprendidos si las tomaran en serio.

La perspectiva temática de la historia ha sido una reacción contra el

determinismo; sin embargo, aquellos cuyo trabajo en la vida ha sido una

prolongada batalla contra este determinismo, son algunos de los más

ardientes defensores del trabajo de Vico y lo que elogian de él no es su

visión de la historia, ya que si bien es central, se las han arreglado para

ignorarla, sino sus ideas antropológicas y étnicas. El primero entre los

partidarios de Vico ha sido el filósofo de Oxford nacido en Letonia, Isaiah

142

Berlin, cuya obra, Historical Inevitability, publicada en 1955, se mantiene

junto a The Poverty of Historicism y The Open Society and its Enemies de su

colega Karl Popper, como texto principal en la crítica del determinismo. Más

tarde, libros como The Age of Enlightenment y Four Essays on Liberty,

desarrollarían un esfuerzo antideterminista, puesto que Berlin vió al

determinismo como la semilla de las sociedades totalitarias y mecanizadas.

No tenemos mucho espacio para ver cómo este argumento es digno de

elógio, porque es imposible negar que el determinismo ha tenido, como

muchas otras ideas, repercusiones históricas nocivas. La retórica de Hitler,

Franco, Mussolini y Stalin estuvo completamente impulsada por una visión

determinista de la historia. A pesar de todo, tal como los actuales marxistas

se han aficionado a recordarnos, existen algunas formas y manifestaciones

de un marxismo vulgar, que excluyen a pensadores como Adorno, Benjamin

y Gramsci, e igualmente la crítica de Isaiah Berlin al determinismo falla al

no ver que hay un determinismo vulgar y un determinismo educado.

Su valoración de Vico es el caso en cuestión. En un ensayo completo

y lleno de intuición, se las arregla para ignorar lo que constituye el esquema

central de Vico: la división de la historia en estados que se parecen unos a

otros; en cambio, alaba la visión antropológica de Vico, su habilidad para

ver cómo “la experiencia de una sociedad particular” puede ser determinada

por sus “mitos, formas de trabajo o lenguaje”. De acuerdo con Berlin, esta

sensibilidad “abre nuevas puertas”, “desacredita la idea de que en la

naturaleza humana hay algo como una parte estática espiritual, inalterable y

eterna.” La interpretación de Berlin le dá a Vico el mérito cuando es debido,

pero se maneja a modo de estropearle su principal argumento, de que “cada

estado de civilización genera su propia arte, su propia sensibilidad e

imaginación”, y como Berlin lo presenta, debe deducirse que para Vico no

143

hay “parte espiritual de una eterna e inalterable naturaleza humana”. Vico

vió en el lenguaje, en la costumbre y el mito, como dijo en sus propias

palabras “principios generales”. Más aún, vió estados, el crecimiento y la

decadencia de cada cultura, como predeterminados.

Así, el elogio de Berlin es, a la par que muy brillante, prejuicioso.

Como tantos de los muy inteligentes pensadores que hemos encontrado a lo

largo de este libro, ha desfigurado una idea en aras de adaptarla a sus

necesidades políticas e ideológicas. Y mientras que su política e ideología

fueron nobles, la perversión no fue menos deshonesta y perjudicial para una

larga influencia establecida, como la de Vico, una influencia que participó

mucho en el pensamiento del siglo XIX. Así, las ideas de Vico fueron

manipuladas y frustradas por uno de los más importantes pensadores del

siglo XX, sólo porque este pensador tenía cuentas que arreglar con el

determinismo. Entonces, imaginemos lo que le puede suceder a un recien

establecido y revolucionario pensamiento en nuestra época, o peor,

imaginemos cómo sería interpretada una historia universal de un Vico

actual, si este historiador intentara contribuir a la moderna ideología.

La imaginación suele ser sometida algunas veces a duras pruebas,

pero para imaginar qué le sucedería a una nueva, revolucionaria, reveladora

historia universal, es suficiente seguir el destino de El fenómeno humano, y

mientras que Vico tuvo que recurrir a la escrituras biblicas y a otras historias

infectadas con mitos, y considerando que sólo trato con la historia y nunca

se explayó en la prehistoria, el libro de Teilhard de Chardin es una verdadera

historia universal. Más aún, El fenómeno humano es una historia universal

que excluye los hechos historicos conocidos, en aras de explicar cómo los

hechos desconocidos de la evolución y la cosmología forman nuestro

presente y formarán nuestro futuro.

144

Pero ¡ay! como “La ciencia nueva” de Vico, El fenómeno humano ha

sido mal entendido, mal citado y demasiado calumniado. Ya hemos visto

cómo Simpson y Medwar lo ignoraron, diciendo que es una colección de

“tediosos conceptos metafísicos”. Como quiera que sea, aun algunos de los

defensores de Teilhard han malentendido y desfigurado su pensamiento.

Robert Right lo ha visto como “el profeta de la globalización”, una etiqueta

totalmente reductiva, tan torcida por la ideología política actual que no es de

sorprender que Teilhard salga con cajas destempladas en los círculos serios.

La gobalización no es más que un eslogan político de hoy, una palabra

conocidísima con la que los políticos han logrado situar mejor en el mercado

a las grandes corporaciones. Teilhard de Chardin indica que el pensamiento

debería “converger”, como veremos en breve, al tratar su argumento en

forma mucho más profunda. En verdad, uno no debe confundir la

globalización, esa nueva codicia de las corporaciones, con el pensamiento

verdadero. Que la Coca Cola haya llegado a Boroboro o a Ciskei, es un

hecho que no debe llenarnos de orgullo y definitivamente no tiene nada que

ver con el pensamiento. Teilhard de Chardin, con certeza, no es un profeta

del beneficio económico. Otros pensadores le han atribuido distintas

profecías, como los medios de comunicación instantáneos y el internet. Y

aun cuando Teilhard pueda estar de acuerdo con cualquier manera en que se

difunda la información, siempre que sirva para llevar más lejos a la

humanidad, estos partidarios se equivocan al ver que, a diferencia de la

mayoría de los profetas de la era de las comunicaciones, a diferencia de los

Marshall McLuhan del mundo, que gustan de los medios de comunicación y

se mueren de risa por su contenido, el principal interés de Teilhard no son

los medios, sino el fin. Brevemente, él está más interesado en el contenido

de la información que en los medios por los cuales se distribuye.

145

De la misma manera, otros pensadores han reducido las ideas que

subyacen en El fenómeno humano y lo han visto como una simple emulación

y aun como un plagio del pensamiento Oriental con el cual Teilhard llegó a

familiarizarse durante sus años en China. Y mientras que algunos escritores

están en lo correcto al señalar similitudes y parecidos, El fenómeno humano,

en su proyecto y en su ambición, así como en sus antecedentes históricos, es

un libro completamente Occidental, que se maneja para cumplir la meta

incumplida de una historia universal, y hace esto por medio de la ciencia.

Como hemos visto anteriormente, la ciencia en El fenómeno humano

ha sido a menudo cuetionada, y como anunciamos, los siguientes capítulos

estarán dedicados a revisar las predicciones y las afirmaciones de Teilhard,

comparadas con las más recientes interpretaciones de las diferentes ramas de

la ciencia. Por ahora, nos gustaría colocar a El fenómeno humano en una

correcta perspectiva, para lograr esto, requerimos ver el libro, no como el

intento desesperado de un creyente de reconciliar la ciencia con la fe, ni

como una chapucera lección o interpretación de la evolución, y

definitivamente tampoco como un plagio de otras filosofias o ideas

religiosas. Si algo es El fenómeno humano es un libro occidental post-Siglo

de las Luces. De hecho, sus dos premisas centrales lo colocan exactamente

en medio de la tradición tardía occidental.

La primera de estas premisas, prácticamente, parece afín a las ideas

que discutimos previamente en este capítulo. Teilhard de Chardin, como los

pensadores del Renacimiento que trataron de concebir la naturaleza y al

hombre siguiendo el pensamiento griego, asume que la humanidad es, como

el título del libro sugiere, un fenómeno.62 Tanto para la ciencia social como

62 Fenómeno, como la apariencia sensible o la manifestacion de la realidad; o al hecho al que puede ser considerado idéntico. También la definición kantiana de que fenómeno es

146

para la ciencia natural, esta premisa es básica. Para que ambas tengan

principios sobre los cuales trabajar, tienen que suponer que existen algunos

patrones en el cuerpo humano, células humanas y comportamiento humano

que pueden ser estudiados. Lo que alinea aún más a Teilhard con la tradición

Occidental es su intento de amalgamar o sintetizar las dos tradiciones. Así,

mientras el libro estudia a los humanos no como un misterio, no como algo

irresoluble, sino como un fenómeno, como algo que puede ser estudiado y

puesto que este estudio puede ser consumado mediante el uso de métodos

históricos, mediante el uso de eras y cronologias, esta historia debe

analizarse bajo el microscopio de la ciencia.

En otras palabras, El fenómeno humano es una historia, una verdadera

historia universal, que traza el surgimiento de la materia y de las fuerzas que

controlan su comportamiento; esboza los cambios geológicos que no sólo

definen la superficie del planeta, sino las condiciones geológicas que

permitieron la emergencia de la vida, finalmente, subraya la emergencia y la

evolución de la vida. Esta historia llega a su fin cuando surge el pensamiento

autoconsciente, pero si hay algo importante y revolucionario acerca de la

historia no son sus pormenores: Teilhard no es como Gibbon o como

Michelet. Más cercano a Vico, se interesa en una visión panorámica, en una

visión global de etapas y patrones. A diferencia de historiadores previos, aun

de historiadores naturalistas, no basa su cronología en hipótesis, sino

introduciéndose en cada etapa por medio de su segunda importante premisa.

El fenómeno humano concibe la historia como una manifestación de la

evolución. A diferencia de la mayoria de los científicos que, en este punto,

sólo aplican la teoría evolucionista a la vida en la Tierra, Teilhard vió la

lo que no pertenece al objeto en sí mismo, sino que se encuentra siempre en su relación con el sujeto y es inseparable de las representaciones de éste.

147

evolución trabajando no únicamente en la polimerización de una cadena de

proteínas que dieron paso a la vida en el universo, sino también en la

existencia de la materia inorgánica, en la formación de las galaxias y el

sistema solar y, por supuesto, en la formación de la litosfera, la hidrosfera, la

atmósfera, etc. De hecho, una buena tercera parte del libro explica

largamente lo inorgánico.

El enfoque de Teilhard de Chardin en la materia inorgánica no es

solamente un intento de sostener sus puntos de vista. Es en la materia donde

él encuentra algunos de los principios básicos que guiarán sus

interpretaciones de la evolución. Como muchos de sus ensayos atestiguan,

aunque no era un especialista, Teilhard era más que un enterado en la

relatividad y la mecánica cuántica, por lo que los principios que sigue en su

historia de la materia, son principios sobre los cuales todos los científicos

deben estar de acuerdo. Teilhard vió la materia con tres cualidades

inherentes. De la relatividad especial, él sabía que la materia es energía

“congelada”. Toda la materia es energía; no obstante, o más bien, porque es

energía congelada, la materia se manifiesta en diferentes formas. De la física

de partículas, Teilhard sabía que la materia es, por decirlo a su manera plural

y atomística. Lo segundo se refiere al mundo fragmentado del quantum, el

mundo del cual Teilhard conocía su falta de sentido –cuando inició el libro,

la ciencia cuántica se encontraba en un estado aparentemente caótico. No

obstante, sostiene que, pese a la fragmentación, la materia está unificada en

lo más profundo, y para atestiguar esta unidad recurre al hecho de que pese a

su “fragmentación y pulverización”, la materia obedece siempre las mismas

leyes y manifiesta el mismo comportamiento.

La cualidad tripartita que Teilhard vió en la materia, lo condujo a

pensar que está naturalmente alineada a lo largo de dos ejes. La materia

148

puede acumularse, aglomerarse, o puede fragmentarse. Para Teilhard, estas

dos solas cualidades de la materia son suficiente señal para que vea una

especie de evolución. La materia obedeciendo ciertas leyes, tiende a formas

cada vez más complejas:

Observada en su parte central, que es la más clara, la evolución de la

materia se concreta, conforme a las teorías actuales, en la edificación [en la

construcción] gradual, por creciente complejificación,63 de los diversos

elementos reconocidos por la fisica y la química. En la parte más inferior, para

empezar, una simplicidad todavía sin resolver, indefinible en forma de figura

[en términos de figura], de naturaleza luminosa. Después, bruscamente [de

repente], un hormigueo [una multitud] de corpúsculos elementales positivos y

negativos (protones, neutrones, electrones, fotones…), cuya lista va

aumentando sin cesar. Después, la serie armónica de los cuerpos simples,

situados, desde el hidrógeno hasta el uranio, sobre las notas de la escala

atómica. E inmediaramente la inmensa variedad de los cuerpos compuestos, en

que las masas [pesos] moleculares van ascendiendo hasta un cierto valor

crítico, por encima del cual, según veremos, se pasa a la vida. Ni uno solo de

los términos de esta larga serie puede dejar de ser considerado, de acuerdo con

excelentes pruebas experimentales, como un compuesto de núcleos y

electrones. Este descubrimiento fundamental, de que todos los cuerpos derivan

[deben su origen] por ordenación [a los arreglos] de un solo tipo inicial

corpuscular viene a ser el rayo [de luz] que ilumina ante nuestros ojos la

historia del universo. A su manera la materia obedece, desde el origen [desde

su principio], a la gran ley biológica (sobre la cual debemos insistir

63 Los parrafos de Teilhard de Chardin que reproduciremos, serán tomados de la traducción al español que fue publicada por Taurus Ediciones (1963) Madrid, y con la siguiente técnica: la palabra subrayada ha sido cambiada para darle congruencia al texto (aquí por ejemplo, en la traducción original la palabra empleada es, complicación) y lo contenido entre corchetes [ ] está tomado de la traducción personal de la versión en inglés publicada por Harper & Row (1965) Londres, con el único propósito de aclarar un poco la traducción original que algunas veces confunde los de por sí densos y difíciles párrafos de Teilhard de Chardin.

149

constantemente) [a la cual recurriremos una y otra vez], de [la ley de la]

“complejificación”.64

Para muchos, el “acrecentamiento” –que para Teilhard de Chardin

parece significar “aumentar mejorando”– de la materia, no es suficiente

evidencia de evolución y Teilhard debió estar consciente de ello. Sin

embargo, debemos recordar que el espíritu de El fenómeno humano es

histórico y, como buen historiador, Teilhard no podía ver el pasado como

una mera colección de fenómenos aislados, sino sólo considerarlo a la luz de

sus resultados. Así, puesto que esta aglomeración, este “acrecentamiento” o

acumulación de materia finalmente permitió la polimerización65, Teilhard la

considera como parte central de la evolución. Su argumento no debe ser

malentendido como post hoc, ergo propter hoc, es decir como una vulgar

falacia; Teilhard está consciente de que en esta acumulación de elementos,

en este “acrecentamiento” de partículas, hay muchos caminos falsos y malos

finales. De hecho, El fenómeno humano dedica unos pasajes bastante largos

64 Aparece por primera vez esta palabra, que en la época en la que fueron publicadas las traducciones, era, por lo menos en inglés, la forma sustantiva del poco común verbo compexify, hacer complejo, lo que significa también en español, pero en el vocabulario teilhardiano la complejidad se refiere a la interrelación de los elementos que conforman un sistema, y para comprender en su profundidad este párrafo es necesario considerar la complejidad como lohace una rama descendiente de la ciencia del caos, que describe las configuraciones cruciales como complejidad. Este concepto propone como principio que el crecimiento autónomo de la simplicidad a la complejidad solo ocurre en el vértice entre el orden y el desorden. Por ser todo estos conceptos de fundamental importancia en el pensamiento Teilhardiano, y porque en su época no existian estas ciencias, requieren de una monografía especial que no cabe en el contexto de este trabajo. 65 Aquí el sentido de polimerización significa que la unión de moleculas llevó a la formación de polímeros, que son sustancias químicas de naturaleza orgánica compuestas por largas e intrincadas cadenas de átomos. Los polímeros presentan una elevada inercia de reacción y son inatacables por los ácidos y los agentes atmosféricos. Son también flexibles, resistentes a esfuerzos y golpes, de bajas densidades, fáciles de moldear por no tener un punto determinado de fusión, sino una franja de temperaturas en la cual se convierten en materiales viscosos y blandos.

150

a los cristales y la manera en la cual, en ellos, el “acrecentamiento” de

partículas parece seguir una vía que está “cerrada” prematuramente para su

evolución. Como las ideas de cualquier pensador importante, las de Teilhard

tardaron bastante en plasmarse, pues involucraron diferentes comienzos y

muchos fallidos intentos en abundantes escritos preliminares para llegar a El

fenómeno humano. Y puesto que el libro es, por necesidad, bastante elíptico

en ciertos puntos, algunos de los ensayos que lo precedieron parecen arrojar

bastante luz sobre lo que Teilhard argumenta. Si algunos lectores están aún

convencidos de que su razonamiento es post hoc, ergo propter hoc, debería

ser suficiente añadir que él estaba convencido que en la manera como la

ciencia ha entendido e interpretado el mundo, la vida no sería posible. Por lo

tanto su particular interpretación de la evolución implica el impulso de una

fuerza más, diferente a las otras cuatro fuerzas de la naturaleza que ya hemos

visto. Antes de adentrarnos en los detalles, en la precisión y la necesidad del

argumento de Teilhard, debemos seguir su pensamiento lógico en otro

ensayo. Por ahora nos limitaremos a señalar que para Teilhard, la evolución

es solamente la manifestación de esta otra fuerza.

En L´atomisme de l´espirit Teilhard de Chardin nos pide imaginar

cuán increíble, cuán lejos del sentido común parece estar la “estructura

molecular” de nuestros cuerpos. A primera vista, somos una totalidad,

nuestra sola fragmentación presagia la muerte. No obstante, la ciencia nos ha

dicho que “la condición fundamental de nuestras vidas” es molecular: sólo

somos una colección de moléculas. De la misma manera, Teilhard de

Chardin nos pide, insistimos, ponderar cuan increible parece la flexibilidad y

la expansión del universo. Brevemente, para Teilhard de Chardin un sólo

cambio de perspectiva, una sola mirada cercana al micromundo o una

contemplación del cosmos cambia la manera en que nos definimos; ambos

151

mundos, de acuerdo con Teilhard de Chardin y de acuerdo también con

muchos otros científicos, parecen prohibir la vida. O, como Teilhard de

Chardin elocuentemente declara, el universo de los físicos está construido “a

lo largo de unos ejes espaciales, y es precisamente a lo largo de estos ejes

que la vida no puede aparecer”. No hay vida en las partículas y no hay vida

en el cosmos, al menos no si lo vemos desde las puras relaciones espaciales

o matemáticas. Asi, lo que Teilhard de Chardin nos pide, es imaginar lo

siguiente: si tenemos la buena disposición de aceptar las pasmosas

conclusiones a las que la ciencia ha llegado en el último siglo, la

irracionalidad tanto del quantum como de la relatividad, lo extraño del

comportamiento de una partícula o de la relatividad del espacio-tiempo

¿porqué, ante la testificación que hace la Vida de si misma nos

sorprendemos tanto? ¿por qué somos hasta ahora tan mordaces contra la idea

de que existe otra dimensión?66

Una vez que el avance ha sido afectado sobre nosotros mismos, pasando por lo

muy grande y lo muy pequeño y permitiendo así a los ejes de lo complejo un

libre paso, un nuevo medio cósmico se crea por la añadidura de esta dimensión

adicional; y en este medio, la vitalización de la materia deja inmediatamente

de parecernos algo enigmático o inexplicable. Por el contrario, nos parece tan

`natural` como la variación de la masa con las altas velocidades o la aparición

de las muy grandes distancias por efecto de la relatividad.

El ensayo de Teilhard a primera vista puede parecer un el fragmento

de un razonamiento sofista, pidiéndonos considerar con especial cuidado

cómo parecen irracionales los descubrimientos de la ciencia y proponiendo

66 De hecho, la teoría de las supercuerdas, la mejor candidata para sustituir el modelo estándar de la física cuántica, habla de partículas que existen en un "universo" de 10

152

entonces otra idea menos “irracional”. Sin embargo, la conclusión de

Teilhard de Chardin no sólo no es una chapucería lógica, no: él nos ofrece

una solución real, defendible, de lo que para muchos parecia irresoluble. Y

parafraseando los comentarios de David Z. Albert sobre la onda pilóto de

David Bohm, su solución es simple, elegante. De acuerdo con Teilhard de

Chardin, para entender el fenómeno de la vida y para entender el fenómeno

humano debemos verlo y vernos como el amalgamiento, la combinación, la

síntesis de la aglomeración encontrada en las densidades de las estrellas y el

espacio, así como de la complejificación del nivel microscópico.

Esta síntesis, de acuerdo con Teilhard de Chardin, ocurre porque otra

dimensión funciona gracias a la organización y se manifiesta a sí misma

como complejidad. Teilhard de Chardin añade otra posibilidad a los

múltiples senderos evolutivos. Las leyes de la naturaleza como las

conocemos, sin contar con la dimensión extra que Teilhard de Chardin

postuló, permiten a la materia inorgánica llegar a dos resultados: a formar

objetos realmente grandes o extremadamente pequeños. La otra dimensión

permite seguir una pista evolutiva diferente: los objetos pueden llegar a ser

realmente simples como el hidrógeno o extraordinariamente complejos

como el cerebro.

Para Teilhard de Chardin la complejidad todavía no había sido

sondeada por los humanos pese a nuestras invenciones, nuestra tecnología,

etc. Él no era, como mucha gente da por sentado, del tipo de científico que

hace descripciones exageradas de los esquemas para colocar al hombre en la

cima.

De hecho, si vamos a entender la complejidad como Teilhard la

entendió, solo podremos hacerlo si la vemos como la manifestación de la

dimensiones

153

otra dimensión que mencionó en L´atomisme de l´spirit o mejor aun, como

la energía que realmente forma el corazón de su pensamiento; a saber, la que

llamó energía radial.

Los científicos usan el término energía radial para identificar una

energía completamente diferente, por lo que para entender lo que Teilhard de

Chardin intentó definir, debemos echar una ojeada al ensayo en el cual

empezó a entrever esta energía. Como el ensayo al que nos referimos antes,

este, titulado Note sur la divine action dans l´universe precede a El

fenómeno humano y debe verse como una de las muchas semillas del gran

trabajo. Como tal, el núcleo produjo todo un fruto, y es además

suficientemente notable por sí mismo. En el ensayo, Teilhard inicia con una

analogía:

Una comparación puede ayudar para darnos cuenta en forma más concreta de

la reflexión que sigue. Imagine una esfera y dentro de ella un gran número de

resortes empaquetados juntos. Por otra parte, permitamos a los resortes

expandirse o contraerse espontaneamente. Tal sistema puede representar el

universo y la multitud de actividades [dentro de él].

La comparación de Teilhard entrevé al universo como muchos

científicos han escojido imaginarlo. Un conglomerado caótico de materia

como si fueran resortes, especialmente susceptible a las fuerzas; un

mecanismo aleatorio donde, suceda lo que suceda, siempre será por

accidente. Sin embargo, nada más lejano que la imagen final de Teilhard de

Chardin, porque su esfera contiene un “resorte extra” que es “mucho más

central y mucho más poderoso que los otros” y el cual organiza el

movimiento de los otros.

154

La terminología de Teilhard de Chardin es siempre cambiante y

siempre problemática. La energía radial puede ser en algun ensayo el “factor

Dios”, en otros “energía psíquica”, por lo que, para evitar confusiones, nos

ajustaremos al término “energía radial”, porque pudiera ser el mejor término

que él acuñó, puesto que la palabra radial connota luz emanada desde un

centro común, un arreglo como los radios dentro de un círculo, como los

rayos de una rueda de bicicleta y junto con la centralidad también connota

inmaterialidad. Éstas son las verdaderas cualidades de la energía radial.

No obstante, Teilhard de Chardin evitó el dualismo, un vacio entre las

dos energias, por lo que él razonó que toda energia era, en el fondo, radial:

Para escapar de un dualismo de fondo [a la vez] imposible y anticientífico y

para salvaguardar, no obstante la natural complicación [la complejidad

natural] de la trama del universo, yo propondría la siguiente representación

[lo siguiente] que va a servir de fondo [como una base] a todo el resto de

nuestros desarrollos [a lo que emergerá más tarde].

Admitimos [debemos asumir] que esencialmente, cualquier energía es

de naturaleza psíquica. Sin embargo, añadiremos que, en cada elemento

particular, esta energía fundamental se divide en dos componentes distintos:

una energía tangencial…y una energía radial.

Una de las razones por las que mucha gente ha reaccionado contra

Teilhard de Chardin es porque a pesar de los hechos innegables de su visión

y sus descubrimientos, su historia parece despoblada. A diferencia de los

Tácitos del mundo, cuya prosa está llena hasta el cansancio de Césares y

senadores, la historia de Teilhard de Chardin no tiene nombres. Esta extraña

característica, en verdad que puede ser perturbadora. Con todo, el vacío de

personajes no es sin intención, pues el intento del libro no es el estudio de un

155

solo fenómeno, ni la exploración de la personalidad, sino el estudio de la

humanidad como fenómeno.

Si todas las historias tienen resultados, el resultado de la de Teilhard

de Chardin es la humanidad. No obstante, a diferencia de la mayoría de las

historias en las que los resultados cierran el capítulo final, para Teilhard de

Chardin el resultado es provisional, porque el ve en la inteligencia humana la

síntesis, tanto del pluralismo como de la fragmentación de la naturaleza, y se

da cuenta de que esta síntesis se hace posible por la existencia de la energía

radial, cuya manifestación es la complejidad; por lo tanto, la inteligencia

humana es para Teilhard de Chardin no el final, sino el más alto estado que

la complejidad ha alcanzado. Su esquema se sostiene hasta el final de El

fenómeno humano. Como cualquier otra cosa sujeta a la evolución, la

inteligencia humana puede, como los cristales, estancarse.

La meta final de Teilhard de Chardin, es algo que algunos de sus

partidarios han llamado globalización, pero realmente debería entenderse

como el conocimiento de la interconexión de todas las cosas. A diferencia de

Vico, que predice la decadencia, Teilhard de Chardin predice, con las

reservas inherentes a su esquema, un lugar donde la conciencia, la

inteligencia humana, no solamente influencíe su ambiente, sino que

efectivamente sea capaz de determinar caminos evolutivos correctos.

156

7

EL PUNTO DE PARTIDA DETERMINA EL DESTINO

En la interpretación en Teilhard de Chardin, el eje, tanto de la historia

universal como de la historia del universo, es la evolución.67 Mientras que

para Darwin la evolución es solamente una explicación del “origen de las

especies” y en su forma más ambiciosa, del “ancestro” del hombre, para

Teilhard, la evolución es un paradigma, una manera de entender el camino

mediante el cual la energía primordial se transformó en partículas, las

partículas se unificaron por la acción de las fuerzas en átomos, que a su vez

se reunieron en moléculas que en un momento dado se polimerizaron y

llegaron a formar estructuras complejas que se autorreplican. Y algo muy

importante: sólo el hombre tiene la capacidad de conducir la evolución, pero

67 Es necesario aclarar este concepto no sólo con la definición del diccionario, sino con la interpretación que hemos hecho de El fenómeno humano, aunque quizá modificada a la luz de los últimos descubrimientos científicos. La evolución como la conceptualizó Darwin tiene un gran defecto que Teilhard de Chardin corrigió: no señala la evidencia de su tendencia hacia una meta. Actualmente los neurocientíficos que estudian el cerebro, y los paleontólogos, que estudian los cráneos fósiles, están llegando a la conclusión de que la relación del peso corporal al volumen craneal es un índice del estado evolutivo de una especie con respecto al comportamiento y adaptación a su entorno o nicho ecológico.

Complementariamente, la evolución debe conceptualizarse no como un continuo cambio de las especies, sino como un cambio sólo de un mínimo pocentaje de ellas, en especial las que mayor conocimiento adquieren. Ésta es la línea que lleva al hombre. Las demás especies cumplen un cometido que puede ser más o menos durarero en función de su utilidad para la evolución del eje principal. Asi, algunas especies, según algunos biólogos, parecen haberse estancado, mientras que la mayoria se ha extinguido. Esto nos lleva a preguntarnos ¿qué ley natural nos adjudica el derecho a eliminar especies que son útiles para la sobrevivencia del planeta, es decir, de nosotros mismos?

Finalmente el uso del término “descender de” es erróneo y debería ser sustituido por el de “ascender a partir de”. Se puede contradecir lo anterior diciendo que los peces y las aves han evolucionado. Sí, hasta su estado actual podriamos decir que han mutado tendiendo a adaptarse a las condiciones cambiantes de la Tierra, pero finalmente los peces seguiran siendo peces, las aves, aves, y los reptiles, reptiles.

157

su destino está profundamente ligado al de animales, plantas y mundo

inorganico, de manera indisoluble.

Para muchos biólogos evolucionistas, esta aplicación de la evolución

a las entidades no orgánicas, de inmediato hizo resaltar una aparente falla en

las ideas de Teilhard de Chardin, y la razón para rechazarlas fue simple. La

evolución –sostienen muchos biólogos– no tiene dirección, ni propósito, ni

razón. Trataremos con más amplitud esto en un capítulo posterior. Por ahora

debemos enfocarnos en la suposición primordial que el sistema teilhardiano

hace, a manera de poder discutir la evolución como el modus operandi en la

historia universal: esta suposición implica no la existencia de dos tipos de

energía, como muchos pensadores han afirmado, sino dos manifestaciones

diferentes de la misma energía. La distinción es crucial, y la subrayamos

porque tanto críticos como seguidores de Teilhard de Chardin, fallando en

considerar esto, fallan también en entender los argumentos y las

implicaciones que Teilhard de Chardin plantea.

El pedir al lector que imagine dos manifestaciones diferentes de la

misma energía no es exigirle que extienda sus poderes imaginativos. Lo que

conocemos como energía electromagnética, por ejemplo, puede ser visible

en la gama total de colores, o invisible como las señales de radio que

sintonizamos cuando queremos oir música o las noticias. Y tal como los

científicos han distinguido entre las ondas de radio y de luz, midíendolas y

etiquetándolas, Teilhard de Chardin hizo la distinción crucial entre las dos

manifestaciones de la misma energía, llamando a una tangencial y a la otra

radial. Para él, la energía tangencial es toda variedad de energía68 que sea

susceptible de ser medida o contada en alguna forma, ya sea utilizando un

68 En este concepto se incluye la materia, que según la relatividad, es sólo una forma de energía.

158

contador geiger, un detector de microondas o un voltímetro, etc. En otras

palabras, para Teilhard de Chardin la energía tangencial incluye las fuerzas

fundamentales, que como hemos visto constituyen el marco de la física.

Antes de definir y tratar de explicar qué es la energia radial, debemos

interpolar un poco. Como hemos tratado previamente, Teilhard de Chardin

formuló muchas de sus ideas después de haber ocurrido las modernas

revoluciones científicas.69 Einstein había postulado su teoría de la

relatividad, la mecánica cuántica había sido formulada y, por supuesto,

Darwin y Wallace habían escrito su versión de la evolución. Debemos

entender el hecho de que el trabajo de Teilhard de Chardin parezca

aparentemente tardío, pues aunque las bases de la ciencia moderna habían

sido establecidas, seguían esperándose mayores clarificaciones, mientras que

algunas ramificaciones prácticas ya estaban siendo exploradas. Así, si

Teilhard suena tentativo en algunos puntos, uno debe recordar que estaba

tratando con material tentativo. Además, a diferencia de los físicos, que

estaban reunidos alrededor del proyecto Manhattan y rodeados por

intelectuales semejantes, Teilhard no formuló la mayoría de sus ideas en un

centro intelectual, sino en un remoto lugar del oriente. En China, por

supuesto, no estaba completamente aislado; sin embargo, a diferencia de

otros lugares, el desierto de Ordos o aun Pekín, definitivamente no eran

centros culturales o científicos del mundo como Viena y Berlin a principios

69 El filósofo Jean Guitton señala que 1927 fue uno de los años más importantes en la historia del pensamiento contemporáneo; marca el punto de partida de la filosofía metarrealista, es el año en que Heisenberg expone su principio de incertidumbre, en el que el canónigo Lemaitre expresa su teoría sobre la expansión del universo, en el que Einstein propone su teoría del campo unitario, en el que Teilhard de Chardin publica los primeros elementos de su obra, y es el año del congreso de Copenhague, que marca la fundación oficial de la teoría cuántica. Y se pregunta ¿acaso no resulta significativo que esas conmociones epistemológicas hayan sido provocadas por hombres de ciencia?

159

del siglo XX, o como la Academia de Estados Unidos llegó a ser durante los

años de la guerra y la postguerra.

Con tales luces biográficas, la visión de Teilhard de Chardin parece

más atrevida y más brillantemente presciente e intuitiva o, si lo preferimos,

increíblemente profunda y sintética. La suposición central en su argumento

consiste en que –y esto hay que tenerlo muy presente– la energía se

manifiesta de dos maneras, la primera corresponde a las fuerzas

fundamentales y la materia y la segunda a la energía radial que incluye la

información y el conocimiento. Teilhard de Chardin adopta, en otras

palabras, lo que introdujimos previamente como teorías del todo. Por

supuesto que si la suposición que Teilhard de Chardin hizo puede parecer

solamente algo ridículo o algo atrevido e inteligente, es irrelevante para

nosotros, puesto que el método mediante el cual los científicos llegan a sus

teorías no es realmente tan importante como la via que se adopta para

comprobarla.

Por lo tanto, una de nuestras inquietudes, antes de movernos y tratar

con la precisión de la historia la interpretación teilhardiana de la evolución,

es la de revisar si la suposición de que todas las fuerzas son simplemente la

manifestación de un solo tipo de energía, es correcta o no.70 En capítulos

previos hemos visto algunos de los intentos que los físicos han hecho para

integrar todas las fuerzas bajo una sólo planteamiento matemático. Tanto la

teoría de las supercuerdas como la de la supersimetría han acometido la

empresa y son las dos teorías que están más cerca de resolver el problema.

No obstante, ambas permanecen sólo como teorías: no existen muchas

70 Para clarificar un poco debemos pensar que el modelo clásico, la teoría estándar, desarrollada desde la aparicion de la física cuántica, no ha sido capaz de incluir o más bien unificar la gravedad con las otras tres fuerzas.

160

pruebas para confirmar una u otra. Por otra parte, las dos teorías, al estar

muy cercanamente alineadas con la mecánica cuántica y la física de

partículas, funcionan en la región donde estas últimas convergen con la

cosmología. En otras palabras, son teorías que necesitan apoyarse en la

historia de la materia.71 Su exclusiva prueba, cuando llegue, vendrá más

probablemente de la observación celeste que de los supercolisionadores,

pues éstos difícilmente podrán seguir rompiendo el átomo indefinidamente.

Por lo tanto, la pregunta que surge es: ¿más allá de lo que podemos

decir por nuestros actuales modelos cosmológicos, hay alguna evidencia de

que las diferentes fuerzas fueron una sola en algún punto?

Por supuesto que en la ciencia nada es final y uno de nuestros

argumentos a lo largo del libro es que ésta incertidumbre es producida por la

resistencia de algunos científicos. Ha sido el dogmatismo académico y la

estrechez de mente lo que ha cerrado las puertas a muchas opciones y a

posibles cursos de acción. Tal como la relatividad de Einstein sustituyó a la

física newtoniana clásica –en la comprensión de cómo trabaja el universo–

revisando algunos de sus supuestos, muchas de las teorías actuales, muchas

de las explicaciones de hoy, serán revisadas, ampliadas o sustituidas. Como

hemos visto, pocos han sido los científicos que han seguido una ruta no

ortodoxa aun cuando consideremos las implicaciones de sus ideas. La parte

sorprendente es que si las actuales teorías prueban ser correctas, Teilhard de

Chardin y la interpretación teilhardiana de la ciencia probaran no solo su

validez, sino quizá la de la ciencia misma, o por lo menos el de su papel

social, pues si la interpretación teilhardiana es reconocida –si lo es por algo–

71 Se podría decir que son teorías metafísicas desde el momento en que buscan la esencia del Ser, que los físicos llaman simetría y, aunque lo nieguen, tratan de desentrañar el proceso de la Creación.

161

es por su capacidad de dar relevancia urgente a los eventos que socialmente

parecen ser irrelevantes.

Uno de los principios centrales en la moderna cosmología, es el

modelo del big bang. Este modelo no explica el origen del universo, pero,

como cualquier principio, determina el destino del universo. La teoría llegó

como una consecuencia de la relatividad. Para que el continuum espacio-

tiempo funcione y explique la estructura del universo, Einstein tuvo que

considerar un universo dinámico; como muchos científicos de su época, el

creía en lo que se llamaba la teoría del estado estacionario, que sostenia que

el universo era y seguiria siendo exactamente el mismo. Ya relatamos las

consecuencias de esto: el que Einstein tuviera que declarar que lambda había

sido el más grande error de su carrera.

En los últimos años, una de las mayores noticias en física ha sido el

retorno de lambda como un concepto a considerar. El nuevo argumento para

que lambda sea importante será central para nosotros dentro de poco. Por

ahora dejémoslo a un lado y miremos más de cerca la teoría del big bang. Su

origen es en sí mismo interesante, pues los científicos al principio se

resistían a la idea de un universo dinámico, hasta que Hubble descubrió que

el universo se estaba expandiendo. Este descubrimiento lo hizo gracias al

espectroscopio. La espectroscopía es toda una rama de la física que estudia

la radiación electromagnética por medio de líneas espectrales. Pese a su

poco práctica apariencia, ha sido vital para el desarrollo tanto de la física de

partículas como de la cosmología, porque permite a los científicos romper la

luz en las diferentes frecuencias que la constituyen. Estas frecuencias

transportan información acerca de los objetos luminosos a partir de sus

átomos. Como sabemos, la luz consiste en partículas subatómicas llamadas

fotones. Un átomo libera un fotón cuando uno de sus electrones cae de una

162

órbita mayor a otra menor, o en otras palabras cuando este electrón pasa de

un estado energético a otro estado de menor energía; el átomo se vuelve

menos energético y la energía que pierde se transforma en el fotón.

Estudiando las líneas espectrales, los científicos son capaces de decir

una pasmosa cantidad de cosas acerca de los objetos que estudian,

especialmente de los cuerpos celestes. Ellos pueden deducir los elementos

que componen las estrellas, la temperatura de los astros, así como su

rotación y justo de estas capacidades, el físico alemán Gustav Kirchhoff se

valió para detectar los elementos del Sol y William Huggins identificó la

presencia de sodio, calcio, hierro y magnesio en las grandes estrellas. El

descubrimiento más importante en este campo, por mucho, fue el de Hubble.

Estudiando el desplazamiento de las líneas espectrales de las galaxias, logró

mostrar que la mayoría de las galaxias se alejaban, tanto de la Vía Láctea

como entre ellas.

El descubrimiento de Hubble no postula la teoría del big bang, sino

que solamente prueba que el universo es dinámico, que se está expandiendo.

Las implicaciones de un universo que se expande son inmensas. Si un objeto

se expande, se deduce que la expansión debe tener una trayectoria, y más

importante aún, un origen. Como muchas otras teorías que han resistido las

pruebas, el big bang nos parece ahora un asunto casi de sentido común. Si el

universo se ha estado y se está expandiendo, entonces, en el pasado debió

haber sido mucho menos grande que ahora, asi que los científicos empezaron

a pensar en un universo en términos diferentes, ya no como una entidad

estacionaria, sino como una entidad con una historia, una entidad no

diferente a otras, con un principio, un lapso intermedio y un final. Colocada

en tal perspectiva “histórica”, la pregunta sobre lo constitutivo del universo

debe cambiarse hacia los físicos de partículas.

163

El radio del universo es de quince mil millones de años luz; si era más

pequeño en el pasado, digamos que tenía un radio de un año luz, ¿cómo

parecería? Si el universo y todo su contenido estaban mucho más

comprimidos en la infancia del universo, entonces la materia estaría mucho

más caliente, de modo que el modelo que tendríamos sería el de un universo

mas denso que cualquier material conocido y más caliente que el centro de

cualquier estrella.

La prueba experimental de tal afirmación era difícil de conseguir.

Hacia el final de los años cuarenta, George Gamow había ya expuesto la

teoría del big bang,72 pero no fue hasta el principio de los sesenta que,

cuando en forma bastante accidental, la primera prueba experimental se

consiguió. Hasta entonces sólo había dos tipos de evidencia del big bang. La

primera, que fue el aliento para poner a la teoría en la vanguardia fue, por

supuesto, la expansión del universo. La deducción era lógica: si el universo

estaba creciendo, necesariamente había un punto de inició. La segunda

evidencia fue un poco más difícil de alcanzar. Hemos visto que a causa de la

naturaleza de la materia, si el universo estuvo en algun momento

comprimido, entonces su contenido era extremadamente denso y caliente;

luego, para probar que el universo había emergido de una “bola de fuego”,

los científicos argumentaron que uno debía poder ver u observar los residuos

de tal bola de fuego.

La capacidad de observar el pasado profundo es inherente a la

observación de lo cuerpos celestes. Una vez que las distancias cambian de

medirse en kilometros a medirse en años luz, la señal que nos alcanza desde

72 Existe una versión poco conocida en el sentido de que el primero en explicar que el universo nació de una gran explosión fue un físico llamado Ralph Alpher, quien en 1948 escribió una tésis doctoral en la que demostraba matemáticamente que el universo había surgido hace 14 000 millones de años en una explosión a altísimas temperaturas.

164

el espacio exterior es una señal que se origino hace años. Así, cuando los

astrónomos son testigos de la muerte o el nacimiento de una estrella, lo que

testifican es un evento que sucedió quizá miles, si es que no millones de

años antes de que el observador hubiera nacido. A causa de que la

astronomía es, por naturaleza, ese curioso vistazo hacia el remoto pasado, los

científicos imaginaron que si podemos ver lo que ocurrió hace millones de

años, entonces debería ser posible que detectáramos, si no el inicio del

universo, por lo menos los remanentes del evento con el que se inició, la

“explosión” que empezó la “bola de fuego”, aunque estas señales serían

apenas perceptibles, con longitudes de onda demasiado grandes para ser

detectadas como luz o como sonido.

En los años sesenta, los astrónomos Robert Wilson y Arnold Penzias,

quienes conducian experimentos en el laboratorio de Bell Telephone,

escucharon un extraño ruido constante en su radiotelescopio. Sospechando

que las palomas que se encontraban anidando eran las causantes del ruido,

limpiaron su antena y revisaron la radiotransmisión, pero el ruido seguía

escuchándose. Después de eliminar toda posible causa, como la interferencia

continuara y bastante ajenos a las implicaciones de su descubrimiento,

publicaron un escrito donde presentaron su descubrimiento: existía un ruido

de microondas constante. Actualmente se le conoce como radiación de

microondas cósmica de fondo. El nombre por sí mismo implica el origen; se

refiere a “fondo”, porque a diferencia de las señales de los cuerpos estelares

como estrellas o pulsares, su radiación no tiene una fuente particular, sino

que parece proceder de todas partes. Y radiación de microondas es el

nombre dado a las ondas de radio que son más cortas de un metro. Esta

señal, en otras palabras, tiene corrimiento hacia el rojo –está debilitada– y es

siempre la misma. Si uno espera ver el rastro de la bola de fuego primitiva,

165

que emitió luz hace 14,000 millones de años, uno no puede esperar ver la

luz, pues ésta, después de viajar a través de tan vastos espacios, se desvanece

Lo que la confirmación del big bang dió a los científicos fue más que

la sola historia del universo. Tal como la semilla predice al árbol y a sus

frutos, o tal como cualquier inicio puede determinar el fin, la teoría del big

bang, determina y predice muchas cosas acerca del destino de nuestro

universo. Pero, más importante para nosotros en este capítulo, es darnos

cuenta de que el big bang nos dice bastante acerca de la materia y las fuerzas

que la gobiernan. Primero y más importante, el escenario del big bang y sus

ecos, que podemos observar a través de nuestros telescopios73, nos informa

de los origenes de la materia. Para entender estos orígenes debemos echar un

vistazo, aunque sea muy superficial, a la cronología del universo, desde su

creación hasta por lo menos hace 4,500 millones de años. Esta última

“fecha”, marca la formación del Sol y los planetas. En consideración a la

continuidad, debemos presentar primero los hechos y después discutir su

importancia.

El evento de la creación ha sido discutido una y otra vez. Algunos

científicos argumentan que la mejor manera de entender el fenómeno es

usando, por el momento, el cero como notación. O sea, que antes de la

creación del universo no existía el tiempo ni el espacio. Algunos científicos

han mostrado su falta de entendimiento, no de las matemáticas, sino de sus

connotaciones, y han transpuesto su significado al de la nada. Esta

pretensión es por supuesto, absurda. El cero es uno de esos conceptos

perfectos cuyo valor semántico es demasiado ámplio para interpretarlo de un

73 De hecho, otra evidencia importante del inicio del universo es la captada por el satélite COBE que contempló “la superficie última de dispersión”, el momento en el que el universo se volvió transparente, 300,000 años después de su inicio.

166

solo modo, especialmente cuando su papel es sólo momentáneo. Mucho de

lo que sucedió entre el cero (momento de la creación) y 10-43 segundos o

tiempo de Planck, sigue siendo desconocido para nosotros y probablemente

será muy difícil de comprobar experimentalmente, pese a que tengamos cada

vez mayores y mejores aceleradores de partículas.74 Este inimaginablemente

pequeño lapso se conoce como época de Planck, al final de la cual, sabemos,

la radiación gravitacional se salió del equilibrio térmico del resto del

universo. A los 10-36 segundos el universo en un estado de falso vacío75

inició su época de inflación, un momento crucial que discutiremos más

tarde. Mientras tanto diremos que la palabra inflación significa exactamente

eso, que se infla. En esa época, el universo creció a tasas exponenciales, y

debe su vastedad a este crecimiento. La inflación fue, en terminos humanos,

literalmente imperceptible y termino a los 10-32 segundos

El fin de la inflación produjo un rompimiento de la fase de simetría76.

De todos los momentos que hemos señalado que le dan validez a las ideas de

Teilhard de Chardin acerca de la energía, éste parece ser el que más las

valida. De hecho, los tres estados que hemos discutido pueden ser la

verdadera confirmación de lo que permite a la teoría teilhardiana de la

evolución funcionar como tal, puesto que él puede moverse sobre el eje de

una sola energía, con diferentes y múltiples manifestaciones. Por lo tanto,

debemos entender la fluctuación cuántica que dió nacimiento al universo, a

la inflación y al rompimiento de la simetría.

74 Sin embargo, las nuevas teorías en proceso como la de la supercuerdas nos llevan a razonar estos eventos e intuitivamente podemos determinar su grado de certeza. 75 El estado de falso vacío, para los físicos, es un estado de equilibrio inestable de la energía en su más alta densidad. Así se inició el universo, con una burbuja de falso vacío.

167

El universo como lo conocemos debe haber nacido en el tiempo de

Planck,77 que es la medida de tiempo más pequeña que puede existir. La

semilla de tal universo sólo puede haber surgido de una fluctuación cuántica.

Como sucede con muchos aspectos de la teoría del quantum, las

fluctuaciones cuánticas desafían el sentido común, pero como hemos visto,

pese a la aparente falta de sentido, el mundo cuántico es mucho más preciso

en sus predicciones que la relatividad o el mundo clásico. Lo que sucede en

las fluctuaciones cuánticas es que de repente pueden aparecer partículas

energéticas, no de la nada, sino del vacío cuántico, que es el estado de la

energía en su mínima densidad. Estas partículas pueden ser bosones o

fermiones y desaparecen al transformarse en radiación en fracciones de

segundo. El modelo arquetípico del bosón, es el fotón; éstos no se conservan,

millones de ellos pueden crearse y de hecho son creados –a causa del cambio

de órbita energética de los electrones de un átomo– por ejemplo cuando

encendemos una bombilla y desaparecen al ser absorbidos por otros átomos.

Mientras que los bosones estan asociados a la transmisión de las fuerzas,78

los fermiones son las partículas que forman la materia.79 Cualquiera que sea

el tipo de partícula que aparezca, lo hace del vacío. Una cosa que es cierta es

que la cantidad de masa-energía con la que se creó el universo es tan grande,

que debe tender al infinito. Brevemente, lo que la mayoria de los físicos

76 Puede decirse, coloquialmente, que el rompimiento de la fase de simetria es como una separación de la energía primordial que era una unidad, en varias energias incluyendo el cambio de estado de alguna, espcíficamente para formar la materia. 77 El lapso temporal entre cero y el tiempo de planck, es en realidad infinito y esto lo podemos ver más claramente si hacemos un análisis racional de la paradoja de Aquiles y la tortuga, aunque esto sería entrar a un tema que no nos corresponde. 78 Otras caracteristicas de los bosones es que obedecen la estadística Bose-Einstein y tienen un spin integro (1,2 …) 79 Los fermiones obedecen la estadística Fermi–Dirac y tienen spin medio e integro y medio (1/2, 3/2,…)

168

argumentan es que antes de que la fluctuación cuántica diera origen al

universo, no había fuerzas diferenciadas como manifestaciónes de energía,

sino solamente masa-energía, o sea que lo que tenemos es algo inimaginable

fuera del mundo de las matemáticas. En un mundo extremadamente denso

donde los niveles de energía son tan altos, la materia no existia como la

conocemos ahora, sino que existia sólo como energía.

Entonces, las grandes teorías unificadas nos dicen, que bajo las

condiciones extremas que existían en el inicio del universo, todas las fuerzas

de la naturaleza estaban fundidas en una sola. En otras palabras, existía sólo

una fuerza universal. La fluctuación cuántica, sin embargo, perturbó el

balance de esta fuerza universal y la gravedad se desprendió de las demás

fuerzas, justo en el tiempo de Planck. Considerando la densidad de la

energía de una entidad como el universo de Planck, uno puede imaginar que

se deshace bajo su propio campo gravitacional. La teoría de los campos

cuánticos resuelve la paradoja. La inflación supone los campos escalares

como campos antigravitatorios, e implica que las fuerzas se separaran,

produciendo la expansión del universo. Para tener idea de la tasa

exponencial de su crecimiento en ese periodo (inflacionario) imagine el

lector, si es posible, algo tan pequeño como la punta de un alfiler, crecer en

un lapso inimaginablemente corto, al tamaño de la Tierra. Una vez que que

la inflación trabajó, que los campos escalares hicieron su trabajo,

desaparecieron. Lo que dejaron fue una bola de fuego del tamaño de una

toronja, a trillones de grados de temperatura, que contenía todo lo que llegó

a constituir nuestro universo material.

Para que la fluctuación cuántica y la inflación funcionen como

modelos de la génesis del universo, los físicos están de acuerdo en que uno

no puede pensar un universo naciente gobernado por las diferentes fuerzas,

169

ni aplicar la dicotomia energía-materia. Lo que nos piden pensar es que las

fuerzas, como las conocemos, deben verse como una especie de

manifestaciones de esa energía, actuando en un universo mucho menos

denso, energéticamente hablando. Si la cosmología cuántica confirma (sin

proponérselo, es claro) lo que Teilhard expuso, la pregunta, por supuesto, es:

¿hasta dónde podemos validar el argumento de que la energía no solamente

se separó en la gravedad y las fuerzas electromagnética y nucleares débil y

fuerte, sino también en otra forma? La ciencia nos es mucho menos útil aquí.

Sin embargo, el entendimiento del rompimiento de la simetría en el estado

primitivo del universo puede darnos una idea de cómo sucedió esto, y aun

puede darnos, si no suficiente evidencia, sí suficiente idea de cómo empezar

a buscar la evidencia de esta otra faceta de la energía.

La simetría es un concepto crucial en física. Las raices etimológicas

son griegas, apartir de sim, que significa llegar a unirse y es la misma raíz de

la cual derivamos la palabra sinfonia, y metrón, que significa medida. Por lo

que la palabra describe algo de igual medida o que se puede medir

igualmente. Simetría, sin embargo involucra más que la repetición de una

cantidad mensurable, o al menos así era para los griegos, quienes pensaban

que la repetición tenia que ser armoniosa y agradable. Los científicos,

aunque algo les preocupa el aspecto estético de la simetría, se han enfocado

principalmente en la primera definición de la palabra y piensan en la simetría

como una invariancia, una cantidad que no cambia en ninguna

transformación.

La mayoría de nosotros estamos familiarizados con la simetría a

través de sus manifestaciones visuales; sin embargo, en la historia del arte o

en la geometría elemental, reconocemos simetrías cuando dividimos

cualquier cosa en dos mitades y revisamos si una mitad se parece a la otra.

170

Las simetrías con las cuales los científicos tratan no son las geométricas

estables, sino las transicionales. Para entender las simetrías transicionales,

será suficiente ver las progresiones de las escalas que los músicos emplean.

Por ejemplo la sonata para piano No 53 de Haydn80 abre con cuatro notas,

mi, sol, si, mi, que se repiten en los primeros cuatro compases. De esta

manera, Haydn nos brinda una simetría fundamental. Cuando la sonata llega

al quinto compás, la figura se mueve una quinta arriba, es decir cinco notas

arriba, de mi a do (do, mi, sol, do)

mi fa sol la si do re mi

do re mi fa sol la si do

El tiempo es idéntico, los intervalos también lo son; así, al oír los

sonidos del piano, lo que experimentamos es una simetria transicional.

Este tipo de simetría se encuentra por todas partes en el arte y en la

naturaleza. Los patrones de la espiral del nautilus, en las piñas o en los

arreglos de las semillas de girasol, están representados por las series de

Fibonacci, que se obtienen por la operación aritmética en la cual cada unidad

subsecuente es igual a la suma de las dos unidades precedentes

(1,1,2,3,5,8,13…). La serie de Fibonacci es sola una de muchas simetrias

transicionales que describen o abstraen los fenomenos que encontramos en la

naturaleza. De hecho, cuando a principios de siglo los matemáticos

empezaron a estudiar el concepto de simetría más profundamente, se dieron

cuenta de que todas las leyes físicas, todas las leyes que gobiernan la

naturaleza implican una inherente simetría, porque son afirmaciones de una

80 Los lectores tienen que comprender nuestras referencias a música de concierto. No es pedantería, es solo que es en esa música donde se encuentran las analogías que tratamos de explicar. Si nos remitimos a la música actual, por ejemplo a una “cumbia norteña”, nos encontraremos con una monotonía y un monorritmo que no se presta para nuestro proposito.

171

invariancia de una medida o unidad fija. Sin embargo, como hemos visto,

cada ley requiere una explicación diferente, no hay una sola simetría, sino

muchas simetrías. La teoría de la supersimetría, junto con la de las

supercuerdas, son las que actualmente intentan encontrar una simetría

subyacente en las fuerzas de la naturaleza.

Estas teorías no necesariamente están en conflicto como mucha gente

cree. Aun cuando sus postulados difieren en muchos casos, ambas teorías,

dejando fuera el que contienden por el otorgamiento y aumento de fondos,

actualmente se dan cumplidos una a la otra. El problema, otra vez, es

institucional. Para continuar sus investigaciones, los científicos necesitan

fondos, tanto gubernamentale como académicos. Los comités que adjudican

esos fondos lo hacen de acuerdo con las etiquetas que están adheridas a esas

investigaciones; por consiguiente, las teorías no pueden adelantarse más allá

de donde se puedan comprobar. En otras palabras, los investigadores no

pueden deducir o tratar metafísicamente sus teorías a menos que tengan

mucho prestigio y publicidad. Entonces, aun cuando no se ajusten a las

reglas de la filosofía o saquen conclusiones erróneas de sus teorías, sí

pueden acceder a los fondos y difundir extensamente sus teorías.

En realidad la supersimetría no tiene la envergadura de las teoría de

las supercuerdas. La supersimetria sostiene que toda fuerza puede ser

integrada en la descripción geométrica de todo objeto a través de una gran

simetría. Como la teoría de las supercuerdas, la supersimetría supone que

esta simetría completa, esta gran simetría, está integrada a cada fuerza en los

estados de muy altas energías. En otras palabras, ambas teorías coinciden en

afirmar que, en los primeros instantes del universo, había una fuerza que

organizó todo, y las fuerzas de la naturaleza que ahora conocemos son

172

solamente consecuencias de la inflación, del enfriamiento y de la baja de

energía.

Si ambas teorías, que pretenden explicar el universo en su estado más

primitivo, sostienen que hubo un rompimiento de la simetría, entonces, ¿qué

supone el rompimiento de ésta? El fenómeno es fácil de visualizar y ocurre

todos los dias, cada vez que las cosas van mal o se vuelven confusas. Ocurre

en algo tan simple como el juego de los “palillos chinos”. Imagine unos

palillos delgados, agrupados por colores en un paquete cilíndrico antes de

iniciar el juego, los rojos al centro, a su alrededor los verdes, seguidos a su

vez por los anaranjados, azules, etc. Por otra parte todos los palillos son del

mismo tamaño y contribuyen a dar el grueso del cilindro. Si usted decide no

jugar, la simetría se puede conservar indefinidamente. Pero ese no es el

objeto: el asunto del juego es dejar caer el paquete de palillos desde una

cierta altura a una superficie plana, como una mesa. Hay un instante

infinitesimal en el que los palillos permanecen juntos, pero hay un instante

en que se vuelven un montón de palillos revueltos, cuando al golpear la

mesa pierden el patrón original.

Por siglos los físicos han intentado reunir los patrones que deben

haber quedado del paquete inicial. En otras palabras, las fuerzas y las leyes

que conocemos, son afines a dos o tres palillos rojos que están colocados

juntos o cerca de un anaranjado o azul. Es decir, los científicos han intentado

identificar la simetría profunda que está bajo la simetría rota. Como

cualquier intento de pegar un objeto roto sin haber conocido su figura o su

decoración, es una tarea intimidante.

La supersimetría ha pretendido realizar tal trabajo, aunque sin éxito

todavia. La teoría de las supercuerdas, teniendo las mismas ambiciones,

sigue el asunto más allá de donde la supersimetria lo deja, y puede, de

173

hecho, ser mucho más útil para encontrar otra fuerza, más fundamental que

las conocidas, en el funcionamiento de la materia y sus implicaciones en el

universo. Como hemos visto, el postulado básico de la teoría de las

supercuerdas es que nuestra concepción de las partículas elementales ha sido

mal entendido. La suposición básica, más claramente, es que las partículas

no son “puntos”, como primeramente los físicos las entendieron y como el

modelo estándar también lo supone, sino que son unas cuerdas con figura de

lazo (como una gasa o circuito cerrado). El principio aparentemente parece

simple; sin embargo, como en cualquier principio que involucra un completo

cambio de paradigma, las supercuerdas tienen que recurrir a la verdadera

esencia del lenguaje. El cambio de paradigma que se nos pide es similar al

que el universo copernicano demandó de las mentes medievales y el cual

todavia no está limpio en su lenguaje, lo que testifican frases como “la salida

del sol” y “la puesta del sol”. De manera similar, la teoría de las

supercuerdas nos pide llegar al fondo de la palabra “partícula”, que supone

un cuerpo, un punto, etc. y desprendernos de ella.

Como la supersimetría, las supercuerdas sostienen que el evento de la

creación destruyó la gran simetría que empaquetaba todas las fuerzas y les

daba igual medida. Lo que es convincente de la teoría es lo que hace con la

simetría rota. En lugar de tratar con una ensalada arbitraria de partículas con

spin, color y sabor, nos dice que tales partículas son sólo manifestaciones de

un patrón particular de vibración de cada cuerda fundamental. Lo que la

teoría supone, dicho en otra forma, es que el universo visible está compuesto

no solamente de cuerdas tensas, sino que están tensadas y se comportan en

forma similar a las cuerdas de un violín, un piano o una guitarra. Como en el

instrumento musical, las cuerdas, que antes pensabamos como partículas,

están en constante vibración, como la vibración que produce una nota

174

distintiva en el piano y que está determinada por la tensión, la longitud de la

cuerda y el patrón de vibración. Tal como el do medio en el piano resuena

justo así por la específica tension que el afinador le da a la cuerda, el do alto

depende también de la tensión y de cómo la tensión determina la vibración.

Entonces, en la teoría de las supercuerdas, la vibración y la tensión

finalmente determinaran la manera en la que nuestros instrumentos de

medición –como los acleradores o supercolisionadores de partículas–

interpreten las cuerdas como unas partículas. En otras palabras, lo que

llamamos partículas son solamente manifestaciones de una vibración; como

las notas, son las consecuencias de la energía, que ha cambiado de estado

durante su tavesía en el espacio-tiempo.

La teoría de las supercuerdas soluciona varios callejones sin salida de

la física. El más importante es ligar el –al parecer insalvable– hueco entre la

mecánica cuántica y la relatividad.81 Como sostiene el físico Brian Greene,

uno de sus más elocuentes partidarios:

The unified framework that string theory presents is compelling. But its real

attraction is the ability to ameliorate the hostilities between the gravitational

force and quantum mechanics. Recall that the general problem in merging

general relativity and quantum mechanics turns up when the central tenet of

the former – that space and time constitute a smoothly curving geometrical

structure – confronts the essential feature of the latter – that everything in the

universe, including the fabric of space and time undergoes quantum

fluctuations that become increasingly turbulent when probed on smaller and

smaller distant scales. On sub-Plank scale distances, the quantum undulations

are so violent that they destroy the notion of a smoothly curving geometrical

space; this means that general relativity breaks down.

81 La relatividad de escala postulada en la década de los 90, pretende también haber resuelto el problema.

175

String theory softens the violent quantum undulations by “smearing” out the

short-distance properties of space.

La teoría de las supercuerdas no sólo intenta resolver el callejón sin

salida entre la relatividad y la mecánica cuántica. Argumentando que la

materia no está constituida de “partículas”, sino que lo que conocemos por

partículas son sólo la manifestación de una vibración de las cuerdas, apunta

en la dirección hacia la cual las indagaciones científicas deberán moverse si

la teoría prueba ser correcta. Creemos que ésta dirección es la más

teilhardiana visión de la materia y del universo.

Permítasenos explicar. Si la materia no está constituida por partículas

“materiales”, sino por partículas que son las manifestaciones de la vibración

de cuerdas infinitesimales, entonces se sigue que, como cualquier cuerda en

el macromundo, cada una de esas cuerdas puede ejecutar un número que

tiende al infinito, de patrones vibracionales. Si cada patrón vibracional

determina una “partícula” elemental que se puede manifestar, entonces ¿por

qué el modelo estándar no contiene una secuencia sin fin de partículas

elementales?

En otras palabras, si la teoría de las supercuerdas es correcta, cada

vibración corresponde a una partícula elemental, y si cada cuerda puede

vibrar en una variedad de modos que tiende al infinito, entonces deberíamos

tener un número de partículas elementales que tendiera al infinito. ¿Por qué

no sucede ésto? ¿Por qué tenemos solamente las partículas elementales que

el modelo estándar señala?

Como antes dijimos, en uno de sus ensayos Teilhard de Chardin

visualiza la fuerza radial como unos resortes que se extienden desde el

centro de una esfera y vibran, no aleatoriamente, sino determinados por su

176

relación con la esfera que los mantiene unidos a la vibración de los demás

resortes. Para Teilhard de Chardin la fuerza radial trabaja como un monitor

que ajusta las otras fuerzas. La teoría de las supercuerdas, como la ciencia,

timida como siempre, no va tan lejos. Sin embargo, ironicamente, la

supercuerdas nos dice por qué, pese a la posibilidad, no existe un número

casi infinito de vibraciónes produciendo un igual número de partículas

elementales: las cuerdas deben tensarse tanto, que sólo unos pocos de estos

patrones vibracionales pueden corresponder a las partículas extremadamente

pesadas que podemos detectar. Dicho de otro modo, las cuerdas, como las

cuerdas de un piano, no vibran aleatoriamente y aunque, como las cuerdas

del piano, pueden producir una gran cantidad de rángos de tonos, la tensión a

la que se afinan evita que produzcan sonidos fuera de tono.

La física, por supuesto, no habla de un tono universal. No hay ningun

teórico de las supercuerdas corriendo a desempolvar las ideas de Teilhard

para ver si sus descubrimientos coinciden con ellas. A pesar de todo, la

teoría de las supercuerdas, hasta donde ha sido probada, determina que algo

regula la tensión de las cuerdas, algo, que después del rompimiento de la

simetria y al empezar a funcionar las fuerzas, permite sólo a un número

limitado de partículas elementales comportarse de cierta, simetrica, manera,

bajo la influencia de dichas fuerzas. Más aun, como para dar más validez a la

visión teilhardiana de la esfera, los científicos tienen que visualizar algo

como un invisible “estabilizador” que controle la tensión de cada cuerda.

Teilhard de Chardin imaginó tal cosa, sin embargo, para dar crédito a

quien el crédito merece, la física actual lo ha formulado con gran precisión.

De hecho, para Teilhard de Chardin lo anterior fue una visión y una

deducción para la cual no tenía pruebas. Claro que él nunca las necesitó, o al

menos eso pensó, puesto que para él, la prueba de la existencia de la fuerza

177

radial, de una energía que sintonizando el comportamiento de las partículas

y las fuerzas determine sus resultados, está en el cosmos mismo, en su

historia. Si el vió un “estabilizador” de la sintonía en el universo, fue en el

macromundo segun se desarrolla, por lo que en el siguiente capítulo veremos

el cosmos y su historia, intentando obtener las instrucciones para un cosmos

que evoluciona.

Pero antes de esto tenemos que tratar de explicar otra consecuencia de

la teoría de las supercuerdas que es el hecho de que a cada partícula

elemental, corresponde en el plano de diez (o más) dimensiones, una

metapartícula, que es su conocimiento o sea la capacidad para recibir y

transmitir una información que portan las fuerzas fundamentales y que son

contituyentes de la energía radial

Cuando las partículas elementales se unen lo hacen a costa de un gasto

energético, de modo que la metapartícula aumenta su conocimiento. Es

decir, surge una nueva ley para regular el funcionamiento de la nueva

partícula.

178

8

LA EVOLUCIÓN CÓSMICA: UN MODELO

It is interesting to contemplate an entangled bank, clothed with many

plants of many kinds, with birds singing on the bushes, with various insects

fitting about and with worms crawling through the damp earth, and to

reflect that these elaborately constructed forms, so different from each other,

and dependent on each other in so complex a manner, have all been

produced by laws acting around us. These laws, taken in the largest sense,

being Growth with Reproduction; Inheritance, which is almost implied with

Reproduction; Variability from the indirect and direct action of external

conditions of life, and from use and disuse; a Ratio of Increase so high as to

lead to a Struggle for Life, and as a consequence to Natural Selection,

entailing Divergence of Character and the Extinction of less-improved

forms. Thus, from the war of nature, from famine and death , the most

exalted object which we are capable of conceiving, namely, the production

of higher animals directly follows. There is grandeur in this view of life, with

its several powers, having been originally breathed into a few forms or into

one; and that, whilst this planet has gone cycling on according to the fixed

law of gravity, from so simple a beginning endless forms most beautiful and

most wonderful have been, and are being, evolved.

“Es interesante contemplar un enmarañado ribazo cubierto por

muchas plantas de varias clases, con aves que cantan en los arbustos,

con diferentes insectos que revolotean y con gusanos que se arrastran

entre la tierra húmeda, y reflexionar que estas formas,

primorosamente construidas, tan diferentes entre sí, y que dependen

179

mutuamente de modos tan complejos, han sido producidas por leyes

que obran a nuestro alrededor. Estas leyes, tomadas en un sentido más

amplio, son: la de crecimiento con reproducción; la de herencia, que

casi está implícita en la de reproducción; la de variación por la acción

directa e indirecta de las condiciones de vida y por el uso y desuso;

una razón del aumento, tan elevada, tan grande, que conduce a una

lucha por la vida, y como consecuencia a la selección natural, que

determina la divergencia de caracteres y la extinción de las formas

menos perfeccionadas. Así, la cosa más elevada que somos capaces de

concebir, o sea, la producción de los animales superiores, resulta

directamente de la guerra, del hambre y de la muerte. Hay

grandiosidad en esta concepción de que la vida, con sus diferentes

fuerzas, ha sido alentada en un corto número de formas o en una sola,

y que, mientras este planeta ha ido girando segun la constante ley de

la gravitación, se han desarrollado y se estan desarrollando, a partir de

un principio tan sencillo, infinidad de formas las más bellas y

maravillosas.”

Hemos transcrito en su totalidad el último párrafo de El orígen de las

especies de Darwin,82 porque no sólo contiene, para decirlo brevemente, la

estructura desnuda de la teoría de la evolución, señalando los principios de la

herencia y la variación, así como el eje de la teoría de la selección natural,

sino porque, viniendo del hombre que planteó la teoría de la evolución, es

una de las pocas instancias, donde usa la palabra desarrollandose (evolved,

82 En realidad se ha transcrito en inglés y en español porque de esta manera podemos apreciar cómo una traducción, por muy cuidadosa que sea, difícilmente refleja con precisión el pensamiento original del autor.Los comentarios, pues, estan referidos a la versión original en inglés que se titula On the Origin of Species by means of Natural Selección, John Murray, Londres, 1859.

180

en inglés) en un contexto extraño. La palabra llega en el mero final del libro.

De hecho, es la última palabra en la versión original del libro, y Darwin no

la usó como nombre, sino como participio pasado (evolved) en una

construcción verbal, no sólo para hacer valer, con destreza y de manera

menos polémica, que este proceso había sucedido, sino también para

implicar que seguia sucediendo. Es muy sorprendente que a la vez que

Darwin utiliza el término, su tono es el más reverencial. Menciona los

“objetos exaltados” y “la grandiosidad” (grandeur). Pero más que

reverencial, el párrafo ha sido siempre perturbador. Allí hay más que

ambiguedad, hay también mucho más que simple reverencia de parte de

Darwin. Pero para empezar con lo último, analicemos que es lo que con esa

frase explicativa que empieza con “mientras” y termina con “gravitación”,

trata de lograr. Como dando la vuelta, Darwin se las arregla para colocar su

teoría y colocarse a sí mismo, codo a codo con la teoría de la gravitación, y

es que está consciente de la importancia de su trabajo. De manera bastante

discreta se las ingenia para recordarnos lo que constituía la revolución

científica más influyente anterior a la evolución.

Sin embargo, la frase no sólo introduce o eleva la teoría de la

evolución al mismo nivel que el descubrimiento de Newton. Darwin está

incierto de la cantidad de tiempo que la evolución requiere para actuar, pero

sabe que necesita mucho. Así que para recordarnos el cosmos newtoniano,

ese verdadero símbolo de la exactitud, él evoca una especie de línea del

tiempo, un tipo de cronología que encaja en el proceso de la evolución. Sin

embargo, hay algo más perturbador. Durante todo el libro, Darwin ha estado

tratando con la herencia, con la variación, con la lucha por la vida y con la

selección natural, ha estado dando ejemplos tomados de criadores y de

trabajadores del campo. Para decirlo de otra manera, él ha estado con los

181

ojos fijos en lo pequeño, pájaros, gusanos y toda la diminuta red de formas

del planeta. ¿Entonces por qué una vez que ha explicado la teoría, una vez

que está configurada, olvidarse del mundo terrestre que tan bien exploró y

enfocarse en las estrellas? Nunca tendremos una respuesta precisa a esto.

Pero podemos conjeturar. Teniendo el bosquejo de una historia que es

inconcebiblemente larga, teniendo trazado el proceso que tomó miles de

millones de años para desarrollarse y que, supuestamente, tomará otros

tantos para concluir, debió estar consciente, pensamos, de que nuestra

historia, la historia de la evolución, tenía que ser sólo un fragmento de un

proceso más largo. Él debió haber creido que la evolución no era un proceso

relegado sólo a la Tierra, pero lo puso en un contexto terrestre, un planeta

que gira en el vasto espacio y, haciendo esto, puso al espacio en el mismo

continuum evolutivo. Entretejió, en otras palabras, la evolución como pudo

ser trazada en este planeta, con las viejas leyendas de la evolución cósmica.

El Darwin en su modo más elevado, más perturbador y especulativo,

no es el Darwin que a los científicos realmente les gusta, ellos prefieren al

Darwin compilador como científico naturalista, apuntando observación tras

observación en sus trabajos de campo. Ambos Darwin son reconciliables, y

mediante su trabajo de campo, bien pudo no haber llegado a la teoría de la

evolución si no hubiera sido un escritor perturbador y especulativo. La

pregunta que surgiría hoy dia, por supuesto, es: ¿estaba Darwin en lo

correcto?

Por lo pronto, debemos retomar, desde donde lo dejamos, el proceso

del rompimiento de la simetría que tuvo lugar durante el big bang y ver

cómo los científicos la han interpretado y cómo podrían interpretarla si sólo

cambiaran los paradigmas que usan. Podemos, por supuesto, razonar que sí,

que Darwin estaba en lo correcto y que no fue mera arrogancia colocar su

182

teoría al lado de la teoría que había sido la más eficiente y congruente para

explicar el cosmos.

El rompimiento de la simetría que discutimos en el capítulo previo ha

sido interpretada por algunos filósofos y los divulgadores de la ciencia, así

como por muchos científicos, como la prueba de que el universo es el

trabajo de la casualidad y de lo hecho al azar, prueba, brevemente, de que no

sólo el universo, sino nuestra misma vida es el resultado de un “cara o cruz”

que irrumpió alegremente de una fluctuación cuántica. La razón de esta

creencia se desprende en muchas maneras, del hecho de observar

unicamente en el contexto de la física de partículas, de ver solamente a

través de la lupa de la teoría de las supercuerdas, de creer que el proceso del

rompimiento de la simetría es solamente un fenómeno con una cadena de

causalidad anterior, pero sin ninguna consecuencia. Las palabras operativas

aquí, son por supuesto, causalidad y consecuencia. Cualquier actividad en

este universo inicia una cadena de causalidad. Somos parte de los resultados

de la cadena de causalidad. Los embotellamientos del tráfico que padecen

los habitantes de las grandes ciudades casi diariamente son un buen ejemplo

de lo que una cadena de causalidad es. Para explicarla, tenemos que

remitirnos a los planificadores de la ciudad y al porqué de sus decisiones, así

como a las decisiones que los malos conductores toman. El hecho de que

uno termine medio estacionado por varias horas, en muchas ocasiones está

causado, entre otras, por las decisiones de los urbanistas y de los malos

conductores. Para la mayoría, estos embotellamientos son sólo rutina, parte

de la vida diaria y difícilmente una consecuencia de ella. Enfurecidos

mientras estamos atrapados en ellos, rabiando porque llegamos tarde a casa

desde el trabajo, el asunto es olvidado rápidamente al reasumir nuestras

diarias actividades. Sin embargo, la naturaleza “molesta pero inocua” de los

183

embotellamientos, siempre ha tenido el potencial de llegar a ser no

solamente molesta, sino nociva. Imaginemos por ejemplo, que un mal

conductor choca provocando que se cierren dos carriles de la calzada y

llevando el tráfico a una paralización el dia que vamos a cerrar un

importante negocio o a una entrevista de trabajo. No solamente podríamos

llegar tarde, podríamos no llegar. Los embotellamientos del tráfico, desde

este escenario, provocan una consecuencia. En otras palabras, algo de

importancia ocurre o deja de ocurrir por ello.

La mayoría de la gente está consciente de este señalamiento. Después

de todo, los embotellamientos son parte de nuestra diaria experiencia, y para

prevenir que la causalidad se vuelva consecuencia, a menudo consideramos

el tráfico cuando planeamos. Sin embargo, cuando esto se traduce a datos

científicos, es más difícil valorar si una pieza de información como el

fenómeno del rompimiento de la simetría, que ocurrió durante el big bang,

sólo desencadenó una cadena de causalidad o si tuvo consecuencias. Parte

del problema tiene que ver con la tendencia casi innata de los científicos a

evadir la generalización y el pensamiento determinista. Si uno le explicara el

proceso de rompimiento de la simetría a mucha gente, y después les

mostrara cómo sin él, ni el planeta ni nosotros estuvieramos aquí, la mayoría

de esa gente estaría de acuerdo en que el proceso de rompimiento de la

simetría tuvo tremendas consecuencias. Para los científicos, el enmarcarnos

en el argumento cae en el antropocentrismo, y ellos creen que fue el

antropocentrismo lo que en el pasado impidió el progreso científico. En

parte tienen razón y en parte están equivocados. Están muy equivocados

cuando sostienen que el proceso de rompimiento de la simetria fue un

accidente que desató una cadena de causalidad. El azar y el accidente

siempre tienen un rol en las cosas, su presencia es innegable y bastante

184

evidente en nuestro diario existir. Así que nadie puede negar el hecho de que

muchas cosas en este mundo no sólo están sujetas al azar, sino que le deben

su existencia. A pesar de todo, el pasar de concederle un papel importante al

azar en el universo, a sostener que porque ciertos aspectos de la creación

puedan deberse al azar, el universo entero es aleatorio, es un paso en falso,

lógico y epistemológico. Como el antropocentrismo al que tanto temen, lo

científicos privilegian un elemento sobre el otro y se ciegan a una visión más

amplia.

Así que ¿cómo vamos a imaginarnos o a valorar las consecuencias de

una acción o evento como el proceso del rompimiento de la simetría? De la

misma manera que vemos consecuencias en los embotellamientos del tráfico

cuando los filtramos a través de la perspectiva de una entrevista o un

negocio perdidos. Los filtramos, los ponemos en perspectiva, ¿y qué

perspectiva nos revelará las consecuencias de tal accidente? Todas las ramas

de la ciencia consideran la indeterminación y el accidente, puesto que su

papel es predecir. Sólo la evolución los ha sistematizado, los ha entendido e

integrado. Para los cosmólogos y los físicos de partículas, los eventos

anormales, el accidente y los saltos cuánticos son solamente interesantes en

tanto revelan un sistema y un orden interno, una recurrencia. Para que la

evolución funcione como una sostenible teoría científica, los biólogos

evolucionistas necesitan de lo anormal, del accidente, o para usar los propios

términos de Darwin, de lo monstruoso.

Así, el sostener que el universo está sujeto a las leyes de la evolución,

es anatema para muchos científicos. De hecho, el pretender dar a la

evolución un campo de aplicación más amplio que el biológico, es visto

inmediatamente como pretender volver a un positivismo científico del siglo

XIX. Los cosmólogos encuentan la evolución un poco más confortable,

185

menos inquietante a su modo de pensar, en miles de millones de años de

historia cósmica, como un deslizarse hacia el fondo de un basurero

entrópico, en lugar de imaginarse a los planetas, las estrellas, los átomos las

galaxias y los seres vivientes, como el producto de una evolución. Las

razones que están detrás de esta resistencia a tal interpretación o aplicación

de la evolución al tema de la cosmología y en general al de la materia

inorgánica, son varias. Algunas están matizadas por esa tendencia nihilista

postmodernista que hemos discutido en capítulos previos, postura que está

acorde con su pesimismo. Otras razones tienen un criticismo válido que

debemos señalar.

La principal de ellas funciona como sigue: la evolución ciertamente ha

moldeado la vida en la Tierra –argumentan estos pensadores–; sin embargo,

cuando uno aplica la idea de la evolución al cosmos, no está siendo literal, y

la ciencia no puede trabajar con metáforas. Lo que ellos temen, o más bien,

lo que ellos se preguntan, es si la evolución y la cosmología deben

actualmente encontrarse y, si es así, deben hacerlo con una base sistemática.

Estas dudas críticas son reales e importantes, puesto que su consignación se

debe a una mala interpretación de la evolución. Ellos están en lo correcto, y

lo que pretenden es que la declaración sea demostrada y que la evolución no

debe ser entendida como un mero cambio. ¿Como podemos probar que la

evolución realmente sucedió y está sucediendo en el universo? Antes de

empezar a buscar una evidencia de la evolución cósmica, refresquemos

brevemente nuestra memoria regresando al primer capítulo, donde hablamos

de los tres principios de la evolución, y después intentemos ver cómo esos

principios parecen encajar bien y explicar varios estados de la historia

cósmica.

186

De esta manera, como vimos, lo que los biólogos llaman evolución es

la aplicación de estos tres principios a los cambios de los organismos

vivientes. El primer principio es el de conservación. Por conservación, los

biólogos etiquetan el fenómeno de la herencia en su significado más

profundo. Hasta donde tienen que ver las especies, lo que las define como

tales es el principio de conservación, el hecho de que haya un conjunto de

características que pasan y permanecen de los progenitores a su prole. En el

mundo orgánico, el principio de conservación es tan fuerte que los

embriólogos nos han mostrado cómo los embriones humanos desarrollan en

una etapa, agallas, recuerdo de los antecesores “peces”, que luego se

transforman en pulmones. De igual manera, también construyen y destruyen

buena parte del tejido cerebral en un proceso llamado “escultura neural”.

El segundo principio de la evolución es la antítesis de la conservación:

la innovación. Muchos han interpretado mal la teoría y la han visto sólo

como un progreso o un mero cambio que se ha enfocado en la innovación

misma, aunque para los biólogos esta innovación es semánticamente

diferente a la que nos referimos cuando hablamos de tecnología. Mientras

que la innovación en la tecnología implica un intento de aerodinamizar

herramientas que tienden a ser más eficientes y poderosas, en biología

significa el hecho de que la molécula de ADN resulta alterada mediante

cambios internos producidos por sucesivas mutaciones que heredarán los

descendientes. Estas mutaciones constituyen la amenaza o la

“monstruosidad” de la que la evolución depende. Como el rompimiento de

la simetría, las mutaciones surgen al azar. Sin embargo, la evolución asimila

estos accidentes en un esquema más amplio, en un modelo mayor.

Y en el centro de este modelo mayor, actuando como el eje entre los

dos principios anteriores opuestos, está el principio de la selección. La

187

conservación, por sí sola, apunta al estancamiento; sumada a la innovación,

nos conduce a cambios ciegos, a la casualidad. El meollo de la evolución

está en la adición de la selección. Darwin llegó al principio de la selección

después de leer a Thomas Malthus, pues se dió cuenta de que las especies se

reproducen a una tasa mayor que la que su ambiente puede soportar. En otras

palabras, los seres vivos tienden a reproducirse tan aprisa y en la mayor

cantidad que puedan y el único mecanismo para controlar esta reproducción

es el agotamiento de los recursos. Los individuos compiten por estos

recursos y algunos compiten lo suficiente como para llegar a reproducirse,

mientras que otros, menos aptos, mueren antes de alcanzar la edad necesaria

para ello. Puesto que los individuos que sobreviven son producto de la

innovación y la conservación, a su vez engendran su descendencia, la cual

preservará su información genética. Como la innovación surge de su éxito en

la interacción con el medio ambiente, éste determina si la innovación es

aprobada o no.

Cuando los críticos de arte, por ejemplo, usan el término evolución

para indicar ciertos cambios en los trabajos artísticos, lo están tomando

prestado de la ciencia. Pero este préstamo lo usan en forma metafórica. El

arte realmente no evoluciona. Claro que hay y ha habido principios

conservativos en el mundo del arte, pero pensamos en estos principios bajo

la sola rúbrica de la tradición. También existen innovaciones, sin embargo,

que no son debidas al azar, sino que estan determinadas por la individualidad

de un artista, el medio, las circunstancias históricas, o por lo menos reflejan

el respaldo o antecedentes culturales que influenciaron al artista. Más aún,

estos cambios no se acumulan para crear una especie totalmente diferente. El

arte tiene la misma función y propósito que tenía en el Renacimiento. Y más

188

allá de invocar fuerzas de mercado, no podemos hablar de principios de

selección en el mundo del arte.

Ésta es la clase de aplicación de la teoría de la evolución que los

científicos han rechazado, por lo que que si pretendemos hablar de una

evolución cósmica, debemos tener la certeza de que los tres principios

evolutivos funcionan en la historia del cosmos. ¿Podemos, en otras palabras,

decir que el universo nos ha dado la prueba de que no está solamente

gobernado por las fuerzas que hemos discutido, sino que estas fuerzas están

a su vez sujetas a los principios conservativos, innovativos y selectivos de la

evolución?

La respuesta de Teilhard de Chardin es un categórico sí, lo que para

muchos supone la mayor falla de sus ideas. Nosotros creemos que, a pesar

de todo, Teilhard está en lo correcto, y que no sólo hay más que suficiente

evidencia de que los tres principios de la evolución actúan en el cosmos,

sino que si accedemos a cambiar nuestro paradigma un poco, no solamente

entenderemos la perspectiva de Teilhard de Chardin, sino que también

podríamos empezar a redirigir el propósito de las investigaciones científicas,

de la misma manera que toda revolución científica lo ha hecho.

El cambio de paradigma es bastante simple. Si tomamos los registros

y la explicación de fenómenos específicos como el propósito de la ciencia,

terminaríamos con una ciencia que considera la causalidad y evita tratar con

consecuencias. Lo que actualmente tenemos en la mayor parte del trabajo

científico es un calcular o llevar las cuentas, sin un intento de darle un

significado. Como cualquier amante de la música o cualquier entusiasta de

las artes –que son las más significativas de las tentativas humanas– sabe, el

significado en cualquiera de ellas no es tanto un asunto de contenido como

de forma. Sin tratar de prolongar demasiado la analogía, podemos sostener

189

que la investigación científica está basada en contenidos y sólo las nuevas

ramas de las matemáticas se relacionarán con el aspecto formal. Aclaremos

un poco. La física de partículas, que reune colores, sabores, espines y trazas

de partículas para descubrir otras partículas, la cosmología que relaciona

fenómenos y cuerpos celestes, la biología que hace el escrutinio del genoma,

son todas ciencias que están tratando con lo que nos hemos referido como

contenido. Si el proyecto del genoma humano es, como se vea, indicativo de

esta tendencia, lo que tenemos son ciencias que, en lugar de ser predictivas,

han llegado a ser nuevas taxonomías, ciencias que son una vez más

solamente descriptivas. La biología, sin embargo, parece estar un paso

adelante en el juego. La razón es principalmente histórica. Lo que el

proyecto del genoma está haciendo es llevar la cuenta o describir el

contenido de la molécula de ADN. A diferencia de los físicos de partículas y

de los cosmólogos, los biólogos iniciaron la relación después de que

descubrieron la forma, la estructura de la molécula de AND, y por

consiguiente el significado o función de la molécula. Lo que necesitamos es

una ciencia formalista, ¿pero qué supone esto? A diferencia del contenido

que tiene propósitos semánticos significativos, pero que también puede tener

ruido semántico, lo que elegimos para referirnos como forma son realmente

las estrategias83 que la naturaleza impone a través del tiempo.

Esta última definición no es simple. No obstante, es importante y

antes de continuar con la evolución cósmica, debemos ver lo que significa.

Como ya se dijo, las grandes revoluciones científicas por lo común hacen

más que elaborar un nuevo concepto, cambian los paradigmas con los cuales

vivimos. Después de la revolución copernicana, ninguna otra perturbó más

83 Estrategia: en un proceso regulable, el conjunto de las reglas que aseguran una decisión óptima en cada momento.

190

nuestra manera de pensar que la de Darwin, y mientras que la mayoría de la

gente cree que Darwin cambió nuestros paradigmas colocándonos en la

misma linea de descendencia que los primates, el concepto verdadero y más

difícil de asimilar es el que la teoría implica acerca del tiempo y del mundo

en que vivimos. La mayor parte de la ciencia y de la filosofía

predarwinianas, consideraban el tiempo como una especie de maquillaje,

puesto que el universo y todo en él era estático. Por supuesto que los

pensadores y los legos percibian cambios; sin embargo, no pensaban que los

grandes o pequeños cambios equivalieran a algo. La teoría de la evolución

de Darwin no sólo sostenía, sino que necesitaba que la Tierra fuera mucho

más antigua que lo que cualquiera hubiera pensado. Unas pocas formas de

vida originales, para diversificarse en los millones de especies que se

encuentran actualmente en la Tierra, requirieron cientos de millones de años.

Aun cuando Darwin no tuvo en su tiempo los registros geológicos que

soportaran su teoría, ésta seguía siendo radical al identificar un mecanismo,

una estrategia por medio de la cual la naturaleza tanto preservaba como

cambiaba las características innatas de la especie. En otras palabras, la

evolución, barajando sus tres principios –conservación, innovación y

selección– es una estrategia impuesta sobre el tiempo.

Quién o qué impone la estructura, será la cuestión con la que

trataremos el siguiente capítulo. Por ahora debemos continuar para definir

cómo una ciencia formalista es o debe ser radicalmente diferente a una

ciencia basada en el contenido. Como hemos visto a lo largo del libro, los

cosmólogos tratan con enormes cantidades de tiempo, mucho más vastas que

aquéllas con las cuales los biólogos evolucionistas tratan. Por otro lado, sus

contrapartes, los físicos de partículas, tratan con lo más diminuto, con

cantidades que para nosotros son inimaginablemente pequeñas, si bien tanto

191

los cosmólogos como los físicos de partículas se enfocan en un su mayor

parte en un solo asunto, el explicar fenómenos individuales. Sus ciencias, en

otras palabras, sólo tratan con momentos aislados en el tiempo. Aun los

astrofísicos, cuyos métodos parecen tan históricos como la evolución

(después de todo las galaxias y quásares que los astrónomos observan son de

muchas maneras los registros fósiles del universo), se enfocan

principalmente en momentos aislados, si bien en momentos cósmicos. Sí, a

menudo obtenemos una crónica del universo, pero como hemos

argumentado, más que una historia, es una cadena de causalidad.

El problema central para los físicos, si fueran a hacer la tentativa de

cambiar la naturaleza de sus trabajos basada en el contenido y reenfocarse en

el problema formal, es que el modelo “matemático” que la evolución ha

empleado las más de las veces para calcular los cambios a través del tiempo,

no es precisamente el suficiente para el tipo de cálculo exacto que se tiene

que hacer cuando uno trata con millonésimas de segundo. Las matemáticas,

por supuesto, han estado de muchas maneras en la vanguardia de la

invetigación científica. Con esto no queremos decir que los matemáticos se

ponen la bata de laboratorio con frecuencia para trabajar con la ciencia

experimental, aunque algunos sí lo hagan. No, las matemáticas han estado a

la vanguardia porque muchos de sus modelos, que han sido cruciales para el

progreso científico, ya estaban bien establecidos para cuando algún

científico llegó y trató de aplicarlos a la realidad. En otras palabras, las

matemáticas existen antes de ser explicadas. Un buen ejemplo es el de

Einstein, que llegó a escena cuando las reglas de la geometría de cuatro

dimensiones había ya sido trabajada por Bernhard Riemann y János Bolyai.

Este tema de la geometría de cuatro dimensiones permanece considerado

como de los más difíciles y misteriosos.

192

Einstein realmente luchó para entender las matemáticas. Sin embargo,

al adoptar el modelo pudo comprobar la simiente de la teoría de la

relatividad general. Existe por supuesto un sentimiento de retraso en la

cultura y los científicos no están inmunes a él. En las conferencias

académicas hay a menudo lamentaciones por el hecho de que el ambiente

intelectual que favoreció a los Einsteins y Bohrs ha desaparecido. Se fue la

rígida academia de las universidades alemanas que prepararon a la que quizá

haya sido una de las más notables generaciones. Se fueron también las ideas

acumuladas que flotaban en el aire y que resultaron las más fértiles, cuando

luminaria tras luminaria parecian tomar la esencia de ésta o aquella idea y

transformar la manera en que entendiamos el mundo. Asi que hagamos la

pregunta: ¿existe un modelo matemático que los físicos puedan adoptar, para

que pudieran cambiar hacia una manera más formalista de hacer la ciencia?

A partir de la mitad de la década de los años setenta y principio de los

ochenta, los mundos de las finanzas, de la meteorología y de la ecología han

sido radicalmente transformados a medida que las matemáticas del caos y

los fractales han empezado a filtrarse en sus estudios. El caos, la ciencia más

elaborada de ambas, trata con lo que los científicos llaman comportamiento

caótico. El comportamiento caótico es propio de los sistemas –como el

clima, el mercado de valores o un ecosistema– cuyo comportamiento no es

lineal y un pequeño cambio en las condiciones iniciales del experimento

tiene una gran influencia en los resultados. El caos es de muchas maneras el

verdadero estudio de las consecuencias.

Tratemos de explicar con una analogía más elaborada. Lo elaborado

se debe principalmente a que los conceptos no son fáciles. Pero de cualquier

manera, imagínese que tenemos una cámara fotográfica en la que el visor de

imagen y la lente no son uno o el mismo, por lo que existe una discrepancia,

193

aun cuando pequeña, entre lo que vemos y lo que la lente captura. La cámara

y el objeto a fotografiar forman en este caso un sistema lineal porque existen

“errores” predictivos, que pueden tomarse en cuenta desde un principio. Asi

que si estamos tratando de hacer un acercamiento, digamos, de un florero,

todo lo que tenemos que hacer es tomar en consideración la discrepancia, es

decir, ajustar de inicio. Nuestro sistema, que incluye el visor de imagen, los

lentes de la camara y el florero, son bastante predecibles. Pero si salimos del

estudio y en vez de fotografiar un florero decidimos tomar fotos de gente

caminando en la calle, aunque estemos conscientes de los “errores

predictivos”, tan pronto la gente se empiece a mover dentro y fuera de foco y

las nubes permitan una mayor o menor luminosidad, estaremos tratando con

un sistema caótico. Muchas de las condiciones iniciales habrán cambiado y

no seran predictivas, así que las fotos que logremos pudieran no ser las que

esperábamos, aún tomando en cuenta los errores predictivos.

La característica fundamental de los sistemas caóticos es que si a dos

sistemas idénticos se les dan “giros” ligeramente diferentes, se tornan

exponencialmente divergentes. Finalmente, lo que el caos, como modelo

matemático, permite a los científicos es poder considerar un sistema, no

como un fenómeno aislado, sino como un proceso que se desenvuelve en el

tiempo. De ahí el éxito del caos para trabajar con el mercado de valores, el

clima o los ecosistemas. ¿Cómo funciona el caos? En lugar de intentar

predecir las condiciones finales de un sistema, el caos modela el

desenvolvimiento del sistema varias veces cambiando muy poco sus

condiciones, para predecir un resultado. El meteorólogo, por ejemplo,

“corre” en la computadora una simulación que empieza con las condiciones

del dia de hoy. Puesto que está tratando de predecir el clima de pasado

mañana, debe dejar que la simulación se desarrolle durante esos dos dias. A

194

menudo los resultados serán bastante divergentes. El clima, después de todo,

es uno de los sistemas más caóticos, es decir, uno de los más sensibles a los

cambios por más insignificante que éstos sean. Su predicción, por

consiguiente, está basada no en el tipo de divergencias que se encuentran,

sino en los lugares donde las diferentes simulaciones concurren. Los

corredores de bolsa siguen un proceso similar con el mercado, para obtener

gráficas que revelen los cambios a la alta o a la baja. Los ecólogos también

usan diferentes modelos de ejemplos de ecosistemas e intentan predecir el

crecimiento de las poblaciones y la merma de los recursos.

Muchos argumentan que la evolución cósmica es una quimera, pues

apunta a que si queremos usar modelos de caos para probarla debemos tener

varios modelos de universo, o varios universos para ver cómo los diferentes

escenarios se desarrollan, y solamente entonces discurrir patrones. Algunos

cosmólogos consternados por esta imposibilidad han llegado a postular la

fascinante idea de los multiuniversos. Brevemente, lo que argumentan es la

existencia, no de uno, sino de muchos universos, los cuales han tenido

historias radicalmente diferentes. Algunos habrán nacido sin posibilidad de

llegar a producir estructuras biológicas, otros habrían podido terminar con

más de cuatro dimensiones y fuerzas después del rompimiento de la

simetría. Desafortunadamente, mientras que el modelo de multiuniversos

suena intrigante, como postulado poco nos ayuda en nuestra búsqueda de

probar que la evolución cósmica es un hecho. Actualmente sabemos mucho

más de nuestro universo que hace un siglo. Podemos reconocer una

estructura, tenemos clasificado mucho de su contenido. Sin embargo, tal

trabajo ha tomado milenios y la concurrencia de varias civilizaciones para

lograrlo. Así que actualmente, imaginar que pudieramos trazar la historia de

195

varios universos de ese multiuniverso para simular los diferentes modelos de

universo y encontrar patrones, es más que ingenuo.

La propuesta tampoco parece tomar en cuenta, que mientras que en

los pronósticos financieros y meteorológicos, el caos ha sido utilizado como

una herramienta predictiva, si aplicamos el mismo modelo matemático a la

historia del universo, lo haremos no tanto para predecir un resultado, como

para encontrar patrones en el caos, para encontrar una recurrencia de

aquellas estrategias que la naturaleza ha impuesto a través del tiempo. Lo

que buscamos en la historia del universo usando el caos como un lente de

aumento, no es la historia de los eventos per se, sino la historia de aquellas

formas que han emergido en ciertos estados de la historia del universo y que

fueron capaces de llegar a ser estables y perdurar pese a la entropía. Por

supuesto aquí no hay genética de cuando emergieron las formas de la que

hablar. La genética llegó a ser un asunto de importancia cuando las

moléculas se polimerizaron, pero esto será tema del siguiente capítulo.

Brevemente, nosotros no podemos argumentar que una estructura estelar

inicial trasmitió sus rasgos a su descendencia. Lo que sí podemos

argumentar mientras vemos las diferentes estructuras que emergen en el

universo son dos cosas.

Primero, a causa de las fuerzas de la naturaleza y de la manera que

ellas disponen de la materia y determinan su comportamiento, el universo

permite la sobrevivencia de sólo ciertas estructuras. Sólo hay unas pocas

estructuras viables en nuestro universo, y mientras que esto no parece ser

equivalente a una ayuda genética, de muchas maneras sí lo es. Puesto que la

genética es la réplica de la información, de manera que ésta pueda pasar de

los padres a su descendencia, es una obligación, y determina, a nivel de las

196

fuerzas, que las partículas formen la materia, las estrellas de las galaxias y

los sistemas solares.

Segundo, es posible observar que algunas estructuras básicas no sólo

parecen permanecer, sino que realmente parecen refinarse, perfeccionarse y

llegar a ser más viables con el transcurso del tiempo. Lo verdaderamente

sorprendente de los patrones que emergen, es el patrón de complejificación,

hasta el punto que a las estructuras concierne, y a la cantidad de información

que tales estructuras contienen. Esta tendencia viene a ser más obvia una vez

que la evolución orgánica surge. Y en sí mismo el concepto tiene muchos

términos difíciles –como complejidad e información– que sólo llegan a

aclararse cuando buscamos en el proceso mismo.

La cuestión que queda para nosotros es ¿en qué punto podemos

empezar a hablar propiamente de estructuras? El universo primitivo, con su

inconcebible energía y calor, ciertamente no parece que fuera un amable

huésped de las estructuras. De cualquier manera, pese al hecho de que nada

parecido a lo que actualmente conocemos como materia residia allí, ya para

la época en que el universo tenía un diezmilésimo de segundo, los quarks y

antiquarks habían terminado su aniquilación mutua y los sobrevivientes se

habían reunido en tríos como protones y neutrones. Entonces, en mucho

menos tiempo de lo que llamamos un instante, el universo había elaborado

las semillas, los componentes del futuro núcleo atómico. El núcleo atómico

es el primero entre muchos venideros ejemplos de lo que hemos llamado

estructuras. Es el primero que parece seguir nuestros dos principios.

Inicialmente, el núcleo atómico fue configurado y determinado por las

fuerzas de la naturaleza. En seguida, vino a ser la semilla de estructuras más

complejas. A tal grado, que cuando el universo tenía una edad de 3 minutos

y 42 segundos, protones y neutrones se habían ligado y formado el núcleo

197

del helio; así el naciente universo llegó a estar formado por un 20% de helio

y un 80% de hidrógeno, los dos elementos atómicos más ligeros.

Para aquellos que se ocupan de los patrones y gustan de las formas,

estos primeros minutos del universo pueden verse como algo casi poético en

el sentido en que, como un Leitmotiv, manejó la urdimbre de lo que

podríamos llamar el tema central de la historia del universo, si éste fuera una

pieza de música. Para aquellos a quienes no les importan los patrones,

tendrían suficiente con una lista inicial de ingredientes y un curso elemental

de física, para un conocimiento básico de que los dos elementos que

dominaron el universo primitivo no son sólo los más simples,84 sino los dos

únicos en la receta de las estrellas. A las estrellas les faltaba mucho para

llegar, pero cuando el universo tenía una hora de edad, se había enfriado lo

suficiente para que la mayoría de los procesos nucleares (y prenucleares) se

hubieran detenido y el germen de todo lo que vendría a ser se hubiera

estabilizado. El enfriamiento en tales estados primitivos altamente

energéticos, por supuesto que es relativo, puesto que cuando el universo

tenia un año de edad su temperatura ambiente era más o menos la misma que

la del centro de una estrella en la actualidad.

El origen de estas estructuras simples no es un argumento muy fuerte

para demostrar que el universo está evolucionando. Mientras tanto, la

existencia del núcleo será al menos el sostén de la existencia de una fuerza

conservativa de este firme “lecho de roca” en el largo proceso de la historia

universal, pero no tendrá importancia para los otros dos principios de la

evolución, la innovación y la selección. En la búsqueda de estos principios

84 Hay que aclarar que en sí estos elementos son simples en el contexto de los elementos que propiamente forman ya la materia, pero que son sumamente complejos ya que en el neutron se aloja la información como gluones, varios tipos de quarks que a su vez posiblemente esten formados por cuerdas y éstas, quizá sean la energía misma.

198

tenemos que remontarnos a otro momento culminante de nuestra más que

resumida historia. Y el estado del universo cuando empezamos a encontrar

algo parecido a la innovación y a la selección es cuando éste tenía alrededor

de 10 a 11000 millones de años, esto es, para dar una mejor idea, hace

alrededor de 3.8 a 4000 millones de años. Estos son inimaginables lapsos,

cuando estamos buscando al menos dos datos, puesto que estamos hablando

acerca de un proceso que tuvo lugar durante 11000 millones de años o más.

Sin embargo, dentro de este proceso podemos señalar cuatro umbrales

cruciales, que si no nos confirman, al menos insinúan la innovación y la

selección. El primer umbral nos remite a la radiación cósmica de fondo que

incluye la liberación de los fotones, dejando a los electrones libres para

combinarse con los nucleos y formar los átomos estables. O dicho de otra

forma, lo que los átomos estables permiten es la formación de la materia

como la conocemos. De hecho, lo que emergió hace 11000 millones de años

fueron las nubes de materia que llamamos protogalaxias. Este momento –si

es permitido llamar momento a tal lapso– marca dos cosas, la emergencia de

estructuras más complejas que utilizan una “célula” básica, por llamar de

alguna manera a esta estructura básica. Lo que también vemos emerger en

primera instancia son nubes de materia en gran escala. Mientras que no todas

de estas nubes de materia llegaron a formar galaxias, fueron alimentadas y

gobernadas por esas fuentes de luz puntuales, creemos, llamadas quásares,

cuyo corrimiento al rojo indica que se encuentran a distancias de miles de

millones de años luz y posiblemente sean los núcleos de jóvenes galaxias.

Brevemente, lo que vemos en este umbral es el principio de otra estructura.

Para decirlo coloquialmente, la receta inicial para una estrella, fue utilizada

por el universo, y en este umbral, vemos surgir las estrellas, como el eje de

nuevas estructuras. Como cualquiera con un conocimiento superficial de

199

astronomía sabe, no todas las estrellas son viables. De hecho, la longevidad

y la sobrevivencia de las estrellas está determinada por su masa.

Para muchos, la formación de las protogalaxias y aun la liberación de

los fotones que permitieron a lo electrones combinarse con el núcleo y

formar átomos estables, no es tanto prueba de una evolución como de un

fenómeno causal, fenómeno que tuvo lugar porque las condiciones fueron

las correctas. De muchas maneras, el modo de ver una serie entera de

eventos como una cadena de causalidad, es solo falta de una visión más

ámplia: estos eventos y los que siguieron, incluyendo la aparición de la vida

hace alrededor de 4000 millones de años, requirieron de un universo

increiblemente bien sintonizado. Aun tomando en cuenta el azar, como lo

hace la teoría de la evolución, aun tomando en cuenta accidentes, la sola

formación de la materia, dejando fuera la emergencia de la vida, requirió un

perfecto diseño de lo que el astrónomo Martin Rees ha llamado Just six

numbers. Entre estos se incluyen:

N, El número que mide la relación entre la fuerza electromagnética y

la gravedad y es un número muy grande, pues la atracción gravitacional

entre los protones es 1036 veces más tenue que las fuerzas electricas. Pero

aun así, si tuviera menos ceros, en el universo no habrían surgido las grandes

estructuras que dieron paso a las galaxias y por supuesto que nunca habría

surgido la vida. En palabras de Rees, “No tenemos una teoría que nos

indique el porqué del valor de N. Todo lo que sabemos es que nada tan

complejo como la humanidad hubiera podido emerger si N no fuera tan

grande como 1,000,000,000,000,000,000,000,000,000,000,000,000.”

ε es otro número que mide lo que sucede en el átomo y es el

porcentaje de masa de hidrógeno que en su interior, las estrellas transforman

200

en energía al fusionarse en helio. Determina cuan larga será la vida de una

estrella, por lo que si fuera diferente (menor) de 0.007, no daría tiempo a que

la vida se desarrollara en los planetas. También describe que tan firmemente

el núcleo atómico está unido para que la fuerza nuclear fuerte domine el

combate con la repulsión eléctrica.

Q Es el número que determina la “textura” de la estructura del

universo. Su pequeñez –alrededor de 10-5– permite suponer al universo

como aproximadamente homogéneo. Si su valor se inclinara hacia cualquier

lado, el universo sería inerte y vacío de estructuras, o hubiera sido

demasiado violento para que las estrellas y las galaxias pudieran sobrevivir.

Estos números fueron determinados en el inicio de la historia del

universo. Y los tres que hemos descrito determinaron mucho de lo que pasó

en los umbrales con los que hemos estado tratando. El hecho de que

parezcan tan finamente sintonizados han proveído gran cantidad de material

a filósofos y teólogos para especular sobre la naturaleza del universo y poder

cuestionar el dogma de que una aleatoria fluctuación cuántica, un accidente,

fue el culpable de la exquisita sintonía del universo. Los detractores de este

argumento lo han despreciado y se han escudado acusando a aquellos

pensadores de estar argumentando que existe un diseño, pues para ellos

realmente no es un argumento de diseño. Lo que es, solamente, es el

reconocimiento del hecho de que el universo está finamente sintonizado, y

haciendo ésto, sólo remarcan algunas de las deficiencias de la ciencia

contemporánea en su incapacidad para explicar, y más que nada, de poner

objeciones a otras posibles vías que la investigación pudiera tomar, si la

ciencia quisiera o tuviera la voluntad de explicar estos sorprendentes

fenómenos.

201

Los científicos que han aceptado esta fina sintonía del universo y que

han intentado entenderla no sólo como una serie de gigantescas

coincidencias, han argumentado que la evolución es una vía para entender la

manera en la que el universo se ha desarrollado. Las pruebas abundan, y no

solamente nos cuentan una limpia y pulcra historia acerca de la emergencia

de la materia y la manera en que las nubes de gases se convirtieron en

estrellas, sino que algunos científicos importantes han trabajado y estudiado

estas pruebas para darnos más amplias pistas de lo que la evolución

realmente es. Destacado entre estos científicos es David Layzer, quien en su

libro de 1990, Cosmogénesis, se las arregló para discutir no sólo sobre un

universo que se desarrolla, sino para aclarar los muchos malentendidos que

tienen los detractores de un universo en evolución.

El libro de Layzer, como muchos libros que han intentado de allí en

adelante establecer teorías similares, no es fácilmente comprensible. Ningún

libro sobre este tema puede serlo. Pero hay algo asombroso, y es que el libro

parece ser solamente un refundir y repetir muchas de las cosas que Teilhard

de Chardin dijo por lo menos medio siglo antes y que la comunidad

científica desatendió y malentendió. Como Teilhard de Chardin, Layzer

razonó que si vamos a pensar en un universo que evoluciona, primero y

principalmente debemos considerar la evolución no sólo como un proceso o

una vía para darle sentido al fenómeno; por el contrario, lo que nos hace

pensar en un universo que evoluciona es imaginar esta evolución como

creativa. En este sentido Layzer es bergsoniano (L’évolution creatice).

Teilhard de Chardin va todavía más allá al pensar no en una evolución

creadora, sino en una creación evolutiva. Como hemos visto, muchos

críticos han argumentado que la teoría científica debe ser predictiva. Nos

debe decir algo sobre el futuro. Al decir que el universo evoluciona, ellos

202

apuntan no tanto a contarnos lo que sucederá, sino sólo a decirnos lo que ha

sucedido. El demandar un poder predictivo preciso a un teoría es una

tendencia que hemos visto y etiquetado como reduccionismo. De muchas

maneras, esta demanda viene de la física cuántica y de partículas, en la que

los científicos son tremendamente precisos. Los átomos, como quiera que

sea, no son sistemas caóticos. Como hemos visto en la discusión del caos,

cuanto más complejo se vuelve un sistema, más caótico se hace. Para David

Layzer, esta naturaleza caótica de un sistema complejo como el universo

supone un entendimiento de la evolución no como una mera progresión de

un estado a otro, sino como “inteligente”, como un proceso conciente y

sensible, cuyos productos verdaderamente innovativos tienen como

propósito crear orden a partir del caos. Al decir de Layzer, vivimos en un

mundo “conveniente y favorecedor, que es un mundo en el que el orden

emergió de un caos primordial y engendró nuevas formas de orden. El

proceso que ha creado y continúa creando orden, obedeciendo leyes físicas

universales e inalterables. A pesar de todo, porque generan información, sus

resultados no están implícitos en sus condiciones iniciales”.

El punto de vista de Layzer, como la visión de Teilhard de Chardin,

parece casi poética dentro de su sentido común. Su panorámica del universo,

donde unas simples leyes manipulan la materia hasta que el material “en

crudo” llega a ser parte de algo mayor que sí mismo. Esto no es una

jerarquía, como algunos han supuesto. Es un proceso en el que el propósito o

la intención es usar la materia para transformar y hacer más complejo algo

que es inmaterial: la información. Esta información es copiable (o

transcribible), acumulativa, legible y digna de leerse. En nuestra experiencia,

la molécula de ADN puede ser uno de los más refinados ejemplos de

compuestos químicos manipulados por leyes físicas pemanentes que

203

contienen información que se puede copiar y es legible. Nuestro cerebro

puede ser usado también como otro ejemplo. En el próximo capítulo

trataremos ambos, pero para concluir permítasenos presentar algunas de las

objeciones que se han levantado en contra del argumento de Layzer y

veamos que tipo de prueba necesitamos encontrar para aceptar la de Layzer

como una teoría viable.

El argumento de Layzer ha sido visto en muchos círculos como

agresivo y se reconoce que parece “pisar muchos dedos científicos”, por

decirlo de algún modo. No solamente le quita a la ciencia su poder

predictivo, sino que llamandola evolución creadora, supone que algo como

una voluntad, una fuerza y una meta, han sido inherentes al universo y sus

productos. El aceptar que el universo no solamente evoluciona, sino que su

historia entera ha sido “impulsada” por una fuerza creativa, pudiera

significar que todas las leyes físicas están subordinadas a una macroley que

determina la emergencia y el sentido de todas las otras leyes.

El encontrar esta gran ley suena más que ambicioso. Algunos le

llamarían quijotesco. Esto haría redirigir la investigación científica de una

manera drástica. Pero hablando más propiamente, lo que habría que

modificar profundamente serían las interpretaciones de los científicos a sus

teorías, pues la investigación científica, quiérase o no, tendrá siempre que ir

en el sentido de desentrañar las grandes incógnitas del universo que aun

subsisten y un ejemplo claro y actual es la teoría de las supercuerdas, que

tiene grandes implicaciones metafísicas y tomándola desde este punto de

vista es absolutamente revolucionaria.

La existencia de esta macroley también obligaría a tocar todo precepto

desde la relatividad hasta el quantum, y razonar que estas teorías son como

piezas sueltas de un vibrante rompecabezas. Y la pregunta obvia que surge

204

para los científicos es si esta redirección, que sería inevitable, traería una

nueva perspectiva, una intención didáctica o pedagógica. Es decir: ¿hay o ha

habido una indicación directa de la existencia de una macroley para las

formas que surgen en el universo y codifican la información que a su vez

crea sistemas más complejos?

Una de las promisorias pistas o indicaciones de la existencia de una

macro-ley, procede de una de las principales leyes científicas de 1998, y

forma parte de los seis números cuyo valor Martin Rees sostiene que son

indispensables para la existencia del universo como lo conocemos. Su origen

se remonta a la relatividad general de Einstein. Viendo que una de las

predicciones de la teoría, era que el universo se estaba expandiendo, Einstein

introdujo una constante cosmológica que llamó λ y cuya función era

balancear el efecto de la gravedad y obtener un universo estable. Tiempo

después, al demostrarle Hubble que efectivamente, el universo se estaba

expandiendo, Einstein llamo a λ el más grande error de su carrera. Y

ciertamente, las razones por las cuales Einstein introdujo λ en su teoría son

ahora obsoletas. Sin embargo, en el presente, los científicos han tenido a su

alcance el descubrimiento de que λ apunta a una insospechada nueva fuerza,

una fuerza que actúa “inteligentemente” para controlar la expansión del

universo y cuyos efectos son discernibles a la escala en que la evolución lo

es: a través de épocas, de eónes. Además, λ, como fuerza, parece ser

portadora de una macroley, puesto que en todo tiempo y en el largo plazo ha

llegado a dominar sobre la gravedad. λ es la más tenue, la más débil fuerza

de la naturaleza, y por mucho, la más misteriosa. A pesar de esto, controla

las otras fuerzas, puesto que controla la expansión del universo y su destino

último. De hecho, no sólo determina su futuro, sino que en realidad

205

determinó su pasado. Si hubiera sido una fuerza más fuerte, se hubiera

impuesto a la gravedad en etapas tempranas de la vida del universo,

impidiendo la emergencia de las galaxias. Brevemente podemos decir que λ

puede ser una entre muchas evidencias de una “voluntad”, de una

“sensibilidad” que no es necesariamente determinista, porque como Layzer

lo ha señalado, su mecánica es creativa. Otra evidencia se encuentra, por

supuesto, en el siguiente umbral de la evolución, hace 3.8 o 4000 millones

de años, cuando la Tierra se había enfriado lo suficiente para que se formara

una costra sólida. Por ese entonces, las galaxias por supuesto ya se habían

formado y el sistema solar había llegado a ser una estructura en el continuo

proceso de un universo favorecedor. Tomaría 600 millones de años para que

las células microscópicas colonizaran la Tierra y 2000 millones de años para

que las plantas emergieran. Podemos visualizar entonces la esencia de la

evolución: La emergencia de formas que economizan energía para guardar

información: economía en las formas para contener información.

206

9

COMPLEJIDAD Y EVOLUCIÓN

You have to pick up the Bass, as Mingus called his, with audible capitals,

and think of the slow years the wood spent as a tree, which might well have been

enough for wood, and think of the skill of the bassmaker carried without great thought of it

from home to the shop and back for decades, and know what bassists before you have played,

and know how much of this is stored in The Bass like energy in a spring and know how

much you must coax out. How easy it would be instead to pull a sword

from a stone. But what’s inside the bass wants out, the day one day you will. Religious stories

are rich in symmetry. You must release as much of this hoard as you can, little by little, in

perfect time, as the work of the body becomes the body of work.

WILLIAM MATTHEWS.

El poema de William Mathews Mingus in Diaspora, se basa en el

famoso contrabajista de jazz Charles Mingus para meditar en lo que para

muchos parece ser el último proceso artístico y estético. Parafraseando

palabras del músico, Mathews trazó el viaje que éste debe hacer en su labor

física, a medida que el trabajo del cuerpo se transforma en una obra artística.

El poema sostiene que a medida que escuchamos al músico, no sólo estamos

presenciando una actuación, sino una conciencia que se extiende desde los

procesos básicos de hacer la música y se sostiene todo el camino hacia el

mundo natural. El músico tiene que pensar no sólo en la tradición a la que

pertenece –y que otros músicos antes que él han forjado– sino en los

elementos, en la historia natural que se encuentra detrás de su instrumento.

Este intrincado proceso musical es un gran paradigma para la creación

artística.

207

Sin embargo, en otro contexto, en un contexto científico, el proceso

puede darnos más luz y revelarnos lo que son la información, la complejidad

y la evolución y como trabajan unidos.

Hace algunos meses el New York Times publicó un artículo sobre algo

llamado “The Memoriad”, una competencia al estilo olímpico, en la que los

participantes eran sometidos a una serie de pruebas, no en su destreza en

algun deporte en particular, sino en la manera en que su memoria trabaja.

Algunas de los pruebas incluyeron algo parecido a un exagerado y

prolongado juego de memoria. Los contendientes tenían que descubrir cartas

y recordar su posición, de manera que cuando una carta similar apareciera en

otra posición, ellos pudieran eliminar ambas del conjunto. Como muchas de

estas competencias, ésta también parecía no sólo inocua, sino trivial. Quiza

por esta trivialidad y el tono adulatorio que el periodista usaba al relatar las

hazañas de los concursantes, fue publicada una carta al editor varios días

después despreciando el talento de los competidores y del campeón. La carta

intentaba recordar, tanto a los lectores como a los periodistas, que uno puede

ser testigo de hazañas más sorprendentes de la memoria casi todos los días si

–por ejemplo– tenemos la voluntad de comprar un boleto para un concierto y

meditar por un minuto los logros de la memoria de un pianista de concierto.

Cuando asistimos al recital de una pianista o cualquier otro músico, no

importa cuán torpe o hábil sea, estamos no solamente ante una sorprendente

hazaña de la memoria, sino, quizá, ante una de las más claros expresiones de

lo que en este capítulo llamaremos complejidad. Pensemos un poco en esto:

la pianista en un momento dado tiene en mente una página completa de la

música que está interpretando. Ella probablemente la habrá leido. En otras

palabras, el sentido de la vista le transmite no el sonido que está

produciendo, sino el símbolo de esos sonidos. Y mientras ella los pudo haber

208

oido mentalmente antes de tocarlos, lo que finalmente sucede es que su

cerebro cambia la información visual en una sensibilidad motora que

desencadena órdenes para que sus dedos presionen determinadas teclas, en

un proceso en que la mente está adquiriendo conocimiento y los centros de

memoria del cuerpo recordando y esto se nota mucho más en disciplinas

como la música, en las que la precisión y una especie de visualización, van

de la mano. En breve veremos que éste no es necesariamente el caso. Por lo

pronto vamos a continuar con nuestra pianista; la pieza de música que esta

interpretando puede ser, por ejemplo, un preludio de Bach. Ella puede haber

terminado de leer la música varias veces en el mismo tiempo que nos

tomaría describir cómo toca la primera nota. En otras palabras, este

diminuto proceso, la lectura y ejecución de una nota, no es solo un acto

instantáneo, sino que es apenas uno de dos mil que se suceden en la

ejecución de una pieza de dificultad intermedia. Vista, cerebro y cuerpo

pueden, en otras palabras, repetir el mismo proceso unas dos mil veces en un

lapso de tres minutos.

209

Por sorprendente que parezca esta hazaña, puede ser sobrepasada

fácilmente por las máquinas que actualmente poseemos. Una computadora

promedio, de hecho, con un software adecuado, es capaz de interpretar las

notas y llevar a cabo su sonido. Las computadoras son hasta cierto punto

máquinas complejas; sin embargo, el trabajo de la computadora no debe

confundirse con la hazaña del pianista. Muchos científicos, incluyendo

algunos muy prominentes, se han vuelto locos con la revolución de las

computadoras y la posibilidad de la inteligencia artificial, al grado de

expresar pretensiones extraordinarias y declaraciones vergonzosas. Un par

de ejemplos deben ser suficientes.

En su libro Physics of Immortality, donde podría haber dado una

explicación sensata del punto Omega, Frank Tippler cambia el argumento en

una fantasía de ciencia ficción. El problema de Tippler es que da una

explicación que sobrepasa la lógica. Su argumento es el siguiente:

Si vamos a seguir desarrollandonos de manera que nuestra civilización

o nuestros descendientes sean capaces de llegar a la vida eterna que el punto

Omega promete, debemos colonizar el espacio, porque ni el Sol ni la Tierra

durarán tanto tiempo. Inmerso en el sueño de ciencia ficción de Tippler uno

puede encontrar la noción de que tal como la Tierra y el Sol tienen sus

límites, el cuerpo y la mente también, por lo que sólo las máquinas,

supercomputadoras de generaciones mucho más avanzadas que las que

conocemos, podran llevar a cabo nuestro esfuerzo evolutivo. La ingenuidad

de este concepto depende de la falla en distinguir entre un concepto preciso

y uno “emboscado”.

Cuando los científicos postulan el punto Omega, piensan en la

confluencia de todas las energías en un solo punto. A la energía organizada

(o que produce la organización) le llaman información. Por lo tanto, lo que

210

ellos visualizan es la información llegando a este punto final del universo. El

problema aquí es el término. La información como concepto ha sido tomada

en préstamo de la comunidad de la inteligencia artificial y las computadoras.

En el mundo de la computación, información es cualquier cosa que pueda

ser codificada en términos binarios. No se describe de qué tipo de

información se trata; en otras palabras, no es necesario, solamente es un

término relativo, un término que indica un proceso, no un contenido; para la

computadora, Don Quijote de la Mancha de Cervantes, Mein Kempp de

Hitler, el menú de un restaurante o una forma de impuestos, son lo mismo,

información. Tippler no es el único que tropieza cuando argumenta que la

complejidad es inherente tanto a los humanos como a las máquinas. De

hecho, uno de los más rigurosos y absurdos argumentos que apoyan la

complejidad de las computadoras está en el primer capítulo del libro de R.

Dawkings, The Blind Watchmaker.

Así que la pregunta que surge es: ¿en qué se diferencía la pianista de

la computadora? ¿por qué es más complejo el mecanismo que opera en el

caso de la pianista que en el de la computadora? Si la pianista a la que

estamos haciendo referencia es una profesional, en el momento en que está

leyendo una pieza de música, a condición de que nunca la haya escuchado,

aun en grabación, lo primero que hará será empezar por descubrir patrones.

El patrón más básico para los humanos es el ritmo, por lo que deberá

encontrar primero, por ejemplo, la manera en la cual las semicorcheas que

son ejecutadas por la mano izquierda, requiere un efecto de staccato que

hace destacar la melodía ejecutada con la mano derecha. Deberá también

notar que los temas se van repitiendo en variaciones, así como su dinámica y

sus articulaciones. Su trabajo, en otras palabras, está lleno de cambios

repentinos. Si ella quizá empieza como una autómata, haciendo un trabajo

211

que cualquier computadora puede llevar a cabo, a medida que su

interpretación avanza, empieza a depender de una memoria más profunda,

no sólo de la habilidad para descifrar la información, como hacen las

computadoras, sino a poner en juego la habilidad para utilizar la información

del pasado, la habilidad de usar una “visión retrospectiva” para determinar

un resultado. Esto último hace una distinción crucial, y si no es todavía una

descripción profunda de lo que es la complejidad, por lo menos está cerca.

Usamos el término visión retrospectiva adrede: después de todo las

computadoras realizan trabajos por medio de la memoria que les

proporcionan los programas de aplicación. Las computadoras no tienen lo

que hemos llamado visión retrospectiva.

Estamos siendo quizá hasta ridículos por la manera en que

simplificamos el proceso, puesto que aun antes de que la pianista dé un

segundo repaso a la pieza, empieza a ponerla en contexto. Ésto requiere de la

visión retrospectiva y de una memoria que se pueda expander como no lo

puede hacer ninguna computadora. La memoria documentada que ha pasado

como conocimiento de generación en generación, y como tal es la más dificil

de tratar porque es amórfa y cambiante. Veamos qué es lo que sucede: antes

de que la pianista haya abierto la partitura por primera vez, con el solo hecho

de saber quién la escribió, sabe el tipo de sonido que la música va a producir.

Su memoria, en otras palabras, tiene guardado el tipo de idioma musical que

se usaba cuando el compositor la escribió, por ejemplo al final del siglo

XVIII o principios del XIX. Y en cuanto a que la música sea famosa, como

el tardío Haydn o el Beethoven en su época temprana, o menos conocida,

como una sonata de Dussek, ella tendrá cierta idea de cómo usar el pedal,

articular las frases y escoger sus tiempos. Así, en el segundo repaso de la

interpretación, lo que hace se volverá más difícil, pues tendrá que descubrir

212

la individualidad y el mensaje de la pieza de música. La visión retrospectiva

tendrá que ser de mucho más alcance. No solamente tendrá que tomar

decisiones, sino que empezará a comparar en el ámplio banco de datos que

guarda en su mente. Entonces podrá descubrir, quizá, cómo cierto pasaje

evoca el estilo o la frase de otro compositor y puede entonces darse cuenta

de que el staccato tiene una calidad nerviosa o vibrante que a otra pieza le

falta, etcétera.

En el capítulo previo discutimos los sistemas caóticos. Lo que aquí

hemos presentado es un sistema caótico en su más alta expresión. El

resultado no puede ser previsto porque existen demasiadas variables. Lo que

tenemos también, es el regalo más grande de la complejidad, un cuerpo y

una mente –no solamente el trabajo de la mente de la pianista, sino el trabajo

de su cuerpo entero– que puede determinar el resultado de un sistema

caótico. Si saltamos hacia adelante, por motivos de brevedad, hasta el

momento en que la pianista haya finalmente memorizado y entendido la obra

completa, podremos ser testigos de la conciencia, la visión retrospectiva y la

memoria, que combina de cierta forma el movimiento de brazos,

muñecas,dedos, piernas y pies, para que produzcan un resultado predecible.

El llamar a este trabajo información, el imaginar que de alguna

manera pueda ser cuantificado y guardado en un código binario, no sólo es

reductivo sino torpe. Y claro, nosotros podemos adquirir la interpretación de

la pianista en un disco, podemos ponerlo en el reproductor que leerá “unos”

y “ceros” y los transformará en sonidos, pero es un terrible error pensar que

porque podemos reproducir el trabajo de la pianista, éste puede ser reducido

a unos y ceros. Lo que obtenemos es una grabación de un momento, una

grabación de una conciencia trabajando, pero no podemos capturar la

conciencia misma. Ésta es la distinción crucial que algunos científicos no

213

han tomado en cuenta cuando usan el concepto de información como un

término general.

La complejidad como la hemos definido, involucra tres aspectos: el

uso de la memoria y la visión retrospectiva para predecir un resultado, y la

habilidad para obtener de sistemas caóticos resultados consistentemente

previsibles. Y por último, algo que no hemos mencionado porque es muy

obvio para ser mencionado, pero al mismo tiempo es bastante importante

para omitirlo: la complejidad, para decirlo de alguna manera, es como un

filtro que toma la energía, la destila y la transforma y la libera. Siendo

simplistas podemos decir que cuando pagamos nuestro boleto de entrada al

recital, estamos dando testimonio de cómo la nutrición de la pianista, que

sustenta su cuerpo, produce otras clases de energía, en este caso, por

supuesto el sonido, pero un sonido con tonos semánticos y emotivos.

Ha sido nuestro argumento durante todo el tiempo, que la complejidad

que nuestra pianista parece expresar, no es exclusiva de los artistas, ni de los

humanos, sino que –por supuesto a diferentes niveles– está profundamente

arraigada no sólo en la vida sino en las estructuras inorgánicas –

proporcionando así un sentido a la trayectoria de la evolución– sino también

en la materia misma.

Ambos argumentos nuestros son polémicos. Ya hemos visto cómo

prominentes científicos como Stephen Jay Gould han dedicado el trabajo de

toda una vida a un intento de desmentir la existencia de cualquier sentido, de

cualquier flecha en la evolución.

Igualmente, físicos prominentes han sostenido que la energía es

energía y la información es información y, así, no existe diferencia entre la

nutrición de la pianista y su actuación, puesto que ambas son cuantificables.

214

Más allá, ellos dicuten que no hay pruebas para pretender que la tendencia a

la complejidad es inherente a la materia.

Todos sus argumentos parecen a primera vista convincentes. Después

de todo, quien quiera puede ir y reproducir, o “bajar” de internet el primer

movimiento de la Heroica de Beethoven, leer todo Aristóteles o jugar un

juego de computadora. Para la computadora y para el servidor, no hay

distinción entre Aristóteles y Mario Brothers. El procesador leerá todo el

material como unos y ceros y la computadora usará la misma cantidad de

electricidad cada minuto, mientras que el usuario podrá escuchar a

Beethoven o bajar basura de su correo electrónico. Así que lo que hay que

preguntarles a aquellos que se niegan a aceptar el reduccionismo al cual las

computadoras y la terminología de la física parecen condenarnos es: ¿hay

algo en la ciencia que pudiera desmentir el hecho de que toda la energía es

igual y toda la información es igual? ¿existe algo, en otras palabras, que por

lo menos parezca insinuar el hecho de que de que aun cuando todos los

sistemas consuman la misma energía, a medida que su nivel de complejidad

se incrementa, la energía que utilizan no sólo se usa más eficientemente sino

que realmente se transforma en energía útil? Como ha sido el caso a lo largo

de todo el libro, la evolución, pese a su falta de precisión predictiva, parece

tener la clave. Una de las cosas más impresionantes que se observan en El

origen de las especies, quizá más que ver la mente de Darwin trabajando, es

el subyacente dolor, la verdadera conciencia de sufrimiento que Darwin le

dió a su teoría. No fue un frío científico de laboratorio, sino uno muy curioso

(inquisitivo), que habiendo descubierto que ni la conservación ni la

innovación eran la clave de la teoría, se dió cuenta constantemente de que

por cada miembro de una especie que logra heredar su material genético, hay

215

muchos que perecen en el proceso. De hecho, una de las sentencias centrales

de Darwin puede ser la que sigue:

En el estudio de la naturaleza es de lo más necesario tener siempre en mente las

anteriores consideraciones –nunca olvidar que puede decirse que cada organismo

individual que se encuentra alrededor de nosotros, está esforzándose hasta lo

máximo para incrementar el número de individuos de su especie; que cada uno ha

vivido luchando en algún periodo de su existencia; que las grandes destrucciones

inevitablemente caen entre los jóvenes como en los viejos, durante cada generación

o a intervalos recurrentes.

El estar consciente de la destrucción y de la muerte es central a la

evolución, y entendiendo su papel podemos empezar a reconsiderar si

queremos seguir pensando tanto en la energía como en la información de la

manera indiscriminada en que lo hemos hecho.

Imaginemos un grupo de ballenas y que regresamos a la indiscriminada

cacería de ellas como se hizo en el siglo XIX. Si estas ballenas se

extinguieran, no solo perderíamos a un actor central de cierto ecosistema,

sino que, como las ballenas son un tipo de inteligencia, una manera

específica de entender el mundo, la pérdida sería una pérdida de

conocimiento, que no va a trasmitirse más, que no evolucionará más.

Imaginemos de la misma manera lo que sucedio en el siglo XVII cuando los

colonizadores acabaron con etnias enteras y sus lenguajes desaparecieron

completamente, asi como la manera de preparar sus alimentos, su musica,

etc.

La selección es una espada de doble filo. La razón de la selección, el

porqué dentro de las especies muchos miembros están condenados a

desaparecer antes de que transpasan su material genético, es la escasez de los

216

recursos. En otras palabras, la selección es la manera mediante la cual la

naturaleza puede distribuir los recursos y ha sido capaz de conservar la

energía. Porque tantos miembros de una especie dada perecen, las especies

pueden sobrevivir. Al mismo tiempo, no debemos olvidar que en la muerte

de cada miembro de una especie se tiene una pérdida de una pieza única de

información. Es esta dicotomía pérdida-ganancia, la que requiere un balance.

El intercambio de información por energía, el intercambio de recursos por

una estampa genética menos, tiene que ser, en palabras de Darwin,

constantemente puesto en “revisión”, de otra manera la población se merma

o probablemente aumente vertiginosamente hasta que agote sus recursos y se

prive de comida, hasta que consuma toda su energía.

¿Cómo puede la visión de Darwin sobre la selección redefinir el actual

concepto, tanto de conservación, como de energía? La respuesta descansa en

su énfasis en el balance, en la insistencia en que tal o cual sistema, pese a su

crueldad y al sufrimiento que impone, está finamente sintonizado.

Insistiendo en esto, lo que Darwin subraya es la manera en la cual un

organismo complejo, un organismo cuya existencia depende de una

molécula codificada con información compleja, depende también de una red

de relaciones más ámplia. En otras palabras, para Darwin ni la información

ni la energía puden ser transferidas al vacío, son parte de un sistema mayor.

La visión de Darwin es por supuesto la verdadera semilla de la cual creció la

ecología. Pero antes de discutir la ecología, veamos cómo, pensando en la

información y la energía en un contexto más ámplio, podemos empezar a

redifinir ambos conceptos.

Para lograr esto debemos ubicarnos en un escenario a la vez simplista e

improvisado. Es, por supuesto, difícil de discutir que actualmente los

humanos somos parte de un ecosistema, aunque es innegable que

217

dependemos de los recursos del planeta, nuestra presencia en él ha sido, más

que cualquier otra, la que ha conducido a transtornar los balances y

“revisiones” que Darwin menciona. Sin embargo, porque nuestro escenario,

pese a su naturaleza simplista, no está muy lejos de la realidad, puede servir

para ilustrar. Nosotros extraemos nuestro sustento, nuestra energía, del

alimento que consumimos. Nuestros cuerpos son fábricas que procesan

lípidos, proteínas e hidratos de carbono y los convertimos en combustibles

que no sólo mantienen el cuerpo, sino que lo reparan. Diferentes

combustibles, ya sea que provengan de fuentes diferentes –lípidos,

carbohidratos o proteínas– producen resultados diferentes. Los azúcares, por

ejemplo, son buenos combustibles, pero se queman rápido, no permanecen.

Por siglos, la dieta de la población en general parecía bastante balanceada

cuando el alimento estaba disponible (uno no debe olvidar que la falta de

alimento suficiente debida a los malos cultivos y a la miseria urbana ha

estado presente en toda la historia de la civilización). Aun hoy, la dieta rural

consiste principalmente de vegetales y se deja la carne para ocasiones

especiales. Esta dieta balanceada aun está en las noticias cuando nos hacen

notar que la dieta mediterránea parece ser más saludable que otras dietas del

norte, más abundantes en grasas, Y esto es también evidente en América,

donde hasta hace poco tiempo la dieta de los países de América Latina era

mucho más saludable que las de Estados Unidos.

La primera revolución culinaria llegó, como todas, pegada a los talones

de otra revolución. Las dietas excesivas, ricas en grasas y azúcares,

sóloestuvieron al alcance de la realeza y los pudientes. Careme, el primer

chef que empezó a sistematizar lo que ahora llamamos cocina clásica, pasó

la mayor parte de su vida sirviendo en las cocinas de la aristocracia. Sus

platillos eran elaborados y empalagosos aun visualmente. Sin embargo, una

218

vez que la Revolución francesa depuso a la vieja aristocracia, muchos de los

chefs que servían a los ricos y a los nobles, se encontraron sin trabajo. Fue

entonces cuando el restaurant llegó a ser el lugar donde donde se iba a

obtener un reconstituyente –en francés restaurative, de allí el nombre – un

lugar donde se podía ir a probar los sabrosos y elaborados platillos que antes

estaban reservados a los ricos, y que los pobres y la clase media sólo comían

en las ocasiones muy especiales. Esta revolución resultó semántica, pues

transformó el significado de la comida. El cordero, reservado para la

primavera y la pascua, por ejemplo, estaba ahora disponible diariamente. Las

cocinas se empezaron a desarrollar, no sólo en la línea de los productos

locales, sino en la de las sabrosas grasas que eran utilizadas como

saborizantes. Aún hoy podemos distinguir entre la cocina francesa y la

taliana por la grasa que usan: la primera usa mantequilla y la segunda aceite

de oliva.

Mientras que esta revolución semántica en los hábitos alimentarios fue

todavía tímida en cuanto a la dieta diaria se refiere, definitivamente impulsó

o por lo menos se quedó corta con respecto a la subsecuente revolución

culinaria. Como la anterior, la segunda revolución culinaria llegó en los

talones de otra revolución, esta vez económica. Cuando la segunda guerra

mundial llegó a su término, los Estados Unidos experimentaron una

abundancia que ninguna otra nación había experimentado. El “sueño

americano” (automóvil, casa, seguridad económica, etc.), llegó a estar cada

vez más cerca de la satisfacción, por lo menos para muchos. Donde hay

seguridad económica en alguna medida, siempre hay comerciantes

dispuestos a tomar parte de la riqueza. Algunos de los comerciantes que se

beneficiaron de una manera fenomenal de esta abundancia, fueron aquellos

que estandarizaron e industrializaron los alimentos. En una cultura en la que

219

la comida había perdido su significado, en la que un asado era tan común

como un pan, en la que la comida y la ocasión estaban ya divorciados, no fue

difícil hacer de la carne, que estaba establecida como un alimento ocasional,

el plato principal. Hoy, en su libro Fast Food Nation, Eric Schlosser nos lo

recuerda: McDonald es el principal consumidor de carne de vaca en el

planeta. Como tal, determina cuánta carne de vaca debe alimentarse, crecer,

matarse y prepararse. Ellos están en la primera parte de nuestro escenario

porque parecen ser los principales provedores de energía a gran escala para

la población de todo el planeta.

La pregunta es: ¿qué clase de energía proveen y a qué costo? Eric

Schloesser argumenta que el costo de la “fast food” es abrumador puesto que

somete a un esfuerzo excesivo tanto al jornalero no calificado como al

ambiente. En su libro nos muestra que el cambio de la granja familiar a los

“complejos industriales”, que ha permitido “dominar los mercados de

productos de consumo uno tras otro”, se debe a tan “ecológico” costo.

La industria del empaquetamiento de la carne ha pasado de ser “un

trabajo altamente especializado y bien pagado, al más peligroso trabajo en

Estados Unidos” realizado por jornaleros no calificados, “transitorios e

inmigrantes”. A su vez, por todos los recursos naturales y humanos, el

consumidor obtiene una nutrición pobre: “a medida que la gente come más a

menudo fuera de su hogar, consume más calorías, menos fibra y más grasa”.

La baja calidad de la comida se hace evidente al comprobar cómo, en las

últimas décadas, a medida que las cadenas de fast food se han establecido en

todo el planeta, la tasa de obesidad se ha incrementado.

Uno de los argumentos centrales de Schloesser es que aunque lo parece

la revolución de la fast food no es inevitable. De hecho, muchos de los que

se niegan a aceptar la cultura de la fast food siguen aún ofreciendo opciones.

220

Una de estas opciones ante la absurda propuesta de la fast food de consumir

grandes cantidades de energía para obtener poca energía adecuada que dar al

consumidor, es una muy antigua. La comida hecha en casa es la respuesta a

la baja eficiencia energética de la comida industrializada. Abramos cualquier

libro de cocina étnica o regional y encontraremos no la fórmula de una

industria, sino el conocimiento de los productos de la Tierra y su temporada,

así como el conocimiento de cómo preparar los alimentos y cuándo deben

comerse. Ésta es una clase especial de conocimiento y es bastante antigua.

No sólo toma en cuenta los recursos, sino cómo se pueden aprovechar al

máximo. En las dietas regionales encontramos gente interactuando con su

medio ambiente, no sólo explotándolo.

Lo que tenemos en nuestros dos ejemplos, el de McDonald y el de la

comida hecha en casa, es la manera como la energía puede usarse. El primer

ejemplo nos señala una transformación de energía de baja eficiencia; el

segundo, una transformación un poco más eficiente, y además tenemos a

nuestras neuronas procesando sabores, olores y texturas. El primero nos da

un conocimiento bajo, de sabores artificiales, de texturas suaves. En otras

palabras, con McDonald obtenemos información “procesada”. Cuando el

proceso lo hacemos en forma no industrializada, nuestro cerebro se estimula

y obtenemos información nueva.

En lo que terminamos finalmente al ver nuestros dos platillos está el

significado de la complejidad y su contraparte. Lo que hemos visto varias

veces a lo largo de este capítulo es que la complejidad es la manera como la

energía se conserva. Esta conservación ocurre porque en cualquier instante,

el sistema, tomando energía de su entorno, produce más de la que tenía al

principio. Lo opuesto a la complejidad, no es, como muchos podrían pensar,

la simplicidad o el desorden, sino la basura, el desperdicio. El desecho

221

sucede cuando esas revisiones darwinianas no se producen y los sistemas se

salen de balance. Imaginemos un ecosistema como puede ser un bosque en

las cercanías o en medio de un área urbana; sus habitantes introducen

muchas plagas, como pueden ser ratas, palomas, insectos nocivos, etc. Si el

bosque es suficientemente grande, puede ser capaz de albergar mamíferos y

aves depredadores, como zorras, aguilas y búhos. Los bosques de la serranía

del Ajusco, el Desierto de los Leones o el bosque de Tlalpan, en alguna

época grandes ecosistemas, nos pueden servir de ejemplo. Todos los

animales que no son depredadores requieren, por supuesto, espacios para

recorrer y alimentarse. Pero más importante aún, requieren una revisión, un

control en la diseminación de su población. En estos bosques a los que nos

referimos el problema actual es la sobrepoblación de plagas de todo tipo y

son el mejor ejemplo de un sistema que ha perdido el balance. Los coyotes

y tlacuaches, las serpientes de cascabel y los grandes búhos, fueron llevados

a la extinción debido a una obsesiva y patológica caza desde comienzos del

siglo XX. Sin control, cualquier población crecerá vertiginosamente, y esto

ha sucedido en los bosques en cuestión. La falta de balance acabó con varias

especies en ellos. De las restantes algunas han prosperado bién y otras han

desaparecido. El gusano descortezador, las ratas, los perros, los gorriones

carroñeros etc. sustituyeron a los cenzontles, los canarios, el conejo

teporingo, etc. Los nuevos habitantes de éstos ahora mal llamado bosques,

incluyendo a los humanos, que en mayor medida han propiciado la situación,

están a punto de terminar con los recursos. La vegetación, por otro lado, no

ha sido más afortunada; el bosque que cubría la mayor parte de esta zona se

está muriendo, y se morirá si no se toman medidas para reducir las plagas.

Las actuales especies están acabando con sus propios recursos. Y esta

situación es la ejemplificación del desperdicio, de la basura. Éste es un

222

sistema que utiliza la energía en su propio perjuicio. Y al final, la suma de

toda esta energía llegará al mínimo. La entropía al máximo. El material

genético, tanto de las plantas como de los animales, no podra transmitirse

más. Se llega al desgaste cuando la energía que se consume tiende a la

“suma-cero” total.85

El reverso de la suma-cero, la contraparte, es por supuesto la

complejidad. Mucha gente que ha malentendido a Teilhard de Chardin, ha

discutido que en sus escritos uno puede ver el mismo tipo de misticismo

predestinado que abunda en escritores como Bergson. Ellos argumentan que

Teilhard de Chardin ha impuesto una flecha a la evolución, un sentido que es

falso. Ciertamente aquí hay una lectura equivocada. En realidad los escritos

de Teilhard de Chardin son sobresalientes en todos sus temas pero, en

especial, son los mejores escritos sobre la evolución en todo el siglo XX,

porque fue lo suficientemente presciente para eliminar la idea de pirámides

en su discusión de la evolución y reemplazarlas por dos conceptos que son

fundamentales para entender el universo evolutivo, la energía radial y la

complejidad. Ambos conceptos son complementarios y, de hecho, la energía

radial, por así decirlo, nos brinda la manifestación visual de la complejidad.

Complejidad del funcionamiento de las estructuras que refleja la

complejidad de su conocimiento.

Hemos discutido en un capítulo previo la definición de energía radial.

Pero para Teilhard, la imagen de la rueda con sus rayos disparandose hacia

todas partes es más predominante que sólo describir una energía que trabaja

por debajo de niveles detectables. Uno puede decir que una vez que él

identificó la función de la energía radial, fue lo sufientemente astuto, como

85 Cuando hablamos de “suma-cero” (zero sum) nos referimos a este concepto según la teoría del juego, que discute que los sistemas complejos rechazan la suma-cero.

223

los geómetras griegos, para entender que lo que está informado a pequeña

escala, tiende a realizarse a escalas más grandes. Si el dominio de la energía

radial puede invertir la entropía y balancear las fuerzas, entonces esto se

debe a que su estructura es eficiente: debe poder lograr aprovechar lo que

consume, de manera que parezca que da más de lo que recibe. Pero hay más,

al encontrar una estructura eficiente, uno encuentra una estructura que se

replica a sí misma con ligeras variaciones. Esta idea de la réplica con

variaciones es lo que las matemáticas fractales han aclarado más que

ninguna otra disciplina.

Como el caos, los fractales son una rama moderna de las matemáticas

y, pese a su relativa novedad, sus consecuencias han sido penetrantes en

otras ciencias. Lo que las matemáticas fractales sostienen son dos cosas. La

primera es que existen estructuras iniciales que se replican a escalas más

grandes. Uno de los principales ejemplos que usan son los mapas de las

costas. Si se aumenta la escala gradualmente y se observa cómo varía la

estructura de la costa, uno se encuentra que la misma geometría se repite con

ligeras variaciones, a mejor y mayor escala cada vez. La segunda cosa que

implican las matemáticas fractales es que al detectar estructuras que se

replican con éxito en orden de ir en contra de la entropía y del desorden,

éstas señalan ciertas guías para la posible “evolución” de una entidad o

sistema. Para entender esto será útil regresar a nuestro mapa de la costa. La

costa es una estructura que ha sido moldeada por la erosión y las fuerzas

geológicas. Como estructura, se defiende de la presión y la gravedad, y si

bien se erosiona lentamente, cede a lo largo de grandes periodos de tiempo.

El proceso como que sus estratos, sus rocas, sus bancos de arena y aun sus

arrecifes van conformandose, es lo que permite a la costa minimizar los

efectos de fuerzas que la pueden destruir. Lo que la réplica de lo pequeño a

224

mayor escala logra es permitir la estabilidad de las estructuras mayores.

Teilhard de Chardin entendió esto intuitivamente y encontró en la energía

radial la semilla de toda organización de estructuras mayores; la semilla, en

breve, de la complejidad. Quedan algunos pocos puntos que tratar acerca de

esta energía y el porqué sirve de semilla a estructuras complejas. La

estructura radial no es, sin emargo, jerárquica. A diferencia de la pirámide,

que da prioridad y privilegia bases o crestas, y a diferencia de las flechas,

que señalan un sentido, la energía radial solo permite interrelación e

interdependencia. En otras palabras, la estructura radial crea redes para

entender la evolución. La evolución, bajo esta luz, no es una especie de

juego de mutaciones sin fin, que ocurre mediante ensayos y errores, ni algún

fenómeno orquestado; por el contrario, es el probar la viabilidad de una

estructura y, en ese probar, uno encuentra el aumento de posibilidades y de

lo extenso de la red inicial.

Muchos han encontrado la visión de Teilhard de Chardin meramente

poética. Sin embargo, la energía radial es literal. Encontramos sus

variaciones cada vez que volvemos la mirada y observamos la manera en la

cual la naturaleza ha invertido la entropía, el caos y el desorden. La

encontramos en el átomo; hasta donde sabemos, el modelo orbital ha sido

reemplazado por uno más amorfo, y pese a esto, a lo amorfo del nuevo

modelo, lo que encontramos ahí al final es un modelo de interdependencia

entre los “rayos” y el centro. Encontramos otra variación impresionante en

una de las más majestuosas estructuras que han emergido en el intento de la

naturaleza para defenderse de la entropía: la molécula de ADN. Aquí, a

diferencia de lo que sucede en el átomo, tenemos el principio de una

estructura que se desenvuelve a partir de su modelo inicial que era estático.

A pesar de todo los rayos centrados están ahí. Esta vez la interdependencia,

225

la red, es más profunda, y si lo es, esto se debe finalmente a que la estructura

radial es capaz de guardar información. La red, que era solamente una

cadena proteica, fue finalmente capaz, como sistema, de producir más que sí

misma por un método diferente que la simple yuxtaposición, que es el

método mediante el cual los átomos se ligan para formar materia estable.

Ahora puede procesar la energía, el calor, la luz y polimerizarse,

replicándose una y otra vez. Desde entonces, la historia es bien conocida y

ha sido contada varias veces por algunas de las más eminentes mentes.

226

EPÍLOGO

LA VISIÓN DE TEILHARD DE CHARDIN

We expect a single man to give us all the answers and produce the “synthesis.”

And then when the writer, hailed for giving us much,

is discovered to have given us less than everything, we turn from him in reaction

and disappointment: he has given us nothing.

LIONEL TRILLING

Lionel Trilling fue uno de los más prominentes críticos literarios del siglo

XX. De gran inteligencia, fue una mente urbana que no cayó en muchas de

las trampas en las cuales parecen haber caido otras mentes y muchos críticos

literarios del siglo. Para él, el texto, trátese de un poema o una novela, de

filosofía o de un ensayo, no es solamente una colección de palabras. La idea

de autorreferencia, la idea de que los textos son algo cerrado en sí mismos y

que no pueden relacionarse con el mundo en que vivimos, fue

completamente extraña a él. De hecho, para Trilling la literatura fue un

camino para comunicarse con el mundo. La literatura y el conocimiento

como un todo, funcionan como una calle de dos sentidos. La vida de los

pensadores, sus pesares y alegrias, sus rutinas, así como sus eventos

extraordinarios, moldean su visión moral, estética y teológica, y articulando

su visión, estos pensadores, a su vez, transforman la visión moral estética y

teológica de los lectores. Brevemente, Trilling creyó que la literatura no solo

tenía un contexto en la cultura, sino que tenía también relevancia en la

historia de la cultura; que influenciaba nuestras vidas.

Y sin embargo, en el pasaje que hemos escogido, da la apariencia de

estar en completa oposición a lo que hemos venido argumentando a lo largo

del libro. En principio, parecería estar diciendo que los autores son incapaces

de lograr una síntesis, incapaces de dar respuestas. La cita está tomada del

ensayo de Trilling sobre un trabajo de John Dos Passos, El que en realidad

227

es una alabanza a la trilogía de Dos Passos y laboriosamente cuenta sus

logros literarios. Pero también registra una reacción crítica a la novela y de

esta manera nos muestra cómo la cultura de la celebridad, la cultura de la

fama, tiende a distorsionar las expectativas que nos creamos de los libros y

de los autores. En otras palabras, lo que Trilling se pregunta finalmente es si

estamos pidiendo lo correcto a los libros, cuando volvemos celebridades a

los autores. En el mundo de los espectáculos, donde las estrellas se

manufacturan para ser veneradas, es lógico que esperemos la perfección, lo

impecable. Puesto que con los iconos de la pantalla nos emocionamos

mediante la emoción de otro y satisfacemos muchas de nuestras necesidades,

cuando llegamos a los libros esperamos lo mismo de ellos. Sin embargo, el

modus operandi de su lenguaje y su conocimiento no es el mismo que el de

los medios.

Pensador y autor, de hecho, trabajan de manera completamente

diferente, y aun cuando ambos pretenden darnos síntesis y respuestas, éstas

sólo revelan su humanidad imperfecta, aunque también nos dan sus síntesis

y respuestas hasta donde el lenguaje puede hacerlo, por medio de una

retórica abreviada, con la urgente ayuda de metáforas y la necesidad de

figuras en el habla. Pese a la naturaleza de tal conocimiento, seguimos

idolatrando a los pensadores más alla de lo debido. Testimonio de esto, por

ejemplo, es el status de celebridad de figuras como Stephen Hawking.

Después de la publicación de su libro Historia del Tiempo, llegó a ser un

sorprendente best seller, se convirtió en un gurú, no sólo entre la comunidad

científica, donde es legítimamente reconocido como una de las mentes más

agudas, sino también en los medios. Igualmente Stephen Jay Gould es otro

científico que ha ganado un status de celebridad y lo ha usado para tener la

última palabra en un par de casos. En los documentales o en los noticieros

228

encontramos este tipo de figura una y otra vez hasta que la cultura, que se

concibe como conocimiento y pensamiento, se convierte en una mera

penetración de sonidos repetitivos.

La posibilidad de que los intelectuales adquieran un status en la

cultura, no se debe sólo a la degeneración del pensamiento en sonidos

repetidos, sino en lo que Trilling señala. En la actualidad, la gente no espera

de los libros y el conocimiento lo que esperaba años atrás. Antes de que los

medios masivos invadieran la manera de pensar y tener 15 minutos de fama,

la gente entendía que uno adquiría conocimiento de los libros de manera

acumulativa. Ningun libro tenía todas las respuestas, pero los libros

correctos, en el orden correcto, formaban una educación. Ahora, aquellos

que comercializan a los autores y a los intelectuales como celebridades, nos

prometen darnos mesías que resolverán todos nuestros problemas

espirituales o intelectuales. ¿Qué pasa cuando estos intelectos no logran

resolver esos problemas? Entonces el juicio de los auditorios y de la crítica

tiende a ser drástico, tiende a tener ese tipo de angustia que tienen sólo

aquéllos quienes se dan cuenta de que se les ha mentido.

Para muchos, este problema puede ser poco importante en la cultura

actual. Sin embargo, es más pernicioso de lo que parece, puesto que la

sobrevaloración del intelecto y sus consecuencias han establecido una nueva

manera de valorar los antiguos trabajos. Hace algunas décadas, por ejemplo,

uno podía darse cuenta de que aquellos estudiosos que querían valorar o

escribir acerca de alguien como, digamos, Marx, iban y leían a Marx como

podrían leer a cualquier otro autor. En otras palabras, a menos que se fuera

de izquierdas, El capital tendría el mismo status que cualquier otro trabajo

filosófico. Estos eruditos podían explicar algunas ideas, revisar algunas

otras, etc. La más reciente biografía de Marx nos muestra cuán lejos nos

229

encontramos de aquéllos días. Ya no consideramos a Marx un importante

intelectual del siglo XIX, sino como un profeta, y puesto que sus profecias

han fallado, lo tomamos como un profeta defectuoso. De hecho, esta

biografía de Marx, no habla para nada de EL capital; en vez de esto, se

explaya en cada detalle de su vida personal que pudiera derribarlo de su

pedestal de profeta.

Marx, por supuesto, no ha sido la única víctima de esta tendencia.

Freud y Nietzsche, Shostakovich y Schoenberg, están entre los muchos

importantes e influyentes pensadores que han sufrido este tipo de

tratamiento de la crítica. Y aun una reputación que pareció tan firme como la

de Darwin, ha sufrido sus reveses. Entre las grandes mentes de este siglo,

ninguno ha sufrido más desaires y malentendidos, y ninguno ha sido víctima

tan grande de su tendencia intelectual como Teilhard de Chardin. La parte

extraña es que ha habido un determinado o resuelto abandono y mal

entendimiento hacia él. A diferencia de las de cualquiera de los intelectuales

que hemos mencionado arriba, las ideas de Teilhard de Chardin no son de

manera alguna amenazadoras para nadie fuera de la jerarquía de la Iglesia

católica. Al contrario, su teoría es de total sentido común, y su posición no

es la de ser el padre de algo86. Si la crítica se vuelve contra Freud, lo hace

con el conocimiento de que él está amenazando la figura de los padres. Pero

Teilhard de Chardin no ha tenido el mismo tipo de influencia. Así entonces,

¿por qué los malentendidos, por qué el rechazo?.

El trabajo más importante de Teilhard de Chardin, El fenómeno

humano, es sintético y da respuestas. El modo en que ofrece estas respuestas

y la manera como sintetiza las diferentes disciplinas para llegar a sus

86 A Teilhard de Chardin se le ha achacado ser el padre de la New Age, de la tecnognosis, del internet y hasta de la globalización.

230

conclusiones, fueron por necesidad elípticos, y a causa de la envergadura y

lo ambicioso del trabajo, pasó por alto los minuciosos detalles académicos.

En pocas palabras, mientras muchos científicos evolucionistas gastaban

página tras página en triviales definiciones, Teilhard de Chardin, en su mejor

trabajo, aceptó esas definiciones a priori. Este proceder de Teilhard de

Chardin es directamente responsable de su visión, puesto que no registró con

minuciosidad las evidencias que a él le parecieron tan obvias y las asumió

como verdades tratando de encontrar un mayor y más importante contexto.

Fue su intento de escribir un libro que sintetizara y ofreciera respuestas

importantes y vitales, combinado con su indiferencia por las convenciones

académicas, lo que hizo que crítico tras crítico ignorara, rechazara e incluso

rebajara su trabajo.

Ha sido nuestro propósito, reparar el daño causado al trabajo científico

de Teilhard de Chardin. De hecho, la mayor parte de este libro puede ser

vista como un intento de llenar las lagunas que Teilhard de Chardin dejó

cuando formuló su visión. Pero puesto que los científicos le dieron muy poca

atención al tipo de trabajo que Teilhard de Chardin realizó, y han enderezado

sus investigaciones en otra dirección, el trabajo ha resultado más que arduo.

A menudo hemos tenido que reinterpretar complicadas teorías y señalar lo

que muchos de sus exponentes se han negado a ver. A menudo nos hemos

sentido como detectives mientras buscabamos la última pista cientifica para

encontrar la pieza que se necesitaba en el rompecabezas. Y también,

mientras escribíamos el último capítulo, nos sentimos más que estimulados

al ver nuestro argumento completo de alguna manera rescatado, cuando al

abrir un periodico leímos, junto a la fotografia de un trabajador que quitaba

una mancha de una ventana de vidrio en la iglesia de St. Michael de Nueva

231

York, un encabezado que decía “La más diminuta de las partículas provocó

un gran agujero en la teoría física”.87

A lo largo de este libro hemos señalado, por supuesto, la insuficiencia

del modelo estándar. Hemos, de hecho, argumentado que para entender la

materia y las fuerzas que la gobiernan, uno tiene que pensar en una fuerza

más poderosa, que quizá pueda tener su propia manifestación material, pero

cuya función primordial es revisar la manera en que todas las fuerzas y las

partículas se comportan, portar el conocimiento y hacer surgir las leyes que

rigen las estructuras emergentes. Hemos argumentado que el papel de estas

“partículas” en la fluctuación cuántica que impulsó el big bang, fue seminal.

Desafortunadamente, todavía tenemos que trabajar de buena fe en muchas

partes, si no imaginando su existencia, deduciéndola de teorías como la de

las supercuerdas, de donde se deduce también que seran difíciles de detectar

pues se mueven en un “universo” virtual, paralelo al nuestro, pero de diez o

más dimensiones que los físicos llaman Calabi Yau. Y, si tal cosa existe,

podría hacer pedazos el más apreciado de los modelos científicos. La nueva

partícula no ha revelado tanto como esperábamos; por lo menos, no hasta

ahora. Pero junto al resurgimiento de la constante cosmológica de Einstein

como un posible componente del universo, el descubrimiento de esta

partícula, apunta en la dirección correcta. Trataremos ambos conceptos aquí.

La partícula fue descubierta en un experimento llamado E821, donde

muones creados por un acelerador de partículas llamado AGS (Alternating

Gradient Synchrotron), fueron introducidos en un poderoso campo

magnético, y la frecuencia de su oscilación se midió con una increíble

precisión. Los físicos siempre han sabido que ésta frecuencia es afectada por

87 The New York Times, viernes 9 de Febrero de 2001, vol. CL… No. 51 659. Véase también Scientific American, abril de 2001, “Physics - Unexplained Moments.” p.17.

232

las propiedades del espacio mismo. De acuerdo con las leyes de la mecánica

cuántica, que hemos señalado como las leyes que rigen el reino subatómico,

el aparentemente vacío espacio es realmente un “mar” de lo que los

científicos llaman “partículas virtuales”, partículas que aparecen brevemente

y desaparecen, e interactuan con los muones. El modelo estándar, como

también hemos discutido, muestra a los científicos cómo calcular los efectos

que todas las partículas conocidas de ese “mar”, deben tener sobre la

frecuencia de oscilación. Mientras que los cambios predichos siempre han

sido medidos y ratificados, las nuevas mediciones difieren de tales

predicciones, sugiriendo la existencia de una particula desconocida hasta

ahora y que es indefinible en ese “mar” subatómico.

Tanto la emergencia de esta perturbadora partícula, como la sospecha

de que la constante cosmológica puede ser un factor que hay que tomar en

cuenta, son para nosotros los más recientes indicios de que la visión de

Teilhard puede ser rescatada algún día. Ambos elementos parecen desmentir

la idea de que el universo es aleatorio y tiende al desorden, porque al nivel

subatómico el nuevo descubrimiento prueba que el modelo estándar es

insuficiente y, a nivel cósmico, la constante cosmológica sugiere que la fina

sintonía del universo permite que la evolución pueda ser posible.

Los escépticos, por supuesto, siempre estarán ahí. Mientras a uno le

gustaría llenar cada hueco que Teilhard dejó, siempre algún antagonista de

estas ideas discutirá contra ellas. Las voces de los escépticos son una

presencia saludable en esta disciplina, pero el escepticismo, siendo saludable

y natural, debe tener sus límites, y si uno fuera escéptico ante todas las

cosas, ninguna teoría saldría a flote. Tomemos por ejemplo la teoría del big

bang, enseñada en las aulas y actualmente aceptada como La Teoría sobre el

principio del universo; el nombre big bang fue puesto de moda por el

233

celebrado físico teórico de Cambridge Fred Hoyle, como una descripción

irónica de una teoría que él consideraba insostenible. Como muchos físicos,

Hoyle favorecía la teoría del “estado estacionario”, una teoría que sostenia

que nuevos átomos y nuevas galaxias se formaban continuamente en los

vacíos mientras el universo se expandía, de modo que las propiedades

promedio nunca variaban. En la época en que Hoyle se burló de lo que

permanecería como la teoría del big bang, realmente no existía evidencia a

favor de alguna de las dos teorías, porque las observaciones no habían

avanzado lo suficiente sobre la expansión. Pero gradualmente, a medida que

los investigadores se vieron forzados a afinar sus experimentos para

confirmar alguna de las teorías, la evidencia del big bang surgió, y ésta fue

la teoría que llegó a ser aceptada. Sin embargo, aún hoy tiene vacíos y los

escépticos siguen cuestionando su validez. Tales ejercicios parecen ser más

una pérdida de energía que intentos válidos de rectificar cualquier problema

que se tenga con la teoría. Para la mayoría de los científicos, en otras

palabras, el que la radiación de fondo tenga el espectro esperado, que la

cantidad de neutrinos haya sido más alta, que la abundancia de deuterio no

esté fuera de los parámentros esperados para que sobreviviera al big bang,

son realmente las evidencias sobre las cuales una teoría importante descansa

incontestable.

Así que si una teoría es aceptada como tal, cuando parecen tenerse

escasas pruebas, la pregunta es, ¿por qué la resistencia en el cambio de

paradigmas que la visión de Teilhard de Chardin parece requerir? Aun

cuando la tendencia de las ciencias parecen darle la razón, no existen las

suficientes evidencias para regresar a la visión de Teilhard de Chardin.

Nosotros esperamos que el armazón del libro sea suficiente para probar que

Teilhard de Chardin está en el camino correcto. Su visión es simple: él tomó

234

la teoría de Darwin sobre la evolución y la aplicó al cosmos. En otras

palabras, la evolución no empezó con una cadena proteica que se manejó

para polimerizarse aquí en la Tierra. Los polímeros y su eventual

descendencia fueron, para Teilhard de Chardin, sólo parte de un continuum,

parte de un proceso que empezó con el big bang. Hemos visto como a nivel

cósmico, la teoría de Teilhard de Chardin es fácil de probar. El big bang

mismo, y la subsecuente expansión del universo, nos permite ver el cosmos

en una dimensión temporal que es equivalente a una evolución. Más allá, la

emergencia de elementos cada vez más pesados a partir de unos más ligeros

por el uso de una estructura más bién simple, puede ser la mejor manera de

ver cómo la complejidad se desarrolla a partir de leyes simples. La estructura

del universo mismo, en otras palabras, la manera como el cosmos arregló los

materiales que emergieron a lo largo de su evolución, suiguió un patrón

fractal complejo, un patrón que se encuentra tanto en la evolución como en

los ecosistemas, confirmándonos la visión de Teilhard de Chardin del

universo como un todo. Muchos fenómenos de la naturaleza son fractales.

Como previamente hemos visto, un fractal es un patrón con la característica

matemática especial de que un fragmento, cuando se magnifica (se ve en una

escala mayor) se parece al todo. Nuestro universo es fractal, pero no tan

simple como una montaña, una costa o un árbol. Si fuera así, por supuesto

no habría permitido la variedad que es necesaria para la evolución; es más,

posiblemente estaría desprovisto de vida. Las estructuras cósmicas abarcan

un ámplio rango de dimensiones: estrellas, galaxias, grupos y supergrupos

de galaxias. Sin embargo, cuando el observador alcanza grandes escalas,

éstas empiezan a repetirse; así un fragmento de 200 millones de años luz

tiene parecido al universo entero.

235

Esta homogeneidad, la prolongada duración tanto de la expansión

como de la emergencia de las estructuras, todo confirma lo que para Teilhard

de Chardin fue crucial: la fina sintonía del universo. Pese a que es difícil

para los científicos negarlo, esta fina sintonía es un hecho que tienen

bastante reconocido. Pueden conceder que la intrincada complejidad se ha

desplegado de leyes simples. Pueden también estar de acuerdo en que el

hecho anterior no siempre está garantizado. Saben sin duda que el número

tuvo que ser el preciso para que la complejidad emergiera de estas leyes

sencillas. La más ligera variación pudo haber producido un aburrido, si es

que no, estéril universo. Los científicos saben también que una vez que

tocan esta fina sintonía del universo, una vez que empiezan a discutir este

preciso diseño que ha permitido la emergencia de estructuras más y más

refinadas que han alojado la complejidad, están llegando a esa región a la

que se han rehusado a entrar en los últimos cincuenta años, están llegando al

reino donde la ciencia tiene relevancia, donde la ciencia tiene respuestas

públicas acerca de nuestro mundo y acerca de la realidad de que estamos

aquí.

Existen varias maneras de reaccionar a esta fina sintonia del universo.

La primera respuesta es decir que podríamos no existir si esos números no

fueran los que son. Muchos científicos toman una postura antifilosófica y

pragmática al decir, “estamos aquí, así que no hay nada de qué

sorprenderse”. El filósofo John Leslie ha ilustrado cuán errónea es esta

manera de abordar la cuestión, con la siguiente parábola: Supongamos que

usted se está encarando a un pelotón de fusilamiento. 50 excelentes tiradores

apuntan, pero todos fallan. Si ellos no hubieran fallado, usted no habría

sobrevivido para considerar con especial cuidado el asunto. ¿O lo dejaría tal

236

cual? Lo más probable es que se sintiera desconcertado y buscara la razón de

su buena fortuna.

Estamos aquí y desde tiempo inmemorial hemos ponderado la razón

del por qué. Muchos de los más pragmáticos científicos nos dicen que

busquemos en otra parte la respuesta. Y esto lo hacen a riesgo de las metas

de la propia ciencia, puesto que, desde su inicio, la ciencia ha sido una de las

principales herramientas para entender por qué estamos aquí. En realidad, es

posible argumentar que el impulso original que está detrás del pensamiento

científico es el de proveer respuestas.

Las respuestas no siempre son simples; de hecho, pronto veremos

cómo las respuestas que se encuentran en la visión de Teilhard de Chardin,

no solamente no son simples, sino que nos imponen cambios difíciles en la

manera en que pensamos, actuamos y vivimos.

Teilhard de Chardin fue un creyente. Su creencia, en manera alguna

era reductiva o simplista. Para él, realmente, la actitud de muchos que ven en

la fina sintonía del cosmos la evidencia de un benéfico creador, podría

parecer reductiva y fuera de lugar. Nos referimos por supuesto al argumento

de un diseño férreamente determinista. John Poilkinghorne, el científico

teólogo, quizá sea el más claro portavoz de este argumento. Para él, el

universo no solo es “un viejo mundo cualquiera, sino que es uno especial,

finamente sintonizado porque es la obra de un Creador cuya voluntad fue

que así fuera”. El argumento de Poilkinghorne es bueno si lo que uno quiere

es confirmar la creencia en un ser supremo, pero como muchos argumentos

teológicos, no nos indica cómo debemos comportarnos en todos los

aspectos, desde la manera de planear los experimentos, hasta la manera de

alimentarnos. En realidad lo encontramos hasta peligroso, de la misma

forma en que lo han sido muchos dogmas religiosos a través de la historia,

237

pues nos despoja de cualquier responsabilidad que no sea la que el

correspondiente dogma teológico nos otorga. Para decirlo brevemente,

contempla al universo –como la primera respuesta de los científicos

escépticos– más allá de nuestro alcance y más allá de nuestra empresa,

cuando falla en responder la pregunta que si fuera contestada podría

determinar nuestro futuro comportamiento, porque como asegura Teilhard

de Chardin, el hombre tiene ahora el destino de la evolución en sus manos.

Si la visión de Teilhard de Chardin ha sido molesta para muchos, no

es a causa de sus apuntalamientos teológicos, ni por su interpretación de la

evolución. Si la teoría es amenazadora para muchos es porque da respuesta a

las preguntas de una manera muy específica, y de esta manera nos descubre

el modo de proceder como especie, como cultura, como civilización. La

esencia de la visión de Teilhard de Chardin es lo que podríamos llamar

ecológica, pero no una ecología ramplona y mediocre. Su ecología no se

limita a ecosistemas o incluso al planeta, es una ecología cósmica. Pocos

científicos han seguido las indicaciones de Teilhard de Chardin y menos aún

las han aplicado en toda su amplitud. Pero es importante para nosotros ver

como ha sido usada la teoría de Teilhard de Chardin, de manera que

podamos ver los peligros de aplicarla y la manera en la que tales peligros

pueden ser evitados.

El más famoso portavoz de la visión teilhardiana puede ser J. E.

Lovelock. En Gaia: A New Look at Life on Earth, Lovelock razona que “la

Tierra es un organismo viviente; el aire, los océanos y la tierra, forman un

sistema complejo, que puede ser visto como un solo organismo”. Lo que

Lovelock en otras palabras llama Gaia es “un inmenso ser, que en su

totalidad tiene el poder de mantener el habitat apto y confortable para la

vida”. Para razonar su punto de vista, Lovelock señala una gran cantidad de

238

imposibilidades que Gaia ha tenido que superar. La atmósfera es una de

éstas. Basado en la composición química total de la Tierra, ciertos gases

atmosféricos que son escasos deberían ser más comunes y ciertos gases

comúnes deberían ser escasos. La ley de la entropía pareciera estar en

suspenso. De acuerdo con Lovelock, la única explicación de este fenómeno

es que la “vida ha tomado una mano conductora. El más familiar ejemplo

podría ser el bióxido de carbono. Además de ser un subproducto de la

respiración de muchos seres vivos y de la oxidación de combustibles fósiles,

este gas se produce naturalmente como resultado de varios procesos no

biológicos, y por lo tanto debería ser un gas muy común. Dejando entrar y

luego aprisionando la radiación solar, la Tierra pudo mantenerse caliente. La

concentración de oxígeno puede ser otra prueba para la teoría de Gaia. El

oxígeno es un gas escaso que se volvió común “artificialmente”. Hace

alrededor de 3500 millones de años, en el amanecer de la evolución

orgánica, la vida se sostuvo en la forma de unos simples seres anaeróbicos

especificamente adaptados a un ambiente pobre en oxígeno. Durante mas de

1000 millones de años, dichos seres transformaron los gases comúnes en

oxígeno, y entonces, hace aproximadamente 2000 millones de años, pudo

tener lugar una de las más drásticas transformaciones de la evolución, el

cambio a un metabolismo económico que quema oxígeno, lo cual hace

posible el suministro de grandes cantidades de energía química y mecánica

que posibilita un amplio rango biológico. El cambio fue posible porque el

ecosistema que Lovelock llama Gaia balanceó la escasez de oxígeno

reduciendo el dióxido de carbono a la mitad durante la fotosíntesis y

separando el carbono para enterrarlo como turba, carbón o petróleo; en otras

palabras, a través de la vida y muerte de las plantas.

239

La visión de Lovelock de una tierra como una forma viviente que se

autobalancea, encaja bien con el argumento de Teilhard de Chardin. Sin

embargo, la visión de Teilhard de Chardin es más vasta, más lograda. Aun,

pese al optimismo de Teilhard de Chardin, evita muchas de las trampas

inherentes a la teoría de Gaia. Para Lovelock, el dogma central es que la

Tierra posée una potente, cibernética y muy subestimada capacidad para

mantenerse saludable. Lovelock cree que la Tierra se puede curar a sí misma

cuando su ambiente ha sido dañado. Es este optimismo el que ha confirmado

el más fatal equívoco en la interpretación de Lovelock a la teoría de Teilhard

de Chardin. Lovelock insiste en que lo que concierne al efecto de

invernadero es trivial. La preocupación por la reducción de la capa de ozono

es igualmente ridícula. La contaminación que las chimeneas despiden y que

las tuberias vomitan en los rios son, de acuerdo con Lovelock, achaques

menores que Gaia puede reparar. Lovelock comete aquí una imperdonable

omisión para alguien que se dice científico. Olvida que las catástrofes

pueden ser constructivas o destructivas según ocurran en largos o cortos

lapsos. Si a un cuerpo humano le producimos muchas heridas a lo largo de

toda su vida, es probable que se recupere, pero si esas mismas heridas se le

provocan en una semana el individuo morirá porque el cuerpo no tendrá

capacidad de regenerarse. Sin embargo, la teoría de Lovelock que al

principio parece ecológicamente razonable, se empaña bajo su propio

argumento y llega a ser una estéril y fría visión de la evolución y de la

Tierra. Por esto falla y no puede responder a una pregunta fundamental: Si el

planeta es un ser viviente, cuando el comportamiento equivocado de la

humanidad hacia la Tierra progrese hasta el punto en que las heridas en Gaia

sean lo suficientemente profundas para que siga con vida, pero esta vida ya

no pueda sustentarnos, ¿deberá la ausencia del Homo sapiens, o la ausencia

240

de cualquier cosa viviente ser la prueba de una herida irreparable? ¿Deberá

esto ser la prueba de que Gaia no pudo reparar todo el daño?

La visión de Gaia es finalmente irresponsable en su optimismo y nos

muestra el peligro inherente de tomar a la ligera una profunda visión como la

de Teilhard de chardin. La visión de Lovelock ve la extinción y contesta “¿Y

qué? ¿Qué si un puñado de especies se extingue? la extinción es un proceso

natural, Darwin mismo lo dijo”. Biólogos y paleontólogos hablan de niveles

de extinciones de fondo a lo largo de la historia de la vida. Estos niveles de

fondo son las tasas rutinarias promedio a la cual las especies desaparecen.

Esto está generalmente balanceado por la velocidad a la que las especies se

desarrollan. Junto con la extinción, esto constituye otra forma de rotación.

Las tasas de extinción en el remoto pasado no pueden ser calculadas con

precisión por los huecos que existen en el registro fósil. Pero el paleontólogo

David Jablonski ha elaborado un informe aproximado y ha colocado las

anteriores extinciones en “quizá unas pocas especies por millón de años”.

Unos pocos mamíferos, unos pocos peces, etc., cada millon de años. Tales

pérdidas a tales proporciones pueden ser contrarrestadas por la velocidad de

desarrollo de las especies. La extinción a estos niveles es un proceso

sustentable. Y si éste fuera el único tipo de extinción, el argumento de Gaia

sería sostenible.

Pero hay otras extinciones. Junto a las extinciones de fondo, un cierto

número de grandes eventos ha emergido Estos cataclismos son como

periodos en la historia de la vida. Y como ya apuntamos, cuando suceden en

tiempos adecuados son eventos o catástrofes constructivos.

Estas extinciones masivas que son famosas, generalmente sirven como

ejemplo en los libros de texto: la extinción del Cretáceo es una; la del

Pérmico. Lo que caracteriza a estas extinciones masivas es que suceden en

241

breves periodos de tiempo.88 Consecuentemente, la tasa de extinción excede

a la tasa de crecimiento y desarrollo de las especies. Cuando esto sucede,

hay dos resultados calamitosos; la riqueza de la biosfera se desploma y los

ecosistemas pierden su equilibrio. Con los ecosistemas destrozados, les toma

a las especies millones de años llenar los huecos.

El debate sobre las causas de las extinciones masivas en el pasado no

será resuelto en breve, por lo que dejaremos de lado las teorías

sensacionalista que sólo son ciencia-ficción, como la de la existencia de una

“estrella muerta”, que orbita con nuestro Sol, ejerciendo una gravitación

cósmica que arrastra una masiva cantidad de asteroides y los impulsa cerca

de la Tierra cada 26 millones de años.

Lo que realmente importa es entender lo que es una extinción masiva.

De acuerdo con Jablonsky, se supone que una extinción es masiva cuando la

tasa a la cual desaparecen las especies es el doble de la tasa de la extinción

de fondo para muchos diferentes grupos de animales y plantas. Pero más

terrorifico que esos remotos eventos es el hecho de que si analizamos la

definición de Jablonsky y observamos el impacto ecológico que los humanos

hemos producido en el planeta, estamos pasando justo ahora por una

extinción masiva que se está produciendo en un brevisimo lapso, lo que la

convierte en la más peligrosa de cuantas extinciones se hayan producido.

En realidad, esta extinción masiva comenzo en el neolítico, cuando los

grupos de cazadores nómadas de la Europa central despeñaban las manadas

de Mamuts para obtener unos cuantos filetes, y ahí quedó la evidencia. Los

88 Tenemos que ser cuidadosos al hablar de brevedad en la escena cósmica. Según la teoría del equilibrio interrumpido, los largos periodos estables, donde sólo ocurren las extinciones de fondo, son de cientos de millones de años, y los breves lapsos a los que se refieren las extinciones masivas son de solo uno 2 a 5 millones de años. Una catástrofe

242

humanos de esta misma cultura neolítica establecidos en los bordes de los

continentes empezaron a aventurarse a través del mar abierto en sus canoas

de troncos ahuecados y colonizaron remotas islas, como Madagascar, Nueva

Zelanda, Nueva Caledonia y el archipielago de Hawai. Esta colonización

rápidamente acabó con algunas de las especies endémicas de aves. Desde la

época de los viajes del neolítico, pasando por la colonización europea de

Asia, Africa y el Nuevo Mundo, hasta nuestros dias, más de 20% de las

especies de aves se han extinguido. Durante los últimos siglos, al hacerse

concomitante la Revolución Industrial, la explotación de los recursos

naturales llegó a su clímax, la tasa de extinción creció exponencialmente y el

peligro se extendió desde las más frágiles y fácilmente extinguibles especies,

hasta las plantas y animales más resistentes. Sin duda, si la presente

tendencia continua –aunque lo más probable es que se incremente – dentro

de pocas décadas habremos perdido la mayor parte de las especies de flora y

fauna.

Si la visión de Lovelock está tomada de la de Teilhard de Chardin, no

la sigue correctamente. En nuestra opinión, la teoría de Gaia parece al

principio bastante lógica y atractiva. El resultado del razonamiento de

Lovelock, su creencia de que Gaia puede reparar sus heridas, defrauda la

visión de Teilhard de Chardin. Como hemos discutido en capítulos previos,

la piedra angular sobre la que descansan las ideas de Teilhard de Chardin, es

su creencia en que el incremento de la complejidad es la flecha que guía la

evolución. Y si la visión de Teilhard es relevante hoy día, es porque en una

visión para la cual la máxima complejidad es el destino, nuestras actuales

tendencias como cultura, nuestro comportamiento como especie, son

destructiva sucedería en mucho menos tiempo, como podría ser una guerra atómica que acabara con todo signo vida.

243

completamente contrarias a esta visión. Por lo que debemos recordar que si

extinguimos la mayor parte de la diversidad del planeta, perderemos la

complejidad que se ha adquirido a lo largo de la evolución de la Tierra. Este

reclamo es por supuesto una vieja cantaleta para muchos, y muchos están

cansados y hastiados de oirla. Pero el número de expertos preocupados es

sorprendente. Paul Ehrlich estima que actualmente la tasa de extinción es de

cien veces más que el nivel de extinción de fondo (background level).

Edward O. Wilson, investigador de invertebrados en las selvas lluviosas,

estima que la actual pérdida de especies en estas selvas supera en mil veces

el nivel normal. Lo que no dicen es que estos números nos llevan a la misma

ominosa conclusión: nuestro impacto devastador sobre la biosfera es suicida.

A la velocidad que vamos desvastando no sobreviviremos mucho como

especie, por lo menos no como especie que pueda progresar, desarrollarse,

evolucionar. Lovelock puede estar en lo cierto. Sí, la riqueza del ecosistema

terrestre pudiera recuperarse, pero el contratiempo será profundo y

devastador y le tomará a Gaia por lo menos 20 millones de años para

reponerse. Las palomas y gorriones, las cucarachas, las ratas y los dientes de

león, como nosotros, son mala hierba ecológica que probablemente

sobrevivirá para heredar nuestro material genético que podría dar paso a una

nueva diversidad. Quizá en el futuro pueda emerger algo llamado sabiduría y

sensibilidad, y a eones de distancia de ahora, futuros paleontólogos

encontrarán la evidencia y se maravillaran de lo que sucedió en el planeta, lo

que causó vastas pérdidas en por lo menos seis épocas: Al final del

Ordoviciano, en el Devónico superior, al final del Pérmico, del Triásico y

del Cretácico y, 65 millones de años después, al final del Cuaternario, justo

alrededor de la época cuando los regístros fósiles se mezclaron con los

registros arqueológicos y se excavan huesos junto a canoas ahuecadas,

244

hachas de piedra, arados, veleros de tres mástiles, automoviles, envolturas de

fast food, equipos de televisión, computadoras personales, trascavos y sierras

de todo tipo.

Para quien esta visión le parezca exagerada, y piensen que el ser

humano es una blanca paloma, lleno de virtudes y dignidad, hay más malas

noticias: según los últimos descubrimientos paleontológicos, resulta que en

nuestros albores no estuvimos solos. Compartimos el planeta con por lo

menos 15 especies de Homo a las cuales no permitimos evolucionar. El

Homo sapiens nació con un desaforado instinto destructor. Parece que

estuvo en lo correcto Albert Szent-Györyi cuando dijo que “el cerebro no es

un órgano del pensamiento, sino de la sobrevivencia, como las zarpas y los

colmillos. Está hecho de tal forma que nos hace aceptar como verdad cosas

que solo son ventajas” (aparentemente).

Como paleontólogo, Teilhard de Chardin estaba consciente de las

extinciones. De hecho, su trabajo más teórico parece impulsado por ese

conocimiento de las profundas pérdidas debidas a la extinción. El

optimismo, sin embargo, proviene de lo ámplio y bien logrado de su visión,

y si la vemos de más cerca, nos puede ayudar a entender las diferencias con

sus seguidores. Porque, mientras escritores como Wright tienden a ser

reductivos en sus intentos de reconciliar la visión de Teilhard de Chardin

con el mundo moderno, y a menudo equiparan la noosfera con el internet y

el comercio global, pensadores como Lovelock a menudo fallan en seguir a

Teilhard de Chardin toda la ruta. Teilhard de Chardin, pensamos, estaría de

acuerdo con varias de las premisas de Lovelock, Sin embargo, nosotros

hemos encontrado otra gran diferencia. El reloj evolutivo de Lovelock

comienza su marcha cuando Gaia empieza a hospedar moléculas que se

245

polimerizan. El reloj evolutivo de Teilhard de Chardin, por otro lado,

empieza a marcar antes de lo que actualmente nos puede indicar el big bang.

Como hemos visto a lo largo de todo el libro, la idea de que el

universo es una evolución, sigue siendo altamente controversial. Los físicos

encuentran la palabra evolución, cuando la aplican a la historia cósmica,

demasiado metafórica, no lo suficientemente específica. Como también

vimos, David Layzer es uno de los pocos científicos que han razonado, con

argumentos sólidos, que el universo ha sido moldeado por la evolución.

La visión de Teilhard de Chardin hace de la evolución la fuerza que

configura la historia universal, no sólo la historia de la Tierra. Su aparente

optimismo puede provenir del hecho de que concede tan fundamental

influencia a la evolución. La palabra que entra aquí en vigor es “aparente”.

Considerando nuestras circunstancias, las ideas de Teilhard de Chardin

parecen opimistas. A pesar de todo, nuestras circunstancias ecológicas son

sólo un pequeño grano de arena en cuanto a la visión de Teilhard de Chardin

concierne. En realidad, nos gustaría argumentar que Teilhard de Chardin

parece optimista si uno se niega a leerlo en sus propios términos, y sus

propios términos implican un cambio paradigmático hasta lo más profundo

en nuestra manera de razonar. Teilhard de Chardin demanda un cambio

epistemológico.

Este cambió epistemológico es análogo a lo que Kant definio como lo

sublime. Para Kant, lo sublime era “un objeto [de la naturaleza] cuya

representación determina a la mente a pensar en la inasequibilidad de la

naturaleza como una representación de las ideas de la razón.” Lo que Kant

propone como principio es mucho más simple que su densa prosa.

Realmente, su definición parece sintetizar muchas de las ideas que

pensadores antes que él propusieron como principio acerca del concepto de

246

lo sublime. Desde Longino, el primer escritor que efectivamente aclaró

algunas de sus definiciones básicas, la pretensión de lo sublime es que los

humanos pueden, en sentimientos y en palabras, trascender lo humano. Que,

si algo, se encuentra más allá de lo humano –Dios o dioses, el demonio o la

naturaleza–, es un asunto que se deja a cada escritor individual que aborda el

concepto de lo sublime. En el centro de lo sublime, sin embargo, hay algo

más allá de la dimensión humana. Brevemente, lo que el concepto de

sublime ha permitido a través de las centurias, ha sido una vía creíble para

tratar lo que puede ser llamado “superhumano”. El hecho de que la

trascendencia más allá de lo humano este en el centro de lo sublime está tan

interiorizado, que Kant encontró innecesario mencionarlo. En lugar de ésto,

él vió la manera en la cual lo sublime es un momento que experimentamos

mientras contemplamos una escena natural u otra cosa más allá de nuestra

explicación, permitiendo un cambio epistemológico. Kant dividió lo sublime

en tres estados. En el primer estado de lo sublime, la mente está en en una

determinada relación con el objeto que contempla. Esta relación es habitual

y más o menos inconsciente, éste es el estado de percepción normal, donde

no hay disonancia ni discrepancia entre lo que se contempla y la manera en

que se le entiende. Hay allí una tersa correspondencia entre lo interno y lo

externo. En el segundo estado, la relación habitual entre mente y objeto se

rompe repentinamente. Sorpresa o asombro es el resultado de este

rompimiento que produce una desconcertante desproporción entre lo interno

y lo externo. Esto ocurre porque el objeto que se contempló es excesivo para

las capacidades semánticas de la mente. En la ciencia, este momento anuncia

revoluciones. Los registros geológicos y los lapsos que parecen contener,

pueden ser un buen ejemplo. Igualmente, la vastedad del espacio y los

grandes lapsos que ha requerido la historia universal que nos precedió,

247

pueden ser ejemplos de objetos para los cuales la mente parece no estar lista

o equipada para entender. En el tercer y final estado kantiano de lo sublime,

encontramos que tenemos etiquetado algo que nos permite realizar un

cambio epistemológico, puesto que la mente encuentra nuevas vías de

entendimiento En realidad, el tercer estado se caracteriza por el hecho de que

la mente recupera el balance de lo externo e interno y reconstruye una nueva

relación entre ella misma y el objeto, de manera que la indeterminación que

caracteriza el segundo estado se usa aquí como un trampolín para que la

mente entienda y clarifique un orden trascendente. En otras palabras, en el

planteamiento de Kant, el objeto que causa el sentimiento de lo sublime está

interiorizado, y como tal, es capaz de permitir a la mente el decubrir nuevas

vías de entendimiento.

Teilhard de Chardin, por supuesto, nunca hubiera aplicado la idea de

lo sublime a su visión. Su esfuerzo, hasta donde a él concierne, fue

puramente científico y lo ciñó a la filosofía tanto como cualquier otro trabajo

de ciencia lo hace, solamente por necesidad. Pero como el trabajo de gente

como Einstein, que si no fue tan profundamente espiritual, sí fue

espiritualmente inspirado, cuestionando el universo, no como una fórmula

sino como un objeto maravilloso, como una creación de un ser más grande,

el trabajo de Teilhard de Chardin está profundamente ligado a la

trascendencia. Más aún, su trabajo no solamente proyecta respeto a la

creación, sino que en realidad internaliza este respeto y lo canaliza para crear

un nuevo entendimiento. Podemos decir que el momento sublime en

Teilhard de Chardin, el momento de respeto, surge de su comprensión de

que la evolución no es un accidente que ocurre en algun aislado planeta

llamado Tierra. El momento en el que Teilhard de Chardin propone como

principio que la evolución en la Tierra es solamente un fragmento en un

248

continuum que empezó en el big bang y el cual continuará con o sin nosotros

en el futuro, hasta que el universo cumpla con su función.

Teilhard de Chardin demandó de sí mismo, así como de los demás

científicos, que cambiaran no solamente el modo de hacer ciencia, sino la

manera en la cual conocemos y entendemos; de aquí nuestra pretención: su

trabajo demanda un cambio epistemológico.

Como hemos visto previamente, cuando la teoría del big bang lo

propuso, muchos científicos lo rechazaron. Sin embargo, a medida que ganó

aceptación en los circulos teóricos, forzó a los círculos de investigación a

reenfocar y refinar sus métodos, así que gradualmente forzó a ambos a

confirmar o refutar la teoría. Las ideas de Teilhard de Chardin demandan

algo similar a mucha mayor escala. Los científicos que han criticado a

Teilhard de Chardin, rechazan su trabajo por teleológico y antropocéntrico.

Esta última acusación se debe, por supuesto, a un completo malentendido del

trabajo de Teilhard de Chardin. Para él los humanos son la más grande

manifestación de la evolución porque personifican la mayor complejidad. Al

mismo tiempo, Teilhard de Chardin está consciente de que los humanos,

como la evolución en la Tierra, son solamente un paso en un viaje más largo.

La primera acusación, la que ve su trabajo como teleológico es, en efecto,

correcta. El truco que los críticos de Teilhard de Chardin han usado, es

semántico. Antropocéntrico y teleológico son palabras sucias en el lenguaje

actual. Combinadas a menudo implican que el Homo sapiens es el fin de la

teleología. Nada más lejos de la verdad en el método de Teilhard de Chardin.

Su teleología es mucho más compleja que eso. El Homo sapiens,

como tal, no es el propósito del universo. Es sólo un peldaño en un proceso

más largo. El propósito del universo es nada menos que el Punto Omega.

Éste es uno de los conceptos que Teilhard de Chardin acuñó y que ha sido

249

adoptado ampliamente por la comunidad científica. La adopción no siempre

ha sido correcta ni fiel al espíritu teilhardiano. Para él, el Punto Omega es la

síntesis última, por la que reconcilia su teleología con el verdadero concepto

científico del “big crunch”, que para muchos científicos es otra prueba de

que el universo no apunta a nada y que esta regido por el azar. Testimonio de

esto, por ejemplo es la manera en que Stephen Hawking usa una y otra vez

los agujeros negros como una pequeña versión de lo que sucederá en el “big

crunch”, y demasiadas veces ha argumentado que la información engullida

por un agujero negro llegaria a ser silenciada. La visión de Teilhard de

Chardin es diametralmente opuesta a la de Hawking. Para él, el Punto

Omega es el punto donde los “centros reflexivos del mundo…

efectivamente” convergen.

250

BIBLIOGRAFÍA

Albert, David Z., Quantum Mechanics and Experience, Cambridge: Harvard University

Press, 1992. —— “Bohm’s Alternative to Quantum Mechanics,” Scientific American, mayo 1994 Aristóteles, Obras filosóficas, México, Conaculta /Océano, 2000. Barbour, Julian, The End of Time (The Next Revolution in Physics), Oxford University

Press 2000, Oxford, 1999. Barnett, Lincoln, El universo y el doctor Einstein, México, Fondo de Cultura Económica,

1973. Berger, A. (ed.), The Big Bang and Georges Lemaitre, Dordrecht, Reidel, 1985. Bergson, Henri, La evolución creadora, Barcelona, Planeta-Agostini, 1994. Berlin, Isaiah, The Proper Study of Mankind: An Anthology of Essays, Nueva York,

Farrar, Strauss Giroux, 2000 Birx, H. James, Interpreting Evolution (Darwin & Teilhard de Chardin), Buffalo,

Prometheus Books, 1991. Bohm, David, Wholeness and Implicate Order, Boston, Routledge & Kegan Paul, 1988. —— , La totalidad y el orden implicado, Barcelona,Kairos, 1992. Bonan, Kathy y Yves Cohen, Comer con inteligencia, México, Hermes, 1990. Bondi, Hermann, Relativity and Common Sense. A New Approach to Einstein, Nueva

Cork, Dover Publications, 1980. Bourges, Hector, Nutricion y alimentos, México, CECSA, 1987, (Colección Consejo

Nacional para la enseñanza de la Biología). Braun, Eliezer, Caos, fractales y cosas raras, México, SEP-FCE-Conacyt, 1996,

Colección La ciencia desde México, No. 150. Clark, Stuart, Towards the Edge of the Universe (A Review of Modern Cosmology),

Londres, John Wiley & Sons/PRAXIS, 1997. Cohen, A. Bernard, The Newtonian Revolution, Londres, Cambridge University Press,

1983 Conway-Morros, Simon, The Crucible of Creation: The Burgess Shale and the Rise of

Life, Los Angeles, Getty Center for Education in the Arts, 1999. Corbella, Joseph, E. Carbonel, S. Moya y R. Sala. Sapiens, El largo camino de los

homínidos hacia la inteligencia, Barcelona, Península, 2000. Coveney, Peter y Roger Highfield, Frontiers of Complexity (The Search for Order in a

Chaotic Word), Nueva York, Fawcett Columbune. Cuénot, Claude, Teilhard de Chardin: A Biographical Study, Londres, Burns & Oates,

1959. Cushing, James T., Philosophical Concepts in Physics (The historical relation between

philosophy and scientific theories). Cambridge. Cambridge University Press. 1998 Charon, Jean E., El conocimiento del universo. Barcelona. Martínez Roca. 1968, Darwin, Charles. The Origin of the Species, (facsimile de la primera edición), Cambridge,

MA, Harvard University Press, 1964 ——, El origen de las especies. Barcelona. Bruguera. 1967. Davies, Paul. Other Worlds (Space, Superspace and the Quantum Universe), Londres,

Penguin Books. 1988.

251

——, Sobre el Tiempo (La revolución inacabada de Einstein). Barcelona, Grijalbo Mondadori, 1996.

Dawkins, Richard. The Blind Watchmaker: Why the Evidence of Evolution Reveals a

Universe Without Design. Nueva York, W.W. Norton & Company. 1987 Deutsch, David. The Fabric of Reality: The Science of Parallel Universes and Its

Implications. Londres. Penguin Books, 1997. Dobzhansky, Theodosius. Mankind Evolving. The Evolution of the Human Species.

Boston, Yale University Press. 1962. Einstein, Albert. La teoría de la relatividad. Barcelona. Altaya. 1993. Colección Grandes

obras del pensamiento. No. 4. —— , The Principle of Relativity. Nueva York, Dover. 1952. Evelyn Grim, John and Mary. Teilhard de Chardin. A Short Biography. Nueva York,

Anima Books. 1984, Colección Teilhard Studies. No. 11. Ferris, Timothy. The Whole Shebang: A State of the Universe Report. Nueva York,

Simon & Schulster. 1997 Feynman, Richard. Lectures in Physics, vol. III. Boston: Addison-Wesley. 1965. ——, The Character of Physical Law. Londres, Penguin Books, 1992. ——, y S. Weinberg. Las partículas elementales y las leyes de la física. Barcelona,

Gedisa, 1991. Fortey, Richard. Life: A Natural History of the First Four Million Years on Earth. Nueva

York. Knopf. 1997 Gargía-Colín, Leopoldo, Marcos Mazari, Marcos Moshinski, et al.. Niels Bohr: científico,

filósofo, humanista. México. SEP-FCE-Conacyt, 1991. George, Pierre. El medio ambiente. Barcelona, Orbis, 1985. Gleick, James. Chaos (Making a New Science). Nueva York. Penguin Books. 1988. Gómez Marín, Edgar. Esto es el caos. México. Consejo Nac. para la Cultura y las Artes.

1995. Gould, Stephen Jay. Wonderful Life: The Burgess Shale and the Nature of History. W.W.

Nueva York, Norton & Company, 1989. —— , Full House: The Spread of Excellence from Plato to Darwin. Three Nueva York,

Rivers Press. 1996 Green, Brian. The Elegant Universe (Superstrings, hidden dimensions and the quest for

the ultimate theory). Nueva Cork, W.W. Norton & Co., 1999. Gribbin, John. El punto Omega (La búsqueda de la masa perdida y el destino final del

universo). México. CONACULTA/Alianza. 1990. ——, In Search of the Double Helix: Quantum Physis and Life. Nueva York. Bantam

Books. 1985. ——, Q is For Quantum: An Encyclopedia of Particle Physics. Nueva York. Touchstone

Books. 2000 Guitton, Jean, Igor y Grichka Bogdanov. Dios y la Ciencia. Argentina, Emece Editores, .

1992. Guth, Alan H., The Inflationary Universe: The Quest for a New Theory of Cosmic

Origins. MA, Helix Books. 1997. Hacyan, Shahen. Del Mundo Cuántico al Universo en Expansión. SEP-FCE-Conacyt,

México. 1994, Colección La Ciencia desde México. No. 129.

252

——, El descubrimiento del universo. SEP-FCE-Conacyt, 1996, Colección La Ciencia desde México. No. 6.

Hawking, Stephen W., Historia del tiempo (Del big bang a los agujeros negros). México. Crítica. 1988.

Hawkins, Michael. Hunting Down the Universe: The Missing Mass. Primordial Black

Holes and Other Dark Matters. MA, Helix. 1998. Heisenberg, Werner. La imagen de la naturaleza en la física actual. Barcelona. Planeta-

Agostini. 1993. Heisenberg, Werner. Physics and Beyond. Nueva York, Harper and Row. 1971. Herbert, Nick. Quantum Reality: Beyond the New Physics. Nueva York, Doubleday.

1985. Hoffman, Banesh. The Strange Story of Quantum. Nueva York. Dover. 1959. Jablonski, David. “Causes and Consequences of Mass Extinctions: A Comparative

Approach” In Elliott’s Dynamics of Extinction. Nueva York, John Wiley, 1986 ——, “Mass Extinctions: New Answers, New Questions.” In Kaufman and Mallory’s

The Last Extinction. Cambridge, MIT Press, 1986 ——, “Extinctions: A Paleontological Perspective”. Science, vol. 253 16 agosto, 1991. Jammer, Max. The Conceptual Development of Quantum Physics. Nueva York,

McGraw-Hill, 1966. Kane, Gordon. Supersymmetry: Unveiling the Ultimate Laws of Nature. Cambridge,

MA, Helix Books, 2000. Kauffman, Stuart A., Investigations. Nueva York, Oxford University Press. 2000. ——, The Origins of Order (Self-organization and selection in evolution). Nueva York.

Oxford University Press. 1993. Keegan, John. The First World War. Nueva York, Knopf.. 1999. Kragh, Helge. Quantum Generations. A History of Physics in the Twentieth Century. NJ,

Princeton University Press, 1999. Layzer, David. Cosmogenesis: The Growth of Order in the Universe. Oxford. Oxford

University Press. 1991 Lederman, Leon. The God Particle: If the Universe is the Answer, What is the Question?

Nueva York. Delta. 1993. Lenay, Charles. La evolución (De la bacteria al hombre). Barcelona. RBA Editores.

1993. Lindley, David. Where Does the Weirdness Go: Why Quantum Mechanics is Strange but

not as Strange as You Think. Nueva York, Basic Books. 1996. Lovelock, James. Gaia: A New Look At Life on Earth. Oxford. Oxford University Press.

2000. Lucas Hernández, Juan de Sahagún. Teilhard de Chardin (1881-1955). Madrid.Ediciones

del Orto. 996. MacCarthur, Robert. Geographical Ecology: Patterns in the Distributions of the Species.

NJ. Princeton U P. Princeton, 1984. Mach, Ernst. The Science of Mechanics. La Salle, IL, Open Court. 1960. Mandelbrot, Benoît. Los objetos fractales. Barcelona. Tusquets. 2000. McNeil, J.R. Something New Under the Sun: An Environmental History of the Twentieth

Century World, Nueva York, W.W. Norton & Company, 2000 Medwar, Peter. “Critical Review of The Phenomenon of Man”. Mind 70. p. 99-106

253

Morris, Richard. Times Arrows: Scientific Attitudes Toward Time. Nueva York. A Touchstone Book. 1985

Newton, Isaac. Mathematical Principles of Natural Philosophy and His Systems of the

World. Trans. Florian Cajori and Andrew Motte. Berkley, University of California Press. 1934.

Pais, Abraham. Subtle is the Lord…The Science and the Life of Albert Einstein. Londres. Oxford University Press. 1982.

Parker, Barry. Chaos in the Cosmos (The Stunning Complexity of the Universe). Nueva York. Plenum Trade. 1996.

Patterson, James T. Grand Expectations: The United States, 1945-1974. Oxford.Oxford University Press. 1996.

Penrose, Roger. La Mente Nueva del Emperador (En torno a la cibernética, la mente y

las leyes de la física). México. CONACYT-FCE, 1996. Pérez Ransanz, Ana Rosa. Kuhn y el cambio científico. México. FCE, 1999. Popper, Karl R., Teoría cuántica y el cisma en física. Madrid. Tecnos. 1996. Prigogine, Ilya. The End of Certainty (Time, Chaos, and the New Laws of Nature). The

Nueva York. Free Press. 1997. Provencal, Yvon. The mind of Society (From a Fruitful Analogy of Minsky to a

Prodigious Idea of Teilhard de Chardin). Amsterdam. Gordon and Breach Pub. 1998.

Provenzano, Joseph P., The Philosophy of Consciousus Energy (Answer to the ultimate

questions). Nueva York, Winston-Derek, 1993. Rees, Martin. Before the Beginning: Our Universe and Others. MA, Addison Wesley

Reading. Massachusetts. 1997. ——, Just Six Numbers: The Deep Forces that Shape the Universe. Nueva York. Basic

Books. 2000 Ridley, Matt. Genoma. La autobiografía de una especie en 23 capítulos. Madrid. Taurus.

2000. Rowan-Robinson, Michael. Cosmology. Oxford. Clarendon Press. 1996. Russell, Bertrand. La perspectiva científica. México. Planeta/Ariel. 1992. Schifter, Isaac. La Ciencia del Caos. SEP-FCE-Conacyt, México. 1996, Colección La

Ciencia desde México. No. 142. Schilpp, Paul Arthur. Albert Einstein: Philosopher Scientist. La Salle, IL: Open Court.

1969. Schlosser, Eric. Fast Food Nation. Nueva York. Houghton Mifflin 2001. Silk, Joseph. The Big Bang (The creation and evolution of the Universe). San Francisco,

W. H. Freeman and Company, 1980. Simonnet, Dominique. En busca de la naturaleza perdida. El ecologísmo. México.

Gedisa. 1987. Smolin, Lee. The Life of the Cosmos. Oxford. Oxford University Press, 1997. Stravinsky, Igor. Chronicle of My Life. London, Victor Golancz. 1936. Strikker, Allerd. The Transformation Factor: Toward an Ecological Consciousness. MA,

Element. Rockford, 1992. Teilhard de Chardin, Pierre. Activation of Energy. Nueva York. HBJ. 1960. ——, El fenómeno humano. Madrid. Taurus. 1963. ——, La visión del pasado. Madrid. Taurus. 1966.

254

——, Christianity and Evolution. Nueva York. A Harvest/HBJ Book. 1969. ——, Human Energy. Nueva York. Harper Harvest Book. 1969. ——, Toward the Future. Nueva York, A Harvest/HBJ Book. 1975. Tippler, Frank J., The Physics of Immortality: Modern Cosmology, God and the

Resurrection of the Dead. Nueva York. Anchor Books. 1994 Torres, José Leonel. En el nombre de Darwin. México. FCE-Conacyt, 1995. Trefil, James S., 101 Things you don´t know about science and no one else does either.

Nueva York. Mariner Books. 1996. Tresmontant, Claude. Introducción al pensamiento de Chardin de Teilhard. España.

Taurus Ediciones. 1966. Vico, Gianbattista. Principios de una ciencia nueva sobre la naturaleza común de las

naciones. Argentina.Aguilar. 1981. Waldrop, Michell. Complexity (The emerging science at the edge of order and chaos).

Nueva York. Touchstone Book. 1993. Weinberg, Steven. The First Three Minutes (A modern View of the origin of the

Universe). Nueva York. Basic Book. 1993. Wendt, Herbert. Antes del Diluvio. Barcelona. Noguer. 1968. Wendt, Herbert. Empezó en Babel (El descubrimiento de los pueblos). Barcelona,

Noguer. 1961. Wendt, Herbert. Tras las Huellas de Adán. Barcelona. Noguer. 1967. Westfall, Herbert. Never at Rest: A biography of Isaac Newton. Londres. Cambridge

University Press. 1980 Wheeler, John Archibald. Geons, Black Holes and Quantum Foam: A Life in Physics.

Nueva York. W.W. Norton & Company. 1998. Whitrow, G. J., La Estructura del Universo (Introducción a la Cosmología). México.

FCE, 1966. Breviarios. No. 61. Wilson, Edward O., “The Species Equilibrium” in Diversity and Stability in Ecological

Systems. Brookhaven Symposia in Biology No. 22 ——, The Diversity of Life. Cambridge MA. Belknap Press. 1992 ——, Consilience (The unity of Knowledge). Nueva York. Alfred A. Knopf. 1998. ——, and Daniel S. Simberloff. “Experimental Zoogeography of Islands: Defaunation

and Monitoring Techniques”. Ecology. vol 50. No.2 Wright, Robert. Non Zero: The Logic of Human Destiny. Nueva York. Pantheon Books..

2000. Zohar, Dana. The Quantum Self: Human Nature and Consciousness Defined by the New

Physics. Nueva York. Quill. 1991. ——, y Ian Marshall. The Quantum Society (Mind, Physics, and a new Social Vision).

Nueva York. Quill/William Morrow. 1994