Nuevos rumbos para la cosmología

46
Nuevos rumbos para la Cosmología (FINALES DE LOS 70 A FINALES DE LOS 80) Estos años encuentran a la astronomía en un proceso de conjunción de ideas provenientes de varios campos de la física y destacan, entre ellas: la hidrodinámica y la física cuántica subatómica de laboratorio a lo que se suman al trabajo cosmológico normal fundamentado en los conocimientos y las herramientas astronómicas. Más tarde se le unen especialistas en computación con “software” diseñado para tal labor. Todo ello para reforzar y ampliar una teoría que satisfaga una visión unitaria del Universo, como una necesidad de eliminar la discontinuidad en el conocimiento, así como una conjunción con las teorías del microcosmos que extrapoladas permitan conocer mejor - o al menos - buscar una aproximación mayor al conocimiento del macrocosmos y del microcosmos incluyendo la inserción del ser humano y su destino, lo que obliga a postularse nuevas teorías sobre la vida ,y ese órgano con el cual pensamos ,que se supone es la culminación del proceso evolutivo del ser humano. Asimismo este periodo es sumamente rico en postulaciones teoricas y en concresiones experimentales y observacionales . Se está en plena euforia de los viales espaciales de las naves Apolo y Vikingo (EUA) y Lunad, Progreso (URSS),entre otras. En el campo estrictamente observacional, la astronomía enfrenta el problema de correlacionar la observación visual de los nuevos telescopios, con los datos provenientes de los radiotelescopios (medición de radiaciones en parte del espectro electromagnético) con la que arrojan las sondas cósmicas tripuladas y no tripuladas; los datos de mediciones y observaciones llevadas a cabo con globos de gran altura y también con aviones que alcanzan grandes altitudes (complemento de la medición del espectro electromagnético). Aunque ya los conceptos semánticos para telescopio y radiotelescopio en verdad dicen poco, pues se han quedado cortos, lo cierto es que los datos empíricos que arrojan estos instrumentos son las únicas herramientas continuas de costo accesible que tiene la ciencia para comprobar lo que la teoría predice o para inferir - a partir de las observaciones - nuevas facetas para remozar la teoría estándar del B.B. A la par del envío de tripulaciones norteamericanas y soviéticas a dos Laboratorios Espaciales colocados en órbitas estacionarias, ambos países (por aparte) hacen los preparativos finales para lanzar plataformas de observación y trabajo espacial permanentes y aún una serie de dispositivos sofisticados - entre ellos - el Telescopio Orbital Hubble; lo cual aumenta la capacidad para conocer y procesar datos con gran rapidez. Cabe destacar que originalmente muchos dispositivos de observación y escucha deben ser su diseño a solicitudes militares, pero luego al iniciarse la distensión a fines de los ochenta, su uso será compartido para fines pacíficos. En estas décadas sobresalen algunos hitos: Popularización de la astronomía.- Todos los progresos en el conocimiento de la Luna debido a su observación directa o por medio de alunizajes de naves no tripuladas Lunik (URSS), Géminis y de naves tripuladas del proyecto Apolo (EUA) que permitió el “alunizaje” de seis de estos últimos, así como de las sondas enviadas por norteamericanos y soviéticos a explorar Venus, Mercurio, Marte, Júpiter y Saturno crea una gran expectativa y derrumba mitos que los científicos comparten con el gran público por medio de la televisión comercial y la “satelización de las comunicaciones”. También renueva las esperanzas de los astrónomos para extender el poder observacional hacia otros lugares que tengan menos restricciones que la Tierra. Surgen los proyectos de Bryan O' Leary y de Gerard K. O' Neil de la Universidad de Princeton, (que luego absorbe la NASA), para poner colonias terrestres orbitando la Tierra, o la Luna o en lugares circunvecinos y no sólo excitan la imaginación de los científicos - que ya había sido precedida por aventuras debido a la imaginación de novelistas de principios y mediados del siglo - sino que obliga al hombre a darse cuenta, de pronto que ya la Tierra, en efecto no es el centro ideal del Universo, mucho menos cuando los problemas originados por las guerras, la contaminación, la destrucción ecológica y la aparición de plagas de insectos y parásitos, virus y microbios “mutantes” le hacen tomar noción de la fragilidad de la vida que le ha tomado a la Naturaleza millones de millones formar lo que es familiar y cotidiano en la Tierra, pero que no se conoce ni es un hecho repetible en otros planetas orbitando alrededor de otros soles.

Transcript of Nuevos rumbos para la cosmología

Page 1: Nuevos rumbos para la cosmología

Nuevos rumbos para la Cosmología

(FINALES DE LOS 70 A FINALES DE LOS 80)

Estos años encuentran a la astronomía en un proceso de conjunción de ideas provenientes de varios campos

de la física y destacan, entre ellas: la hidrodinámica y la física cuántica subatómica de laboratorio a lo que se

suman al trabajo cosmológico normal fundamentado en los conocimientos y las herramientas astronómicas.

Más tarde se le unen especialistas en computación con “software” diseñado para tal labor. Todo ello para

reforzar y ampliar una teoría que satisfaga una visión unitaria del Universo, como una necesidad de eliminar

la discontinuidad en el conocimiento, así como una conjunción con las teorías del microcosmos que

extrapoladas permitan conocer mejor - o al menos - buscar una aproximación mayor al conocimiento del

macrocosmos y del microcosmos incluyendo la inserción del ser humano y su destino, lo que obliga a

postularse nuevas teorías sobre la vida ,y ese órgano con el cual pensamos ,que se supone es la culminación

del proceso evolutivo del ser humano.

Asimismo este periodo es sumamente rico en postulaciones teoricas y en concresiones experimentales y

observacionales . Se está en plena euforia de los viales espaciales de las naves Apolo y Vikingo (EUA) y

Lunad, Progreso (URSS),entre otras. En el campo estrictamente observacional, la astronomía enfrenta el

problema de correlacionar la observación visual de los nuevos telescopios, con los datos provenientes de los

radiotelescopios (medición de radiaciones en parte del espectro electromagnético) con la que arrojan las

sondas cósmicas tripuladas y no tripuladas; los datos de mediciones y observaciones llevadas a cabo con

globos de gran altura y también con aviones que alcanzan grandes altitudes (complemento de la medición

del espectro electromagnético).

Aunque ya los conceptos semánticos para telescopio y radiotelescopio en verdad dicen poco, pues se han

quedado cortos, lo cierto es que los datos empíricos que arrojan estos instrumentos son las únicas

herramientas continuas de costo accesible que tiene la ciencia para comprobar lo que la teoría predice o para

inferir - a partir de las observaciones - nuevas facetas para remozar la teoría estándar del B.B.

A la par del envío de tripulaciones norteamericanas y soviéticas a dos Laboratorios Espaciales colocados en

órbitas estacionarias, ambos países (por aparte) hacen los preparativos finales para lanzar plataformas de

observación y trabajo espacial permanentes y aún una serie de dispositivos sofisticados - entre ellos - el

Telescopio Orbital Hubble; lo cual aumenta la capacidad para conocer y procesar datos con gran rapidez.

Cabe destacar que originalmente muchos dispositivos de observación y escucha deben ser su diseño a

solicitudes militares, pero luego al iniciarse la distensión a fines de los ochenta, su uso será compartido para

fines pacíficos. En estas décadas sobresalen algunos hitos:

Popularización de la astronomía.- Todos los progresos en el conocimiento de la Luna debido a su

observación directa o por medio de alunizajes de naves no tripuladas Lunik (URSS), Géminis y de naves

tripuladas del proyecto Apolo (EUA) que permitió el “alunizaje” de seis de estos últimos, así como de las

sondas enviadas por norteamericanos y soviéticos a explorar Venus, Mercurio, Marte, Júpiter y Saturno crea

una gran expectativa y derrumba mitos que los científicos comparten con el gran público por medio de la

televisión comercial y la “satelización de las comunicaciones”. También renueva las esperanzas de los

astrónomos para extender el poder observacional hacia otros lugares que tengan menos restricciones que la

Tierra.

Surgen los proyectos de Bryan O' Leary y de Gerard K. O' Neil de la Universidad de Princeton, (que luego

absorbe la NASA), para poner colonias terrestres orbitando la Tierra, o la Luna o en lugares circunvecinos y

no sólo excitan la imaginación de los científicos - que ya había sido precedida por aventuras debido a la

imaginación de novelistas de principios y mediados del siglo - sino que obliga al hombre a darse cuenta, de

pronto que ya la Tierra, en efecto no es el centro ideal del Universo, mucho menos cuando los problemas

originados por las guerras, la contaminación, la destrucción ecológica y la aparición de plagas de insectos y

parásitos, virus y microbios “mutantes” le hacen tomar noción de la fragilidad de la vida que le ha tomado a

la Naturaleza millones de millones formar lo que es familiar y cotidiano en la Tierra, pero que no se conoce

ni es un hecho repetible en otros planetas orbitando alrededor de otros soles.

Page 2: Nuevos rumbos para la cosmología

El esnobismo norteamericano hace su aparición en escena y surgen empresas que anuncian viajes turísticos

espaciales a la luna y a planetas vecinos. Las propuestas de la agencia soviética Interspuknik son

fuertemente recortadas a inicios de los noventa y la NASA sufre también la cancelación de proyectos

ambiciosos. Es el inicio de un esfuerzo a nivel planetario de los principales países europeos, Francia, Italia,

Inglaterra, Alemania y de Japón, Australia, China, India, más tarde Israel y Brasil y aún de otros países del

globo que comienzan a destinar parte de sus presupuestos fiscales para la exploración espacial.

Búsqueda de vida extraterrestre.- Aunque un nuevo proyecto SETI (Search of Extraterrestrial Intelligence)

se prepara para ser puesto en marcha en la década de los noventa con grandes dificultades presupuestarias y

- consecuentemente - mucho decrecimiento en sus posibles hallazgos - los nuevos objetivos constituyen un

avance en la capacidad de posibles fuentes de comunicación de hipotéticas civilizaciones extraterrestres, con

lo cual el proyecto pasará a ser conocido como CETI (Comunication with Extraterrestrial Intelligence).

Las observaciones también orientadas hacia la búsqueda de eventual vida en otras partes del Universo

mediante los ambiciosos proyectos OZMA y SETI que reciben mucho impulso en las décadas precedentes,

en los ochenta están en su nivel más bajo, cuando además las sondas lanzadas por los soviéticos y los

norteamericanos ratifican que no hay “vida” (menos “vida inteligente”) en Venus, Marte, Mercurio ni en los

grandes planetas Júpiter, Saturno y sus satélites. El interés -sin embargo- se reaviva en la década de los

noventa.

Divulgación popular.- La vulgarización de los conocimientos astronómicos, usualmente reservada a los

sacerdotes brujos y shamanes en la antigüedad había sido una labor prácticamente despreciada por los

científicos modernos, hasta que, a finales del siglo pasado el francés Camille Flammarion en el campo de la

astronomía se convierte en el primer divulgador de los conocimientos obtenidos en un campo en el que aún

muchos contemporáneos, siguen creyendo en las predicciones astrológicas o aún confunden la astronomía

con la astrología. Esto evidencia la necesidad de aumentar los procesos de difusión - antes llamados

“vulgarización” - de los conocimientos de la ciencia cosmológica que ahora muestra como toda área del

conocimiento humano, más y más complejidad.

Algunos científicos de gran reputación como Otto Struve soviético - americano; Georgio Abbeti, italiano,

Margarithe Hack, italiana, Bernard Lowell, inglés, George Gamow, soviético - americano, Arthur

Eddington, inglés, Tomás Comas, español; por citar a los más conspicuos se atreven a lanzar al fin estos

conocimientos al gran público cerca de los años 40 al 50.

Esto hace que otras personas que no son astrónomos profesionales a partir de la década de los 60 hagan lo

propio incursionando así en un área poco conocida, llena de formulaciones matemáticas y físicas, áridas y

poco digeribles, pero que ellos gracias a su facilidad para comunicar por escrito, convierten en temas que

apasionan. Tal es el caso de Walter Sullivan, Arthur Clark en Estados Unidos de América, o de Colin Davis

y Patrick Moore en Gran Bretaña y sobre todo del biólogo y escritor de ciencia ficción, Isaac Asimov

(soviético naturalizado norteamericano).

Para mediados de los setenta surgen los primeros escritores científicos, a la vez que investigadores

especializados, entre ellos: Carl Sagan, James S. Treffil, Donald Goldsmith, John Barrow, Joseph Silk,

Richard Morris, norteamericanos; Fang Lizhi, sino - americano; Paul C. Davies, John Gribbing, Julian

Brown, Colin Wilson ingleses, Jean Andouze y Pierre Thuiller franceses, Steve Reeves, canadiense. Ellos

llegan a efectuar una labor de divulgación del quehacer científico en varios campos de la astronomía, pero

fundamentalmente en el área de la cosmología que permiten al público no especializado comenzar a

entender los “grandes misterios” que se encierran detrás del léxico especializado cosmológico. Todos estos

libros son un híbrido entre terminología científica extraída de la física y las matemáticas rigurosas, aliñada

con el buen humor de los cosmólogos y de los físicos cuánticos, ambos verdaderos “iconoclastas” en el

campo de la semántica científica.

Esta necesaria labor cumple su cometido a cabalidad y hace que la décadas de los ochenta y noventa cuenten

ya con un público maduro y serio, en capacidad de entender y apoyar (aunque sea con el pensamiento) el

Page 3: Nuevos rumbos para la cosmología

arduo trabajo de pesquisa cosmológica en sus diferentes facetas.

Apoyo a la astronomía amateur.- La conmoción que produce la Teoría General de la Relatividad, las teorías

atómicas y su consecuencia real: el peligro nuclear, y todas las fantásticas “paradojas” y conjeturas que se

inician a su alrededor, así como el gran interés que despierta la "carrera espacial", hace que afloren nuevas o

se fortalezcan publicaciones periódicas que se ven obligadas a divulgar los nuevos conocimientos.

Entre las más importantes se encuentran: “Scientific American”, "Science", "Physic Today", "Mercury" y

“Nature”, que son una mezcla de rigor científico y de literatura digerible para personas con ciertos

conocimientos básicos de física y matemáticas. Luego hacen su aparición otras obras especializadas y

escritores que colaboran en este creciente proceso de difusión como es el caso de “Mundo Científico”.

En el campo de la astronomía observacional “Sky and Telescope” (por su antigüedad y seriedad) y “Modern

Astronomy” (por la alta calidad de su material fotográfico) se constituyen en las más importantes y

universales de entre ellas y poco a poco los artículos que al inicio están a cargo de escritores especializados

en comunicación científica comienzan, a ser divulgados por los propios científicos.

En los últimos diez años nace un interés creciente de parte de jóvenes para el estudio de la astronomía y

ciencias correlativas como carreras universitarias que auguran buen futuro a estas nuevas generaciones en

los países desarrollados, no así en otras latitudes del planeta, dado el problema de las prioridades

educacionales.

Los difusores de los conocimientos ayudan a los medios audiovisuales (planetarios y museos especializados)

para hacer más comprensible a los legos, lo que se ha logrado desentrañar - y lo que aún permanece en el

terreno de las conjeturas o en el campo de lo desconocido - en esta búsqueda permanente de explicarse todas

las interrogantes que plantea el Universo.

La Sociedad Astronómica de Francia (Fundada por Camille Flammarion), las Sociedades Reales de

Astronomía de Canadá y Gran Bretaña; la Sociedad Astronómica del Pacífico y la Liga Astronómica en

USA, contribuyen en mucho a despertar el interés en la astronomía observacional que inicia su “boom” en

los años 60. Esto coincide, al mismo tiempo, con que la NASA difunde fuertemente el conocimiento de los

resultados de sus investigaciones para los astrónomos “amateurs” que no desean simplemente ver más allá

de lo que la vista humana alcanza en una noche oscura - unas 6000 estrellas más o menos - sino que desean

saber más acerca de lo que observan.

Para esta época se crea la Asociación Internacional de Astrónomos Amateurs (I.A.A.A.) que es reconocida

por la U.A.I. (Unión Astronómica Internacional), órgano mismo especializado del sistema de las Naciones

Unidas, fundada recién en los años 20. A estos esfuerzos bibliográficos se suman las revistas “National

Geografic” y “Smithsonian”, que comienzan a matizar sus publicaciones con temas astronómicos y

cosmológicos. Asimismo los editoriales de universidades norteamericanas, inglesas, francesas, sobretodo,

comienzan a inundar el mercado de publicaciones que dan cuenta de los nuevos avances en todos los

campos de la física, y el éxito es tan notable, que pronto los grandes editoriales se suman al esfuerzo.

En ese escenario Carl Sagan, médico de profesión, astrónomo por necesidad y “exobiólogo” por interés, se

convierte en el Flammarion de ésta parte del siglo, pues en lenguaje sencillo, con la ayuda de un valioso

equipo de colaboradores y ayudas audiovisuales y con el apoyo de la NASA, es la fuente a la que pueden

acudir los amateurs en astronomía pero ya no solo en la clásica de “posición de los astros” sino en la

moderna que sabe conocer el átomo, la posición de galaxias, la creación del Sistema Solar, la creación del

Universo mismo o la posible existencia de otros seres inteligentes en el resto del Universo.

Sagan - a quien algunos círculos científicos reputan de abusar del histrionismo, ha alimentado en su país y

fuera de él, el entusiasmo del público por conocer desde una vertiente científica los avances de la astronomía

y la cosmología. Aunque los sesenta y setenta fueron décadas en que Sagan brilla como estrella de primera

magnitud, su “glamour” ha bajado ya en los noventa; pero hasta finales de 1996 en que le sorprende la

muerte seguirá al frente de la Escuela de Estudios Planetarios de la Universidad de Cornell, con muchos

Page 4: Nuevos rumbos para la cosmología

proyectos en desarrollo.

Lo importante es que gracias a su prestigio como científico divulgador, productor de televisión,

conferencista, y aún hasta novelista, Sagan abrirá el paso a doctorados en astronomía con diversas

especialidades que ahora disputan con sus publicaciones el campo que por muchos años llenaron los

escritores de ciencia - ficción.

Consolidación de la Unión Astronómica Internacional.- La consolidación de un interés común de la

humanidad visible en la creación de la UAI, Unión Astronómica Internacional, permite la realización de

congresos y seminarios anuales en el que los astrónomos intercambian información de sus últimos hallazgos

para comprobar teorías o para razonar aquellas que apoyan o son desechadas.

Mediante publicaciones periódicas especializadas y libros que recopilan las últimas investigaciones, junto

con el establecimiento de redes de comunicación rápida “alerta” a los astrónomos acerca de descubrimientos

o fenómenos nuevos, de manera que éstos son fácilmente conocidos en toda la Tierra y reportados a centros

especializados.

La UAI se ha dividido en varios capítulos para facilitar el estudio de las materias astronómicas por afinidad

y mantiene comisiones permanentes especializadas que facilitan la discusión y la actualización del

conocimiento en beneficio de los científicos que sin obstáculos ideológicos del pasado y las restricciones por

razón de la seguridad militar, hoy día deben compartir un acervo global para la humanidad.

Nuevos telescopios y radiotelescopios.- El agotamiento de las condiciones óptimas para los grandes

telescopios debido a la contaminación visual ocasionada por las grandes ciudades cercanas, obliga al uso de

regiones desérticas o desoladas en ambos hemisferios para colocar dispositivos astronómicos más modernos,

mediante convenios especializados o cooperación internacional.Esto se logra con nuevos observatorios,

dispositivos astronómicos y de proyectos para mejorar y actualizar el arsenal terrestre y espacial con el que

cuenta la humanidad en su afán de hacer un esfuerzo por ampliar su “ventana de observación” del Universo.

A finales de esta época hay una operación numerosos observatorios dotados de telescopios de apertura

mediana y grande, un total de diez radiotelescopios; y se calcula que sólo en Norteamérica (EUA y Canadá),

hay en uso más de medio millón de telescopios de astrónomos amateurs; en la zona pacífica (Japón,

Australia, Nueva Zelanda), hay no menos de otro millón; en Europa (Occidental y Oriental) otro millón y en

América Latina apenas unos cien mil.

EL NUEVO CONTEXTO PARA EL B.B.

Los cambios que se produce en la Cosmología en los años anteriores a la época que se analiza, obligan a

establecer nuevos parámetros para el quehacer científico, los cuales se sintetiza en estos aspectos:

a) Del Universo tranquilo al Universo caótico .- Se comprueba día a día la idea de que el Universo a nivel

macro se caracteriza no por su quietud y evolución tranquila como siguiendo un patrón determinista, sino

que más bien se caracteriza por una gran violencia de formas muy variables que parecen apartarse también

de los ordenados patrones evolucionistas de las galaxias, tal y como se describían hace apenas 10 años atrás.

Además, respecto al propio origen y evolución de las galaxias, hay dos teorías. Una teoría en boga en

Occidente (hasta 1985) señala que las galaxias se formaron unitariamente al principio y luego por razones de

la fuerza gravitacional se fueron juntando para formar estructuras más y más grandes, como cúmulos, super

cúmulos e hipercúmulos.

Sin embargo, una teoría soviética que explica el proceso con un modelo diferente comienza - a partir de

1985 - a ganar más adeptos. Esta explicación es la “teoría adiabática”( o modelo del “pancake”) que señala

que los supercúmulos de galaxias se formaron primero y luego se fragmentaron en cúmulos y aún en

galaxias simples.

Page 5: Nuevos rumbos para la cosmología

A inicios de la década de los ochenta los retratos del Universo no escapan tampoco a las influencias del

replanteo de tesis astrofísicas en que se recurre a la física de partículas subatómicas para explicar lo macro

observable - y tal incursión en la física cuántica muestra también un panorama de violencia e

indeterminación.

Asimismo se debe examinar ahora el significado real que tienen las llamadas fluctuaciones vibratorias que

da origen a la “Teoría de las Supercuerdas” en el mosaico estructural universal multidimensional.

Esta teoría se relaciona con la unificación de todas las cuatro fuerzas conocidas en que la gravitación juega

un papel de gran importancia, aún no claro para los cosmólogos; pero que ha creado la posibilidad de

establecer no solo teorías unitarias (GUT'S), sino ir más allá con una teoría TOE (Theory of Everything), o

Teoría del Todo, o bien “Superfuerza” que entusiasma a los cosmólogos por sus futuros frutos que permitan

encontrar explicaciones cuantitativas para todas las partículas y las fuerzas del Universo; conocer las

entidades pequeñas que lo constituyen, así como elucidar el “principio fundamental” que ordena y coordina

las Superleyes Naturales que gobiernan el Universo.

Ampliación de la ventana de observación.- Si con Einstein se da una fractura del pensamiento de tal

naturaleza que sus conceptos en menos de setenta años quiebran toda posibilidad de crear patrones

deterministas, también los trabajos derivados de la observación que es llevada a cabo con la ayuda de la

ampliación de la “ventana” de lo observable, hace que el observatorio clásico de los astrónomos, sufra

sacudidas permanentes e incesantes, y que su labor de “observación romántica” se acabe para dar paso solo a

la rigurosidad matemática y física de sus mentes auxiliadas con instrumentos automáticos o semiguiados de

medición que “aprisionan” lo desconocido y lo amplían o lo reducen para su posterior interpretación en

laboratorios especializados.

La cooperación internacional y el temor de la humanidad hacia un cataclismo nuclear o un desastre

ecológico está en la conciencia de los astrónomos con una presencia que es más que una incertidumbre para

anidarse como certeza, pues esas violencias cataclísmicas se pueden dar justamente en el área de sus

conocimientos que por parecer fantásticos solo permean la conciencia de pequeños grupos que insisten que

en la Tierra hay problemas y de que estos se agudizan día a día.

La necesidad de reforzar la lucha que se avecina por hacer comprender a los seres humanos la gravedad de

estos problemas trasciende el foro de los políticos y requiere el foro autorizado de los científicos y entre

ellos en primera línea los cosmólogos.

Presupuestos fiscales.- Los resultados de avance tecnológico derivado de la “carrera espacial” que hasta

hace muy poco tiempo aún era una especie de extrapolación de la guerra política entre las superpotencias

llevada al campo de la ciencia, hacia vacilar a los astrónomos entre su apoyo puro a lo científico o a la

necesidad de seguir el juego a los militares. La ciencia cosmológica espera obtener de allí los recursos para

continuar con su labor de descifrar lo que es el nacimiento común y el destino igualmente común del ser

humano y de toda especie viviente que alberga la Tierra.

Los militares - pese a los dramáticos cambios geopolíticos - que modifican toda la correlación de fuerzas

entre las superpotencias no desean soltar los cables que aprisionan el avance en el conocimiento

cosmológico que se mantiene con los sobrantes de la carrera espacial-militar aún presente.

La necesidad de dar autonomía a la labor científica pura es complicada, porque los presupuestos requieren

de decisiones con visión de largo plazo (por supuesto alejados de aventuras militares) y ello incide en los

montos de presupuesto disponibles y en flexibilidades para dejar o no en empresas privadas el peso de la

investigación, con otras implicaciones éticas que rebasan el marco científico.

Planetas extrasolares y vida inteligente.- La búsqueda de civilizaciones en otros planetas habitables - en el

evento de que existan una y otros - e independientemente de las formas en que tal vida inteligente se

manifieste, constituye también una forma de presión de parte de los astrónomos - hacia la necesidad de

acabar de tener un modelo que satisfaga no solo estéticamente, sino la curiosidad ahora más racional y por lo

Page 6: Nuevos rumbos para la cosmología

tanto más crítica.

Asimismo la incursión en los instantes anteriores o en las primera instancia del B.B. acerca al astrónomo a

otros problemas metafísicos, como si presagiaran la vuelta de lo cosmológico y en este campo a la

interrogante de la Causa Primaria del hecho.

Curiosamente los astrónomos que se refugiaron en las dos décadas anteriores en lo observable, deben

replantearse su filosofía observacional pues esta parece también cuántica, como Hawking preludia con su

“Principio de la Ignorancia Relativa” que recuerda a las frases medievales de “Sólo sé que no sé nada” pero

que este pensador físico - matemático lleva más allá al decir: ¡ ni es posible saberlo...!

En fin que sin quererlo, esta década convierte a la astronomía en el sumun del conocimiento y obliga a los

legos a no hacer afirmaciones absolutas sino relativistas y fuerza a los astrónomos a ser más aún.

EL UNIVERSO DE HAWKING

Dentro de la fractura del pensamiento que produce Einstein en la primera mitad del siglo veinte, se inserta

en esta segunda mitad otra que se debe al trabajo de Stephen W. Hawking, nacido en 1942, físico inglés de

la Universidad de Cambridge quien, de alguna manera sirve para ejemplificar la labor de pensadores que con

sus planteamientos evolucionan el clásico concepto de hace unos cincuenta años acerca de un Universo

fundado en una gran explosión (B.B.) para dar paso a ese mismo concepto pero con una nueva forma de

visualización que recibe el nombre de “Universo de Hawking”.

En su libro, “En busca del B.B.”, John Gribbing relata: “Hawking presentó por primera vez esas ideas en el

Vaticano en una conferencia sobre Cosmología, en 1981. Los físicos y matemáticos que asistieron fueron

recibidos en audiencia por el Papa quien les dijo que era totalmente apropiado que estudiaran la evolución

del Universo después del momento de la Creación, pero que el problema del origen del tiempo en sí era un

tema de la Religión y no de la Ciencia ya que representaba el trabajo de Dios”... En palabras de Juan Pablo

II “cualquier hipótesis científica sobre el origen del mundo como la del átomo primordial del que se derivó

todo el mundo físico, deja abierto el problema del comienzo del Universo. La Ciencia no puede por sí

resolver una cuestión así: se requiere que el conocimiento humano se eleve sobre la Física y Astrofísica y

vaya a la Metafísica; eso requiere, por encima de todo, del conocimiento que procede de la revelación de

Dios«. Luego el Papa citó a su predecesor, Pío XII, quien al referirse en 1951 al problema del origen del

Universo dijo : “Esperaríamos en vano una respuesta de las Ciencias Naturales ya que los científicos

admiten honestamente que están enfrentados a un enigma insoluble”.

Y Gribbin concluye el relato con pleno optimismo que se enfrenta al pesimismo eclesiástico: “Menos de

cuarenta años después, esa “vana espera” se está acabando. Muchos cosmólogos no aceptan que el enigma

sea insoluble” y existe la creencia de que ahora la Ciencia puede resolver el rompecabezas metafísico del

origen del Universo. El Universo de Hawking, irónicamente presentado en esa reunión donde Juan Pablo II

reclama aún un papel preeminente para Dios, apunta claramente la forma de solucionar científicamente el

más grande de todos los problemas metafísicos.”

Han sido los trabajos de pioneros los que han permitido construir los nuevos modelos (o retratos) del

Universo. En sus épocas esos planteamientos no fueron tomados en serio porque se adelantaban mucho al

contexto; pero luego al cambiar el contexto sus ideas - tomadas por otros cosmologistas de talento - desde

diversos ángulos novedosos son justamente los que sirven para cubrir flancos débiles a una teoría o a un

modelo.

Pero se desprende de la suma de los puntos anteriores que la cosmología para la década de los ochenta y de

aquí en adelante no será más un trabajo en solitario; sino una aventura de la Humanidad en que las distintas

parcelas del conocimiento y del quehacer humano se buscan para darse la mano y se encuentran en esta

labor épica en que la Humanidad espera, emocional y ansiosa, compenetrarse de lo que su espíritu intuye,

pero semánticamente no puede expresar.

NUEVAS INQUIETUDES COSMOLÓGICAS

Page 7: Nuevos rumbos para la cosmología

En los inicios de los años setenta los problemas de la cosmología se debatían en foros privados a los que

asistían tan sólo los especialistas; a mediados de esa década se comienzan a aventurar - como pioneros - los

divulgadores de la ciencia en libros y revistas de baja circulación intelectuales que poco a poco comienzan a

mostrar cierta esterilidad creativa pero ya para mediados de los ochenta es la prensa en general la que se

inicia en esa labor. La razón de ello es que, cada vez más, las revelaciones del campo de la ciencia son

noticia que compite -en mucho- con otros temas.

Examinemos estos veinte ejemplos que se incluyen en el mismo orden en que fueron publicados y son - de

por sí - muy representativos de las preocupaciones que embargan a la cosmología y a las ciencias de las que

ésta se nutre.

Ciencia del caos.- A mediados de los ochenta con la publicación del libro “Chaos” de James Gleick se

destaca una polémica sobre el concepto caos. La palabra clave de esta revolución es “caos”. Y para ser

exactos, éste es el término más inapropiado que se pueda imaginar para describir lo que se quiere decir. El

ser humano tiende a calificar de caótico todo lo que no comprende o no puede describir de una manera

lógica. Pero desde hace aproximadamente una década, los físicos y matemáticos se han dado cuenta que

ciertos sectores de ese caos en la naturaleza pueden ser descritos por determinadas leyes, que

sorprendentemente son además muy sencillas. Los científicos hablan de “investigación del caos”, y sin más

ni más redefinieron este término según sus propósitos.

Por lo tanto, caos debe ser denominado solamente aquel sector de lo “confuso” que se rige por estrictas leyes

internas, que pueden ser descritas exactamente. Todo lo que sobrepase ese límite, es decir el verdadero

desorden para cuyo surgimiento no hay fijas “reglas de juego” matemáticas, no es considerado como caos

por el investigador. ¿Cuáles son las características que distinguen al “caos científico”, del otro, llamado

“caos determinado”? : Un sistema caótico que se origina de manera ordenado se transformará en un sistema

totalmente desordenado; el sistema caótico sigue - fielmente - reglas matemáticas (ecuaciones del caos),

actualmente poco conocidas.

Las experiencias realizadas hasta ahora han sido sorprendentes porque el orden surge estrictamente según

los conocidos mecanismos de causa y efecto, pero es totalmente impredecible. Con dos ejemplos se puede

discernir la diferencia entre un sistema ordenado y uno caótico.

El primero: Keppler descubrió las relaciones causales de los mecanismos orbitales de los cuerpos astrales.

Tomando como base su ley planetaria, los movimientos de los astros pueden ser calculados con plena

exactitud, y tampoco el acontecer futuro representa un misterio insondable puesto que, por ejemplo, los

eclipses de la Luna y del Sol pueden ser calculados con toda precisión con milenios de anticipación.

El segundo: Una piedra que se balancea sobre el filo de un cuchillo está sujeta a la misma fuerza de leyes

naturales que el Sol, la Luna y las estrellas (la gravitación). Sin embargo, no es hasta ahora posible calcular

por qué lado del cuchillo caerá la piedra finalmente. Si se trata de una roca que rueda por la empinada ladera

de una montaña, podrá quizás matar por un lado a un montañista o no causar ningún daño del todo, pero por

el otro lado provocaría un alud que podría sepultar un pueblo entero.

Un sistema semejante que sigue “exactamente las leyes físicas de causa y efecto” , pero que tiene

consecuencias completamente imprevisibles, es llamado en el lenguaje de la ciencia moderna “sistema

caótico”. Por ejemplo, la mecánica descompone cada movimiento, por complejo que sea, en movimientos

yuxtapuestos rectos y giratorios. Si se pueden reconocer estadios periódicos, por ejemplo en el movimiento

de un péndulo o en el titilar de algunas estrellas, se los descompone en una serie de oscilaciones de diferente

amplitud y velocidad.

La geometría clásica y también las matemáticas descomponen cada línea en una secuencia de líneas rectas y

sectoriales de círculos de distinto ángulo. Consideran las superficies como compuesta de múltiples

superficies exactamente descriptibles, o como rodeadas por líneas. Lo mismo es válido para el espacio. Los

“espacios” científicos surgidos de esta cosmovisión no son aptos para describir el caos, y es por esta razón

que el científico se ha interesado hasta ahora solamente por aquellos sistemas complejos que podía

descomponer en elementos comprensibles.

Page 8: Nuevos rumbos para la cosmología

Pero con el triunfo mundial de la computadora cambió en forma decisiva esta manera de observar la

naturaleza. Al contrario que el matemático, la computadora permite analizar modelos de gran complejidad.

Si el matemático no logra encontrar fórmulas cerradas en si, con las que pueda describir algún suceso

determinado, rápidamente se verá enfrentado con el límite de sus posibilidades. Pero los procesos

imprevisibles se distinguen precisamente por el hecho que no pueden ser explicados recurriendo a una

fórmula cerrada en sí. Pero la computadora procede de otra manera, según su propia estructura de

pensamiento artificial.

El matemático en esta circunstancia, prefiere procesar enormes cantidades de datos siguiendo reglas simples,

antes que encontrar por si mismo complejas formulaciones matemáticas. Por lo tanto, la máquina ofrece la

posibilidad de “analizar” punto por punto sistemas caóticos, mucho mejor que cualquier matemático.

El programador le proporciona simples órdenes para poder cambiar una simple estructura, y la computadora

transforma el resultado de acuerdo con las mismas órdenes que se le han impartido. A veces, estas

estructuras surgen después de pocos pasos, y a menudo solo se logran después de complicados procesos pero

en ambos casos estas estructuras se acercan claramente a una estructura final, llamada "estructura límite".

Las formas geométricas así compuestas son llamadas geometría fraccional, y las estructuras limite

fraccionales (o "fractales") y su principal característica es que tienen la misma apariencia,

independientemente de la escala que haya podido utilizar el observador.

Para la investigación del caos, la geometría fraccional es el más importante medio auxiliar de que disponen

los científicos del caos. Si fuera posible producir con la ayuda de sencillas “órdenes” (ecuaciones de

transformación) estructuras como torbellinos en el agua o en el aire, helechos o arbustos, nubes espirales

cósmicas o árboles, se abriría entonces probablemente el camino para comprender el surgimiento de estas

estructuras naturales. De todo esto surge el hecho: “se puede explicar el caos”. Lo que no tan sólo es válido

para estas estructuras en las cuales a simple vista se ven determinadas regularidades o incluso simetrías, sino

que - así se supone hoy - también para formas naturales, aparentemente caprichosas es independientemente

del hecho de que se trate de materia viva o inerte. Importantes centros mundiales de la investigación del

caos, y en especial de la geometría fraccional están actualmente elaborando las bases matemáticas de esta

nueva disciplina.

Incluso los científicos no dejan de sorprenderse, - por ejemplo - cuando analizan el orden universal de la

naturaleza que se ha descubierto. Se sorprenden por que éste puede ser descrito muy sencillamente, pero son

incomprensibles: se les puede calcular fácilmente, pero no se puede predecir su desarrollo y

comportamientos futuros. Y no en último lugar se sorprenden por su belleza. Para Heinz Otto Peitgen del

Instituto de Sistemas Dinámicos de la Universidad de Bremen de Alemania: “Aquellos que tienen el valor

suficiente como para descender del panteón de la ciencia pura, ven por primera vez algo extraordinario: los

milagros de la naturaleza. Pero, para los monjes hindúes que ya hace muchos siglos describieron la danza

cósmica de Shiva, los derviches musulmanes, los gnósticos cristianos de todas las épocas y los chamanes

indios, esta nueva cosmovisión de los científicos naturales de fines del siglo XX apenas les despertará algún

interés. Desde siempre han percibido en sus visiones la geometría fraccional, que eternizaron

magistralmente en sus mandalas y en sus pinturas”.

Aunque la nueva disciplina del caos investiga aplicaciones en campos muy disímiles como la metereología,

la medicina, la biología y la economía, por ejemplo, en el área que nos interesa Edward Lorenz y David

Rowlle del M.I.T. trabajan en la teoría de los “atractores” que describen (todavía parcialmente) la evolución

de los sistemas caóticos que intervienen - al parecer en la formación de las grandes estructuras del Universo;

Michel Henon del Observatorio Astronómico de Niza, trabaja en la formulación de descripciones sobre

sistemas caóticos no disipativos (o Hamiltonianos) y otros relacionados con las teorías del plasma y por su

parte Mitchell Feigembaum de la Universidad de Texas, trabaja en el descubrimiento de leyes universales

del caos, aplicables al nacimiento del Universo; en donde el caos sería ubicuo, estable y está estructurado,

según afirma.

Es indudable que los hallazgos que se puedan esperar surgirán de las nuevas revelaciones sobre el orden

Page 9: Nuevos rumbos para la cosmología

implícito en el caos estarán - en mucho - sujetas al uso de las computadoras únicas en capacidad de hacer los

cálculos requeridos para descifrar las escondidas verdades en que se enmascara el orden que determina el

caos y las formas que éste asume. Descifrar y aislar los diversos elementos que interactúan en un problema

dado implica que a mayor cantidad de elementos o dimensiones, (o simplemente variables que es necesario

considerar), mayor es la dificultad para llegar a conclusiones valederas.

En el área de los estudios astronómicos relativos al momento de la creación y su posterior desarrollo, la

dificultad crece exponencialmente, conforme aumenta el número de variables intervinientes; de manera que

los cálculos por medio de formulaciones matemáticas de tipo continuo incluyen razonamientos de tipo “no

lineal” por medio de ecuaciones diferenciales, ecuaciones integrales y otros tratamientos involucrados en el

proceso, que pueden llegar a niveles que los especialistas en matemáticas computacional denominan

“intratabilidad”.

Tal situación que significa la imposibilidad de resolver el problema no está en relación directa con limitantes

tecnológicas o con el tiempo requerido para resolver las ecuaciones, sino con aspectos que son intrínsecos a

las variables intervinientes. En cosmología suele señalarse la imposibilidad de calcular especulaciones -

como por ejemplo - la época astronómica en que se podría detener el proceso de expansión del Universo.

Ahora bien, el problema matemático computacional afronta dificultades para arribar a soluciones exactas y

no a meras aproximaciones y los especialistas suelen recurrir a métodos de tratamiento de los datos que

estarán en relación directa con la complejidad del problema a resolver. Así en una primera aproximación, los

datos pueden ser tratados como “valores determinados” y si no se arriba a soluciones, darles otro tratamiento

como “valores probabilísticos”; sin embargo, pese a que hay a la fecha dos o tres formas de tratar estos

casos, los márgenes de error deben caer bajo límites aceptables (lo que los especialistas denominan como el

"valor E" (epsilon) .

Las soluciones obtenidas recurriendo a modalidades de cálculo suelen recurrir a fórmulas standarizadas

(como clásicas las previstas por los matemáticos Metrópolis y Ulam, o las más nuevas debidas a

Wassilkoski, o a Traub ; sin embargo una idea está cobrando fuerza en el área de las matemáticas y es la que

señaló el físico,f ilosofo y matemático austro-norteamericano Kurt Göedel ( 1906-1978) acerca de que, no

obstante la existencia de gran riqueza instrumental (caso de la Aritmética), hay teoremas que no pueden ser

jamás probados:

1.- De allí hay una base para extrapolar la afirmación de que no sólo es cierta la "intratabilidad matemática",

sino más allá, que algunos fenómenos, además de tener esa característica son enteramente indescifrables y

están destinados a ser - por siempre - misterios; teoría que colide con la afirmación de Einstein acerca de que

lo que más le llamaba la atención era la característica de “conocibilidad” del Universo.

2.- Esa característica de indescifrabilidad del Universo residiría al menos en dos elementos, el primero: la

existencia de límites físicos (el tiempo, la dimensión y la energía de Plank) y segundo: las carencias

computacionales en términos de tiempo, memoria y energía.

Ambos factores, conjugados darían como resultado el postulado matemático de que ciertas cuestiones

científicas tienen como característica el ser: indecibles (undecidable en inglés) y no computables (intractable

en inglés), por cuanto no son aptos para utilizar en ellos ni las técnicas clásicas standarizadas, ni las nuevas

aleatorias (random en inglés) y por lo tanto de acuerdo con el criterio del matemático Joseph F. Traub,

“estarían destinadas a ser, para siempre, indescifrables”.

Una aplicación muy concreta de los nuevos conceptos de caos es la que se conoce ahora como Teoría KAM.

En determinadas condiciones, los planetas del Sistema Solar (o las partículas elementales) se mantienen en

órbitas estables, a pesar de que ninguna de las “leyes de conservación” ordinarias, como la de la

conservación de la energía o de la cantidad de movimiento, les obliga a hacerlo; en otras circunstancias, en

cambio, los planetas y las partículas agotan la totalidad de las posibilidades que dichas leyes consienten.

Page 10: Nuevos rumbos para la cosmología

La teoría KAM (iniciales de Andrei Kolmogorov , Vladimir Arnold y Jürgen Moser) arroja nueva luz sobre

el problema de la estabilidad del Sistema Solar ( y reviste también interés en el campo de los aceleradores de

partículas). Por añadidura, constituye un ejemplo de conexión sorprendente entre dos dominios de las

matemáticas muy distantes a priori, pues la diferencia entre la estabilidad y la inestabilidad está determinada

por una cuestión delicada de la teoría de números, la aproximación mediante números racionales de los

números irracionales.

El problema se enraíza en la mecánica celeste, que mereció la atención de los grandes matemáticos de los

siglos XVIII y XIX. Isaac Newton tuvo la idea de que las fuerzas que animan la naturaleza son más simples,

que los movimientos que engendran, y que, para comprender el Universo, es preciso describir estas fuerzas -

en particular la gravitación- mediante ecuaciones diferenciales. Era posible -en teoría- predecir a partir de

ellas los movimientos de todos los cuerpos del Sistema Solar y por extrapolación del Universo entero por

toda la eternidad.

Con optimismo propio de su época, así escribía el matemático y físico Pierre Simon de Laplace (1749-

1827): “Una inteligencia que, en un instante dado, conociera todas las fuerzas que animan la naturaleza y la

situación respectiva de los seres que la componen, si fuera además lo bastante potente para someter estos

datos al análisis, abarcaría en la misma fórmula los movimientos de los mayores cuerpos del Universo y los

de los más leves de sus átomos: nada para ella sería desconocido y el futuro, lo mismo que el pasado, se

hallaría presente ante sus ojos”.

Más tarde fue necesario batirse en retirada y limitarse a una concepción más modesta. “Aunque no existan

soluciones explícitas, al menos podemos pensar que, al escribir las ecuaciones que gobiernan un sistema, en

cierto sentido puede decirse que éste lo tenemos resuelto”, escriben en R. McKay y J. Meiss en su libro

"Hamiltonian Dynamical Systems", de la década de los sesenta.

Desdichadamente, la mayoría de las veces no se dispone de soluciones explícitas, y la mera formulación de

las ecuaciones no permite predecir cosa alguna. En Mecánica Celeste, las dificultades surgen en cuanto

intentamos determinar el comportamiento a largo plazo de sistemas de más de dos cuerpos. Un planeta

podría verse expulsado del Sistema Solar o, por contrario, aproximarse al Sol mientras “no le ocurra un

desastre”, en lacónica expresión de Jurgen Moser. En el siglo XIX, Laplace, Joseph Louis Lagrange y

Simeon Denis Poisson se esforzaron en demostrar la estabilidad del Sistema Solar, pero sus pruebas, aunque

daban ciertas seguridades para el porvenir inmediato -dos o trescientos mil años-, nada decían de su destino

final. El “problema de los cuerpos” quedaba planteado.

El caso más inquietante corresponde a la pareja Júpiter-Saturno, cuyos “años” se encuentran en la relación

2/5: en el tiempo que Saturno invierte en completar dos revoluciones alrededor del Sol, Júpiter da cinco. Los

dos planetas se encuentran periódicamente en la misma posición relativa, y sería de esperar que las

perturbaciones debidas a su atracción mutua se acumulasen, ampliando las modificaciones de las órbitas:

¿podrían sus interacciones reiteradas ("resonancia") llegar a deformar tanto sus trayectorias que sus órbitas

dejasen de ser estables?

El problema de la resonancia de Saturno y Júpiter se conoce en matemática con el apelativo de “problema de

los divisores pequeños”. Si dos planetas, cuyos movimientos son independientes (no se tiene en cuenta su

interacción), viajan alrededor de un sol, resulta perfectamente compatible con las ecuaciones de Newton la

existencia de órbitas estables en la relación 2/5. ¿Persisten estas órbitas cuando se toma en consideración la

fuerza gravitatoria entre los dos planetas?

Cabe el que las órbitas no sean perfectamente periódicas, sino cuasiperiódicas. Una órbita cuasiperiódica es

igualmente estable: se mantiene siempre entre ciertos límites. Además, tal órbita es repetitiva: si observamos

las órbitas correspondientes a un intervalo dado, volveremos a encontrarlas más tarde, salvo por una

perturbación arbitrariamente débil.

En el caso de que existan órbitas cuasiperiódicas, pueden describirse mediante "series de Fourier

convergentes". En 1878, Weiertrass le notificaba a la matemática rusa Sophie Kowalevski, que había

Page 11: Nuevos rumbos para la cosmología

conseguido escribir series de Fourier cuyos coeficientes estaban determinados por las ecuaciones del

movimiento. ¿Representarían estas series soluciones cuasiperiódicas del problema? Hacía falta demostrar la

convergencia de dichas series.

Weiertrass atacó el problema de una serie de Fourier que contiene un número infinito de términos

(sinusoides, multiplicada cada una por un coeficiente). La serie ofrece buen comportamiento cuando al

sumar todos estos términos (o, por pensar geométricamente, al superponer todas estas sinusoides) la serie es

convergente. Se obtiene entonces una función periódica.

En el caso de Saturno y Júpiter, donde el cociente de sus años se aproxima al número racional 2/5, hay un

número infinito de coeficientes que contienen divisores muy pequeños. El resultado es que la serie contiene

un número infinito de coeficientes muy grandes, que tienden hacia infinito cuando los divisores pequeños

tienden a cero. ¿Cómo determinar la convergencia de tal serie?

Se sabe desde Pitágoras que podemos representar ciertos números mediante cociente de dos enteros, lo que

no es factible para otros los números irracionales, aunque los números que encontramos en la vida cotidiana

son sobre todo números racionales, Georg Cantor (1845-1918) demostró que son infinitos más los números

irracionales que los racionales.

La primera indicación de su inexactitud fue una disertación del matemático ruso Andrei Kolmogorov en los

años setenta quien esbozó las líneas generales de una demostración: no solamente pueden existir órbitas

estables en ausencia de leyes de conservación, sino que, en ciertas condiciones, la mayoría de las órbitas son

estables; a los criterios de Kolmogorov se unirían luego las de Vladimir Arnold y de Jürgen Moser, y nacería

la teoría KAM, que se ocupa de las perturbaciones de un sistema integrable (un sistema es integrable si

posee suficientes leyes de conservación; así ocurre con el problema de los [n] cuerpos.

A comienzos del siglo XIX, Joseph Fourier demostró que una función periódica casi completamente

arbitraria -una función que se repite indefinidamente con cierto período- es representable mediante la suma

de un número infinito de sinusoides (senos y cosenos), afectados de un coeficiente. Esta suma constituye una

serie de Fourier.

KAM afirma que, para perturbaciones suficientemente pequeñas, la mayoría de las órbitas son estables: ya

no son periódicas, sino cuasiperiódicas, que nunca se alejan demasiado de las órbitas periódicas del sistema

no perturbado. El teorema KAM proporciona respuestas desconcertantes a las cuestiones de mecánica

celeste que preocupaban a los matemáticos; no obstante, siguen persistiendo enigmas.

La importancia del teorema trasciende al ámbito del Sistema Solar: ha cambiado de raíz la manera en que los

físicos y los matemáticos conciben los sistemas de la mecánica clásica. KAM demuestra que estos sistemas

son profundamente diferentes de lo que se imaginaba. Si nos representamos uno de tales sistemas como una

lucha entre el orden y el desorden, resulta que el orden es más poderoso de lo que se pensaba, el orden no

depende sólo de leyes; en ciertas condiciones, estos sistemas dan pruebas de estabilidad innata. ¿Qué los

mantiene? No se conoce la respuesta.

EL MISTERIO DEL CEREBRO COMIENZA A DESPEJARSE

A mediados de los ochenta comienzan a hacerse publicar las características que definen al cerebro humano:

un cerebro es un amasijo ordenado de 10 a 100 millones de neuronas, con posibilidades de hacer entre 5.000

a 50.000 contactos con sus vecinos, lo que implica unos 100 billones de conexiones libres, flexibles. A su

vez la retina ocular puede procesar 100.000 puntos de una imagen en tan solo 1/10 de segundo. Pero aún

esta poderosísima combinación cerebro - retina no permite al ser humano conocer la realidad esencial, esto

es la materia en su estado puro, porque aunque la lógica nos dice que el mundo exterior está allí y puede ser

observado, lo cierto es que, según los físicos cuánticos, siempre que se observa se modifica lo observado; y

ahora, según los neuroanatomistas la realidad se percibe de manera distinta si se es hombre o se es mujer.

En neurofisiología, no es posible hablar de mente, tan solo de cerebro y es, a partir de este concepto que las

Page 12: Nuevos rumbos para la cosmología

investigaciones de Sperry, Gazzaniga, Bogen y Mac Lean, permiten afirmar que: El cerebro no es un órgano

aislado y único, sino el conjunto de varios espacios que establecen relaciones complementarias entre sí. Una

teoría señala que la integración de las percepciones se realiza en un espacio en el tálamo; otra señala que la

integración no es de tipo espacial, sino temporal (tipo barrido de radar cada 12.5 milisegundos). Las

diferentes zonas del cerebro se asemejan a las capas de una cebolla y cada una tiene una función específica.

Esta es una teoría científica que ya ha sido comprobada (y premiada con el Nobel de Medicina de 1981) y

señala que la evolución de las especies ha ido de la mano con el cerebro. Pero no se trata de una sustitución

de un cerebro por otro; es más bien una especie de superposición de cerebros en la que el más primitivo fue

cubierto por etapas por otro más complejo en “capas de cebolla” para satisfacer las nuevas necesidades de

los individuos que pueblan el planeta.

El “Cerebro Triuno” une las necesidades de sobrevivencia del cerebro reptil (cazar, comer, dormir, saciar la

sed o reproducirse), junto al razonamiento lógico (propio del hemisferio izquierdo), la intuición y la fantasía

(del hemisferio derecho) y las emociones (segregadas en el llamado cerebro límbico). El cerebro triuno es la

descripción de un órgano que física, química y biológicamente, es tres en uno. Cada capa es distinta y sus

funciones son complejas y complementarias. El primer cerebro sería es "reptil", luego vendría el de los dos

hemisferios (independientes entre sí) y finalmente, el cerebro límbico que controla las emociones del

individuo: Tres en Uno.

El cerebro reptiliano se encuentra en la región inferior de la cabeza y es una zona que no ha evolucionado y

que se halla en el hombre, las tortugas y los reptiles actuales. Rodeando esta capa está el sistema límbico, el

cual compartimos con los mamíferos. Estas partes ejecutan los programas básicos de la vida, como los

instintos, las pulsiones, las emociones, los miedos y las defensas, los afectos y las agresiones. En resumen

cuidan de la supervivencia física y social”.

Luego se sobreponen los hemisferios, el izquierdo (que controla el lado derecho del cuerpo) y el derecho

(que controla el izquierdo). Cada hemisferio tiene sus características:

1.- Hemisferio derecho: a) Similar al caleidoscopio; b) Combina y sintetiza las informaciones y crea un

todo; c) No actúa linealmente sino que procesa simultáneamente; d) Eficiente en el proceso visual y espacial

(imágenes); e) Las palabras parecen desempeñar escasa importancia; f) Relaciona informaciones con

metáforas, analogías y visualizaciones; g) Es creativo, alucinatorio, artístico, mítico y energético.

2.- Hemisferio izquierdo: a) Similar a una computadora; b) Es analítico, lógico, aritmético, racional,

simétrico y consciente; c) Es también lineal, secuencial, realista, científico y cronológico; d) Pasa de un

punto a otro mediante reglas de lógica; e) Asimila en relación causa - efecto; f) Procesa información verbal.

Los neurofisiólogos manejan dos hipótesis para explicar cómo funciona la percepción que produce un objeto

físico de cualquier naturaleza en el ser humano. Así al observar el Sol, por ejemplo nos damos cuenta que

tiene color, temperatura, que está colocado a determinada distancia; que se mueve. Cada una de esas

sensaciones viajan desde distintos receptores (sentidos) al tálamo y a la corteza cerebral y allí se agrupan las

percepciones fragmentarias para adquirir unidad.

1.- La primera hipótesis: (conectiva - espacial) explica que las células especializadas se transmiten, una a

una toda la información de entrada, la cual es procesada formándose un conjunto espacial de neuronas

activadas que al descodificar las señales envían de vuelta por medio de descarga eléctrica las órdenes para

que las sensaciones se perciban como una unidad coherente.

2.- La segunda hipótesis debida al colombiano Rodolfo Llinvar, neuroanatomista en la Universidad de

Nueva York, explica que el proceso no es de carácter espacial sino temporal: todas las neuronas encargadas

de transmitir situaciones envían al tálamo las descargas eléctricas cargadas de información. Allí se encuentra

un dispositivo “radar”, que barre cada 12.5 milisegundos la zona, descodificando la información y

produciéndose en cada “barrida” la unión de las percepciones separadas. Estos “guantes” de percepción

física, son a su vez “guantes” de percepción de la conciencia; así la persona experimenta en cada barrida un

“retrato de la situación”.

Page 13: Nuevos rumbos para la cosmología

El cerebro no funciona siempre a igual intensidad: así en el estado de vigilia, de sueño, de distracción, de

atención total, de alegría o de temor, o por la existencia de desórdenes psiquiátricos o bien de inducción de

estados especiales (hipnosis) o bajo la acción de estímulos (drogas, corriente eléctrica, frío, calor) el ciclaje

es diferente y las percepciones se modifican.

De esta manera se explican actualmente las percepciones de quienes dicen haber visto naves extraterrestres,

o haber viajado en ellas, o de quienes al tener percances de muerte transitoria afirman haber visto “luces”,

“túneles” y otros objetos o personas. En estos últimos casos los neurocientíficos manejan la hipótesis de que

tales experiencias mentales se deben a cambios en los flujos de oxígeno en el ciclaje. Hasta el momento se

ha documentado bien tres tipos de percepciones, claramente alucinógenas es decir que no existen pero que

excitan al cerebro como si fuesen reales las audiciones y las visiones fantasmas y - en el caso de personas

amputadas - la sensación de tener aun el miembro amputado.

Para los especialistas en la nueva ciencia Cognitiva o Cognotivismo y específicamente para el

norteamericano Martin Gadner, el conocimiento debe abordarse con base en estas premisas:

1) La creencia de que la actividad cognoscitiva humana debe ser descrita en función de símbolos, esquemas,

imágenes e ideas y otras formas de representación mental. Esto sitúa a dicho campo firmemente en las

tradiciones tanto del pensamiento antiguo como del sentido común contemporáneo.

2) La tendencia a considerar a la computadora, sino como un modelo, si como una herramienta para estudiar

la mente: dado que el escepticismo por las computadoras generalmente conduce al escepticismo por la

ciencia del conocimiento.

3) Reducir la importancia del “afecto, el contexto, la cultura y la historia”. Los problemas se deben estudiar

de tal manera que pueda darse razón suficiente sin tener que recurrir a esos “conceptos oscuros”.

4) La certeza en la investigación interdisciplinaria. Una ciencia del conocimiento independiente “permanece

fuera del alcance”. Por ahora, individuos de diversos campos deben trabajar unidos.

5) Un tradicionalismo en el tratamiento de problemas filosóficos clásicos.

¿ Doxa o Episteme ?.- Cuando hace años el filósofo José Ortega y Gassett señalaba que el nuevo científico

(El nuevo profesional) es poco menos que un bárbaro civilizado, quería decir que si en algo sabía, tal

conocimiento era cada vez más y más sobre un dominio intelectual de menor alcance. En el fondo el filósofo

abogaba por el mantenimiento de una nueva epistemología, esto es, de la unión de lo disperso (el

conocimiento “fenomenológico” ubicado en “islas” o “profesiones”), pero además intuía la necesidad de

llegar al conocimiento de la esencia de las cosas (“noumeno”), que es en primera y en última instancia el

intento de la física moderna y por ende de la cosmología actual.

En esta línea de pensamiento el intento del cognitivismo es apartarse de las opiniones (doxa), para entrar de

lleno en el conocimiento puro (episteme), al que se llegaría por la aprehensión de las connotaciones de

materia-antimateria; así como de paso de materia a energía o viceversa; o bien de estas mismas entidades

expresas como partículas realmente elementales (quarks, antiquarks), o bien de paquetes de información

(“bits”) subyacentes en las nociones de la materia. Este abordaje ha hecho entrar - de lleno el estudio de la

psicología tradicional en el “fisicalismo”, fuertemente reduccionista. Toda la polémica que se ha desatado

alrededor de esta aproximación al conocimiento se analiza con más detalle en otra parte de esta obra, porque

la visión reduccionista tiene raves implicaciones para el concepto de "conciencia".

¿ Origen de la vida ? .- A mediados de 1989, ante más de trescientos investigadores del European Molecular

Biology Laboratory (EMBL) el prestigioso filósofo de la ciencia Karl Popper, de 87 años, expuso su opinión

en torno de una nueva teoría vinculada con los orígenes de la existencia.

El tema del encuentro era los orígenes de la vida. Y en este sentido, Popper presentó la teoría, desde su

punto de vista revolucionaria de un químico de Munich, Günter Waechtershaeuser. “Antes de conocerla,

explica Popper, creía que la teoría más exacta era la del caos inicial. Una suerte de cóctel de sustancias

químicas, una chispa y he aquí la primera célula. Luego Gunter me explicó su teoría de “metabolismo de

superficie”: pasamos jornadas enteras hablando del tema, demostrando la teoría pieza por pieza. Al final me

convenció de que tiene bases más sólidas que la otra hipótesis”

Page 14: Nuevos rumbos para la cosmología

El gran escollo para los científicos que querían explicar el hecho esta determinar que factor, diosa de la

casualidad o de la improbabilidad, produjo el fenómeno. “En lugar del caos inicial, teoría convenientemente

aceptada; esta nueva idea parte de sustancias más elementales: como anhídrico carbónico y agua y de un

lecho de piedra con una carga eléctrica positiva”. Waechtershaeuser demuestra que, a través de simples

reacciones químicas, sobre aquella superficie se puede formar una capa sutil, una película del espesor de una

molécula de organismos “casi vivos”. No celulares, pero en condiciones de crecer y transmitir un mensaje

hereditario. Sólo en una segunda etapa estas criaturas desarrollan una membrana protectora que se cierra,

dando origen a la primera célula auténtica. “Entonces y solo entonces, la vida se separa de la roca y encara el

mar abierto... y la gran aventura comienza sin ninguna necesidad del rayo de Zeus...”

El problema del origen de la vida no es ajeno a ningún ser humano, todos en algún momento de nuestra

existencia nos hemos hecho esta pregunta: ¿De dónde vinimos? ¿Fuimos creados por un ser omnipotente o

somos producto de una larga y tortuosa evolución?. A partir de la propuesta aceptada por Popper el

conocimiento de la aparición de vida que Popper llama la “otra hipótesis” es esta: Según las teorías

cosmológicas, la edad del Universo se estima en 15.000 millones de años y hace aproximadamente 4.500

millones de años se formaron los planetas del Sistema Solar junto con el cortejo de satélites que los

acompañan.

La Tierra, como parte integrante de nuestro sistema planetario, tuvo sus características propias: en ella no

existía el día ni la noche, estaba rodeada por nubes que la opacaban y cubierta en la mayor parte de su

superficie por agua, no pudiéndosele llamar mares sino masas fangosas y semilíquidas que continuamente

recibían impactos de meteoritos. Una atmósfera enrarecida estaba constituida por una mezcla de gases como

amoníaco, hidrógeno, ácido sulfhídrico, nitrógeno, metano, dióxido de carbono, monóxido de carbono y

vapor de agua, el “oxígeno se formó mucho después.” Estas eran las condiciones existentes en la Tierra hace

4.000 millones de años, es decir, 500 millones luego de su formación.

En el año 1953, Stanley Miller, un estudiante de la Universidad de Chicago (hoy profesor en la Universidad

de California en la Joya), mediante un experimento que asombró al mundo científico de aquella época, logró

una verdadera revolución sintetizando sustancias básicas para la vida a partir de los átomos y moléculas

presentes en la atmósfera primitiva. Su ensayo consistía en lo siguiente: utilizando un matraz contentivo de

gases que simulaban la atmósfera originaria (metano, amoníaco, vapor de agua e hidrógeno) y haciendo

pasar repetidamente descargas eléctricas a través del aparato como fuente de energía, pudo obtener 14

aminoácidos diferentes. Hay que dejar claro que en la Tierra de aquel entonces, la energía no sólo podía

provenir de las tormentas eléctricas sino también de las erupciones volcánicas y de la intensa radiactividad

existente.

Este experimento fue posteriormente revisado y realizado en numerosas oportunidades y con ciertas

modificaciones, por muchas personas, entre ellas clérigos de la Iglesia Católica con conocimiento científico

quienes comprobaron la experiencia de Miller. En estos repetidos ensayos, no sólo se llegó a sintetizar

aminoácidos, sino además compuestos como el ácido carboxílico, aldehídos, azúcares, úrea, la adenina que

es una base que forma parte de los ácidos nucleicos: Ácido Desoxirribonucleico (ADN) y Ácido

Ribonucleico (ARN), Nucleónicos y ATP (Adenosin trifosfato) que es una molécula almacenadora de

energía, la cual interviene en la gran mayoría de las reacciones biológicas que requieren incorporación

energética.

Para el año 1968, los doctores G.W. Hodgson y Cuyril Ponnamperuma descubrieron la molécula de porfirina

que cuando incluye en su estructura a un átomo de magnesio y químicamente sufre pequeños cambios, se

transforma en la molécula de clorofila que es la sustancia clave para poner en marcha el proceso

fotosintético fundamental para la vida que se iban depositando y aumentando su complejidad en los océanos

primitivos. ¿No podría ser posible entonces que estas sustancias intercalaran entre si y generasen otras

moléculas más complejas?

Esta interrogante fue también respondida tiempo después mediante la experimentación por el científico S.W.

Fox: Al mezclar aminoácidos obtuvo sustancias semejantes a las proteínas a las que llamó proteinoides,

Page 15: Nuevos rumbos para la cosmología

luego, haciendo incidir radiaciones gamma sobre estos últimos compuestos se formaron ácidos nucleicos.

La formación de proteinoides se cumple más rápidamente cuando el proceso ocurre sobre arcilla, ya que ésta

posee metales que actúan como elementos catalizadores, acelerando las reacciones entre las moléculas. Si

los proteinoides son sometidos a la acción del agua caliente, se reúnen y originan diminutas esferas cuyo

diámetro varía entre 0.5 y 80 micras, rodeadas por una membrana periférica que solamente es permeable a

ciertas sustancias, hecho importante porque favorece determinadas reacciones internas en las

microvesículas.

Los ácidos nucleicos, responsables de la herencia y las proteínas, con acción enzimática, al combinarse

forman un sistema capaz de reproducirse, pero por ser un modelo muy primitivo en él se pueden presentar

numerosas mutaciones, signo inequívoco de evolución. A este sistema con características y propiedades

individuales, que contrasta con el medio que los circunda, se le llama "protobionte"; los protobiontes se

pueden presentar con diversa estructura y composición hecho determinante en la aparición de la

competencia. Este sistema también ha sido comprobado por un experimento similar al anterior.

El profesor H. D. Pflug, del Instituto Geológico de la Universidad de Giessen, explorando una región del

suroeste de Groenlandia encontró en los años setenta fósiles de 3.700 millones de años de antigüedad que

podrían corresponder a protobiontes, cosa que aún no se ha comprobado; se puede aproximar más a esta

afirmación el hallazgo de fósiles de bacterias y algas cianoficeas incrustadas en rocas de 3.000 millones de

años, caracterizadas porque el material correspondiente al núcleo se encuentra disperso por toda su

estructura, razón por la cual se les llama a estos cuerpos fósiles procariontes. Cuando el núcleo, contentivo

del material genético está rodeado por una membrana que lo limita del resto, se les llama eucariontes; se han

encontrado fósiles eucariones en rocas de 800 a 1.500 años y millones de años. La Naturaleza tuvo al factor

tiempo de su lado, lo que consecuencialmente llevó a la aparición de organismos que presentaban mayor

complejidad (células eucariontes).

Llama mucho la atención el hecho de que no se han hallado estructuras intermedias entre los procariontes y

los eucariontes, lo cual es sugestivo para la formulación de nuevas ideas e hipótesis. Por estudios de fósiles

encontrados hace 2.300 millones de años, se determinó que las algas cianoficeas ya tenían la capacidad de

captar la luz solar y realizar el proceso de la fotosíntesis que traería consigo la liberación de oxígeno a la

atmósfera, siendo éste un elemento tóxico y por tanto nocivo para la vida de aquel entonces.

Con base en esto, se propuesto la siguiente hipótesis: se cree que muchos organismos unicelulares tuvieron

que refugiarse en el fango, o penetrar al interior de otras células que se resistieron a perecer en tales

condiciones. Los organismos que llegaron a invadir a las células aerobias, finalmente terminaron formando

mitocondrias (estructuras encargadas de la respiración celular) y las algas cianofíceas que como se dijo eran

las encargadas de la producción de oxígeno, se cree que también fueron capturadas por las células que se

adaptaron al ambiente oxigenado, transformándose luego en cloroplastos.

A partir de estas células con mayor complejidad, el proceso evolutivo cobró más fuerza: ahora las células

tienen la capacidad de reproducirse, de metabolizar nutrientes, de captar y excretar sustancias. Algunas

células se beneficiaron de su entorno y aparecieron las especies. Estas lucharon por la supervivencia

agrupándose en colonias, originándose grupos pluricelulares, los cuales sufrieron procesos de diferenciación

que se tradujeron en la formación de órganos, posteriormente sistemas y en última instancia organismos.

Como hemos visto, en la Tierra primitiva, se dieron las condiciones necesarias para el surgimiento de la

vida: combinaciones de gases más la incorporación de energía, pudo originar aminoácidos y estas proteínas

con propiedades enzimáticas (catalíticas) y estructurales (conformación de paredes celulares y organelos y;

además, la síntesis de ácidos nucleicos fue la base para la transmisión hereditaria, existía el medio propicio

para la aparición de carbohidratos (azúcares), la molécula de clorofila pudo dar inicio a la fotosíntesis. En

conclusión, sólo se requería de muy largos períodos de tiempo (se estima en 3.000 millones de años) y la

incursión constante de diferentes formas de energía (actividad volcánica, radioactividad, tormentas

eléctricas, radiaciones solares y moléculas de reserva energética como el ATP entre otras) para que la vida

tuviera su asiento definitivo en la tierra.

Page 16: Nuevos rumbos para la cosmología

El astrónomo Harlow Shapley, de la Universidad de Harvard dijo en una oportunidad al referirse a la teoría

de Miller: “es maravilloso pertenecer al grandiosos espectáculo de una evolución, siquiera debemos precisar

que somos descendientes directos de algunos gases nauseabundos y ciertas descargas eléctricas”.

Discrepancias con el Origen de la Vida.- En estas épocas cobra fuerza nuevos criterios acerca de cuál podría

ser la fuente de la vida en nuestro planeta , porque han comenzado a aflorar con fuerza, las ideas

propugnadas por Carl Sagan de la Universidad de Cornell y por Christopher Chyba de la NASA. Su criterio

difiere de la tesis original de Stanley Miller y plantean que la vida en la Tierra se originó debido a la lluvia

de polvo cósmico sobre el planeta durante millones de años, antes que por la acción de los rayos solares y la

electricidad sobre la atmósfera o aún por los impactos de meteoritos sobre la superficie, como se venía

suponiendo hasta ahora en otra teoría rival a la de Miller.

La teoría de Sagan y Chyba parte de dos hechos: que los asteroides y cometas contienen moléculas de

carbono similares a las orgánicas, y que la Tierra ha recibido desde su formación una lluvia de partículas.

Ello coincide con lo que afirman los físicos Fred Hoyle y N.C. Wickramasinghe, según los cuales la vida

terrestre se habría originado a partir de los microorganismos transportados en los diminutos granos del polvo

cósmico que viaja por el espacio.

Actualmente caen unas tres mil toneladas anuales de polvo cósmico, de las cuales una décima parte es

materia orgánica, pero en los orígenes del Sistema Solar, la cantidad era mucho mayor, unas 60.000

toneladas al año, según calculan Sagan y Chyba. La importancia de esta lluvia en la creación de organismos

vivientes depende de cuál haya sido la composición de la atmósfera terrestre primitiva, porque los estudios

recientes sostienen que, en vez de ser de metano, amonio e hidrógeno, como se creía, era de vapor de agua y

dióxido de carbono lanzado por los volcanes.

En esas condiciones, la producción de materia orgánica por los rayos ultravioletas y los meteoritos es menor

que en el primer caso, aumentando la importancia de las partículas extraterrestes. Esta cantidad, acumulada

durante cientos de millones de años, aportó el 15 por ciento de la materia orgánica de nuestro planeta, según

calculan los investigadores, que consideran que su teoría sobre el origen de la vida, es compatible con las

dos vigentes.

Según otros criterios - esta vez de geólogos de la NASA el planeta Tierra se formó hace unos 4.610 millones

de años (Ma) a través de la concentración y condensación de la materia y la energía interestelares, mientras

se consolidaba el Sistema Solar.

Tras la formación de la corteza y su enfriamiento, la vida surgió en un momento y modo que no se han

determinado, aunque los fósiles más antiguos, hallados en Suráfrica, datan de hace 3.400 millones de años y

corresponden a organismos primitivos, sin un núcleo celular diferenciado, que contenía el material genético,

en un gran salto de la evolución de la vida, que hasta entonces se limitaba a los océanos.

Después aparecieron organismos más complejos como los animales terrestres, loe elementos esqueléticos,

los peces, los animales voladores y los reptiles, hasta que hace 200 millones de años aparecieron los

primeros mamíferos, hace 100 millones de años los primates y hace unos 2,5 millones de años comenzó la

línea directa que llevaría al hombre actual.

Sin embargo para otros estudiosos como el biólogo Leslie Orgel, del Instituto Salk, EUA, “la historia de los

orígenes de la vida no puede reconstruirse y está perdida”, aunque se tenga idea de cómo ocurrió y se intente

repetirlo en el laboratorio.” Cual sea la tesis correcta es un asunto que aún no se ha dilucidado y el intento de

Waechtershauser, es uno más por modificar el modelo de Miller, que tiene como antecedentes trabajos

previos de Harold C. Urey en USA y de Alexander Oparín en la URSS.

En febrero de 1994, nuevamente Stanley J. Miller, en asocio de Jeffrey Bada, dan a conocer una nueva teoría

que postula que la vida no sería el resultado de un acto isócrono (una sola vez) sino de un proceso diacrónico

derivado del bombardeo incesante de asteroides de hasta 35 km de diámetro que traían en su seno las

Page 17: Nuevos rumbos para la cosmología

moléculas orgánicas primarias que derretían los océanos de hielo (de hasta 250 m de espesor) y en donde la

temperatura del planeta en las partes secas no era superior a 40 grados C. El hielo se habría derretido y

recongelado sucesivamente cada cien mil años y en algún momento, la vida que comenzaba y se perdía,

persistió por un proceso de auto - duplicación que tuvo éxito, cuando las condiciones lo permitieron; pero

igualmente la caída de asteroides habría aniquilado formas de vida ya evolucionada, como es el caso de la

desaparición de los dinosauros hace 65 millones de años.

VIDA EXTRATERRESTRE

En la década de los ochenta y noventa se han propuesto hipotéticas variables a la vida conocida con base en

el sustrato de la química del carbón. Estas variables y sus hábitats probables serían:

1. Vida con base en la química del carbón pero con morfologías aplicables a condiciones diferentes a las de

la tierra (hábitats: internos y superficiales en planetas);

2. Vida con base en formaciones químicas a base de silicon (hábitat: planetas) ;

3. Vida en la forma de una “nube” formada con base en la química del carbón organizada y pensante que

recibe alimento y energía de la radiación de las estrellas (hábitat: planetas);

4. Vida existente en retículos cristalinos cuya existencia es debida a la combinación de vibraciones y que

tiene capacidad de mantenerse por transformaciones de la energía mecánica que los origina (hábitat: interior

de planetas, estrellas neutrónicas y enanas blancas);

5. Vida formada con base en combinaciones de partículas elementales sostenidas por la fuerza nuclear

(hábitat: superficie de estrellas neutrónicas).

La dificultad de comunicación existente respecto a eventuales civilizaciones extraterrestres cuya vida sea del

tipo 1,2 y 3 se originan en las distancias; la dificultad para eventuales formas de vida (y civilizaciones) en

los casos 4 y 5 se complica - además - por dos factores: uno que sus mensajes serían de carácter gama -

fotónico (en vez del radio - fotónico nuestro); el otro, porque la duración de su vida es de apenas escasos

nanosegundos frente a los milenios y millones de nuestra duración.

Como se observa las dos fórmulas de las décadas anteriores han sido fuertemente modificadas conforme

avanza el conocimiento y esta es la última fórmula oficial aplicable a la Galaxia Local, debida a Frank

Drake, asesor de la NASA:

"Las posibilidades de vida extraterrestre están dadas por la ecuación: [M = fpnefvfifct]; en donde:

local y con estabilidad para albergar vida.

• fp = fracción de esas estrellas con sistema planetario

• ne = Nº de planetas con ecoesfera apta para albergar vida

• fv = fracción de esos planetas en que ha aparecido vida

• fi = fracción de esas diferentes formas de vida en que se ha evolucionado para tener inteligencia y

civilización

• fc= fracción de esas civilizaciones tratando de comunicarse con otras

• t = duración en tiempo de esos intentos de comunicación

Cuantificación. - M = 20; fp = 0.5; ne = 1; fv = 0.2; fi = 1, fc = 0.5; t =

Resultado. - Si N = t, los cálculos optimistas van desde 10 millardos optimistas hasta pesimistas: 1 (solo la

Tierra)

Muchas otras variables intervienen en las posibilidades y las han estudiado entre otros Carl Sagan; Josef

Shklovsky; Fred Hoyle; Freeman Dyson; Nikolai Kardasev; Michael Hard, William Newman, Josep A. Ball;

Sebastian Von Hoerner; Pierre Cones; Michael Papagiannis; con posiciones muy disímiles todos ellos,

porque sus propuestas son muy especulativas y se mueven exclusivamente en el campo de posibilidades

imaginadas solo desde un lugar del Universo con una forma particular de describir lo que se observa y de

hacer extrapolaciones en el mismo sentido en que evoluciona la materia en nuestro Planeta.

Page 18: Nuevos rumbos para la cosmología

Las probabilidades de comunicación iniciadas con el proyecto OZMA en 1960, por Frank Drake, hasta los

últimos proyectos SETI (USA) y CETI (URSS, 1973 - 1989) y luego Australia (a partir de 1995) se basan en

el envío de señales de radio y deben superar los problemas básicos inherentes a:

1) en qué frecuencia escuchar o transmitir;

2) por cuánto tiempo escuchar y por cuánto tiempo transmitir;

3) hacia qué parte del Universo escuchar o transmitir.

Por eso se han propuesto otras ideas; entre ellas la de utilizar el espectro ultravioleta para transmitir señales

de nuestra presencia como una manera de señalar nuestra existencia a eventuales civilizaciones; pero esta

idea parte de otra especulación: que las civilizaciones primero demuestran su presencia y luego se

comunican por radio.

Quizás la fase irónica de Fermi ilustre la barrera a traspasar para una eventual comunicación : ¿Pero dónde

están “ellos”...? La contestación no ha llegado aun por parte de la ciencia, sino - únicamente - por parte de

los autollamados “omnivólogos”, “exploradores de lo insólito” y otros nombres semejantes; pero eso además

de ser más especulativo que los intentos de la ciencia son fenómenos que se ubican en la imaginaría mental,

en las ilusiones ópticas, en la ignorancia de las leyes físicas, en la sugestión colectiva y en las expectativas e

interrogantes que acompañan el inicio del Tercer Milenio.

¿LA TIERRA EN PELIGRO?

En febrero de 1989, John Grey, Director de Política y Ciencia del Instituto de Aeronáutica de los Estados

Unidos de América, anunció por la prensa el inminente peligro de choque de asteorides en el planeta Tierra,

causando así una gran polémica científica.

Los impactos de asteroides han marcado la evolución biológica, geológica y climática de la Tierra y se prevé

que dentro de varios millones de años caiga uno que extinguirá la vida en el planeta. Así lo indican distintos

informes sobre estos proyectiles que llegan de un cinturón situado entre Marte y Júpiter que han regido los

destinos del Sistema Solar casi tanto como el Sol y chocan con los planetas con una periodicidad

inversamente proporcional a su tamaño. Los más pequeños, con diámetros inferiores a 100 metros, caen

sobre la Tierra una vez por siglo y uno de ellos probablemente causó en 1908 el fenómeno de Tungunska, en

la taiga siberiana, al estallar a 5 o 10 kilómetros de la superficie, mientras que los exterminadores, de más de

6 kilómetros, impactan cada 70 millones de años causando extinciones masivas como la de los dinosaurios.

En 1990, investigadores chinos han descubierto cerca de la ciudad de Shenyang el que podría ser el mayor

meteorito detectado en la superficie terrestre (de 50 a 100 metros de diámetro) mientras que otro de 25

centímetros conmocionó a los círculos científicos de Holanda, al caer sobre una vivienda. Los asteroides son

parte de la masa de material original del Sistema Solar que no llegó a concentrarse lo suficiente y a

solidificarse para construir los planetas y satélites, y que ahora forman un anillo entre Marte y Júpiter. Hace

unos 3.000 millones de años se produjo una gran tormenta meteórica, con cuerpos mayores de 50 kilómetros

de diámetro, uno de los cuales estuvo a punto de pulverizar Mercurio, formando el Mar Caloris y, en sus

antípodas, una elevación que dio al planeta su forma de pera.

La tormenta amainó pero prosiguieron los chubascos, cuyos impactos en la Tierra rigen los destinos

creadores y destructores de nuestro planeta causaron plegamientos geológicos, la extinción de especies y las

glaciaciones. Este cinturón meteorítico, con una masa del conjunto de grandes objetos semejante a la de la

Luna, seguirá siendo la principal fuente de objetos que chocarán contra los planetas del Sistema Solar,

alterando su faz cada cierto número de millones de años (2.5. en promedio). Cada año se aproximan a

nuestro planeta, a una distancia menor de 15 millones de kilómetros, más de treinta asteroides “Apollo”, de

alrededor de un kilómetro de diámetro y detectables por los actuales telescopios.

La última aproximación importante de un Apollo” a la Tierra, fue la del objeto denominado "1990 MF", que

Page 19: Nuevos rumbos para la cosmología

pasó a sólo 5 millones de kilómetros, mientras que otros han pasado a una distancia similar a la que nos

separa de la Luna, como el Hermes que en 1937 voló poco más allá del satélite, o el "1989 FC", que en

marzo del año 89 se acercó a 600.000 kilómetros de nuestro mundo. La caída de un meteorito de un

kilómetro de diámetro cuya periodicidad media es de uno cada 100.000 años, puede destruir el 30 por ciento

de la biomasa y el 10 por ciento de las especies, debido a los cambios climáticos. Cada 2 y 3 millones de

años pueden caer asteroides de 3 a 4 kilómetros de diámetro que afectarán la litosfera y el manto terrestre,

produciendo la extinción de hasta un 70 por ciento de las especies, así como la acumulación de CO2 y la

inversión local del campo magnético.

Dos de estos asteroides amenazadores se acercaron a la Tierra en 1989 y 1990, y ahora lo hacen el 2201

Oljato; 2102 Tántalus; 2100 Ra Shalom; 1981 Midas y 1620 Geographos, entre otros. También se

aproximan los “grandes exterminadores”, cuerpos de más de 6 kilómetros de diámetro, capaces de cambiar

la faz de la Tierra e imponer un nuevo orden geológico, biológico y climático, como el último gran impacto

de hace 67 millones de años. El más peligroso es el 1989 A?C?, que se aproxima a unos cientos de miles de

kilómetros de la órbita terrestre y podría chocar con el mundo, causando enormes temperaturas y

plegamientos geológicos.

Estos planteamientos geológicos que se podrían denominar "impactistas" "catastrofistas", están

evolucionando las bases de la ciencia y creando una polémica entre los geólogos, físicos y astrónomos. Si la

humanidad no puede remediar este problema mediante sus avances tecnológicos y científicos, dentro de los

próximos mil siglos caerá sobre la Tierra un proyectil capaz de modificar su evolución, hasta que dentro de

otros millones de años se produzca un nuevo impacto que cambie de nuevo su faz.

Las hipótesis en que se fundamentan todas las ideas de destrucciones cíclicas masivas se han fundido en la

denominada “Teoría Shiva”, nombre que le fuera dado - independientemente - por Houkan Smith de la

Universidad de Texas en Austin y por Jay Gould de la Universidad de Harvard en rememoración del dios

hindú de la destrucción y el renacimiento. La teoría consiste en cuatro hipótesis ligadas entre sí:

1) La gran extinción ocurrida hace 65 millones de años que destruyó muchas formas de vida en la Tierra,

incluyendo los dinosaurios, fue el resultado del choque de un asteroide o de un cometa contra la Tierra.

2) Los extinciones masivas - como esa - ocurren periódicamente cada 26 - 36 millones de años por la misma

causa.

3) Aunque en la actualidad no hay aparentemente causa para preocuparse debe establecerse una vigilancia

preventiva fuera de la Tierra para una explicación razonable de los puntos 1 y 2 y debe hacerse respecto a

los trillones de cometas que orbitan la Tierra cada uno de ellos potencialmente capaces de colidir con ella.

La explicación acerca de que es lo que impulsaría a estos cometas para colidir con la Tierra (y otros planetas

del Sistema Solar en diferentes épocas), se debe a dos posibles causas:

a) La presencia de una estrella compañera del Sol (llamada Némesis por los cosmólogos) que se mueve en

una órbita elongada alrededor del “centro de masa” del Sistema Solar. Némesis causa perturbación a las

órbitas de los cometas y les saca de ellas impulsándoles a estrellarse contra la Tierra (a veces) o en contra de

otros planetas;

b) El encuentro periódico del Sistema Solar con una Gran Nube Interestelar.

A juicio del astrónomo Donald Goldsmith de la Universidad de Berkley: “la hipótesis Shiva relaciona el

trabajo de muchas disciplinas científicas, en particular: Geología, Geofísica, Paleontología y Astronomía y

obliga a un serio debate entre estas para aceptar o rechazar la hipótesis”. El propio Goldsmith en su obra

“Némesis” publicada en noviembre de 1986, hace un recuento científico de condiciones a favor o en contra

de la teoría.

En 1995 se formula otra teoría por parte de los astrónomos Duke Dones (Canadá) y Scott Terraine (EUA)

que señala que la suave rotación terrestre es debida a colisiones con meteoros gigantescos y que de no haber

ocurrido harían que el eje de rotación este - oeste, fuera en sentido contrario (Venus, por ejemplo, o Urano

Page 20: Nuevos rumbos para la cosmología

que rota lateralmente). Las fuentes de meteoros (objetos grandes) y de meteoritos (desde microscópicos

hasta varios centímetros, cuya penetración en la atmósfera o su caída aportan unas 20 toneladas de material

al año), son los restos de cometas (provenientes de órbitas elongadas entre Plutón y el Sol, o de la Nube de

Ort, más allá de Plutón); o asteroides (ubicados entre Marte y Júpiter o circundando la Tierra); o hasta

planetoides (hay registrados unos 6000 de los cuales al menos 500 pueden chocar con nuestro planeta).

Una variante a la hipótesis de Némesis, lanzada a principios de 1996 por científicos de la Universidad de

Carolina del Sur afirma que: “...los dinosauros pueden haber muerto como consecuencia de un cáncer

causado por partículas originadas en las estrellas en la última fase de su vida, hace 67 millones de años.

Según la teoría, las partículas subatómicas llamadas “neutrinos” liberadas por las estrellas pudieron haber

penetrado en nuestra galaxia, produciendo un tipo de cáncer que afectó a los animales prehistóricos. Al

chocar con el núcleo de los átomos de los seres vivientes los neutrinos podrían haber modificado el ADN,

provocando mutaciones cancerígenas”.

En 1994 el tema cobra relevancia con la caída de un meteoro en Canadá (provocó un terremoto de 3.4 en la

escala Ritcher). También caen 21 fragmentos (1 km de diámetro cada uno) del cometa Levy - Schoemaker

en 1995 en Júpiter. LLama la atención que la historia moderna registra realmente pocos impactos

importantes (Tunguska en la Siberia en 1908, Canadá en 1994) e impactos de objetos pequeños sobre

vehículos (uno en EUA en 1993 y otro en España en 1995). En los cuatro casos no ha habido víctimas

humanas. Asimismo en 1994 se detectó el planetoide "1994 ES1" cuando pasó a tan solo 160 mil kilómetros

de distancia de la Tierra (mitad de la distancia Tierra - Luna),lo que da lugar a la emergencia e una

disciplina astronómica encargada de la vigilancia de estos cuerpos para evitar eventuales colisiones con

nuestro planeta.

¿TRAGADORES DE ESTRELLAS?

En julio de 1989 astrónomos británicos dieron a conocer que habían descubierto 13 gigantescos objetos

traga - estrellas en los bordes del Universo, tan poderosos que consumen el equivalente a mil millones de

estrellas por año. El astrónomo Michael Irwin, del Instituto de Astronomía de Gran Bretaña, de Cambridge,

dijo que los objetos, conocidos como quásares, podrían ser agujeros negros formados por galaxias que se

condensaron en los orígenes de la creación del Universo. Los quásares están tan lejos, que su luz demora

más de 13.000 millones de años en llegar a la Tierra.

En consecuencia, aportan una ventana hacia lo que era el Universo mil millones de años después de la

creación. Usando el telescopio Schmidt de Siding Spring, en Nueva Gales del Sur, 500 kilómetros al

noroeste de Sidney, el equipo de Irwin identificó desde 1987, dos tercios de los 30 quásares más lejanos. A

su juicio, la mayoría de los quásares parecen haberse formado más o menos al mismo tiempo que las

galaxias, o grupos de soles, pero que por alguna razón produjeron un gran agujero negro en el medio, que

absorbió toda la materia y comenzó a emitir radiaciones

Seis meses después, se da a conocer públicamente que una masa gigantesca de materia oscura, la cual obra

como un poderoso imán que atrae a las galaxias, ha sido “detectada” a ciento cincuenta millones de años -

luz de la Vía Láctea (es decir, de nuestra galaxia). Esta masa oscura, denominada por los astrofísicos

“Imán”, es un área del Cosmos más o menos esférica, de unos doscientos cincuenta millones de años - luz de

diámetro y se observa entre las estrellas de las constelaciones australes de Hydra, Centauro, Pavo e Indio.

La masa de “Imán” equivale a treinta millones de millardosde veces la masa del Sol y posiblemente esté

compuesta por un gran número de galaxias, las cuales conforman un conjunto homogéneo. Según el

astrofísico francés Alan Dressler, su equipo científico descubrió esta gigantesca estructura celeste “atratora

de galaxias, gracias a un planificado plan de trabajo, realizado desde 1987, con la finalidad de respaldar o

rechazar la Ley de Hubble. El descubrimiento de "Imán" constata la Ley de Hubble y confirma que nuestro

Universo se está expandiendo en cada instante de su existencia.

Los astrofísicos han señalado que hay una zona más densa que las regiones del espacio que la rodean y

según los astrónomos norteamericanos Hoffman y Zurek, del Laboratorio Físico de Los Alamos (USA), esa

Page 21: Nuevos rumbos para la cosmología

masa podría estar formada por la materia cósmica primordial, de una densidad y energía jamás detectadas

por los instrumentos convencionales, usados hasta el momento. Hasta ahora nadie ha visto a “Imán”, pues

dicha región “surgió” en el trabajo de las computadoras y en cálculos matemáticos para detectarlo,

determinar su diámetro, masa y otras características físicas, con base en observaciones realizadas de los

objetos celestes visibles a su alrededor, es decir, de los inmensos “nidos” de galaxias fotografiadas con los

grandes telescopios reflectores situados en Australia, Argentina y los Andes chilenos.

Algunos astrofísicos franceses no apoyan a su colega Dressler. Según el físico y astrónomo Pascal Fourqué,

la existencia y localización de “Imán” debería considerarse sólo en el terreno de las hipótesis, pues “nada

permite una conclusión clara y definitiva”. A partir de 1987, Dressler y su grupo han podido demostrar la

existencia de dicha masa gracias a doscientas cincuenta nuevas mediciones, desde varios puntos de la

enorme masa de materia y usando día a día métodos de cálculo computacional más rápidos y

perfeccionados. Gracias a los mismos, se tiene una visión en conjunto de dicha región cósmica y el camino

está siendo “abonado” para demostrar definitivamente la existencia de dicho gran “atractor” cósmico.

Algunos meses antes, un grupo de astrónomos y astrofísicos australianos habían descubierto, la primera

prueba real del fenómeno físico conocido como “Cordones Cósmicos”, cuyo conocimiento podría

revolucionar las leyes de la astrofísica convencional. Según Don Mathewson y su equipo de investigadores

del Observatorio Astrofísico de Siding Springs y del Radio Observatorio de Parkers (Australia), estos

“Cordones Cósmicos” se formaron apenas un segundo después del nacimiento del Universo.

Al apoyar al astrofísico francés Alan Dressler, afirman que esos “tragagalaxias” son ópticamente invisibles y

arrastran cerca de sí a las galaxias a una velocidad de mil quinientos kilómetros por segundo. Ellos han

medido la velocidad de atracción de mil quinientas galaxias y detectaron los límites de “Imán”, coincidiendo

con las mediciones realizadas por el equipo francés. Ambas escuelas han llegado a una misma conclusión:

ese gran atractor llamado “Imán” ha sido señalado por otros astrofísicos como uno de tales “Cordones

Cósmicos”

A principios de 1988, varios grupos de trabajo de Cambridge y Greenwich señalaron la existencia de “una

fuerza misteriosa” que absorbe a la Vía Láctea a la increíble velocidad de cuatrocientos kilómetros por

segundo. Según estos astrofísicos, la Vía Láctea no se desplaza en el espacio en “línea recta”, sino está

siendo empujada hacia una gigantesca concentración de masa. Ellos llamaron a dicho fenómeno “El Gran

Atractor” y señalaron que también así están siendo atraídas las galaxias que forman el llamado “grupo

local”.

¿EXTINCIONES POR CAMBIOS CLIMATICOS ?

En agosto de 1990, un artículo de divulgación del Centro Nacional de Investigación Científica de Francia

(CNRC) informa que la Tierra sería similar a un sistema integrado, en el cual todos los fenómenos

geológicos estarían relacionados entre sí. Los efectos de tales fenómenos podrían explicar los misterios

biológicos hasta el momento insolubles. Tal la visión de nuestro planeta surgida de una nueva teoría

geocientífica que explica que las fluctuaciones marina y climáticas al campo magnético serían variables

según ritmos caracterizados por cierta regularidad. Las variaciones ocurrirían cada 70 millones de años

aproximadamente y tendrían profundas consecuencias en las condiciones ambientales y biológicas. Se

explicarían así las extinciones masivas, por ejemplo la de los dinosaurios, que repetidamente interesaron a la

historia biológica terrestre.

El estudio de los anillos de crecimiento de los corales fósiles acabó con convencer a los científicos de que la

Tierra experimenta intensas variaciones en su equilibrio. Dicho estudio hizo saber, por otra parte, que el

número de días del año terrestre no siempre han sido de la misma duración en todas las épocas. Los corales

crecen durante el día, cuando están expuestos a la luz del Sol. De noche interrumpen su crecimiento y

forman una especie de anillo al concluir la parte crecida. Los expertos determinaron así que el número de los

días del año sufrió variaciones en distintas oportunidades.

Esto sugiere la hipótesis de un cambio en la velocidad de rotación de la Tierra. Los efectos de estos cambios

Page 22: Nuevos rumbos para la cosmología

serían múltiples: en los momentos de “aceleración”, la Tierra tendería a comprimirse en los polos y a

ensancharse en el Ecuador, provocando un aumento de la temperatura, un alza del nivel del mar y una

mejora del clima. En los períodos de rotación más lenta, en cambio, retomaría su forma originaria: los polos

se alejarían y el clima sería peor. Haría mucho frío y se originarían fenómenos de glaciación, con un retiro

progresivo de los mares y grandes extinciones masivas.

Estos cambios serían por lo menos doce en el curso de los últimos 600 millones de años y se habrían

verificado justamente en los momentos de pasaje entre las dos situaciones descritas. La más famosa es la de

los dinosaurios, que ocurrió hace 60 - 70 millones de años. Junto a los grandes reptiles desaparecieron otras

especies vivientes, todas en la plenitud de su expansión biológica. Para explicar este misterio hasta el

momento se habían lanzado varias hipótesis catastróficas basadas en la tesis cíclica conocida como “Teoría

Shiva”, en recuerdo a la diosa hindú de la destrucción y estas comprenden desde la explosión de una

estrellas cercana al Sol, a violentas erupciones volcánicas que habrían alterado las condiciones climáticas.

Pero, si se acepta la nueva teoría geológica, la visión catastrófica de las grandes extinciones entra en crisis:

los dinosaurios, por ejemplo, habrían desaparecido por el natural pasaje de la Tierra de una fase a otra de su

expansión, con los consiguientes cambios climáticos.

Las implicaciones de la nueva teoría no acaban aquí: presentando nuestro planeta como un sistema en

continua evolución, también se pone en crisis a los actuales modelos matemáticos de la geofísica, que ven la

Tierra como algo estático. Los grandes fenómenos geológicos, en síntesis, no se habrían debido al choque

entre enormes masas sólidas navegando en un magma inferior, sino al pasaje de la forma contenida de la

Tierra a la de su máxima extensión.

La historia de la vida sobre la Tierra está repleta de catástrofes de magnitud diversa. La que mayor atención

ha captado es la que produjo la extinción de los dinosaurios y de otros organismos, hasta llegar a la mitad de

todas las especies, hace unos 67 millones de años (entre los períodos Cretácico y Terciario). A pesar de su

magnitud, palidece cuando se la compara con el mayor desastre de todos, la extinción generalizada que se

produjo a finales del período Pérmico, hace unos 250 millones de años. Su lista de bajas es realmente

asombrosa. De los océanos desaparecieron alrededor del noventa por ciento de todas las especies durante los

últimos millones de años del Pérmico. En tierra, se esfumaron más de los dos tercios de familias de reptiles

y anfibios; escaparon a la destrucción el treinta por ciento de los órdenes de insectos, siendo la única vez que

han sufrido una extinción de esta magnitud.

Sin embargo, en 1989 señala el biólogo norteamericano Douglas H Erwin que de las catástrofes surgen las

oportunidades por estas razones:

1.- Durante varios cientos de millones de años previos a los acontecimientos de finales del Pérmico los

mares habían estado dominados por formas de vida prácticamente inmóviles. La mayoría de los animales

marinos descansaban sobre el fondo del mar o se fijaban a él mediante pedúnculos y filtraban el agua para

conseguir alimento o esperaban a las presas. La extinción permitió que muchos grupos que antes tenían poca

importancia (los parientes activos y depredadores de los peces, calamares, caracoles y cangrejos de hoy en

día) pudieran expandirse, al tiempo que aparecieron algunas estirpes completamente nuevas. Esa

reorganización ecológica fue tan espectacular que constituye una línea divisoria fundamental en la historia

de la vida. No solo señala el límite entre los períodos Pérmico y Triásico, sino que también establece el final

de la era Paleozoica y el inicio de la Mesozoica.

2.- Son muy abundantes los datos, nuevos y estimulantes, que las diversas ciencias de la Tierra han ido

aportando en los últimos años sobre las causas y las consecuencias de este fenómeno, como estudios

detallados de cambios rápidos en la química del océano, documentación más completa de las pautas de

extinción y nuevos análisis que demuestran que en la frontera permotriásica tuvieron lugar grandes

erupciones volcánicas. ¿En qué medida contribuyen las extinciones generalizadas a la evolución de un

grupo, en comparación con las tendencias adaptativas a largo plazo? Por ejemplo, los erizos de mar son

ubicuos en los océanos modernos, pero eran relativamente raros durante el Pérmico. Hay un único género

que se sepa con seguridad que sobreviviese a la extinción. Miocidaris. ¿Lo hizo por puro azar o se hallaba

mejor adaptado? ¿Serían distintos los erizos de mar actuales si no hubiera sido por la extinción de finales del

Page 23: Nuevos rumbos para la cosmología

Pérmico?

3.- Los océanos del Pérmico experimentaron una compleja pauta de vida y muerte en un intervalo breve en

términos geológicos. La cuantificación detallada de la desaparición, según la taxonomía de órdenes,

familias, géneros y especies, resulta difícil. En términos generales se considera que fueron aniquilados el

cuarenta y nueve por ciento de las familias y el setenta y dos por ciento de los géneros. Como la

identificación de las especies es más difícil concretar su pérdida es bastante más arduo, por lo que se han

realizado diversas estimaciones que van desde el 80% hasta el 95%. A modo de comparación, el evento que

tuvo lugar al final del período Ordovícico, hace 439 millones de años, eliminó al 57 por ciento de los

géneros marinos. La extinción del Cretácico-Terciario, que hizo desaparecer a los dinosaurios, se llevó al 47

por ciento de los géneros entonces existentes. La devastación de finales del Pérmico afectó mucho más a

unos animales que a otros. Los grupos que más sufrieron fueron los que vivían fijos al fondo marino y para

alimentarse filtraban material orgánico del agua.

4.- Las cosas no fueron mucho mejor en tierra. Tanto los vertebrados terrestres como los insectos

experimentaron pérdidas importantes. Entre los vertebrados, el 78 por ciento de las familias de reptiles y el

67 por ciento de las de anfibios desaparecieron durante el Pérmico tardío, aunque sigue siendo objeto de

debate la rapidez con que ello sucediera. Estudios previos de los magníficos fósiles que se encuentran en la

región de Karroo, en Sudáfrica, llevan a la conclusión de que la caída tuvo lugar a lo largo de varios

millones de años, quizá con dos picos en la tasa de extinción, aunque no faltan trabajos más recientes que

apoyan un ritmo más rápido, parecido al de la extinción marina.

5.- La extinción de las especies de insectos señala una transformación importante de la fauna. De los 27

órdenes de insectos conocidos del Pérmico, ocho se extinguieron cerca de la frontera permotriásica, cuatro

sufrieron una grave diezma, pero se recuperaron, y otros tres apenas sobrevivieron durante el Triásico antes

de extinguirse. Este es el único acontecimiento de extinción importante sufrido por los insectos de que se

tenga noticia, lo que atestigua la rigurosidad ambiental de aquella época. También la flora terrestre sufrió,

aunque no pueda decirse en qué grado, pues de momento no se dispone de datos acordes con la magnitud.

6.- ¿Qué fue lo que pudo haber causado esta pérdida de vida tan generalizada? Prácticamente la única cosa

que no ocurrió, o al menos de la que no se tienen pruebas, fue un impacto extraterrestre, acontecimiento que

con toda probabilidad causó la extinción de los dinosaurios. Hubo un grupo de paleontólogos que afirmó

haber encontrado diminutas trazas de iridio, un indicador decisivo de una colisión, en el estrato que

constituye la transición Pérmico-Triásico en el sur de China. Esto fue a mediados de los años ochenta y, a

pesar de los muchos intentos realizados, nadie ha podido confirmarlo.

7.- ¿Acaso el vulcanismo generalizado fue lo que purificó la Tierra durante el Pérmico tardío? Las

erupciones tienen una serie de efectos a corto plazo, entre los que se encuentran el enfriamiento climático,

debido al polvo y a los sulfatos eyectados a la estratosfera, la lluvia ácida, los incendios destructivos, la

liberación de elementos traza peligrosos y un aumento de la radiación ultravioleta como consecuencia de la

reducción de la capa de ozono. En una escala de tiempo más amplia, el dióxido de carbono emitido puede

conducir el caldeamiento.

8.- El daño ambiental producido por una erupción depende además de varios factores. Muchos efectos

volcánicos, como la cantidad de sulfato expulsado a la estratosfera, son difíciles de inferir respecto de

erupciones que tuvieron lugar hace 250 millones de años. Es pues probable que las erupciones volcánicas

tuviesen participación en las extinciones, pero solo como parte de un proceso más complejo. Las pruebas

recientes más sugestivas proceden del campo de la geoquímica. Es posible que los cambios bioquímicos más

relevantes sean las variaciones de los isótopos de carbono de las rocas (específicamente, la relación entre

carbono 12 y carbono 13). Este hecho indica que, aparentemente, durante el Pérmico tardío se estaba

enterrando más materia orgánica que en épocas anteriores.

9.- Aunque parece que esta acumulación de carbono nos está diciendo algo sobre los cambios geoquímicos

durante la extinción de finales del Pérmico, no está muy claro lo que sea. Puede que tenga que ver con el

descenso súbito y mortífero del nivel del mar. Durante el Pérmico temprano, los continentes se fusionaron

Page 24: Nuevos rumbos para la cosmología

para formar un supercontinente único: Pangea. Alrededor de las plataformas continentales medraban los

arrecifes y otras comunidades de aguas someras. Después, hacia el final del Pérmico, el nivel del mar

descendió. (Nadie sabe exactamente el porqué, pero pudo haberse debido a cambios del manto terrestre que

agrandaron las cuencas oceánicas).

10.-La caída desbarató los ambientes costeros. Con la mayor parte de la plataforma continental de Pangea al

descubierto, es probable que tuviera lugar una mayor erosión y que se produjese mayor oxidación de materia

orgánica. Esta oxidación reduciría el oxígeno disponible y aumentaría el dióxido de carbono de la atmósfera,

lo que pudo haber humidificado el planeta, caldeándolo del orden de hasta dos grados Celsius. El desastre se

repitió cuando los niveles del mar volvieron a subir, quizá varios cientos de miles de años de años después.

Las aguas oceánicas en ascenso sumergieron las zonas litorales y penetraron hacia el interior. Es indudable

que tales intrusiones hubieron de eliminar muchas comunidades costeras.

11.- Estas circunstancias hostiles pudieron verse exacerbadas por la disponibilidad de cantidades cada vez

menores de oxígeno atmosférico. En los océanos se disolvería menos oxígeno, lo que habría provocado

anoxia, que habría ahogado a algunos organismos marinos. Hay pruebas de aguas anóxicas en determinadas

anomalías geoquímicas. Varios investigadores han formulado una teoría atractiva, pero no totalmente

convincente, según la cual las diferentes pautas de extinción entre especies reflejarían la capacidad de

resistencia de los organismos a la anoxia.

12.- ¿Qué fue lo que causó realmente las extinciones? Quizá no haya una única explicación; pudieran haber

contribuido todas las posibilidades mencionadas. Ninguna de ellas por sí sola habría causado una extinción

de tal magnitud, pero las exquisitas faunas del Pérmico tuvieron la mala suerte de que todas ellas ejercieran

sus efectos aproximadamente por la misma época.

13.- La extinción tuvo tres fases, en opinión de Erwin: La primera empezó con la caída del nivel del mar

circundante de Pangea, lo que llevó a la pérdida de espacios habitables, a la inestabilidad climática y a la

eliminación de muchas especies de distribución restringida. A medida que la regresión oceánica continuaba,

empezó la fase dos, con erupciones volcánicas y la emisión a la atmósfera de grandes volúmenes de dióxido

de carbono, lo que aumentó la inestabilidad climática y facilitó el derrumbe ecológico. El aumento posterior

del nivel de mar, y las inundaciones subsiguientes de agua posiblemente anóxicas, a finales del Pérmico y en

el Triásico temprano iniciaron la tercera fase, que destruyó los ambientes terrestres cercanos a las costas y

contribuyó a la extinción de muchos taxones supervivientes.

14.- Las consecuencias de este acontecimiento son al menos tan interesantes como él mismo. Tras otras

extinciones generalizadas la vida comenzó a recuperarse en el intervalo aproximado de un millón de años,

pero en este caso se requirieron quizá cinco millones de años. Como las comunidades biológicas se habían

visto tan gravemente afectadas, se precisaron millones de años para que se volvieran a formar y proliferaran.

(También cabe la posibilidad de que la recuperación parezca más larga de lo que realmente fue por la mala

conservación de los fósiles).

15.- Poco después de la extinción, durante lo que se ha llamado el estadio de supervivencia del Triásico

temprano, las pocas especies que quedaban tendieron a ser abundantes y a hallarse ampliamente distribuidas.

Los detalles de los cambios evolutivos que se produjeron en tierra firme durante este período son todavía

algo incompletos, porque no se han recogido fósiles de manera sistemática, yacimiento a yacimiento, si bien

los estudios previstos prometen aumentar nuestro conocimiento de las extinciones terrestres. Se sabe que

varios grupos de reptiles y de anfibios desaparecieron. También que los insectos pasaron de estar formados

por unos cuantos grupos parecidos a libélulas, dotados de alas fijas en la posición de vuelo que no podían

doblar sobre el cuerpo, a formas con alas plegables. Estos nuevos insectos, que suponen el noventa y ocho

por ciento de los actuales, también tenían estadios larvarios y adultos separados. Todas estas adaptaciones

puede que reflejen facultades para explotar nuevos ambientes y para soportar las oscilaciones estacionales

extremas y otras inestabilidades climáticas.

16.- Los cambios producidos entre los insectos plantean la cuestión general de si las especies que

consiguieron atravesar el Pérmico poseían adaptaciones específicas que les permitieron sobrevivir o si su

Page 25: Nuevos rumbos para la cosmología

supervivencia fue más aleatoria. Por desgracia es casi imposible decidir si la extinción permotriásica

constituyó una selección de determinadas características. Puede que todos los equinoideos modernos

hubieran desarrollado placas en dos columnas, aunque tal extinción no hubiera ocurrido nunca. Y puede que

la fauna superviviente consista simplemente en los grupos que eran más abundantes y que estaban más

ampliamente distribuidos antes de la extinción, por lo que tenían más probabilidades de sobrevivir. Resulta

extraordinariamente difícil decantarse entre estas dos posibilidades. Lo único que se puede decir con

seguridad es que la extinción generalizada de finales del Pérmico tuvo sobre la historia de la vida el mayor

efecto que haya tenido acontecimiento alguno desde la aparición de los animales complejos.

La pregunta que surge es : será posible que vuelva a producirse una catástrofe como la ocurrido en la Era

pérmica…?

¿EL PLANETA SE ENFRIA O SE CALIENTA?

En setiembre de 1990 en un artículo publicado en la revista “Science” que se divulgó por la prensa se afirma

que un nuevo estudio de las temperaturas mundiales, basado en datos de satélites metereológicos, no ha

hallado evidencia de una tendencia de calentamiento o enfriamiento a largo plazo durante la década de 1979

a 1988. La información revela que en lugar de una tendencia de calentamiento o enfriamiento continuo, la

información recopilada mostró una aparente tendencia a cambiar al azar de un año a otro. Sin embargo,

agrega que tomará por lo menos otra década de datos por satélites al llegar a una conclusión firme al

respecto. El informe señala que la información demostró que la temperatura de la Tierra puede medirse con

mucha mayor precisión con instrumentos que estudian la atmósfera desde el espacio que, a través de los

sistemas basados en la Tierra, y estos serán extremadamente valiosos para mejorar el entendimiento y la

predicción de los cambios climáticos.

Los investigadores de la NASA y de la Universidad de Alabama que llevaron a cabo el estudio señalaron

que la información fue recogida por una serie de satélites metereológicos lanzados en la atmósfera superior a

fines de 1978 por la Administración Nacional de Asuntos Oceánicos y Atmosféricos de Estados Unidos

(NOAA). Los científicos estudiaron mensualmente las variaciones en temperatura en todo el mundo,

llegando a una precisión media de 0,01 grados centígrados, lo que estableció una norma frontalmente a la

cual se medirán la futuras tendencias en temperaturas.

La mayor parte de otros estudios sobre tendencias en temperaturas, algunos de los cuales alcanzan a más de

un siglo, han provenido de las cifras en termómetros en la Tierra. Los científicos dijeron que estas cifras no

reflejan plenamente las temperaturas mundiales porque éstas están limitadas en gran medida a las áreas

pobladas, lo que deja esencialmente sin medir la atmósfera sobre los océanos y las vastas regiones desérticas

y boscosas del mundo. La información utilizada anteriormente para apoyar las alegaciones de un

calentamiento mundial ha procedido de temperaturas medidas con éstos termómetros en la superficie de la

Tierra.

Los satélites del estudio estaban equipados con aparatos desarrollados por la NASA que podían mediar la

radiación de las microondas causada por el calor de los 10 kilómetros más bajos de la atmósfera sobre la

mayor parte de la Tierra, área en la que, según predicen los científicos, aparecerán los primeros indicios de

un calentamiento mundial. “Hallamos que la atmósfera de la Tierra atraviesa cambios en temperatura

bastante grande de un año a otro, y a través del período de diez años no vimos ninguna tendencia de

calentamiento o enfriamiento a largo plazo”, según el científico Roy Spencer y de acuerdo con John Christy,

dijo que hubo dramáticas fluctuaciones de temperatura durante el decenio, pero que en el mundo en general

estos cambios tendían a nivelarse.

El estudio halló, sobre una base mundial, que los años más cálidos en orden descendente fueron 1987, 1983

y 1980. Los años de 1984, 1985 y 1986 fueron los más fríos de la década. La temperatura media de los

primeros cinco años - 1979 a 1983 - fue más cálida que en los cinco años más recientes de la década

estudiada. Los investigadores dijeron que los acontecimientos más dramáticos registrados por los satélites

fueron los fenómenos de El Niño en 1983 y 1987, cuando aguas extraordinariamente cálidas del Océano

Pacífico tropical afectaron las condiciones climáticas en todo el mundo. Se cree que cambios similares han

Page 26: Nuevos rumbos para la cosmología

contribuido a la sequía de 1988 en Estados Unidos.

Los dos acontecimientos de El Niño ocasionaron que las temperaturas mundiales aumentaron más en uno a

pocos meses de lo que podría pronosticarse de las varias décadas de mayor calentamiento por el efecto de

invernadero. Sin embargo aún no puede decirse nada concluyente sobre la validez de ninguna de las

tendencias de calentamiento a largo plano observadas por los termómetros en la Tierra antes de 1999, debido

a los relativamente escasos datos proporcionados por los satélites. Algunos expertos dicen que la Tierra está

comenzando a calentarse como resultado del bióxido de carbono que ha penetrado en la atmósfera

procedente de la quema de combustibles fósiles durante el siglo pasado. Este calentamiento, conocido por el

efecto de invernadero, es una cuestión controvertida debido a la dificultad de medir las tendencias climáticas

durante un período de tiempo prolongado.

En los años siguientes los estudios pueden demuestrar la multiplicidad de factores incidentes en la

producción del fenómeno de cambios climatológicos, dado que si la corriente de agua cálida superficial que

se dirige hacia costas de América del Sur, también lo hace en el Pacífico Oeste, en el Atlántico Ecuatorial y

en el Océano Indico, y su calentamiento aumenta la evaporación, formándose nubes que alteran -

radicalmente - la precipitación de lluvias en diversas partes del Globo. Sin embargo El Niño es, a su vez, el

resultado de la formación y acumulación de masas de aire de gran presión (“Oscilación del Sur) sobre el

Pacífico Oeste.

Este fenómeno, puede, a su vez, ser la resultante de la combinación de factores externos, entre ellos:

modificaciones en el eje de rotación terrestre; efectos acumulados por la caída de material extra terrestre

(cada año caen sobre la Tierra unas 20 toneladas de partículas); el distanciamiento lento - pero paulatino de

la Luna respecto de la Tierra (actualmente de 384.400 +2-3 cms, y que llegará a provocar en varios millones

de años la pérdida de la Luna como satélite); y el error en el cálculo de la capacidad de reflejo de la luz solar

por parte de las nubes (se estima en 6 vatios por metro cuadrado, cuando parece ser que su valor real es de

25 vatios por metro cuadrado); y la necesidad de determinar la verdadera forma de la Tierra (al respecto se

ha ideado una proyección geométrica "geoide", en forma de pera que se asemeja más a la forma de nuestro

planeta).

Aun no asoma su rostro una nueva explicación que si bien es todavía debatida en muchos círculos

científicos, tiene un enorme impacto para toda la humanidad. Es el problema que plantea que el cambio

climático acelerado que comienza a experimentarse a los inicios del Tercer milenio tiene como responsable

directo al ser humano por el uso masivo e indiscriminado de fuentes energéticas de origen orgánico ,así

como por factores concomitantes: el uso de la energía nuclear y la utilización masiva de armamento de alto

poder explosivo.

¿TEORIAS GALACTICAS ERRADAS?

En enero de 1991, un importante estudio sobre el espacio que se publicó en la revista "Nature", por parte de

Will Saunders de la Universidad de Oxford, obligó a los astrónomos a revisar los resultados de sus estudios

a través de computadoras al revelar aparentemente que todas las teorías vigentes sobre la formación de las

galaxias están profundamente erradas.

Un grupo de astrónomos de Gran Bretaña y Canadá elaboraron un mapa con más de 2.000 galaxias, algunas

de las cuales se encuentran a más de 450 millones de años luz de la Tierra, para producir el cuadro más

completo de los que existen hasta el momento sobre el área del Universo cercano a nuestro planeta. El

resultado demuestra que ningún modelo sobre la formación de galaxias que se han desarrollado puede

explicar la existencia de grandes conjuntos galácticos y los vacíos que los separan.(incluyendo 15.000

galaxias)

El estudio se elaboró sobre la base de los datos que transmitió el Satélite Astronómico Infrarrojo,(IRAS) que

verificó más de unos cuatro millones de objetos al promediar la década de 1980.

El director asociado de Nature, David Lindley, dijo que la tarea desarrollada por el IRAS era la más

Page 27: Nuevos rumbos para la cosmología

profunda investigación del cielo realizado hasta la actualidad. El equipo de astrónomos que analizó los

informes del estudio dijo que el número y el tamaño de las estructuras que reveló el satélite superan los

vaticinios de los modelos teóricos del Universo en vigencia.

De acuerdo con el astrofísico Saunders (en 1994), si los valores calculados son correctos, la cantidad de

deuterio primordial detectado casaría muy bien con las predicciones ordinarias del modelo B.B.(alrededor de

dos bariones por diez mil millones de fotones) Con esta proporción, las predicciones del modelo B.B.

concuerdan también con las cantidades de litio que hay en las estrellas más viejas y con las estimaciones del

helio primordial existente en las galaxias cercanas, pobres en metales. Que este resultado se confirmase sería

una noticia extraordinaria: quedaría a su vez confirmado que los cosmólogos saben qué pasó sólo un

segundo después de que el Universo empezara a expandirse. Querría además decir que la historia de la

materia a grandes distancia es igual a la de la materia cercana, tal y como se presupone en el modelo más

sencillo posible del Universo.

Estas evaluaciones concuerdan de forma razonable con el número de bariones que vemos hoy en el Universo

(un átomo por cada diez metros cúbicos de espacio). Esta cifra que coincide con el número de átomos que se

cuenta directamente sumando toda la materia que hay en el gas, las estrellas, los planetas y el polvo

conocidos, incluidas las nubes que observen la luz de los quásares: no habría, pues, bariones que no se hayan

observado. Pero la observación enseña que la explicación de las características gravitatorias de las galaxias y

de sus halos requiere una cantidad enorme de materia oscura, por lo menos diez veces la densidad media de

los bariones visibles. La elevada concentración de deuterio que arrojan los cálculos indican -en

consecuencia- que esa masa no está hecha de materia ordinaria.

Se han propuesto muchas formas no bariónicas de materia que podrían aportarla. La teoría del B.B., por

ejemplo, predice que en el Universo quedan casi tantos neutrinos como fotones. Si cada uno tuviese siquiera

unas milmillonésimas de la masa del protón (unos cuantos electronvolt), en conjunto aportarían al Universo

tanta masa como todos los bariones sumados. También es posible que el Universo primitivo creara algún

tipo de partícula residual que no se haya podido producir en el laboratorio. Sea como sea, el modelo de la

gran explosión, afianzado por la observación, proporciona un marco conceptual a la predicción de las

consecuencias astrofísicas de esas nuevas ideas físicas.

El hallazgo de ser confirmado, contradice una teoría denominada modelo de la materia oscura y fría (CDM),

como una forma de explicar la razón por la cual la cantidad de materia visible en el Universo es mucho

menor que la densidad crítica necesaria para impedir el colapso del Universo. Según la teoría, existe un

material desconocido, invisible - materia fría y oscura - que contrariamente a todo lo que existe en la Tierra

o el Sol, sólo puede ser identificada por su atracción gravitacional. No obstante, Saunders dijo que el modelo

CDM no puede explicar a las estructuras de enorme tamaño cuya existencia es conocida ahora como

resultado del nuevo estudio.

¿ DOS LEYES FUNDAMENTALES EN ENTREDICHO ?

A mediados de los ochenta trasciende al público que los físicos se enfrentan a dos propuestas que ponen en

entredicho dos bases fundamentales del conocimiento:

a) una en la física clásica: Las leyes de Newton;

b) otra en la física cuántica: el “efecto spin”:

El retador de la primera es el astrofísico israelí, especialista en galaxias, Mordehai Milgram, del Instituto

Weizmann, y el de la segunda, Alan D. Krish, físico de partículas de la Universidad de Michigan. Por

supuesto que no es inusual la emergencia de teorías rivales, porque precisamente la ciencia avanza gracias a

ellos.

Precisamente el fundamento de la ciencia moderna es el principio de la falseabilidad enunciado por Popper,

lo que hace que una teoría científica nunca pueda considerarse total y universalmente cierta, dada la

imposibilidad de agotar todas las probabilidades de que funcione. Sin embargo, aunque esas sean las reglas

Page 28: Nuevos rumbos para la cosmología

de juego no siempre se toman en serio muchas teorías que emergen con la pretensión de explicar mejor, o

con más certeza determinados fenómenos, sino que la ciencia se suele aferrar a leyes cuya validez ha

resultado cierta en muchas ocasiones.

1.- Ley de Newton errada?.- En el primer caso se trata de que en las galaxias y los cúmulos galácticos la

masa que los integra se debe calcular con base en sus movimientos internos (según establecen las leyes de

Newton) pero desde 1930, se han ido acumulando dudas acerca de por qué los movimientos internos

galácticos arrojan cifras que son sistemáticamente mucho mayores que los datos que se obtienen al tomar en

cuenta únicamente la masa visible.

La “masa gravitatoria” que resulta aplicando estrictamente las leyes newtonianas no corresponde a la masa

“visible” (en un factor que oscila desde 2 hasta más de 10). A esa masa faltante se ha denominado “materia

oculta” u “oscura” y se han formulado varias explicaciones para ubicarla: desde neutrinos y materia

hipotética (monopolos magnéticos), hasta agujeros negros, estrellas enanas marrones, material en los halos

galácticos, WIMP (partículas frías); CDM y otras.

El resultado de la búsqueda de la materia faltante -que por otra parte es necesaria para predecir si el

Universo se contraerá después de la expansión actual, o si se continuará expandiendo, ha sido, hasta el

momento, poco satisfactorio y constituye un misterio no resuelto.

Por otra parte, los datos que arrojan las mediciones de la rotación de conjunto de las galaxias debe guardar

relaciones determinadas por la atracción gravitatoria de la masa de toda la galaxia y la fuerza centrífuga

(para ser altos en el centro galáctico y luego ir disminuyendo hacia la periferia galáctica). Pero en la práctica

los datos resultantes no siguen el patrón newtoniano, sino que, de manera sistemática, las curvas que

grafican las velocidades son planas.

Para explicar esas curvas planas se recurre a pronosticar la existencia de la masa oculta; pero para Milgran -

quien ha estudiado el tema junto con otro físico Beckestein, la solución debe ser otra: se requiere plantear la

modificación de las leyes de Newton. Así han esbozado la teoría conocida como MOND (Modified Non

Relativistic Dynamics), que plantea cambios a los conceptos de inercia y gravitación newtonianas, sin entrar

en consideraciones relativistas.

Las características de MOND serían: a) La modificación es válida solo para pequeñas aceleraciones, de

manera que la fuerza gravitatoria no es igual a la suma de las aceleraciones de dos cuerpos en interacción,

sino que ; b) No es aditiva por lo a se requiere introducir un valor constante que un campo gravitatorio

externo modifica la relación entre masa, distancia y aceleración en una galaxia en estudio y; c) si el campo ,

no se pueden a o externo es más alto que el umbral de la constante medir desviaciones apreciables de lo que

pronostica la gravitación newtoniana; esta última situación dificulta la comprobación experimental de la

teoría.

La teoría MOND propuesta tiene grandes repercusiones cosmológicas dado que:

a) La constante de Hubble que mide la expansión universal varía con el coincide con la aceleración de a

o tiempo cósmico; pero la constante a Hq, de lo que se deduce que una partícula sometida a la aceleración

logra alcanzar la velocidad de la luz en un tiempo que prácticamente o coincide con la Edad del Universo;

b) Esta curiosa relación puede explicarse como reveladora de la existencia de una cancelación entre las

propiedades y el comportamiento del Universo en su totalidad, y los sistemas pequeños como ocurre con el

“Principio de Match”, según la cual la inercia de un cuerpo con masa no depende de sus propiedades

intrínsecas, sino que está relacionado íntimamente con la distribución global de la materia en el resto del

Universo.

La teoría de la relatividad y la teoría de la mecánica cuántica son el resultado de teorizaciones previas; la

teoría MOND es el resultado de las observaciones: la primera modifica las teorías de la dinámica de

Newton, cuando las velocidades se acercan a la de la luz; la segunda es una generalización que se aplica

Page 29: Nuevos rumbos para la cosmología

cuando los momentos angulares a la escala de Plank son muy pequeños; la tercera se aplica cuando las

aceleraciones se hacen pequeñas. Para comprobar la veracidad de la teoría se requiere hacer dos esfuerzos:

a) Hacer las comprobaciones experimentales.

b) Hacer una modificación relativista a MOND, para separar los campos de aplicación así: La teoría MOND,

se aplicaría solo a pequeñas aceleraciones; la teoría Relativista se aplicaría a grandes aceleraciones.

2.- Cromodinámica errada?.- En el segundo caso se trata que los componentes subatómicos: protones,

neutrones, electrones están dotados, según la teoría, de una propiedad mecánica cuántica fundamental: la

rotación sobre sí mismos (spin), así como tienen otras dos propiedades también intrínsecas que les definen:

masa y carga eléctrica y cuando se produce la colisión de dos partículas la teoría predice su comportamiento

posterior que depende del spin de cada una de ellas y de la manera en que se produce la colisión. Sin

embargo, en 1973, por primera vez se efectuó un experimento que consistió en utilizar el sincrotrón para

observar el comportamiento de chorros de protones polarizado; el sincrotrón crea un poderoso campo

energético, eléctrico y magnético) resultado de la aceleración de protones a altas energías: el protón es

forzado a desplazarse en un círculo alrededor de una cámara elisoidad cerrada y al vacío. El campo

magnético rodea la cámara perpendicularmente, y puede rotarse para permitir los cambios de polarización de

los quarks al interior del protón. En el experimento se observó lo siguiente:

a) Si la polarización de los chorros de protón coinciden con la polarización del “blanco de protones” a ser

impartido, ocurren violentas explosiones; pero si las direcciones del spin en los chorros de protones lanzados

están en una dirección contraria al spin de los “protones blanco”, no se mezclan, ni interactúan.

b) Dado que esta primera experiencia se efectuó con el sincrotrón a 13. GeV de energía, se esperó 6 años

para aumentar la energía a 18.5 GeV y se repitió el experimento y se encontró que al aumentar la energía de

colisión el “efecto spin” comienza a sufrir modificaciones y a más alta energía el efecto es francamente

pronunciado, lo que permitía concluir que si la intrínseca la propiedad de rotación no debía fluctuar, salvo

que hubiese un error en la teoría cromodinámica. La teoría cromodinámica establece que el protón debe sus

características intrínsecas: spin, masa y carga eléctrica -a su vez- a las características del triplete de quarks

(sostenidas por la fuerza nuclear electrofuerte) que lo integran y por lo tanto el spin es un dato no variable,

por ser intrínseco o fundamental. Pero el experimento en el sincrotón parece echar por la borda la teoría. Al

parecer -sugiere Krish- no es esta la primera vez que hay serias discrepancias entre la teoría y la experiencia,

para lo cual cita ejemplos:

N°1) En la década de los 50, en el Sincrotrón de la Universidad de Berkerley, trabajando con electrones, se

encuentran diferencias, porque el experimento (en condiciones especiales) hace que los electrones “se

alinien” y al tratar de pasar ese efecto a un grupo de protones, estos comienzan a girar en una sola

alineación;

N°2) En la década de los 60, se demuestran anomalías en el comportamiento del spin de partículas sometidas

a colisiones con altas energías.

En los experimentos efectuados en las décadas de los 70 y 80 por Krish se observó estas características: a)

Las energías de colisión aumentan hasta 8 GeV; pero a menos de 8 GeV tienden a bajar gradualmente, lo

que es consistente con la teoría cromodinámica; pero a energías superiores a 8 Gev el comportamiento

quarks dentro del patrón cambia radicalmente; b) Igualmente en la década de los 80, trabajando con 28 GeV

los resultados muestran las mismas anomalías. En consecuencia, a juicio de Krish es necesario reformular la

teoría, porque en vez de hacer predicciones exactas, que luego deben llegar a verificarse mediante

experimentos; es tan flexible que debe ser modificada con cada set de experimentos, lo que en la práctica la

hace inexacta.

De acuerdo con la teoría cromodinámica dos de los tres quarks que constituyen internamente un protón,

giran en la misma dirección que éste y el tercero gira en dirección opuesta. Por lo tanto siempre que se haga

un experimento al menos dos de los quarks de cada protón que colisiona y dos de los quarks de cada

protones “blanco” se deben encontrar paralelos, o bien anti-paralelos y lo mismo se aplica a los protones

restantes.

Page 30: Nuevos rumbos para la cosmología

Sin embargo la experiencia muestra que el comportamiento se modifica fuertemente en relación con la

energía envuelta. Así, energías mayores que 8 GeV los electrones colinden más rápidamente si sus spin son

paralelos; pero a energías de 13 GeV las colisiones son 4 veces mayores si los spin son paralelos que cuando

son antiparalelos. Este comportamiento no es consistente, lo que obliga a pensar en un error de la teoría de la

cromodinámica. Si se hace una extrapolación de este extraño comportamiento, se puede concluir con estas

posibilidades todas diferentes: a) que a más alta energía si se aplica la teoría de la cromodinámica; b) que no

es fácil fijar a qué rango de energía se inicia el comportamiento predicho por la teoría; c) los quarks

observadores en los experimentos no pertenecen a los protones en colisión; d) que los protones tienen más

de 3 quarks; e) que hay tres quarks, pero estos dejan de ser independientes cuando coliden dos protones.

En los dos casos que se han incluido, lo que se busca es mostrar cómo la ciencia avanza en un proceso de

teoría, ensayo-error; pero que no siempre es tan transparente porque hay muchos intereses envueltos que van

desde el ego de los físicos teóricos y experimentalistas, hasta enormes sumas de dinero envueltas en el

proceso, lo que hace que muchas veces ambos sirvan de “barrera” para impedir nuevos enfoques y avances,

porque de ese dinero viven instituciones, programas, universidades y agencias de gobierno y -de paso- hasta

agrupaciones que actúan como círculos de poder extra-ciencia.

¿PRIMER PLANETA FUERA DE NUESTRO SISTEMA SOLAR?

En julio de 1991 en un informe publicado en la revista británica Journal of Astronomy, el astrónomo

Andrew Lyne y sus colegas divulgaron un trabajo iniciado hace varios años usando un radiotelescopio en los

laboratorios radioastronómicos Nuffield, de la Universidad de Manchester en Cheshire, Gran Bretaña, para

estudiar un Pulsar, restos de una estrella que aparece orbitada por un planeta. De inmediato la prensa

informa que los astrónomos de diversos países comenzaron hoy a estudiar lo que podría ser el primer planeta

fuera de nuestro Sistema Solar, un mundo misterioso que gira aparentemente alrededor de los restos de una

estrella fragmentada. “No están cien por ciento seguros de estar en lo cierto, pero si lo están, es un

acontecimiento pionero e histórico”, dijo el astrónomo Carl Sagan, de la Universidad de Cornell.

Pese a que desde hace mucho tiempo los científicos sospechan que hay otros planetas en el Universo, el

descubrimiento podría poner fin a una larga búsqueda y dar motivos para creer que existe la vida

extraterrestre. “Es la primera evidencia concreta de que podría haber otros sistemas planetarios aparte del

nuestro en el Universo. Lo nuestro podría ser un golpe de suerte. Pero si vemos que hay otros planetas,

significa que nuestra estrella no es la única en tener un sistema planetario”, declaró el jefe del equipo

británico que realizó el descubrimiento, Andrew Lyne.

Si hay otros sistemas planetarios, entonces eso quiere decir que hay otras posibles plataformas de vida en el

Universo. Nosotros creemos que los planetas son casi el único lugar en el Universo donde es posible que

haya una forma de vida”, declaró en una entrevista telefónica. Lyne señaló que duda que exista vida en el

planeta recientemente descubierto debido a que cualquier organismo viviente probablemente hubiera

desaparecido cuando su sol estalló en una explosión nuclear a gran escala.

Un pulsar, emite la mayoría de su energía bajo la mortal forma de rayos gamma, radiaciones que bañan

constantemente cualquier planeta y matan todo tipo de vida; sin embargo, existe la posibilidad remota de

que el planeta se hubiese formado luego que su rol estalló o que pudiera tener algún tipo de atmósfera que

pudiera proteger la vida. Si tiene atmósfera, los rayos Gamma emitidos por la estrella generan

probablemente una luz constante similar a la de los rayos solares que caen sobre la atmósfera terrestre al

norte de la Tierra cada tercio de segundo. Sin embargo, otros astrónomos se muestran escépticos y señalan

que se deben realizar nuevas investigaciones antes que cualquiera pueda concluir que se ha descubierto un

nuevo planeta. “Es el objetivo sagrado de la astronomía: el hallazgo de un planeta, pero ya en el pasado, ha

habido una serie de anuncios que resultaron ser prematuros o bien incorrectos”, declaró el astrónomo de la

NASA Stephen Maran. “El asunto es, ¿es esto más de los mismo o se trata del adelante que todos estamos

esperando?” señaló.

Page 31: Nuevos rumbos para la cosmología

Sagan dijo que hay cincuenta por ciento de posibilidades de que el cuerpo sea realmente un planeta. En caso

de ser así, el descubrimiento haría surgir un sinnúmero de interrogantes sobre como se forman los planetas y

los pulsares, señaló. El descubrimiento ha reavivado el interés en el Programa SETI, según ha dicho Michael

J. Klein, Director del Laboratorio de Cohetes a Propulsión (Jet Laboratory), de la NASA, quien en julio

anuncia que empezando en 1992, el programa SETI (Búsqueda de Vida Extraterrestre Inteligente), a un

costo de 100 millones de dólares, utilizará los radiotelescopios de la red de comunicación más grandes del

mundo - para examinar las microondas del espacio electromagnético en busca de señales de vida en los

astros.

Klein, uno de los directores de SETI, es el de los científicos que ha dedicado años a buscar apoyo para esta

audaz empresa. Su fe se vio recompensada a finales de la década del 70 cuando la NASA empezó a

patrocinar dicha investigación en el ámbito universitario. “Nuestra generación es la primera que cuenta con

medios tecnológicos que permiten diferenciar entre la fantasía y la realidad”, dice Klein.

“La ciencia pronto podrá decirnos si hay planetas como el nuestro en otros sistemas solares, y si las

condiciones son idóneas para la existencia de vida en esos planetas”, explica Klein refiriéndose a la

información que los astrónomos han recogido recientemente y que ha ayudado a los científicos a identificar

unas seis docenas de elementos que originan la vida - por ejemplo el hidrógeno, el nitrógeno, el oxígeno y

las moléculas a base de carbono - en los gases y el polvo alrededor de los astros nuevos. Aproximadamente

un 10 por ciento de las 300.000 millones de estrellas que se encuentran en esta galaxia, podrían ser como el

Sol, ya que el nuestro no es una estrella tan espectacular, es de tamaño medio y no muy joven” dice Klein. Y

predice que durante la próxima década los científicos podrán detectar sistemas planetarios alrededor de

algunas estrellas.

“Aunque algunos observatorios aislados llevan realizando búsquedas desde 1960, SETI es el primer intento

por explorar todo el firmamento”, explica John Rummel, en la sede de la NASA en Washington. “Existen

muchas razones para creer que cuando uno mira el Universo con nuevos ojos se encuentran cosas nuevas. Se

nos presenta la excitante posibilidad de detectar fenómenos físicos que antes se nos habían pasado por alto.

Es una inversión en el conocimiento humano que a la larga nos puede resultar fructífera”.

Desde la Segunda Guerra Mundial, señala Rummel, los científicos han podido transmitir señales a una

tercera parte de la galaxia. Por lo tanto, han llegado a la conclusión de que el buscar señales de una

población que sea por lo menos tan avanzada como la de la Tierra, no es por ser poco realista. Dichas

señales no tendrían por qué ser enviadas necesariamente a la Tierra y es muy probable que se hallaran en las

ondas del radio de frecuencia de microondas porque esta parte del espectro electromagnético capta muy

pocas interferencias de fondo.

Para que el programa se lleve a cabo en el tiempo previsto, los fondos del próximo ciclo presupuestario del

Gobierno de Estados Unidos son cruciales porque los científicos en Ames y en el Laboratorio de Propulsión

de Cohetes están actualmente probando el equipo de procesamiento digital que van a utilizar en la búsqueda.

Estas computadoras, elaboradas por Silicon Engines en Mountain View, California y por el Laboratorio de

Propulsión de Cohetes, tienen un nuevo tiempo de circuito integrado por silicio diseñado por la Universidad

de Stanford, California para SETI. Este circuito procesa la información con una rapidez cien veces mayor

que la actual generación de supercomputadoras y reemplaza las grandes tarjetas de cordones metálicos y los

circuitos normales que se usan en las computadoras comerciales.

También beneficia al campo de la enseñanza, dice Stephen H. Kohashi, miembro del Comité de Apropiación

del Senado de Estados Unidos, que piensa que SETI “infundirá admiración y respeto hacia la tecnología

entre los niños que todavía tienen capacidad de creer” en la vida extraterrestre. Con este propósito Klein

trabaja con la Fundación SETI que es una organización con fines no lucrativos en California, para elaborar

programas de estudio de ciencias que se base en dicho proyecto destinado a escuelas primarias y

secundarias. Kohashi dice que SETI puede “infundir un espíritu de exploración en toda una nueva

generación de jóvenes.”

Page 32: Nuevos rumbos para la cosmología

Respecto al hallazgo de planetas extra sistema solar se han hecho gran cantidad de anuncios: la mayoría

errados. Para finales de la década de los noventa, tan solo subsisten menos de diez como candidatos reales a

sus planetas. En lo que respecta a su posible planeamiento por seres inteligentes, resulta que todos los

programas de búsqueda de vida extraterrestre y de contacto con eventuales extraterrestres por medio de

mensajes en el espectro electromagnético no han tenido éxito. Apenas a finales de la década de los 90 se han

encontrado muestras de vida microorgánica (bacterias y virus) en meteoritos provenientes de Marte. Pero la

búsqueda continúa.

¿GRAVITACION:ARQUITECTO DEL UNIVERSO?

En octubre de 1990, los astrónomos H. Perfect y R. Atkatz divulgan sus cálculos de muchos años de trabajo,

mediante el cual demuestran que efectivamente el Universo comenzó de la nada en un estado muy caliente,

de la sencillez y simetría más extrema, y a medida que se expande y se enfría, su perfecta simetría se rompe,

dando origen a la complejidad que vemos hoy y actualmente nuestro Universo es el remanente congelado

asimétrico, de su más antiguo estado caliente.

Para estudiar el origen del Universo a partir de la nada, los científicos cumplen el “método postulacional de

Einstein”. Este método consiste en adivinar intuitivamente un postulado físico (que no puede ser

comprobado directamente) y luego deducir, de manera lógica, sus consecuencias y posteriormente

comprobar esos resultados frente a la experiencia. Si el test falla, los postulados asumidos deben ser

rechazados.

Tal planteamiento es coincidente con la manera como la Biblia describe el origen del Universo, pues en el

Génesis se inicia la explicación semántica de esta manera: “En el Principio Dios creó el cielo y la tierra. La

Tierra era sin forma y el vacío y la oscuridad estaban por encima de la faz del abismo y el espíritu de Dios se

estaba moviendo sobre la faz de las aguas”.

Un par de meses después en el British Journal Montley Notices de la Sociedad Real de Astronomía (British

Astronomical Society), el cosmólogo Richard Gott de la Universidad de Princeton, con la ayuda del mayor

ordenador construido para el estudio del Cosmos llega a la conclusión de que el Universo de hoy tiene una

sorprendente y compleja arquitectura, en la que las galaxias son tan solo pequeñas partes del mismo y que la

responsabilidad de la arquitectura del Universo es obra de la fuerza gravitatoria.

Para hacer tal afirmación, Gott con la ayuda de Chagbom Park programaron su superordenador Convex para

seguir la evolución de cuatro millones de partículas, cada una de ellas con una pequeña fuerza gravitacional

y distribuidas por un hipotético Universo a través de dos mil millones de años. Esos cálculos representan el

doble de partículas de cualquier simulación hecha hasta ahora y proporcionan por vez primera suficiente

detalle para poderlas comparar con las observaciones que los astrónomos hacen de la realidad.

Con la utilización de sólo catorce horas de ordenador, simularon trece mil millones de años de historia

cósmica, comenzando por la primera milésima de segundo tras el Big - Bang, cuando el Universo comenzó a

expandirse. En esta pequeñísima fracción, creen que ciertas fluctuaciones de partículas, resultado de efectos

mecánicos de un complejo quantum (cuanta), se congelaron y pequeños centros de poder con una ligera

fuerza de gravedad atrajeron hacia sí más partículas. Al tiempo, las regiones con una densidad media más

baja se hicieron menos densas y el exterior de esas minúsculas desigualdades crecieron grupos y racimos de

miles de millones de estrellas.

El Universo del ordenador pareció muy similar al que los astrónomos contemplan en sus observaciones. Los

resultados muestran nubes de grupos de galaxias entrelazados por filamentos en medio de grandes vacíos

por otros grupos más apiñados conectados por un complejo patrón similar a una esponja.

Indagando entre esas regiones de materia se aprecia una única red complicada de vacíos conectados entre sí,

donde las agrupaciones de materia se manifiestan aisladas. Este estudio constituye un nuevo aliento a la

debatida teoría sobre la existencia de una materia fría y oscura, que muchos científicos creían ya superada

Page 33: Nuevos rumbos para la cosmología

por los recientes hallazgos que hacen referencia a un primitivo Universo enormemente agrupado.

Hace más de una década, los astrónomos soñaron en unas hipotéticas partículas conocidas como materia fría

y oscura para poder resolver el problema. El Universo se comporta como si tuviera una gravedad diez veces

mayor que la que se puede calcular por la materia apreciable. Dado que la fuerza de la gravedad es un efecto

de masa, los científicos defendieron la existencia de una forma de materia no detectada y que por ello debía

ser fría y oscura.

Un noventa por ciento de la materia del Universo, sugirieron, debió tomar la forma invisible, constituyendo

partículas con enorme masa inmediatamente después del Big - Bang, pero antes de formarse la materia

visible. Así es como pudo la gravedad tomar la delantera para realizar su trabajo. Pero los descubrimientos

de los últimos meses de grandes estructuras como La Gran Muralla, una gran extensión de galaxias con un

alcance de varios miles de millones de años luz, y el Gran Imán, una enorme concentración de materia que

atrae a miles de galaxias, entre ellas la Vía Láctea, pareció que echaban por tierra la teoría de la materia fría

y oscura.

La teoría de la materia fría y oscura parecía que estaba por ser desechada pero estos hallazgos (de la

simulación por ordenador), aunque no los salvan por completo, muestran que no ha muerto, al menos por

ahora.

¿CUÁL ES LA PROCEDENCIA DE LOS RAYOS COSMICOS?

En febrero de 1992 en un artículo publicado Science ,un grupo de astrónomos manifiesta que, a una

cadencia aproximada de una por segundo, las partículas subatómicas penetran en la atmósfera terrestre

portando la energía de una piedra arrojada con fuerza. De este fenómeno se infiere que, en algún lugar del

Universo, haya fuerza que pueden suministrar a un solo protón 100 millones de veces la energía alcanzable

en nuestro aceleradores más potentes de partículas. ¿Dónde se halla esa fuente? ¿De qué modo acontece el

proceso?

Sobre esas cuestiones vienen interrogándose los físicos desde el descubrimiento de los rayos cósmicos en

1912. (Aunque sabemos ya que tales entidades son en realidad partículas, se las sigue llamando "rayos"). El

medio interestelar contiene núcleos atómicos de todos los elementos de la tabla periódica, que se mueven

sometidos al influjo de campos eléctricos y magnéticos. En 1960 Bernard Peters, del Instituto Tata de

Bombay, sugirió que los rayos cósmicos de energía más baja se producen mayoritariamente en nuestra

propia galaxia, mientras que los de energías más altas vienen de fuentes más lejanas.

Los rayos cósmicos -núcleos atómicos que viajan a casi la velocidad de la luz- habitan en un Universo,

extraña y relativísticamente "contraído" antes de chocar con los núcleos de los átomos del gas atmosférico a

gran altura sobre la Tierra. Una fracción significativa de la energía incidente se convierte en materia en

forma de partículas subatómicas, muones inclusive, que a su vez colisionan violentamente con otros átomos

en la atmósfera creando una "cascada atmosférica. También se emiten rayos gama.

Deducciones tan endebles revelan cuán poco se conoce a ciencia cierta sobre el origen de los rayos

cósmicos. Los astrofísicos han elaborado modelos plausibles sobre su verosímil formación, pero carecen de

respuestas tajantes. Esta situación puede ser el resultado de la casi imaginable diferencia entre las

condiciones en la Tierra y las que rigen en las regiones donde se crean los rayos cósmicos. El espacio que

media entre las estrellas contiene sólo aproximadamente un átomo por centímetro cúbico, una densidad

mucho menor que la que hoy en día podemos crear con los mejores vacíos artificiales. Además, tales

volúmenes están llenos de inmensos campos eléctricos y magnéticos, íntimamente ligados a una población

difusa de partículas dotadas de carga y menos numerosa incluso que la construida por átomos neutros.

El espacio interestelar dista muchísimo de ser el lugar apacible que cabría esperar. Las bajas densidades allí

reinantes permiten que las fuerzas eléctricas y magnéticas actúen a grandes distancias y escalas de tiempo, y

operen así de una forma que, en un medio con las densidades a que estamos acostumbrados en la Tierra,

quedaría de inmediato amortiguada. El espacio galáctico se encuentra, pues, lleno de un plasma turbulento y

energético de gas parcialmente ionizado en un estado de violenta actividad. Debido a la inmensidad de las

Page 34: Nuevos rumbos para la cosmología

distancias astronómicas, cuesta a menudo observar, a escalas de tiempo humanas, el movimiento; no

obstante, esas mismas distancias permiten, incluso a fuerzas moderadas, producir resultados impresionantes.

No es ocioso pensar en cuáles podrían ser tales manantiales. Tres hipótesis recientes sugieren el rango de

posibilidades: discos de acreción de agujeros negros galácticos, ráfagas de rayos gamma ("gamma-

raybursts") y defectos topológicos en el Universo.

Según predice la astrofísica, se necesitan los agujeros negros de mil millones de masas solares o más,

congregando por acreción masa de los núcleos de galaxias activas, para lanzar chorros relativistas de materia

hacia el espacio interestelar profundo a velocidades próximas a la lumínica; los radiotelescopios han

cartografiado esos chorros. Peter L. Biermann y sus colaboradores, del Instituto Max Planck de

Radioastronomía de Bonn, sugieren que los puntos calientes vistos en estos radiolóbulos son frentes de

choque que aceleran rayos cósmicos a energías ultra-altas. Hay indicios de que las direcciones de los rayos

cósmicos de energías más altas secundan en cierto modo la distribución de radiogalaxias en el cielo.

La hipótesis sobre las ráfagas de rayos gamma parte de la teoría según la cual las ráfagas se crean en

explosiones relativistas, resultado posible del encuentro de estrellas de neutrones. Mario Vietri, del

Observatorio Astronómico de Roma, y Eli Waxman, de la Universidad de Princeton, observaron

independientemente que la energía disponible en tales cataclismos es aproximadamente la misma que la

necesaria para producir el flujo observado de los rayos cósmicos de las energías más altas. Aducen que las

ondas expansivas a velocidades ultra-alta deben su existencia a la desintegración de "monopolos", "cuerdas

cósmicas", paredes de dominio y otros defectos topológicos que podrían haberse creado en el Universo

primigenio. Se piensa que estos objetos hipotéticos albergan los restos de una fase más temprana y simétrica

de los campos fundamentales en la naturaleza, cuando la gravedad, el electromagnetismo y las fuerzas

nucleares débil y fuerte formaban una sola entidad. Vendrían

a ser bolsitas infinitesimales que guardan trozos del Universo que existió instantes después de la gran

explosión inicial.

Cuando tales bolsitas se colapsan y se rompe la simetría de las fuerzas de su interior, la energía almacenada

se desprende en forma de partículas supermasivas que se desintegran inmediatamente en chorros de

partículas con fuerzas energéticas hasta 100.000 veces mayores que la que portan los rayos cósmicos de

ultra-alta energía conocidos. En este modelo, los rayos cósmicos de ultra-alta energía que observamos serían

los productos inertes de las cascadas de partículas cosmológicas.

Mientras los investigadores se enfrentan al problema de construir y operar semejantes redes de detectores

gigantescos, la cuestión fundamental queda abierta: ¿puede la naturaleza producir partículas incluso más

energéticas que las que se han observado? ¿Podrían existir rayos cósmicos de energías aún mayores o se está

ya detectando las partículas con la energía más alta que nuestro Universo puede producir?

¿ES REAL EL PRINCIPIO ANTROPICO”?

El 27 de octubre de 1991, un informe publicado por la prensa descarta el llamado “Principio Antrópico”, ya

que según el palentólogo norteamericano Stephn Jay Gould de la Universidad de Harvard el hombre no sólo

no es el rey de la creación, sino que ni siquiera es el producto más complejo y acabado de la evolución;

pues, “a lo sumo es un caso afortunado de sobrevivencia entre miles de millones de combinaciones

posibles.”

El especialista - reconocida autoridad en la materia - explica en declaraciones de la prensa que: “todo

comenzó con “Marella” y sus hermanas, animales realmente asombrosos: los primeros seres pluricelulares

que vivieron hace quinientos millones de años en un mar, luego desplazado por las Montañas Rocosas

Canadienses. Allí se encontraron los fósiles que, distintos a los habituales, muestran también las partes del

animal. Hasta el momento, se pensaba que los primeros pluricelulares pertenecían todos a una misma

familia. Pero Marella y sus hermanas, en cambio, demostraron lo contrario”.

Page 35: Nuevos rumbos para la cosmología

En especial, un descubrimiento llevó a Gould a revolucionar la teoría de la evolución: el hecho de que estos

seres rudimentarios se dividieran en más familias de las actualmente existentes. Hasta tal hallazgo, es

verdad, los científicos creían que todos estos organismos contenían las formas simples de los animales

modernos: por lo tanto, de una o dos especies iniciales, se llegaba a las múltiples actuales. Esto acreditaba la

idea de que la evolución progresaba de lo simple a lo complejo. Marella y sus hermanas a juicio del

investigador demuestran lo contrario, es decir, que las especies eran muchas más entonces que hoy, y que la

mayor parte de los grandes grupos ha desaparecido, en lugar de formarse en el curso de la evolución.

Según la teoría de Gould habrían sobrevivido no los mejor adaptados al ambiente, como afirma la teoría

evolucionista clásica, sino simplemente los más afortunados: “Basta un cataclísmo” - dice Gould - para que

las especies mejor adaptadas desaparezcan en masa. Y hoy nos damos cuenta de que la historia de la vida

está llena de cataclismos: es una gran lotería. Es preciso por lo tanto concebir a la evolución no como un

progreso continuo, sino como una sucesión de fases de equilibrio y de extinciones masivas, que responden

exclusivamente a la casualidad.

Y el hombre ¿cómo llegó a la conciencia y que probabilidades tenía de lograrlo?. “Una probabilidad

infinitesimal, responde Gould, destruyendo en un instante toda nuestra sensación de superioridad. El

primerísimo miembro de nuestra estirpe - prosigue - es un pequeño gusano de cinco a diez centímetros,

llamado “Pikaia”. Imaginemos que la evolución sea un filme y rebobinemos. Imaginemos luego que Pikaia

no sobreviva: en este caso estaríamos cancelados todos de la historia. ¿Por qué entonces existen los

hombres?; porque Pikaia fue afortunado y sobrevivió. “Ningún cálculo de las probabilidades, ninguna lógica

evolutiva, ninguna regla anatómica puede explicar este hecho” - concluye Gould. “Pikaia fue simplemente

afortunado y es por eso que nosotros existimos: simple azar.“

En la investigación biológica, al igual que en todas las disciplinas humanas, hay opiniones, ideas, hipótesis,

teorías, doctrinas y leyes, según sea el grado de verosimilitud implicado. Por otra parte, según los

planteamientos de Popper toda teoría, por bien asentada (esto es con alto grado de verosimilitud) que se

encuentre, está expuesta a ser falseable. En el caso de la posición de Stephen Jay Gould se trata de una

opinión, por una parte; por otra sus planteamientos suelen ser refutados por otros biólogos contemporáneos,

entre ellos Bryan Goodwin; Steve Jones y George C. Williams, todos ellos de igual relieve académico como

Gould como una muestra de otras posiciones sobre el tema se encuentran estos criterios:

a) Hace bastante tiempo afirmaba Lamarck, antes de Darwin, que las leyes que operaban en la materia viva

eran las mismas por las que se regía la materia inerte. La diferencia entre lo vivo y lo inerte residía en la

organización. Cuando se presentaban ciertas condiciones, la materia inanimada se reorganizaba en materia

viva. Las formas evolucionaban instadas por un doble mecanismo: una tendencia natural hacia la

complejidad y una capacidad de reaccionar ante los estímulos del entorno.

Las primeras reticencias las encontró Lamarck en los medios fijistas de su tiempo. La crítica más

demoledora la articuló August Weismann, al demostrar que los cambios en la línea somática nunca saltaban

a la línea germinal. El lamarckismo fue perdiendo terreno, por mucho que los paleontólogos americanos y

alemanes lo vieran reflejado en las series fósiles que iban apareciendo. Hubo más intentos de salvarlo

modernamente: Ives Delage, Marie Goldsmith y otros biólogos entendieron el lamarckismo en un sentido

amplio. "Se producía herencia lamarckiana siempre que un carácter dependiente del estímulo en una

generación pasaba a ser independiente del estímulo en las generaciones siguientes".

b) De igual manera para Jablonka y Lamb, hay herencia lamarckiana si se cumplen cuatro condiciones: el

entorno induce el cambio del carácter: el cambio inducido es específico y repetible; se produce un cambio

específico en la información hereditaria, y el cambio se transmite a la generación siguiente. La biología

molecular ha terminado por reconocer que el genoma es un sistema fluido y poroso a las presiones del

entorno. Ha confirmado también que la información encuentra varios canales para su transmisión por vía

hereditaria. No todos los cambios son resultado de la selección darwinista entre variaciones aleatorias

nacidas de mutación o recombinación génica. Para entender el curso de la evolución hay que atender

también a los mecanismos de epigénesis, los responsables del desarrollo. Los sistemas de herencia

epigenéticos permiten que las cédulas con genotipos idénticos adquieran y transmitan fenotipos diferentes.

Page 36: Nuevos rumbos para la cosmología

c) El biólogo alemán Manfred Eigen cifra en la "información" el hilo conductor de la evolución. La

selección no es un componente adicional que se active desde el exterior. La selección es una forma de

autoorganización y, en cuanto tal, una consecuencia directa de la autoreproducción. La evolución, primero

molecular, luego celular y, por último, del organismo, sólo fue posible a través de la reproducción y la

selección".

Gould aprovecha su turno para identificar la naturaleza de la vida con un problema de jerarquía e historia.

De acuerdo con la perspectiva jerárquica de la selección natural, los diversos niveles ascendentes en

sistemas estructurales de inclusión -genes, organismos y especies- podrían actuar simultáneamente como

focos legítimos de selección natural. Si las especies son unidades de selección por derecho propio, entonces

la pauta evolutiva debe estudiarse en la plenitud de duraciones de las especies, esto es, directamente en el

tiempo geológico. El problema de la vida es un problema de historia.

d) Según el biólogo Jared Diamond la antropología y la paleontología nos enseñan que somos únicos hoy y

en la historia de la vida sobre la Tierra. Pero nuestra singularidad no es absoluta. Tenemos la anatomía de

los primates, y las mismas o casi las mismas proteínas. (entre las proteínas secuenciadas hasta la fecha en los

primates africanos y humanos -cinco cadenas de hemoglobina, mioglobina, citocromo C, anhidrasa

carbónica y fibrinopéptidos A y B- en su mayoría ni siquiera exhiben la diferencia de un aminoácido entre

especies, y el número total de cambios aminoacídicos es sólo de cinco en un total de 1271 restos

secuenciados). Compartimos un 98,4 por ciento de nuestro ADN con el de dos especies de chimpancé, el

común y el pigmeo. Además, el 90% de nuestro ADN no es codificador. ¿Qué eran esos escasos genes para

justificar esa diferencia conductual que separó al hombre de los demás primates. La respuesta está en el

escaso porcentaje restante (1.6%) que hizo producir el salto cualitativo. Son los genes responsables de la

perfección del lenguaje hablado, que hacen que en el Ser Humano la vida, en su expresión más elevada se

trueque en información hablada. Y estos genes se han identificado en el cromosoma 6 se aloja cierto racimo

de ellos, son los genes HLA.

¿ ES LA NADA RELATIVA ?

En junio de 1991, en la revista francesa Recherche, David Polarski divulga parte de los trabajos del físico

británico Hawking de finales de la década anterior y afirma que la naturaleza del Universo, de la materia que

lo estructura se revela mucho más compleja de lo que se pensaba. Y ello a pesar de la fecunda imaginación

de los investigadores científicos que elaboran las teorías, buscando dominar la realidad. Los cuerpos

macroscópicos aparentemente no crearían problemas; están ahí, bien visibles delante del observador

astrónomo.

Sin embargo, hay otros, por lo menos en teoría, como es el caso de los agujeros negros, que dejan de ser

visibles porque el tipo de su materia y el carácter del movimiento del objeto es tal que atrapa todo rayo

luminoso, se transforma en ciego y no da información. Pero entre los cuerpos macroscópicos existen en los

espacios infinitos inmensas regiones de vacío, cuya naturaleza exacta y las consecuencias probables de la

misma, todavía no se comprenden claramente y por ello el llamado vacío interestelar constituye un enigma.

Desde los trabajos de Dirac, el físico inglés, se sabe que ese es un vacío de todos modos relativo; es,

paradójicamente un “vacío lleno”. El medio interestelar es considerado por los especialistas como continuo,

con características muy particulares, tales como viscosidad y conductividad eléctrica.

El físico austríaco Walter Hollistscher afirma que las partículas son solo estímulos del vacío que continúa

existiendo incluso cuando no hay más partículas. “En él, afirma, fluctúa el campo electromagnético y aún en

el caso en que las partículas se encuentren en una notable distancia unas de otras, siguen perteneciendo al

medio que les produce”.

Entre las investigaciones más recientes que ponen de manifiesto fenómenos sorprendentes con relación a

este vacío complejo, los trabajos del físico británico Hawking, en relación con los “agujeros negros”,

muestra una paradoja desconcertante: la existencia misma de partículas de materia que no serían

exactamente un dato objetivo, sino que dependerían del observador. La ausencia de partículas, es decir, el

Page 37: Nuevos rumbos para la cosmología

vacío, debería ser considerada entonces no como absoluto, sino como un fenómeno relativo, según el

sistema de referencia utilizado.

Partiendo de los trabajos de Hawking se arriba a la conclusión de que si se incorpora la Teoría Cuántica a la

Teoría de la Relatividad General, un observador “A” puede observar un vacío sin detectar ninguna partícula,

mientras otro observador, “B”, acelerado en relación con el primero, detectará una radiación de partículas en

equilibrio térmico. De tal manera, el vacío para “A” no es el mismo que para “B”, pero está curiosa

particularidad plantea un problema de interpretación que se mantiene abierto.

Contrariamente a la física clásica que consideraba el vacío como la nada, la Teoría Cuántica, en pleno

desarrollo hoy en día y que se esfuerza por interpretar la estructura íntima de la materia, considera ese vacío

como un estado físico entre otros. De esta manera, un criterio físico puede explicar la aparición de un vacío

o de otro. En cuanto a sí otras condiciones podrían generar otro tipo de vacío, “es un problema abierto del

que no se sabe todavía gran cosa”.

¿ UNIVERSO TRANQUILO ?

Hasta hace escasas décadas se creía que el Universo es tranquilo, pero en noviembre de 1991, en un artículo

de Scientific American se afirma lo contrario, porque los choques violentos entre grupos formados por miles

de millones de estrellas, son mucho más comunes de lo que se pensaba y podrán originar nuevos objetos

cósmicos, según demuestran los últimos modelos informativos y observacionales astronómicos. De estas

colisiones colosales, que se producen a velocidades demenciales y duran miles de millones de años,

surgirían los anigmáticos quásares (los objetos más antiguos, distantes y energéticos del Universo) y las

gigantescas galaxias elípticas (conglomerados de soles casi sin forma y con órbitas azarosas).

Los astrónomos Joshua Barnes y Francois Scheweitzer del Instituto Astrofísico de Hawai y el físico Kars

Hernquist, del Observatorio Kucj de la Universidad de California, quienes estudian desde hace años la

interacción galáctica, una rama científica que podría resolver muchos de los actuales misterios de la

astronomía. Curiosamente, mientras mayor es la velocidad a la que chocan las galaxias, menor es el daño

que produce su impacto, debido a que la fuerza de gravedad tiene menos tiempo para producir grandes y

destructoras mareas, explican los expertos.

Algunos pares de galaxias se aproximan a miles de kilómetros por segundo y pasan directamente una a

través de la otra sin sufrir daños reseñables, pero si se acercaran a sólo cientos de kilómetros por segundo

una disgregaría a la otra, fundiéndose en pocos centenares de millones de años. De todos modos, las

distancias entre las estrellas son tales, que hasta en el más violento de los choques galácticos apenas se

producen colisiones de soles. La galaxia que se encuentra en el campo gravitatorio de una compañera

desarrolla protuberancias en su extremo más próximos y distantes, del mismo modo que la fuerza de

gravedad lunar atrae a las aguas oceánicas y produce las mareas en la Tierra.

“En encuentros próximos, las fuerzas de marea entre un par de galaxias pueden llegar a destrozar las dos”,

aseguran Barnes, Hernquist y Schweitzer. Desde la década de los cincuenta se conoce la existencia de

galaxias curiosas, rodeadas de puentes y colas, configuraciones alargadas a las que se consideraba

aberrantes, pero que observaciones y estudios posteriores permiten atribuir a los choques galácticos. En

1983, el Satélite Astronómico de Infrarrojos (IRAS) brindó pruebas sorprendentes de este fenómeno al

observar una intensa formación de estrellas, debida a los choques o fusiones intergalácticas.

El estudio comenzó en 1983, mediante el IRAS (Satélite Internacional de Astronomía Infrarroja) cuando se

descubre en la Galaxia UCG 9922 una irradiación anormalmente elevada en el infrarrojo y se presupone la

situación es debida, probablemente, a “movimientos poco ordenados de gases y estrella”, cuyo origen solo

podría explicarse por la fusión de dos galaxias”.

Este fenómeno era rechazado aún a principios de la década del 80 pero el 18 de noviembre de 1981 se da a

conocer públicamente por parte de los astrónomos franceses Suzanne Considere y Emmanuel Davoust del

CNRS, que la galaxia UGC 9222, situada a doscientos veinticinco millones de años luz de la Tierra

Page 38: Nuevos rumbos para la cosmología

“fagocitó” a una galaxia satélite situada a 15 mil años luz de la espiral de la primera, y luego “fagocitó” a

una segunda (que es precisamente el fenómeno detectado), el cual produce un “sobresalto intenso” en los

procesos de formación de estrellas. El hallazgo que revoluciona los conceptos de desarrollo de las galaxias y

de la relación entre estas se encuentra ya publicado en la revista Astronomy and Astrophysics.

A finales de 1988, un equipo de astrónomos franceses dan cuenta del descubrimiento de un choque entre

galaxias ocurrido hace apenas un siglo. En 1979, David Malin, del Observatorio Anglo - Australiano de

Nueva Gales del Sur, ya había detectado unas capas de materia luminosas, gitantescas y tenues, al parecer

originadas por los choques y explosiones entre galaxias. Estas capas tenues han sido observadas en muchas

galaxias, lo que sugiere que los choques deben ser bastante comunes. La investigación de las galaxias

elípticas también ha revelado indicios de fusiones recientes según los expertos. En algunas, la región central

gira en una dirección mientras que las partes más externas lo hacen en sentido contrario, lo que resultaría

muy natural en un proceso de fusión.

Otro fenómeno que hace prever choques frecuentes es que las galaxias no sólo las forman estrellas

luminosas y nubes de gas, sino también materia invisible, que representa la mayor parte de su masa y hace

crecer la posibilidad de encuentros. Los modelos matemáticos demuestran que cuando a un disco giratorio

de estrellas lo afectan las mareas gravitatorias de una compañera cercana (galaxias elípticas en unos casos o

pulsares en otros), desarrolla estructuras en forma de puentes y colas, y dependiendo del tipo y forma, brazos

espirales, anillos estelares y toda clase de filamentos y apéndices luminosos.

¿ PUEDE LA CIENCIA PROBAR LA EXISTENCIA DE DIOS ?

¿Puede la ciencia probar la existencia de Dios? ¿Podrán alguna vez los científicos plantear seriamente esta

interrogante como tema de análisis? Estas fueron las dos sugestivas interrogantes que se plantean en “La

Mente de Dios”, un artículo escrito por A.J.S. Rayl y K.T. Mckinney en la revista de divulgación científica

Omni a mediados de 1989.

“Preguntar a los científicos sobre Dios causa reacciones inmediatas que van desde risas nerviosas hasta

hondos suspiros.”, señalan los directores de la revista en su introducción del artículo. “Por ejemplo, un

científico laureado con el Premio Nobel se mostró ofendido de que los escritores osaran incluso considerar

una idea así como historia y cortó la llamada telefónica de Rayl sin mayores comentarios.”

Sin embargo, varios aceptaron responder. Por ejemplo, el físico matemático de la Universidad de Tulane,

Frank Tippler quien señala: “la ciencia se preocupa con la totalidad de la existencia. Si la ciencia no puede

alcanzar a Dios, entonces Dios no existe.” Muchos son los obstáculos que se interponen en la búsqueda

científica de Dios.

En primer lugar, según el ex jefe de Personal del Hospital Metropolitano de Dallas, Larry Dossey, se debe

“poner la idea sobre la mesa y sencillamente reconocer que se trata de un tema legítimo de conversación.”

Ello quiere decir que los científicos tendrán que ser receptivos ante al idea y aceptar cualquier evidencia que

se les presente. “No se trata de una herejía científica, ni una blasfemia a la que se llega por una evidencia

indirecta; nadie ha tenido alguna vez un quark en sus manos. El mismo razonamiento puede ser aplicado a

Dios.”

Otro problema similar es la dificultad para conseguir apoyo económico para realizar un proyecto de

investigación que comprueba la existencia de Dios: “No se consigue fácilmente el financiamiento necesario

para ir y encontrar a Dios”, declaró el profesor Stephemn Laberge, psicólogo de la Universidad de Stanford.

“Aún si no lo logra primero habría que definir qué quiere decir uno con Dios. “Esto constituye igualmente

un obstáculo enorme. Cada religión y grupo de creyentes tienen diferentes nociones sobre Dios. Además en

las sociedades occidentales, aún aquellos que comparten el mismo credo tienen sus propias creencias

particulares, con frecuencia en lo referente a una forma física y no en lo que trasciende la realidad física.”

Acerca de esta espinosa materia este tema había sido planteado por el filósofo Kant, para quién es necesario

llegar al conocimiento de la existencia de Dios pero la demostración científica de la existencia de Dios no es

Page 39: Nuevos rumbos para la cosmología

posible. Esto es, no es posible emitir juicios científicos sobre Dios, puesto que tales juicios dependen de la

percepción sensible, mientras que Dios no cae dentro del espacio y del tiempo, esto no es objeto de la

percepción sensible. Los juicios científicos tienen que expresar una verdad que sea a un tiempo necesaria

(apriorística) y nueva (sintética). Es decir, los “juicios sintéticos a priori”, sólo son posibles, en las

matemáticas y en las ciencias de la naturaleza pero no en la metafísica tradicional.

Las tres pruebas clásicas para demostrar la existencia de Dios son negadas por Kant por las razones

siguientes:

1) Prueba Ontológica: Porque implica un paso ilegítimo de la simple idea de Dios a la realidad misma de

Dios y es tautológico.”

2) Prueba Cosmológica: Porque el ser contingente supone una causa absolutamente necesaria y esto supone -

a priori - volver a caer en el argumento ontológico.

3) Prueba Teleológica: Porque afirma que del orden del Universo se infiere una causa creadora. Pero en

realidad, sólo se puede inferir una causa ordenadora, pero no creadora y omnisuficiente, ni actualmente

existente.

Por su parte, el teólogo Joseph Schumuker, profesor de Teología en la Universidad de Ratisbona, en

Alemania asevera que la cuestión de si ¿Existe realmente Dios, como lo cree la religión, más exactamente, la

religión cristiana, es decir, un Dios trascendente, personal, infinitamente santo e omnipotente?... es la más

importante y a la vez emotiva, inquietud que puede el hombre plantearse en toda su existencia. Pues la

respuesta que se dé a ella, lo mismo si es afirmativa que negativa, decide en todo caso, a fondo, su

mentalidad o concepción del mundo , el sentido y finalidad de su vida y su postura ante la muerte. Se trata,

en síntesis de la cuestión que hace palidecer a todas las otras interrogantes. Además asegura que la fatal

dificultad de la cuestión de Dios es sentida por el hombre moderno más que por las generaciones anteriores,

por doble motivo:

a) En primer lugar, en la antigüedad y en la Edad Media hubo una relación social con las cuestiones relativas

a la existencia y a la muerte, que le quitaba, en gran parte, a las personas, el trabajo de tomar una posición

propia e independiente.

b) Modernamente, la cuestión de Dios es absolutamente libre, ahora el hombre tiene que plantearse el

problema como individuo a sí mismo, libre de la coacción de un sentimiento social. Dado que la cuestión de

Dios sólo recibe gran silencio de la sociedad y de la cultura modernas.

Por otra parte, Schumuker relata que durante siglos los teólogos hicieron maravillas buscando argumentos

abstractos para demostrar científicamente la existencia de Dios; pero que, tales pruebas, como lo

demostraron Hume, Kant, los filósofos positivistas, los idealistas, los materialistas y la ciencia son débiles y

carentes de sentido, En consecuencia, no es por esa vía que debe demostrarse - ni se encontrará - a Dios,

bien para atribuirle la creación o para hacerle un Dios personal. En los reductos de la fe y la moral personal

es donde debe buscarse.

Sin embargo, en 1996, Walter Bradley, investigador en Ingeniería Mecánica, de la Universidad de Texas, en

un artículo difundido por INTERNET, bajo el título Evidencias Científicas de la Existencia de Dios”, dice

que hoy día es posible demostrar la existencia de Dios por métodos científicos que revelan la presencia de

un ser inteligente en el Universo. Bradley explica que el filósofo Martin Prozesky, agnóstico, en su obra: “A

New Guide to the Debate About God” (1993), considera que los principales argumentos en contra de la

existencia de Dios actualmente, son de origen teológico y filosófico y los principales argumentos en favor de

su existencia, provienen de la Teoría del Big Bang; de la Biología Molecular y del Principio Antrófico; y de

seguido plantea que la evidencia de la existencia de Dios, a nivel científico, procede de:

a) Evidencia que se despide del diseño del Universo por la presencia de formas matemáticas simples por

parte de la Naturaleza;

b) La coincidencia que las constantes universales son exactamente las necesarias para dar albergue a la vida;

c) La coincidencia de que las condiciones iniciales de muchas situaciones físicas, químicas, biológicas, son

exactamente las justas y críticas para su existencia.

Y el cosmólogo Frank J. Tippler -autor de la “Teoría del Punto Omega”- citado en el artículo de la revista

Page 40: Nuevos rumbos para la cosmología

precisamente, escribió un libro sobre el tema a inicios de los 90: "Teoría del Punto Omega: La Física de la

Inmortalidad" el cual se analizará con detalle en otro capítulo.

¿ EXISTE EL TIEMPO ?

Desde Huelva, España la prensa informa que “la comunidad científica reunida del 2 al 6 de octubre de 1991

no logra ponerse de acuerdo sobre si el tiempo existe o es un concepto inventado”, según quedó el viernes de

manifiesto al término de un seminario celebrado en España para tratar específicamente de este tema. Más de

cuarenta científicos de todo el mundo, entre ellos el británico Stephen Hawking y los estadounidenses

Murray Gell - Mann, John Wheeler y su colaborador el cosmólogo chileno Claudio Teitelboim participaron

en unas jornadas dedicadas a la asimetría del tiempo, concepto que hace referencia al hecho de que este

fluye en un único sentido.

Al final del seminario se hizo una encuesta entre los participantes para determinar si creían o no en la

existencia del tiempo y hubo veinte que contestaron negativamente, catorce que lo hicieron afirmativamente

y otros catorce que se abstuvieron por considerar que no tenían suficiente elementos de juicio. Entre los

defensores de la existencia del tiempo se encuentran el Nobel de Física Gell - Mann y también Stephen W.

Hawking, quien en una conferencia publicada en Sevilla descartó la posibilidad de viajar en el tiempo”.

Brandon Carter y S. W. Hawking se refirieron - además al Principio Antrópico - según el cual en un

determinado momento se crean condiciones para el aflorar la conciencia que prácticamente permite afirmar

que este Universo ha sido diseñado a “Medida del Hombre”.

¿COSMOLOGIA DEL PLASMA MEJOR QUE EL MODELO BING BANG ?

A mediados de 1988, la Revista Sky and Telescope publica un artículo de fondo dedicado a plantear una

teoría que sustituya a la del B.B., dado que para esas fechas hay dudas razonables sobre su validez. Debido a

problemas que afronta la Cosmología del Big Bang en la tercera semana de febrero de 1989 se reunió a un

grupo de cosmólogos con el Dr. Havnes Alfven para revisar la llamada Cosmología del Plasma como una

respuesta óptima para la cosmología y para dar a conocer sus puntos de vista en una publicación, con lo que

la llamada “Cosmología del Plasma” planteada entre 1930 y 1950 por el físico sueco Hannes Alfven, junto

con Nicolai Herlopson y Karl Kiepenheu, puede volver a la consideración de los cosmólogos.

El concepto plasma - muy asociado a la sangre y a la medicina, del cual deriva su nombre dado por el físico

norteamericano Langmuir - es el llamado “cuarto estado” de la materia. Existe en los gases calentados a

cierta temperatura, o en el interior de los metales - aún a temperatura ambiente y es un excelente conductor

de la electricidad, a la vez cambia su estado para comportarse de manera diferente a como lo hacen

sustancias en cualquiera de los otros tres estados.

Sin embargo, el plasma al que se refieren los cosmólogos es la materia sometida a presión y temperatura

muy altas (más de un millón de grados K) que se encuentra en el espacio interestelar e intergaláctico o en las

estrellas y es el causante de grandes cantidades de radiación electromagnética, rayos X, rayos Gamma o de

ondas electromagnéticas de baja energía, como ondas de radio y emisiones visibles. Estas radiaciones son de

origen térmico, pero no es esta su única causa en razón de que electrones libres girando a una velocidad muy

cercana a la luz en un campo de alta intensidad magnética pueden producirla también y si la conoce entonces

como radiación sincrotrónica. Según Alfven y sus colaboradores “ en todo el Universo existen además

corrientes de electrones moviéndose a velocidades cercanas a la de la luz en líneas de fuerza magnética

(conocidas como corrientes de Birkeland, quien las identificó en las auroras boreales) las que serían las

causantes de la alineación de la materia en gigantescas estructuras de carácter celular y filamentar.

En razón de que en la década de los cincuenta la cosmología mantiene el criterio de la isotropía y de la

formación de grandes estructuras como resultado de un proceso evolutivo “suave”, la tesis no recibe

respaldo, pero a finales de los ochenta e inicios de los noventa, la idea de la existencia de cordones

Page 41: Nuevos rumbos para la cosmología

cósmicos, paredes cósmicas y grandes conglomerados de galaxias no es novedosa y permite dar crédito al

planteamiento de que pueden haber sido formadas por corrientes eléctricas. En 1974, un satélite artificial

norteamericano logra detectar esta corriente prevista por Alfven; en 1979 la sonda Viajero II encuentra las

corrientes de Birkeland entre Júpiter y su satélite natural io y en 1984 un grupo de radioastrónomos bajo la

dirección de Farhad Yusef - Zadeh, encuentran un ejemplo de este tipo de corriente en la Vía Láctea.

Con el advenimiento de la era de las computadoras se han simulado las corrientes de Birkeland para

aplicarla a millones de partículas y las formaciones obtenidas en efecto concuerdan con las propuestas de la

Cosmología del Plasma ya que de las partículas libres, se pasa a estructuras que van evolucionando hasta dar

origen a las estructuras de tipo galáctico que se conoce; pero cuya formación sería originada no como

resultado de la gravedad sino de corrientes eléctricas. Hay además tres aspectos interesantes en este

planteamiento:

1.- La similitud de la radiación de fondo de cuerpo negro se debe, no a los restos de un hipotético B.B., sino

a energía desprendida del proceso de formación de las estructuras filamentarias que los físicos William Peter

y Eric Lerner estiman en 5 X 10-14 julios por metro cúbico y cuya radiación arroja un dato muy cercano al

conocido 2.73 K (sus cálculos dan 2,87 K).

2.- Todo el plasma se estructura en formas celulares, divididas por zonas vacías que dan la impresión de

“paneles de abeja” de grotescas dimensiones, lo que explicaría - según la tesis - la ausencia de la

homogeneidad actualmente detectada.

3.- El efecto de Hubble no sería la resultante de una gigantesca y primigenia explosión, pues el efecto

Doppler en que se fundamenta la medición de corrimiento al rojo de la luz que explicaría la recesión de

galaxias, se puede obtener también - a la misma escala - mediante el “efecto de Wolf”.

El efecto consiste en un mecanismo descubierto por el físico Emil Wolf al unir dos fuentes diferentes en una

sola y dando como efecto un mimetismo del efecto Doppler lo que causa confusión. “Si en realidad este

efecto - que se ha calculado para fuentes sincrotrónicas, puede confundirse con la corriente de expansión de

Hubble, eso significa que la colocación de los púlsares en términos de su distancia, debe recalcularse por

completo", a juicio de los defensores de la Cosmología del Plasma.

A la suma de estos factores, los cosmológos agregan que la paradoja de Olbers no se da en su planteamiento,

en razón que la paradoja asume que la única manera de observar el Universo es mediante la radiación

visible, lo cual no es cierto pues debe contemplarse que las emisiones se dan en todo el espectro

electromagnético y sólo cuando una estrella radia en la parte visible es posible verla; pero aunque no se la

pueda observar está presente, sólo que radiando en otra parte no visible del espectro.

En 1996, nuevamente el físico Eric Lerner plantea que el Big Bang con todas sus reformulaciones exige

como requisito para ser cierto:

a) Homogeneidad a gran escala pero resulta que el Universo se revela más y más inhomogéneo, con

estructuras tan enormes que no es posible que se hayan formado en 10 - 20 mil millones de años.

b) Inflación al inicio del Universo; pero ello obliga a que la densidad de la materia fuese de 50 a 100 veces

mayor que la observable, lo que es contradictorio.

c) Materia oscura; que aparte de ser una sustancia mítica, de existir habría expelido las galaxias a

velocidades 10 veces mayor que las observadas.

d) Mayor abundancia de helio, deuterio y litio en el Cosmos; pero que las últimas mediciones demuestran no

ser ciertas y más específicamente respecto al helio.

e) La existencia de texturas y de cordones cósmicos, pero que la creación de estas son especulaciones que

abandonan el campo de la física para convertirse en un argumento típico de la escolástica medioeval.

En fin que con sus objeciones, Lerner prácticamente canta el responso” (¿antes de tiempo?) a la Teoría del

Big Bang en su libro “El Big Bang Nunca Existió”. Independientemente de si Lerner - en este caso - u otros

detractores del Big Bang tienen razón, lo cierto es que si efectivamente esto haya sido así o no, la

Page 42: Nuevos rumbos para la cosmología

cosmología del Big Bang se sostiene como la principal explicación cosmológica de origen científico y

aunque las explicaciones que se argumentan a su favor tienen más y más pautas de desborde de lo creíble, la

verdad es que desde que Einstein inicia su proceso revolucionario - en todo sentido - toda la física muestra

esa faceta y en especial la Cosmología, cuando a los planteamientos sorprendentes sacados de la Relatividad

se une a los más esquivos e increíbles tomados de la Física Cuántica.

Los argumentos de la cosmología del plasma son simples; mientras que los argumentos de la cosmología del

B.B. se han ido haciendo más y más complicados. Esto no significa que las primeras sean ciertas y los

segundos no; simplemente permiten recordar que así como la cosmología relativista evolucionista debió

librar una dura batalla frente a la teoría del Estado Estacionario en el pasado reciente, todo parece indicar

que podría avecinarse una nueva batalla de ahora frente a la Cosmología del Plasma.

¿ DE LO UNO A LO MULTIPLE ?

En diciembre de 1991 la prensa informa acerca de la verificación de un Congreso efectuado en Barcelona,

España, destinado a definir la complejidad que resulta de la “Integración Convergente de Individuos” ( Que

recuerda la frase de Parmenedis : de lo Uno a lo Multiple) A juicio del Director del Museo de Barcelona, y

coordinador del Congreso Jorge Wasenberg: “Si este es el siglo del átomo y del cosmos, el próximo será el

de la complejidad: tenemos dos grandes problemas de la complejidad: uno es cómo se adapta un sistema a

una perturbación y otro cómo hemos pasado de las partículas elementales a algo material (el ser humano

capaz de escribir el Quijote.

Y Wasenberg se pregunta: ¿Qué ha hecho que la materia se haya complicado tanto? ¿Se debe a la

combinación de las leyes que conocemos o se trata de leyes nuevas?”. Matemáticos, físicos, biólogos y

ecólogos, discutieron si es posible encontrar una teoría o unas leyes generales que se puedan aplicar -cada

uno en su campo- para explicar la complejidad, el funcionamiento de sistemas de miles o de millones de

variables interrelacionadas entre sí de manera que al alterar una cambian las demás.

Gregory Chaitin, matemático estadounidense del Centro Thomas Watson de IBM en Nueva York, explicó

que “no sólo hay azar y complejidad en los organismos vivos formados por millones de células y que han

recorrido miles de opciones en el camino de la evolución, así como en los ecosistemas o en el

comportamiento humano, sino también en el corazón mismo de las matemáticas, considerando hasta ahora

dominio absoluto de la sencillez y la exactitud.” Por su parte, en opinión de Waenberg, “el prestigio de la

física hasta ahora se debe a que ha perseguido la sencillez que le ha permitido “matematizar” los problemas.

“Sin embargo - dice - la biología entra en la complejidad porque no tiene más remedio, porque la materia

viva es compleja, y por ello esta ciencia no ha alcanzado el rigor y la potencia de la física”.

Los científicos prosiguieron su análisis en la siguiente línea: ¿en qué se parece un copo de nieve, una colonia

de baterias, la corriente del golfo, el sistema inmunológico humano, una figura geométrica creada por el

ordenador y un contralor de vuelo de Leningrado? Sencillamente en que son sistemas complejos. Los

participantes en el congreso celebrado en Barcelona no tienen aún una respuesta para explicar esos sistemas,

pero se han puesto de acuerdo en la pregunta que necesitan hacerse para empezar a trabajar en un tema que

gana importancia día a día: ¿Qué es un individuo?

Lee A. Segel, experto en matemática aplicada del Laboratorio de Los Alamos (EE.UU.), utilizó el “ejemplo

del controlador de vuelo de Leningrado” para explicar la importancia de entender las partes que componen

un sistema antes de abandonarlo globalmente: “El contralor con experiencia era capaz de manejar

eficazmente una enorme cantidad de información (horarios, escalas, vuelos) del tráfico del aeropuerto de

Leningrado porque había empezado a trabajar cuando había muy pocos aviones y la complejidad había

crecido a lo largo de los años. Pero cuando llegó un nuevo controlador, un joven muy brillante no pudo

hacerse cargo del control del aeropuerto sin ayuda de ordenadores porque se encontró de golpe con un

sistema muy complejo que no podía abarcar inmediatamente”.

Segel insistió en la importancia de la jerarquía para definir los sistemas complejos, pero físicos, matemáticos

y biólogos tienen diferentes conceptos de lo que es un individuo jerarquizado en un sistema y señaló: "El

Page 43: Nuevos rumbos para la cosmología

objetivo de la reunión científica ha sido avanzar hacia una teoría de la complejidad que permita comprender

esos sistemas formados por miles de individuos y cuyo comportamiento es diferente de cada uno de los

individuos que lo componen”.

El Coordinador del Congreso en referencia dirige también una serie de libros bajo el título “Metatemas”,

para la Editorial barcelonesa Tusquet y a raíz de ese Congreso se publicaron varios libros, uno de los cuales:

“La Tercera Cultura” dirigido por el editor científico John Brockman de Nueva York, se analiza

ampliamente en un próximo capítulo, porque abre una interesante y nueva faceta al proceso de

conocimiento.

LOS ENIGMAS IRRESOLUTOS

Esta breve revisión obviamente no agotan la crisis del conocimiento que cobra relevancia en la década,

permite concluir que conforme avanza el conocimiento aumentan las dudas, pues nuevas pautas de los

problemas que se van solucionando afloran a la superficie. En el campo de las Cosmología - como queda

demostrado con las descripciones del Universo y del tema obsesionante de su posible origen el panorama

cambia cada cierto tiempo. En el pasado los hitos que marcan la trayectoria del conocimiento muestran un

espaciamiento que se medía en siglos; luego en décadas y hoy el “rompecabezas cósmico” debe irse

armando prácticamente por años. Y sin especulaciones podría afirmarse, que casi mes a mes el cúmulo de

informaciones y datos crece exponencialmente. En el pasado reciente sólo las teorías con cierta clase de

verosimilitud se exponía al gran público, luego de pasar por las “horcas caudinas” de los especialistas. En la

actualidad, con la gran exposición de los científicos a la gran prensa, ésta, ávida de noticias para llenar las

necesidades de los consumidores de mercados autoalimentados, saca a la luz pública planteamientos apenas

en proceso de elaboración.

A partir de la mitad de los ochenta las “últimas nuevas”, en Cosmología y áreas conexas nos irán mostrando

un caleidoscopio que si bien parece hiperrealista, en el fondo debe asentarse sobre una verdad sencilla para

la cual aún no se encuentra la clave.

Para quienes siguen de cerca los avances de la ciencia, pareciera a ratos que se tiene la verdad en las manos;

pero rápido se escapa y que de pronto al ahondar ya no se sabe nada de lo que se creía conocer todo. Ello es

simplemente el resultado de la expansión del conocimiento y; la especialización para su abordaje y en

mucho la inseguridad psicológica que caracteriza la llegada de la década de los noventa en la coincidencia

de que en ella irán a confluir la caída de ideologías, el desmembramiento de Estados - Naciones, la pérdida

de valores tradicionales, la recomposición de las sociedades civiles, la pérdida en la credibilidad de las

instituciones rectoras; así como una confrontación entre el “cientifismo” y el “deismo”; quedando - a duras

penas en pie algunos bastiones del “teismo” a lo que se auna la cercanía de un nuevo siglo para el cual se

tejen muchas ilusiones, pero en medio de la acentuación de crisis que para los teóricos sociales futuristas no

es más que el advenimiento de un nuevo orden universal, que por ser nuevo y con características planetarias,

apenas se esboza en el horizonte. Así, quienes lo perciben sin analizarlo sólo ven aristas y pautas al parecer

contradictorias y desconcertantes; sin percatarse todavía que esa nueva globalidad que apenas se delinea es

anticipio de una diferente comprensión y solidaridad de la Humanidad.

Igual en Cosmología, quizá con el agravante de que los nuevos modelos por su abstracción van quedando

reservadas - por ahora - a mentes especializadas con conocimientos en física y matemáticas y aún ésta, como

lenguaje, carece del instrumental para expresarse y habrá que esperar al diseño de nuevas herramientas

matemáticas para ir uniendo los aparentes “cabos sueltos” del hilo o la cuerda que une las piezas del

rompecabezas cósmico.

Page 44: Nuevos rumbos para la cosmología

UN UNIVERSO DE DUDAS

A finales de la década de los ochenta, los cosmólogos plenos de optimismo casi daban por sentado que cerca

del año 2000 el hombre tendrá resuelto el problema del origen del Universo y de sus transformaciones y por

ende su futuro lejano.

La fe en el conocimiento científico “puro” obliga a refutar o aún a menospreciar todo planteamiento de

orden metafísico que se reputa de elucubraciones propias de los dominios de la filosofía que han

contaminado la asepsia del altar científico.

Sin embargo, a la vez que en estos años se comienza a establecer un muro entre cosmología y metafísica

para dejar la primera como una disciplina autónoma; por estas mismas fechas los hallazgos observacionales

logrados gracias al refinamiento instrumental y al apoyo de las computadoras comienza a resquebrajar los

cimientos del último modelo del Universo; “oficialmente” aceptado por la mayoría de los cosmólogos,

porque los resultados ponen en duda planteamientos que iban solidificándose y calzando entre sí (aunque a

veces, a costa de “forzar” el modelo como se analiza en el próximo capítulo).

A la vez en otros campos de la ciencia - sobretodo aquellos que por su relación directa con los fundamentos

de la cosmología, guardan mayor relación con ella, se comienzan a formular hipótesis nuevas que ponen en

entredicho verdades ya prácticamente “consolidadas”.

Si todas estas formulaciones teóricas y hallazgos concretos se ponen juntos, arrojan como resultado la

siembra de dudas donde antes - escasos años antes - se tenía ya un modelo de Universo bastante aceptable y

en vez de ello surge todo un Universo de dudas basado en nuevas ideas, cuyo valor dependerá no tanto de lo

espectacular de sus planteamientos o de los títulos llamativos que les acompañan, sino de otros parámetros

más duraderos.

Durante los años anteriores a los ochenta era preciso recurrir a libros, revistas y otras publicaciones

especializadas para conocer lo que ocurría en el complejo y cada vez más cambiante mundo de la ciencia,

pero, en la década de los noventa por lo contrario, gracias a la gran divulgación dada por los medios de

comunicación de masas a los aspectos más relevantes de los descubrimientos por parte de satélites,

laboratorios espaciales y sondas espaciales, irrumpe el periodista científico en los mundos de la cosmología;

la biología; la astrofísica y la física subatómica. Esto ha obligado a que se aumenten los “press release”

(entregas de prensa), por parte de agencias oficiales, entre las que sobresalen las notas provenientes de las

agencias de prensa AP, UPI, TASS,EFE, REUTER, IPS, INTERCO, que se adentran en este cosmos

habitado por científicos reacios a dar declaraciones sobre sus avances, que reservan para eventos

especializados o por otros que, ávidas de ser noticia, adelantan criterios poco madurados y aún en etapa de

elaboración teórica o comprobación empírica.

El hecho es que poco a poco un mundo cerrado se abre y los años últimos ha sido pródigos en noticias

“duras” - como llaman los periodistas a reportajes y entrevistas sobre acontecimientos “del momento”,

aunque se trata de hechos acaecidos miles de millones de años atrás. Dado que la prensa suele titular mal los

textos científicos; y entresacar textos para aumentar el tono sensacionalista, esto ha obligado - a su vez - a

confeccionar boletines de prensa oficiales para tratar de evitar esta deformación noticiosa. Los boletines

oficiales provenientes de los países que destacan en labores de investigación astronómica suelen

confeccionarse por la NASA (EUA), CNRC (Francia), mientras que las instituciones inglesas recurren a

REUTER y las italianas a ANSA, y de éstas cuatro fuentes principales emanan con periodicidad las

explicaciones del avance investigativo. Como aún esos boletines de prensa deben fidelidad a los esfuerzos

de los entes oficiales de sus respectivos países, los adelantos observacionales se suelen acompañar de

especulaciones y para aventurar hipótesis. Ya en la década de los noventa, cada mes y aún cada semana,

pueden darse a conocer nuevos hallazgos observacionales que obligan a un permanente replanteo de las

verdades con las cuales se construyen los modelos del Universo, quienes se guían únicamente por este tipo

de publicaciones albergan un razonable Universo de dudas.

Los planteamientos públicos de ideas en el campo de la cosmología - al igual que sucede en otras áreas

Page 45: Nuevos rumbos para la cosmología

relacionadas con el origen, desarrollo y destino de la vida en sus diversas manifestaciones - ocasiona el

afloramiento de preocupaciones por la forma en que los conceptos fundamentales que le dan sentido a la

vida, son manejados por los propios investigadores, por los divulgadores de sus ideas y por la gran prensa.

Resulta conveniente, entonces mencionar algunos eventos mundiales en que se trata con seriedad este tema

de la objetividad científica:

1.-Uno es el simposio verificado en octubre de 1992 por la Cátedra de periodismo científico del Instituto

Tecnológico de Massachusetts (MIT) en el que se debatió sobre la forma en que los medios presentan las

noticias sobre ciencia ya que habiéndose demostrado que: "...era altamente visible un interés especial por los

desastres y la controversia, igualmente su interés en señalar los aspectos negativos de las investigaciones".

2.-El segundo es el lanzamiento en octubre de 1993 de la Encíclica “Veritatis Splendor” (El Esplendor de la

Verdad) mediante la cual el Papa Juan Pablo II expresa la gran preocupación por "...la mistificación y la

confusión que resultan del manejo inadecuado - y por ello apartado de la ética social - de opiniones que sin

tener la profundización necesaria se presentan como si fuesen verdades absolutas".

3.-El tercero es el llamamiento que hace el Secretario General de la ONU, Federico Mayor Zaragoza al

cumplirse 500 años del “descubrimiento” de América, cuando expresa que la única forma de impedir la

manipulación de la información, cualquiera que sean sus fines, es garantizar una especie de “glasnot”

(transparencia pública) tanto contra los desmanes de la ciencia, como de los medios informativos.

4.-El cuarto es el criterio expresado por el editor técnico de la revista Sky & Telescope, el astrónomo Joshua

Roth, quien dice: “Los astrónomos comprometidos en trabajos lentos, que requieren de gran paciencia y

prolongados términos para su conclusión, son obligados (por diversas circunstancias), a dar a la publicidad

hallazgos que si bien son excitantes y espectaculares, son aún parciales e inconclusos.”

La preocupación del hombre en todas las épocas por conocer la verdad ha coincidido con la ocupación de

determinados intereses en propagar “su verdad”. Así como el medioevo conoció la persecusión en contra de

la verdad y la imposición de ésta por parte de la Iglesia Católica, en estas fechas los que tratan de imponerla

son algunos científicos que desbordan sus campos de acción o con afirmaciones que causan confusión; los

comunicadores que para hacer sus notas sobre hechos científicos de tal manera que sean aceptadas para la

publicación, agregan comentarios sensacionalistas para tener la oportunidad de ver publicados sus artículos,

pues deben competir en el “mercado de la noticia” con otros temas sensacionales o de último momento, lo

que daña la objetividad; y los propietarios -a veces- o los directors de medios -otras veces- que valoran más

las ganancias quela verdad, haciendo realidad aquella frase que dice que "frente a la libertad de información

vale al libertad de empresa".

A su vez este intento del Papa Juan Pablo II es altamente polémico, pues a juicio de algunos parecerá un

intento por imponer una verdad dogmática, y una forma de evitar la proliferacción de muchas verdades. Tal

es el criterio - por ejemplo del psicofilósofo francés Lacan quien afirma: “es necesario no caer en la trampa

de los discursos que buscan el “ideal de la totalidad, porque ello es falso, equívoco, pues los únicos reductos

reales son aquellos que se ocultan en lo fragmentario, diverso y plural”. Para Lacan existen cuatro tipos de

discursos para expresar el conocimiento o para buscar la verdad:

1.- “El metafísico, discurso del Amo por excelencia, que señala que hay verdad total y cada cosa halla su

sentido en el Todo.

2.- El nominalista, propio de las corrientes basadas en la experiencia, para el cual no hay verdad y el mundo

es una ilusión humana.

3.- El hermeneútico, que afirma un texto originario de todas las verdades escrito por un Autor Divino.

4.- El analítico, que afirma la verdad parcial del mundo y el inconsciente como eje de la actividad humana,

una actividad que rechaza dominar y sufrir la dominación”.

Page 46: Nuevos rumbos para la cosmología

Sin embargo en la época actual - como en todas las épocas - el inconsciente colectivo (si es que existe) o

cada quién en lo interno de su espíritu, busca una seguridad que sólo encontrará cuando las concepciones del

Universo cuadren con su propia visión de éste y en esa línea la ciencia no puede cejar en el empeño, aunque

corra - como siempre - el gran riesgo de causar confusiones en su búsqueda de la verdad.

A tal punto la complejidad del conocimiento acarrea profundas implicaciones en todas las órdenes de la vida

humana y - por supuesto - en el entendimiento y descripción del Universo.Y en los próximos capítulos

veremos cómo acometen los cosmólogos el grande reto de descifrar el Universo, mientras desechan teorías y

abrazan otras ,a la vez que- infatigables los procesos de verificación se llevan a cabo día a día y noche tras

noche y en las computadoras de nueva generación se efectúan cálculos a toda velocidad para hacer

simulaciones de modelos de universo o de fases de este, con lo que la Cosmología avanza a pasos

vertiginosos