Cosmología

103
Cosmología La cosmología es el estudio a gran escala de la estructura y la historia del universo . En particular, trata los temas relacionados con su origen y su evolución. Es material de estudio para la física , astronomía , filosofía y religión . Cosmología física Se entiende por cosmología física todas aquellas teorías, modelos o ideas cosmológicas que forman el modelo actual de cosmología. Dicho modelo surge del estudio de la cosmología por parte de la física y la astronomía, ciencias que están íntimamente relacionadas: la evidencia experimental que entregan las observaciones astronómicas sirven de base para los modelos teóricos que elaboran los físicos. Las piedras angulares sobre las que se basa la cosmología moderna son: El descubrimiento de la Ley de Hubble , que describe la expansión del universo. El descubrimiento de la Teoría de la Relatividad General . A partir de la primera surgió la Teoría del Big Bang o "de la Gran Explosión" como origen del universo, mientras que la segunda es necesaria para describir físicamente al universo a gran escala. Y también para dar consistencia a la primera. Observaciones de grandes porciones del cielo indican que, a escala cosmológica , el universo es homogéneo e isotrópico (se ve igual en todas direcciones), lo que fue confirmado con el descubrimiento de la radiación de fondo de microondas . Sin embargo, a escalas más pequeñas es universo es claramente inhomogéneo. A pesar de que la cosmología física es el modelo más aceptado entre la comunidad científica, hay algunos aspectos que todavía quedan por resolver: Se desconoce qué occurrió en los primeros instantes tras el Big Bang . La respuesta se busca mediante el estudio del Universo Temprano , una de cuyas metas es encontrar la explicación a una posible unificación de las cuatro fuerzas fundamentales (fuerte, débil, electromagnética y gravitacional). No se sabe cómo se formaron las estructuras actuales, a partir del Big Bang. La respuesta se busca mediante el estudio de la formación y evolución de las galaxias y la inflación cósmica . Queda por saber a qué se debe el hecho de que el universo se expanda con aceleración (Véase Aceleración de la expansión del universo ). No se sabe cuál es el destino final . La respuesta se busca a través del estudio de la energía oscura . La naturaleza de la materia oscura es desconocida.

Transcript of Cosmología

Page 1: Cosmología

Cosmología La cosmología es el estudio a gran escala de la estructura y la historia del universo. En particular, trata los temas relacionados con su origen y su evolución. Es material de estudio para la física, astronomía, filosofía y religión.

Cosmología física

Se entiende por cosmología física todas aquellas teorías, modelos o ideas cosmológicas que forman el modelo actual de cosmología. Dicho modelo surge del estudio de la cosmología por parte de la física y la astronomía, ciencias que están íntimamente relacionadas: la evidencia experimental que entregan las observaciones astronómicas sirven de base para los modelos teóricos que elaboran los físicos.

Las piedras angulares sobre las que se basa la cosmología moderna son:

El descubrimiento de la Ley de Hubble, que describe la expansión del universo.

El descubrimiento de la Teoría de la Relatividad General.

A partir de la primera surgió la Teoría del Big Bang o "de la Gran Explosión" como origen del universo, mientras que la segunda es necesaria para describir físicamente al universo a gran escala. Y también para dar consistencia a la primera.

Observaciones de grandes porciones del cielo indican que, a escala cosmológica, el universo es homogéneo e isotrópico (se ve igual en todas direcciones), lo que fue confirmado con el descubrimiento de la radiación de fondo de microondas. Sin embargo, a escalas más pequeñas es universo es claramente inhomogéneo.

A pesar de que la cosmología física es el modelo más aceptado entre la comunidad científica, hay algunos aspectos que todavía quedan por resolver:

Se desconoce qué occurrió en los primeros instantes tras el Big Bang. La respuesta se busca mediante el estudio del Universo Temprano, una de cuyas metas es encontrar la explicación a una posible unificación de las cuatro fuerzas fundamentales (fuerte, débil, electromagnética y gravitacional).

No se sabe cómo se formaron las estructuras actuales, a partir del Big Bang. La respuesta se busca mediante el estudio de la formación y evolución de las galaxias y la inflación cósmica.

Queda por saber a qué se debe el hecho de que el universo se expanda con aceleración (Véase Aceleración de la expansión del universo).

No se sabe cuál es el destino final . La respuesta se busca a través del estudio de la energía oscura.

La naturaleza de la materia oscura es desconocida.

Page 2: Cosmología

Cosmología alternativa

Se entiende por cosmología alternativa todas aquellas teorías, modelos o ideas cosmológicas que contradicen el modelo estándar de cosmología. Podemos clasificarla en tres grandes grupos:

Cosmología física alternativa

Cosmología del plasma Teoría del Estado Estacionario Expansión cosmica en escala de Johan Masreliez

Cosmología filosófica

Filosofía presocrática Principio antrópico

Cosmología religiosa

Artículo principal: Cosmología religiosa

La cosmología religiosa es un debate en abierto, un tema muy delicado. De hecho que la cosmología científica es esencialmente diferente de la religiosa. Inicialmente los objetivos eran los mismos, sin embargo bien en el inicio no existía una diferencia exacta o bien formulada entre ciencia y religión. Por otro lado ahora existe; Entonces en el momento que hablamos de cosmología religiosa no nos estamos refiriendo a una teoría que procure o busque explicar cómo esta hecho el universo, cual es su evolución, o fin. Nos estamos refiriendo básicamente a como el ser humano en su dimensión subjetiva, espiritual va evolucionando en el tiempo. Cual seria su fin, su inicio en el ámbito de fe, de experiencia religiosa como búsqueda de Dios, de lo supremo.

Teoría del Big Bang

Page 3: Cosmología

Según la teoría del Big Bang, el Universo se originó en una singularidad de densidad infinita y físicamente paradójica. El espacio se ha expandido desde entonces por lo que los objetos astrofísicos se han alejado unos respecto a otros.

La teoría del Big Bang o de la gran explosión, en cosmología, es la teoría científica que describe el desarrollo del Universo temprano y su forma. La idea central es que la teoría de la relatividad general puede ser combinada con las observaciones a gran escala de galaxias y cambios de posición entre ellas, permitiendo extrapolar las condiciones del universo a antes o después en el tiempo. Una consecuencia natural del Big Bang es que en el pasado el universo tenía una temperatura más alta y una mayor densidad. El término Big Bang se utiliza tanto para referirse específicamente al momento en el tiempo en el que se inició la expansión observable del universo (Ley de Hubble), como en un sentido más general para referirse al paradigma cosmológico que explica el origen y la evolución del mismo. Curiosamente fue uno de los detractores de esta teoría, el astrofísico inglés Fred Hoyle (uno de los principales defensores de la teoría del estado estacionario) quien, en 1950 y para mofarse, caricaturizó esta explicación con la expresión big bang ("gran explosión", "gran boom" en el inicio del universo), nombre con el que hoy se conoce dicha teoría.

Una consecuencia del Big Bang es que las condiciones del universo actual son diferentes de sus condiciones en el pasado o en el futuro. A partir de este modelo, George Gamow en 1948 pudo predecir que debería haber evidencia de un Big Bang en un fenómeno más tarde bautizado como radiación de fondo de microondas cósmicas (CMB). El CMB fue descubierto en la década de los 60 y se utiliza como confirmación de la teoría del Big Bang sobre su más importante alternativa, la teoría del estado estacionario.

Para llegar a esta explicación, diversos científicos, con sus estudios, han ido construyendo el camino que lleva a la génesis del modelo del Big Bang.

Los trabajos de Alexander Friedman, del año 1922, y de Georges Lemaître, de 1927, utilizaron la teoría de la relatividad de Albert Einstein para demostrar que el universo estaba en movimiento constante. Poco después, en 1929, el astrónomo estadounidense Edwin Hubble (1889-1953), descubrió galaxias más allá de la Vía Láctea que se alejaban de nosotros, como si el universo se dilatara constantemente. En 1948, el físico ruso nacionalizado estadounidense, George Gamow (1904-1968), planteó que el universo se creó a partir de una gran explosión (Big Bang). Recientemente, ingenios espaciales puestos en órbita (COBE) han conseguido "oír" el eco de esta gigantesca explosión primigenia.

Dependiendo de la cantidad de materia en el Universo, éste puede expandirse indefinidamente o frenar su expansión lentamente hasta producirse una contracción global. El fin de esa contracción se conoce con un término contrario al Big Bang: el Big Crunch o 'Gran Colapso'. Si el Universo se encuentra en un punto crítico, puede mantenerse estable ad eternum

Historia de la teoría

Page 4: Cosmología

La teoría del Big Bang se desarrolló a partir de observaciones y de un avance teórico. Por medio de observaciones en los años 1910, el astrónomo estadounidense Vesto Slipher y después el de Estrasburgo Carl Wilhelm Wirtz determinaron que la mayoría de las nebulosas espirales se alejaban de la tierra; pero no llegaron a darse cuenta de las implicaciones cosmológicas de esta observación, ni tampoco que las supuestas nebulosas eran en realidad galaxias más allá de nuestra propia vía Láctea.

También en la segunda década del siglo XX, la teoría de Albert Einstein sobre la relatividad general no admite soluciones estáticas (es decir, el universo debe estar en expansión o en reducción) un resultado que él mismo consideró equivocado, por lo que trató de corregirlo agregando la constante cosmológica. El primero en aplicar formalmente la relatividad a la cosmología sin la constante cosmológica fue Alexander Friedman cuyas ecuaciones describen el universo Friedman-Lemaître-Robertson-Walker, que puede expandirse o contraerse.

Entre 1927 y 1930, el padre jesuita belga Georges Lemaître obtuvo independientemente las ecuaciones Friedman-Lemaître-Robertson-Walker y propuso, sobre la base de la recesión de las nebulosas espirales, que el universo se inició con la explosión de un átomo primigenio, lo que más tarde fue llamado el Big Bang.

En 1929, Edwin Hubble realizó observaciones que sirvieron de base para comprobar la teoría de Lemaître. Hubble probó que las nebulosas espirales son galaxias y midió sus distancias observando las estrellas variable cefeida en galaxias distantes. Descubrió que las galaxias se alejan entre ellas a velocidades (relativas a la tierra) directamente proporcionales a su distancia. Este hecho se conoce ahora como la Ley de Hubble (véase Edwin Hubble: Marinero de las Nebulosas por Edward Christianson).

Según el principio cosmológico, el alejamiento de las galaxias sugería que el universo está en expansión. Esta idea ocasionó dos posibilidades opuestas. La primera era la teoría Big Bang de Lemaître, apoyada y desarrollada por George Gamow. La segunda posibilidad era el modelo de la teoría del estado estacionario de Fred Hoyle, en la cual la nueva materia sería creada mientras las galaxias se alejan entre ellas. En este modelo, el universo es básicamente el mismo en un momento dado en el tiempo. Durante muchos años hubo adeptos por igual a ambas teorías.

Con el pasar de los años, las evidencias observacionales apoyan la idea de que el universo evolucionó a partir de un estado denso y caliente. Desde el descubrimiento de la radiación de fondo de microondas en 1965, ha sido considerada como la mejor teoría para explicar el origen y evolución del cosmos. Antes de finales de los años 1960, muchos cosmólogos pensaban que la singularidad infinitamente densa del tiempo inicial en el modelo cosmológico de Friedman era una sobre idealización, y que el universo se contraería antes de empezar a expandirse nuevamente. Esta es la teoría de Richard Tolman de un universo oscilante. En los años 1960, Stephen Hawking y otros demostraron que esta idea no era factible, y que la singularidad es un componente esencial de la gravedad de Einstein. Esto llevó a la mayoría de los cosmólogos a aceptar la teoría del Big Bang, según la cual el universo que observamos se inició hace un tiempo finito.

Page 5: Cosmología

Prácticamente todos los trabajos teóricos actuales en cosmología tratan de extender o refinar elementos de la teoría del Big Bang. Mucho del trabajo actual en cosmología incluye el entender cómo se formaron las galaxias en el contexto del Big Bang, entender lo que allí ocurrió y cotejar nuevas observaciones con la teoría básica.

A finales de los años 1990 y principios del siglo XXI se lograron enormes avances en la cosmología del Big Bang como resultado de importantes avances en telescopía en combinación con grandes cantidades de datos satelitales de COBE, el telescopio espacial Hubble y WMAP. Estos datos han permitido a los cosmólogos calcular muchos de los parámetros del Big Bang hasta un nuevo nivel de precisión y condujeron al descubrimiento inesperado de que el universo está en aceleración.

Descripción del Big Bang Basándose en medidas de la expansión del universo utilizando observaciones de las supernovas tipo 1a, en medidas de la variación de temperatura en diferentes escalas en la radiación de fondo de microondas y en medidas de la función de correlación de las galaxias, la edad del universo es de 13,7 ± 0,2 miles de millones de años. Es notable el hecho de que tres medidas independientes sean consistentes, por lo que se consideran como una fuerte evidencia del llamado modelo de concordancia que describe la naturaleza detallada del universo.

El universo en sus primeros momentos estaba lleno homogénea e isotrópicamente con una energía muy densa y tenía una temperatura y presión concomitante. Se expandió y se enfrió, experimentando unos cambios de fase análogos a la condensación de vapor o la congelación de agua, pero relacionados con las partículas elementales.

Aproximadamente 10-35 segundos después de la época de Planck un cambio de fase causó que el universo se expandiese de forma exponencial durante un período llamado inflación cósmica. Al terminar la inflación, los componentes materiales del universo quedaron en la forma de un plasma quark-gluon en donde todas las partes que lo formaban estaban en movimiento en forma relativista. Con el crecimiento en tamaño del universo, la temperatura bajó. A cierta temperatura, debido a un cambio todavía desconocido llamado la bariogénesis, los quarks y gluones se combinaron en bariones tal como el protón y el neutrón, produciendo de alguna manera la asimetría observada entre materia y antimateria. Las temperaturas aún más bajas condujeron a nuevos cambios de fase que rompen la simetría así que les dieron su forma actual a las fuerzas fundamentales de la física y a las partículas elementales. Más tarde unos protones y neutrones se combinaron para formar los núcleos de deuterio y de helio en un proceso llamado nucleosíntesis primordial. Al enfriarse el universo, la materia gradualmente dejó de moverse de forma relativista y su densidad de energía comenzó a dominar gravitacionalmente sobre la radiación. Pasados 300.000 años, los electrones y los núcleos se combinaron para formar los átomos (mayoritariamente de hidrógeno). Por eso la radiación se desacopló de los átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la radiación de fondo de microondas.

Page 6: Cosmología

Al pasar el tiempo, algunas regiones ligeramente más densas de la materia casi uniformemente distribuida crecieron gravitacionalmente haciéndose más densas, formando nubes, estrellas, galaxias y el resto de las estructuras astronómicas que actualmente se observan. Los detalles de este proceso dependen de la cantidad y tipo de materia en el universo. Los tres tipos posibles se conocen como materia oscura fría, materia oscura caliente y materia bariónica. Las mejores medidas disponibles (provenientes del WMAP) muestran que la forma más común de materia en el universo es la materia oscura fría. Los otros dos tipos de materia sólo serían el 20% de la materia del universo.

El universo actual parece estar dominado por una forma misteriosa de energía conocida como energía oscura. Aproximadamente 70% de la densidad de energía del universo actual está en esa forma. Ese componente del universo se revela por su propiedad de causar que la expansión del universo varíe de una relación lineal entre velocidad y distancia produciendo que el espacio-tiempo se expanda más rápidamente que lo esperado a grandes distancias. La energía oscura toma la forma de una constante cosmológica en las ecuaciones de campo de Einstein de la relatividad general, pero los detalles de esta ecuación de estado y su relación con el modelo estándar de física de partículas continúan siendo investigados tanto de forma teórica como por medio de observaciones.

Más misterios aparecen cuando se investiga más cerca del principio, cuando las energías de las partículas eran más altas de lo que ahora se puede estudiar mediante experimentos. No hay ningún modelo físico convincente para el primer 10-33 segundo del universo, antes del cambio de fase que forma parte de la teoría de unificación grande. En el "primer instante", la teoría gravitacional de Einstein predice una singularidad gravitacional en donde las densidades son infinitas. Para resolver esta paradoja física, hace falta una teoría de la gravedad cuántica. La comprensión de este período de la historia del universo figura entre los mayores problemas no solucionados de la física.

Base teórica La teoría del Big Bang en su forma actual depende de tres suposiciones:

1. La universalidad de las leyes de la física 2. El principio cosmológico 3. El principio de Copérnico

Inicialmente, estas tres ideas fueron tomadas como postulados, pero actualmente se intenta verificar cada una de ellas. La universalidad de las leyes de física ha sido verificada al nivel de las más grandes constantes físicas llevando su margen de error hasta el orden de 10-5. La isotropía del universo que define el principio cosmológico ha sido verificada hasta un orden de 10-5. Actualmente se intenta verificar el principio copernicano observando la interacción entre grupos de galaxias y el CMB por medio del efecto Sunyaev-Zeldovich con un nivel de exactitud del 1%.

La teoría del Big Bang utiliza el postulado de Weyl para medir sin ambigüedad el tiempo en cualquier momento en el pasado a partir del la época de Planck. Las

Page 7: Cosmología

medidas en este sistema dependen de coordenadas conformales en las cuales las llamadas distancias codesplazantes y tiempos conformales permiten no considerar la expansión del universo para las medidas de espacio-tiempo. En ese sistema de coordenadas, los objetos que se mueven con el flujo cosmológico mantienen siempre la misma distancia codesplazante y el horizonte o límite del universo se fija por el tiempo codesplazante.

Visto así, el Big Bang no es una explosión de materia que se aleja para llenar un universo vacío, es el espacio-tiempo el que se extiende. Y su expansión es la que causa el incremento de la distancia física entre dos puntos fijos en nuestro universo. Cuando los objetos están ligados entre ellos (por ejemplo por una galaxia), no se alejan con la expansión del espacio-tiempo debido a que se asume que las leyes de la física que los gobiernan son uniformes e independientes del espacio métrico. Más aún, la expansión del universo en las escalas actuales locales es tan pequeño que cualquier dependencia de las leyes de física en la expansión no sería medible con las técnicas actuales.

Evidencias En general, se consideran tres las evidencias empíricas que apoyan la teoría cosmológica del Big Bang. Éstas son la expansión del universo que se expresa en la Ley de Hubble y que se puede apreciar en el corrimiento hacia el rojo de las galaxias, las medidas detalladas del fondo cósmico de microondas, y la abundancia de elementos ligeros. Además, la función de correlación de la estructura a gran escala en el universo encaja con la teoría del Big Bang.

Expansión expresada en la ley de Hubble

Artículo principal: ley de Hubble

De la observación de galaxias y quasars lejanos se desprende que estos objetos sufren un corrimiento hacia el rojo, lo que quiere decir que la luz que emiten se ha desplazado proporcionalmente hacia longitudes de onda más largas. Esto se comprueba tomando el espectro de los objetos y después comparando el patrón espectroscópico de las líneas de emisión o absorción correspondientes a átomos de los elementos que interactúan con la radiación. En este análisis, se puede apreciar cierto corrimiento hacia el rojo, lo que se explica por una velocidad recesional correspondiente al efecto Doppler en la radiación. Al representar estas velocidades recesionales frente a las distancias a los objetos, guardan una relación lineal, conocida como Ley de Hubble:

v = H0 D

donde v es la velocidad recesional, D es la distancia al objeto y H0 es la constante de Hubble, que el satélite WMAP estimó en 71 ± 4 km/s/Mpc

Fondo cósmico de microondas

Page 8: Cosmología

WMAP imagen de la radiación de fondo de microondas Artículo principal: Radiación de fondo de microondas

Una de las características de la teoría del Big Bang es la predicción de la radiación de fondo de microondas o CMB (Cosmic microwave background). El universo temprano, debido a su alta temperatura, se habría llenado de luz emitida por sus otros componentes. Mientras el universo se enfriaba debido a la expansión, su temperatura habría caído por debajo de 3.000 K. Por encima de esta temperatura, los electrones y protones están separados, haciendo el universo opaco a la luz. Por debajo de 3.000 K, se forman los átomos, permitiendo el paso de la luz a través del gas del universo. Esto es lo que se conoce como disociación de fotones (***).

La radiación en este momento habría tenido el espectro del cuerpo negro y habría viajado libremente durante el resto de vida del universo, sufriendo un corrimiento hacia el rojo como consecuencia de la expansión de Hubble. Esto hace variar el espectro del cuerpo negro de 3.000 K (*) a un espectro del cuerpo negro con una temperatura mucho menor. La radiación, vista desde cualquier punto del universo, parecerá provenir de todas las direcciones en el espacio.

En 1964, Arno Penzias y Robert Wilson, mientras desarrollaban una serie de observaciones de diagnóstico con un receptor de microondas propiedad de los Laboratorios Bell descubrieron el fondo cósmico de microondas. Su descubrimiento proporcionó una confirmación sustancial de las predicciones generales respecto al CMB —la radiación resultó ser isotrópica y constante, con un espectro del cuerpo negro de cerca de 3 K— e inclinó la balanza hacia la hipótesis del Big Bang. Penzias y Wilson recibieron el Premio Nobel por su descubrimiento.

En 1989, la NASA lanzó el COBE (Cosmic background Explorer, y los resultados iniciales, proporcionados en 1990, fueron consistentes con las predicciones generales que la teoría del Big Bang hace sobre la CMB. El COBE halló una temperatura residual de 2.726 K y determinó que el CMB era isotrópico en torno a una de cada 105 partes. Durante la década de los 90 se investigó más extensamente la anisotropía en el CMB mediante un gran número de experimentos en tierra y, midiendo la distancia angular media (la distancia en el cielo) de las anisotropías, se vio que el universo era geométricamente plano.***

A principios de 2003 se dieron a conocer los resultados de la Sonda Wilkinson de Anisotropías del fondo de Microondas (en inglés Wilkinson Microwave Anisotropy Probe o WMAP), mejorando los que hasta entonces eran los valores más precisos de algunos parámetros cosmológicos. (Véase también experimentos sobre el fondo cósmico de microondas). Este satélite también refutó varios

Page 9: Cosmología

modelos inflacionistas específicos, pero los resultados eran constantes con la teoría de la inflación en general.

Abundancia de elementos primordiales

Artículo principal: Nucleosíntesis primordial

Se puede calcular, usando la teoría del Big Bang, la concentración de helio-4, helio-3, deuterio y litio-7 en el universo como proporciones con respecto a la cantidad de hidrógeno normal, H. Todas las abundancias dependen de un solo parámetro, la razón entre fotones y bariones. La proporción predicha es de cerca de 0,25 para 4He/H, alrededor de 10-3 para ²H/H, alrededor de 10-4 para ³He/H y cerca de 10-9 para el 7Li/H.

Estas abundancias medidas concuerdan con las predichas a partir de un único valor de la razón barión frente a fotón***, y se considera una fuerte evidencia en favor del Big Bang, ya que esta teoría es la única explicación conocida para la abundancia relativa de elementos ligeros. De hecho no hay, fuera de la teoría del Big Bang, ninguna otra razón obvia por la que el universo debiera, por ejemplo, tener más helio-4 que deuterio o más deuterio que helio-3.

Evolución y distribución galáctica

Las observaciones detalladas de la morfología y estructura de las galaxias y quasars proporcionan una fuerte evidencia del Big-Bang. La combinación de las observaciones con la teoría sugiere que los primeros quasars y galaxias se formaron hace alrededor de mil millones de años después del Big Bang, y desde ese momento se han estado formando estructuras más grandes, como los cúmulos de galaxias y supercúmulos. Las poblaciones de estrellas han ido envejeciendo y evolucionando, de modo que las galaxias lejanas (que se observan tal y como eran en el principio del universo) son muy diferentes de las galaxias cercanas (que se observan en un estado más reciente). Por otro lado, las galaxias formadas hace relativamente poco son muy diferentes de las galaxias que se formaron a distancias similares pero poco después del Big Bang. Estas observaciones son argumentos sólidos en contra de la teoría del estado estacionario. Las observaciones de la formación estelar, la distribución de quasars y galaxias, y las estructuras más grandes concuerdan con las simulaciones obtenidas sobre la formación de la estructura en el universo a partir del Big Bang, y están ayudando a completar detalles de la teoría.

Problemas comunes

Históricamente, han surgido un cierto número de problemas dentro de la teoría del Big Bang. Algunos de ellos sólo tienen interés histórico y han sido evitados, sea por medio de modificaciones a la teoría o como resultado de observaciones más precisas. Otros aspectos, como el problema de la penumbra en cúspide y el problema de la galaxia enana de materia oscura fría, no son considerados graves dado que pueden ser resueltos por refinamiento de la teoría.

Page 10: Cosmología

Existe un pequeño número de proponentes de cosmologías no estándar que piensan que no hubo Big Bang. Afirman que las soluciones a los problemas conocidos del Big Bang contienen modificaciones ad hoc y agregados a la teoría. Las partes más atacadas de la teoría incluyen lo concerniente a la materia oscura, la energía oscura y la inflación cósmica. Estas características del universo son cada una sugeridas por observaciones de la radiación de fondo de microondas, la estructura a gran escala del cosmos y las supernovas de tipo IA, pero se encuentran en la frontera de la física moderna (ver problemas no resueltos de la física). Si bien los efectos gravitacionales de materia y energía oscuras son bien conocidos de forma observacional y teórica, todavía no han sido incorporados al modelo estándar de la física de partículas de forma aceptable. Estos aspectos de la cosmología estándar siguen sin tener una explicación adecuada, pero la mayoría de astrónomos y físicos aceptan que la concordancia entre la teoría del Big Bang y la evidencia observacional es tan cercana que permite establecer con cierta seguridad casi todos los aspectos básicos de la teoría.

Los siguientes son algunos de los problemas y enigmas comunes del Big Bang:

El problema del horizonte

El problema del horizonte, también llamado problema de la causalidad, resulta del hecho de que la información no puede viajar más rápido que la luz, de manera que dos regiones en el espacio separadas por una distancia mayor que la velocidad de la luz multiplicada por la edad del universo no pueden estar causalmente conectadas. La isotropía observada de la radiación de fondo de microondas (CMB) es en este aspecto problemática debido a que el tamaño del horizonte de partículas en ese tiempo corresponde a un tamaño de cerca de dos grados en el cielo. Si el universo hubiera tenido la misma historia de expansión desde la época de Planck, no habría mecanismo que pudiera hacer que estas regiones tuvieran la misma temperatura.

Esta aparente inconsistencia se resuelve con la teoría inflacionista en la cual un campo de energía escalar isotrópico domina el universo al transcurrir un tiempo de Planck luego de la época de Planck. Durante la inflación, el universo sufre una expansión exponencial, y regiones que se afectan entre ellas se expanden más allá de sus respectivos horizontes. El principio de incertidumbre de Heisenberg predice que durante la fase inflacionista habrá fluctuaciones primordiales, que serán amplificadas hasta la escala cósmica. Estas fluctuaciones sirven de semilla para toda la estructura actual del universo. Al pasar la inflación, el universo se expande siguiendo la ley de Hubble y las regiones que estaban demasiado lejos para afectarse entre ellas vuelven al horizonte. Esto explica la isotropía observada de la CMB. La inflación predice que las fluctuaciones primordiales son casi invariantes según la escala y que tienen una distribución normal o gaussiana, lo cual ha sido confirmado con precisión por medidas de la CMB.

En 2003 apareció otra teoría para resolver este problema, la velocidad variante de la luz de Joao Magueijo, que aunque a la larga contradice la relatividad de Einstein usa su ecuación incluyendo la constante cosmológica para resolver el problema de una forma muy eficaz que también ayuda a solucionar el problema de la planeidad.

Page 11: Cosmología

El problema de la planitud

El problema de la planitud (flatness en inglés) es un problema observacional que resulta de las consecuencias que la métrica de Friedmann-Lemaître-Robertson-Walker tiene para con la geometría del universo. En general, se considera que existen tres tipos de geometrías posibles para nuestro universo según su curvatura: geometría hiperbólica, geometría euclidiana o plana y geometría elíptica. Dicha geometría viene determinada por la cantidad total de densidad de energía del universo (medida mediante el tensor de tensión-energía).

Siendo ρ la densidad de energía medida observacionalmente y ρc la densidad crítica se tiene que para las diferentes geometrías las relaciones entre ambos parámetros han de ser las que siguen:

Hiperbólico --> ρ < ρc || Plano --> ρ = ρc || Elíptico --> ρ > ρc

Se ha medido que en los primeros momentos del universo su densidad tuvo que ser 10-15 veces (una milbillonésima parte) la densidad crítica. Cualquier desviación mayor hubiese conducido a una muerte térmica o un Big Crunch y el universo no sería como ahora. La solución a este problema viene de nuevo de la teoría inflacionaria. Durante el periodo inflacionario el espaciotiempo se expandió tan rápido que provocó una especie de estiramiento del universo acabando con cualquier curvatura residual que pudiese haber. Así la inflación pudo hacer al universo plano, de ahí el nombre planitud.

Edad de los cúmulos globulares

A mediados de los años 90, las observaciones realizadas de los cúmulos globulares parecían no concondar con la Teoría del Big Bang. Las simulaciones realizadas por ordenador de acuerdo con las observaciones de las poblaciones estelares de cúmulos de galaxias sugirieron una edad de cerca de 15.000 millones de años, lo que entraba en conflicto con la edad del universo, estimada en 13.700 millones de años. El problema quedó resuelto a finales de esa década, cuando las nuevas simulaciones realizadas, que incluían los efectos de la pérdida de masa debida a los vientos estelares, indicaron que los cúmulos globulares eran mucho más jóvenes. Quedan aún en el aire algunas preguntas en cuanto a con qué exactitud se miden las edades de los cúmulos, pero está claro que éstos son algunos de los objetos más antiguos del universo.

Monopolos magnéticos

La objeción de los monopolos magnéticos fue propuesta a finales de la década de 1970. Las teorías de la gran unificación predicen defectos topológicos en el espacio que se manifestarían como monopolos magnéticos encontrándose en el espacio con una densidad mucho mayor a la observada. De hecho, hasta ahora, no se ha dado con ningún monopolo. Este problema también queda resuelto mediante la inflación cósmica, dado que ésta elimina todos lo puntos defectuosos del universo observable de la misma forma que conduce la geometría hacia su forma plana. Es posible que aun así pueda haber monopolos

Page 12: Cosmología

pero se ha calculado que apenas si habría uno por cada universo visible, una cantidad ínfima y no observable en todo caso.

Materia oscura

En las diversas observaciones realizadas durante las décadas de los 70 y 80 (sobre todo las de las curvas de rotación de las galaxias) se mostró que no había suficiente materia visible en el universo para explicar la intensidad aparente de las fuerzas gravitacionales que se dan en y entre las galaxias. Esto condujo a la idea de que hasta un 90% de la materia en el universo no es materia común o bariónica sino materia oscura. Además, la asunción de que el universo estuviera compuesto en su mayor parte por materia común llevó a predicciones que eran fuertemente inconsistentes con las observaciones. En particular, el universo es mucho menos "inhomogéneo" y contiene mucho menos deuterio de lo que se puede considerar sin la presencia de materia oscura. Mientras que la existencia de la materia oscura era inicialmente polémica, ahora es una parte aceptada de la cosmología estándar, debido a las observaciones de las anisotropías en el CMB, dispersión de velocidades de los cúmulos de galaxias, y en las estructuras a gran escala, estudios de las lentes gravitacionales y medidas por medio de rayos x de los cúmulos de galaxias. La materia oscura se ha detectado únicamente a través de su huella gravitacional; no se ha observado en el laboratorio ninguna partícula que se le pueda corresponder. Sin embargo, hay muchos candidatos a materia oscura en física de partículas (como, por ejemplo, las partículas pesadas y neutras de interacción débil o WIMPS (Wikly interactive massive particles)), y se están llevando a cabo diversos proyectos para detectarla.

Energía oscura

En los años 90, medidas detalladas de la densidad de masa del universo revelaron que ésta sumaba en torno al 30% de la densidad crítica. Puesto que el universo es plano, como indican las medidas del fondo cósmico de microondas, quedaba un 70% de densidad de energía sin contar. Este misterio aparece ahora conectado con otro: las mediciones independientes de las supernovas de tipo Ia han revelado que la expansión del universo experimenta una aceleración de tipo no lineal, en vez de seguir estrictamente la Ley de Hubble. Para explicar esta aceleración, la relatividad general necesita que gran parte del universo consista en un componente energético con gran presión negativa. Se cree que esta energía oscura constituye ese 70% restante. Su naturaleza sigue siendo uno de los grandes misterios del Big Bang. Los candidatos posibles incluyen una constante cosmológica escalar y una quintaesencia. Actualmente se están realizando observaciones que podrían ayudar a aclarar este punto.

El futuro de acuerdo a la teoría del Big Bang

Más información en: Destino último del universo

Antes de las observaciones de la energía oscura, los cosmólogos consideraron dos posibles escenarios para el futuro del universo. Si la densidad de masa del

Page 13: Cosmología

Universo se encuentra sobre la densidad crítica, entonces el Universo alcanzaría un tamaño máximo y luego comenzaría a colapsarse. Este se haría más denso y más caliente nuevamente, terminando en un estado similar al estado en el cual empezó en un proceso llamado Big Crunch. Por otro lado, si la densidad en el Universo es igual o menor a la densidad crítica, la expansión disminuiría su velocidad, pero nunca se detendría. La formación de estrellas cesaría mientras el Universo en crecimiento se haría menos denso cada vez. El promedio de la temperatura del universo podría acercarse asintóticamente al cero absoluto (0 K ò -273,15ºC). Los agujeros negros se evaporarían por efecto de la radiación Hawking. La entropía del universo se incrementaría hasta el punto en que ninguna forma de energía podría ser extraída de él, un escenario conocido como muerte térmica. Más aún, si existe la descomposición del protón, proceso por el cual un protón decaería a partículas menos masivas emitiendo radiación en el proceso, entonces todo el hidrógeno, la forma predominante del materia bariónica en el universo actual, desaparecería a muy largo plazo, dejando solo radiación.

Las observaciones modernas de la expansión acelerada implican que cada vez una mayor parte del universo visible en la actualidad quedará más allá de nuestro horizonte de sucesos y fuera de contacto. Se desconoce cuál sería el resultado de este evento. El modelo Lambda-CMD del universo contiene energía oscura en la forma de una constante cosmológica (de alguna manera similar a la que había incluido Einstein en su primera versión de las ecuaciones de campo). Esta teoría sugiere que sólo los sistemas mantenidos gravitacionalmente, como las galaxias, se mantendrían juntos, y ellos también estarían sujetos a la muerte térmica a medida que el universo se enfriase y expandiese. Otras explicaciones de la energía oscura-llamadas teorías de la energía fantasma sugieren que los cúmulos de galaxias y finalmente las galaxias mismas se desgarrarán por la eterna expansión del universo, en el llamado Big Rip.

Física especulativa más allá del Big Bang A pesar de que el modelo del Big Bang se encuentra bien establecido en la cosmología, es probable que se refine en el futuro. Se tiene muy poco conocimiento sobre el universo más temprano, durante el cual se postula que ocurrió la inflación. También es posible que existan porciones del Universo mucho más allá de lo que es observable en principio. En la teoría de la inflación, ésto es un requisito: La expansión exponencial ha empujado grandes regiones del espacio más allá de nuestro horizonte observable. Puede ser posible deducir qué ocurrió cuando tengamos un mejor entendimiento de la física a altas energías. Las especulaciones hechas al respecto, por lo general involucran teorías de gravedad cuántica.

Algunas propuestas son:

inflación caótica cosmología de membranas incluyendo el modelo ekpyrotico en el cual el

Big Bang es el resultado de una colisión entre membranas.

Page 14: Cosmología

un universo oscilante en el cual el estado primitivo denso y caliente del universo temprano deriva del Big Crunch de un universo similar al nuestro. El universo pudo haber atravesado un número infinito de big bangs y big crunchs. El cíclico, una extensión del modelo ekpyrótico, es una variación moderna de esa posibilidad.

modelos que incluyen la condición de contorno de Hartle-Hawking en la cual totalidad del espacio-tiempo es finito. Algunas posibilidades son compatibles cualitativamente unas con otras. En cada una se encuentran involucradas hipótesis aún no testeadas.

Interpretaciones filosóficas y religiosas

Existe un gran número de interpretaciones sobre la teoría del Big Bang que son completamente especulativas o extra-científicas. Algunas de estas ideas tratan de explicar la causa misma del Big Bang (primera causa), y fueron criticadas por algunos filósofos naturalistas por ser solamente nuevas versiones del mito de la creación. Algunas personas creen que la teoría del Big Bang brinda soporte a antiguos enfoques de la creación, como por ejemplo el que se encuentra en el Génesis, mientras otros creen que todas las teorías del Big Bang son inconsistentes con las mismas.

El Big Bang como teoría científica no se encuentra asociado con ninguna religión. Mientras algunas interpretaciones fundamentalistas de las religiones entran en conflicto con la historia del universo postulada por la teoría del Big Bang, la mayoría de las interpretaciones son liberales.

A continuación sigue una lista de varias interpretaciones religiosas de la teoría del Big Bang:

Un número de apólogos del Cristianismo, la Iglesia Católica Romana en particular, han aceptado el Big Bang como una descripción del origen del Universo, interpretando que da a lugar a una primer causa filosófica. El Papa Pío XII fue un entusiasta impulsor de la teoría del Big Bang, incluso antes de que fuera establecida científicamente.

Algunos estudiantes del Kabbalah, el deísmo y otras fes no antropomórficas, concuerdan con la teoría del Big Bang, conectándola por ejemplo con la teoría de la "retracción divina" (tzimtzum) como es explicado por el Judío Moises Maimonides.

Algunos islamicos modernos creen que el Corán hace un paralelo con el Big Bang en su relato sobre la creación, descripta como sigue: "¿No ven los no creyentes que los cielos y la tierra fueron unidos en una sola unidad de creación, antes de que nosotros los separáramos a la fuerza? Hemos creado todos los seres vivientes a partir del agua." (Cap:21,Ver:30). El Corán también parece describir un universo en expansión: "Hemos construido el cielo con poder, y lo estamos expandiendo." (Cap:52,Ver:47).

Algunas ramas teístas del Hinduísmo, tales como las tradiciones de Baishnava, conciben una teoría de la creación con ejemplos narrados en el tercer libro de la Bhagavata Purana (principalmente, en los capítulos 10 y 26), donde se describe un estado primordial el cual explota mientras el

Page 15: Cosmología

Gran Vishnu observa, transformándose en el estado activo de la suma total de la materia ("prakriti").

El Budismo posee una concepción del universo en el cual no hay un evento de creación. Sin embargo, no parece ser que la teoría del Big Bang entrara en conflicto con la misma, ya que existen formas de obtener un universo eterno según el paradigma. Cierto número de filósofos Zen populares estuvieron muy interesados, en particular, por el concepto del universo oscilante

Bibliografías GRIBBIN, John. En busca del Big Bang. Colección "Ciencia hoy". Madrid:

Ediciones Pirámide, 09/1989. ISBN 84-368-0421-X e ISBN 978-84-368-0421-8.

RIBÓN SÁNCHEZ, Mariano. Causas del big-bang. Barcelona: Ribón Sánchez, Mariano , 01/2005. ISBN 84-609-3955-3 e ISBN 978-84-609-3955-9.

HAWKING, S. W. Historia del tiempo : del Big Bang a los agujeros negros. Barcelona: Círculo de Lectores, 09/1991. ISBN 84-226-2715-9 e ISBN 978-84-226-2715-9.

Inglés

Introducciones técnicas

S. Dodelson, Modern Cosmology, Academic Press (2003). Released slightly before the WMAP results, this is the most modern introductory textbook.

E. W. Kolb and M. S. Turner, The Early Universe, Addison-Wesley (1990). This is the classic reference for cosmologists.

P. J. E. Peebles, Principles of Physical Cosmology, Princeton University Press (1993). Peebles' book has a strong historical focus.

Fuentes de primera mano

G. Lemaître, "Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques" (A homogeneous Universe of constant mass and growing radius accounting for the radial velocity of extragalactic nebulae), Annals of the Scientific Society of Brussels 47A (1927):41—General Relativity implies the universe has to be expanding. Einstein brushed him off in the same year. Lemaître's note was translated in Monthly Notices of the Royal Astronomical Society 91 (1931): 483–490.

G. Lemaître, Nature 128 (1931) suppl.: 704, with a reference to the primeval atom.

R. A. Alpher, H. A. Bethe, G. Gamow, "The Origin of Chemical Elements, "Physical Review 73 (1948), 803. The so-called αρρ paper, in which Alpher and Gamow suggested that the light elements were created by protons capturing neutrons in the hot, dense early universe. Bethe's name was added for symmetry.

Page 16: Cosmología

G. Gamow, "The Origin of Elements and the Separation of Galaxies," Physical Review 74 (1948), 505. These two 1948 papers of Gamow laid the foundation for our present understanding of big-bang nucleosynthesis.

G. Gamow, Nature 162 (1948), 680. R. A. Alpher, "A Neutron-Capture Theory of the Formation and Relative

Abundance of the Elements," Physical Review 74 (1948), 1737. R. A. Alpher and R. Herman, "On the Relative Abundance of the

Elements," Physical Review 74 (1948), 1577. This paper contains the first estimate of the present temperature of the universe.

R. A. Alpher, R. Herman, and G. Gamow Nature 162 (1948), 774. A. A. Penzias and R. W. Wilson, "A Measurement of Excess Antenna

Temperature at 4080 Mc/s," Astrophysical Journal 142 (1965), 419. The paper describing the discovery of the cosmic microwave background.

R. H. Dicke, P. J. E. Peebles, P. G. Roll and D. T. Wilkinson, "Cosmic Black-Body Radiation," Astrophysical Journal 142 (1965), 414. The theoretical interpretation of Penzias and Wilson's discovery.

A. D. Sakharov, "Violation of CP invariance, C asymmetry and baryon asymmetry of the universe," Pisma Zh. Eksp. Teor. Fiz. 5, 32 (1967), translated in JETP Lett. 5, 24 (1967).

R. A. Alpher and R. Herman, "Reflections on early work on 'big bang' cosmology" Physics Today Aug 1988 24–34. A review article.

Religión y filosofía

Leeming, David Adams, and Margaret Adams Leeming, A Dictionary of Creation Myths. Oxford University Press (1995), ISBN 0195102754.

Pío XII (1952), "Modern Science and the Existence of God," The Catholic Mind 49:182–192.

Enlaces externos Open Directory Project: Cosmology PBS.org, "From the Big Bang to the End of the Universe. The Mysteries of

Deep Space Timeline" "Welcome to the History of the Universe". Penny Press Ltd. Cambridge University Cosmology, "The Hot Big Bang Model". Includes a

discussion of the problems with the big bang. Smithsonian Institution, "UNIVERSE! - The Big Bang and what came

before". D'Agnese, Joseph, "The last Big Bang man left standing, physicist Ralph

Alpher devised Big Bang Theory of universe". Discover, July 1999. Felder, Gary, "The Expanding Universe". LaRocco, Chris and Blair Rothstein, "THE BIG BANG: It sure was BIG!!". Mather, John C., and John Boslough 1996, The very first light: the true

inside story of the scientific journey back to the dawn of the universe. ISBN 0-465-01575-1 p.300

Shestople, Paul, ""Big Bang Primer". Singh, Simon, Big Bang: the origin of the universe, Fourth Estate (2005). A

historical review of the big bang. Sample text and reviews can be found at [1].

Page 17: Cosmología

Wright, Edward L., "Brief History of the Universe". Ciertos científicos escriben acerca del big bang.

Artículos de investigación

La mayoría de los artículos científicos sobre cosmología están disponibles como preimpresos en [2]. Generalmente son muy técnicos, pero algunas veces tienen una introducción clara en inglés. Los archivos más relevantes, que cubren experimentos y teoría están el el archivo de astrofísica, donde se ponen a disposición artículos estrechamente basados en observaciones, y el archivo de relatividad general y cosmología cuántica, el cual cubre terreno más especulativo. Los artículos de interés para los cosmólogos también aparecen con frecuencia en el archivo sobre Fenómenos de alta energía y sobre teoría de alta energía

Cronología del Big Bang

Instante fugaz entre la explosión original y los 10- 43

Cuanto más nos acercamos al Big Bang más energéticos son los procesos y más dudoso es nuestro conocimiento. Para algunos físicos el Universo surgió de una fluctuación en la "nada". En estos primeros instantes el Universo se encontraba en un estado de extrema sencillez, y toda la materia se hallaba bajo la forma de toda la energía

Instante comprendido entre los 1×10- 43 y los 10 segundos

La expansión del espacio-tiempo (formando 4 dimensiones) y el enfriamiento permiten que parte de la energía se materialice y se forman partículas elementales de materia: quarks y leptones (entre ellos los electrones). La fuerza nuclear fuerte permite la unión de quarks para formar protones y neutrones.

Instante comprendido entre los 10 segundos y los 106 años

La fuerza nuclear fuerte permite la unión de protones y neutrones para formar núcleos atómicos. Cuando el universo tiene 300.000 años se ha enfriado lo suficiente para que actúe la fuerza electromagnética que permite la asociación de los núcleos atómicos con sus correspondientes electrones para formar átomos.

Instante comprendido entre los 106 años y el momento actual

Actúa la fuerza de la gravedad sobre los átomos de hidrógeno y helio, que forman densas nubes de gas a partir de las cuales se formarán las galaxias y en ellas las estrellas, los planetas y tal vez alguno de ellos, como la Tierra sea el escenario donde la materia se organice y forme seres vivos.

La materia oscura puede provocar el Big Crunch que está conectado con otro Big Bang a través de un agujero de gusano, como representa la serpiente Uroboros,(de un mito Hindú). Es una serpiente que se muerde la cola

Page 18: Cosmología

representando así la armonía entre los extremos, en el universo en el que todo se crea a sí mismo.

Agujero blanco Agujero Blanco

Un agujero blanco es un objeto celeste con una densidad tal que deforma el espacio pero que, a diferencia del agujero negro, deja escapar materia y energía en lugar de absorberla.

Los más importantes avances en esta teoría son debidos a los trabajos independientes de los matemáticos Igor Nivikov y Yuval Ne'eman en la década de 1960, basados en la solución de Schwarzschild de las ecuaciones de la relatividad.

Aunque su existencia no ha podido aún ser demostrada, se supone que dentro de dicha solución, el astro oscuro, tendría una anatomía que integraría un agujero negro, un agujero de gusano y un agujero blanco.

Agujeros blancos y termodinámica

Al ser la desaparición de la materia en un punto sin fin contradictoria con la primera y segunda ley de la termodinámica, en un principio se llegó a la conclusión de que la materia debía de reaparecer en algún punto. Debido a esto se propuso a los agujeros blancos como los responsables de recuperar esa energía extraída por el agujero negro.

Tiempo atrás se creyó que la actividad de los agujeros blancos podía dar lugar a la formación de universos nuevos, que crecían después de haberse acumulado la suficiente materia crítica como para iniciar una expansión a gran escala. También estaba en boga la idea de que los universos mantenían su equilibrio energético debido a intercambios de materia entre ellos por redes de agujeros de gusano, siendo los agujeros blancos sus canales de escape, obedeciendo así a la primera ley de la termodinámica.

Agujero de gusano En física, un agujero de gusano, también conocido como un puente de Einstein-Rosen, es una hipotética característica topológica del espacio-tiempo, descrita por las ecuaciones de la relatividad general, la cual es esencialmente un "atajo" a través del espacio y el tiempo. Un agujero de gusano tiene por lo menos dos extremos, conectados a una única "garganta", pudiendo la materia 'viajar' de un extremo a otro pasando a través de ésta.

Page 19: Cosmología

En este sentido es una actualización de la decimonónica teoría de una cuarta dimensión espacial que suponía -por ejemplo- dado un cuerpo toroidal en el que se podían encontrar las tres dimensiones espaciales comúnmente perceptibles, una cuarta dimensión espacial que abreviara las distancias...y así los tiempos de viaje.

En la actualidad la Teoría de cuerdas admite la existencia de más de tres dimensiones espaciales, pero las otras dimensiones espaciales estarían contractadas o compactadas a escalas subatómicas (según el modelo topológico de Kaluza-Klein) por lo que parece muy difícil (diríase "imposible) aprovechar tales dimensiones espaciales "extra" para viajes en el espacio y en el tiempo.

El nombre "agujero de gusano" viene de la siguiente analogía, usada para explicar el fenómeno: imagine que el universo es la cáscara de una manzana, y un gusano viaja sobre su superficie. La distancia desde un lado de la manzana hasta el otro es igual a la mitad de la circunferencia de la manzana si el gusano permanece sobre la superficie de ésta, pero si en vez de ésto, cavara un agujero directamente a través de la manzana la distancia que tiene que viajar es considerablemente menor.

Debido a la posibilidad teórica de atravesar grandes distancias en el espacio-tiempo de forma "instantánea", se utilizan habitualmente en ciencia ficción para justificar el viaje a regiones lejanas del universo en tiempos cortos (véase, por ejemplo, Stargate, o Viaje a las estrellas).

Agujero negro de Kerr

Un agujero negro de Kerr o agujero negro en rotación es aquel que se define por dos parámetros: la masa M y el momento angular J. Esta solución nace del éxito del matemático Roy Kerr al resolver las ecuaciones de la relatividad en torno a un objeto masivo en rotación.

Un agujero negro de Kerr es una región no isotrópica que queda delimitada por un horizonte de sucesos y una ergoesfera presentando notables diferencias con respecto al agujero negro de Schwarzschild. Esta nueva frontera describe una región donde la luz aun puede escapar pero cuyo giro induce altas energías en los fotones que la cruzan. Debido a la conservación del momento angular, este espacio forma un elipsoide, en cuyo interior se encuentra un solo horizonte de sucesos con su respectiva singularidad, que debido a la rotación deja de ser un punto para transformarse en un anillo.

La zona que delimita la frontera de la ergoesfera se llama límite estático, que al ser pasada nada puede escapar, y su fórmula depende de la masa y el momento angular del agujero:

Page 20: Cosmología

Donde es el perímetro de la ergoesfera, M es la masa y a es el parámetro de

rotación determinado por (donde J es el momento angular).

Antes del límite estático y más allá...

Fuera de la ergoesfera se genera, en caso de tener una estrella compañera, otra zona llamada disco de acreción, donde la materia interestelar que es atraída por la fuerte curvatura del agujero negro, se arremolina alrededor alcanzando intensas energías. Se ha especulado que esto puede llevar a que se generen intensas corrientes eléctricas, cuyo flujo daría a lugar a un poderoso campo magnético que actuaría como un electroimán gigante.

Entre la ergoesfera y el horizonte de sucesos, se forma una región de dirección obligada, que atrae inevitablemente a todo objeto que en ella se encuentre, y cuya turbulencia es enorme debido a la rotación del agujero negro. Ya en el borde interno, o límite del horizonte de sucesos, nada escapa de la fuerza gravitatoria generada por la singularidad..

Agujero negro de Reissner-Nordstrom Un agujero negro de Reissner-Nordstrøm es un agujero negro estático, con simetría esférica y con carga eléctrica, viene definido por dos parámetros: la masa M y la carga eléctrica Q. Su solución fue obtenida en 1918 por los matemáticos Hans Reissner y Gunnar Nordstrøm a las ecuaciones de campo de relatividad en torno a un objeto masivo eléctricamente cargado y carente de momento angular.

El agujero negro de Reissner-Nordstrøm es una región isotrópica que queda delimitada por dos horizontes de sucesos: uno externo llamado sin más horizonte de sucesos, y otro interno llamado horizonte de Cauchy. Dichos espacios forman una esfera perfecta, debido a la carencia de momento angular, en cuyo centro se encuentra una singularidad simple (el caso contrario sería un agujero negro de Kerr-Newman). La fórmula que determina la distancia de esta con respecto a los respectivos horizontes de sucesos depende únicamente de la masa y la carga del agujero:

Donde r es la distancia de cada horizonte de sucesos, M es la masa, Q es la carga eléctrica y el signo determina el horizonte de sucesos en cuestión, siendo el valor positivo (r + ) para el horizonte externo y el negativo (r − ) para el horizonte de Cauchy.

Sobre la relación Q y M

Page 21: Cosmología

Los valores que toman la carga eléctrica y la masa son muy importantes en la anatomía de un agujero negro de Reissner-Nordstrøm, debido a que es su relación la que determina el límite concreto entre sus horizontes de sucesos. Existen básicamente tres relaciones:

| Q | < M o, como es usual, | Q | < < M: se parece mucho al caso del agujero negro de Schwarzschild pero con dos horizontes de sucesos a una distancia razonable el uno del otro.

|Q | = M: para este caso los horizontes de sucesos se fusionan, formando un horizonte continuo que rodea a la singularidad.

| Q | > M: se supone que este caso no existe en la naturaleza, debido a que no es común que la carga eléctrica supere a la gravedad, pues con ello los horizontes se anulan dejando visible a la singularidad. Además, existe la llamada hipótesis del sensor cósmico, propuesta por el matemático Roger Penrose en 1965, que no permite la existencia de singularidades desnudas en el universo.

Agujero negro de Schwarzschild

Un agujero negro de Schwarzschild o agujero negro estático es aquel que se define por un solo parámetro, la masa M. Es la primera solución propuesta y también la más simple a las ecuaciones de relatividad general y fue encontrada por Karl Schwarzschild.

El agujero negro de Schwarzschild es una región isotrópica que queda delimitada por una superficie imaginaria llamada horizonte de sucesos. Esta frontera describe un espacio del cual ni siquiera la luz puede escapar, de ahí el nombre de agujero negro. Dicho espacio forma una esfera perfecta en cuyo centro se halla la singularidad el radio de la cual recibe el nombre de radio de Schwarzschild. La fórmula de dicho radio como se ha dicho depende únicamente de la masa del agujero.

donde G es la constante gravitatoria, M es la masa del agujero y c la velocidad de la luz.

La singularidad es una región teórica de densidad infinita y de volumen casi nulo o nulo en las proximidades de la cual las leyes físicas deján de tener sentido tal y como las conocemos actualmente. Cuanto mayor es la masa del agujero negro, la cual determina el grado de curvatura espacio-temporal, mayor

Page 22: Cosmología

es el radio de Schwarzschild. Pero existen otros modelos más complicados de agujeros negros.

El agujero negro de Kerr es una agujero negro en rotación definido no solo por su masa sino también por su momento angular. Dicho agujero tiene una dirección privilegiada en el espacio y, por tanto, deja de ser isotrópico. Este es el modelo que más se ajusta al tipo de agujeros negros que se pueden observar fruto del colapso de estrellas supermasivas.

El agujero negro de Reissner-Nordstrom es un agujero con carga eléctrica estático y posee unas propiedades especiales ya que no solo se forma una singularidad gravitatoria sino también una singularidad en el campo eléctrico generado por el agujero. Dicho agujero está sujeto también a dos parámetros. Esta vez masa y carga. La existencia de tales agujeros no ha sido observada pero se podría concebir la posibilidad de crearlos en condiciones controladas tales como aceleradores de partículas.

Finalmente está el agujero negro de Kerr-Newman. Este cuarto tipo de agujeros son el resultado de la combinación de los dos anteriores. Se trataría de los agujeros negros con carga y en rotación. Estos agujeros dependerían de los tres parámetros, masa, momento angular y carga. Además, al rotar se provocaría un movimiento de cargas en su seno lo que conllevaría la generación de un campo magnético también.

Ergosfera

Ergosfera rodeando el horizonte de eventos de un agujero negro en rotación.

La ergosfera (también conocida como ergoesfera) es la región exterior y cercana al horizonte de eventos de un agujero negro en rotación. En esta región el campo de gravedad del agujero negro rota junto con él arrastrando al espacio-tiempo. Se trata de un fenómeno teorizado por el físico neozelandés Roy Kerr y emana directamente de las teorías de la relatividad general de Einstein. El modelo de agujero negro de Kerr parte del primer y más simple modelo de agujero negro, el modelo de Schwarzschild. Las características principales de ambos modelos son las siguientes:

Page 23: Cosmología

El modelo de Schwarzschild

Más información en: Agujero negro de Schwarzschild

El primer modelo fundamental de un agujero negro fue el del alemán Karl Schwarzschild. El agujero negro de Schwarzschild es básicamente una singularidad puntual en el espacio-tiempo de momento angular nulo y constituye la solución más simple y la primera en ser encontrada a las ecuaciones de la relatividad general.

[editar]

El modelo de Kerr

Más información en: Agujero negro de Kerr

Este modelo es una solución a las ecuaciones de la relatividad general para un agujero negro en rotación. Tal singularidad, a diferencia de la de Schwarzschild, tendría forma anular. Los agujeros negros reales que se encuentran en la naturaleza han de ser rotatorios ya que, por conservación del momento angular, girarán tal y como lo hacía la estrella u objeto progenitor. Se sabe que las estrellas al morir pierden gran parte del momento angular, siendo éste expulsado junto con la materia eyectada por la explosión de supernova en la que el agujero negro se forma. Pero, a pesar de esa pérdida de momento, una parte de éste permanece. Tal agujero produciría, en cierta región denominada ergoesfera, una zona de "arrastre" del espaciotiempo. La ergosfera es una estructura de forma elipsoidal, coincidiendo su semieje menor con el eje de rotación de ésta. La ergosfera se achata, por lo tanto, en la dirección del eje de giro de manera similar a como lo hace la Tierra por efecto de su rotación.

La ergoesfera y los viajes en el tiempo

Más información en: Viaje en el tiempo

Dentro de la ergoesfera no existe el reposo. Es imposible que un cuerpo no se mueva, pues el propio espacio gira en torno a la singularidad por lo que la materia que se encuentre en esa región rotará junto a ella. Para el observador externo a la ergosfera el cuerpo viajará a su velocidad propia sumada a la de la rotación del espacio. Éste hecho según la teoría de la relatividad conlleva curiosas consecuencias. La observación de un cuerpo que viajara suficientemente rápido sobre la ergosfera podría dar una velocidad relativa con respecto a nosotros superior incluso a la velocidad de la luz c. En ese caso, tal objeto simplemente desaparecería de nuestra vista. Llegaría a su destino antes de que hubiese partido, lo que en términos físicos significa que habría viajado al pasado. Por esa sorprendente idea las ergoesferas se conciben, por los físicos teóricos, como verdaderas máquinas del tiempo naturales. Máquinas donde, en cualquier caso, no se puede viajar más allá del momento en que se formó el agujero en cuestión.

Véase también

Page 24: Cosmología

Agujero negro Evolución estelar

Espacio-tiempo

La expresión espacio-tiempo ha devenido de uso corriente a partir de la Teoría de la Relatividad especial formulada por Einstein en 1905.

De esta forma se hace referencia a la importancia de considerar como variable no sólo las tres dimensiones del espacio sino también el tiempo para comprender cabalmente los fenómenos físicos que ocurren en el Universo; es usual la expresión "cuarta dimensión" o "espacio de cuatro dimensiones".

En general, un evento cualquiera puede ser descrito por una o más coordenadas espaciales, y una temporal. Por ejemplo, para identificar de manera única un accidente automovilístico, se pueden dar la longitud y latitud del punto donde ocurrió (dos coordenadas espaciales), y cuándo ocurrió (una coordenada temporal). En el espacio tridimensional, se requieren tres coordenadas espaciales. Sin embargo, la visión tradicional, sobre la cual se basa la Mecánica Clásica de Newton, es que el tiempo es una coordenada independiente de las coordenadas espaciales. Esta visión concuerda con la experiencia: si un evento ocurre a 10 metros, es natural preguntar a 10 metros de qué, pero si nos informan que ocurrió un accidente a las 10 de la mañana en nuestro país, ese tiempo tiene carácter absoluto.

Sin embargo, resultados como el experimento de Michelson-Morley, y las Ecuaciones de Maxwell para la Electrodinámica, sugerían, a principios del Siglo XX, que la velocidad de la luz es constante, independiente de la velocidad del emisor u observador, en contradicción con la Mecánica clásica.

Einstein propuso, como solución a este y otros problemas de la Mecánica clásica, considerar como postulado la constancia de la velocidad de la luz, y prescindir de la noción del tiempo como una coordenada independiente. En la Teoría de la Relatividad, espacio y tiempo tienen carácter relativo, y las transformaciones de coordenadas entre observadores inerciales (las Transformaciones de Lorentz), involucran una combinación de las coordenadas espaciales y temporal.

La expresión espacio-tiempo recoge entonces la noción de que el espacio y el tiempo ya no pueden ser consideradas entidades independientes.

Las consecuencias de esta relatividad del tiempo han tenido diversas comprobaciones experimentales. Una de ellas se realizó utilizando dos relojes atómicos de elevada precisión, inicialmente sincronizados, uno de los cuales se mantuvo fijo mientras que el otro fue transportado en un avión. Al regresar del viaje se constató que mostraban horas distintas, habiendo transcurrido "el tiempo" más lentamente para el reloj en movimiento.

Véase también

Page 25: Cosmología

Viaje a través del tiempo

Antimateria La Antimateria es materia compuesta de antipartículas de las partículas que constituyen la materia normal. Un átomo de antihidrógeno, por ejemplo, está compuesto de un antiprotón de carga negativa orbitado por un positrón de carga positiva. Si una pareja partícula/antipartícula entra en contacto entre sí, se aniquilan entre sí y producen un estallido de energía, que puede manifestarse en forma de otras partículas, antipartículas o radiación electromagnética.

En 1995 se consiguió producir átomos de antihidrógeno, así como núcleos de antideuterio, creados a partir de un antiprotón y un antineutrón, pero no se ha logrado crear antimateria de mayor complejidad. La antimateria se crea en el universo allí donde haya colisiones entre partículas de alta energía, como en el centro de la galaxia, pero aún no se ha detectado ningún tipo de antimateria como residuo del Big Bang (cosa que sí ocurre con la materia normal). La desigual distribución entre la materia y la antimateria en el universo ha sido, durante mucho tiempo, un misterio. La solución más probable reside en cierta asimetría en las propiedades de los mesones-B y sus antipartículas, los anti-mesones-B [1].

Los positrones y los antiprotones se pueden almacenar en un dispositivo denominado "trampa", que usa una combinación de campos magnéticos y eléctricos para retener las partículas cerca del centro de un vacío. Para la creación de trampas que retengan átomos completos de antihidrógeno hace falta emplear campos magnéticos muy intensos, así como temperaturas muy bajas; las primeras de estas trampas fueron desarrollados por los proyectos ATRAP y ATHENA.

El símbolo que se usa para describir una antipartícula es el mismo símbolo para su contrapartida normal, pero con un sobrerrayado. Por ejemplo, un protón por

encima: .

Las reacciones entre materia y antimateria tienen aplicaciones prácticas en la medicina, véase la tomografía de emisión de positrones (PET).

Véase también el teorema CPT.

La antimateria como combustible

En las colisiones entre materia y antimateria, se convierte toda la masa posible de las partículas en energía. Esta cantidad es mucho mayor que la energía química o incluso la nuclear que puede obtenerse hoy día usando reacciones química o fisión nuclear. La reacción de 1 kg de antimateria con 1 kg de materia produciría

Page 26: Cosmología

1.8×1017 J de energía (según la ecuación E=mc²). En contraste, quemar un kilogramo de petróleo produce 4.2×107 J, y la fusión nuclear de un kilogramo de hidrógeno produce 2.6×1015 J.

La escasez de antimateria significa que no existe una disponibilidad inmediata para ser usada como combustible. Generar un solo antiprotón es inmensamente difícil y requiere aceleradores de partículas, así como vastas cantidades de energía (mucho más de lo que se genera cuando este antiprotón se aniquila), debido a la ineficiencia del proceso. Los métodos conocidos para producir antimateria también producen una cantidad igual de materia normal, de forma que el límite teórico del proceso es que la mitad de la energía suministrada se convierte en antimateria. Inversamente, cuando la antimateria se aniquila con la materia ordinaria, la energía emitida es el doble de la masa de antimateria, de forma que el almacenamiento de energía en forma de antimateria podría ser (en teoría) de una eficiencia del 100%.

La producción de antimateria en la actualidad es muy limitada, si bien aumenta en progresión geométrica desde el descubrimiento el primer antiprotón en 1955. La tasa actual de producción de antimateria es entre 1 y 10 nanogramos por años, si bien se espera que se vea muy incrementada con las nuevas instalaciones del CERN y el Fermilab.

Con la tecnología actual se considera que se puede obtener antimateria al coste de 25.000 millones de dólares por gramo (más o menos 1000 veces el coste del combustible propulsor de la lanzadera espacial), pero sólo si se optimizan los parámetros de colisión y recogida (y siempre según los costes actuales de generación eléctrica). Los costes de la producción en masa de antimateria están linealmente relacionados con los costes de la electricidad, de forma que es poco probable que se desarrolle el uso de la propulsión usando reacciones puras de materia y antimateria sin la aparición de tecnologías como la fusión de átomos de deuterio.

Dado que la densidad de energía es infinitamente mayor que con otras formas de combustible, la ecuación de impulso por peso que se usa en astronáutica sería muy distinta. De hecho, la energía de unos pocos gramos de antimateria sería suficiente para transportar una nave pequeña a la luna. Se espera que la antimateria pueda usarse como combustible para los viajes interplanetarios o, quizá, viajes interestelares, pero también se teme que si la humanidad consigue semejante tecnología, pueda usarse para construir armas de antimateria.

El Fisicomatemático Alexander R. Guerra introdujo los primeros conceptos de cuantividad positronica, dando como tal, la propia definición de un concepto antimatérico.

Historia de la Antimateria Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se empezaron a conocer los estudios del físico británico Paul Dirac.

Page 27: Cosmología

En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una época que coincide con los tiempos en que se descubrían los primeros secretos de la materia, se teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de lo que se llama fuerza fuerte. Fueron tiempos en que la audacia tuvo una preeminencia como rol intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los electrones. Se dice que fue una de las épocas más eclécticas de la física, en la cual hubo ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como fue el caso del físico austríaco Erwin Schrödinger cuando apeló a la historia de los gatitos para exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente aceptado por las personas.

La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló, que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que fueran «electrones antimateria», a los que se les llamó positrones y que debían tener la misma masa del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía. Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el año 1933.

El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto Tecnológico de California, en un trabajo de experimentación confirmó la teoría de Dirac al detectar la existencia de un positrón al hacer chocar rayos cósmicos. Pasaron dos décadas para dar otro salto y este vino en 1955, cuando un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom Ypsilantis lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la partícula de carga positiva del átomo. Un año después, con el uso de las mismas instalaciones, otro equipo, formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el primer antineutrón, el equivalente a la partícula de carga neutra de los átomos. La carrera por las tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada. Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas más poderoso de los existentes en esos momentos. En un trabajo encabezado por el físico Leon Lederman, los soviéticos lograron detectar la primera partícula compleja de antimateria, el antineutrino, formado por dos partículas básicas. Posteriormente, usándose el mismo acelerador se detectó el antihelio.

Con la inauguración, en 1978, de las instalaciones europeas del Consejo de Investigación de Alta Energía (CERN) de Ginebra, y los avances tecnológicos que ello implicó, se pudo lograr crear antitritio y, en 1981, realizar el primer choque controlado entre materia y antimateria, con lo que comprobaron una hipótesis valiosa: la cantidad de energía liberada por el mismo choque era enorme, mil veces superior a la energía nuclear convencional. Pero para la receta para generar antiátomos faltaba un ingrediente que permitiera la combinación de

Page 28: Cosmología

antipartículas para poder producirlo, lo que precisamente faltaba era una fórmula para conseguirlo.

La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y sus violentas colisiones. Era necesario contar con una fórmula que permitiera desacelerarlas o igualar su velocidad para unirlas, interrogante que fue respondida, en parte, por los trabajos del profesor de física de la Universidad de Stanford Stan Brodsky y por el ingeniero físico chileno Iván Schmidt, de la Universidad Técnica Federico Santa María.

En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los cuales sugerían la fórmula de un método para producir antiátomos, o sea, como poder unir antielectrones y antiprotones. Pero también se requería capacidad de experimentación. A ellos llegó Charles Munger, quién formó su propio equipo en Chicago para realizar los experimentos. Pero las publicaciones nortearnericanas-chilenas también llamaron la atención de físicos europeos del CERN donde se formó un equipo multinacional encabezado por Walter Oelert con el objetivo de experimentar en la creación de un antiátomo. En la práctica, con ello, se dio una competencia científico-mundial para alcanzar este logro.

El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber obtenido en un proceso de experimentación, no uno, sino nueve antiátomos de hidrógeno. No se trata de partículas fundamentales o de pequeñas combinaciones, se trata - en propiedad - de lo que se puede mencionar como átomos de antihidrógeno.

El método propuesto por la pareja Brodsky y Schmidt consistió, básicamente, en hacer chocar un haz de antiprotones con un gas y, en cuyo proceso, se producirían pares de electrón-positrón; luego, de esos positrones, una pequeña fracción viajaría casi a la misma velocidad de los antiprotones, lo que implicaría que los positrones sean capturados por un antiprotón, lo que haría que ambas antipartículas se combinaran para formar un antiátomo.

Los antiprotones rompen los núcleos del xenón y crean algunos pares de electrón y positrón(2). Una fracción de estos pares es capturada por los antiprotones, alrededor de los cuales pasan a orbitar; se crean átomos de anti-hidrógeno(3). Como estos átomos son eléctricamente neutros, el campo magmético del acelerador no los desvía y continúan una trayectoria recta que los lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el antiprotón continúa su camino, el positrón choca contra el electrón(6) con lo que ambas partículas se aniquilan.

Ahora, el experimento que hizo el CERN consistió en la elección del hidrógeno como elemento de trabajo porque es el más simple y abundante de todos los que conforman el universo. Con apenas dos componentes - uno positivo y otro negativo - era lo más sencillo. El acelerador LEAR, con el cual se realizó el experimento, disparó un chorro de antiprotones a través de una fina nube de gas xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos pares de electro-positrón. Una fracción de estos pares fue capturada por los antiprotones, lo que implicó que empezaran a orbitar alrededor de ellos; entonces se crearon antiátomos de hidrógeno. Como estos antiátomos son

Page 29: Cosmología

neutros, el campo magnético del acelerador no los desvía y continuarán una trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio. Mientras tanto el antiprotón continúa su camino, el positrón choca contra el electrón aniquilándose ambos. El resultado es una emisión de rayos gamma que choca contra la barrera de silicio y delata lo que ocurrió.

Uno de los problemas interesantes para desarrollar el proceso fue el de poder establecer como poder atrapar la antimateria. Una de las dificultades era la de evitar que la antimateria explotara al tomar contacto con la materia. La solución a la cual se llegó, en los trabajos realizados por el CERN, fue la de usar un envase diseñado por el Laboratorio Nacional de Los Álamos de EE.UU.. Este tipo de envase consiste en mantener a la partícula de antimateria en forma estable por medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un antiprotón de modo que pueda ser capturado, detenido y paralizado con campos magnéticos. Una vez quieto, el antiprotón es introducido en un envase que comporta un vacío interior para evitar choques con átomos de aire y el magnetismo impide que el antiprotón toque sus paredes, detonando una explosión de rayos gamma.

En el proceso se detectaron once choques contra la barrera, de éstos, nueve son considerados indudablemente causados por la aparición de antiátomos de hidrógeno; sobre los otros dos hay dudas. El antiátomo de hidrógeno producido, sólo dura 10 segundo antes de encontrar materia a su paso y desaparecer y, fue por eso, que Brodsky y Schmidt propusieron en sus trabajos la creación de un campo magnético para poder detectar los antiátomos en medio de todas las partículas que se generan en el proceso. Las partículas - que tienen cargas positivas o negativas - comportarán una órbita curva, pero el antiátomo (cuya carga total es neutra) no será afectado por el campo magnético y saldrá en línea recta.

El antihidrógeno es el estado más simple del límite atómico de la antimateria y, hasta el anuncio efectuado por el CERN en enero de 1996, nunca antes se había observado experimentalmente. Se logró sintetizar un átomo de antimateria desde sus antipartículas comitentes.

El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para una variedad amplia de medidas fundamentales relativas al comportamiento de la materia ordinaria. La producción de antihidrógeno abre las puertas para una investigación sistemática de las propiedades de la antimateria y la posibilidad única de comprobar principios físicos fundamentales.

En la cosmología podemos prever que a futuro se podrán contar con tecnologías que permitan investigar con más y mejor precisión la estructura del universo y, por ende, las características y fuentes de emisión de antimateria en él. Para ello en particular, la NASA ha desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002, un detector de antipartículas que se la ha denominado Espectrómetro Alfa Magnético (AMS). El instrumento está diseñado para detectar antimateria atómica (hasta ahora solamente se han observado antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la luz bombardean intensamente la Tierra. La mayor parte de ellas provienen del Sol y también de remanentes de estrellas que han explosionado en nuestra

Page 30: Cosmología

galaxia, pero la detección de las más energéticas se ha conseguido en lugares ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta. En consecuencia, serán estos últimas los blancos focalizado para ejecutar los procesos de detección de antimateria atómica espacial.

Pero no sólo para el campo de la investigación en física la producción de antimateria tiene ribetes de excepción, si no que también en otros campos de la ciencia podría tener aplicaciones inmensas como el aerospacial, o como ya se ha demostrado en la medicina, etc.... Podemos soñar con energía ilimitada y barata; motores para naves interestelares que podrían desarrollar velocidades a más de un tercio la de la luz; mayor intensidad en la exploración del espacio y, por supuesto, muchas otras cosas más que, por ahora, podrían ser consideradas pura ciencia ficción.

Al momento de escribirse estas líneas, solamente se han desarrollado en laboratorio diecinueve antiátomos de hidrógeno y el equipo de norteamericanos encabezados por Charles Munger proyecta a futuro, lograr unos cien. Lo anterior, no significa que se podrá contar en el corto plazo con reactores de materia-antimateria, o que pronto se podrán unir antiátomos para crear antimoléculas y, luego, anticosas. Por ahora, es mejor considerarlo como ficción. Consideremos que para poder contar con un supercumbustible de antimateria para viajes espaciales, hay todavía que pasar una multiplicidad de obstáculos. El primero es encontrar un método para crear antiátomos en reposo, en vez de alta velocidades, para que no desaparezcan al chocar con la materia. Luego, habría que producir 1020 de estos, por lo menos. Lograrlo, no es imposible, pero por ahora debe ser considerado a un largo plazo. En cuanto a las "anticosas", es mejor adherirse a la idea de que nunca se puedan concretar. Se escogió hacer un antiátomo de hidrógeno porque este es el más simple de todos. Pero para producir moléculas de antiátomos, sería necesario crear antiátomos más complejos, y luego unirlos, lo que teóricamente es factible, pero de ahí a la práctica es casi invisualizable.

La antimateria en la ficción

El ejemplo de ficción más famoso de este tipo de fuente de energía es en la serie de ciencia ficción, Star Trek, donde se usa la antimateria como fuente de energía común en las naves espaciales.

Otro ejemplo del uso de la antimateria en la ficción, es la novela de Dan Brown, Ángeles y Demonios, donde su descubrimiento forma parte de la trama.

Armas de antimateria El desarrollo de armas de antimateria se basa en la hipotética construcción de un equipo capaz de crear antimateria en cantidad suficiente (algo más de 100 nanogramos) como para producir una reacción en cadena al juntarse con la materia.

Page 31: Cosmología

De ser esto posible el dispositivo tendría la forma de una bomba-laboratorio (imaginando que esto pudiera reducirse a tamaños prácticos) que se activaría instantes antes de alcanzar su objetivo.

El resultado destructivo podría ser muy superior al de las bombas de hidrógeno actualmente conocidas, dependiendo de la cantidad de antimateria que el dispositivo pudiera crear. Así mismo es esperable que el rendimiento de la reacción fuera muy superior, cercano al 100%.

En laboratorios BOT y MPA se investiga la posibilidad de manipular esta tecnología y alcanzar una finalidad práctica, yendo más allá del simple poder destructivo de estas armas como, por ejemplo, la utilización para navegación espacial y terraformación de mundos inhóspitos.

Esto es sólo una elucubración poco probable en la actualidad, pero no imposible en el futuro.

Hartree-Fock La aproximación de Hartree-Fock es el equivalente, en química computacional, a la aproximación de orbitales moleculares, de enorme utilidad conceptual para los químicos. Este esquema de cálculo, también llamado de campo autoconsistente, es un procedimiento iterativo para calcular la mejor solución monodeterminantal a la ecuación de Schrödinger independiente del tiempo, para moléculas aisladas, tanto en su estado fundamental como en estado excitados. La interacción de un único electrón en un problema de muchos cuerpos con el resto de los electrones del sistema se aproxima promediándolo como una interacción entre dos cuerpos (tras aplicar la aproximación de Born-Oppenheimer). De esta forma, se puede obtener una aproximación a la energía total de la molécula. Como consecuencia, calcula la energía de intercambio de forma exacta, pero no tiene en absoluto en cuenta el efecto de la correlación electrónica.

Descripción cualitativa del método

El punto de partida para el cálculo Hartree-Fock es un conjunto de orbitales aproximados. Para un cálculo atómico, estos son típicamente los orbitales de un átomo hidrogenoide (un átomo con una carga nuclear cualquiera pero con un sólo electrón). Para cálculos moleculares o cristalinos, las funciones de ondas iniciales son típicamente una combinación lineal de orbitales atómicos. Esto da una colección de orbitales monoelectrónicos, que por la naturaleza fermiónica de los electrones, debe ser antisimétrica, lo que se consigue mediante el uso del determinante de Slater. El procedimiento básico fue diseñado por Hartree, y Fock añadió el antisimetrizado.

Una vez se ha construído una función de ondas inicial, se elige un electrón. Se resume el efecto de todos los demás electrones, que se usa para generar un potencial. (Por este motivo, se llama a veces a este método un procedimiento de campo promedio). Esto da un electrón en un campo definido, para el que se puede resolver la ecuación de Schrödinger, dando una función de ondas

Page 32: Cosmología

ligeramente diferente para este electrón. Entonces, el procedimiento se repite para cada uno de los otros electrones, hasta completar un paso del procedimiento. De esta forma, con la nueva distribución electrónica se tiene un nuevo potencial eléctrico. El procedimiento se repite, hasta alcanzar la convergencia (hasta que el cambio entre un paso y el siguiente es lo suficientemente pequeño).

Algoritmo

1. Especificar el sistema: 1. Conjunto de coordenadas nucleares, asociadas a los

correspondientes números atómicos 2. Número total de electrones 3. Funciones de base. La elección de una base puede ser crítico para

llegar a una convergencia adecuada, y con sentido físico, y no hay un procedimiento general con garantía de éxito. Los científicos cuánticos hablan del arte de escoger bien la base de funciones.

2. Calcular todas las integrales (interacciones) relevantes para las funciones de base: las energías cinéticas medias, la atracción electrón-núcleo, las repulsiones bielectrónicas. Como las funciones de base se mantienen a lo largo de todo el cálculo, no es necesario volver a evaluar las integrales. Dependiendo de las limitaciones técnicas del momento y de la talla del sistema, las integrales pueden o no mantenerse en la RAM. En caso de que no se mantengan, la estrategia óptima puede ser guardarlas en un disco duro o cinta, o bien recalcularlas en cada momento en que son necesarias.

3. Construir, con las integrales calculadas, la matriz de solapamiento S, que mide la desviación de la ortogonalidad de las funciones de la base, y, a partir de ella, la matriz de transformación X, que ortogonaliza la base.

4. Obtener una estimación de la matriz densidad P que, a partir de un conjunto de funciones de base, especifica completamente la distribución de densidad electrónica. Nuevamente, la primera estimación no es obvia, y puede precisar de inspiración artística. Un cálculo de Hückel extendido puede suponer una buena aproximación.

5. Conociendo la matriz densidad y las integrales bielectrónicas de las funciones de nase, calcular el operador de interacción entre electrones, la matriz G.

6. Construir la matriz de Fock como suma del hamiltoniano "fijo" (integrales monoelectrónicas) y la matriz G

7. Transformar, con la matriz de transformación, la matriz de Fock en su expresión para la base ortonormal, F'

8. Diagonalizar F', obtener C' y e (vectores y valores propios) 9. De C' y la matriz de transformación, recuperar C, que será la expresión en

las funciones de base originales 10. C define una nueva matriz densidad P 11. Si la nueva matriz densidad difiere de la anterior más que un criterio

previamente fijado (no ha convergido), volver al punto 5. 12. En caso contrario, usar C, P y F para calcular los valores esperados de

magnitudes observables, y otras cantidades de interés.

Page 33: Cosmología

Si el cálculo diverge, o converge con lentitud, o llega a una solución que no es una descripción adecuada de los fenómenos que son de interés,

o bien se corrigen los dos puntos artesanales, por ejemplo, dando más flexibilidad a las funciones de base, o, por el contrario, restringiéndolas a la parte fundamental de la física, u obtener una mejor primera estimación de la matriz densidad P

o bien se aplican métodos que van más allá de la aproximación de Hartree-Fock

Aplicaciones, problemas y más allá de Hartree-Fock

Se usa a menudo en el mismo área de cálculos que la Teoría del Funcional de la Densidad, que puede dar soluciones aproximadas para las energías de canje y de correlación. De hecho, es común el uso de cálculos que son híbridos de los dos métodos. Adicionalmente, los cálculos a nivel Hartree-Fock se usan como punto de partida para métodos más sofisticados, como la teoría perturbacional de muchos cuerpos, o cálculos cuánticos de Monte-Carlo.

La inestabilidad numérica es un problema de este método, y hay varias vías para combatirla. Una de las más básicas y más aplicadas es la mezcla-F. Con la mezcla-F, no se usa directamente la función de ondas de un electrón conforme se ha obtenido. En lugar de esto, se usa una combinación lineal de la función obtenida con las previas, por ejemplo con la inmediatamente previa. Otro truco, empleado por Hartree, es aumentar la carga nuclear para comprimir a los electrones; tras la estabilización del sistema, se reduce gradualmente la carga hasta llegar a la carga correcta.

Desarrollos más allá del campo autoconsistente o SCF son el CASSCF y la interacción de configuraciones. Los cálculos de este tipo son relativamente económicos frente a otros de la química cuántica. De esta forma, en ordenadores personales es posible resolver moléculas pequeñas en muy poco tiempo. Las moléculas más grandes, o los desarrollos más sofisticados, para obtener resultados más exactos, siguen realizándose en superordenadores. Existen múltiples paquetes informáticos que implementan el método de campo autoconsistente, entre los que pueden destacarse Gaussian, MOLPRO y MOLCAS.

Bibliografía

El libro de texto "Modern Quantum Chemistry", de A. Szabo y N. S. Ostlund, contiene un excelente tratamiento de la, desde los conceptos y herramientas matemáticas subyacentes, pasando por un desarrollo formal completo, hasta una implementación en fortran77 para un caso sencillo.

Ecuación de Schrödinger

Page 34: Cosmología

La ecuación de Schrödinger, desarrollada por el físico austríaco Erwin Rudolf Josef Alexander Schrödinger en 1925, describe la dependencia temporal de los sistemas mecanocuánticos. Es de importancia central en la teoría de la mecánica cuántica, donde representa un papel análogo a las leyes de Newton en la mecánica clásica.

En la mecánica cuántica, el conjunto de todos los estados posibles en un sistema se describe por un espacio de Hilbert complejo, y cualquier estado instantáneo de un sistema se describe por un vector unitario en ese espacio. Este vector unitario codifica las probabilidades de los resultados de todas las posibles medidas hechas al sistema. Como el estado del sistema generalmente cambia con el tiempo, el vector estado es una función del tiempo. Sin embargo, debe recordarse que los valores de un vector de estado son diferentes para distintas localizaciones, en otras palabras, también es una función de x (o, tridimensionalmente, de r). La ecuación de Schrödinger da una descripción cuantitativa de la tasa de cambio en el vector estado.

Usando la notación bra-ket de Dirac, denotamos ese vector de estado instantáneo a tiempo t como |ρ(t)〉. La ecuación de Schrödinger es, entonces:: Schrodinger Equation

donde i es el número imaginario unidad, es la constante de Planck dividida por 2π(constante reducida de Plank), y el Hamiltoniano H es un operador lineal hermítico (auto-adjunto) que actúa sobre el espacio de estados. El hamiltoniano describe la energía total del sistema. Como con la fuerza en la segunda ley de Newton, su forma exacta no la da la ecuación de Schrödinger, y ha de ser determinada independientemente, a partir de las propiedades físicas del sistema cuántico.

Para más información del papel de los operadores en mecánica cuántica, véase la formulación matemática de la mecánica cuántica.

La ecuación de Schrödinger independiente del tiempo

Para cada hamiltoniano (si la energía potencial es independiente del tiempo), existe un conjunto de estados cuánticos, conocidos como estados propios para la energía que satisfacen la ecuación de valores propios

Soluciones de la ecuación de Schrödinger

Se pueden obtener soluciones analíticas de la ecuación de Schrödinger independiente del tiempo para varios sistemas relativamente sencillos. Estas soluciones sirven para entender mejor la naturaleza de los fenómenos cuánticos, y en ocasiones son una aproximación razonable al comportamiento de sistemas más complejos (como en mecánica estadística se aproximan las vibraciones

Page 35: Cosmología

moleculares como osciladores armónicos). Algunas de las soluciones analíticas más comunes son:

Números Cuánticos La partícula en una caja La partícula en un anillo La partícula en un potencial de simetría esférica El oscilador armónico cuántico El átomo de hidrógeno La partícula en una red monodimensional

Sin embargo, para muchos sistemas no hay solución analítica a la ecuación de Schrödinger. En estos casos, hay que recurrir a soluciones aproximadas, como:

La teoría perturbacional El principio variacional Las soluciones Hartree-Fock Los métodos cuánticos de Monte Carlo

Gato de Schrödinger

Como parte del Wikiproyecto:Wikipedia grabada, hay un archivo de audio para este artículo. Escuche este artículo o lea más acerca de Wikipedia grabada. Este archivo puede ser de una versión antigua.

El gato en la caja

El experimento del gato de Schrödinger o paradoja de Schrödinger es un experimento imaginario, diseñado por Erwin Schrödinger para exponer uno de los aspectos más extraños, a priori, de la mecánica cuántica.

Supongamos un sistema formado por una caja cerrada y opaca que contiene un gato, una botella de gas venenoso, una partícula radiactiva con un 50% de probabilidades de desintegrarse y un dispositivo tal que, si la partícula se desintegra, se rompe la botella y el gato muere. Al depender todo el sistema del estado final de un único átomo que actúa según la mecánica cuántica, tanto la partícula como el gato forman parte de un sistema sometido a las leyes de la mecánica cuántica.

Page 36: Cosmología

Siguiendo la interpretación de Copenhague, mientras no abramos la caja, el gato está en un estado tal que está vivo y muerto a la vez. En el momento en que abramos la caja, la sola acción de observar al gato modifica el estado del gato, haciendo que pase a estar solamente vivo, o solamente muerto.

Esto se debe a una propiedad fisica llamada superposición cuántica.

Albert Einstein

Albert Einstein

Físico alemán

Nacimiento 14 de marzo de 1879 Ulm, Alemania

Fallecimiento 18 de abril de 1955 Princeton, Nueva Jersey

Albert Einstein, nacido en Alemania en 1879 y nacionalizado en Estados Unidos en 1940, es uno de los científicos más conocidos y trascendentes del siglo XX.

En 1905, siendo un joven físico desconocido, empleado en la Oficina de Patentes de Berna (Suiza), publicó su Teoría de la Relatividad Especial. En ella incorporó, en un marco teórico simple y con base en postulados físicos sencillos, conceptos y fenómenos estudiados anteriormente por Henri Poincaré y Hendrik Lorentz. Probablemente, la ecuación de la física más conocida a nivel popular es la expresión matemática de la equivalencia masa - energía, E=mc², deducida por Einstein como una consecuencia lógica de esta teoría. Ese mismo año publicó otros trabajos que sentarían algunas de las bases de la física estadística y la mecánica cuántica.

En 1916 presentó la Teoría General de la Relatividad, en la que reformuló por completo el concepto de gravedad. Una de las consecuencias fue el surgimiento

Page 37: Cosmología

del estudio científico del origen y evolución del universo por la rama de la física denominada cosmología. Muy poco después Einstein se convirtió en un icono popular de la ciencia alcanzando fama mundial, un privilegio al alcance de muy pocos científicos.

Obtuvo el Premio Nobel de Física en 1921 por su explicación del efecto fotoeléctrico y sus numerosas contribuciones a la física teórica, y no por la Relatividad, pues en esa época era aún considerada un tanto polémica por parte de algunos científicos.

Biografía

Albert Einstein de joven, 1893

Primeros años

Albert Einstein nació en Ulm, (Alemania) a unos 100 km al este de Stuttgart, en el seno de una familia judía. Sus padres eran Hermann Einstein y Pauline (nacida Koch). Su padre trabajaba como vendedor de colchones, pero luego ingresó en la empresa electroquímica Hermann. Albert cursó sus estudios primarios en una escuela católica; un periodo difícil que sobrellevaría gracias a las clases de violín que le daría su madre y a la introducción al álgebra que le descubriría su tío Jacob.

Otro de sus tíos incentivó sus intereses científicos en su adolescencia proporcionándole libros de ciencia. Según relata el propio Einstein en su autobiografía, de la lectura de estos libros de divulgación científica nacería un constante cuestionamiento de las afirmaciones de la religión; un librepensamiento decidido que fue asociado a otras formas de rechazo hacia el Estado y la autoridad. Un escepticismo poco común en aquella época, a decir del propio Einstein. Su paso por el Gymnasium, sin embargo, no fue muy gratificante: la rigidez y la disciplina militar de los institutos de secundaria de la época de Bismarck le granjearon no pocas polémicas con los profesores: "tu sola presencia mina el respeto que me debe la clase", le dijo uno de ellos en una ocasión. Otro le dijo que nunca llegaría a nada.

Einstein comenzó a estudiar matemáticas a la edad de 12 años. Se interesó por el álgebra y la geometría para, a los 15 años, sin tutor ni guía, emprender el estudio

Page 38: Cosmología

del cálculo infinitesimal. Existe el rumor, claramente infundado, sobre su incapacidad de aprobar las asignaturas de matemáticas. Lo que sí es cierto es que los cambios en el sistema educativo de aquellos años añadieron confusión a su currículo.

En 1894 la compañía Hermann sufría importantes dificultades económicas y los Einstein se mudaron de Múnich a Pavía en Italia cerca de Milán. Albert permaneció en Munich para terminar sus cursos antes de reunirse con su familia en Pavía, pero la separación duró poco tiempo: antes de obtener su título de bachiller Albert decidió abandonar el Gymnasium.

Entonces, la familia Einstein intentó matricular a Albert en el Instituto Politécnico de Zúrich (Eidgenössische Technische Hochschule) pero, al no tener el título de bachiller, tuvo que presentarse a una prueba de acceso que suspendió a causa de una calificación deficiente en una asignatura de letras. Esto supuso que fuera rechazado inicialmente, pero el director del centro, impresionado por sus resultados en ciencias, le aconsejó que continuara sus estudios de bachiller y que obtuviera el título que le daría acceso directo al Politécnico. Su familia le envió a Aarau para terminar sus estudios secundarios, y Albert consiguió graduarse en 1896 a la edad de 16 años. Ese mismo año renunció a su ciudadanía alemana e inició los trámites para convertirse en ciudadano suizo. Poco después el joven Einstein ingresó en el Instituto Politécnico de Zúrich, ingresando en la Escuela de orientación matemática y científica, y con la idea de estudiar física.

Durante sus años en la políticamente vibrante Zurich, Einstein descubrió la obra de diversos filósofos: Marx, Engels, Hume, Kant, Mach y Spinoza. También tomó contacto con el movimiento socialista a través de Friedich Adler y con cierto pensamiento inconformista y revolucionario en el que mucho tuvo que ver su amigo Michele Besso. En 1898 conoció a Mileva Maric, una compañera de clase serbia, también amiga de Nikola Tesla, de talante feminista y radical, de la que se enamoró. En 1900 Albert y Mileva se graduaron en el Politécnico de Zurich y en 1901 consiguió la ciudadanía suiza. Durante este período Einstein discutía sus ideas científicas con un grupo de amigos cercanos, incluyendo a Mileva. Albert Einstein y Mileva tuvieron una hija en enero de 1902, llamada Liserl. El 6 de enero de 1903 la pareja se casó.

Juventud

Tras graduarse, siendo el único de su promoción que no consiguió el grado de maestro, Einstein no pudo encontrar un trabajo en la Universidad, aparentemente, por la irritación que causaba entre sus profesores. El padre de un compañero de clase le ayudó a encontrar un trabajo en la Oficina de Patentes Suiza en 1902. Su personalidad le causó también problemas con el director de la Oficina quien le enseñó a "expresarse correctamente".

En esta época Einstein se refería con amor a su mujer Mileva como "una persona que es mi igual y tan fuerte e independiente como yo". Abram Joffe, en su biografía de Einstein, argumenta que durante este periodo fue ayudado en sus investigaciones por Mileva. Esto se contradice con otros biógrafos como Ronald W. Clark, quien afirma que Einstein y Mileva llevaban una relación distante que brindaba a Einstein la soledad necesaria para concentrarse en su trabajo.

Page 39: Cosmología

En mayo de 1904, Einstein y Mileva tuvieron un hijo de nombre Hans Albert Einstein. Ese mismo año consiguió un trabajo permanente en la Oficina de patentes. Poco después finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares. En 1905 escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia masa-energía. El trabajo de Einstein sobre el efecto fotoeléctrico le haría merecedor del Premio Nobel de física en 1921. Estos artículos fueron enviados a la revista Annalen der Physik y son conocidos generalmente como los artículos del Annus Mirabilis (del Latín, "Año maravilloso").

Madurez

En 1908 fue contratado en la Universidad de Berna, Suiza, como profesor y conferenciante (Privatdozent) sin cargas administrativas en donde se dedicó a dar cursos de biomecánica, física nuclear y física cuántica. En ese período brindó 75 conferencias diferentes, incluida la más extraña de su carrera: el 7 de abril de 1909 dio una clase magistral sobre la injerencia del ají en la formación del Universo. Einstein y Mileva tuvieron un nuevo hijo, Eduard, nacido el 28 de julio de 1910. Poco después la familia se mudó a Praga, donde Einstein ocupó una plaza de Professor, el equivalente a Catedrático en la Universidad Alemana de Praga. En esta época trabajó estrechamente con Marcel Grossman y Otto Stern. También comenzó a llamar al tiempo matemático cuarta dimensión.

Albert Einstein en 1920

En 1914, justo antes de la Primera Guerra Mundial, Einstein se estableció en Berlín y fue escogido miembro de la Academia Prusiana de Ciencias y director del Instituto de Física Káiser Wilhelm. Su pacifismo y actividades políticas pero, especialmente, sus orígenes judíos, irritaban a los nacionalistas alemanes. Las teorías de Einstein comenzaron a sufrir una campaña organizada de descrédito. Su matrimonio tampoco iba bien. El 14 de febrero de 1919 se divorció de Mileva y el 2 de junio de 1919 se casó con una prima suya, Elsa Loewenthal, nacida Einstein: Loewenthal era el apellido de su primer marido, Max Loewenthal. Elsa

Page 40: Cosmología

era tres años mayor que Einstein y le había cuidado tras sufrir una crisis nerviosa combinada con problemas del sistema digestivo. Einstein y Elsa no tuvieron hijos. El destino de la hija de Albert y Mileva, Lieserl, nacida antes de que sus padres se casaran o encontraran trabajo, es desconocido. Algunos piensan que murió en la infancia y otros afirman que fue entregada en adopción. De sus dos hijos el segundo, Eduard, sufría esquizofrenia y fue internado durante largos años muriendo en una institución mental. El primero, Hans Albert, se mudó a California donde llegó a ser profesor universitario aunque con poca interacción con su padre.

Tras la llegada de Adolf Hitler al poder en 1933, las expresiones de odio por Einstein alcanzaron niveles más elevados. Fue acusado por el régimen nacionalsocialista de crear una "Física judía" en contraposición con la "Física alemana" o "Física aria". Algunos físicos nazis, incluyendo físicos tan notables como los premios Nobel de Física Johannes Stark y Philipp Lenard, intentaron desacreditar sus teorías. Los físicos que enseñaban la Teoría de la relatividad como, por ejemplo, Werner Heisenberg, eran incluidos en listas negras políticas. Einstein abandonó Alemania en 1933 con destino a Estados Unidos, donde se instaló en el Instituto de Estudios Avanzados de Princeton y se nacionalizó estadounidense en 1940. Durante sus últimos años Einstein trabajó por integrar en una misma teoría las cuatro Fuerzas Fundamentales, tarea aún inconclusa. Einstein murió en Princeton, New Jersey, el 18 de abril de 1955.

Trayectoria científica

Los artículos de 1905

En 1904 Einstein consiguió una posición permanente en la Oficina de Patentes Suiza. En 1905 finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares. Ese mismo año escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia masa-energía. El trabajo de Einstein sobre el efecto fotoeléctrico le proporcionaría el Premio Nobel de física en 1921. Estos artículos fueron enviados a la revista "Annalen der Physik" y son conocidos generalmente como los artículos del "Annus Mirabilis" (del Latín: Año extraordinario). La Unión internacional de física pura y aplicada junto con la UNESCO conmemoran 2005 como el Año mundial de la física [1] celebrando el centenario de publicación de estos trabajos.

Movimiento browniano

Artículo principal: Movimiento browniano

El primero de sus artículos de 1905, titulado Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas partículas suspendidas en un líquido estacionario, cubría sus estudios sobre el movimiento browniano.

El artículo explicaba el fenómeno haciendo uso de las estadísticas del movimiento térmico de los átomos individuales que forman un fluido. El

Page 41: Cosmología

movimiento browniano había desconcertado a la comunidad científica desde su descubrimiento unas décadas atrás. La explicación de Einstein proporcionaba una evidencia experimental incontestable sobre la existencia real de los átomos. El artículo también aportaba un fuerte impulso a la mecánica estadística y a la teoría cinética de los fluidos, dos campos que en aquella época permanecían controvertidos.

Antes de este trabajo los átomos se consideraban un concepto útil en física y química, pero la mayoría de los científicos no se ponían de acuerdo sobre su existencia real. El artículo de Einstein sobre el movimiento atómico entregaba a los experimentalistas un método sencillo para contar átomos mirando a través de un microscopio ordinario.

Wilhelm Ostwald, uno de los líderes de la escuela antiatómica, comunicó a Arnold Sommerfeld que había sido transformado en un creyente en los átomos por la explicación de Einstein del movimiento Browniano.

Efecto fotoeléctrico

Artículo principal: Efecto fotoeléctrico

El segundo artículo se titulaba Un punto de vista heurístico sobre la producción y transformación de luz. En él Einstein proponía la idea de "quanto" de luz (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico.

La teoría de los cuantos de luz fue un fuerte indicio de la dualidad onda-corpúsculo y de que los sistemas físicos pueden mostrar tanto propiedades ondulatorias como corpusculares. Este artículo constituyó uno de los pilares básicos de la mecánica cuántica. Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. Por este trabajo, y por sus contribuciones a la física teórica, Einstein recibió el Premio Nobel de Física de 1921.

Relatividad especial Artículo principal: Teoría de la Relatividad Especial

El tercer artículo de Einstein de ese año se titulaba Zur Elektrodynamik bewegter Körper ('Sobre la electrodinámica de cuerpos en movimiento'). En este artículo Einstein introducía la teoría de la relatividad especial estudiando el movimiento de los cuerpos y el electromagnetismo en ausencia de la fuerza de gravedad.

La relatividad especial resolvía los problemas abiertos por el experimento de Michelson-Morley en el que se había demostrado que las ondas electromagnéticas que forman la luz se movían en ausencia de un medio. La velocidad de la luz es, por lo tanto, constante y no relativa al movimiento. Ya en 1894 George Fitzgerald había estudiado esta cuestión demostrando que el experimento de Michelson-Morley podía ser explicado si los cuerpos se contraen en la dirección de su movimiento. De hecho, algunas de las ecuaciones

Page 42: Cosmología

fundamentales del artículo de Einstein habían sido introducidas anteriormente (1903) por Hendrik Lorentz, físico holandés, dando forma matemática a la conjetura de Fitzgerald.

Esta famosa publicación está cuestionada como trabajo original de Einstein, debido a que en ella omitió citar toda referencia a las ideas o conceptos desarrolladas por estos autores así como los trabajos de Poincaré. En realidad Einstein desarrollaba su teoría de una manera totalmente diferente a estos autores deduciendo hechos experimentales a partir de principios fundamentales y no dando una explicación fenomenológica a observaciones desconcertantes. El mérito de Einstein estaba por lo tanto en explicar lo sucedido en el experimento Michelson-Morley como consecuencia final de una teoría completa y elegante basada en principios fundamentales y no como una explicación ad-hoc o fenomenológica de un fenómeno observado.

Su razonamiento se basó en dos axiomas simples: En el primero reformuló el principio de simultaneidad, introducido por Galileo siglos antes, por el que las leyes de la física deben ser invariantes para todos los observadores que se mueven a velocidades constantes entre ellos, y el segundo, que la velocidad de la luz es constante para cualquier observador. Este segundo axioma, revolucionario, va más allá de las consecuencias previstas por Lorentz o Poincaré que simplemente relataban un mecanismo para explicar el acortamiento de unos de los brazos del experimento de Michelson y Morley. Este postulado implica que si un destello de luz se lanza al cruzarse dos observadores en movimiento relativo, ambos verán alejarse la luz produciendo un círculo perfecto con cada uno de ellos en el centro. Si a ambos lados de los observadores se pusiera un detector, ninguno de los observadores se pondría de acuerdo en qué detector se activó primero (se pierden los conceptos de tiempo absoluto y simultaneidad).

La teoría recibe el nombre de "teoría especial de la relatividad" o "teoría restringida de la relatividad" para distinguirla de la Teoría general de la relatividad, que fue introducida por Einstein en 1915 y en la que se consideran los efectos de la gravedad y la aceleración.

Equivalencia masa-energía

Artículo principal: Equivalencia entre masa y energía

El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig? ("¿Depende la inercia de un cuerpo de su contenido de energía?") y mostraba una deducción de la ecuación de la relatividad que relaciona masa y energía.

En este artículo se decía que "la variación de masa de un objeto que emite una energía L es L/V²", donde V era la notación para la velocidad de la luz usada por Einstein en 1905.

Esta ecuación implica que la energía E de un cuerpo en reposo es igual a su masa m multiplicada por la velocidad de la luz al cuadrado:

Page 43: Cosmología

Muestra cómo una partícula con masa posee un tipo de energía, "energía en reposo", distinta de las clásicas energía cinética y energía potencial. La relación masa - energía se utiliza comúnmente para explicar cómo se produce la energía nuclear; midiendo la masa de núcleos atómicos y dividiendo por el número atómico se puede calcular la energía de enlace atrapada en los núcleos atómicos. Paralelamente, la cantidad de energía producida en la fisión de un núcleo atómico se calcula como la diferencia de masa entre el núcleo inicial y los productos de su desintegración multiplicada por la velocidad de la luz al cuadrado.

Relatividad general Artículo principal: Teoría General de la Relatividad

En noviembre de 1915 Einstein presentó una serie de conferencias en la Academia de Ciencias de Prusia en las que describió la teoría de la relatividad general. La última de estas charlas concluyó con la presentación de la ecuación que reemplaza a la ley de gravedad de Newton. En esta teoría todos los observadores son considerados equivalentes y no únicamente aquellos que se mueven con una velocidad uniforme. La gravedad no es ya una fuerza o acción a distancia, como era en la gravedad newtoniana, sino una consecuencia de la curvatura del espacio-tiempo. La teoría proporcionaba las bases para el estudio de la cosmología y permitía comprender características esenciales del Universo, muchas de las cuales no serían descubiertas sino con posterioridad a la muerte de Einstein.

La relatividad general fue obtenida por Einstein a partir de razonamientos matemáticos, experimentos hipotéticos (Gedanken experiment) y rigurosa deducción matemática sin contar realmente con una base experimental. El principio fundamental de la teoría era el denominado principio de equivalencia. A pesar de la abstracción matemática de la teoría, las ecuaciones permitían deducir fenómenos comprobables. En 1919 Arthur Eddington fue capaz de medir, durante un eclipse, la desviación de la luz de una estrella pasando cerca del Sol, una de las predicciones de la relatividad general. Cuando se hizo pública esta confirmación la fama de Einstein se incrementó enormemente y se consideró un paso revolucionario en la física. Desde entonces la teoría se ha verificado en todos y cada uno de los experimentos y verificaciones realizados hasta el momento.

A pesar de su popularidad, o quizás precisamente por ella, la teoría contó con importantes detractores entre la comunidad científica que no podían aceptar una física sin un sistema de referencia absoluto.

Estadísticas de Bose-Einstein

Artículo principal: Estadística de Bose-Einstein

En 1924 Einstein recibió un artículo de un joven físico indio, Satyendra Nath Bose, describiendo a la luz como un gas de fotones y pidiendo la ayuda de Einstein para su publicación. Einstein se dio cuenta que el mismo tipo de

Page 44: Cosmología

estadísticas podían aplicarse a grupos de átomos y publicó el artículo, conjuntamente con Bose, en alemán, la lengua más importante en física en la época. Las estadísticas de Bose-Einstein explican el comportamiento de grupos de partículas indistinguibles entre sí y conocidas como bosones

El Instituto de Estudios Avanzados

Einstein dedicó sus últimos años de trabajo a la búsqueda de un marco unificado de las leyes de la física. A esta teoría la llamaba Teoría de Campo Unificada.

Einstein intentó unificar la formulación de las fuerzas fundamentales de la naturaleza mediante un modelo en el que, bajo las condiciones apropiadas, las diferentes fuerzas surgirían como manifestación de una única fuerza. Sus intentos fracasaron ya que las fuerzas nuclear fuerte y débil no se entendieron en un marco común hasta los años 1970, después de numerosos experimentos en física de altas energías y ya pasados quince años desde la muerte de Einstein. Este objetivo sigue siendo perseguido por la moderna física teórica. Los intentos recientes más destacados para alcanzar una teoría de unificación son las teorías de supersimetría y la teoría de cuerdas.

Actividad política

Albert Einstein tuvo siempre una inclinación hacia la política y al compromiso social como científico, interesándose profundamente por las relaciones entre ciencia y sociedad. Fue cofundador del Partido Liberal Democrático Alemán. Con el auge del movimiento nacional socialista en Alemania Einstein dejó su país y se nacionalizó estadounidense. En plena Segunda Guerra Mundial apoyó una iniciativa de Robert Oppenheimer para iniciar el programa de desarrollo de armas nucleares conocido como Proyecto Manhattan.

Einstein y Oppenheimer

En mayo de 1949, Monthly Review publicó (en Nueva York) un artículo suyo bajo el título de "¿Por qué el socialismo?" en el que reflexiona sobre la historia, las conquistas y las consecuencias de la "anarquía económica de la sociedad capitalista", artículo que hoy en día sigue teniendo vigencia. Hay que tener en cuenta que Albert Einstein fue un enardecido activista político muy perseguido durante la caza de brujas del senador anticomunista McCarthy por manifestar

Page 45: Cosmología

opiniones de carácter anti-imperialista, aunque se salvó por aportar grandes avances científicos de los que el gobierno estadounidense se valió para su expansión armamentística.

Originario de una familia judía asimilada abogó por la causa sionista, aunque hasta 1947 se había mostrado más partidario de un estado común entre árabes y judíos. El Estado de Israel se creó en 1948. Cuando Chaim Weizmann, el primer presidente de Israel y viejo amigo de Einstein, murió en 1952, Abba Eban, embajador israelí en EE.UU., le ofreció la presidencia. Einstein rechazó el ofrecimiento diciendo "Estoy profundamente conmovido por el ofrecimiento del Estado de Israel y a la vez tan entristecido que me es imposible aceptarlo". En sus últimos años fue un pacifista convencido y se dedicó al establecimiento de un utópico Gobierno Mundial que permitiría a las naciones trabajar juntas y abolir la guerra. En esta época lanzó el conocido Manifiesto Russell-Einstein que hacía un llamado a los científicos para unirse en favor de la desaparición de las armas nucleares. Este documento sirvió de inspiración para la posterior fundación de las Conferencias Pugwash que en el 2005 se hicieron acreedoras del Premio Nobel de la Paz

Creencias religiosas

Einstein creía en un "Dios que se revela en la armonía de todo lo que existe, no en un Dios que se interesa en el destino y las acciones del hombre". Deseaba conocer "cómo Dios había creado el mundo".

En algún momento resumió sus creencias religiosas de la manera siguiente: "Mi religión consiste en una humilde admiración del ilimitado espíritu superior que se revela en los más pequeños detalles que podemos percibir con nuestra frágil y débil mente".

En una ocasión, en una reunión se le preguntó a Einstein si creía o no en un Dios a lo que respondió: "Creo en el Dios de Spinoza, que es idéntico al orden matemático del Universo".

Una cita más larga de Einstein aparece en Science, Philosophy, and Religion, A Symposium (Simposio de ciencia, filosofía y religión), publicado por la Conferencia de Ciencia, Filosofía y Religión en su Relación con la Forma de Vida Democrática:

"Cuanto más imbuido esté un hombre en la ordenada regularidad de los eventos, más firme será su convicción de que no hay lugar —del lado de esta ordenada regularidad— para una causa de naturaleza distinta. Para ese hombre, ni las reglas humanas ni las "reglas divinas" existirán como causas independientes de los eventos naturales. De seguro, la ciencia nunca podrá refutar la doctrina de un Dios que interfiere en eventos naturales, porque esa doctrina puede siempre refugiarse en que el conocimiento científico no puede posar el pie en ese tema. Pero estoy convencido de que tal comportamiento de parte de las personas religiosas no solamente es inadecuado sino también fatal. Una doctrina que se mantiene no en la luz clara sino en la oscuridad, que ya ha causado un daño incalculable al progreso humano, necesariamente perderá su efecto

Page 46: Cosmología

en la humanidad. En su lucha por el bien ético, las personas religiosas deberían renunciar a la doctrina de la existencia de Dios, esto es, renunciar a la fuente del miedo y la esperanza, que en el pasado puso un gran poder en manos de los sacerdotes. En su labor, deben apoyarse en aquellas fuerzas que son capaces de cultivar el bien, la verdad y la belleza en la misma humanidad. Esto es de seguro, una tarea más difícil pero incomparablemente más meritoria y admirable."

En una carta fechada en marzo de 1954, que fue incluida en el libro Albert Einstein: su lado humano (en inglés), editado por Helen Dukas y Banesh Hoffman y publicada por Princeton University Press, Einstein dice:

"Por supuesto era una mentira lo que se ha leído acerca de mis convicciones religiosas; una mentira que es repetida sistemáticamente. No creo en un Dios personal y no lo he negado nunca sino que lo he expresado claramente. Si hay algo en mí que pueda ser llamado religioso es la ilimitada admiración por la estructura del mundo, hasta donde nuestra ciencia puede revelarla. [...] No creo en la inmortalidad del individuo, y considero que la ética es de interés exclusivamente humano, sin ninguna autoridad sobrehumana sobre él."

Referencias Biografía

Albert Einstein. (2004). "Colección Grandes Biografías, 59". Editorial Planeta-De Agostini. Barcelona, España. ISBN 84-395-4730-7.

Amis, Martin. (2005). Los mounstruos de Einstein. Ediciones Minotauro. Barcelona, España. ISBN 84-450-7089-4.

Clark, Ronald W., Einstein: The Life and Times, 1971, ISBN 0-380-44123-3. Conferencia de Ciencia, Filosofía y Religión en su Relación con la Forma

de Vida Democrática, Science, Philosophy, and Religion, A Symposium (Simposio de ciencia, filosofía y religión), Nueva York, 1941.

Dukas, Helen, y Banesh Hoffman, Albert Einstein: The Human Side (Albert Einstein, el lado humano), Princeton University Press.

Hart, Michael H., The 100 (576 páginas), Carol Publishing Group, 1992, ISBN 0806513500.

Pais, Abraham, Subtle is the Lord. The Science and the Life of Albert Einstein, 1982, ISBN 0-19-520438-7.

Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX", Cuadernos de Historia Contemporanéa nº 27 (2005), INSS 0214-400-X.

Einstein y la teoría de la relatividad

Einstein, Albert, El significado de la relatividad, Espasa Calpe, 1971. Greene, Brian, El universo elegante, Planeta, 2001.

Page 47: Cosmología

Hawking, Stephen, Breve historia del tiempo, Planeta, 1992, ISBN 9684063563.

Russell, Bertrand, El ABC de la relatividad, 1925.

Material digital

Byron Preiss Multimedia. (2001). Einstein y su teoría de la relatividad. "Colección Ciencia Activa". Anaya Multimedia-Anaya Interactiva. Madrid, España. ISBN 84-415-0247-1. (dos CD y un manual)

Véase también

Wikiquote alberga una colección de frases célebres de o sobre Albert Einstein

Wikimedia Commons alberga contenido multimedia sobre Albert Einstein

Efecto fotoeléctrico Física Teórica Mecánica cuántica Movimiento browniano Teoría de la Relatividad Teoría de la Relatividad Especial Teoría General de la Relatividad

Enlaces externos

Trabajos de Albert Einstein en el Proyecto Gutenberg (en inglés) Premio Nobel de Física: Premio Nobel de Física en 1921 Albert Einstein

(en inglés) Revista TIME 100: Albert Einstein (en inglés) ¿Fue Einstein un extraterrestre? Sobre la Teoría de la Relatividad (ebook) Archivos Oficiales de Einstein Online (en inglés) Manuscritos de Einstein (en inglés) Archivos Albert Einstein (en inglés) Instituto Max Planck: Living Einstein (en inglés) Biografía de Einstein Otra biografía de Einstein Escrito socialista de Einstein

Page 48: Cosmología

Teoría de la Relatividad Especial

La Teoría de la Relatividad Especial, también llamada Teoría de la Relatividad Restringida (en breve, relatividad especial o restringida, RE), publicada por Albert Einstein en 1905, describe la física del movimiento en el marco de sistemas de referencia inerciales. Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son considerados también como originadores de la teoría.

Hasta entonces, los físicos pensaban que la mecánica clásica de Newton, basada en la llamada relatividad de Galileo (origen de las ecuaciones matemáticas conocidas como transformaciones de Galileo), describía los conceptos de velocidad y fuerza para todos los observadores (o sistemas de referencia). Sin embargo, Hendrik Lorentz y otros habían comprobado que las ecuaciones de Maxwell, que gobiernan el electromagnetismo, no se comportaban de acuerdo a las leyes de Newton cuando el sistema de referencia cambia (por ejemplo, cuando se considera el mismo problema físico desde el punto de vista de dos observadores que se mueven uno respecto del otro). La noción de transformación de las leyes de la física respecto a los observadores es la que da nombre a la teoría, que se ajusta con el calificativo de especial o restringida por ceñirse a casos de sistemas en los que no se tiene en cuenta campos gravitatorios.

Una extensión de esta teoría, que incluye los sistemas en campos gravitatorios, es la Teoría General de la Relatividad, publicada por Einstein en 1916. La relatividad no se presentó nunca como una teoría completa, sino que fue desarrollada en varios artículos. La división entre relatividad especial y general fue posterior a los mismos. Al principio los sistemas acelerados o no inerciales se consideraron como relatividad general, pero ahora se tiende a reservar este término sólo para sistemas en campos gravitatorios.

Motivación de la teoría

Las leyes de Newton consideran que el tiempo y el espacio son los mismos para los diferentes observadores de un mismo fenómeno físico. Antes de la formulación de la teoría especial de la relatividad, Lorentz y otros ya habían descubierto que el electromagnetismo difería de la física newtoniana en que las observaciones de un fenómeno podrían diferir de una persona a otra que estuviera moviéndose relativamente a la primera a velocidades próximas a la velocidad de la luz. Así, uno puede observar la inexistencia de un campo magnético mientras la otra observa dicho campo en el mismo espacio físico.

Lorentz sugirió una teoría del éter en la cual objetos y observadores viajarían a través de un éter estacionario, sufriendo un acortamiento físico (hipótesis de contracción de Lorentz) y un cambio en el paso del tiempo (dilatación del tiempo). Lorentz estaba motivado por los resultados negativos del movimiento

Page 49: Cosmología

relativo de la luz con respecto al éter proporcionados unos años antes por el célebre experimento de Michelson-Morley. La explicación de Lorentz suministraba una reconciliación parcial entre la física newtoniana y el electromagnetismo, que se conjugaban aplicando la transformación de Lorentz, que vendría a sustituír a la transformación de Galileo vigente en el sistema newtoniano. La formulación del electromagnetismo frente a las transformaciones de Lorentz fue también estudiada por el físico francés Henri Poincaré. Cuando las velocidades involucradas son mucho menores que c (la velocidad de la luz), las leyes resultantes son en la práctica las mismas que en la teoría de Newton, y las transformaciones se reducen a las de Galileo. De cualquier forma, la teoría del éter fue criticada incluso por el mismo Lorentz debido su naturaleza ad hoc.

Lorentz sugirió su transformación como una descripción matemática precisa de los resultados de los experimentos. Sin embargo, Einstein derivó dichas ecuaciones de dos hipótesis fundamentales: la constancia de la velocidad de la luz, c, y la necesidad de que las leyes de la física sean iguales (invariantes en diferentes sistemas inerciales, es decir, para diferentes observadores). De esta idea surgió el título original de la teoría, "Teoría de los invariantes". Fue Max Planck quien sugirió posteriormente el término "relatividad" para resaltar la noción de transformación de las leyes de la física entre observadores moviéndose relativamente entre sí.

La relatividad especial estudia el comportamiento de objetos y observadores que permanecen en reposo o se mueven con movimiento uniforme (i.e., velocidad relativa constante). En este caso, se dice que el observador está en un sistema de referencia inercial. La comparación de espacios y tiempos entre observadores inerciales puede ser realizada usando las transformaciones de Lorentz.

Características de la relatividad especial

Invariancia de la velocidad de la luz

PUNTO IMPORTANTE:

Para fundamentar la RE, Einstein postuló que la velocidad de la luz en el vacío es la misma para todos los observadores inerciales. Asimismo, resaltó que toda teoría física debe ser descrita por leyes que tengan forma matemática similar en cualquier sistema de referencia inercial. El primer postulado está en concordancia con las ecuaciones de Maxwell del electromagnetismo, y el segundo utiliza un principio de razonamiento lógico similar al utilizado por Galileo para formular sus relaciones de transformación entre sistemas de referencias.

Einstein mostró que de dichos principios se deducen las ecuaciones de Lorentz, y, al aplicarlas bajo estos conceptos, la mecánica resultante tiene varias propiedades interesantes:

Cuando las velocidades de los objetos considerados son mucho menores que la velocidad de la luz, las leyes resultantes son las descritas por Newton. Asimismo, el electromagnetismo no es ya un conjunto de leyes que requiera una transformación diferente de la aplicada en mecánica.

Page 50: Cosmología

El tiempo y el espacio dejan de ser invariantes al cambiar de sistema de referencia, pasando a ser dependiente de las velocidades relativas de los sistemas de referencia de los observadores: Dos eventos que ocurren simultáneamente en diferentes lugares para un sistema de referencia, pueden ocurrir en tiempos diferentes en otro sistema de referencia (la simultaneidad es relativa). De igual manera, si ocurren en un mismo lugar en un sistema, pueden ocurrir en lugares diferentes en otro.

Los intervalos temporales entre sucesos dependen del sistema de referencia en que se miden (por ejemplo, la célebre paradoja de los gemelos). Las distancias entres sucesos, también.

Las dos primeras propiedades resultaban muy atractivas, puesto que cualquier teoría nueva debe explicar las observaciones ya existentes, y éstas indicaban que las leyes de Newton eran muy precisas. La tercera conclusión fue inicialmente muy discutida, puesto que tiraba por tierra muchos conceptos bien conocidos y aparentemente obvios, como el concepto de simultaneidad.

Inexistencia de un sistema de referencia absoluto

Otra consecuencia es el rechazo de la noción de un único y absoluto sistema de referencia. Previamente se creía que el universo viajaba a través de una sustancia conocida como éter (identificable como el espacio absoluto) en relación a la cual podían ser medidas velocidades. Sin embargo, los resultados de varios experimentos, que culminaron en el famoso experimento de Michelson-Morley, sugirieron que, o la Tierra estaba siempre estacionaria (lo que es un absurdo), o la noción de un sistema de referencia absoluto era errónea y debía de ser desechada. Einstein concluyó con la teoría especial de la relatividad que cualquier movimiento es relativo, no existiendo ningún concepto universal de "estacionario".

Equivalencia de masa y energía

Pero quizás mucho más importante fue la demostración de que la energía y la masa, anteriormente consideradas propiedades medibles diferenciadas, eran equivalentes, y se relacionaban a través de la que es sin duda la ecuación más famosa de la teoría:

donde E es la energía, m es la masa y c es la velocidad de la luz en el vacío. Si el cuerpo se está moviendo a la velocidad v relativa al observador, la energía total del cuerpo es:

donde

Page 51: Cosmología

El término ρ es frecuente en relatividad. Se deriva de las ecuaciones de transformación de Lorentz. Cuando v es mucho menor que c se puede utilizar la siguiente aproximación de ρ (obtenida por el desarrollo en serie de Taylor) :

por tanto,

lo que es precisamente igual a la energía en reposo, mc2, más la energía cinética newtoniana, ½mv2. Este es un ejemplo de cómo las dos teorías coinciden cuando las velocidades son pequeñas.

Además, a la velocidad de la luz la energía será infinita, lo que impide que las partículas que tienen masa en reposo puedan alcanzar la velocidad de la luz.

La implicación más práctica de la teoría es que pone un límite superior a las leyes (ver Ley de la naturaleza) de la Mecánica clásica y la gravedad propuestas por Isaac Newton cuando las velocidades se acercan a las de la luz. Nada que pueda transportar masa o información puede moverse más rápido que dicha velocidad. Cuando la velocidad de un objeto se acerca a la velocidad de la luz (en cualquier sistema) la cantidad de energía requerida para seguir aumentando su velocidad aumenta rápida y asintóticamente hacia infinito, haciendo imposible el alcanzar la velocidad de la luz. Sólo partículas sin masa, tales como los fotones, pueden alcanzar dicha velocidad (y de hecho deben trasladarse en cualquier sistema de referencia a esa velocidad) que es aproximadamente 300,000 km por segundo (3�108 ms-1).

El nombre taquión ha sido usado para nombrar partículas hipotéticas que se podrían mover más rápido que la velocidad de la luz. Tales partículas tendrían una masa imaginaria (descrita por un número complejo) y se moverían tanto más rápido cuanto menor fuera su energía. En la actualidad, aún no ha sido hallada evidencia experimental de su existencia.

La relatividad especial también muestra que el concepto de simultaneidad es relativo al observador: Si la materia puede viajar a lo largo de una línea (trayectoria) en el espacio-tiempo sin cambiar de velocidad, la teoría llama a esta línea intervalo temporal, ya que un observador siguiendo dicha línea no podría sentir movimiento (estaría en reposo), sino tan solo viajar en el tiempo de acuerdo a sus sistema de referencia. Similarmente, un intervalo espacial significa una línea recta en el espacio-tiempo a lo largo de la que ni la luz ni otra señal más lenta podría viajar. Sucesos a lo largo de un intervalo espacial no pueden influenciarse uno a otro transmitiendo luz o materia, y pueden aparecer como simultáneos a un observador en un sistema de referencia adecuado. Para observadores en diferentes sistemas de referencia, el suceso A puede parecer anterior al B o viceversa. Esto no sucede cuando consideramos sucesos separados por intervalos temporales.

Page 52: Cosmología

La Relatividad Especial es universalmente aceptada por la comunidad física en la actualidad, al contrario de la Relatividad General que está confirmada, pero con experiencias que podrían no excluír alguna teoría alternativa de la gravitación. Sin embargo, hay aún un conjunto de gente opuesta a la RE en varios campos, habiéndose propuesto varias alternativas, como las llamadas Teorías del Éter.

Formulación matemática de la teoría

La RE usa tensores o cuadrivectores para definir un espacio no-euclídeo. Este espacio, sin embargo, es similar al espacio euclídeo tridimensional en muchos aspectos y es relativamente fácil trabajar en él. El diferencial de la distancia (ds) en un espacio euclídeo se define como:

donde (dx1,dx2,dx3)' son diferenciales de las tres dimensiones espaciales. En la geometría de la relatividad especial, una cuarta dimensión, el tiempo, ha sido añadida, pero es tratada como una cantidad imaginaria con unidades de c, quedando la ecuación para la distancia, en forma diferencial, como:

Si se reducen las dimensiones espaciales a 2, se puede hacer una representación física en un espacio tridimensional,

Se puede ver que las geodésicas con medida cero forman un cono dual:

definido por la ecuación

La ecuación anterior es la de círculo con r=c*dt.

Si se extiende lo anterior a las tres dimensiones espaciales, las geodésicas nulas son esferas concéntricas, con radio = distancia = c*(+ o -)tiempo.

Page 53: Cosmología

Este doble cono de distancias nulas representa el "horizonte de visión" de un punto en el espacio. Esto es, cuando se mira a las estrellas y se dice "La estrella de la que estoy recibiendo luz tiene X años.", se está viendo a través de esa línea de visión: una geodésica de distancia nula. Se está viendo viendo un suceso a

metros, y d/c segundos en el pasado. Por esta razón, el doble cono es también conocido como cono de luz. (El punto inferior de la izquierda del diagrama inferior representa la estrella, el origen representa el observador y la línea representa la geodésica nula, el "horizonte de visión" o cono de luz.) Es importante notar que sólo los puntos interiores al cono de luz del futuro de un evento pueden ser afectados causalmente por ese evento.

Geométricamente, todos los "puntos" a lo largo del cono de luz dan información (representan) el mismo punto en el espacio-tiempo (a causa de que la distancia entre ellos es 0). Esto puede ser pensado como 'un punto de neutralización' de fuerzas. ("La conexión se produce cuando dos movimientos, cada uno de los cuales excluyente del otro, se juntan en un momento." (cita de James Morrison). Es donde los sucesos en el espacio-tiempo intersectan, donde el espacio interactúa consigo mismo. Es como un punto ve el resto del universo y es visto. El cono en la región -t incluye la información que el punto recibe, mientras la región +t del cono engloba la información que el punto envía. De esta forma, lo que podemos visionar es un espacio de horizontes de visión:

Page 54: Cosmología

y recaer en el concepto de autómata celular, aplicándolo en una secuencia continua espacio-temporal. Esto también cuenta para puntos en movimiento relativo uniforme de traslación respecto a sistemas inerciales:

Esto significa que la geometría del Universo permanece la misma sea cual sea la velocidad (δx/δ t) (inercial) del observador. Así, recuperamos la primera ley de movimiento de Newton: un objeto en movimiento tiende a permanecer en movimiento; un objeto en reposo tiende a permanecer en reposo.

Indicios de la teoría de la relatividad general: conservación de la energía cinética

En la relatividad especial, la geometría no permanece constante cuando hay implicada una aceleración (δx2/δ t2), lo que conlleva la aplicación de una fuerza (F=ma), y en consecuencia un cambio de energía. Estos factores indicaban la necesidad de una teoría más amplia que permitiese estudiar las relaciones de transformación entre sistemas de referencia no inerciales o sometidos a la acción de fuerzas. Estos indicios llevaron finalmente a la formulación de la teoría de la relatividad general, en la que la curvatura intrínseca del espacio-tiempo es directamente proporcional a la densidad de energía en dicho punto.

Modificaciones de la relatividad especial

A comienzo del siglo XXI han sido postuladas un cierto número de versiones modificadas de la RE.

Tests de postulados de la relatividad especial

Experimento Michelson-Morley – arrastre del éter. Experimento Hamar – obstrucción del flujo del éter. Experimento Trouton-Noble - torque en un condensador producido por el

arrastre del éter. Experimento Kennedy-Thorndike – contracción del tiempo Experimento sobre las formas de emisión.

Véase también

Wikimedia Commons alberga contenido multimedia sobre Teoría de la Relatividad Especial

Taquión

Page 55: Cosmología

Relatividad general

Enlaces externos y referencias

Enlaces de interés:

http://www-gap.dcs.st-and.ac.uk/~history/HistTopics/Special_relativity.html

http://www.ucm.es/info//hcontemp/leoc/hciencia.htm http://www.hverdugo.cl/relatividad.htm http://foro.migui.com/phpbb/viewtopic.php?t=1353

Referencias:

El ABC de la relatividad, Bertrand Russell, 1925.

Stephen Hawking Stephen William Hawking (1942- ), físico teórico y cosmólogo británico.

Biografía

Stephen William Hawking nació el 8 de enero de 1942 (300 años después de la muerte de Galileo) en Oxford, Inglaterra. La casa de sus padres estaba en el norte de Londres, pero durante la Segunda Guerra Mundial se consideraba que Oxford era uno de los lugares más seguros para tener niños. Cuando tenía ocho años, su familia se mudó a St. Albans, un pueblo a unas 20 millas al norte de Londres. A los once Stephen fue a la Escuela de St. Albans, y luego al Colegio Mayor Universitario en Oxford, antiguo colegio de su padre. Stephen quería hacer Matemáticas, pese a que su padre habría preferido Medicina. Como Matemáticas no podía estudiarse en el Colegio Universitario, optó por Física. Después de tres años y no mucho trabajo se le concedió el título de primera clase con honores en Ciencias Naturales.

Tras obtener el Doctorado pasó a ser Investigador, y más tarde Profesor en los Colegios Mayores de Gonville y Caius. Después de abandonar el Instituto de Astronomía en 1973, Stephen entró en el Departamento de Matemáticas Aplicadas y Física Teórica, y desde 1980 ocupa el puesto de Profesor Lucasiano de Matemáticas. La Cátedra fue fundada en 1663 con fondos concedidos en el testamento del Reverendo Henry Lucas, quien había sido Miembro del Parlamento por la Universidad. Fue primero cubierta por Isaac Barrow, y luego en 1669 por Isaac Newton.

En 1985 fue traqueostomizado y desde entonces utiliza un sintetizador de voz para comunicarse. Gradualmente fue perdiendo el uso de sus brazos y piernas, así como del resto de la musculatura voluntaria, incluyendo la fuerza del cuello

Page 56: Cosmología

para mantener la cabeza erguida, con todo lo cual su movilidad es prácticamente nula (Esclerosis lateral amiotrófica, el mismo caso de Jason Becker) . La silla de ruedas que utiliza en público está controlada por un ordenador que Hawking maneja mediante leves movimientos de cabeza y ojos, lo que también le permite seleccionar palabras y frases en el sintetizador de voz.

Se caso por primera vez en julio de 1965 con Jane Wilde. Hawking se casó por segunda vez con su enfermera - Elaine Mason - el 16 de septiembre de 1995. Hawking continúa combinando la vida en familia (con su esposa, sus tres hijos y un nieto) y su investigación en física teórica junto con un extenso programa de viajes y conferencias.

Obra

Hawking ha trabajado en las leyes básicas que gobiernan el universo. Junto con Roger Penrose mostró que la Teoría General de la Relatividad de Einstein implica que el espacio y el tiempo han de tener un principio en el Big Bang y un final dentro de agujeros negros. Semejantes resultados señalan la necesidad de unificar la Relatividad General con la Teoría Cuántica, el otro gran desarrollo científico de la primera mitad del siglo XX. Una consecuencia de tal unificación que él descubrió era que los agujeros negros no eran totalmente negros, sino que podían emitir radiación y eventualmente evaporarse y desaparecer. Otra conjetura es que el universo no tiene bordes o límites en el tiempo imaginario. Esto implicaría que el modo en que el universo empezó queda completamente determinado por las leyes de la ciencia.

Sus numerosas publicaciones incluyen “La Estructura a Gran Escala del Espaciotiempo” con G. F. R. Ellis, “Relatividad General: Revisión en el Centenario de Einstein” con W. Israel, y “300 Años de Gravedad”, con W. Israel. Stephen Hawking ha publicado tres libros de divulgación: su éxito de ventas “Breve Historia del Tiempo”, “Agujeros Negros y Universos Bebés y Otros Ensayos” y más recientemente en 2001, “El Universo en una Cáscara de Nuez”, y en 2005, "Brevísima Historia del Tiempo", una versión revisada y ampliada de su primer best-seller.

Currículum

El Profesor Hawking tiene doce doctorados honoríficos, ha ganado el CBE en 1982 y fue designado Compañero de Honor en 1989. Es el receptor de numerosos premios (por ejemplo, el Premio Príncipe de Asturias de la Concordia en 1989), galardones y medallas y es Miembro de Honor de la Royal Society y de la U S National Academy of Sciencies.

Véase también

Colonización espacial Física Teórica

Enlaces externos

Page 57: Cosmología

Wikiquote alberga una colección de frases célebres de o sobre Stephen Hawking

Página oficial, en inglés

Electromagnetismo El electromagnetismo, estudia los fenómenos eléctricos y magnéticos que se unen en una sola teoría ideada por Faraday, que se resumen en cuatro ecuaciones vectoriales que relacionan campos eléctricos y magnéticos conocidas como las ecuaciones de Maxwell. Gracias a la invención de la pila de limón, se pudieron efectuar los estudios de los efectos magnéticos que se originan por el paso de corriente eléctrica a través de un conductor.

El Electromagnetismo, de esta manera es la parte de la Física que estudia los campos eléctricos y campos magnéticos, sus interacciones con la materia y, en general, la electricidad, el magnetismo y las partículas subatómicas que generan flujo de carga eléctrica.

El electromagnetismo, por ende se comprende que estudia conjuntamente los fenómenos físicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, así como los relativos a los campos magnéticos y a sus efectos sobre diversas sustancias sólidas, líquidas y gaseosas.

Campos Eléctricos y Magnéticos

Es conveniente entender el electromagnetismo en dos conceptos separados: El campo eléctrico y el campo magnético. Un campo eléctrico es producido por la presencia de cargas eléctricas, las cuales crean una fuerza, relacionadas por la

ecuación: (Siendo q la carga eléctrica medida en culombios, y E el campo eléctrico medido en Newtons/Coulombs). Esta fuerza eléctrica es la responsable de la electricidad estática y dirige el flujo de carga eléctrica en un area determinada (corriente eléctrica). También el campo magnético puede ser producido por el movimiento de cargas eléctricas, o corriente eléctrica, las cuales crean la fuerza magnética asociada con los imanes, como la magnetita.

El término electromagnetismo proviene del hecho de que no podemos estudiar los campos eléctricos y magnéticos por separado. Un campo magnético variable produce un campo eléctrico (como ocurre en el fenomemo de inducción electromagnética, la cual es la base para el funcionamiento de generadores eléctricos, motores de inducción eléctrica y transformadores). Similarmente, un campo eléctrico variable genera un campo magnético.

Page 58: Cosmología

Debido a esta dependencia mutua de los campos eléctricos y magnéticos, se considera lógico considerarlos como uno solo: el campo electromagnético. Esta unificación, la cual fue completada por James Clerk Maxwell, es uno de los triunfos para los físicos del siglo XIX. Estos estudios trajeron consecuencias sumamente importantes, siendo una de ellas la explicación de la naturaleza de la luz.

Como se ha ido descubriendo, lo que percibimos como “luz visible” es realmente una propagación oscilatoria en el campo electromagnético, es decir, una onda electromagnética. Diferentes frecuencias de oscilación dan a lugar a las diferentes formas de radiación electromagnética, desde las ondas de radio, de frecuencias bajas, la luz visible, en frecuencias intermedias, hasta los rayos gamma con las frecuencias bastante altas.

Las implicaciones teóricas del electromagnetismo llevaron a Albert Einstein a la publicación de la Teoría de relatividad especial, en 1905.

Desarrollo histórico de la teoría electromagnética

Históricamente, el magnetismo y la electricidad habían sido tratados como fenómenos distintos y eran estudiados como ciencias diferentes. Sin embargo, los descubrimientos de Oersted y luego de Ampère, al observar que la aguja de una brújula variaba su posición al pasar corriente a través de un conductor situado próximo a ella. También los estudios de Faraday, en el mismo campo, sugerían que la electricidad y el magnetismo eran manifestaciones de un mismo fenómeno.

La idea anterior fue propuesta y materializada por el físico ingles James Clerk Maxwell (1831-1879), quien luego de estudiar los fenómenos eléctricos y magnéticos concluyó que son producto de una misma interacción, denominada interacción electromagnética, lo que le llevó a formular, alrededor del año 1850, las ecuaciones antes citadas, que llevan su nombre, en las que se describe el comportamiento del campo electromagnético. Estas ecuaciones dicen esencialmente que:

1. Existen portadores de cargas eléctricas, y las líneas del campo eléctrico parten desde las cargas positivas y terminan en las cargas negativas.

2. No existen portadores de carga magnética; por lo tanto, el número de líneas del campo magnético que salen desde un volumen dado, debe ser igual al número de líneas que entran a dicho volumen.

3. Un imán en movimiento, o, dicho de otra forma, un campo magnético variable, genera una corriente eléctrica llamada corriente inducida.

4. Cargas eléctricas en movimiento generan campos magnéticos.

Enlaces externos

Electromagnetismo: De la Ciencia a la Tecnología

Electromagnetismo

Page 59: Cosmología

Electricidad � Magnetismo

Electrostática : Campo eléctrico � Carga eléctrica � Ley de Gauss � Ley

de Coulomb � Potencial eléctrico

Magnetostática : Amperio � Campo magnético � Corriente eléctrica �

Momento magnético

Electrodinámica : Campo electromagnético � Corriente de

desplazamiento � Ecuaciones de Maxwell � Fuerza electromotriz �

Fuerza de Lorentz � Inducción magnética � Ley de Lenz � Radiación

electromagnética

Circuito eléctrico : Condensador � Electrónica � Generador eléctrico �

Guía de onda � Impedancia � Inductancia � Resistencia eléctrica

Física Cuántica La Física Cuántica es la parte de la física que estudia los procesos microscópicos. La Física Cuántica comenzó con el desarrollo de una teoría revolucionaria (aunque al principio no fue tomada en serio ni por su autor) desarrollada por el gran físico y matemático Max Planck; esta teoría pretendía explicar el espectro de radiaciones de un cuerpo negro y resolver así el problema de la Catástrofe Ultravioleta (teoría clásica de la radiación), Max Planck hizo dos hipótesis transcendentales:

La radiación en un cuerpo negro depende de la frecuencia de las ondas. La energía está discretizada en unas cantidades mínimas a las que llamó

cuantos (quatum).

Mediante estos razonamientos llegó Planck a su famosa fórmula E=h�f Esta fórmula es debida a Planck y no a Einstein que la utilizó más tarde para explicar el efecto fotoeléctrico diciendo que cada fotón incidente tenía una energía E=h�f

El gran avance de la físca cuántica logró explicar muchos hechos inexplicables mediante la teoría clásica; conocidos son la teoría ondulatoria de Schrödinger o el Principio de Incertidumbre de Heisenberg.

Física de partículas La Física de Partículas o Física de Altas Energías es la parte de la Física que estudia los componentes elementales de la materia y las interacciones entre ellos.

Page 60: Cosmología

Las partículas fundamentales se subdividen en bosones (partículas de espín entero como por ejemplo 0, 1, 2...) y fermiones (partículas de espín semientero como por ejemplo 1/2 ó 3/2). Las fuerzas fundamentales de la naturaleza son transmitidas por bosones.

Se consideran 4 tipos de fuerzas o interacciones fundamentales:

Electromagnética: transmitida por fotones la sufren todas las partículas con carga eléctrica.

Nuclear débil: transmitida por los bosones vectoriales W± y Z0 es la responsable, por ejemplo, de la desintegración β.

Nuclear fuerte: transmitida por los gluones es la que hace que los quarks se unan para formar mesones y bariones (nucleones). Solo la sufren los hadrones.

Gravitación: transmitida por el gravitón (partícula no descubierta aún). Al nivel de partículas fundamentales esta fuerza es de escasa importancia y difícil de incluir en las teorías.

Algunas teorías fundamentales predicen la existencia de otros bosones más pesados como el bosón de Higgs (a veces varios) que dotaría de masa a las partículas fundamentales.

Los componentes básicos de la materia son fermiones, incluyendo los bien conocidos protón, neutrón, y electrón. De éstos, solamente el electrón es realmente elemental. Los otros dos son agregados de partículas más pequeñas (quarks) unidos por la interacción fuerte. Los fermiones elementales existen en cuatro variedades básicas, cada una de las cuales se clasifica en tres generaciones con diversas masas:

• - Las partículas de la tabla solo tienen carga débil si son levógiras o, para las antipartículas, si son dextrógiras.

Tipo de

fermión Nombre Símbolo

Carga electromagnética

Carga débil*

Carga fuerte (color)

Masa

Electrón e- -1 -1/2 0 0,511

MeV/c²

Muón µ- -1 -1/2 0 105,6

MeV/c²

Leptón

Tauón τ- -1 -1/2 0 1,784

GeV/c²

Page 61: Cosmología

Neutrino electrón νe 0 +1/2 0

< 50 eV/c²

Neutrino muón νµ 0 +1/2 0

< 0,5 MeV/c²

Neutrino tauón ντ 0 +1/2 0

< 70 MeV/c²

up u +2/3 +1/2 R/G/B ~5

MeV/c²

charm (encanto)

c +2/3 +1/2 R/G/B ~1.5

GeV/c²

top t +2/3 +1/2 R/G/B >30

GeV/c²

down d -1/3 -1/2 R/G/B ~10

MeV/c²

strange (extraño)

s -1/3 -1/2 R/G/B ~100

MeV/c²

Quark

bottom b -1/3 -1/2 R/G/B ~4,7

GeV/c²

Las partículas se agrupan en generaciones. Existen tres generaciones. La primera está compuesta por el electrón, su neutrino y los quarks up y down. La materia ordinaria está compuesta por partículas de esta primera generación. Las partículas de otras generaciones se desintegran en partículas de las generaciones inferiores.

Los leptones existen libres. Sin embargo los quarks solo existen en grupos sin color debido a que los gluones poseen carga de color. Estos grupos están formados por dos (mesones) o tres (bariones) quarks. El protón y el neutrón son algunos de los bariones existentes. El pion es uno de los mesones más importantes.

Se puede encontrar información sobre las propiedades de las distintas partículas elementales en inglés en el sitio web del Particle Data Group

Hiperespacio (geometría)

Page 62: Cosmología

El hiperespacio es una forma de espacio que tiene cuatro o más dimensiones.

En teoría, si fuese posible controlar la energía de un agujero negro, su gran fuerza gravitacional lograría curvar el espacio-tiempo de tal manera que 2 distancias muy lejanas se "juntarían" y así uno podria viajar más rápido que la luz.

Interpretación de Copenhague

Nombre que se le da a una interpretaciones de la mecánica cuántica atribuida principalmente a Max Born, Werner Heisemberg, Niels Bohr y otros, se conoce así debido al nombre de la ciudad en la que residía Bohr.

Fue formulada por el físico danés Niels Bohr, con ayuda de Max Born y Werner Heisenberg entre otros en 1927 en una conferencia en Como, Italia. Se conoce así debido al nombre de la ciudad en la que residía Bohr.

La interpretación de Copenhague incorpora el principio de incertidumbre de Heisenberg, el cual establece que no se puede conocer con absoluta precisión la posición y el momento de una partícula simultáneamente. La interpretación de Copenhague señala el hecho de que el principio de incertidumbre no opera en el mismo sentido hacia atrás y hacia delante en el tiempo. Muy pocos hechos en física tienen en cuenta la forma en que fluye el tiempo, y este es uno de los problemas fundamentales del universo que habitamos donde ciertamente hay una distinción entre el pasado y futuro. Las relaciones de incertidumbre indican que no es posible conocer la posición y el momento simultáneamente y consiguientemente no es posible predecir el futuro ya que en palabras de Heisenberg “no podemos conocer, por principio, el presente en todos sus detalles”. Pero es posible de acuerdo con las leyes de la mecánica cuántica conocer cual era la posición y el momento de una partícula en un momento del pasado. El futuro es esencialmente impredecible e incierto mientras que el pasado completamente definido. Por lo tanto nos movemos de un pasado definido a un futuro incierto.

Bohr formuló en la interpretación de Copenhague lo que se conoce como el principio de complementariedad que establece que ambas descripciones, la ondulatoria y la corpuscular, son necesarias para comprender el mundo cuántico. Bohr también señaló en esa conferencia que mientras en la física clásica un sistema de partículas en dirección funciona como un aparato de relojería, independientemente de que sean observadas o no, en física cuántica el observador interactúa con el sistema en tal medida que el sistema no puede considerarse con una existencia independiente.

Page 63: Cosmología

Escogiendo medir con precisión la posición se fuerza a una partícula a presentar mayor incertidumbre en su momento, y viceversa; escogiendo un experimento para medir propiedades ondulatorias se eliminan peculiaridades corpusculares, y ningún experimento puede mostrar ambos aspectos, el ondulatorio y el corpuscular, simultáneamente (J.Gribbin)

Además según la interpretación de Copenhague toda la información la constituyen los resultados de los experimentos. Se puede observar un átomo y ver un electrón en el estado de energía A, después volver a observar y ver un electrón en el estado de energía B. Se supone que el electrón saltó de A a B, quizás a causa de la observación. De hecho, no se puede asegurar siquiera de que se trate del mismo electrón y no se puede hacer ninguna hipótesis de lo que ocurría cuando no se observaba. Lo que se puede deducir de los experimentos, o de las ecuaciones de la mecánica cuántica, es la probabilidad de que si al observar el sistema se obtiene el resultado A, otra observación posterior proporcione el resultado B. Nada se puede afirmar de lo que pasa cuando no se observa ni de cómo pasa el sistema del estado A al B.

Einstein y muchos otros físicos se negaron a aceptar esta interpretación de la mecánica cuántica, presentando varias criticas. Las principales de ella son: la paradoja E.P.R. presentada por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935 y la paradoja del gato de Schrödinger formulada por Edwin Schrödinger también en 1935.

Interpretaciones de la Mecánica cuántica El gran problema lo constituye el proceso de medición. En la física clásica, medir significa revelar o poner de manifiesto propiedades que estaban en el sistema desde antes de que midamos. En mecánica cuántica el proceso de medición altera de forma incontrolada la evolución del sistema. Constituye un error pensar dentro del marco de la física cuántica que medir es revelar propiedades que estaban en el sistema con anterioridad. La información que nos proporciona la función de onda es la distribución de probabilidades, con la cual se podrá medir tal valor de tal cantidad. Cuando medimos ponemos en marcha un proceso al cual no es ajeno el azar, ya que habrá distintas probabilidades de medir distintos resultados. Esta idea fue y es aún objeto de controversias y disputas entre los físicos, filósofos y epistemólogos. Uno de los grandes objetores de esta interpretación fue Albert Einstein, quien a propósito de esta idea dijo su famosa frase Dios no juega a los dados.

Independientemente de los problemas de interpretación, la mecánica cuántica ha podido explicar esencialmente todo el mundo microscópico y ha hecho predicciones que han sido probadas experimentalmente de forma exitosa, por lo que es una teoría unánimemente aceptada.

Page 64: Cosmología

El problema de la medida

El problema de la medida se puede describir informalmente del siguiente modo:

1. De acuerdo con la mecánica cuántica cuando un sistema físico, ya sea un conjunto de electrones orbitando en un átomo, o un conjunto de políticos decidiendo la siguiente guerra planetaria, queda descrito por una función de onda. Dicha función de onda es un objeto matemático que supuestamente describe la máxima información posible que contiene un estado puro.

2. Si nadie externo al sistema ni dentro de él observara o tratara de ver como está el sistema, la mecánica cuántica nos diría que el estado del sistema evoluciona deterministamente. Es decir, que podría ser perfectamente predecible hacia donde irá el sistema.

3. La función de onda, nos informa de cuales son los resultados posibles de una medida y sus probabilidades relativas, pero no nos dice qué resultado concreto se obtendrá si cuando un observador trate efectivamente de medir el sistema o averiguar algo sobre él. De hecho la medida sobre un sistema es un valor aleatorio de entre los resultados posibles.

Eso plantea un problema serio, si las personas, los científicos u observadores son también objetos físicos como cualquier otro, debería haber alguna forma determinista de predecir como tras juntar el sistema en estudio con el aparato de medida, finalmente llegamos a un resultado determinista. Pero el postulado de que una medición destruye la "coherencia" de un estado inobservado e inevitablemente tras la medida se queda en un estado mezcla aleatorio parece solo nos deja tres salidas:

(A) O bien renunciamos a entender el proceso de decoherencia por lo cual un sistema pasa de tener un estado puro que evoluciona deterministamente a tener un estado mezcla o "incoherente" (B) O bien admitimos que existen unos objetos no-físicos llamados "conciencia" que no están sujetos a las leyes de la mecánica cuántica y que nos resuelven el problema. (C) O tratamos de inventar cualquier hipótesis exótica que nos haga compatibilizar como por un lado deberíamos estar observando tras una medida un estado no fijado por el estado inicial y por otro lado que el estado del universo en su conjunto evoluciona de forma determinista.

Ver también

Interpretación de Copenhague Interpretación de Everett

Page 65: Cosmología

Número cuántico Wolfgang Pauli fue uno de los componentes más importantes del grupo de científicos que crearon la teoría cuántica, juega un papel crucial en el desarrollo de esta teoría. Cada una de las capas del modelo atómico de Bohr correspondía a un conjunto de números cuánticos y formuló lo que hoy se conoce como el principio de exclusión de Pauli, según el cual dos electrones no pueden tener nunca el mismo conjunto de números cuánticos, proporcionando así una razón para justificar la forma de llenarse las capas de átomos cada vez más pesados.

Desde un punto de vista mecano-cuántico, los números cuánticos son soluciones de la Ecuación de Schrödinger.

Los números cuánticos se emplean para describir matemáticamente un modelo tridimensional del átomo. El número cuántico principal, n, define el estado de energía principal, o capa, de un electrón en órbita. El número cuántico orbital, l, describe la magnitud del momento angular del electrón en órbita. El número cuántico m describe la orientación magnética en el espacio del plano de la órbita del electrón. El llamado espín se designa con el número cuántico de espín magnético, ms, que puede adoptar el valor de – 1 o + 1 según la dirección del espín. Para cada número cuántico, salvo ms, sólo están permitidos determinados valores enteros. Las consecuencias de esta regla están sustancialmente de acuerdo con la ley periódica.

Por ejemplo, cuando el número cuántico principal (n) es 1, la teoría cuántica sólo permite que el número orbital (l) y el número cuántico magnético (m) tengan un valor de 0, y que el número cuántico de espín (ms) sea + 1 o – 1. El resultado es que sólo hay dos combinaciones posibles de números cuánticos: 1 – 0 – 0 – (+1) y 1 – 0 – 0 – (– 1). Según el principio de exclusión, cada una de estas dos combinaciones de números cuánticos puede ser adoptada por un único electrón. Por tanto, cuando el número cuántico principal es n = l, sólo dos electrones pueden ocupar esa capa electrónica.

Cuando n = 2, la teoría cuántica permite que l sea 0 o 1, m sea +1, 0, o –1, y ms sea + 1 o – 1. Existen ocho combinaciones posibles de estos números cuánticos. Por tanto, en la segunda capa electrónica puede haber un máximo de ocho electrones. Con este método puede establecerse el número máximo de electrones permitidos en cada capa electrónica de cualquier átomo. La ley periódica se explica por el diferente grado de llenado de las capas electrónicas de los átomos.

Química computacional

Page 66: Cosmología

La química computacional es una rama de la química teórica y de la química cuántica. El objetivo de la química computacional es producir y utilizar programas informáticos para el estudio de las propiedades (como energía, momento dipolar, frecuencias de vibración) de moléculas y, en menor medida, sólidos extendidos. También se usa para cubrir áreas de solapamiento entre la informática y la química.

En química teórica, los químicos y los físicos desarrollan algoritmos y teorías que permiten predicciones precisas de propiedades atómicas o moleculares, o caminos para las reacciones químicas. Los químicos computacionales usan los programas y metodologías existentes y los aplican a problemas químicos específicos.

Hay dos aproximaciones diferentes a esto:

1. estudios computacionales para encontrar un punto de partida para la síntesis en laboratorio;

2. estudios computacionales para explorar mecanismos de reacción y explicar observaciones en reacciones ya vistas en el laboratorio.

Hay varias areas en este campo:

la representación computacional de átomos y moléculas almacenamiento, organización y búsqueda de datos sobre entidades

químicas (Bases de datos) identificación de patrones, tendencias y correlaciones entre estructuras

químicas y sus propiedades ( QSPR ) elucidación de estructuras basadas en la simulación de campos de fuerzas modelos para ayudar a la síntesis eficiente de compuestos diseño de moléculas que interaccionen con otras de forma efectiva,

especialmente en diseño de fármacos

Los programas usados en química computacional se basan en diferentes métodos mecanocuánticos que resuelven la ecuación de Schrödinger molecular. Los métodos que no incluyen parámetros empíricos ni semi-empíricos en sus ecuaciones se llaman métodos ab initio. Las clases más populares de métodos ab initio son: Hartree-Fock, teoría de perturbaciones de Moller-Plesset, interacción de configuraciones, coupled cluster, matrices de densidad reducidas y teoría del funcional de la densidad (existen ciertas diferencias de opinión sobre si la teoría del funcional de la densidad ha de considerarse puramente ab initio o semiempírico). Cada clase contiene diversos métodos que usan diferentes variantes de la teoría, típicamente orientados a una propiedad molecular concreta, o a un conjunto especial de moléculas. La abundancia de estos métodos es una prueba de que no hay un método único que sea adecuado para todos los propósitos.

En principio, sería posible usar un método "exacto" (por ejemplo, interacción completa de configuraciones con una base lo suficientemente grande) y aplicarlo a todas las moléculas. Sin embargo, aunque estos métodos son bien conocidos y están disponibles en muchos programas, el coste computacional crece factorialmente (más rápido que exponencialmente) con el número de electrones

Page 67: Cosmología

de la molécula. Por este motivo, hay un gran número de métodos aproximados que buscan el mejor compromiso en cada caso entre exactitud y coste computacional. Actualmente, la química computacional puede calcular con gran precisión y sin grandes costes las propiedades de moléculas de hasta una decena de electrones. El tratamiento de moléculas que contienen unas pocas docenas de electrones prácticamente sólo es abordable por métodos más aproximados, como la teoría del funcional de la densidad. Los sistemas mayores, como moléculas con varios metales pesados, superficies, sistemas tridimensionales o enzimas, sólo se pueden tratar de forma heterogénea, focalizando el interés en una zona del espacio o en algunos de los electrones, y dejando que el resto se reproduzca por pseudopotenciales, cargas eléctricas puntuales, o campos de fuerzas clásicos: los llamados métodos híbridos QM/MM (siglas de las palabras inglesas Quantum Mechanics / Molecular Mechanics, Mecánica Cuántica / Mecánica Molecular en castellano).

Hay cierta polémica en el campo sobre si los métodos más aproximados son suficientemente precisos como para describir adecuadamente reacciones químicas complejas, como las que se dan en bioquímica.

Hay un gran número de paquetes informáticos disponibles que son autosuficientes y que implementan muchos métodos mecanocuánticos. Entre los más usados se encuentran deMon2k, GAUSSIAN, GAMESS, Q-Chem, ACES, MOLPRO, DALTON, Spartan, PSI, JAGUAR, MOLCAS, MOPAC, NWChem y PLATO.

Química cuántica La química cuántica es la aplicación de la mecánica cuántica a problemas de química.

Una aplicación de la química cuántica es el estudio del comportamiento de átomos y moléculas, en cuanto a sus propiedades ópticas, eléctricas, magnéticas y mecánicas, y también su reactividad química, sus propiedades red-ox, redox... pero también se estudian materiales, tanto sólidos extendidos como superficies.

Como los estudios mecanocuánticos sobre átomos se consideran en la frontera entre la química y la física, y no se incluyen por lo general dentro de la química cuántica, frecuentemente se considera como primer cálculo de química cuántica el llevado a cabo por los científicos alemanes Walter Heitler y Fritz London (aunque a Heitler y a London se les suele considerar físicos) sobre la molécula de dihidrógeno (H2) en 1927. El método de Heitler y London fue perfeccionado por los químicos americanos John C. Slater y Linus Pauling, para convertirse en el método de enlace de valencia (o Heitler-London-Slater-Pauling (HLSP)). En este método, se presta atención particularmente a las interacciones entre pares de átomos, y por tanto se relaciona mucho con los esquemas clásicos de enlaces entre átomos.

Page 68: Cosmología

Friedrich Hund y Robert S. Mulliken desarrollaron un método alternativo, en que los electrones se describían por funciones matemáticas deslocalizadas por toda la molécula. El método de Hund-Mulliken (o de orbitales moleculares) es menos intuitivo para los químicos, pero, al haberse comprobado que es más potente a la hora de predecir propiedades que el método de enlace de valencia, es virtualmente el único usado en los últimos años.

Apartados de interés

Algunos subtemas de interés en química cuántica son:

la aproximación de Born-Oppenheimer el método del campo autoconsistente la aproximación de Hartree-Fock la Teoría del Funcional de la Densidad

Químicos Cuánticos

La comunidad de científicos que han hecho grandes aportaciones a la química cuántica incluye a:

Linus Carl Pauling John C. Slater Friedrich Hund Erich Hückel

Véase también

Química computacional

Superposición cuántica

Superposición cuántica es la aplicación del principio de superposición a la mecánica cuántica. Ocurre cuando un objeto "posee simultáneamente" dos o más valores de una cantidad observable (e.g. la posición o la energía de una partícula).

Más específicamente, en mecánica cuántica, cualquier cantidad observable corresponde a un autovector de un operador lineal hermitiano. La combinación lineal de dos o más autovectores da lugar a la superposición cuántica de dos o más valores de la cantidad. Si se mide la cantidad, el postulado de proyección establece que el estado será colapsado aleatoriamente sobre uno de los valores de la superposición (con una probabilidad proporcional a la amplitud de ese autovector en la combinación lineal).

Page 69: Cosmología

La pregunta en cuanto a porqué los objetos (macroscópicos, newtonianos) y los acontecimientos "reales" no parecen exhibir propiedades mecánico cuánticas tales como la superposición se presentó naturalmente. En 1935, Erwin Schrödinger ideó un experimento de pensamiento bien conocido, ahora llamado el gato de Schrödinger, que destacó la disonancia entre la mecánica cuántica y la física newtoniana.

De hecho, la superposición cuántica da lugar a muchos efectos directamente observables, tales como los picos de interferencia de una onda de electrón en el experimento de doble-rendija.

Si dos observables corresponden a los operadores que no conmutan, obedecen a un principio de incertidumbre y un estado definido de un observable corresponde a una superposición de muchos estados para el otro observable.

Taquión Un taquión es una partícula hipotética que se mueve a velocidades superlumínicas. A los taquiones se les atribuyen muchas propiedades extrañas, sobre todo por parte de los autores de ciencia ficción.

En el lenguaje de la teoría de la relatividad especial de Einstein, un taquión (si existe) sería una partícula con un cuadrimomento de tipo especial. Si su energía y momento son reales, su masa en reposo es imaginaria. Por lo que la norma de Minkowski de su cuadrimomento sería negativa, ya que:

PaPa = m2c2

Es dudoso que una masa imaginaria tenga algún significado físico. El tiempo propio que experimenta un taquión es también imaginario. Un curioso efecto es que a diferencia de partículas imaginarias, la velocidad de un taquión crece cuando su energía decrece. Esto es una consecuencia de la relatividad especial debido a que, en teoría, un taquión tiene masa cuadrada negativa. De acuerdo con Einstein, la energía total de una partícula es la suma de la masa en reposo multiplicada por la velocidad de la luz al cuadrado y la energía cinética del cuerpo. Si m denota la masa en reposo, entonces la energía total es dada por la relación

Para materia ordinaria, esta ecuación demuestra que E aumenta con la velocidad, convirtiéndose infinita a la medida que v (velocidad) se aproxima a c, la velocidad de la luz. Si m es imaginaria, por otra parte, el denominador de la fracción necesita ser imaginario para mantener a la energía como un número real. El denominador sería imaginario si el número en la raíz cuadrada es negativo, lo cuál solo pasa si v es mayor que c.

Page 70: Cosmología

Un taquión está limitado a la porción de tipo espacial del gráfico de energía-momento. Por tanto, nunca puede ir a velocidades inferiores a la de la luz. Curiosamente, mientras su energía disminuye, su velocidad aumenta.

Si existieran los taquiones y pudieran interactuar con la materia ordinaria, podría violarse el principio de causalidad.

En la teoría de la relatividad general, es posible construir espacio-tiempos en los cuales las partículas se propaguen más rápidamente que la velocidad de la luz, relativo a un observador distante. Un ejemplo es la métrica de Alcubierre. Sin embargo, estos no serían taquiones en el sentido anterior, puesto que no superarían la velocidad de la luz localmente.

Mecánica cuántica

Fig. 1: La función de onda de un electrón de un átomo de hidrógeno posee niveles de energía definidos y discretos denotados por un número cuántico n=1,2,3,... y valores definidos de momento angular caracterizados por la notación: s, p, d,... Las areas brillantes en la figura corresponden a densidades de probabilidad elevadas de encontrar el electrón en dicha posición.

La mecánica cuántica, conocida también como mecánica ondulatoria y como física cuántica, es la rama de la física que estudia el movimiento de las partículas muy pequeñas, el comportamiento de la materia a escala muy pequeña.

El concepto de partícula "muy pequeña" atiende al tamaño en el cual comienzan a notarse efectos como la imposibilidad de conocer con exactitud arbitraria y simultáneamente la posición y el momento de una partícula (véase Principio de indeterminación de Heisenberg), entre otros. A tales efectos suele denominárseles "efectos cuánticos". Así, la Mecánica cuántica es la que rige el

Page 71: Cosmología

movimiento de sistemas en los cuales los efectos cuánticos sean relevantes. Se ha documentado que tales efectos son importantes en materiales mesoscópicos (unos 1000 átomos).

Las suposiciones más importantes de esta teoría son las siguientes:

La energía no se intercambia de forma continua, sino que en todo intercambio energético hay una cantidad mínima involucrada, es decir un cuanto (cuantización de la energía).

Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en Mecánica clásica. En vez de eso, el movimiento de una partícula queda regido por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o "de Copenhague"). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.

Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados son coherentes con los experimentos, no sucede lo mismo con su interpretación, que sigue siendo objeto de controversias.

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:

Espectro de la radiación del Cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el nombre de mecánica cuántica.") El tamaño de los cuantos varía de un sistema a otro.

Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que puede ser localizado en una región especial del Espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.

Las propiedades físicas de objetos con historias relacionadas pueden ser correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la mecánica cuántica.

Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.

Page 72: Cosmología

Efecto Compton.

El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de muchos y muy buenos físicos y matemáticos de la época como Erwin Schrödinger, Werner Heisenberg, Albert Einstein, P.A.M. Dirac, Niels Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La Mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo en Materia condensada, Química cuántica y Física de partículas.

La región de origen de la Mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.

Descripción de la teoría

La mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de ondas que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento, y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda.

Estas funciones de onda pueden transformarse con el transcurso del tiempo. Por ejemplo, una partícula moviéndose en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal de las funciones de onda es descrita por la Ecuación de Schrödinger.

Algunas funciones de onda describen distribuciones de probabilidad que son constantes en el tiempo. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática, esférico simétrica, que rodea al núcleo.

Cuando realizamos una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias, estados propios, eigen-estados...etc del observable en cuestión. Este proceso es conocido como reducción de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles es descrita por la función de onda instantánea justo antes de la reducción. Considera el ejemplo anterior sobre la partícula en el vacío. Si medimos la posición de la misma, obtendremos un valor aleatorio x. En general, es imposible para nosotros predecir con precisión qué valor de x obtendremos, aunque es probable que obtengamos un cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que hemos hecho la medida, la función

Page 73: Cosmología

de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la posición observada x.

La ecuación de Schrödinger es determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista, no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida.

Formulación matemática

En la formulación rigurosa matemática desarrollada por P.A.M. Dirac y John von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios llamados (estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados.) La naturaleza exacta de este espacio depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable. La evolución temporal de un estado cuántico queda descrito por la Ecuación de Schrödinger, en la que el Hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central.

Cada observable queda representado por un operador lineal Hermítico densamente definido actuando sobre el espacio de estados. Cada estado propio de un observable corresponde a un eigenvector del operador, y el valor propio, o eigenvalor asociado corresponde al valor del observable en aquel estado propio. Es el espectro del operador es discreto, el observable sólo puede dar un valor entre los eigenvalores discretos. Durante una medida, la probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el eigen-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectral del operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan.

Los detalles sobre la formulación matemática se encuentran en el artículo Formulación matemática de la mecánica cuántica.

Véase también

Química cuántica Computación cuántica Teoría de la relatividad Citas célebres de la mecánica cuántica

Referencias

Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX", Cuadernos de Historia Contemporánea, nº 27, 2005, INSS 0214-400-X

Page 74: Cosmología

Teoría cuántica de campos

La teoría cuántica de campos (QFT por Quantum Field Theory) es una teoría que aplica las reglas cuánticas a los campos continuos de la Física, como por ejemplo el campo electromagnético, así como a las interacciones entre estos y el resto de la materia. Proporciona así un marco teórico usado extensamente en física de partículas y física de la materia condensada. En particular, la teoría cuántica del campo electromagnético, conocida como electrodinámica cuántica, fue el primer ejemplo de teoría cuántica de campos que se estudió y es la teoría probada experimentalmente con mayor precisión de la física. Los fundamentos de la teoría de campos cuántica fueron desarrollados entre el fin de los años 20 y los años 50, notablemente por Dirac, Fock, Pauli, Tomonaga, Schwinger, Feynman, y Dyson.

los defectos de la mecánica cuántica

La teoría de campos cuántica corrige varias deficiencias de la mecánica ordinaria cuántica, la que discutiremos brevemente.

La ecuación de Schrödinger, en la forma en que comúnmente se la encuentra, es:

donde ρ es la función de onda de una partícula, m su masa, y V su energía potencial.

Hay dos problemas con esta ecuación. En primer lugar, no es relativista, reduciéndose a la mecánica clásica más bien que a la mecánica relativista en el límite de la correspondencia.

Para ver esto, observemos que el primer término de la izquierda es solamente la energía cinética clásica p²/2m, con la energía en reposo mc² omitida. Es posible modificar la ecuación de Schrödinger para incluir la energía en reposo, dando por resultado la ecuación de Klein-Gordon o la ecuación de Dirac. Sin embargo, estas ecuaciones tienen muchas propiedades insatisfactorias; por ejemplo, poseen espectros de energía que se extienden a -∞, de modo que no hay ningún estado de base. Tales inconsistencias ocurren porque estas ecuaciones descuidan la posibilidad de crear o de destruir partículas dinámicamente, que es un aspecto crucial de la relatividad. La relación masa-energía famosa de Einstein predice que las partículas suficientemente masivas pueden decaer en varias partículas más ligeras, y las partículas suficientemente energéticas pueden combinarse para formar partículas masivas. Por ejemplo, un electrón y un positrón pueden

Page 75: Cosmología

aniquilarse para crear fotones. Tales procesos deben considerarse dentro de una teoría cuántica verdaderamente relativista.

El segundo problema ocurre cuando intentamos ampliar la ecuación a una gran cantidad de partículas. Se descubrió que las partículas mecánico-cuánticas de la misma especie son indistinguibles, en el sentido que la función de onda del conjunto entero debe ser simétrico (bosones) o antisimétrico (fermiones) cuando los coordenadas de sus partículas constitutivas se intercambian. Esto hace a la función de onda de los conjuntos de muchas partículas, en extremo complicada. Por ejemplo, la función de onda general de un conjunto de N bosones se escribe:

donde ri son las coordenadas de la partícula -í-ésima, φi es la función de ondas de cada partícula, y la suma se toma sobre todas las posibles permutaciones de N elementos. En general, ésta es una suma de N! (N factorial) términos distintos, que llega a ser rápidamente inmanejable con el incremento de N.

Campos cuánticos

Ambos problemas antedichos se resuelven moviendo nuestra atención desde un conjunto de partículas indestructibles a un campo cuántico. El procedimiento por el cual los campos cuánticos son construidos a partir de partículas individuales fue introducido por Dirac, y (por razones históricas) se conoce como segunda cuantización.

Debemos mencionar dos puntos posibles de confusión. En primer lugar, las descripciones ya mencionadas del "campo" y de la "partícula" no se refieren a la dualidad onda-partícula. Por "partícula", referimos a las entidades que poseen propiedades de onda y de partícula puntual en el sentido mecánico-cuántico usual, por ejemplo, estas "partículas" no se localizan en un punto dado, sino que tienen cierta (amplitud de) probabilidad de ser encontradas en cada posición en el espacio. A lo que nos referimos con "campo" es a una entidad que existe en cada punto en el espacio, y que regula la creación y la aniquilación de las partículas. En segundo lugar, la teoría del campo cuántica es esencialmente mecánica cuántica, y no un reemplazo para la mecánica cuántica. Como cualquier sistema cuántico, un campo cuántico posee un hamiltoniano H (no obstante uno que es más complicado que hamiltonianos típicos de partículas simples), y obedece la ecuación de Schrödinger usual:

(la teoría del campo cuántica se formula a menudo en términos de un lagrangiano, con el que es más conveniente trabajar. Sin embargo, las formulaciones lagrangianas y hamiltonianas se cree que son equivalentes.)

Page 76: Cosmología

En segunda cuantización, hacemos uso de la indistinguibilidad de las partículas para funciones de ondas de multi-partículas especificándolas en términos de números de ocupación por partículas simples. Por ejemplo, suponga que tenemos un sistema de N bosones que pueden ocupar varios estados de partícula simple φ1, de φ2, de φ3, etcétera. El método usual de escribir una función de onda multi-partícula es asignar un estado a cada partícula y después imponer simetría de intercambio. Como hemos visto, la función de onda que resulta es una suma poco manejable de N! términos. En el acercamiento por segunda cuantización, listamos simplemente el número de partículas en cada uno de los estados de partícula simple, recordando que la función de onda multi-partícula es simétrica. Para ser precisos, suponga que N = 3, con una partícula en estado φ1 y dos en estado φ2. La manera normal de escribir la función de onda es:

mientras que en la forma segunda cuantización es simplemente

Aunque la diferencia es enteramente notacional, la última forma hace extremadamente fácil definir los operadores de creación y aniquilación, que agregan y restan partículas de los estados de la multi-partícula. Estos operadores de creación y de aniquilación son muy similares a los definidos para el oscilador armónico cuántico, que agrega y resta cuantos de energía. Sin embargo, estos operadores, literalmente, crean y aniquilan partículas con un estado cuántico dado. Por ejemplo, el operador de aniquilación a2 tiene los efectos siguientes:

(el factor √2 en la primera línea normaliza la función de onda, y no es importante.)

Finalmente, introducimos operadores de campo que definen la probabilidad de crear o de destruir una partícula en un punto particular en el espacio. Resulta que la función de onda de la partícula simple está enumerado generalmente en términos de su momento (como en el problema de una partícula en una caja), así que los operadores del campo pueden ser construidos aplicándose transformación de Fourier a los operadores de creación y de aniquilación. Por ejemplo, el operador de aniquilación del campo bosónico φ(r) (que no debe ser confundido con la función de onda) es

En las teorías cuánticas de campos, el hamiltoniano se escribe en términos de los operadores de creación y de aniquilación o, equivalentemente, de los operadores

Page 77: Cosmología

del campo. La práctica anterior es más común en la física de la materia condensada, mientras que el último es más común en la física de partículas puesto que hace más fácil ocuparse de relatividad. Un ejemplo de un hamiltoniano escrito en términos de los operadores de creación y de aniquilación es:

esto describe un campo de bosones (que no interactúan) libres, donde Ek es la energía cinética del k-ésimo modo del momento. De hecho, este hamiltoniano es útil para describir fonones que no interactúan.

Axiomas de Osterwalder-Schrader

Bajo ciertas asunciones técnicas, se ha demostrado que una teoría cuántica de campos euclidiana puede ser Wick-rotada en una QFT de Wightman. Vea Osterwalder-Schrader.

Axiomas de Wightman

Esta es una de las muchas tentativas de poner la teoría cuántica de campos sobre una base matemática firme. Vea axiomas de Wightman.

W0 (asunciones de la mecánica cuántica relativista)

W1 (asunciones sobre el dominio y la continuidad del campo)

W2 (ley de transformación del campo)

W3 (conmutatividad local o causalidad microscópica)

Axiomas de Haag-Kastler

Ver física local cuántica.

Enlaces externos

Fields por Warren Siegel (Gratis pero enorme: 800 pp.)

Teoría de las cuerdas

Page 78: Cosmología

La teoría de cuerdas es un modelo físico que considera que la materia y el espacio-tiempo se entretejen de una manera muy profunda a escala infinitesimal. Sus bloques fundamentales de construcción son objetos extendidos (cadenas, membranas y objetos de dimensiones superiores) en vez de puntos. Las teorías de cuerdas son capaces de resolver varios problemas asociados a la presencia de partículas puntuales en la teoría física de campos. Ciertamente no está demostrada de manera experimental y es sólo confiable por ecuaciones provenientes de fórmulas ancestrales de la fuerza fuerte.

El término teoría de cuerda se refiere en realidad a las teorías de cuerdas bosónicas de 26 dimensiones y la teoría de supercuerdas de 10 dimensiones, esta última descubierta al añadir supersimetría a la teoría de cuerdas bosónica. Hoy en día la teoría de cuerdas se suele referir a la variante supersimétrica mientras que la antigua se llama por el nombre completo de "teoría de cuerdas bosónicas". Las diferentes teorías de supercuerdas demostraron ser diferentes límites de una desconocida teoría de 11 dimensiones llamada Teoría-M propuesta por Edward Witten en los años 90.

Algunos científicos creen que esta teoría es capaz de unificar las cuatro interacciones fundamentales de la naturaleza:

Fuerza gravitatoria Electromagnetismo Fuerza nuclear fuerte (mantiene unido el núcleo atómico) Fuerza nuclear débil (relacionada con la radiación)

Pero el desencanto es grande entre la comunidad científica por sus varias dificultades e incongruencias, y la mayoría la considera solamente una curiosidad matemática.

Teorías de campo y cuerdas

En la teoría cuántica de campos, un taquión es el cuanto de un campo, usualmente un campo escalar el cual tiene una masa al cuadrado negativa. La existencia de tal partícula es un significado de la inestabilidad del vacío espacio-temporal, porque la energía del vacío tiene un máximo en vez de un mínimo. Un pequeño impulso podría causar una decadencia de amplitudes exponenciales que al mismo tiempo podrían inducir a una condensación de taquiones. El mecanismo de Higgs es un ejemplo elemental, pero es bueno darse cuenta que una vez que el campo taquiónico alcanza el mínimo de su potencial, su cuanta dejan de ser taquiones para convertirse en bosones de Higgs con masa positiva.

Los taquiones se encuentran en muchas versiones de la teoría de cuerdas. En general, la teoría de cuerdas establece que lo que vemos como "partículas" —electrones, fotones, gravitones, etc.— son en realidad diferentes estados vibratorios de la misma cuerda. La masa de una partícula puede ser deducida como de la vibración ejercida por la cuerda; en otras palabras, la masa depende de la nota que la cuerda este tocando. Los taquiones frecuentemente aparecen

Page 79: Cosmología

en el espectro de estados de cuerdas permisibles, como queriendo decir que en algunos estados tienen masas al cuadrado negativas, y por lo tanto masas imaginarias.

Teoría del todo En física, una teoría del todo es una teoría que unifica las cuatro fuerzas fundamentales de la naturaleza: gravedad, fuerza nuclear fuerte, fuerza nuclear débil y la fuerza electromagnética (Einstein trabajó 30 años de su vida en busca de una única ecuación que resumiera la teoría del todo —la conocida como ecuación maestra—), y es el objetivo de las investigaciones en gravedad cuántica. De las diferentes fuerzas, la gravedad se explica geométricamente en la teoría de la relatividad general de Einstein, mientras que las otras tres fuerzas se explican como expresiones de campos cuánticos. Se han usado otros nombres anteriormente para el concepto de teoría del todo, como son teoría unificada, gran teoría unifícada y teoría de campos unificada. Una teoría del todo es necesaria para explicar fenómenos tales como el big bang o las singularidadades gravitacionales que las teorías de la relatividad general y la mecánica cuántica no explican. Motivaciones teóricas para encontrar una teoría del todo incluyen la creencia platónica de que la naturaleza última del universo es simple y que los modelos corrientes de universo tales como el modelo estándar no pueden ser completados debido a que son demasiado complicados.

Recientemente han surgido dos teorías que podrían algún día evolucionar hacia la mencionada teoría unificada. Una es la Teoría M, una variante de la teoría de cuerdas basada en un espacio de 11 dimensiones. La segunda es la denominada teoría cuántica de bucles que postula que el propio espacio-tiempo estaría cuantizado dimensionalmente, algo que por ahora no ha sido demostrado.

Hay que tener en cuenta que la relatividad general, que es la teoría empleada actualmente cuando se trabaja a escala macroscópica, es una teoría clásica en el sentido de que trabaja, como ya lo hiciera la de la Gravitación universal de Newton, sobre un espacio-tiempo continuo, es decir, infinitamente divisible.

Véase también

Teoría M Gravedad cuántica de bucles

Teoría M La Teoría M es una de las candidatas a convertirse en la Teoría del todo. Tiene su origen en la Teoría de las cuerdas según la cual todas las partículas son en realidad diminutas cuerdas que vibran a cierta frecuencia y nosotros vivimos en un universo vibrando a cierta frecuencia, lo cual requiere 11 dimensiones.

Page 80: Cosmología

La teoría M es una solución propuesta para la desconocida teoría de todo, la cual combina las 5 teorías de las supercuerdas y supergravedad en 11 dimensiones. De acuerdo con el Dr.Edward Witten, quien propuso la teoría, herramientas matemáticas, muchas de las cuales aún tienen que ser inventadas, son necesarias para un total entendimiento de la misma.

El siguiente artículo es algo técnico en su naturaleza, vea Teoría M simplificada para un nivel menos técnico.

Relación de la Teoría M con las supercuerdas y la supergravedad

La teoría M en varios contextos geométricos es asociada con las diferentes teorías de las supercuerdas (en diferentes transfondos geométricos), y aquellos límites están relacionados a cada uno de los otros por el principio de dualidad. Dos teorías físicas son duales entre sí cuando después de una cierta transformación matemática tienen una física idéntica.

Los Tipos IIA y IIB están relacionados por la Dualidad-T, como son las dos Heterotic theories. Tipos I y Heterotic SO(32) están relacionados por la Dualidad-S. Tipo IIB también es Dual-S consigo misma.

Las teorías tipo II tienen dos supersimetrías en la 10 dimensión, el resto sólo una.

La teoría tipo I es especial en que está basada en cuerdas no orientadas abiertas y cerradas.

Las otras cuatro están basadas en cuerdas orientadas y cerradas. La teoría IIA es especial porque es no quiral (conservación de la paridad). Las otras cuatro son quirales (violación de la paridad).

En cada uno de estos casos hay una undécima dimensión que se convierte .........Esta descripción de la teoría subyacente basada en once dimensiones es llamada "Teoría M". Una historia de espacio tiempo de una cuerda puede ser visualizada matemáticamente por funciones como:

Xµ(σ,τ)

que describe como las hojas coordenadas bidimensionales de la cuerda () son mapeadas en el espacio-tiempo Xµ

Una interpretación de este resultado es que la undécima dimensión estaba siempre presente pero invisible debido a que el radio de la undécima dimensión es proporcional a la string coupling constant y la teoría tradicional perturbativa de las cuerdas presume que esta es infinitesimal. Otra posible interpretación es que la dimensión no es un concepto fundamental de la Teoría M.

Características de la teoría M

¡La teoría M contiene mucho más que sólo cuerdas! Contiene tanto objetos de mayor como menor dimensionalidad. Estos objetos son llamados p-branas*

Page 81: Cosmología

donde p denota su dimensionalidad (así, 1-brana podría ser una cuerda y 2-brana una membrana) o d-branas (si son cuerdas abiertas). Objetos de mayores dimensiones siempre estuvieron presentes en la teoría de las cuerdas pero nunca pudieron ser estudiados antes de la Segunda Revolución de las Supercuerdas debido a su naturaleza no-perturbativa.

Enlaces relacionados

Lecturas recomendadas

Michael J. Duff, The Theory Formerly Known as Strings, Scientific American, February 1998, online at The University of Michigan.

John Gribbin, The Search for Superstrings, Symmetry, and the Theory of Everything, ISBN 0316329754 , Little, Brown & Company, 1ST BACK B Edition, August 2000, specifically pages 177-180.

Brian Greene, The Elegant Universe: Superstrings, Hidden Dimensions, and the Quest for the Ultimate Theory, ISBN 0393046885 , W.W. Norton & Company, February 1999

Enlaces externos

M-Theory-Cambridge M-Theory-Caltech The Elegant Universe Contiene una serie de videos de divulgación on line

acerca de las principales teorias cosmológicas, desde la Relatividad de Einstein hasta las Teoría M.

Universos paralelos Los universos paralelos son una construcción mental en la que entran en juego la existencia de varios universos o realidades más o menos independientes. Los universos paralelos aparecen típicamente en la ciencia ficción, y más tarde en la pseudociencia. Sin embargo, algunas teorías de la física moderna con pretensiones plenamente científicas se recurre a construcciones del tipo universo paralelo.

Universos paralelos en la ciencia

Teoría de los universos múltiples de Everett

Una de las versiones científicas más curiosas que recurren a los universos paralelos es la interpertación de los universos múltiples[1] de Hugh Everett. Dicha teoría aparece dentro de la mecánica cuántica como una posible solución al problema de la medida en mecánica cuántica. Everett describió su interpretación más bien como una metateoría. Desde un punto de vista lógico la construcción de Everett evade muchos de los problemas asociados a otras interpretaciones más convencionales de la mecánica cuántica, sin embargo,

Page 82: Cosmología

en el estado actual de conocimiento no hay una base empírica sólida a favor de esta interpretación.

El problema de la medida, es uno de los principales "frentes filosóficos" que abre la mecánica cuántica. Si bien la mecánica cuántica ha sido la teoría física más precisa hasta el momento, permitiendo hacer cálculos teóricos relacionados con procesos naturales que dan 20 decimales correctos y ha proporcionado una gran cantidad de aplicaciones prácticas (centrales nucleares, relojes de altísima precisión, ordenadores), existen ciertos puntos difíciles en la interpretación de algunos de sus resultados y fundamentos (el premio Nobel Richard Feynman llegó a bromear diciendo "creo que nadie entiende verdaderamente la mecánica cuántica").

El problema de la medida se puede describir informalmente del siguiente modo:

1. De acuerdo con la mecánica cuántica cuando un sistema físico, ya sea un conjunto de electrones orbitando en un átomo, o un conjunto de políticos decidiendo la siguiente guerra planetaria, queda descrito por una función de onda. Dicha función de onda es un objeto matemático que supuestamente describe la máxima información posible que contiene un estado puro.

2. Si nadie externo al sistema ni dentro de él observara o tratara de ver como está el sistema, la mecánica cuántica nos diría que el estado del sistema evoluciona determinísticamente. Es decir, que podría ser perfectamente predecible hacia donde irá el sistema.

3. La función de onda, nos informa de cuales son los resultados posibles de una medida y sus probabilidades relativas, pero no nos dice qué resultado concreto se obtendrá si cuando un observador trate efectivamente de medir el sistema o averiguar algo sobre él. De hecho la medida sobre un sistema es un valor aleatorio de entre los resultados posibles.

Eso plantea un problema serio, si las personas, los científicos u observadores son también objetos físicos como cualquier otro, debería haber alguna forma determinista de predecir como tras juntar el sistema en estudio con el aparato de medida, finalmente llegamos a un resultado determinista. Pero el postulado de que una medición destruye la "coherencia" de un estado inobservado e inevitablemente tras la medida se queda en un estado mezcla aleatorio parece solo nos deja tres salidas:

(A) O bien renunciamos a entender el proceso de decoherencia por lo cual un sistema pasa de tener un estado puro que evoluciona determinísticamente a tener un estado mezcla o "incoherente" (B) O bien admitimos que existen unos objetos no-físicos llamados "conciencia" que no están sujetos a las leyes de la mecánica cuántica y que nos resuelven el problema. (C) O tratamos de inventar cualquier hipótesis exótica que nos haga compatibilizar como por un lado deberíamos estar observando tras una medida un estado no fijado por el estado inicial y por otro lado que el estado del universo en su conjunto evoluciona de forma determinista.

Page 83: Cosmología

Diferentes físicos han tomado diferentes soluciones a este “trilema”:

1. Niels Bohr propuso un modelo inicial de átomo que acabó dando lugar a mecánica cuántica y fue considerado durante mucho tiempo uno de los defensores de la interpretación ortodoxa de Copenhague se inclinaría por (A).

2. John Von Neumann, el matemático que creó el formalismo matemático de la mecánica cuántica y que aportó grandes ideas a la teoría cuántica, se inclinaba por (B).

3. La interpretación de Hugh Everett es uno de los planteamientos que apuesta de tipo (C).

La propuesta de Everett es que cada medida "desdobla" nuestro universo en una serie de posibilidades (o tal vez existían ya los universos paralelos mutuamente inobservables y en cada uno de ellos se da una realización diferente de los posibles resultados de la medida). La idea y el formalismo de Everett es perfectamente lógico y coherente, aunque algunos puntos sobre como interpretar algunos puntos, en particular como se logra la inobservabilidad o coordinación entre sí de esos universos para que en cada uno suceda algo ligeramente diferente. Pero por lo demás es una explicación lógicamente coherente y posible, que no despierta mucho entusiasmo sencillamente porque no está claro que sea una posibilidad falsable.

Agujeros blancos y Universo de Reissner-Nordström

Artículo principal: Agujero blanco Artículo principal: Agujero negro de Reissner-Nordstrom

Universos paralelos en la ficción

Universos paralelos y pseudociencia

Ver también

Agujero negro Interpretaciones de la Mecánica cuántica

An Open Letter to the Scientific Community

cosmologystatement.org

(Published in New Scientist, May 22, 2004)

The big bang today relies on a growing number of hypothetical entities,

Page 84: Cosmología

things that we have never observed-- inflation, dark matter and dark energy are the most prominent examples. Without them, there would be a fatal contradiction between the observations made by astronomers and the predictions of the big bang theory. In no other field of physics would this continual recourse to new hypothetical objects be accepted as a way of bridging the gap between theory and observation. It would, at the least, raise serious questions about the validity of the underlying theory.

But the big bang theory can't survive without these fudge factors. Without the hypothetical inflation field, the big bang does not predict the smooth, isotropic cosmic background radiation that is observed, because there would be no way for parts of the universe that are now more than a few degrees away in the sky to come to the same temperature and thus emit the same amount of microwave radiation.

Without some kind of dark matter, unlike any that we have observed on Earth despite 20 years of experiments, big-bang theory makes contradictory predictions for the density of matter in the universe. Inflation requires a density 20 times larger than that implied by big bang nucleosynthesis, the theory's explanation of the origin of the light elements. And without dark energy, the theory predicts that the universe is only about 8 billion years old, which is billions of years younger than the age of many stars in our galaxy.

What is more, the big bang theory can boast of no quantitative predictions that have subsequently been validated by observation. The successes claimed by the theory's supporters consist of its ability to retrospectively fit observations with a steadily increasing array of adjustable parameters, just as the old Earth-centered cosmology of Ptolemy needed layer upon layer of epicycles.

Yet the big bang is not the only framework available for understanding the history of the universe. Plasma cosmology and the steady-state model both hypothesize an evolving universe without beginning or end. These and other alternative approaches can also explain the basic phenomena of the cosmos, including the abundances of light elements, the generation of large-scale structure, the cosmic background radiation, and how the redshift of far-away galaxies increases with distance. They have even predicted new phenomena that were subsequently observed, something the big bang has failed to do.

Supporters of the big bang theory may retort that these theories do not explain every cosmological observation. But that is scarcely surprising,

Page 85: Cosmología

as their development has been severely hampered by a complete lack of funding. Indeed, such questions and alternatives cannot even now be freely discussed and examined. An open exchange of ideas is lacking in most mainstream conferences. Whereas Richard Feynman could say that "science is the culture of doubt", in cosmology today doubt and dissent are not tolerated, and young scientists learn to remain silent if they have something negative to say about the standard big bang model. Those who doubt the big bang fear that saying so will cost them their funding.

Even observations are now interpreted through this biased filter, judged right or wrong depending on whether or not they support the big bang. So discordant data on red shifts, lithium and helium abundances, and galaxy distribution, among other topics, are ignored or ridiculed. This reflects a growing dogmatic mindset that is alien to the spirit of free scientific inquiry.

Today, virtually all financial and experimental resources in cosmology are devoted to big bang studies. Funding comes from only a few sources, and all the peer-review committees that control them are dominated by supporters of the big bang. As a result, the dominance of the big bang within the field has become self-sustaining, irrespective of the scientific validity of the theory.

Giving support only to projects within the big bang framework undermines a fundamental element of the scientific method -- the constant testing of theory against observation. Such a restriction makes unbiased discussion and research impossible. To redress this, we urge those agencies that fund work in cosmology to set aside a significant fraction of their funding for investigations into alternative theories and observational contradictions of the big bang. To avoid bias, the peer review committee that allocates such funds could be composed of astronomers and physicists from outside the field of cosmology.

Allocating funding to investigations into the big bang's validity, and its alternatives, would allow the scientific process to determine our most accurate model of the history of the universe. (Institutions for identification only) Highlighted names are linked to related web pages

Halton Arp, Max-Planck-Institute Fur Astrophysik (Germany) Andre Koch Torres Assis, State University of Campinas (Brazil) Yuri Baryshev, Astronomical Institute, St. Petersburg State University (Russia) 10

Page 86: Cosmología

Ari Brynjolfsson, Applied Radiation Industries (USA) Hermann Bondi, Churchill College, University of Cambridge (UK) Timothy Eastman, Plasmas International (USA) Chuck Gallo, Superconix, Inc.(USA) Thomas Gold, Cornell University (emeritus) (USA) Amitabha Ghosh, Indian Institute of Technology, Kanpur (India) Walter J. Heikkila, University of Texas at Dallas (USA) ................................................. Michael Ibison, Institute for Advanced Studies at Austin (USA) Thomas Jarboe, University of Washington (USA) Jerry W. Jensen, ATK Propulsion (USA) Menas Kafatos, George Mason University (USA) Eric J. Lerner, Lawrenceville Plasma Physics (USA) Paul Marmet, Herzberg Institute of Astrophysics (retired) (Canada) Paola Marziani, Istituto Nazionale di Astrofisica, Osservatorio Astronomico di Padova (Italy) Gregory Meholic, The Aerospace Corporation (USA) Jacques Moret-Bailly, Université Dijon (retired) (France) Jayant Narlikar, IUCAA(emeritus) and College de France (India, France) ........................ 20 Marcos Cesar Danhoni Neves, State University of Maringá (Brazil) Charles D. Orth, Lawrence Livermore National Laboratory (USA) R. David Pace, Lyon College (USA) Georges Paturel, Observatoire de Lyon (France) Jean-Claude Pecker, College de France (France) Anthony L. Peratt, Los Alamos National Laboratory (USA) Bill Peter, BAE Systems Advanced Technologies (USA) David Roscoe, Sheffield University (UK) Malabika Roy, George Mason University (USA) Sisir Roy, George Mason University (USA) .................................................................... 30 Konrad Rudnicki, Jagiellonian University (Poland) Domingos S.L. Soares, Federal University of Minas Gerais (Brazil) John L. West, Jet Propulsion Laboratory, California Institute of Technology (USA) James F. Woodward, California State University, Fullerton (USA)

New signers of the Open letter since publication

Scientists and Engineers

Page 87: Cosmología

Jorge Marao Universidade Estadual de Londrina Brazi Martin John Baker, Loretto School Musselburgh, UK Peter J Carroll, Psychonaut Institute, UK Roger Y. Gouin, Ecole Superieure d'Electricite, France John Murray, Sunyata Composite Ltd, UK Jonathan Chambers, University of Sheffield, UK ................................................................. 40

Michel A. Duguay, Laval University, Canada Qi Pan, Fitzwilliam College, Cambridge, UK Fred Rost, University of NSW (Emeritus), Australia Louis Hissink, Consulting Geologist, Australia Hetu Sheth, Earth Sciences, Indian Institute of Technology Bombay, India Lassi Hyvärinen, IBM(Ret), France Max Whisson, University of Melbourne, Australia R.S.Griffiths, CADAS, UK Adolf Muenker, Brane Industries, USA Emre Isik Akdeniz University Turkey .................................. 50

Felipe de Oliveira Alves, Federal University of Minas Gerais, Brazil Jean-Marc Bonnet-Bidaud, Service d'Astrophysique, CEA, France Kim George, Curtin University of Technology, Australia Tom Van Flandern, Meta Research, USA Doneley Watson, IBM (ret.), USA Fred Alan Wolf, Have Brains / Will Travel, USA Robert Wood, IEEE, Canada D. W. Harris, L-3 Communications, USA Eugene Sittampalam, Engineering consultant, Sri Lanka Joseph.B. Krieger, Brooklyn College, CUNY, USA ............................................................ 60

Pablo Vasquez, New Jersey Institute of Technology, USA Peter F. Richiuso, NASA, KSC, USA Roger A. Rydin, University of Virginia (Emeritus), USA Stefan Rydstrom, Royal Institute of Technology, Sweden Sylvan J. Hotch, The MITRE Corporation (Retired), USA Thomas R. Love, CSU Dominguez Hills, USA Andrew Coles, Embedded Systems, USA Eit Gaastra, infinite universe researcher, The Netherlands Franco Selleri, Università di Bari, Dipartimento di Fisica, Italy Gerald Pease, The Aerospace Corporation, USA .............................................................. 70 S.N. Arteha, Space Research Institute, Russia Miroslaw Kozlowski, Warsaw University (emeritus), Poland John Hartnett, School of Physics, University of Western Australia, Australia Robert Zubrin, Pioneer Astronautics, USA Tibor Gasparik, SUNY at Stony Brook, USA Alexandre Losev, Bulgarian Academy of Sciences, Bulgaria Henry Hall, University of Manchester, UK 80

Page 88: Cosmología

José da Silva, Universidade Federal de Minas Gerais, Brazil Markus Rohner, Griesser AG, Switzerland William C. Mitchell, Institute for Advanced Cosmological Studies, USA ............................. Aurea Garcia-Rissmann, UFSC, Brazil Cristian R. Ghezzi, Universidade Estadual de Campinas, Brazil Daniel Nicolato Epitácio Pereira, Federal University of Rio de Janeiro, Brazil Gregory M. Salyards, US Naval Sea Systems Command (ret.), USA Luiz Carlos Barbosa, Unicamp, Brazil Luiz Carlos Jafelice, Federal University of the Rio Grande do Norte, Brazil Michael Sosteric, Athabasca University, Canada Steven Langley Guy, University of Elizabeth (Physics Department), Australia Robert Fritzius, Shade Tree Physics, USA Irineu Gomes Varella, Escola Municipal de Astrofísica, Brazil ............................................... 90

Tom Walther, Southern Cross University Australia , Australia Mauro Cosentino, University of São Paulo, Brazil Moacir Lacerda, Univeersidade Federal de Mato Grosso do Sul, Brazil Roberto Assumpcao, PUC Minas, Brazil Roberto Lopes Parra, University of Sao Paulo, Brazil Ronaldo Junio Camppos Batista, Universidade Federal de Minas Gerais, Brazil Ermenegildo Caccese, University of Basilicata, Italy Felipe Sofia Zanuzzo, Federal University of São Carlos, Brazil Edival de Morais, Sociedade Brasileira de Física, Brazil Graham Coupe, KAZ Technology Services, Australia ....................................................... 100

Gordon Petrie, High Altitude Observatory, NCAR, USA, Jose B. Almeida, University of Minho, Portugal, Antonio Cleiton, Laboratório de Sistemas Complexos - UFPI, Brazil Sergey Karpov, L.V.Kirensky Institute of Physics Russian Academy of Sciences, Russia Wagner Patrick Junqueira de Souza Coelho Nicácio, Universidade Federal de Minas Gerais, Brazil Sokolov Vladimir, Special Astrophysical Observatory of RAS, Russia Edwin G. Schasteen, TAP-TEN Research Foundation International, USA Gerry Zeitlin, openseti.org, USA Henry H. Bauer, Virginia Polytechnic Institute & State University, USA Yasha Fard,H.R. Cosmology Institute, Canada .................................................................. 110

Roberto Caimmi, Astronomy Department, Padua University, Italy Tobias Keller, ETH (SFIT) Zurich, Earth Sciences, Switzerland, Deborah Foch, Center for the Study of Extraterrestrial Intelligence, USA, 120

Page 89: Cosmología

Henry Reynolds, UC Santa Cruz, USA, Paramahamsa Tewari, Nuclear Power Corporation (ret.),India Jouko Seppänen, Helsinki University of Technology, Finland, Cristiane Ribeiro Bernardes, Universidade Federal de Minas Gerais, Brazil Eric Blievernicht. TRW, USA Dr. Robert Bennett, Kolbe Center, USA, Hilton Ratcliffe, Astronomical Society of South Africa, South Africa .......................................

Wieslaw Sztumski, Silesian University, Poland Lars Wåhlin,Colutron Research Corporation,USA Riccardo Scarpa, European Southern Observatory, Italy, Olivier Marco, European Southern Observatory, France Joseph Garcia, International Radiation Protection, Germany, Arkadiusz Jadczyk, International Institute of Mathematical Physics, Lithuania Jean de Pontcharra, Commissariat à l'Energie Atomique, France Gerardus D. Bouw, Baldwin-Wallace College, USA Josef Lutz, Chemnitz University of Technology, Germany, Harold E. Puthoff, Institute for Advanced Studies at Austin, USA. .......................................... 130

Hermann Dürkop, Nabla Systemberatung, Germany, Klaus Fischer, Universität Trier, Germany, Werner Holzmüller, University Leipzig, Germany Sol Aisenberg, International Technology Group, USA Richard Gancarczyk, University of Nottingham, UK Steve Humphry, Murdoch University, Australia Alberto Bolognesi, Università di Perugia, Italy Daniele Carosati, Armenzano Observatory, Italy Brendan Dean, H.R. Cosmology Institute, Canada W. Jim Jastrzebski, Warsaw University, Poland ...................................................................... 140

Gero Rupprecht, European Southern Observatory, Germany Rainer Herrmann TEWS-Elektronik Germany Felix Pharand University of Montreal Canada Jerry Bergman Northwest State University USA Tibor Gasparik SUNY at Stony Brook USA Rei Gunn University of Nantucket USA Sinan Alis Eyuboglu Twin Observatories Turkey Esat Rennan Pekünlü University of EGE Turkey Anne M. Hofmeister Washington U. USA Quentin Foreman IEEE New Zealand .................................................................... 150

Marc Berndl University of Toronto Canada Y. P. Varshni University of Ottawa Canada Robert Martinek McMaster University Canada Bob Criss Washington University USA Sol Aisenberg, International Technology Group, USA 160

Page 90: Cosmología

Paul LaViolette, The Starburst Foundation, U.S.A. Seetesh Pandé, Universite Claude Bernard, Lyon France TAHIR MAQSOOD, PSA, PAKISTAN Hartmut Traunmüller, University of Stockholm, Sweden .....................................................

Nico F. Benschop, Amspade Research, Netherlands Aaron Blake, USAF, USA M. Ross Fergus, University of Memphis, USA Sonu Bhaskar, Council of Scientific and Industrial Research, India Frederico V. F., Lima Universidade de Sao Paulo, Brazil Andrei Kirilyuk, Institute of Metal Physics of the National Academy of Sciences of Ukraine, Ukraine Christian Jooss, Institut fuer Materialphysik, University of Goettingen, Germany Sonu Bhaskar, BCISR, India Robert O. Myers, ROM Technologies, USA Ana Cristina Oliveira, Universidade Federal de Minas Gerais, Brazil ..................................... 170

John Wey, Idaho National Laboratory, USA Jorge Francisco Maldonado Serrano, UIS, Colombia Pasquale Galianni, Dipartimento di Fisica Università di Lecce, Italy Martín López-Corredoira, Instituto de Astrofísica de Canarias, Spain Michael A. Ivanov, Belarus State University of Informatics and Radioelectronics, Belarus Xiao Jianhua , Shanghai Jiaotong University, China Pierre J. Beaujon, Hoornbeeck College, The Netherlands J.Georg von Brzeski Helios Labs. USA vidyardhi nanduri , Cosmology Research center , India Mike Rotch NBSA USA ....................................................... 180

Paul Noel, Independent_Researcher, USA Swee Eng, AW Royal College of Pathologists, SINGAPORE Ricardo Rodríguez , La Laguna University , Spain Linda Camp Harvard University USA James B. Schwartz , The Noah's Ark Research Foundation , Philippines Marshall Douglas Smith , TeddySpeaks Foundation ,USA Abbé Grumel , Association Copernic , France Ives van Leth Waterboard Utrecht The Netherlands Francis Michael C. Perez, Department of Transportation, USA AHMED A. EL-DASH UNICAMP BRAZIL ................................................... 190

David C Ware, University of Auckland, New Zealand Alek Atevik, Skopje Astronomy Society, Macedonia Peter Rowlands, University of Liverpool, UK Robert Day, Suntola Consulting, Ltd., USA Luís Paulo Sousa Loureiro, Portugal Maingot Fabrice, Université Louis Pasteur, France Kris Krogh, University of California, USA 200

Page 91: Cosmología

Pierre-Marie Robitaille, The Ohio State University, United States Charles Creager Jr, Creation Research Society, United States Stephan Gift, The University of the West Indies, St Augustine Campus, Trinidad and Tobago ... Joseph J. Smulsky, Institute of Earth's Cryosphere Siberian Branch Russian Academy of Sciences, Russia Jorge Marao Universidade Estadual de Londrina Brazil Jim O'Reilly Orion Consultants USA Robert MacKay University of Warwick UK Chris Vermeulen Astronomical Society of Southern Africa South Africa Emilson Pereira Leite Institute of Astronomy and Geophysics Brazil Allen W Green ATK Space Systems USA Ron Balsys Central Queensland University Australia Paul ten Boom University of New South Wales Australia Mosheh Thezion The Empirical Church, USA .......................................... 210

Markus, Karsten,, Wilhelm-Foerster-Observatory Berlin e.V Don. C. Wilson,: Process Technology and Development, USA Marek Gajewski, Raytheon Co.,USA Tuncay DOGAN, University of EGE, Turkey Andrew M Uhl, Pennsylvania State Univeristy, USA Klaus Wieder, Independent_Researcher, Germany John Caley, Omegafour Pty Ltd, Australia Keith Scott-Mumby, Capital University for Integrative Medicine/California Institute for Human Sciences, USA ............................. 218

Independent Researchers

Garth A Barber, independent researcher, UK Alberto Bolognesi, Independent Researcher, Italy DEAN L MAMAS, Independent Researcher, USA David Blackford, Independent_Researcher, UK Alan Rees, Independent Researcher, Sweden Udayan Chakravarty, Independent Researcher, India Georg Gane, Independent Researcher, Germany Robin Whittle, Independent Researcher, Australi, Joseph A. Rybczyk, Independent Researcher, USA G.Srinivasan, Independent_Researcher, India, ........................................................ 10 Geoffrey E. Willcher independent researcher USA Douglas S. Robbemond independent researcher the Netherlands khosrow fariborzi independent researcher Iran Etienne Bielen independent researcher Belgium Steve Newman independent researcher USA Ethan Skyler, Independent researcher, USA Yvon Dufour, Independent Researcher, Canada 20

Page 92: Cosmología

Jorge Ales Corona Independent Researcher Spain Cristiano De Angelis, Independent Researcher, Italy Roland Le Houillier, Independent Researcher, Canada ................................................ Richard Tobey Independent researcher USA Steve McMahon Independent researcher USA Eugene Savov, Independent researcher, Bulgaria Lars Woldseth, Independent researcher, Norway Robert L. Brueck, Independent researcher, USA Mark S Thornhill, Independent Researcher, United Kingdom Nainan. K. Varghese, Independent Researcher, India, Andrew Kulikovsky, Independent Researcher, Australia Charles Sven, Independent Researcher, USA Gabriele Manzotti, Independent Researcher, Italy ..................................................... 30 Brian S. Clark independent researcher USA Jim O'Reilly Orion Consultants USA Geoffrey E. Willcher independent researcher USA Douglas S. Robbemond independent researcher the Netherlands khosrow fariborzi independent researcher Iran Etienne Bielen independent researcher Belgium Steve Newman independent researcher USA Thomas G. Franzel independent researcher USA Bernhard Reddemann independent researcher Germany Ives van Leth Waterboard Utrecht The Netherlands ............................................... 40 Jeroen van der Rijst independent researcher The Netherlands Harry Costas independent researcher Australia Andrei Wasylyk independent researcher Canada Jack Ruijs independent researcher The Netherlands Leo Sarasúa independent researcher The Netherlands Edward Smith independent researcher USA Linda Camp Harvard University USA Gary Meade independent researcher USA Stan Kabacinski independent researcher Australia Jack Dejong independent researcher USA ........................................................... 50 J.Georg von Brzeski Helios Labs. USA Nigel Edwards, Independent Researcher, Australia Dieter Schumacher, Independent Researcher, Germany Rudolf Kiesslinger, Independent Researcher, Germany Gerd Schulte, Independent Researcher, Germany Stuart Eves, Independent Researcher, UK James Marsen independent researcher USA Edgar Paternina independent researcher Colombia Donald E. Scott Independent_Researcher: USA José M?df; Cat Casanovas, Independent researcher, Spain ........................................... 60 Aaron Hill, Independent Researcher, USA, Hans-Dieter Radecke, Independent Researcher, Germany 70

Page 93: Cosmología

Mawell P Davis Independent Researcher New Zealand Gordon E. Mackay Independent Researcher USA Dave Sagar Independent Researcher USA Benjamin I. Iglesias Independent Researcher Spain Alper Kozan Independent Researcher Turkey Hartmut Warm, Independent Researcher, Germany Jan Mugele Independent Researcher Germany Andrew Rigg Independent Researcher Australia ...................................................... Thomas Riedel Independent researcher Denmark Helen Workman Independent researcher Canada Morris Anderson, Independent researcher, USA Mario Cosentino, Independent researcher, France Paul Richard Price, Independent researcher, United States Philip Lilien, Independent Researcher, USA Ott Köstner, Independent researcher, Estonia Bozidar Kornic, Independent researcher, USA William F. Hamilton, Independent researcher, U.S.A. Joel Morrison, Independent researcher, USA ....................................................... 80 James R. Frass, Independent Researcher, Canada Arnold Wittkamp, Independent Researcher, Netherlands Dimi Chakalov, Independent Researcher, Bulgaria Herb Doughty, Independent Researcher, USA Robert F. Beck, Independent Researcher, UK Tuomo Suntola, Independent Researcher, Finland Richard Hillgrove, Independent Researcher, New Zealand Herbert J. Spencer, Independent Researcher, Canada Thomas B. Andrews, Independent Researcher, USA John Dean , Independent Researcher , South Africa ........................................................ 90 Peter Loster , Independent Researcher , Germany Charles Francis, Independent Researcher , UK Ahmed Mowaffaq AlANNI , Independent Researcher , Iraq Mogens Wegener , Independent Researcher , DENMARK Peter Jakubowski, Independent Researcher , Germany John Brodix Merryman Jr. , Independent Researcher , USA Christian Boland , Independent Researcher , Belgium Warren S. Taylor, Independent Researcher, USA Constantin Leshan, Independent Researcher , Moldova Avid Samwaru, Independent Researcher, USA ...................................................... 100 Thomas Goodey, Independent Researcher, UK Johan Masreliez, Independent Researcher, USA Efrèn Cañedo, Independent Researcher , Mèxico Michael Bliznetsov, Independent Researcher, Russia Peter Michalicka, Independent Researcher, Austria Ivan D. Alexander , Independent Researcher, S. Ray DeRusse, Independent Researcher, USA Chris Maharaj, Independent Researcher, Trinidad 110

Page 94: Cosmología

Peter Warlow, Independent Researcher, United Kingdom Gordon Wheeler, Independent Researcher, United States .................................................. Boxer Ma, Independent Researcher, Thailand Robert Wido, Independent Researcher, United States John Hunter independent researcher U.K Marcelo de Almeida Bueno independent researcher Brazil Jean-Pierre Ady Fenyo, Independent Researcher, United Status Adam W.L. Chan , Independent Researcher , Hong Kong Renato Giussani independent researcher Italy Brian S. Clark independent researcher USA Mustafa Kemal Oyman, Independent Researcher, Turkey Richard Wayte, independent researcher, UK ....................................................... 120 Ron Ragusa independent researcher USA N.Vivian Pope independent researcher UK Roy Caswell independent researcher United Kingdom Erin S. Myers independent researcher USA Ugo Nwaozuzu independent researcher Singapore Daniel Coman independent researcher USA Birgid Mueller independent researcher Mexico Mihail Gonta independent researcher Moldova Vladimir Rogozhin independent researcher Russia J. J. Weissmuller independent researcher USA ......................................................... 130 Muhammed Anwar independent researcher India Geldtmeijer Djamidin independent researcher Netherlands Scott G. Beach independent researcher Canada Neil Hargreaves independent researcher UK julian braggins independent researcher Australia Kari Saarikoski, Independent_Researcher, Finland Marcelo de Almeida Bueno independent researcher Brazil Ron Ragusa independent researcher USA Brian S. Clark independent researcher USA Geoffrey E. Willcher independent researcher USA .................................................. 140 Douglas S. Robbemond independent researcher the Netherlands khosrow fariborzi independent researcher Iran Etienne Bielen independent researcher Belgium Steve Newman independent researcher USA John Hunter independent researcher U.K Jeroen van der Rijst independent researcher The Netherlands Thomas G. Franzel independent researcher USA Bernhard Reddemann independent researcher Germany Leo Sarasúa independent researcher The Netherlands Edward Smith independent researcher USA .......................................................... 150 Gary Meade independent researcher USA Stan Kabacinski independent researcher Australia Jack Dejong independent researcher USA 160

Page 95: Cosmología

Harry Costas independent researcher Australia Andrei Wasylyk independent researcher Canada Jack Ruijs independent researcher The Netherlands James Marsen independent researcher USA Edgar Paternina independent researcher Colombia Ghertza Roman, Independent_Researcher, Romania Roland Schubert, Independent_Researcher, Germany ..................................... Alexandre Wajnberg, Independent Researcher, Skyne, Belgium Dennis H Cowdrick Scientific Independent_Researcher: USA Michail Telegin Independent_Researcher: Russia Robert L Stafford, Independent_Researcher, USA Martin Sach, Independent_Researcher, UK Charles L. Sanders, Independent_Researcher, USA/South Korea Alex Carlson, Independent_Researcher, United States Lyndon Ashmore, Independent_Researcher, UK Liedmann, Matthias, Unaffiliated_Scientific_Researcher, Germany Ingvar Astrand, Independent_Researcher, Sweden ......................................... 170 Olli Santavuori, Independent_Researcher, Finlande Touho Ankka, Independent_Researcher, Finland JR Croca, Independent_Researcher, Portugal Sol Aisenberg, Independent_Researcher, USA Mustafa Kemal OYMAN, Independent_Researcher, Turkey Gerard ZONUS, Independent_Researcher, FRANCE David W. Knight, Independent_Researcher, USA Marcel Lutttgens, Independent_Researcher, France Dr Stephen Birch, Independent_Researcher, United Kingdom Abramyan G.L., Independent_Researcher, Russia .................................. 180 Martin Peprnik, Independent_Researcher, Slowakia Van Den Hauwe, PhD, Independent_Researcher,: Belgium Ingvar Astrand, Independent_Researcher, Sweden Daniel Toohey, Independent_Researcher, Australia Jed Shlackman, M.S. Ed. (LMHC, C.Ht.), Independent_Researcher, USA Dr. John Michael Nahay, Independent_Researcher Guido Grzinic, Independent_Researcher, Australia ................. 187

Other Signers

Charles Weber,USA David Gershon ,USA Peter G Smith ,USA Richard J. Lawrence ,USA Naszvadi László, Hungary Roger W. Browne, USA Bart Clauwens, Netherlands Noah Feiler-Poethke, USA 10

Page 96: Cosmología

Jonathan Hardy, UK John S. Kundrat, USA ........................................................................... Vincent Sauve, USA Chris Somers, Australia Jagroop Sahota, USA Edgar Raab, Germany Gordon Hogenson, USA Burebista Dacia, Romania Christel Hahn, Germany Burebista Dacia, Romania Christel Hahn, Germany Robert Angstrom, USA .............................................................................. 20 Norman Chadwick, USA Harley Orr, USA Clive Martin-Ross, UK Alasdair Martin, UK Marcus Ellspermann, Germany Bruce Richardson, USA John Dill, USA Judith Woollard Australia Michael Cyrek USA Randall Meyers ITALY ............................................................................................... 30 Craig Arend USA Onur Cantimur Turkey Roland Scheel France Murat Isik Turkey Markus Hellebrandt Germany Mehmet Kara Turkey Abhishek Dey Das India D. N. Vazquez USA Suzan R. Rodenburg USA Shuming Zhang China ................................................................................................. 40 Codie Vickers USA Richard Tobey USA Elfriede Steiner-Grillmair, Canada Gabriele Manzotti, Italy Michael Wember, USA Fuksz Levente, Romania Seppo Tuominen, Finland Marvin C. Katz, USA Laura Fridley, USA Michael Christian, U.S.A ........................................................................................... 50 Edgar S. Hill USA Q. John T. Malone USA Michael Bruttel Switzerland 60

Page 97: Cosmología

Eric W. LaFlamme USA Robert Diegis, Romania William S. Jarnagin, USA Kevin Glaser, USA Robert Diegis, Romania William S. Jarnagin, USA Kevin Glaser, USA ................................................................................................ JoAnn Arcuri USA Attila Csanyi USA Pratik Sinha India Donald C. Bull New Zealand Hans Walhout Netherlands Robyn Stewart Australia Tor Johannessen Norway Rick Schmidt USA Terence Watts UK Jody Fulford USA ............................................................................................ 70 Gene Gordon USA Monica Veloso Alves Brazil Ferdi Prins South Africa Adam Hansil USA Herbert M Watson USA John Patchett UK Jurrie Noordijk, The Netherlands P.S. Phillips, U.S.A JoAnn Arcuri USA Martin Gradwell , ns, United Kingdom .............................................................. 80 Sami Murtomäki, Ns, Finland Anthony Abruzzo , United States Tim Reed, ns, USA Daniel Rijo , ns, USA Ken Couesbouc , ns, France David L. Harrison, United States Kees de Boer Tom HigginsUSA David Calder Hardy, New Zealand Jochen Moerman, Belgium ......................................................................... 90 Berend de Boer, New Zealand Edward E. Rom, USA Jukka Kinnunen, Finland Jerome M. Hall, USA Maria Alvarez, Argentina Paul Chabot, Canada Julia, Russia Amr Malik: Canada Maureen Bevill, USA 100

Page 98: Cosmología

Horst Barwinek, Austria................................................................ Lindsay Smith, Australia Richard DeLano, USA. Stefan Landherr, Australia Peter Wilson, USA Gregory Kiser, USA ............................................................. 105

Air Force pursuing antimatter weapons Program was touted publicly, then came official gag order Keay Davidson, Chronicle Science Writer Monday, October 4, 2004

The U.S. Air Force is quietly spending millions of dollars investigating ways to use a radical power source -- antimatter, the eerie "mirror" of ordinary matter -- in future weapons.

The most powerful potential energy source presently thought to be available to humanity, antimatter is a term normally heard in science-fiction films and TV shows, whose heroes fly "antimatter-powered spaceships" and do battle with "antimatter guns."

But antimatter itself isn't fiction; it actually exists and has been intensively studied by physicists since the 1930s. In a sense, matter and antimatter are the yin and yang of reality: Every type of subatomic particle has its antimatter counterpart. But when matter and antimatter collide, they annihilate each other in an immense burst of energy.

During the Cold War, the Air Force funded numerous scientific studies of the basic physics of antimatter. With the knowledge gained, some Air Force insiders are beginning to think seriously about potential military uses -- for example, antimatter bombs small enough to hold in one's hand, and antimatter engines for 24/7 surveillance aircraft.

More cataclysmic possible uses include a new generation of super weapons -- either pure antimatter bombs or antimatter-triggered nuclear weapons; the former wouldn't emit radioactive fallout. Another possibility is antimatter- powered "electromagnetic pulse" weapons that could fry an enemy's electric power grid and communications networks, leaving him literally in the dark and unable to operate his society and armed forces.

Page 99: Cosmología

Following an initial inquiry from The Chronicle this summer, the Air Force forbade its employees from publicly discussing the antimatter research program. Still, details on the program appear in numerous Air Force documents distributed over the Internet prior to the ban.

These include an outline of a March 2004 speech by an Air Force official who, in effect, spilled the beans about the Air Force's high hopes for antimatter weapons. On March 24, Kenneth Edwards, director of the "revolutionary munitions" team at the Munitions Directorate at Eglin Air Force Base in Florida was keynote speaker at the NASA Institute for Advanced Concepts (NIAC) conference in Arlington, Va.

In that talk, Edwards discussed the potential uses of a type of antimatter called positrons.

Physicists have known about positrons or "antielectrons" since the early 1930s, when Caltech scientist Carl Anderson discovered a positron flying through a detector in his laboratory. That discovery, and the later discovery of "antiprotons" by Berkeley scientists in the 1950s, upheld a 1920s theory of antimatter proposed by physicist Paul Dirac.

In 1929, Dirac suggested that the building blocks of atoms -- electrons (negatively charged particles) and protons (positively charged particles) -- have antimatter counterparts: antielectrons and antiprotons. One fundamental difference between matter and antimatter is that their subatomic building blocks carry opposite electric charges. Thus, while an ordinary electron is negatively charged, an antielectron is positively charged (hence the term positrons, which means "positive electrons"); and while an ordinary proton is positively charged, an antiproton is negative.

The real excitement, though, is this: If electrons or protons collide with their antimatter counterparts, they annihilate each other. In so doing, they unleash more energy than any other known energy source, even thermonuclear bombs.

The energy from colliding positrons and antielectrons "is 10 billion times ... that of high explosive," Edwards explained in his March speech. Moreover, 1 gram of antimatter, about 1/25th of an ounce, would equal "23 space shuttle fuel tanks of energy." Thus "positron energy conversion," as he called it, would be a "revolutionary energy source" of interest to those who wage war.

It almost defies belief, the amount of explosive force available in a speck of antimatter -- even a speck that is too small to see. For example: One millionth of a gram of positrons contain as much energy as 37.8 kilograms (83 pounds) of TNT, according to Edwards' March speech. A simple calculation, then, shows that about 50-millionths of a gram could generate a blast equal to the explosion (roughly 4,000 pounds of TNT, according to the FBI) at the Alfred P. Murrah Federal Building in Oklahoma City in 1995.

Unlike regular nuclear bombs, positron bombs wouldn't eject plumes of radioactive debris. When large numbers of positrons and antielectrons collide,

Page 100: Cosmología

the primary product is an invisible but extremely dangerous burst of gamma radiation. Thus, in principle, a positron bomb could be a step toward one of the military's dreams from the early Cold War: a so-called "clean" superbomb that could kill large numbers of soldiers without ejecting radioactive contaminants over the countryside.

A copy of Edwards' speech onNIAC's Web site emphasizes this advantage of positron weapons in bright red letters: "No Nuclear Residue."

But talk of "clean" superbombs worries critics. " 'Clean' nuclear weapons are more dangerous than dirty ones because they are more likely to be used," said an e-mail from science historian George Dyson of the Institute for Advanced Study in Princeton, N.J., author of "Project Orion," a 2002 study on a Cold War-era attempt to design a nuclear spaceship. Still, Dyson adds, antimatter weapons are "a long, long way off."

Why so far off? One reason is that at present, there's no fast way to mass produce large amounts of antimatter from particle accelerators. With present techniques, the price tag for 100-billionths of a gram of antimatter would be $6 billion, according to an estimate by scientists at NASA's Marshall Space Flight Center and elsewhere, who hope to launch antimatter-fueled spaceships.

Another problem is the terribly unruly behavior of positrons whenever physicists try to corral them into a special container. Inside these containers, known as Penning traps, magnetic fields prevent the antiparticles from contacting the material wall of the container -- lest they annihilate on contact. Unfortunately, because like-charged particles repel each other, the positrons push each other apart and quickly squirt out of the trap.

If positrons can't be stored for long periods, they're as useless to the military as an armored personnel carrier without a gas tank. So Edwards is funding investigations of ways to make positrons last longer in storage.

Edwards' point man in that effort is Gerald Smith, former chairman of physics and Antimatter Project leader at Pennsylvania State University. Smith now operates a small firm, Positronics Research LLC, in Santa Fe, N.M. So far, the Air Force has given Smith and his colleagues $3.7 million for positron research, Smith told The Chronicle in August.

Smith is looking to store positrons in a quasi-stable form called positronium. A positronium "atom" (as physicists dub it) consists of an electron and antielectron, orbiting each other. Normally these two particles would quickly collide and self-annihilate within a fraction of a second -- but by manipulating electrical and magnetic fields in their vicinity, Smith hopes to make positronium atoms last much longer.

Smith's storage effort is the "world's first attempt to store large quantities of positronium atoms in a laboratory experiment," Edwards noted in his March speech. "If successful, this approach will open the door to storing militarily significant quantities of positronium atoms."

Page 101: Cosmología

Officials at Eglin Air Force Base initially agreed enthusiastically to try to arrange an interview with Edwards. "We're all very excited about this technology," spokesman Rex Swenson at Eglin's Munitions Directorate told The Chronicle in late July. But Swenson backed out in August after he was overruled by higher officials in the Air Force and Pentagon.

Reached by phone in late September, Edwards repeatedly declined to be interviewed. His superiors gave him "strict instructions not to give any interviews personally. I'm sorry about that -- this (antimatter) project is sort of my grandchild. ...

"(But) I agree with them (that) we're just not at the point where we need to be doing any public interviews."

Air Force spokesman Douglas Karas at the Pentagon also declined to comment last week.

In the meantime, the Air Force has been investigating the possibility of making use of a powerful positron-generating accelerator under development at Washington State University in Pullman, Wash. One goal: to see if positrons generated by the accelerator can be stored for long periods inside a new type of "antimatter trap" proposed by scientists, including Washington State physicist Kelvin Lynn, head of the school's Center for Materials Research.

A new generation of military explosives is worth developing, and antimatter might fill the bill, Lynn told The Chronicle: "If we spend another $10 billion (using ordinary chemical techniques), we're going to get better high explosives, but the gains are incremental because we're getting near the theoretical limits of chemical energy."

Besides, Lynn is enthusiastic about antimatter because he believes it could propel futuristic space rockets.

"I think," he said, "we need to get off this planet, because I'm afraid we're going to destroy it."

Page 102: Cosmología

Brief History of the Universe

The Planck time: 10-

43 seconds. After this time gravity can be considered to be a classical background in which particles and fields evolve following quantum mechanics. A region about 10-33 cm across is homogeneous and isotropic, The temperature is T=1032K.

Inflation begins. In Linde's chaotic inflation model inflation starts at the Planck time, although it could start when the temperature falls to point at which the symmetry of Grand Unified Theory (GUT) is spontaneously broken. This occurs when the temperature is around 1027 to 1028K at 10-35 seconds after the Big Bang.

Inflation ends. The time is 10-33 seconds, the temperature is again 1027 to 1028K as the vacuum energy density that drove inflation is converted into heat. At the end of inflation the expansion rate is so fast that the apparent age of the Universe [1/H] is only 10-35 seconds. Because of inflation, the homogeneous regions from the Planck time are at least 100 cm across, a growth by a factor greater than 1035 since the Planck time. However, quantum fluctuations during inflation also create a pattern of low amplitude inhomogeneities with a random pattern having equal power on all scales.

Baryogenesis: a small difference between the reaction rates for matter and antimatter leads to a mix with about 100,000,001 protons for every 100,000,000 antiprotons (and 100,000,000 photons).

Universe grows and cools until 0.0001 seconds after the Big Bang with temperature about T=1013 K. Antiprotons annihilate with protons leaving only matter, but with a very large number of photons per surviving proton and neutron.

Page 103: Cosmología

Universe grows and cools until 1 second after the Big Bang, with temperature T=1010 K. The weak interaction freezes out with a proton/neutron ratio of about 6. The homogeneous patch is now at least 1019.5 cm across.

Universe grows and cools until 100 seconds after the Big Bang. The temperature is 1 billion degrees, 109 K. Electrons and positrons annihilate to make more photons, while protons and neutrons combine to make deuterons. Almost all of the deuterons combine to make helium. The final result is about 3/4 hydrogen, 1/4 helium by mass; deuteron/proton ratio 30 parts per million. There are about 2 billion photons per proton or neutron.

One month after the Big Bang the processes that convert the radiation field to a blackbody spectrum become slower than the expansion of the Universe, so the spectrum of the Cosmic Microwave Background (CMB) preserves information back to this time.

Matter density equals radiation density 56,000 years after the Big Bang. The temperature is 9000 K. Dark matter inhomogeneities can start to collapse.

Protons and electrons combine to form neutral hydrogen. Universe becomes transparent. Temperature is T=3000 K, time is 380,000 years after the Big Bang. Ordinary matter can now fall into the dark matter clumps. The CMB travels freely from this time until now, so the CMB anisotropy gives a picture of the Universe at this time.

The first stars form 100-200 million years after the Big Bang, and reionize the Universe.

The first supernovae explode and spread carbon, nitrogen, oxygen, silicon, magnesium, iron, and so on up through uranium throughout the Universe.

Galaxies form as many clumps of dark matter, stars and gas merge together.

Clusters of galaxies form. The Solar System and Sun form 4.6 billion years ago. Now: The time is 13.7 Gyr after the Big Bang, and the temperature is

T=2.725 K. The homogeneous patch is at least 1029 cm across, which is larger than observable Universe.

Humorous Outside Links:

In 200 words or less. Ridiculously Short

Tutorial: Part 1 | Part 2 | Part 3 | Part 4 FAQ | Age | Distances | Bibliography | Relativity

© 2000-2004 Edward L. Wright. Last modified 15 July 2004