___________________________________________________________
El presente documento fue elaborado con el apoyo del
___________________________________________________
Dr. Jaime Parada Ávila
Presidente
Dr. José Francisco Albarrán Núñez
Vicepresidente
Ing. José Antonio Esteva Maraboto
Secretario
Dr. Carlos Alfonso García Ibarra
Tesorero
Dr. Alberto Jaime Paredes
Prosecretario
Dra. Mónica Barrera Rivera
Protesorero
CONSEJO DIRECTIVO
2016 - 2018
©Academia de Ingeniería México
Calle de Tacuba 7, Centro Histórico, C.P. 06000, Ciudad de México, CDMX
Impreso en México Noviembre 2017 © Derechos reservados
Diseño de portada: Tania A. Zaldívar Martínez
Cualquier mención o reproducción del material de esta publicación puede ser realizada siempre
y cuando se cite la fuente.
Física Patricia Zúñiga Cendejas
Directora Ejecutiva
Dr. Jaime Parada Ávila
Presidente
Dr. José Francisco Albarrán Núñez
Vicepresidente
Ing. José Antonio Esteva Maraboto
Secretario
Dr. Carlos Alfonso García Ibarra
Tesorero
Dr. Alberto Jaime Paredes
Prosecretario
Dra. Mónica Barrera Rivera
Protesorero
Presidentes de la Comisión de Especialidad de ingeniería
Coordinaciones de Programas Multidisciplinarios
Dr. Oscar Monroy Hermosillo
Ambiental
Dr. Víctor Manuel Castaño Meneses
Biomédica
M.I. Mario Ignacio Gómez Mejía
Civil
Dr. Eduardo Alberto Castañón Cruz
Comunicaciones y Electrónica
M. I. Julián Adolfo Adame Miranda
Eléctrica
Dr. Gorgonio García Molina
Geofísica
Dr. Moisés Dávila Serrano
Geológica
M. I. Alberto Lepe Zúñiga
Industrial
Dr. Guillermo José Aguirre Esponda
Mecánica y Mecatrónica
Dr. David Morillón Gálvez
Municipal y Urbanística
M.C. Antonio del Río Soto
Naval
Dr. Edmundo Del Valle Gallegos
Nuclear
M.I. Miguel Ángel Lozada Aguilar
Petrolera
Ing. Arturo Ricardo Rosales González
Química
M. I. Luis Enrique Maumejean Navarrete
Sistemas
Dr. Antonio Alonso Concheiro
Prospectiva y Planeación
Dr. Felipe Rolando Menchaca García
Educación e Investigación en Ingeniería
Dr. Francisco Javier Trujillo Arriaga
Alimentos y Desarrollo Rural
Dr. Víctor Manuel López López
Recursos Naturales y Cambio Climático
Dr. Gustavo Alonso Vargas
Energía y Sustentabilidad
Dr. José Salvador Echeverría Villagómez
Competitividad e Innovación
M.C. Luis Gabriel Torreblanca Rivera
Manufactura y Servicios
Ing. Oscar Luis Valle Molina
Infraestructura, Transportes y Ciudades
Dr. Víctor Manuel Castaño Meneses
Salud
CONSEJO ACADÉMICO
2016 - 2018
____________________________________________________________
CIENCIA POP-ular ____________________________________________________________
Víctor Manuel Castaño Meneses
Centro de Física Aplicada y Tecnología Avanzada
ÍNDICE
LA ACADEMIA DE INGENIERIA DE MÉXICO ____________________________ 1
PRESENTACIÓN _________________________________________________ 3
A FALTA DE PRÓLOGO: ¿SABEMOS REALMENTE QUÉ ES CIENCIA? __________ 7
DE FÍSICOS, QUÍMICOS, MATEMÁTICOS…Y OTROS BICHOS ______________ 9
EL ANNUS MIRABILIS _______________________________________________ 11
EL ENIGMÁTICO PADRE DEL PROYECTO MANHATTAN ______________________ 14
EL PERFECTO SEGUNDO LUGAR _______________________________________ 16
EL NEWTON DE NUESTRO TIEMPO: PIERRE-GILLES DE GENNES ______________ 18
DON BLAS CABRERA Y LA FÍSICA INTERNACIONAL ________________________ 19
EL QUÍMICO HILARANTE QUE SALVÓ A LOS MINEROS ______________________ 20
EL QUÍMICO POETA ________________________________________________ 22
EL NACIMIENTO DE LAS MATEMÁTICAS _________________________________ 24
EL MATEMÁTICO CIEGO DE SAN PETESBURGO ____________________________ 26
EL ADOLESCENTE REVOLUCIONARIO QUE CAMBIÓ LA MATEMÁTICA __________ 28
EL EFECTO MOZART ________________________________________________ 30
EL CENTENARIO LUCTUOSO DE JULES VERNE _____________________________ 32
EL MAGO Y LA AERONÁUTICA _________________________________________ 33
EL ASTRÓNOMO DE LA NARIZ DE PLATA _________________________________ 34
INVENTOS, TECNOLOGÍA, INNOVACIÓN…¡Y CHIRIPA! __________________ 37
EL SISTEMA MÉTRICO DECIMAL ______________________________________ 39
LA CIENCIA DE LA INNOVACIÓN _______________________________________ 41
EL PRIMER VUELO TRASATLÁNTICO ____________________________________ 44
EINSTEIN Y LOS ORÍGENES DE LA NANOTECNOLOGÍA ______________________ 46
MISIÓN STEREO, OBJETIVO: EL SOL TRIDIMENSIONAL _____________________ 49
BREVE HISTORIA DE LA TECNOLOGÍA DE LA CERVEZA ______________________ 51
EL DESCUBRIMIENTO DEL QUINTO ESTADO DE AGREGACIÓN DE LA MATERIA ___ 52
A VEINTE AÑOS DE CHERNOBYL _______________________________________ 53
DEL APARATO DE GALILEO AL GRAN TELESCOPIO MEXICANO ________________ 55
CIENCIA Y TECNOLOGÍA DEL MARTILLO ________________________________ 57
EFEMÉRIDES Y CURIOSIDADES CIENTÍFICASLA EDAD DEL UNIVERSO _____ 59
LA VERDADERA FECHA DE LA NAVIDAD _________________________________ 62
LA ANTIGUA CIENCIA DEL AÑO NUEVO _________________________________ 64
EL MARINO ESPAÑOL QUE SE CONVIRTIÓ EN FÍSICO ______________________ 65
LOS “DÍAS DEL INVENTOR” __________________________________________ 67
SESQUICENTENARIO DEL PADRE DEL PSICOANÁLISIS _____________________ 68
LA RAZÓN DIVINA EN EL ARTE Y EN LA CIENCIA __________________________ 69
EL PLANETA QUE RESULTÓ…¡PLANETOIDE! ______________________________ 72
LA DECISIÓN QUE ESTREMECIÓ AL MUNDO ______________________________ 73
LA ESCALA RICHTER Y LOS TEMBLORES DEL 85 ___________________________ 75
LA DETECTIVESCA CIENCIA DE LOS DOCUMENTOS ANTIGUOS: EL CASO DE CÓDICE 1548 ____________________________________________________________ 76
DESENREDANDO LA TELARAÑA: LOS CRISTALES LIQUIDOS _________________ 79
EL CICLO DEL CARBÓN ______________________________________________ 81
EL COMETA MÁS FAMOSO DEL MUNDO _________________________________ 83
1
LA ACADEMIA DE INGENIERIA DE MÉXICO
La Academia de Ingeniería de México (AIM) es una asociación, sin fines de lucro, que agrupa y
promueve la participación y colaboración de los más distinguidos ingenieros y profesionales afines
del país y del extranjero, quienes se han destacado en la práctica, en la investigación y en la
enseñanza de las diversas ramas de la ingeniería, y que coadyuvan al desarrollo equitativo,
creciente y sustentable de México.
Es una institución reconocida y respetada por su liderazgo y participación activa en los sectores
público, privado y social de México, que tiene como propósito lograr una ingeniería mexicana
innovadora, competitiva y protagónica en temas que impacten en el desarrollo sostenible del país.
La AIM es un centro de pensamiento y reflexión estratégico sobre la ingeniería, en especial, la
nacional, dirigido a promover y difundir la vocación, la educación, el ejercicio profesional, la
investigación, y la innovación en la ingeniería al más alto nivel y con compromiso social.
México no se puede explicar sin la contribución de los ingenieros, tanto en su infraestructura,
como en la industria y servicios. En un entorno de cambios rápidos y profundos, de mayor
competencia interna y externa, así como de la urgente necesidad de resolver rezagos añejos, el
país deberá resolver los grandes desafíos para que pueda desplegar todo su potencial de
desarrollo. Es por ello que la AIM estableció, como prioridad estratégica, contribuir al debate
público sobre el rumbo que tomará nuestro país en los próximos años en temas prioritarios para el
desarrollo. Se busca, así, lograr la incidencia en las decisiones nacionales más relevantes,
convencidos de que la ingeniería mexicana tiene mucho que aportar en el análisis y evaluación de
las políticas públicas relacionadas con infraestructura, energía, telecomunicaciones, clústeres
industriales, medio ambiente y muchas otras áreas. Para lograrlo, la AIM decidió identificar los
Grandes Retos de la Ingeniería Mexicana (GRIM) para focalizar en ellos sus esfuerzos de reflexión
y propuesta. Los nueve GRIM son:
1. Alimentos y Desarrollo Rural
2. Competitividad e Innovación
3. Energía y Sustentabilidad
4. Educación e Investigación en Ingeniería
5. Infraestructura, Transporte y Ciudades
6. Manufactura y Servicios
7. Prospectiva y Planeación
8. Recursos Naturales y Cambio Climático
9. Salud
La actividad editorial de la Academia de Ingeniería de México representa el principal medio de
expresión, en medios impresos y electrónicos, hacia el interior y el exterior, de su quehacer. Se ha
2
diseñado para contribuir eficazmente al logro de una ingeniería mexicana innovadora, competitiva
y protagónica ya que aborda temas estratégicos que impacten en el desarrollo equitativo y
sostenible del país.
La actividad editorial de la AIM está encaminada a la divulgación de la ingeniería, especialmente a
la difusión de su repositorio de conocimientos y de los resultados de reflexiones de los grupos
colegiados de pensamiento estratégico. Las publicaciones se encuentran estructuradas en series,
además de sus publicaciones periódicas, las cuales le dan agilidad y pertinencia a la expresión del
trabajo de la organización.
3
PRESENTACIÓN
Sergio M. Alcocer Martínez de Castro
Mi amigo y colega universitario Víctor Manuel Castaño Meneses me ha hecho el honor de pedirme
la presentación de su nueva publicación Ciencia pop-ular…. Éste es un título que deja mucho a la
imaginación: será acaso pop por aquello de la cultura, tan en auge en los sesenta, que fue
encabezada por el “Pop Art” que enseguida me remite a Andy Warhol, Roy Lichestein o Jasper
Johns. ¿Quién no recuerda la famosa lata de sopa Campbell‘s o las imágenes de historietas como
obras de arte, que nos llegaban de los museos más vanguardistas de Londres y Nueva York?
Las fuentes del pop nacen de la realidad del momento cotidiano, de la cultura de masas. La
intención era buscar imágenes sencillas y reconocibles, y elevarlas a la categoría de arte, lo que
promovió un cambio cultural para que todos participaran en el proceso creativo. Este fenómeno
se extendió a otras expresiones artísticas como la música, la literatura, la moda, etc. y, en este
caso, a la ciencia.
Con Víctor Castaño compartí el interés y la dedicación a la ciencia, al igual que el orgullo y cariño
por nuestra alma mater, la Universidad Nacional Autónoma de México. El doctor Castaño ha
dedicado gran parte de su esfuerzo y talento a la física, hoy como investigador y director del
Centro de Física Aplicada y Tecnología Avanzada, en diversas líneas de investigación, destacando
la ingeniería molecular de materiales.
En la publicación que me honro en presentar, Víctor aparece en una más de sus facetas: la de
divulgador de la ciencia. Ésta es una labor nada fácil y quizá más en nuestro país. En este caso,
va además muy de acuerdo con el término pop ya que a través de relatos cortos y amenos nos
acerca a la ciencia; es decir, su actividad lleva una intención más allá de publicar, informar o
comunicar. Lo que Víctor trama es informar con claridad, precisión y veracidad a los no iniciados y
a los que no cultivan la ciencia, o sea a los grandes grupos en un país como México, donde la
cultura, en el concepto general, no incluye necesariamente a la ciencia. Esta acción cumple con un
doble objetivo: llevar la cultura científica a todo el público y satisfacer la necesidad del ser humano
de conocer el mundo que le rodea para comprenderlo mejor.
El libro está integrado por 37 artículos publicados en prensa escrita, de muy diferentes temas, los
cuales, han sido agrupados por el autor en tres partes o capítulos.
4
Así comienza con “A falta de Prólogo ¿sabemos realmente qué es ciencia?“, con la finalidad de
ubicar el término ciencia, ya que plantea que a lo largo del tiempo el concepto ha tenido diferentes
acepciones, así como criterios y valores diferentes. De este modo se ha llegado a entender lo
mismo ciencia que tecnología, o a entender la ciencia como una serie de datos sobre la naturaleza,
o aún más allá, reconociendo el rigor del procedimiento y/o juicio de valor moral para dar validez o
autoridad a algo.
En el primer capítulo, denominado “De físicos, químicos, matemáticos… y otros bichos”, mediante
14 artículos, Víctor nos brinda un paseo por las mencionadas disciplinas mostrando realmente para
qué sirven. Al tiempo que entretienen sus relatos, nos muestran datos y acontecimientos nuevos
para un lector no especializado como es el del Annus Mirabilis o el año milagroso, donde describe,
empezando por Isaac Newton, los años únicos y especiales para varios científicos así como para
otras disciplinas, como la literatura, la medicina, el cine. Continúa con la creación de la bomba
atómica; nos recrea con El Perfecto Segundo Lugar --con su moraleja más o menos acorde con
una conocida canción popular “no sólo hay que llegar primero sino hay que saber llegar”--, El
Newton de Nuestro Tiempo en la persona de Gilles de Gennes y sus contribuciones en el campo de
los polímeros; así como la historia del químico descubridor del gas hilarante y que inventó una
lámpara para mineros. En El Químico Poeta, presenta un tema que muestra su gran interés en
relacionar la ciencia y el arte; seguido nos cuenta del cómo se pretende medir el efecto de la
música de Mozart sobre los seres humanos; también hace un interesante recorrido por la historia
de las matemáticas, empezando con Pitágoras y siguiendo con, Euler y Galois; reconoce a Julio
Verne como el creador de la ciencia ficción y gran visionario; continúa con el interés de Houidini
por la aviación y como mecenas de desarrollos tecnológicos, y termina con El Astrónomo de la
Nariz de Plata, donde aborda otro de sus temas de interés, la astronomía.
La segunda parte, “Inventos, tecnología, innovación y chiripa”, agrupa diez artículos, partiendo de
una interesantísima historia del sistema métrico decimal concebida en el marco de la revolución
francesa y con el espíritu de la libertad, igualdad y fraternidad. Estimula su reflexión sobre la
ciencia de la innovación como un hecho no meramente tecnológico, sino con un importante
contenido social en La Ciencia de la Innovación; también presenta la hazaña de Lindbergh en el
primer vuelo trasatlántico como la voluntad del hombre para saber más del mundo; explica los
orígenes de un tema tan actual como la nanotecnología con el trabajo de Einstein sobre el
movimiento browniano; igual cuenta acerca de la Misión Stereo, que en 2006 fue lanzada por la
NASA para obtener imágenes estereoscópicas (tridimensionales) del Sol. Está incluida la historia de
la fabricación de la cerveza y su tecnología, que data del 3500 aC; el descubrimiento de los
cristales líquidos tan usados en la tecnología de nuestro tiempo; relata el origen técnico del terrible
accidente de reactor 4 en Chernobyl; el desarrollo del telescopio a partir de Galileo hasta la época
actual; para terminar con la ciencia y la tecnología de la herramienta más sencilla pero más útil: el
martillo.
La última parte reúne 13 efemérides y curiosidades científicas. Así, nos enteramos de la edad del
Universo que de acuerdo con Víctor sería de 23.7 giga-años, la verdadera fecha de la navidad y del
año nuevo; la degradación de Plutón de planeta a planetoide; el por qué fueron detonadas las
bombas en Hiroshima y Nagasaki; cómo Charles Richter, mediante una estructura logarítmica, creó
la escala para medir la intensidad de los temblores; de la importancia del ciclo del carbón para el
5
sustento de la Tierra y la existencia de la vida, así como la historia del cometa más famoso del
mundo: Halley. De ellos merece atención especial el caso de la telaraña y los cristales líquidos,
donde nos presenta información acerca de la seda de la araña como un material con propiedades
asombrosas comparables a las de un cristal líquido y difíciles de reproducir en laboratorio, así
como para uso industrial por el momento.
Felicitar a Víctor Castaño, Universitario inteligente, entusiasta y comprometido por su segundo
libro sobre divulgación científica. Esperamos el tercero el cual será, sin duda, más interesante y
divertido. ¡Enhorabuena!
7
A FALTA DE PRÓLOGO: ¿SABEMOS REALMENTE QUÉ ES CIENCIA?
Existen términos en todos los lenguajes cuyo significado puede prestarse a confusión, ya sea por
contexto en el que se usan o bien por la evolución de las palabras mismas a través del tiempo, lo
que conduce a que no todos entiendan precisamente lo mismo cuando alguien expresa tales
vocablos. En algunos pocos ejemplos, sin embargo, hay conceptos de por si confusos,
independientemente del idioma que se utilice. Ese es el caso de “ciencia”.
Todas las lenguas del mundo tienen al menos una palabra para describir la ciencia y uno pensaría,
obviamente, que todos entenderían lo mismo. Pues la verdad es que la misma idea de ciencia
tiene una dimensión epistemológica, psicológica y temporal, que hace que hasta los científicos
tengan ideas distintas cuando oyen o dicen “ciencia”. Uno de los conceptos más tradicionales de
ciencia, por ejemplo, es el de que ésta no es sino un esquema de conducta mediante el cual los
seres humanos hemos conseguido dominar nuestro entorno. De acuerdo con esta concepción,
ciencia y tecnología son conceptos hermanos e inseparables.
Muchos científicos, tanto antiguos como modernos, sin embargo, hacen una clara distinción entre
“ciencia” y “tecnología”, siendo la primera un cuerpo de conocimientos teóricos y la segunda,
simplemente su aplicación. La distinción puede llegar a ser tan tajante que se han creado tanto
un “Sistema Nacional de Investigadores” como un “Sistema Nacional de Tecnólogos” en nuestro
país, con criterios y valores muy distintos entre sí. Otra gente define la ciencia por su
metodología, siendo “científico” todo lo que sigue una serie de reglas y formas aceptadas por la
comunidad de profesionales de la ciencia en un tiempo y un lugar dados.
La Alemania Nazi es un claro ejemplo de un concepto de ciencia que se basaba en una
metodología y visión distintas a la de otros países en se momento y que, sin embargo, tuvo logros
que perduran hasta la fecha, aunque los métodos que usaron no sólo hayan sido abandonados,
sino hasta repudiados.
Algunos filósofos muy renombrados han definido la ciencia de acuerdo a su estatus
epistémológico. Bertrand Russell, por ejemplo, menciona en su famosa obra “A History of Western
Philosophy”, que “no es lo que el hombre de ciencia cree, lo que lo distingue, sino cómo y por qué
lo cree…” En otros contextos, no es la metodología de la ciencia lo relevante, sino su contenido.
8
Para quienes piensan así, la ciencia no es otra cosa, en el fondo, que un conjunto ordenado y
coherente de datos y creencias sobre la Naturaleza, tal y como se nos enseñan hoy en día Física,
Química o Biología.
Para no pocos científicos, lo que da valor a la ciencia es el rigor del procedimiento que se sigue,
independientemente de los objetivos y logros específicos. Así, aunque se hagan descubrimientos
importantes, éstos no serán científicamente valiosos si no se obtuvieron con estricto apego a
ciertos usos y costumbres de la disciplina, que muchos llegan a considerar inmutables. Para una
buena parte del público común, por otra parte, aquel alejado de la filosofía y de la actividad
científica profesional, el decir “ciencia” o “científico” implica, por encima de todo, un juicio de valor
moral, siendo una manera de darle (o quitarle) validez o autoridad a algo. No se puede negar que
vivimos, como nunca antes en la historia de la Humanidad, una época donde los descubrimientos
científicos llegan muy rápidamente a los medios masivos de comunicación, por lo que la imagen de
la ciencia misma debe cuidarse con gran atención y responsabilidad. En fin, que si pensamos en la
ciencia como una búsqueda, posición de no pocos científicos, ésta comienza, necesariamente, por
encontrar su propia definición. O, como algún cínico diría: “la ciencia es del color del cristal con
que se mira”
11
EL ANNUS MIRABILIS
Todos tenemos (o deberíamos tener), nuestro “año milagroso” (significado de la frase latina que
da título a este artículo), para describir la época de nuestra vida en la que algo único y
trascendental nos ocurre. En éste sentido, varios de los grandes científicos de la Historia han
tenido el suyo, dejando para siempre su huella en la Humanidad.
Uno de los ejemplos clásicos es el de Isaac Newton, figura señera de la Física, a quienes no pocos
consideran el más grande científico que haya existido jamás. Entre 1665 y 1666 (de hecho, no un
año, sino más bien 18 meses), el entonces joven Isaac (había nacido en 1643) inventó lo que
ahora conocemos como cálculo infinitesimal (que él llamó “cálculo de fluxiones”) y que constituye
la base de mucha de la matemática aplicada de la actualidad. También desarrolló la teoría de la
Óptica que se enseña hasta nuestros días, logró explicar cómo es que actúa la fuerza de gravedad
(la anécdota de la manzana es mundialmente conocida) y enunció sus famosísimas tres leyes del
movimiento.
La importancia de tales descubrimientos, que siguen teniendo un gran impacto 400 años después,
en un período tan corto de tiempo, hizo que se pensara que nunca jamás habría en la ciencia otro
Annus Mirabilis, como se comenzó a llamar a ese período de la vida de Newton quien, por
supuesto, fue toda su vida un hombre brillantísimo, pero nunca volvió a tener, ni de lejos, un año
tan milagroso como el que se ha relatado.
Por supuesto que el uso de éste término latino no se reduce a la ciencia, como lo refleja el que la
primera referencia del uso de “Annus Mirabilis” en la literatura corresponde al famoso poeta del
siglo XVI John Dryden (1631-1700), quien publicó en 1667 (¡vaya coincidencia con Newton!) unos
versos con precisamente ese título para conmemorar varios eventos que, a su parecer, revelaban
la intervención divina en el destino de Inglaterra, como el gran Incendio de Londres de 1666.
En la literatura se registran varios “años maravillosos”, como en el caso de la lengua inglesa, que
considera a 1922 Annus Mirabilis, ya que en ese año Thomas Stearns Eliot (1888-1965) publicó
“The Waste Land” y James Joyce (1882-1941) “Ulysses”, obras que constituyen piedras angulares
para la cultura de los angloparlantes.
El cine no se queda atrás, ya que muchos expertos consideran a 1925 el Annus Mirabilis de esa
industria-arte, pues en ese año aparecieron Ben-Hur, The Big Parade, The Gold Rush y Stella
Dallas, películas que ciertamente marcaron época. La Medicina tuvo, de acuerdo con ciertos
historiadores, su Annus Mirabilis en 1898, ya que Ronald Ross en la India y Battista Grassi en
Italia, dilucidaron el ciclo de la malaria en pájaros y humanos,
Paul Louis Simond descubrió el papel de la pulga de la rata en la transmisión de la fiebre bubónica,
Patrick Manson publicó su libro sobre una disciplina completamente novedosa: las enfermedades
tropicales, los ingleses y franceses comenzaron la publicación de dos importantes revistas: The
Journal of Tropical Medicine and Hygiene y Les Archives de Parasitologie, respectivamente, La
12
British Medical Association estableció una sección especial para enfermedades tropicales y se abrió
un importante laboratorio de parasitología en Senegal.
Para la Física nuclear, 1932 constituye su Annus Mirabilis, en el que James Chadwick descubrió el
neutrón, Carl Anderson identificó el positrón y John Cockcroft y Ernest Walton lograron la primera
desintegración artificial del núcleo atómico.
2005 fue declarado por la Organización de las Naciones Unidas, en un acuerdo de fecha 7 de julio
de 2004, como El Año Internacional de la Física (World Year of Physics) con motivo del centenario
de los famosos cinco artículos de Albert Einstein y con el objeto de difundir entre la población en
general, y particularmente entre los jóvenes, la importancia que el conocimiento de la Física
reviste, no sólo como una cuestión de cultura científica, sino como un aspecto fundamental para
entender la visión que del universo tenemos los seres humanos hoy en día.
Vale la pena mencionar, para ir entrando en materia, el por qué se ha dedicado todo un año de
celebraciones internacionales al trabajo científico de un joven de 26 años (edad de Einstein en
1905), cuya obra ha sido de tal importancia que la conocidísima revista norteamericana TIME,
después de hacer una cuidadosa consulta en todo el mundo, llegó a la conclusión que la Persona
del Siglo (XX) fue, precisamente, Albert Einstein (y que conste que habían muchos candidatos
merecedores de tal distinción en todo el orbe).
Esto sólo refleja, en parte, la enorme influencia que la figura del físico nacido en Ulm, Alemania,
en 1879, ha tenido en la Humanidad, como se puede ver en los ballets, obras de teatro,
estampillas postales y numerosos libros que se han escrito sobre Einstein y su obra.
Independientemente de los aspectos técnicos de los cinco artículos que Albert Einstein publicó en
1905, resulta sorprendente, por decir lo menos, que una persona, en un lapso de un año
(estrictamente hablando, siete meses, de marzo a septiembre) haya logrado cambiar para siempre
al mundo y nuestra concepción del mismo. Tal evento no tiene igual, ni antes, ni después de ese
fantástico año, por lo que ha sido también bautizado por los historiadores de la ciencia como otro
Annus Mirabilis, uno de los más importantes en la saga de la actividad científica.
Más aún, la figura de Albert se agiganta si uno revisa cuál era el estado de la epistemología de la
ciencia hace cien años. En efecto, a comienzos del siglo XX se tenía el convencimiento de que la
Física, como disciplina científica, estaba “cerrada”, en el sentido de que todos los descubrimientos
científicos fundamentales ya se habían hecho y que lo que restaba era, simplemente, la aplicación
de los mismos, con su consecuente importancia práctica y tecnológica, pero sin representar
preguntas básicas para la ciencia. Esta posición, sostenida por varios de los más destacados
hombres de ciencia de la época, no era, de manera alguna, gratuita, ya que el siglo XIX había
traído al género humano descubrimientos tan impactantes como el de la electricidad y el
magnetismo, además de haber sido capaces de establecer una teoría tan sólida, filosófica y
científicamente hablando, como la Termodinámica, amén de un sinfín de avances técnicos que
hacían imposible suponer que hubiese “algo más”.
13
Uno de los más famosos artículos de Einstein, publicado en la revista alemana Annalen der Physik
(Anales de Física), en el volumen 17, página 891, 1905, que lleva el título Zur Elektrodynamik
bewegter Körper (Sobre la Electrodinámica de los cuerpos en Movimiento) representa una
verdadera revolución epistemológica en Física, ya que, antes de ese trabajo, se tenía el
convencimiento de que el tiempo era una cantidad absoluta e invariante. El joven Albert
demostró, en el citado trabajo, que, para que las leyes de la Física sean las mismas en cualquier
sistema de referencia inercial (es decir, no acelerado) se requiere, curiosamente, que el tiempo
sea una variable más, tal y cómo es la posición. Ésta es la que la posteridad conoce como la
“Teoría especial de la relatividad”, nombre que se ha prestado a confusión desde entonces
(aunque no por culpa de Einstein, a quien nunca le gustó totalmente esa denominación).
14
EL ENIGMÁTICO PADRE DEL PROYECTO MANHATTAN
El famoso Proyecto Manhattan, que llevó a la creación de la bomba atómica que destruyó
la ciudad japonesa de Hiroshima, dando así fin oficialmente a la Segunda Guerra Mundial,
constituye, sin asomo alguno de duda, uno de los episodios más controvertidos de la
ciencia moderna, no únicamente por las consecuencias que, hasta el día de hoy, tiene el
haber construido un arma de destrucción masiva tan poderosa, sino por todas las
anécdotas que rodean a ese proyecto ultrasecreto del gobierno de los Estados Unidos,
algunos de cuyos detalles se comienzan apenas a desvelar a la opinión pública, más de
sesenta años después.
Para comenzar, la persona a cargo de tan importante empresa no fue un militar, a pesar
de que se trataba de un proyecto con fines obviamente bélicos, sino uno de los físicos
considerado por sus pares como uno de los más brillantes de su generación: Julius Robert
Oppenheimer, nacido en la ciudad de Nueva York en abril de 1904, hijo de un inmigrante
judío, que había llegado en 1888 a nuestro vecino del norte, procedente de Alemania, y
que logró, en relativamente poco tiempo, reunir una considerable fortuna, que permitió a
Robert y su hermano menor, Frank Friedman, quien también estudió Física, no sólo tener
una vida muy cómoda, sino una educación muy esmerada, lo que le ganó a Robert,
durante toda su vida, tener la fama de ser una persona extremadamente culta y refinada,
que dominaba a la perfección varios idiomas, incluyendo el sánscrito.
Como niño prodigio que fue, Robert Oppenheimer estuvo acostumbrado, desde los siete
años de edad, a escribir poemas en inglés y alemán y a dar conferencias a sus
maravillados oyentes sobre mineralogía y otros temas que ya desde entonces le
interesaban al pequeño y más bien tímido joven, que se graduó con todos los honores en
la prestigiada Harvard en 1925, para después viajar a Inglaterra, con el fin de doctorarse
en Física Teórica en la Universidad de Cambridge, aunque después se cambió a la
alemana de Gotinga, a invitación del gran y famoso físico Max Born (premio Nobel en
1954), quien se había impresionado por la capacidad intelectual de Oppenheimer y
15
pensaba que la Física Teórica estaba más desarrollada en ese tiempo en Alemania que en
Inglaterra, de tal forma que, en 1927 y bajo la supervisión de Born, Robert obtuvo su
doctorado alemán, después de lo que se dedicó a visitar a algunos de los físicos más
prestigiados de la época, lo que, junto con su innegable talento, le ganó la membresía en
el exclusivo grupo de los grandes de la Física de principios del siglo XX.
A partir de una famosa carta dirigida en 1939 al Presidente Roosevelt y firmada, entre
otras personalidades nada menos que por Albert Einstein, el gobierno norteamericano,
preocupado por la posibilidad de que los nazis desarrollaran una bomba atómica, organizó
en 1943 un ambicioso proyecto para ganar la carrera nuclear a los alemanes, con el
nombre clave de “Proyecto Manhattan”, bajo la dirección de Oppenheimer, quien se
convirtió así en un héroe para los aliados. Probablemente no hubiesen podido escoger
mejor, ya que Oppenheimer combinaba conocimientos técnicos profundos de la Física más
avanzada de su época, aunados al respeto de su comunidad, con un liderazgo y capacidad
de organización que eran imperativos para un proyecto tan complejo como ese.
Además, para un proyecto enigmático y controversial, se necesitaba un líder enigmático y
controversial, como lo era Oppenheimer, de cuya vida y pensamiento se están haciendo
apenas interesantes descubrimientos, al comenzar a hacerse públicos documentos
clasificados hasta hoy como secretos por el gobierno de los Estados Unidos. Por ejemplo,
a pesar de su cercana relación con los militares, Robert siempre mantuvo una actitud
independiente y, de alguna manera, crítica, sobre todo en lo que se refiere a los aspectos
éticos de las armas nucleares, lo que le llevó a ser sometido, en 1954, a un juicio sobre su
“lealtad” a los Estados Unidos, en medio de la Guerra Fría, incidente del que salió
legalmente bien librado, pero con su imagen pública dañada, golpe del que nunca se
recuperó. Robert Oppenheimer murió en 1967.
16
EL PERFECTO SEGUNDO LUGAR
Es bien sabido que nadie recuerda a los que quedan en segundo lugar en una competencia (¿qué
equipo, por ejemplo, fue el subcampeón en el título más reciente que lograron los Pumas de la
U.N.A.M.?) y a todos nos habrá ocurrido alguna vez estar a punto ganar algo “por un pelito de
rana calva” o bien, “ya merito” lograr la supremacía en tal o cual actividad (no, el presente artículo
no está dedicado a la selección mexicana de fútbol, contra lo que pudiese parecer).
Sin embargo, existe un caso realmente impresionante de un brillantísimo científico que, a lo largo
de su prolífica vida, se quedó en muchísimas ocasiones “a una pestaña” de pasar a la Historia
como el responsable de varios descubrimientos que cambiaron a la Humanidad. Nos referimos, por
supuesto, al gran Robert Hooke (1635-1703), polifacético hombre de ciencia inglés, que lo mismo
fue uno de los más ingeniosos inventores de su época, que realizó inéditas observaciones en el
entonces novedoso microscopio óptico, que entendió el origen de los fósiles y que planteó una
teoría, fundamentalmente correcta, sobre los temblores, además de ser un más que competente
arquitecto, anatomista, herbolario, químico, físico, ingeniero, botánico, músico,…
A pesar de que en vida fue un hombre muy famoso y respetado en los memorables círculos
intelectuales de la Inglaterra de Carlos II (monarca bajo cuyos auspicios se creó nada menos que
la prestigiosísima Royal Society, Hooke no figura en los anales de la ciencia al lado de
contemporáneos suyos, cuyo nombre perdurará por siempre: Newton, Flamsted, Wren, Halley,
Boyle, etc., a pesar de que llegó a ser más reconocido en vida que casi todos los antes
mencionados. La razón es simple, aunque no deja de causar tristeza: a pesar de su ingenio,
Hooke siempre fue el segundo en reportar un descubrimiento científico importante (los primeros,
claro está, pertenecen a la lista anterior).
Para ser justos, sin embargo, hay que aclarar que Hooke en muchos casos acusó públicamente a
varios de sus famosos contemporáneos de plagio. El caso más famoso y dramático es el de su
disputa nada menos que con Isaac Newton, considerado por muchos como el más grande
científico de la Historia, respecto a la famosa Ley de la Gravitación Universal, cuya concepción se
le atribuye a Newton, cuando le cayó una manzana en la cabeza. Sin embargo, Hooke aseguró
repetidamente, en varios foros y publicaciones, que la idea se la dio él personalmente a Newton,
quien “solamente” la expresó matemáticamente en la conocida fórmula del inverso del cuadrado
de las distancias.
Newton nunca realmente negó esto, pero sí atacó violentamente a Hooke bajo el argumento de
que “una cosa es pensar que algo es de tal o cual forma y otra, muy diferente, es demostrarlo”. El
pobre Robert no sólo perdió el pleito, sino que se echó de enemigo a un hombre sumamente
poderoso y vengativo como lo era Isaac, que llegó al extremo, cuando tuvo el control de la Royal
Society, de mandar quemar los retratos de Hooke, que había sido por años uno de los pilares de la
institución.
17
Aparte de la reverencia, mezclada con una buena dosis de temor, que la señera figura de Newton
inspiraba, el mal carácter de Hooke, conocido de propios y extraños, ayudó poco a que se prestara
atención a sus reclamos de originalidad. El resultado es que todo mundo sabe quién es y qué hizo
Newton, mientras que el nombre de Hooke apenas se recuerda vagamente, asociado a la ley del
resorte (deformación proporcional a la fuerza aplicada), pero pocos científicos hoy en día
realmente saben qué hizo en vida Robert Hooke. En años recientes, sin embargo, se han
analizado documentos del siglo XVII que están haciendo reconsiderar, trescientos años después de
su muerte, la labor importantísima de Hooke quien, después de todo, tal vez logré el ser
considerado entre los “primeros lugares” de la historia de la ciencia. Moraleja: como en el fútbol,
en la ciencia no basta hacerlo bien y ser capaz, sino que hay que saber ganar y que vale la pena
intentar ser simpático.
18
EL NEWTON DE NUESTRO TIEMPO: PIERRE-GILLES DE GENNES
El 18 de mayo de 2007 pasado falleció uno de los grandes científicos del siglo XX, el francés
Pierre-Gilles de Gennes, que había nacido en Paris en octubre de 1932, por lo que contaba al morir
con 74 años, que no representan una edad avanzada para las expectativas de vida de hoy en día
(casi 81 años, en Francia).
De Gennes, hijo de un médico de pueblo, recibió en 1991 el Premio Nobel por sus importantes
contribuciones en el campo de los polímeros, lo que lo convirtió en uno de los pocos especialistas
en esos materiales, a lo largo de la Historia, en recibir tan anhelado galardón (el primero fue el
gran Paul Flory, en 1974 y Alan Heeger, Alan G. MacDiarmid y Hideki Shirakawa lo compartieron
en 2002), lo que resulta paradójico, por el enorme impacto que los polímeros han tenido en la vida
moderna de todo el planeta. La sagacidad y creatividad científicas de Pierre-Gilles le valieron ser
denominado por algunos «el Newton de nuestro tiempo», título que, aunque discutible, ilustra el
enorme respeto e impacto que el trabajo de este físico galo ha despertado en la comunidad
científica internacional.
Desde el punto de vista técnico, las contribuciones de este investigador son bastante complicadas
y requieren conocimientos de matemáticas que, aún entre los especialistas, son difíciles de
dominar, sin embargo, sus trabajos teóricos han resultado fundamentales para el desarrollo de
tecnologías tan modernas e importantes como el LCD (Liquid Crystal Display), que muchos usamos
ya cotidianamente. En términos muy generales, de Gennes abrió el camino para entender cómo
se ordenan sistemas muy complicados, que no se habían entendido, como los llamados cristales
líquidos poliméricos, que son sistemas intermedios entre un sólido y un líquido, y que tanto han
impactado la tecnología de los últimos 2 ó 3 lustros.
Curiosamente, entre sus más de 500 trabajos publicados, además de artículos técnicos sobre física
de polímeros, cristales líquidos y sistemas granulares y porosos, de Gennes publicó mucho sobre la
conciencia y la memoria en los humanos.
19
DON BLAS CABRERA Y LA FÍSICA INTERNACIONAL
Uno de los frutos más connotados de la Junta para la Ampliación de Estudios e Investigaciones
Científicas, fundada en España por D. Santiago Ramón y Cajal, Premio Nobel de Medicina y
Fisiología, y por Francisco Gíner de los Ríos en 1907, con el afán de permitir a los jóvenes
españoles tener acceso a la ciencia internacional de más alto nivel de su tiempo, fue D. Blas
Cabrera y Felipe, nacido en Lanzarote en 1878 y fallecido en México, en 1945, apenas cuatro años
después de llegar exiliado, procedente de Francia, donde se había refugiado, trabajando como
Secretario de la Oficina Internacional de Pesas y Medidas de Paris, aprovechando el enorme
aprecio que el famoso físico Pieter Zeeman, titular de esa oficina de carácter internacional, le
tenía.
A pesar del renombre internacional que Cabrera había logrado, gracias a sus trabajos pioneros en
magnetismo, que se siguen citando hoy en día, el gobierno franquista presionó a su equivalente
francés para que D. Blas, que había sido Rector de la entonces Universidad Central de Madrid,
fuera despedido de su trabajo, por lo que decidió trasladarse a México, donde, en su corta
estancia, fue profesor de física atómica y de historia de la ciencia en la Facultad de Ciencias de la
UNAM, además de haber sido fundador, en 1943, de la revista Ciencia, publicación oficial de la
Academia Mexicana de Ciencias.
Cabrera y Felipe, que originalmente estaba estudiando derecho, hasta que fue convencido de la
belleza de la ciencia por Ramón y Cajal, fue becado, en 1912, por la mencionada Junta de Cajal y
Gíner de los Ríos, para realizar un provechoso periplo científico por los mejores laboratorios de
magnetismo del mundo. A su regreso a España, publica, hasta 1934, más de cien trabajos
técnicos, entre los que destaca una generalización de la Ley de Curie-Weiss, para la región
paramagnética más allá del llamado punto de Curie, que le valió tal fama internacional, que fue
invitado a formar parte del Comité Técnico de la VI edición de la prestigiada Conferencia Solvay,
gracias a la recomendación directa tanto de Einstein como de la misma madame Curie, quienes
tenían en gran estima D. Blas, que fue, probablemente, el primer físico español en lograr
resonancia internacional.
20
EL QUÍMICO HILARANTE QUE SALVÓ A LOS MINEROS
El óxido nitroso es una sustancia conocida también como “gas hilarante”, debido al curioso efecto
que produce en las personas que lo inhalan. Uno de los químicos más reconocidos e importantes
de la Historia de la Ciencia, Sir Humpry Davy, nacido en Inglaterra en 1778, era famoso en toda la
Europa de su tiempo por las interesantes conferencias, dedicadas a todo tipo de público, en las
que mostraba el efecto del gas hilarante en su propia persona, con frecuencia tal, que se volvió un
verdadero adicto a ese gas, del que afirmaba que poseía todas las ventajas de las bebidas
alcohólicas y ninguna de sus desventajas.
De hecho, la costumbre de Sir Humpry de probar él mismo las substancias con las que trabajaba,
y que ciertamente le ganó un lugar en la posteridad, fue probablemente también, una de las
causas de su prematura muerte, ocurrida en Ginebra, Suiza, en 1829 En vida, Davy fue uno de
los pioneros de lo que hoy conocemos como electrólisis, mediante la que era capaz de
descomponer sales y, de esa forma, llegó a descubrir numerosas substancias, como el cloro, el
yodo, el potasio, el magnesio y varias otras.
Además de lograr separar las sales en sus elementos constitutivos, Davy encontró una ingeniosa
forma de medir la energía requerida para tal separación, por lo que se le considera uno de los
padres fundadores de la moderna rama de la ciencia conocida como “electroquímica”. Sus
experimentos le trajeron fama y fortuna, con reconocimientos como el de ser nombrado “Sir” y
Presidente de la prestigiada Royal Society en su país natal, o el recibir una medalla especial del
mismo Napoleón Bonaparte, en atención al valor universal que se le daba a su trabajo científico.
Además de descubrir un buen número de elementos químicos, lo que ya de por sí le hubiese valido
un lugar en la Historia, Sir Humpry Davy sentó varias de las bases teóricas sobre las que la
Química de nuestros días se sostiene, como el que los ácidos son substancias que contienen
hidrógeno que, al reaccionar con metales, forma sales, desechando, de ese modo, la creencia,
entonces en boga, de que los ácidos eran compuestos de oxígeno, como el gran Lavoisier
sostenía, principio que permitió un gran avance de las ciencias químicas y que se enseña en todas
las escuelas secundarias del mundo contemporáneo.
Uno de los inventos prácticos de Sir Humpry Davy, destacadísimo químico británico del siglo XIX,
que más resonancia (y aplicación) tuvo en su tiempo, se produjo a raíz de una gran desgracia.
Resulta que en 1812, en una mina inglesa de carbón, material que en ese tiempo era la fuente
principal de energía, se tuvo una gran explosión, que cobró la vida de casi cien personas, entre
mineros y niños que les ayudaban, para consternación y escándalo de toda la sociedad. Sucede
que los gases que se desprenden de esas minas, al mezclarse con la humedad ambiental,
producen explosiones frecuentemente, con cualquier pequeña chispa o flama, como la de las
lámparas de gas que debían, necesariamente, utilizarse en las oscuros túneles de las minas, lo que
21
hacía todavía más peligrosa la ya de por sí ardua labor de los mineros, e influía negativamente en
la producción del indispensable carbón.
Como respetado científico, a Davy se le solicitó que estudiara cómo disminuir, en lo posible, el
riesgo de explosiones. El resultado fue un ingenioso dispositivo, conocido como “lámpara de
Davy” que consistía de una malla de metal que rodeaba a la flama misma, con lo que la
concentración local de gas era tal, que no se producía explosión alguna, resultando así, en una
forma segura de iluminar las minas, tecnología que fue adoptada de inmediato no sólo en
Inglaterra, sino en toda Europa y que se continuó usando hasta la invención de la iluminación
eléctrica, muchos años después.
Aunque parece ser que un ingeniero inglés, George Stephenson, produjo un prototipo muy similar
por la misma época, Davy fue quien se llevó la gloria de la invención, que sin duda salvó la vida de
muchísimos mineros y mostró cómo el conocimiento científico puro, si se tiene la actitud
adecuada, puede resolver problemas prácticos a corto plazo en actividades económicas tan
importantes como la minería.
22
EL QUÍMICO POETA
Una de las polémicas más añejas entre los intelectuales gira alrededor de la relación
epistemológica que pudiese existir entre arte y ciencia. En efecto, independientemente de los
aspectos técnicos relacionados a, por ejemplo, si los materiales de una pintura de El Greco pueden
analizarse con métodos nucleares o de si la música de Mozart sigue un patrón semejante a la serie
matemática de Fibonacci, el quid de la discusión es si una mente creativa en, digamos, Poesía,
puede también convertirse en una generadora de conceptos originales de la Mecánica Cuántica.
Para quienes piensan que tal relación no se puede dar en una misma persona, el hecho de que
existan pocos ejemplos de importantes científicos que, al mismo tiempo, se hayan distinguido
como artistas extraordinarios, parece concederles la razón. Vale aclarar que no se trata de
asegurar que a los científicos no les guste el arte, o que a los artistas les tengan sin cuidados los
avances científicos, sino el debate es si sobre una actividad creadora puede expresarse en dos
campos de la actividad humana con, aparentemente, objetivos y etiologías tan disímbolas.
Uno de los casos que los defensores de la idea de que ciencia y arte “si se llevan”, emplean
frecuentemente para sustentar sus opiniones, es el de Primo Levy, nacido en Turín, Italia, en 1919
y muerto en la misma ciudad en 1987. Desde muy temprana edad, Levy se distinguió como un
excelente estudiante, aventajando a veteranos más grandes que el en la escuela. Curiosamente,
siendo adolescente, decidió estudiar química después de leer un libro escrito por un físico. Se
trataba de la obra de Sir William Henry Bragg (1862-1942, Premio Nobel de Física en 1915),
titulada “Concerning the Nature of things”.
Primo se inscribió en la Universidad de Turín, donde se graduó en 1938, a los escasos 20 años de
edad. En 1941 fue contratado para trabajar en una mina de asbesto, donde desarrolló un método
para obtener niquel de los residuos del proceso. En 1942 se trasladó a Milán, donde generó, para
una compañía suiza, un medicamento anti-diabético, a partir de productos vegetales, que, por
desgracia para quienes padecían esa enfermedad por ese entonces, no fue comercializado por
razones políticas. Como buen joven, Levi no podía mantenerse ajeno a los acontecimientos
políticos de su época, por lo que se unió a un grupo de guerrilleros partisanos antifascitas, que
pronto fueron capturados y Levi fue deportado, como judío que era, al campo de concentración de
Auschwitz, al que ingresó en febrero de 1944.
La capacidad de Primo le permitió sobrevivir la pesadilla del campo de concentración ya que, al
necesitar los alemanes fabricar hule sintético, descubrieron que el joven químico, además de estar
bien preparado y poder leer algo de alemán, era extremadamente creativo, lo que le evitó tener
que trabajar en la inhumanas condiciones de la mayoría de sus compañeros, al ser asignado a los
laboratorios. Cuando Auschwitz fue liberado por el Ejercito Rojo, Primo fue conducido a otro
campo, ahora en la Unión Soviética, de donde se le permitió regresar a Italia en octubre de 1945.
23
Inmediatamente después de la Segunda Guerra Mundial, Primo Levi, nuestro químico-poeta, fue
contratado por una subsidiaria de la importante compañía norteamericana Dupont y, además de
continuar con el desarrollo de varios inventos, adelantados en varios casos a su tiempo, Primo
comenzó a escribir sobre sus experiencias personales en los campos de concentración, siendo su
primer libro “Si este es un Hombre”, publicado en 1947 y que recibió comentarios elogiosos nada
menos que de Ítalo Calvino, considerado uno de los más importantes escritores italianos del siglo
XX.
Hace unos cuantos años, el periódico italiano Corriere de la Sera, uno de los más importantes de
ese país, llevó al cabo una encuesta entre sus lectores, para determinar cuál era el libro más
significativo del siglo XX en la lengua de Dante. El libro más citado, por la gran mayoría, fue,
precisamente, “Si este es un Hombre”. Para principios de la década de los 50, Levi había
renunciado a su trabajo en Dupont y establecido su propio negocio, en el que desarrolló una gran
variedad de productos, desde cloruro de estaño para suministro a fabricantes de espejos, hasta
lápiz de labios a partir de substancias extraídas de reptiles, pasando por recubrimientos para evitar
la pigmentación de los dientes. Ya para esos días, Levi era reconocido no sólo como un destacado
inventor y empresario, sino como un escritor con capacidades múltiples, ya que lo mismo escribía
novelas que obras de teatro y aún obras de ciencia ficción, éstas bajo el seudónimo de “Damiano
Malabaila” y en las que se planteaba dudas sobre las implicaciones éticas de los desarrollos
tecnológicos.
A pesar de su enorme creatividad en todos los aspectos de su vida, Primo esperó casi 16 años
antes de publicar, en 1963, su segundo libro: “La Tregua”, con el que ganó el prestigiado premio
Campiello y que es lectura obligada en todas las escuelas secundarias de Italia. Hacia 1975 se
publica una colección de sus poemas, entitulada “La Hostería de Bremen”. Uno de sus obras
literarias más famosas es “La Tabla Periódica”, interesante colección de anécdotas personales,
cuentos y relatos, cada cual asociado a uno de los elementos químicos. Este libro fue declarado,
en 2006, como “el mejor libro de divulgación de la ciencia jamás escrito”, por la prestigiadísima
Royal Institution de Londres.
Primo Levy fue polémico hasta en la hora misma de su muerte, ya que, en abril de 1987, su
cuerpo fue encontrado en el patio del edifico donde vivía en Turín, después de caer desde su
departamento, en el segundo piso. El médico legista determinó que se trató de un suicidio, pero,
hasta el día de hoy, existe una gran discusión entre sus biógrafos, conocidos y parientes acerca de
si se trató solamente un accidente, ya que no se ha encontrado ningún indicio de que pensara
suicidarse. Para concluir, un botón de muestra de la poesía de Primo Levy, traducción del italiano
de José A. Tapia Granados de un poema de 1946:
Te buscaba en las estrellas
cuando las interrogaba en mi niñez.
Pregunté a las montañas por ti
pero me dieron soledad y breve paz
tan sólo una vez
24
EL NACIMIENTO DE LAS MATEMÁTICAS
Hablar del “nacimiento” de una ciencia puede parecer un juego de palabras pero, en el caso de las
Matemáticas, hay razones sumamente poderosas para poder asignar, al menos aproximadamente,
un año específico en que las Matemáticas se convirtieron en lo que hoy conocemos, usamos y
disfrutamos: una ciencia y un arte. En efecto, si hay una persona a la que se puede atribuir la
paternidad de las matemáticas es al gran Pitágoras, que nació en la isla griega de Samos alrededor
del año 569 antes de nuestra era. Su famoso teorema sobre los catetos y la hipotenusa de los
triángulos rectángulos es de enseñanza obligatoria en todas las escuelas secundarias del mundo,
con lo que su nombre es familiar hasta para el menos interesado en las matemáticas, por lo que
resulta paradójico que no tenemos ningún escrito de él, sino sólo referencias de sus
contemporáneos, algunos de los cuales le tenían tal admiración que le llegaron a atribuir
capacidades divinas.
Aunque se conoce poco de la infancia y primera juventud de Pitágoras, sí sabemos que fue Tales
de Mileto quien lo introdujo al estudio de las matemáticas, cuando nuestro personaje era un joven
de cerca de veinte años. Una de las características de Pitágoras era su vocación por la docencia,
que ejerció desde temprana edad formando grupos de estudio en varios de los lugares que
visitaba, como la llamada Matimatikoi, sociedad científico-filosófico-religiosa semi-secreta fundada
en Croton, en el sur de Italia y cuyos miembros eran vegetarianos y seguían reglas muy estrictas
de comportamiento, alrededor de cinco puntos fundamentales del pensamiento de Pitágoras:
1) que en su nivel más profundo, la realidad es matemática;
2) que la filosofía es la forma de purificar el espíritu;
3) que el alma puede llegar a alcanzar la divinidad;
4) que ciertos símbolos matemáticos tienen un significado místico y
5) que todos los miembros de la Sociedad debían guardar estrictos lealtad y secreto sobre sus
actividades, lo que explica el por qué Pitágoras no dejó escritos aunque, como siempre,
nunca falta un chismoso.
Un aspecto interesante de ésta sociedad es que aceptaba en igualdad de condiciones tanto a
hombres como a mujeres, en un tiempo en es que las féminas eran consideradas seres
“inferiores”. De hecho, varias de las discípulas pitagóricas pasaron a la historia como grandes
filósofas y/o intelectuales. Más aún, dado el carácter comunitario de los trabajos de los
Matematikoi, por el que no se atribuía autoría individual a los descubrimientos, es muy
probable que varios de los grandes teoremas matemáticos que llevan el nombre de Pitágoras
sean en realidad obra de sus alumnas.
Aun ahora, resulta difícil apreciar en su totalidad las enormes contribuciones de los pitagóricos,
ya que no se trataba de un grupo interesado en resolver problemas matemáticos específicos,
sino en comprender conceptos como, por ejemplo, qué entendemos por triángulo, qué
conlleva, conceptualmente, hablar del número “2” o qué significa “demostrar” un teorema,
preguntas que se encuentran mucho más allá de la simple técnica matemática, que ellos, sin
25
embargo, desarrollaron a un nivel inimaginable antes de su tiempo. Es por esto que las
contribuciones de Pitágoras han vivido por más de dos milenios y, muy probablemente,
seguirán fascinando y asombrando por otro tanto.
Los Matimatikoi, esa secta secreta de amantes de los principios matemáticos del Universo y
cuyo líder fundador, Pitágoras de Samos es considerado el Padre la Matemática moderna,
creían firmemente que todo lo que existe se puede reducir a relaciones numéricas. El mismo
Aristóteles, refiriéndose a los pitagóricos, afirmaba que “…piensan que todo las cosas son
números…y que el Cosmos entero es una escala y un número…”. Aunque hoy en día ésta
afirmación puede parecerle exagerada hasta a un matemático profesional, hay que recordar
que Pitágoras logró encontrar relaciones matemáticas impresionantes en prácticamente todo lo
conocido de su tiempo, desde la música hasta la astronomía.
Dado su personal interés por la música (al parecer, era un virtuosos de la lira), Pitágoras
descubrió que las cuerdas vibrantes producen sonidos armoniosos cuando las relaciones entre
las longitudes de las cuerdas son números enteros. Su famoso teorema que relaciona los
cuadrados de los catetos de un triangulo rectángulo con la correspondiente hipotenusa, era en
realidad conocido por los babilonios, casi 1000 años antes que Pitágoras, pero fue él quien,
hasta donde sabemos, logró hacer la demostración que hoy nos ha llegado y que todos hemos
estudiado en la escuela secundaria. En éste sentido, el filósofo de Samos sentó las bases
científicas de las Matemáticas, al introducir la necesidad de las demostraciones a partir de
principios y/o postulados fundamentales, lo que constituye no sólo el método sino, en gran
medida, la esencia misma de las matemáticas.
La escuela pitagórica, en su conjunto, legó a la Humanidad varios importantes teoremas y
resultados matemáticos que, hasta la fecha, utilizamos, tanto en la escuela como en la
investigación científica de frontera: la suma de los ángulos de un triangulo es igual a dos
ángulos rectos (es decir, 180o); la suma de los ángulos internos de un polígono de n lados es
igual a 2n-4 ángulos rectos (preciosa generalización del anterior teorema); la resolución
geométrica de la ecuación a(a-x)=x 2, el descubrimientos de los números irracionales y de
cómo construir los cinco sólidos regulares (cubo, tetraedro, octaedro, dodecaedro e icosaedro),
etc., etc..
Las ideas de Pitágoras, que se consideraba a si mismo más un filósofo que un matemático,
fueron mucho más allá de la geometría, ya que enseñaba que la Tierra era una esfera y se dio
cuenta de la inclinación de la órbita de la Luna respecto al plano del Ecuador . Además, sus
enseñanzas se basaban en firmes principios éticos que resultaban extraños para la época (y
que, por desgracia, tampoco practicamos mucho en la actualidad): amistad, actitud de servicio
a los demás y honestidad a toda prueba. No se conoce a ciencia cierta la fecha del
fallecimiento de Pitágoras, aunque se estima que ocurrió alrededor del año 475 A.C. Lo que sí
se conoce con certeza es que su secta filosófico-matemática perduró más allá del deceso de su
creador y que comenzó a tener implicaciones políticas, algo que Pitágoras había cuidado no
ocurriese. Esto llevó a la secta a ser perseguida hasta su extinción, pese a lo cual sus
maravillosas matemáticas perduraron hasta nuestros días.
26
EL MATEMÁTICO CIEGO DE SAN PETESBURGO
Sin duda alguna, uno de los más grandes prodigios de la historia de las Matemáticas fue el suizo
Leonhard Euler (1707-1783), cuyo catálogo de trabajos escritos, aún incompleto, ya que no se han
descubierto todos sus textos, consta de cerca de 44,000 (¡sí, cuarenta y cuatro mil!) páginas. Éste
incansable genio se las arregló para trabajar creativamente hasta el mismo día en que murió de un
derrame cerebral en San Petesburgo, ciudad donde vivió buena parte de su vida adulta como
miembro de la Academia de Ciencias de ese lugar, importante institución fundada nada más ni
nada menos que por Catalina, la esposa de Pedro El Grande, Zar de todas las Rusias, ya que se
sabe que unas cuantas horas antes del fatal ataque, se dedicó a trabajar sobre las matemáticas
del movimiento del entonces recién descubierto Urano (localizado por William y Caroline Herschel,
en 1781). Las ecuaciones matemáticas que Euler encontró para describir el extraño
desplazamiento de ese planeta, sirvieron de base para que otros astrónomos-matemáticos
descubrieran, en 1846, Neptuno, lo que constituye uno de los más grandes logros, en términos de
capacidad de predicción, de la ciencia.
Hoy en día prácticamente no hay ingeniero en el mundo que no haya estudiado, durante su
estancia en la universidad, algunos de los trabajos del matemático nacido en Basilea, Suiza, desde
las ecuaciones diferenciales, de gran importancia en casi todas las ramas de la ciencia moderna,
hasta la Teoría de números, fascinante rama de las matemáticas donde las contribuciones de
Leonhard se consideran fundamentales, a más de doscientos años de su muerte. Fue pionero en
muchas ramas de la matemática, como lo que hoy conocemos como “Teoría de Gráficas”, tema
candente y fascinante de investigación en pleno siglo XXI. Es más, buena parte de la notación
matemática que hoy todos usamos, como el escribir f(x) para definir la función “f” que depende de
la variable “x”, fue inventada por Euler, a quien también se debe el uso del símbolo para el
famoso número 3.142592653589…. que describe, entre otras cosas, la relación entre diámetro y
perímetro de un círculo.
La capacidad de retentiva de nuestro personaje es legendaria. Se cuenta, por ejemplo, que en
una ocasión realizó una operación mental mientras dos de sus estudiantes discutían acerca de un
resultado numérico, sobre el que tenían resultados ligeramente distintos, dilema que Euler les
solucionó sin usar papel ni lápiz. El cálculo implicaba diferencias ¡en la quinceava cifra significativa!
También se conocen interesantes escritos de Euler sobre educación, magnetismo, maquinaria
diversa y construcción de barcos, ya que trabajó por algún tiempo para la Armada Real rusa, para
la que también realizó importantes estudios cartográficos, que en la época eran de gran relevancia
militar. Euler era muy famoso ya en su tiempo y muchos personajes históricos le conocían y
estimaban, como Federico El Grande, rey de Prusia, quien lo invitó a Berlín para que le enseñara
ciencias a su sobrina, labor de la que surgió un libro que se convirtió en un auténtico “best seller”
de su tiempo: “Cartas a una Princesa alemana”, obra que, aún ahora, causa admiración por su
calidad científica y claridad en la explicación de conceptos difíciles.
27
Lo más extraño del caso Euler es que buena parte de su obra no la escribió Leonhard
personalmente, ya que se había quedado completamente ciego en 1766, a consecuencia de
cataratas, padecimiento que, al parecer, no fue atendido adecuadamente. De hecho, en su
autobiografía menciona que sus problemas de visión comenzaron alrededor de 1735, a raíz del
esfuerzo que sus trabajos con mapas marinos implicaba y que le llevó a perder la visión del ojo
derecho en ese año. La pérdida de la vista no detuvo, ni mucho menos, a nuestro héroe, que se
dedicó a dictar, haciendo uso de su prodigiosa memoria, sus ideas y resultados matemáticos.
Su capacidad creadora se expresaba en todos los aspectos de su vida, ya que tuvo 2 esposas y 13
hijos (¡y hay quien dice no tener tiempo para la familia!). La influencia del trabajo matemático de
Leonhard Euler ha sido tal que otro grande de la historia de la Matemática, el francés Pierre-Simon
Laplace (1749-1827) les aconsejaba a sus estudiantes: "lisez Euler, lisez Euler, c'est notre maître
à tous" (“lean a Euler, lean a Euler, es nuestro maestro en todo”).
28
EL ADOLESCENTE REVOLUCIONARIO QUE CAMBIÓ LA MATEMÁTICA
Evariste Galois, nacido en 1811, logró, en su muy corta vida (murió en 1831, antes de cumplir
veinte años), dejar una enorme huella en las matemáticas, que perdurará por siempre y que sigue
generando investigaciones entre los expertos. Lo paradójico es que, para sus coetáneos, Evariste
Galois no fue sino un vehemente y extravagante estudiante, de los muchos que participaron en la
revolución contra el Rey Charles X en 1830 y que fueron duramente reprimidos con la cárcel, como
Evariste, o inclusive con ejecuciones sumarias, como fue el destino de varios de sus compañeros.
De hecho, los únicos documentos oficiales que tenemos de cuando Galois vivió son las quejas
escritas de sus maestros, primero en la École Louis-le-Grand y luego en la École Normal, que
describían a Evariste como muy capaz en matemáticas pero de mal comportamiento, además de
los documentos policíacos de cuando fue aprehendido y juzgado por participar en la revuelta
contra el despótico gobierno de su tiempo.
Entre los muy importantes legados que el joven Galois nos dejó, la llamada “Teoría de Grupos”
tiene un lugar particularmente especial, por haberse encontrado aplicaciones en muchísimas ramas
de la ciencia, de la teoría química a la física nuclear, pasando por la cristalografía y otras que se
siguen estudiando. Lo más sorprendente de este concepto matemático inventado por Evariste
Galois es que es extremadamente simple, tanto, que lo que en verdad maravilla es que a nadie
antes se le hubiese ocurrido. En efecto, un grupo no es más que un conjunto de cualquier tipo de
cosas (cristales, elementos químicos, etc.) que cumple con solamente tres reglas: que el resultado
de la interacción (cualquiera que esta sea) entre dos elementos del grupo, sea también miembro
del grupo; que el grupo tiene un miembro en particular que, al interaccionar con cualquiera de los
otros miembros, los deja inalterados y que se conoce como “miembro unitario” y, finalmente, que
cada miembro del grupo tiene, dentro del mismo grupo, su “elemento inverso”, es decir, un
elemento tal que, al interaccionar con su original, genera al elemento unitario.
Después de la prematura muerte de Galois, como resultado de un sospechoso duelo con un
amante despechado porque el joven matemático frecuentaba a su pareja, en lo que
investigaciones recientes revelan como un complot de la policía secreta francesa contra el
revoltoso Evariste, sus escritos estuvieron en el olvido por cerca de cuarenta años, hasta que otro
gran matemático, Joseph Liouville (1809-1882) los “descubrió” y publicó, haciéndole, de esa
manera, un invaluable servicio a la Humanidad, ya que, de inmediato, los expertos se dieron
cuenta de que se trataba de un trabajo enormemente original e importante, muy adelantado a la
época que le tocó vivir a Galois, a tal grado que sus contemporáneos, entre los que se contaban
grandes matemáticos, entonces miembros de la famosa Academia Francesa, como Jean Baptiste
Fourier (1768-1830) y Auguste Louis Cauchy (1789-1857) no tuvieron la menor idea de lo que el
adolescente Galois les envió en un comunicado privado a la Academia, por lo que, según parece,
ni siquiera se tomaron la molestia de leer el trabajo de Evariste, mucho menos, por supuesto, en
contestarle, lo que causó enorme frustración al muchacho quien, sin embargo, estaba seguro de
29
ser, a su corta edad, uno de los más grandes matemáticos de su época, como lo revelan su diario
y sus poemas (bastante buenos, por cierto).
Su teoría de ecuaciones algebraicas es uno de los pilares del Álgebra moderna y su estudio
detallado es un tema bastante complicado, aún siendo un matemático profesional. A Evariste
Galois se le considera, con toda justicia, una de las más brillantes mentes de las Matemáticas de
todos los tiempos y nadie sabe qué hubiese creado y/o descubierto si hubiese vivido unos años
más, pero ciertamente las ciencias matemáticas de hoy estarían más adelantadas de lo que están.
30
EL EFECTO MOZART
El año 2006 fue declarado el “Año Mozart”, para celebrar los 350 años del nacimiento de uno de
los más grandes genios que la humanidad ha conocido: Wolgang Amadeus Mozart, quien vio la luz
primera en el pequeño pueblo austriaco de Salzburgo, el 27 de enero de 1756 y murió
prematuramente en Viena el 5 de diciembre de 1791.
Las anécdotas de la genial precocidad de Mozart, hijo de un más o menos conocido músico de la
época, Leopold, abundan. Por ejemplo, se dice que, a la tierna edad de 4 años, era capaz de
memorizar una pieza musical en media hora y que compuso a los 8 años su primera sinfonía,
aunque ya había escrito obras desde los seis. Independientemente de la belleza y perfección
estética de la obra de Mozart, la ciencia internacional ha comenzado, en las últimas décadas, a
estudiar con cada vez mayor seriedad sus efectos sobre los seres humanos. En efecto, en 1993
un grupo de científicos, entre los que destaca la Profesora de Psicología de la Universidad de
Wisconsin, Frances Rauscher (quien, por cierto, fue también chelista profesional) y el físico de
partículas elementales y Profesor Emérito de la Universidad de California en Irvine, Gordon Shaw,
encontraron que el escuchar música de Wolfgang Amadeus (específicamente, su Sonata para dos
Pianos en D mayor, K.448) incrementaba la capacidad de razonamiento espacio-temporal de un
grupo de estudiantes universitarios con quienes se realizó el estudio, fenómeno al que se le ha
llamado “Efecto Mozart”, término acuñado por el otorrinolaringólogo francés Alfred Tomatis, quien
ha desarrollado un método, popular en Francia y otros países europeos, para el aprendizaje de
niños menores de 3 años de edad, a partir de su experiencia clínica de más de 4 décadas.
Existe, por supuesto, un debate intenso sobre las evidencias científicas que los que apoyan la
existencia de tal efecto ofrecen, ya que otros grupos de investigadores no han podido duplicar los
alentadores resultados que Rauscher y sus colegas reportaron hace casi 15 años. Más
recientemente, el grupo de Rauscher-Shaw reportó que el escuchar música de piano, de
preferencia de Mozart, por supuesto, resulta más efectivo que el uso de la computadora para
desarrollar las capacidades cognitivas de los niños, particularmente en lo que se refiere a su nivel
de abstracción, lo que ha generado una división entre los que creen que la música,
específicamente la de Mozart tiene efectos desconocidos sobre el cerebro humano y quienes se
muestran totalmente escépticos, pero la verdad es que lo que sabemos realmente acerca de cómo
interacciona la música, o al menos un tipo de ella, con la mente, es muy limitado.
En este sentido, como parte de los festejos mundiales por el Año Mozart se celebró, nada menos
que en Viena, la Conferencia Internacional Mozart&Science 2006, del 1 al 4 de octubre del año en
curso, con el objeto de discutir los siguientes temas específicos: el impacto de la música, cómo la
música afecta el cuerpo, la mente y las emociones y la relación entre la música, la educación, la
terapia y la sociedad. Entre los conferencistas se contaron renombrados científicos (como el
neurofisiólogo Antonio Damasio), médicos, políticos (como el Ministro de Salud y Asuntos
Femeninos del gobierno austriaco) y, por supuesto músicos expertos de Mozart.
31
Las memorias de dicho evento, de cuya publicación habrá que estar pendientes, serán, sin duda,
una fuente harto interesante de datos y opiniones sobre la inmortal música de Wolgang Amadeus,
que sigue deleitando y sorprendiendo a todos, como lo ha hecho desde hace más de 3 siglos.
32
EL CENTENARIO LUCTUOSO DE JULES VERNE
¿Quién no ha leído “La Vuelta al Mundo en 80 días”?, ¿qué niño no ha soñado con ser el Capitán del “Nautilus”, el increíble navío submergible de “Veinte mil leguas de viaje submarino?, en fin ¿cómo olvidar a “Miguel Strogoff”? La verdad es que pocos escritores en la historia de la Humanidad pueden presumir de haber logrado una influencia tan amplia y duradera como Jules Gabriel Verne, nacido en Nantes, Francia en 1828, en el seno de una familia acomodada, con tres hermanas y un hermano, y fallecido hace 100 años, en marzo de 1905. La pasión por los viajes fue una constante en la prolífica vida de Verne que, siendo apenas un niño, se escapó de casa para embarcarse en un buque mercante, aventura que se frustró al ser descubierto y mandado de regreso con sus padres. A pesar de haber sido enviado por su familia a estudiar Derecho, la misma carrera de su padre, en París, la vocación de Jules era la de escrbir, primero obras de teatro y luego novelas de lo que hoy conocemos como “ciencia ficción”. Al publicar su primera obra teatral, en 1850, el enojo paterno fue tal que le retiró el apoyo económico, lo que obligó al entonces joven Jules (Julio, para los lectores de habla española) a buscar el sustento….escribiendo. En 1863 se publicó su primera novela “Cinco semanas en globo”, que fue un éxito inmediato y marcó para siempre no sólo la vida de Verne, sino la literatura misma, ya que se le considera el fundador de éste género tan popular desde entonces. Independientemente del valor literario de su obra, ha existido desde hace años una polémica acerca de si Verne fue un adivino, con dotes premonitorias que le permitieron no solamente describir los viajes espaciales, que se llevaron efectivamente a cabo décadas después de su muerte, ¡sino el lugar mismo desde donde se harían los lanzamientos de cohetes (la península de Florida)! En sus más de 80 libros, se describen aparatos que llegaron a ser en verdad inventados, con detalles muy similares a los descritos originalmente por el literato francés: el helicóptero, la televisión, las películas sonoras y muchas otras cosas que aún no existen en la realidad. El asunto es que Verne no era un improvisado, en lo que se refiere a las bases científicas de sus escritos, ya que tenía la sana costumbre de documentarse con gran detalle de cualquiera que fuese el tema que se le ocurriese como objetivo de su siguiente libro. De hecho, se trataba de una de las personas major informadas de su tiempo, respecto a los adelantos científicos que se estaban llevando al cabo, sin ser él mismo un profesional de la ciencia. Es muy probable que Verne fuese, además de una persona extraordinariamente inteligente y culta, un verdadero “visionario”, en el sentido de tener la capacidad de “ver” el siguiente paso en un desarrollo tecnológico, asunto que, aún para los que están inmersos en la investigación misma, resulta complicado. Más aún, dada la enorme influencia de Verne sobre prácticamente todos los adolescentes de clase media del mundo el siglo pasado, es muy probable que muchas de las ideas detrás de los los inventos que él mencionaba, hayan salido precisamente de la inspiración que Verne les proporcionó a sus jóvenes lectores. Esto lleva a reflexionar sobre dos actitudes fundamentales que debemos fomentar en nuestra juventud: la lectura y la capacidad de soñar.
33
EL MAGO Y LA AERONÁUTICA
El nombre de Harry Houdini (1874-1926) está escrito con letras de oro en la Historia del espectáculo, como uno de los más grandes ilusionistas y escapistas de los que se tiene noticia. De hecho, aún en nuestros días, cuando se presencia un acto de “magia” en un circo se trata, en muchos casos, de la recreación de trucos que El Gran Houdini, “Rey de los Escapes”, creó o popularizó hace casi un siglo. En años recientes ha causado sensación la revelación de que Houdini pudo haber sido uno de los primeros agentes secretos, a la “James Bond”, que el mundo conoció, como se relata en el interesante libro “The secret life of Houdini”, de William Kalush y Larry Sloman (publicado por ATRA Books, Nueva York, en 2006). Lo que es muy poco conocido es el importante papel que Eric Weisz, nombre verdadero de Harry Houdini, nacido, como se ha mencionado, en 1874 en Budapest, Hungría, y que emigró a los Estados Unidos siendo un niño de 4 años, jugó en el desarrollo de la aeronáutica mundial. En efecto, para cuando los hermanos Wright lograron su histórico vuelo en diciembre de 1903, Houdini era ya no sólo una celebridad en el mundo del espectáculo internacional, sino un hombre muy rico, tanto, como para permitirse ser uno de los muy pocos individuos de su tiempo que poseían un aeroplano que, en el caso particular de Houdini, era un aparato de manufactura francesa, marca Voisin, diseño de los hermanos Gabriel (1880-1973) y Charles (1882-1912) Voisin, pioneros de la aeronavegación, ya que crearon la primera compañía de aviación del mundo, Les Freres Voisin, en 1906, además de haber volado en un armatoste de su invención poco después que otra pareja de hermanos, los famosos Wilbur y Orville Wright. De hecho, a pesar de ser el mismo norteamericano y de haber conocido personalmente a los Wright, Houdini decidió adquirir el aparato francés, ya que no sólo le pareció más seguro, sino más adelantado tecnológicamente que el de sus compatriotas (además de resultarle más barato ya que, por otro lado, lo compró usado en Hamburgo, Alemania). Además de haber establecido algunas marcas, que le valen un lugar en la galería de los pioneros de la aviación, como la de haber sido el primero en volar un aeroplano en el continente australiano, Houdini apoyó, de manera por demás entusiasta, los esfuerzos por popularizar la aviación, tanto civil como militar, además de actuar como mecenas de varios desarrollos tecnológicos relevantes, como el del sistema giroscópico de navegación, idea de su hábil mecánico Montraville Wood, quien fue el que llevó a la realidad varias de las locas ideas de Houdini para su espectáculo de escapismo. Como se ve, la aviación es algo tan mágico que ¡hasta a los magos les interesa
34
EL ASTRÓNOMO DE LA NARIZ DE PLATA
Corría el año de 1566 cuando dos jóvenes daneses, que se encontraban estudiando en la
Universidad de Rostock, fundada en 1419 en la ciudad del mismo nombre en el norte de Alemania,
no lejos de la frontera con Dinamarca, se enfrascaron en un duelo a raíz de una agria disputa,
según se dice, por un asunto no de faldas, sino de matemáticas (¡y hay quien dice que unas y
otras no pueden llegar a ser verdaderamente apasionantes!). El vencedor del duelo, un tal
Manderup Parsbjerg hirió en la nariz a su contrincante, un veinteañero de la nobleza que
respondía al nombre de Tyge Brahe (1546-1601), a tal grado que éste se vio obligado a utilizar,
por el resto de su vida una prótesis hecha de metales preciosos.
Algunos historiadores aseguran que la nariz artificial estaba fabricada de oro, mientras que la
mayoría cree que se trataba más bien de plata, aunque, como Brahe era un hombre de
considerables medios económicos, muy probablemente contaba con más de un apéndice nasal que
combinar con su guardarropa. Tyge, a quien la posteridad recuerda con la versión latinizada de
su nombre, Tycho, había demostrado su genialidad desde edad muy temprana, ya que dominaba
el latín a los 7 años y a los 12 ingresó a la Universidad de Copenhague, para luego estudiar en
Leipzig y, como se ha mencionado, en Rostock. Entre los intereses intelectuales de Brahe, quien
poseía una fortuna tal que podía vivir lujosamente sin trabajar, estaba la astrología, que en la
época no se distinguía de la astronomía, de forma que muchos grandes astrónomos
desempeñaban también puestos oficiales como astrólogos en las cortes europeas.
Hasta los escritos del polaco Nicolás Copérnico (1473-1543) el modelo aceptado de la estructura
celeste era la geocéntrica, es decir, se tenía por cierta la inmovilidad de la Tierra, teoría
originalmente propuesta por el griego Tolomeo, en el siglo II de nuestra era. Como se recordará,
la atrevida teoría de Copérnico sostenía que el Sol y no la Tierra, era el centro alrededor del cual
los 8 (hasta este año, 2006, eran 9) planetas del Sistema Solar, giran. Tycho Brahe, buen
creyente de la Biblia, intentó conciliar su profundo pensamiento científico con sus creencias
religiosas, al proponer un ingenioso, pero harto complicado, sistema en el que el Sol gira alrededor
de la Tierra y, a su vez, todos los demás planetas giran alrededor del Sol.
A Brahe se le considera uno de los fundadores de la Astronomía tal y como la conocemos hoy, no
sólo por sus teorías, sino por haber creado un catálogo celeste muy extenso y acucioso, gracias a
muy cuidadosas observaciones, que se han encontrado tenían la increíble precisión de ¡1/60 de
grado! Además, el danés publicó un libro en el que describía cómo las estrellas tienen un principio
y un fin, en contra de la creencia de que se trataba de cuerpos eternos. El gran Tycho siguió
haciendo contribuciones a las discusiones científicas a los cuatrocientos años de su muerte ya que,
en el año de 1901, su tumba en Praga fue abierta para que expertos en medicina forense
examinaran los restos del científico danés, que mostraban manchas verdosas alrededor de la
abertura nasal, lo que parecía indicar la presencia de un óxido de cobre (de la fase conocida,
precisamente, como verdeta, por el color característico), lo que resultó sorprendente y que ha
35
llevado a especular sobre si Brahe habría llegado a producir una nueva aleación de oro, plata y
cobre que imitara las propiedades y el color, al menos aproximadamente, de la piel natural, lo que
convertiría a nuestro astrónomo en un precursor de los llamados materiales biomiméticos, tan de
moda en la ciencia contemporánea.
39
EL SISTEMA MÉTRICO DECIMAL
Entre las muchas innovaciones que la Revolución Francesa legó a la Humanidad, destaca una
metodología que se ha convertido en la forma común de expresar unidades de medición en todo el
orbe: el Sistema Métrico Decimal. En efecto, con el espíritu de Liberté, Égalité, Fraternité, los
líderes de ese importante movimiento social que cambió, no sólo a Francia, sino al Mundo, se
dieron cuenta que un Estado moderno y unificado, como el que trataban de formar, requería de no
solamente de una moneda única, sino de una forma simple y general que permitiese, tanto las
transacciones comerciales entre particulares, como la recaudación eficaz de impuestos, a través
del cálculo expedito de pesos, áreas, volúmenes, etc.
La situación, no sólo entre los galos, sino en toda Europa, era que cada región generaba sus
unidades de medida, basados en consideraciones arbitrarias y, en muchos casos, irrepetibles, con
lo que nadie sabía realmente cuánto grano estaba pagando o qué distancia real mediaba entre,
por ejemplo, París y Lyon, con el consecuente caos y abuso de todo tipo. En lugar de tratar de ver
cómo se podían convertir las diferentes unidades que aparecían por todos lados, a los
revolucionarios franceses se les ocurrió la genial idea de utilizar un sistema único basado en el
principio de que cada unidad tendría subunidades y supraunidades en submúltiples y múltiplos de
10, respectivamente, con lo que todo mundo podría fácilmente recordar de qué se trataba.
El resultado fue una manera de expresar unidades de masa, longitud, tiempo, área y volumen
sistemática y rápidamente, mediante el uso de prefijos de origen griego. Los prefijos para
submúltiplos y múltiplos más comunes son: pico: 0.000000000001; nano: 0.000000001; micro:
0.000001; mili: 0.001; centi: 0.01; deci: 0.1; deca: 10, hecto: 100; kilo: 1000; mega: 1000000,
giga: 1000000000 y tera: 1000000000000. Como muchas innovaciones, el Sistema Métrico
Decimal no fue acepado de inmediato por el ciudadano común. De hecho, a pesar de haberse
declarado ilegal el uso de las unidades antiguas, la mayor parte del pueblo francés continuó
utilizándolas, subrepticiamente, por muchos años, hasta que Napoleón Bonaparte, en 1812,
autorizó el uso de las llamadas “mesures usuelles”, pero redefinidas para ajustarlas al sistema
métrico como, por ejemplo, el toise, que equivalía a 2 metros, la livre, que eran 500 gramos, etc.
La filosofía detrás del sistema métrico era que debía basarse en medidas y/o propiedades de
objetos naturales, comunes a todo el mundo, como, por ejemplo, el tamaño de la Tierra, el peso
del agua, etc., para lo que se formaron comisiones especiales de científicos y técnicos. Una de
éstas fue encargada de medir la longitud de un meridiano terrestre, a partir de lo que se definiría
la unidad fundamental del nuevo sistema: el metro. Para este propósito se buscó la mayor
distancia dentro de un meridiano que pasase por Francia, que resultó ser el tramo entre
Barcelona, España y Dunquerque, en el Norte de Francia. El hecho de que un segmento de esa
distancia estuviese en otro país, no dejó de tener problemas, ya que, durante los varios años que
duró el proceso, estalló una de los muchos conflictos bélicos entre España y Francia. Resulta
curioso, sin embargo, destacar que la importancia de tal empresa era tan obvia para todo mundo,
40
que más de una vez el ejército español no sólo permitió el paso, ¡sino hasta escoltó a la comisión
francesa encargada de la medición, a pesar de ser, oficialmente, enemigos!
Este histórico proceso finalizó oficialmente el 22 de junio de 1799, cuando se depositaron en los
Archivos de la República Francesa los prototipos del metro y del kilogramo, ambos fabricados de
una aleación de platino, ceremonia a la que acudió no solamente el gobierno galo en pleno, sino
muchos representantes de otros países.
41
LA CIENCIA DE LA INNOVACIÓN
Innovar, de acuerdo al Diccionario de la Real Academia Española de la Lengua, consiste en
“mudar o alterar algo, introduciendo novedades” y se ha convertido no sólo en lugar común en la
jerga empresarial, sino en un verdadero ícono de nuestro tiempo. En efecto, en el siglo XX se
lograron más descubrimientos científicos e invenciones, que en toda la anterior historia de la
Humanidad en su conjunto, con lo que la pasada centuria puede justamente describirse como la
del inicio de “la era de la innovación”. Un hecho que ilustra la relevancia que la ciencia y la
tecnología tienen para el hombre moderno es el que cerca del 80% todos los científicos y
tecnólogos que la raza humana ha tenido en toda su historia, siguen vivos en éste momento (¡y
esperamos que por muchos años!), lo que representa también un interesante fenómeno socio-
político de la época que vivimos.
En vista de la importancia del término, la definición del diccionario parece un tanto limitada.
Existen, por supuesto, precisiones más técnicas de lo que es innovación. Por ejemplo, la OCDE
(Organización para la Cooperación y el Desarrollo Económicos) define, en el llamado “Manual de
Oslo” de 1995, las innovaciones de productos tecnológicos y procesos como mejoras substanciales
que han sido introducidas ya al mercado, mediante una serie de actividades científicas,
tecnológicas, organizacionales, financieras y comerciales. Más aún, para que una compañía sea
considerada por ésta organización internacional tan famosa como “innovadora”, debe haber
mostrado, durante un período de evaluación dado, claras acciones del uso de nuevas tecnologías
con impacto económico y no simplemente su concepción teórica como ideas de mejora.
Esto muestra claramente que la innovación no es simplemente parte de una terminología
“tecnócrata”, sino el resultado de las interacciones, internas y externas, de un entramado social
muy importante y complejo. De hecho, la Sociología está muy ligada a la concepción teórica
misma de la innovación. En efecto, desde los trabajos del sociólogo francés Gabriel Tarde (1843-
1904) se comparaba a la Sociología con la Química, en el sentido de que ambas se fundamentan
en la interacción entre individuos, con la diferencia de que, mientras en la segunda tenemos
elementos químicos y las fuerzas fundamentales son electromagnéticas, en la segunda se trata,
por supuesto, de seres humanos , que interactúan bajo dos fuerzas básicas: la imitación y la
innovación.
Imitar es, de acuerdo a los expertos en comportamiento, una muestra de comportamiento animal
avanzado y hay autores, como la famosa escritora británica Susan Jane Blackmore (nacida en
1951), que incluso definen la imitación como la característica conductual que distingue a los
animales del hombre. Más aún, mucho de lo que llamamos “cultura” se basa en la transmisión de
actitudes, costumbres y valores mediante, precisamente, la imitación, que permite la permanencia
de esas características a través de muchas generaciones.
Ya que se ha comentado como, para algunos autores, la innovación es una de las características
propias de nuestra especie, vale la pena recurrir por un momento a la antropología para inquirir
42
sobre las diversas definiciones y teorías sobre la innovación. En efecto, una de las escuelas de
pensamiento más influyentes en los últimos años al respecto es la norteamericana,
particularmente la de los seguidores del sociólogo y comunicólogo, nacido en 1931 y muerto hace
un par de años (2004), Everett Rogers, ampliamente conocido por sus trabajos académicos, entre
los que destaca su clásico libro Diffusion of Innovations (1962) en el que define innovación como
“una idea, práctica u objeto que se percibe como nueva por un individuo o alguna otra unidad de
adopción”. Más aún, Rogers demostró que quienes, en una población dada, adoptan una
innovación se clasifican como: innovadores (el 2.5% de dicha población), adoptadores tempranos
(el 13.5%), mayoría temprana (el 34%), mayoría tardía (el 34% también) y los rezagados (el 16%
restante), distribución que sigue la llamada curva normal (o “de campana”).
La difusión de una innovación a través del tiempo, de acuerdo con la teoría de Rogers, sigue la
curva conocida como “S”, también llamada función logística, que, al principio, crece
aproximadamente como una exponencial, después, al aumentar la competencia, el ritmo de
difusión disminuye para, al final, en la madurez de la innovación, no difundirse más. La expresión
matemática para la curva logísitica P(t) es:
ecuación en la que t es el tiempo, mientras que a, m, n y son parámetros ajustables que tienen
significado físico dependiendo del caso específico del que se trate, ya que se le han encontrado
muchísimas aplicaciones, desde la embriología hasta la economía, además del uso que Rogers hizo
en su teoría. Esta curva se ve gráficamente como se muestra en la figura 1.
Figura 1.-Curva Logística (tomado de www.wikipedia.org)
43
Por supuesto que existen críticas serias a los trabajos de la escuela de Rogers, a la que se
acusa de considerar a la innovación como un “objeto”, independiente de cualquier significado
cultural.
En contraste, otros autores, como H. Barnett y B. Agarwal, sostienen que la innovación en sí
misma no es sino el primer paso del proceso de su difusión. En otras palabras, para esta escuela
de teóricos de la innovación, ésta se conforma por ideas o tecnologías que, conforme se van
difundiendo y adoptando, se van transformando, de manera continua y como resultado de las
interrelaciones entre los elementos técnicos y sociales que resultan, al final, en una innovación.
Más aún, de acuerdo con esta Escuela, la innovación no es sino “la creación de nuevas
combinaciones”, resultado de crear conexiones, ya sean físicas o conceptuales, entre dos o más
elementos que, antes de la innovación, no tenían relación aparente entre sí.
La pregunta obvia es, entonces, sobre cuáles son los factores que inducen la innovación,
interrogante para la que muchos economistas tienen una respuesta inmediata: el mercado o, más
precisamente, las necesidades que el mercado genera. En términos muy crudos, para esta
Escuela económica neo-clásica “la necesidad económica es la madre de toda innovación”. Otros
economistas, menos neo-clásicos, sostienen que ciertos factores sociales, culturales, históricos y
aun personales, son fundamentales para que una innovación se produzca.
Para la Antropología, por otro lado, existen dos tendencias teóricas principales sobre por qué los
humanos innovamos. La primera corriente de pensamiento sostiene que somos seres
naturalmente pragmáticos para los que la innovación es un resultado de nuestros objetivos
racionales y de los materiales y medios a nuestro alcance. Para otros antropólogos, sin embargo,
el hombre es un creador innato de símbolos, que innova como resultado de sus creencias
subjetivas, de lo que resulta que la innovación es una construcción cultural, de acuerdo con lo que
una innovación puede ser perfectamente razonable para una cultura y no tener el mínimo sentido
para otra, en otro tiempo y lugar. Por supuesto, cada grupo de teóricos de la innovación presenta
ejemplos para apoyar sus posturas y tratar de convencer a los rivales, lo que, en si…¡produce
innovaciones!
44
EL PRIMER VUELO TRASATLÁNTICO
El 21 de mayo de cada año se cumple un aniversario más del histórico vuelo de 1927, cuando el
piloto norteamericano Charles Lindbergh aterrizó en Paris, después de viajar en su pequeño
aparato, “Espíritu de San Luis” (Spirit of St. Louis), por casi 6,000 km, desde Long Island, Nueva
York, realizando así la inédita hazaña de volar sin escalas por encima del océano Atlántico,
abriendo de esa forma una nueva era en el transporte y las comunicaciones, de la que gozamos
todos los que hemos tenido la oportunidad de volar al “otro lado del charco”, de manera cotidiana
y sin problemas mayores y sin detenernos a pensar que hizo falta un verdadero héroe para
demostrar la factibilidad de estos viajes mediante aparatos más pesados que el aire.
Charles Lindbergh nació en Detroit, Michigan, en el año 1902, hijo de un inmigrante sueco, y
murió en Hawaii, en 1974, víctima del cáncer, y se convirtió en una verdadera figura pública en los
Estados Unidos, así como un icono de la aviación mundial, a raíz de su famosísimo vuelo
trasatlántico. Desde muy joven, Charles mostró un enorme interés por los artefactos mecánicos,
lo que lo llevó a inscribirse en la Universidad de Wisconsin para estudiar ingeniería, carrera que
nunca terminó, aunque su interés por los dispositivos de todo tipo se manifestó en la invención,
poco conocida, de un corazón artificial, en la década de 1930, que realmente funcionaba.
Después de haber pasado un tiempo en el ejército norteamericano, donde recibió un excelente
entrenamiento como piloto aviador, Lindbergh se dedicó a la vida civil, trabajando como piloto de
un servicio de correos entre las ciudades de San Luis y Chicago, hasta que decidió competir por un
premio que un millonario norteamericano, Raymond Orteig, había ofrecido en 1919 al piloto que
lograse volar sin escalas entre Nueva York y Paris. El premio, consistente en la nada despreciable
suma de 25,000 dólares, había atraído a más de un temerario piloto que, sin embargo, no habían
logrado, hasta el año 1927, hacer el vuelo trasatlántico. Lindbergh que, como explicamos era no
sólo un gran piloto sino una persona dotada para el diseño mecánico, logró convencer a varios
inversionistas para que le financiaran la construcción de un aeroplano con el que estaba seguro de
poder ganar el premio Orteig.
Después del cuidadoso diseño, por parte de él mismo y de Donald Hall, de su aparato, bautizado
con el nombre de la ciudad de donde eran originarios los inversionistas citados, Charles probó el
aparato volando desde San Diego a Nueva York en tiempo record, lo que le dio la confianza para
intentar el peligroso periplo trasnoceánico. Desde la perspectiva de la tecnología de la época, el
diseño del “Espíritu de San Luis” echó abajo varios mitos sobre los vuelos aéreos de larga
duración. Por ejemplo, se creía firmemente que, entre más motores tuviese un avión, más lejos
podría viajar. Contra lo que podría esperarse el aeroplano de Lindbergh ¡tenía un sólo motor!, ya
que Charles estaba convencido que tener muchos motores aumentaría la posibilidad de falla,
además de que buscaba disminuir el peso lo más posible, permitiendo así menor consumo de
combustible y logrando mayor espacio para la gran cantidad de gasolina que se requeriría para un
viaje tan largo (más de 33 horas ininterrumpidas de vuelo).
45
Entre las innovaciones que se introdujeron en el “Spirit of St. Louis”, se encuentra la ubicación de
los depósitos de combustible y la localización del centro de gravedad del aparato, principios que se
siguen utilizando hoy en día. La hazaña de Lindbergh representa un homenaje a la tecnología y al
coraje que han llevado al hombre cada vez más lejos en el universo.
46
EINSTEIN Y LOS ORÍGENES DE LA NANOTECNOLOGÍA
El de 2005 fue denominado por la ONU como Año Internacional de la Física, en conmemoración
del centenario de los cinco artículos señeros de famoso Albert Einstein. Lo que tal vez es menos
conocido es que Einstein también puede considerarse como el precursor de la Nanotecnología, uno
de los temas científicos de mayor actualidad, probablemente sólo comparable al caso de la llamada
Genómica y del que mucha gente cree, incluyendo numerosos científicos, que es una invención de
los últimos años del siglo XX.
Para ir entrando en calor, recordemos que uno de los artículos de Albert Einstein de 1905 trataba
sobre un problema, aparentemente simple, pero de gran relevancia, como veremos en su
momento: el movimiento browniano. Pero, vayamos por partes. Robert Brown (1773-1858) era
un médico y botánico escocés al servicio de la Armada Británica que describió científicamente
muchas especies de plantas desconocidas en Europa y que había recolectado cuidadosamente
durante sus viajes por, prácticamente, todo el mundo. En 1827, mientras analizaba en un
microscopio granos de polen y esporas de musgo, observó que las diminutas partículas,
suspendidas en agua, mostraban un alocado movimiento zigzageante, a pesar de mantener en
completo reposo el agua y que, al principio, Brown pensó se trataba del mismo tipo de movimiento
que ya había sido observado en el semen (después de todo, se trataba también de objetos
relacionados con la reproducción). Sin embargo, al sustituir el polen por finas partículas de polvo
inerte, Brown encontró el mismo intrigante fenómeno, que reportó y al que, desde entonces, la
gente bautizó con su nombre, a pesar de que se ha descubierto que un tal Jan Ingenhousz,
médico holandés, había descrito, en 1765 movimientos irregulares de polvo de carbón suspendido
en alcohol.
Tal vez el primer intento de explicación científica del movimiento browniano se le puede atribuir al
científico francés Desaulx, quien escribió alrededor de 1877: “en mi opinión, éste fenómeno es el
resultado del movimiento molecular del medio ambiente líquido de rodea a las partículas”, como
sabemos que, en efecto, es el caso, pero que para la época era poco menos que una atrevida
propuesta. Luego, en 1889, G.L. Gouy descubrió que, entre más pequeñas son las partículas,
involucradas, más rápido es su movimiento browniano.
Para 1900, F.M. Exner se había tomado ya la molestia de realizar cuidadosos experimentos
cuantitativos sobre este fenómeno, midiendo cómo el tamaño de partícula y la temperatura
influyen en el movimiento. También en ese año de 1900 apareció publicada la tesis de Louis
Bachelier, matemático francés, con el atractivo título “La Teoría de la Especulación”, donde ofrecía
una explicación del movimiento browniano, usando argumentos de lo que hoy se conoce como
difusión y planteaba una teoría matemática de los errores, que al mismísimo Poincaré le pareció
muy interesante A pesar de que, por cerca de 80 años se había discutido sobre el misteriosos
movimiento browniano, la verdad es que, para 1905, nadie sabía a ciencia cierta de qué se trataba
en realidad, desde el punto de vista físico. Fue entonces que un joven de escasos 26 años, que
47
trabajaba como empleado en la oficina de patentes de Berna, Suiza, decidió analizar el problema
con un atrevido enfoque.
Ciertamente que el trabajo sobre el movimiento browniano colocó a Einstein no solamente como
un físico de primera línea, sino que sentó los fundamentos de la teoría molecular de la materia,
que es la base de mucha de la moderna ciencia y tecnología, al demostrar, partiendo de la
suposición que los líquidos estaban formados por moléculas, que el misterioso movimiento
browniano tenía una sencilla explicación.
Estaba, entonces, puesto el cimiento de la Naonotecnología, pero faltaba el ingrediente más
relevante. En efecto, el trabajo que hace de Albert Einstein un precursor directo de la moderna
Nanotecnología es su trabajo de tesis doctoral, que presentó en la Universidad de Zurich con el
título en alemán de “Eine neue Bestimmung der Moleküldimension” (“Una nueva determinación de
las dimensiones moleculares”) y que posteriormente se publicó en los Annalen der Physik
(volumen 19, página 191, en 1906). Debe notarse que, a pesar de haber sido uno de los primeros
trabajos que Albert produjo en 1905, fue el último de la serie de 5 del Annus Mirabilis en
publicarse (ya en 1906), lo que ya es una indicación del poco valor relativo que se ha dado a uno
de sus artículos más importantes e influyentes fuera de la Física, como el tiempo lo ha ido
corroborando, hasta el punto que la prestigiada Royal Society of Chemistry de Inglaterra opina
oficialmente que Albert Einstein fue uno de los primeros físico-químicos modernos con este
artículo, que ha tenido ciertamente mucha más resonancia fuera del círculo de los físicos, quienes
tienen en mayor aprecio los trabajos sobre efecto fotoeléctrico (que le valió el Premio Nobel de
Física en 1921) y los conocidísimos artículos sobre relatividad especial.
La pregunta científica básica detrás de su tesis doctoral era hasta qué punto se puede seguir
dividiendo la materia de tal forma que siga manteniendo su identidad. Es decir, si disolvemos en
nuestro café una cucharadita de azúcar formada, como sabemos, por pequeños, pero visibles,
cristales, Einstein se preguntó si esa disolución continuaría ad infinitum o tendría algún límite. La
idea central de su respuesta a ésta interrogante es simple: supóngase que un líquido (digamos,
agua) está formado por pequeñísimas esferas, mucho más pequeñas que las que, a su vez,
forman el azúcar, de tal forma que las podemos suponer formando un continuo.
A partir de esto, calculó el cambio en viscosidad de la mezcla agua-azúcar a partir de cómo se van
difundiendo las esferas hipotéticas, lo que le llevó a encontrar un coeficiente de difusión que, de
acuerdo a sus cálculos, depende inversamente del cuadrado del diámetro de las esferas. Con ésta
predicción, buscó entonces datos experimentales de, precisamente, disolución de azúcar en agua,
con lo que obtenía el coeficiente de difusión y, mediante un simple despeje algebraico de su
ecuación, como el que nos enseñaron en la secundaria, obtuvo, finalmente, el radio de la esfera
de azúcar…¡que resultó ser del orden de un nanómetro! Si se usan los mismo argumentos para
cualquier material, se llega a la misma e importantísima conclusión: que el tamaño mínimo de
cualquier sustancia, para que mantenga su identidad química, es del orden de de nanómetros
(0.000000001 de metro), que es la base de lo que hoy llamamos Nanotecnología. Pero Einstein
fue más allá, ya que, explorando más en detalle el asunto, logró deducir teóricamente, por primera
48
vez, cuántas moléculas tenía un mol de materia ( el peso molecular expresado en gramos), que
era un número “mágico”, conocido como “Número de Avogadro” por los químicos, en honor del
científico italiano Lorenzo Amedeo Abogador (1776-1856) quien, por cierto, nunca conoció tal
número, aunque sus ideas sirvieron después para obtenerlo.
Lo cierto es que, antes de Einstein, y a pesar de su importancia, nadie tenía la menor idea de
dónde procedía ese número ni por qué era una constante en todas las sustancias. No cabe duda
que, a ya más de 100 años del Annus Mirabilis y a 50 de su muerte, Einstein sigue dándonos
sorpresas. Como el historiador alemán Albrecht Fölsing sostiene: no hay duda de que Albert
Einstein fue el mejor físico del siglo XX, por su teoría de la relatividad (especial y general), como
tampoco hay duda de quién fue el segundo mejor físico: ¡Albert Einstein, por el resto de sus
contribuciones!
49
MISIÓN STEREO, OBJETIVO: EL SOL TRIDIMENSIONAL
El 20 de agosto de 2006, la NASA lanzó al espacio la tercera misión, con duración programada de
dos años, de su programa de investigación Solar Terrestrial Probes, conocida como STEREO (Solar
Terrestrial Relations Observatory) que constará en realidad en dos observatorios idénticos,
individualmente con peso de 620 kg, uno de los cuales se encontrará en una órbita “adelantada”,
con respecto a la Tierra, mientras que el otro se encontrará en órbita “atrasada” referida a nuestro
planeta.
El objeto de este atrevido experimento es obtener, por primera vez, imágenes estereoscópicas
(como si fueran “tridimensionales”) del Astro Rey. Probablemente, desde que los físicos galos
Louis Fizeau y Leon Foucault lograran obtener la primera fotografía conocida del Sol en 1845, los
resultados que STEREO arrojará serán no sólo los más importantes de la astronomía solar, sino
que abrirán nuevas vertientes de investigación sobre una serie de fenómenos hasta ahora
misteriosos, como son las llamadas eyecciones másicas de la Corona (Coronal Mass Ejections,
CME, en inglés), que son poderosísimas erupciones de hasta 10,000 millones de toneladas de
material que el Sol emite al espacio, a velocidades de cerca de uno y medio millones de kilómetros
por hora y a los que algunos llaman “tormentas solares”. Estas temibles eyecciones, además de
que su origen preciso permanece fuera del entendimiento de los especialistas, tienen
repercusiones en nuestra vida diaria, ya que producen tormentas magéticas que interfieren con la
magnetósfera terrestre, causando problemas en las telecomunicaciones y la transmisión de
energía eléctrica, aparte de que llegan a destruir los satélites artificiales tan necesarios para la vida
de hoy.
De acuerdo con lo anterior, la misión de STEREO será múltiple: primero, entender las causas de
las CME , segundo, caracterizar la propagación de las CME en la heliosfera, tercero, descubrir los
mecanismos, y los sitios exactos, de la aceleración de partículas en la zona baja de la Corona Solar
y, finalmente, profundizar nuestro entendimiento de lo que se conoce como “viento solar”, que son
chorros de protones y electrones muy energéticos (con alrededor de 500 keV) que logran escapar
de la atracción gravitatoria de la Corona Solar gracias, se pensaba hasta la década de 1960, a las
enormes temperaturas del Sol. Se ha concluído que las aceleraciones que tales partículas logran,
literalmente como si fueran un “viento” fuerte, no se pueden explicar a partir de energías térmicas,
exclusivamente, sino que deben existir algunos mecanismos, desconocidos todavía, y los que se
espera que STEREO ayude a dilucidar.
50
Estos vientos solares son los causantes, entre otras cosas, de las bellas auroras boreales y
australes, uno de los espectáculos más fascinantes de nuestro planeta, pero también han sido los
autores de cambios climáticos en la Tierra, de acuerdo con algunos científicos, que han
encontrado relaciones entre, por ejemplo, los ciclos de los vientos solares y la formación de
grandes nubes y tormentas, a través de la nucleación de hielo a grandes altitudes, influída por la
presencia de esas partículas cargadas eléctricamente. Independientemente de los valiosos datos
que STEREO aportará a la ciencia contemporánea, muy pronto todos podremos disfrutar de las
primeras imágenes “3-D” (en realidad, como se explicó anteriormente, serán imágenes
estereoscópicas) de nuestra
estrella más entrañable: el Rey Sol.
51
BREVE HISTORIA DE LA TECNOLOGÍA DE LA CERVEZA
De acuerdo con las versiones, que no todos aceptan, de algunos historiadores, nuestros
antepasados prehistóricos fabricaban cerveza antes de que pudiesen incluso fabricar pan. Lo que
sí está bien documentado, sin embargo, es que en tablillas babilónicas de arcilla, que datan de
más de 3500 años A.C., se describen recetas de cómo producir cerveza y que los antiguos egipcios
usaban cebada y los chinos arroz y bambú para producirla.
La importancia que para la Humanidad ha tenido esta bebida se puede apreciar en la etimología
misma de la palabra que, de acuerdo con ciertos expertos, procedería de la combinación de los
vocablos Ceres, la diosa latina de la tierra, y “vis” (fuerza), por lo que cerveza significaría,
literalmente, “la fuerza de la diosa de la tierra”.
Desde el punto de vista científico, el proceso mismo de la fabricación de cerveza es harto
interesante, ya que se trata de una fermentación y no de una simple destilación, como sucede con
otras bebidas alcohólicas comunes. En efecto, la fermentación es un proceso catabólico de
oxidación incompleta, es decir, de una transformación de moléculas orgánicas complejas
(azúcares, en el caso de la cerveza) en otras más simples, que se lleva a cabo en ausencia de
oxígeno (i.e. anaerobia), a través de levaduras, que son hongos unicelulares relevantes para
muchos procesos bioquímicos. Estos microorganismos, que para la elaboración de la cerveza son
del tipo Saccharomyces, consumen azúcar y producen alcohol y anhídrido carbónico.
En términos muy generales, existen dos tipos de levadura de cervezas: la llamada levadura de alta
fermentación, que es la que se encuentra en los tallos de los cereales y en la boca de los
mamíferos, y que fue descubierta por Louis Pasteur en 1852, y la levadura de baja fermentación,
variedad descubierta accidentalmente por los cerveceros bávaros, que sometían sus cervezas a
una maduración a bajas temperaturas en las cuevas de los Alpes. Las cervezas que se elaboran
con esta segunda variedad de levadura son las llamadas Lager.
En principio, cualquier cereal se puede emplear para fabricar cerveza, aunque la cebada es la que,
al menos para el gusto occidental, produce los resultados más atractivos al paladar. Un asunto
interesante es que la oxidación parcial de los azúcares provoca un cierto dulzor, que se
acostumbra compensar mediante el lúpulo, planta trepadora, de la que se utilizan las flores
hembras, sin fecundar, en la industria cervecera. La tecnología de la cerveza ha evolucionado de
manera impresionante paralelamente con la Humanidad misma, ya que hay investigaciones muy
concienzudas sobre todos y cada unos de los aspectos bioquímicos involucrados en la producción
de esta bebida que, aunque pueda parecer muy simple, involucra principios científicos que se
siguen descubriendo aún en nuestros días, después de cerca de 4,000 años de haber disfrutado de
la compañía de una buena cerveza.
52
EL DESCUBRIMIENTO DEL QUINTO ESTADO DE AGREGACIÓN DE LA MATERIA
La historia del descubrimiento de los cristales líquidos, a los que se les considera el quinto estado
de agregación de la materia (además del líquido, sólido, gaseoso y plasma) es muy curiosa ya que,
hacia 1888 un biólogo austriaco, Friedrich Reinitze (1857-1927) que trabajaba en el Instituto de
Fisiología Vegetal de Praga, hoy República Checa, intentaba determinar el peso molecular del
colesterol, para lo que se le ocurrió medir el punto de fusión de esa sustancia y, de ahí, deducir
matemáticamente el parámetro deseado.
El problema es que ¡el colesterol tenía dos puntos de fusión!, uno a 145 oC y otro a 178.5 oC, lo
que resultaba completamente inexplicable para los conocimientos científicos de fines del siglo XIX.
Como Reinitze observó, además, que el colesterol presentaba birrefringencia, es decir, que
descomponía la luz que lo atravesaba en dos componentes, de tal forma que los objetos se veían
como “dobles”, decidió consultar a un colega cristalógrafo de la misma Universidad de Praga, el
húngaro Viktor Zepharovich (1830-1890), quien, intrigado también, sólo acertó a recomendarle
que consultara a uno de los más distinguidos expertos en materiales ópticos de la época, el
germano Otto Lehmann (1855-1922), quien entonces se acababa de mudar a Dresden y que, de
inmediato, se dio cuenta de la enorme importancia del descubrimiento, un tanto accidental, de
Reinitze.
De hecho, fue Lehmann quien acuñó el término “cristal líquido” para describir a esa sustancia
misteriosa, derivada del colesterol, que presentaba propiedades tanto de líquido como de sólido y
realizó los primeros estudios científicos serios y sistemáticos sobre estos materiales, que son hoy
en día parte de nuestra vida cotidiana, no sólo en las pantallas LCD (Liquid Cristal Displays) de
televisones y celulares, sino que se utilizan como surfactantes en jabones, detergentes y en la
producción de plásticos.
Por cierto, que una de las grandes injusticias de la Historia de la Ciencia es el no haberle otorgado
a Lehmann el Premio Nobel, a pesar de que nominado varias veces al mismo, ya que la influencia
de sus descubrimientos no sólo ha perdurado, sino que cada día de acrecienta, no sólo por las
aplicaciones prácticas de los cristales líquidos, sino porque se han convertido en una de las ramas
más activas de la investigación científica contemporánea, gracias a que un físico que le prestó
oídos a un biólogo que había observado una sustancia que no era ni líquida ni sólida, sin todo lo
contrario.
53
A VEINTE AÑOS DE CHERNOBYL
En Abril de 1986 el mundo se enteró, con horror, del más terrible accidente nuclear en la Historia y
cuyas consecuencias se seguirán estudiando por muchos años. La planta de Chernobyl, situada en
lo que hoy es la zona fronteriza entre Bielorrusia, La Federación Rusa y Ucrania, sufrió ese día
fatídico, 25 de Abril, una reacción nuclear en cadena que se salió del control de los encargados,
durante un ejercicio de prueba que no había sido autorizado. Al día siguiente, Abril 26, una gran
explosión destruyó el edificio en el que se encontraba el reactor nuclear afectado (uno de los
cuatro con los que la Planta contaba), emitiendo peligroso material radiactivo a la atmósfera.
Entre los sucesos terroríficos que siguieron al accidente, estuvo la irresponsabilidad de las
autoridades soviéticas, que, al principio, negaron que hubiese ocurrido incidente alguno, hasta que
tuvieron que rendirse a la evidencia de los reportes suecos, que demostraban una enorme
radiactividad en la zona, debida a cerca de ocho toneladas de material radiactivo que fue liberado
por el accidente al medio ambiente, antes de que se pudiese sellar el reactor, lo que costó la vida,
casi de inmediato, a decenas de bomberos que intentaban controlar el horroroso fuego que se
desató a causa de la explosión.
El gobierno de Ucrania calcula que cerca de 8,000 personas murieron a consecuencia del accidente
y durante las labores de limpieza que siguieron, a pesar de que varios pueblos cercanos, como
Pripyat y Chernobyl, fueron completamente evacuados en los días inmediatos posteriores. Más
allá de los decesos que pueden atribuirse de manera directa al accidente mismo, los efectos de la
radiación provocaron un terrible efecto en la agricultura de Europa del Este, por muchos años
después de ese fatídico Abril de hace cinco lustros. Las mutaciones genéticas en bebes hijos de
personas que fueron expuestas a la radiactividad en los meses siguientes a Chernobyl, siguen
descubriéndose en nuestros días, además de que no hay duda entre los expertos que
enfermedades consecuencia del material radiactivo, como el temible cáncer de tiroides, se
presentan con anormal incidencia en esa zona geográfica, veinte años después.
De hecho, un estudio de diversas instituciones internacionales serias, como la Agencia
Internacional de Energía Atómica, el Banco Mundial y la FAO, estiman que casi 5 millones (¡sí,
cinco millones!) de seres humanos sufrieron efectos de la radiación liberada durante el accidente,
aunque hayan sido dosis mínimas, de las que no ponen en riesgo la vida.
El origen técnico del accidente del Reactor No. 4 de la gran planta nuclear de la entonces
República Soviética de Ucrania es complicado y, cuatro lustros después, continua suscitando
controversias entre los especialistas. Se sabe que, en los días previos al terrible evento se estaban
realizando experimentos, fuera de las especificaciones de diseño del aparato y, hasta donde se ha
podido verificar, no oficialmente autorizados, con el objeto de permitir el recuperar el suministro
de energía en caso de una falla repentina. Al parecer, se presentó de repente, y debido al poco
cuidado en el manejo del reactor, un “pico” en el nivel de la potencia generada, lo que provocó la
vaporización del agua de enfriamiento dentro del reactor nuclear. Esto, a su vez, aumentó aún
54
más la potencia producida, que vaporizó más agua, etc., etc., hasta que la presión generada
provocó una tremenda explosión, que incendió el grafito que es parte del diseño del reactor, que
continuó quemándose sin control hasta el 6 de mayo, cuando se pudo extinguir el fuego, sin poder
evitar que, durante todo ese tiempo, se difundiera por la atmósfera gran cantidad de material
radiactivo, principalmente Yodo-131 y Cesio-137. El primer radioisótopo tiene una vida media de 8
días, pero la del segundo es de 30 años, de tal forma que hoy en día se siguen midiendo sus
emisiones en casi toda Europa Oriental, lo que ha generado alrededor de 600,000 operaciones de
recuperación y/o limpieza en estos veinte años.
Recientemente se ha encontrado que la cantidad de Cesio radiactivo depositado en la región es del
doble de lo que se había creído por muchos años, es decir, más de 2 millones de Curies, lo que
obliga a replantear cuáles fueron realmente las consecuencias del accidente sobre el planeta,
aunque existen grandes discusiones sobre si la radiación inducida por Chernobyl es realmente
más severa para la población de la región que otras fuentes naturales a las que está expuesta. Lo
que es particularmente grave de la emisión de material radiactivo del incidente de Chernobyl es la
forma física en la que tal emisión se llevó al cabo, ya que se incorporaron a la atmósfera gases,
partículas condensadas y partículas de combustible, lo que provocó diferentes tipos de
interacciones con el aire, el suelo y, por supuesto, las personas, haciendo, asimismo, muy
complicado el llevar a cabo labores efectivas de limpieza y recuperación.
Como se ha mencionado, los argumentos y contra-argumentos respecto al efecto de Chernobyl
han ido y venido desde prácticamente el mismo día del accidente, sin que se haya logrado
consenso cuantitativo. Lo que es cierto, sin duda, es que estamos hablando del peor accidente de
la industria nuclear, lo que ha producido, al menos, una mucho más estricta vigilancia de las
plantas nucleares del mundo.
55
DEL APARATO DE GALILEO AL GRAN TELESCOPIO MEXICANO
Pocos aparatos son tan emblemáticos de la ciencia como el telescopio, instrumento que ha
permitido desentrañar varios de los grandes misterios del Universo, amén de representar un área
de muy intensa actividad tecnológica y económica, desde hace casi quinientos años. En efecto,
una de las anécdotas favoritas (y probablemente falsa) de los divulgadores científicos es la del
gran físico de Pisa, Galileo Galilei (1564-1642), murmurando para sus adentros “e pur si muove”
(y, sin embargo, se mueve) al ser obligado a abjurar de su afirmación, basada en sus largas
noches detrás del telescopio de su invención, de que la Tierra gira alrededor del Sol, idea contraria
a las Sagradas Escrituras, de acuerdo con el Tribunal de la Inquisición que lo juzgaba por sus
“heréticas” opiniones.
Lo que sí se tiene registrado sin lugar a dudas es que Galileo fue el primero en reportar los
cráteres de la Luna y las manchas solares (lo que también causó enorme revuelo en su tiempo)
entre otros importantes descubrimientos hechos con su aparato que permitía, según se ha
deducido, una amplificación de 30X. Aunque se tiene la imagen popular de Galileo como el
inventor del telescopio, se sabe que antes de que el pisano se hiciera famoso, un holandés, Hans
Lippershey (1570-1619) tenía ya el razonablemente jugoso negocio de vender telescopios sobre
pedido, idea que continuó no únicamente Galileo, sino varios otros artesanos de la época. La
popularidad de los aparatos de Lippershey fue tal que, por muchos años, los franceses y alemanes
llamaban “cilindros holandeses” a los telescopios.
Al principio del siglo XVIII, Sir Isaac Newton tuvo una genial idea, que representó un avance
importantísimo en la tecnología de los telescopios, al reemplazar las lentes por espejos, lo que dio
origen a lo que hoy se conoce como “telescopio de reflexión” (en contraste con del de “refracción”,
como el de Galileo) familia de instrumentos que permite, de principio, mucho mayores
amplificaciones y mejor iluminación que sus primos refractivos y que ha evolucionado desde el
modesto espejo cóncavo de 15 cm de diámetro de Sir Isaac, al enorme aparato del Laboratorio
Especial de Astrofísica de Rusia, puesto en servicio en 1974 y con un diámetro de seis metros, que
permite amplificaciones del orden de 1,000,000X.
A pesar del importante avance que el principio de reflexión representó para la tecnología de los
telescopios, los problemas técnicos de producir una superficie reflejante de gran tamaño y
perfecta, desde el punto de vista óptico, limitaron por largo tiempo la mejora sustancial de los
telescopios de refracción. Desde el siglo XIX se tenía la idea de que no era necesario el construir
un espejo como una única superficie, sino que se podía segmentar, siempre y cuando la
envolvente fuese ópticamente homogénea, lo que llevó, a principios de la década de 1990, a la
construcción, en Hawai, del mayor telescopio óptico del mundo, el W.M. Keck, de 10 m de
diámetro, que ha permitido hacer observaciones de objetos astronómicos que se encuentran a
10,000 millones de años luz de distancia (un año luz es igual a 9,500,000,000,000 km).
56
Sin embargo, la luz visible no es la única manera de hacer observaciones astronómicas ya que, el
serbio Nikola Tesla (1856-1943), uno de los más grandes inventores de la Historia, reportó en la
década de los treinta del siglo pasado que había detectado señales de radio del espacio exterior, lo
que marcó el inicio de la llamada “radioastronomía”, que ha permitido el estudio de extraños
objetos celestes llamados pulsares y cuásares, que emiten radio señales de varios tipos, que son
registradas mediante un radiotelescopio, aparato que no tiene la apariencia de sus parientes
ópticos, como los que se conocen popularmente, pero que representa, hoy día, uno de los más
poderosos instrumentos de la astronomía observacional, por lo que la reciente inauguración del
Gran Telescopio Milimétrico (GTM), que es en realidad una gigantesca antena de 50 m de
diámetro, diseñada para registrar ondas de entre 0.85 y 4 mm (de ahí su nombre) procedentes de
las estrellas, constituye,sin exageración alguna, un hito en la historia de los telescopios.
Lo mejor de esta noticia es que no sólo el GTM se localiza en México (en la cima del volcán
Tliltépetl o volcán Sierra Negra, a 100 km al este del la colonial ciudad de Puebla y a una altitud de
4580 m sobre el nivel medio del mar, sino que es el orgulloso resultado de un ambicioso proyecto
entre un centro de investigación mexicano, el Instituto Nacional de Astrofísica, Óptica y Electrónica
(INAOE) y una universidad norteamericana (la de Massachusetts en Amherst), lo que coloca a
nuestro país en la frontera del equipamiento científico en radioastronomía, por lo que habrá que
estar atentos a los, sin duda, importantes descubrimientos que resulten de ese instrumento,
descendiente de los sencillos telescopios de Galileo.
57
CIENCIA Y TECNOLOGÍA DEL MARTILLO
Si alguien le solicitara a nuestro lector: “ayúdame a meter este clavo”, ¿qué haría? Todos
conocemos casi instintivamente el proceso: tomar un martillo por el mango, apuntar al clavo,
lanzar el golpe y …¡meter el clavo! Los martillos son herramientas tan familiares para nosotros que
poco pensamos en su evolución técnica; y es lógico, ya que desde hace un millón de años, el
Homo Erectus, precursor del Homo Sapiens, ya fabricaba las primeras herramientas de mano.
Los martillos son simples en su estructura: un mango, normalmente de madera, con una cabeza
(la mayoría de las veces, metálica) en un extremo. Los hay de carpintero, bola, chapista, de
construcción, galponero, de guerra, mecánico, hidráulicos, o de nylon, plástico, goma o madera.
La historia del martillo es por demás extensa y fascinante. La idea de facilitar el uso de piedras de
golpeo añadiéndoles un mango, dio por principio la generación de los primeros martillos. Pero, a
la par de la creciente utilidad de la herramienta para trabajos prácticos, el martillo se desarrolló
como arma de guerra. Basta ver la variedad de martillos que, con fines bélicos, se generaron.
Sus características principales eran mangos más largos y cabezas con puntas más afiladas y
especializadas para infringir daño. Los martillos continuaron especializándose.
Durante la revolución industrial, se generaron martillos a vapor capaces de realizar el trabajo de
forma mucho más rápida y eficiente que el hombre mismo. Hoy en día, podemos encontrar
martillos realmente especializados, basten como ejemplo los utilizados para realizar revisiones
médicas o los que ayudan en caso de emergencia, para romper las ventanas de un autobús. Los
martillos han tenido un papel muy importante en la historia del ser humano. Su especialización es
contundente. Y su evolución en cuanto al diseño, conserva, casi intactas, las características
generales de los primeros ejemplares de la historia. Pero, ¿qué significa trabajar con un martillo
durante todo el día, siete días a la semana? Al trabajar con esta herramienta desarrollamos ciclos
de movimiento cortos e intensos, y recibimos vibraciones que son absorbidas por músculos y
articulaciones.
Es común que las posturas que adoptamos generen esfuerzos en el área de la muñeca. Todo esto,
en relación con el tiempo de exposición, la velocidad, el ritmo, la edad y el sexo, pueden ser
factores para el desarrollo de problemas en las articulaciones y síndromes como el del túnel
carpiano, tendonitis, epicondinitis, isquemia, entre otros. Es por eso que resulta indispensable
generar alternativas para que el uso de esta herramienta sea más amigable con el ser humano.
Existen, hoy en día, recursos tecnológicos suficientes (nuevos enfoques de diseño, materiales
alternativos y otros) para atender estas necesidades y, así, generar un producto que desarrolle su
función a la par que cuide al usuario. Después de casi un millón de años de existencia, ya le llegó
el momento al martillo de evolucionar a la tecnología del siglo XXI, para que se convierta, de
verdad, en un instrumento no solamente útil, sino noble y seguro para quien lo utiliza.
61
LA EDAD DEL UNIVERSO
¿Quién, de niño, no le preguntó a su padre sobre el tamaño y edad del Universo? Seguramente
que el apuro en que metimos en su momento a nuestro progenitor ha quedado saldado por la
pena de no saber darle una respuesta correcta a nuestros propios hijos, cuando les llegó el
momento de preguntarnos exactamente lo mismo. En particular, algo que a más de uno nos ha
ocupado nuestros ratos de ocio es sobre qué tan viejo es el Universo en el que vivimos.
Para comenzar, hay que plantear la pregunta de una forma un poco más precisa, ya que existen
varias maneras en las que tal interrogante puede contestarse, de acuerdo a cómo se haga la
pregunta. En efecto, si queremos saber qué dicen los modelos cosmológicos aceptados por los
profesionales de la ciencia de hoy, como el famoso de Hubble, la edad del Universo sería de 13.7
Giga-años. Otra manera de hacer la pregunta es plantearse qué tan viejos son los elementos
químicos que constituyen la materia de la que está hecho el Universo. Se sabe que el decaimiento
radiactivo permite conocer, cada día con mayor precisión, la edad de una mezcla dada de átomos.
Por ejemplo, el radioisótopo del Rubidio, Rb-87, tiene una vida media de 47,000,000,000 de años,
lo que ha permitido estimar la edad de nuestro planeta Tierra en 3, 800,000, 000 de años,
mientras que los meteoritos más antiguos que hemos podido medir revelan una edad de casi
4,600, 000, 000 de años, lo que proporciona una idea bastante buena de la edad de nuestro
Sistema Solar.
La situación con la medición de la edad del resto del Universo es, por supuesto, mucho más
complicada, aunque se ha podido determinar, mediante mediciones en gases de la Vía Láctea, a
partir del radiosótopo Re-187, con vida media de 40,000,000,000 de años, que el Universo
conocido tiene probablemente una edad de entre 11.5 y 17.5 Giga-años. El otro enfoque que los
astrofísicos han inventado para tratar de evaluar la antigüedad del Universo es a través de la edad
de las llamadas enanas blancas. Una enana blanca es una estrella tan pesada como nuestro Sol,
pero con apenas el diámetro de la Tierra. Estas enanas blancas se forman en el centro de las
estrellas rojas gigantes, pero son invisibles hasta que la envoltura de la gigante roja es arrojada al
espacio, generándose entonces una gran emisión de radiación ultravioleta. De la temperatura de
la enana blanca se puede deducir su edad, lo que ha arrojado una edad estimada de las enanas
blancas más antiguas, supuestamente casi tan antiguas como el Universo mismo, de 11.5 Giga-
años.
Desde el punto de vista científico resulta interesante que, a pesar de medir cantidades y/o
fenómenos físicos diferentes, los enfoques que se han comentado coinciden, al menos, en el orden
de magnitud de la edad del Universo, lo que permite suponer que por ahí va el asunto, al menos
mientras no se haga algún descubrimiento revolucionario que indique que nuestro Universo es
más joven, o más viejo, que lo que hasta el día de hoy aceptamos.
62
LA VERDADERA FECHA DE LA NAVIDAD
La Navidad es una de las festividades más importantes que los humanos celebramos, seamos o no
creyentes cristianos, y muchas de las actividades sociales, comerciales, políticas, etc., se
acomodan, precisamente, alrededor de tal fecha, que es una referencia obligada para la
Humanidad desde hace cerca de dos mil años. Sin embargo, ¿qué evidencia científica existe para
asegurar que el 25 de diciembre de hace 2005 años nació Jesús?
Casi todos astrónomos e historiadores están tácitamente de acuerdo en que, sea cual haya sido la
fecha exacta del nacimiento de Jesucristo, NO fue el 25 de diciembre, como ahora celebramos.
Algunos estudiosos de la Biblia creen que la fecha más probable para este acontecimiento es
septiembre, ya que los relatos bíblicos de los pastores durmiendo con sus ovejas a campo abierto
durante la peregrinación de María y José, serían impensables en los gélidos diciembres que, desde
hace miles de años, se sufren en esa región del planeta.
Aunque existe todavía, después de muchos siglos, discusión acerca de la razón precisa por la que
se celebra el 25 de diciembre de cada año, sí se sabe con certeza que tal fecha era una festividad
desde mucho antes del nacimiento de Jesús. En efecto, los babilonios dedicaban del 25 de
diciembre al nacimiento del hijo de sus Diosa Isis, mediante banquetes que se prolongaban, a
veces, por días. Más aún, los romanos, muchos años antes de la Era Cristiana, conmemoraban
por esos días de diciembre el Solsticio de Invierno y llamaban a la época invernal “Saturnalia”, en
honor a su Dios de la Agricultura, Saturno, quien más adelante sirvió para nombrar, como
sabemos, a un planeta de nuestro Sistema Solar.
Para los antiguos romanos, como para nosotros en pleno siglo XXI, diciembre era un mes
dedicado a fiestas, intercambio de regalos y excesos de todo tipo, pues celebraban el “Dies Natalis
Invicti Solis”, es decir, el nacimiento del Sol Invicto, una de sus deidades más importantes. De
hecho, la tradición de cantar villancicos data de esas fechas, ya que se acostumbraba que grupos
de personas disfrazados visitasen a sus vecinos para ofrecerles canciones a cambio de alguna
vianda, obsequio o, de perdida, un traguito de algún elixir espirituoso y reanimante (de
preferencia con algo de alcohol). Lo que también resulta interesante es que en varios lugares del
mundo, y al parecer de manera independiente, la época del Solsticio de Invierno era considerada
una de las fechas más importantes del año, como sucedía con los, entonces, pueblos bárbaros del
norte de Europa, quienes tenían en su Dios Mitras, al equivalente del Rey Sol romano y quien, de
acuerdo son sus creencias, había nacido precisamente el día más corto del año, lo que les causaba
tal pavor que acostumbraban encender una vela para pedir que los días volviesen a ser largos. De
esos tiempos y de esas regiones nos viene la costumbre, entonces, de poner luces a los árboles,
ya que los nórdicos tenían también la idea de que tener en casa un arbolito fresco durante los
duros inviernos de esas latitudes, les garantizaría que toda la naturaleza reverdecería en la
siguiente primavera.
En el caso de la Iglesia Católica, fue el Papa Julio I quien, en el año 350 de nuestra era, declaró
que el nacimiento de Jesús se celebraría oficialmente los 25 de diciembre con lo que, al hacer
63
coincidir una de las principales celebraciones de la fe católica con una costumbre pagana ya
arraigada permitió que la fecha se aceptara con poca reticencia, como la Historia demuestra que
en efecto ocurrió.
¿Existe, sin embargo, alguna evidencia científica que permita corroborar lo que la Biblia narra? Los
astrónomos han propuesto varias hipótesis para explicar la tan mencionada Estrella de Belén,
actriz fundamental del relato bíblico de la Natividad, y que van desde un más o menos común
cometa, hasta una Super Nova. Sin embargo, no se han realizado investigaciones serias para
apoyar o desmentir tales posibilidades.
Por otro lado, existe un interesante fenómeno astronómico que se repite aproximadamente cada
25 años y que es la casi-yuxtaposición (conjunción) de Venus y la Luna llena, alrededor de la fecha
de Navidad. El fenómeno es tan impresionante, según las crónicas, que existen descripciones con
cerca de un milenio de antigüedad procedentes de culturas muy distintas y geográficamente
distantes entre sí, lo que indica que debe tratarse verdaderamente de un espectáculo único. La
última vez que esto ocurrió fue en 1995, cuando se esperaba una, literalmente, “brillante”
Nochebuena, en la península de Florida, en los Estados Unidos, en vista de la gran luminosidad
que la mencionada conjunción traería a aquel lugar. Por desgracia, tal día de hace 10 años la
“casi” conjunción fue muy pobre, ya que el máximo acercamiento medido ese 25 de diciembre fue
de alrededor de 22 grados, lo que dista mucho de producir una brillantez que realmente llame la
atención, por lo que tendremos que esperar al menos otros 15 años para poder atestiguar un
fenómeno astronómico al que varios expertos atribuyen la “milagrosa” luminosidad de la famosa
“Estrella de Belén”, que se describe en la Biblia.
Existen programas de computadora que permiten calcular las conjunciones Venus-Luna para
períodos que comprenden miles de años, con lo que, en principio, podríamos saber con bastante
precisión si hubo tal yuxtaposición el 25 de diciembre del año en que nació Jesús, ya que sabemos
la fecha teórica y el lugar de observación. Los cálculos, sin embargo, no reflejan ningún fenómeno
de ésta naturaleza en la región de Judea en esa fecha, lo que no es sorprendente pues es casi
universalmente aceptado que Jesucristo no nació en diciembre. De hecho, los cálculos del Jet
Propulsión Laboratory de la NASA indican que el 10 de abril de año 5 A.C., a las 7:00 P.M., hora
local de Belén, Judea, hubo una diferencia de 0.869 grados entre las posiciones aparentes de
Venus y la Luna, lo que debió haber creado un impresionante espectáculo astronómico.
Otra posibilidad que expertos de la NASA han analizado es el que, en el año 5 A.C. existieron
interesantes cuasi-conjunciones de la Luna creciente y Venus con Saturno, el 10 de febrero de ese
año y con Júpiter, el 11 de marzo. Para complicar más las cosas, la tradición ubica a María y José
como contemporáneos de Herodes, quien se sabe que murió en el año 4 A.C. Por otro lado, el
famoso censo, que los obligó a peregrinar, se tiene registrado en los archivos que se preservan en
Roma como finalizado alrededor a cabo del año 7 A.C. De acuerdo con estas investigaciones, si
creemos en el relato de la Estrella de Belén, entonces Jesucristo nació al menos cinco años antes
de lo que se piensa popularmente y durante el primer cuatrimestre del año, en vez del típico
diciembre.
64
LA ANTIGUA CIENCIA DEL AÑO NUEVO
La llegada de cada nuevo año, como el que recién comienza en estos días, viene acompañada no
sólo de renovadas intenciones para los siguientes doce meses, sino de reflexiones sobre lo que se
hizo y se ha dejado de hacer en el pasado A propósito del pasado, aunque, en este caso, mucho
más lejano, vale la pena recordar que, a pesar de que la celebración de cada ciclo anual es casi
tan antigua como la Humanidad misma, la verdad es que la costumbre de festejar el primero de
enero como el comienzo de un año nuevo es relativamente reciente.
Los mesopotamios, por ejemplo, llevaban al cabo su festividad durante el equinoccio de la
primavera, en marzo, mientras que para los antiguos egipcios, el año comenzaba en el equinoccio
de verano y para los griegos en el solsticio de invierno. Más aún, los nombres de nuestros
actuales meses provienen del hecho de que el calendario romano primitivo fijaba el primero de
marzo como el comienzo de cada uno de sus años, que constaban de 10 meses (de ahí el término
diciembre, “el décimo” mes que, por cierto, tenía sólo 29 días) lo que les llevó a un complicado
ciclo de cuatro años, durante el cual se veían forzados a cambiar el número de los días de cada
mes y, para completar los 365 días, añadir dos meses más al final de cada uno de sus años: los
actuales enero y febrero.
El sistema calendario romano se volvió tan enredado y defasado del año solar que, para cuando
Julio César (101 A.C-44 A.C.) asumió el título de Pontifex Maximus, ¡el mes de enero caía a
principios del otoño! Para solucionar este agudo problema, tanto astronómico como político y
comercial, ya que, por ejemplo, los agricultores no sabían cuando sembrar ni cosechar, ni se sabía
a ciencia cierta cuándo celebrar la vendimia, Julio César, autor él mismo de un buen tratado de
Astronomía, consultó al entonces famoso astrónomo alejandrino Sosígenes para encontrar, de una
vez por todas, la solución científica al problema de la duración del año. Sosígenes calculó la
duración de una revolución solar en 365 días y seis horas, estimación asombrosamente exacta,
dados los rudimentarios instrumentos de la época, ya que su margen de error fue sólo de 11
minutos y 9 segundos al año, es decir, menos de un segundo por día.
Ya con los datos astronómicos en la mano y con el objetivo de hacer coincidir el año calendario
con el año solar, Julio César decretó que el año 46 A.C. comenzara el 1º. de enero y que, por ese
único caso, se tuviese un año de 445 días, siendo después de 365, con un día extra en febrero,
cada cuatro años, con lo que nació el calendario juliano que tenía, como se puede ver, una
duración de 365.25 días, lo que lo hace 11 minutos y 12 segundos más largo que el año solar
verdadero, y que conduce a un error acumulado de un día entero cada 128 años.
A pesar de que, tanto Julio César como Sosígenes estaban, con toda seguridad, conscientes del
“pequeño” error de su calendario, éste se usó hasta 1582, cuando se habían acumulado ya varios
días de defasamiento y el entonces Papa Gregorio XIII introdujo el actual sistema de añadir un día
a febrero cada vez que el año en cuestión es divisible por 400.
65
EL MARINO ESPAÑOL QUE SE CONVIRTIÓ EN FÍSICO
Entre los miles de ciudadanos españoles que recibieron asilo en México a consecuencia de la
Guerra Civil de la década en 1930 en su país, llegó a tierras aztecas, en 1939, un marino
malagueño, Juan Bautista de Oyarzábal Orueta (1913-1977), procedente de un campo de
concentración francés en Túnez, en el que había sido internado después de huir de España,
perseguido por sus enemigos.
Don Juan, como se le conocería cariñosamente en México, había estudiado en la Escuela Naval
Militar de San Fernando, en Cádiz, donde destacó por sus aptitudes para las matemáticas y la
física, que le valieron, posteriormente, durante la guerra civil, servir como Director de Tiro en el
acorazado Jaime I, uno de los orgullos de la Armada española de su tiempo. A pesar de su trabajo
como militar, a Don Juan de interesaron siempre la ciencia y las labores intelectuales, que se
plasmaron en varios libros de diferente tipo, desde textos de física hasta relatos de viaje, titulados
“Descubrimientos Oceánicos” que le proporcionaron un modesto ingreso por regalías al llegar a
México, donde, por ser extranjero, no pudo dedicarse a su profesión básica, la marina de guerra,
circunstancia que le llevó a otra decisión que marcaría su vida: estudiar Física.
En 1942 Oyarzábal se inscribe en la entonces recién fundada Facultad de Ciencias de la
Universidad Nacional Autónoma de México (U.N.A.M.), donde recibe clases de dos físicos de talla
internacional, los doctores Manuel Sandoval Vallarta, mexicano formado en el famoso
Massachussets Institute of Technology (MIT), y Blas Cabrera y Ramón, otro refugiado español de
caro recuerdo. Después de graduarse, Don Juan trabaja brevemente en el Instituto de Física de la
U.N.A.M. y, por alrededor de 3 décadas, en la Facultad de Ciencias de la Máxima Casa de Estudios
de México y fue uno de los primeros profesores de Física de la Universidad Autónoma
Metropolitana (U.A.M.), fundada pocos años antes de su muerte.
Además de su labor como investigador científico en Física, que le llevó a publicar uno de los
primeros trabajos de autores mexicanos en la prestigiada revista norteamericana Physical Review,
sobre radiación cósmica, en 1947, y como docente, recordado hasta el día de hoy por quienes
fueron su alumnos en la U.N.A.M., la U.A.M. y otras instituciones mexicanas, Don Juan Bautista de
Oyarzábal Orueta dejó varios textos sin publicar, incluyendo poesía, que era uno de sus intereses y
que le permitió ganar algún concurso internacional en Europa, además de esperanto, que aprendió
en México y del que fue entusiasta impulsor.
Fue uno de los fundadores, en 1950, de la Sociedad Mexicana de Física. Uno de los,
desafortunadamente escasos, estudios detallados sobre la vida de Juan de Oyarzábal se debe a los
esfuerzos de E. Piña, M. Ramos y C. Velasco, quienes publicaron un artículo sobre la vida de Don
Juan en la Revista Mexicana de Física, apenas en diciembre de 2006. El impacto de la obra
docente de Oyarzábal se puede apreciar por el hecho de que la biblioteca del Instituto de Física de
la U.N.A.M. lleve hoy su nombre, al igual que un aula de la Facultad de Ciencias de la misma
66
universidad y el que la U.A.M. tenga una Cátedra Juan Bautista de Oyarzábal Orueta y el que
exista un Concurso Nacional de Divulgación de la Ciencia y la Tecnología que organiza anualmente
la Universidad Autónoma de la Ciudad de México.
67
LOS “DÍAS DEL INVENTOR”
Ciertamente que los inventores, esas mentes inquietas que han generado muchos de los aparatos
y tecnologías que conocemos y utilizamos hoy en día, merecen el reconocimiento de la sociedad.
Lo que resulta curioso es que no hay un consenso internacional sobre un día dedicado a estos
hombres y mujeres, sino que cada país ha declarado una fecha, dependiendo del aniversario de
alguno de sus inventores locales. En México, por ejemplo, la La Federación Nacional de
Inventores Siglo XXI, A. C., fundada en 1992, declaró en 1994 el 17 de febrero de cada año como
el “Día del inventor e investigador mexicano”, para conmemorar la fecha del nacimiento de
Guillermo González Camarena, inventor de una TV en color y que nació en Guadalajara en 1917.
Además de varias invenciones en el campo de las telecomunicaciones, González Camarena fue el
fundador del canal 5 de la televisión nacional (XHGC, las letras “GC” corresponden, obviamente, a
González Camarena) y su prematura muerte, en 1965, privó a México de su, tal vez, inventor más
famoso. En la Argentina, por otro lado, la Asociación Argentina de Inventores ha instaurado,
desde 1990, el 29 de septiembre como “Día del inventor”, en honor al húngaro, naturalizado
argentino, Ladislao José Biro (1899-1985), inventor nada más ni nada menos que del bolígrafo y
que, a semejanza de González Camarena en nuestro país, se le considera el inventor más
importante en la historia del suyo adoptivo. Curiosamente, otros argentinos, junto con varios
países europeos, consideran el 26 de abril, que también conmemora el día de la propiedad
intellectual, como el día a celebrar en éste rubro y otros más siguen a Uruguay en su celebración
del 8 de julio. Obviamente, nuestros hermanos sudamericanos no han inventado todavía cómo
ponerse de acuerdo. Como se mencionó, otro país latinoamericano, Uruguay, celebra el 8 de Julio
y los bolivianos están tramitando una fecha distinta para su conmemoración anual del inventor.
Los Estados Unidos, a partir de una declaración de su Congreso en 1973, celebran el 11 de
febrero de cada año el “National Inventor´s Day”, aniversario del nacimiento de Thomas Alba
Edison (1847-1931), muy probablemente el más prolífico inventor que la Humanidad ha conocido.
En Tailandia, se dedica el 2 de febrero a la celebración del inventor, en honor a su rey Bhumibol
Adulyadej que, entre otras cosas, parece haber descubierto cómo congeniar sus deberes de
soberano con sus aptitudes de inventor. La International Federation of Inventors Associations
(www.invention-ifia.ch) creada en Europa en 1968, y con base en la ciudad suiza de Ginebra, no
se he expresado sobre un día particular para celebrar en todo el mundo, de manera coordinada el
día del inventor, quizas para no inventar conflictos partir de susceptibilodades heridas.
Independientemente de las motivaciones locales, resulta por demás interesante que varios de los
países que no se han distinguido, cuando menos en el inconsciente colectivo mundial, por ser
generadores de tecnología, sean los que más conmemoran a sus mentes innovadoras, aunque sea
en el discurso. Otro detalle, para quien guste de inventar relaciones a partir de coincidencias, es
que varios de los inventores que hemos mencionado nacieron en el mes de febrero.
68
SESQUICENTENARIO DEL PADRE DEL PSICOANÁLISIS
El 6 de mayo de 1856 nació, en el pueblito, entonces austriaco, de Freiburgo (ahora parte de la
República Checa), Sigismundo Schlomo (mejor conocido como Sigmund) Freud, sin duda uno de
los más influyentes y controvertidos personajes del siglo XX. Desde muy pequeño su familia se
mudó a Viena, donde Sigmund pasó gran parte de su vida, hasta que la Segunda Guerra Mundial
lo obligó a emigrar a Inglaterra, donde murió de cáncer de mandíbula en 1939. Durante sus
estudios de Medicina en la Universidad de Viena, el joven Freud, quien siempre había sido un
brillante estudiante, que inventó inclusive una técnica para teñir células para observaciones
microscópicas, y con inclinaciones claras hacia la investigación científica, participó en los trabajos
del grupo del Prof. de fisiología Ernst Brücke, uno de los paladines de una escuela de pensamiento
muy en boga en esa época: el reduccionismo, de acuerdo con el cual “las únicas fuerzas presentes
en un organismo vivo, son las fuerzas físicas y químicas”, es decir, que aspectos que ahora
llamamos psicológicos, como la personalidad o el carácter, podían explicarse simplemente como
efectos físico-químicos.
Resulta curioso que uno de los que echaron por tierra tal teoría reduccionista, fue, precisamente,
Sigmund Freud. Después de pasar algún tiempo en Francia y Alemania, como estudiante y
residente médico, Freud regresó a Viena, donde abrió un consultorio para tratar problemas
nerviosos, para lo que exploró diversas técnicas, como el hipnotismo, aunque pronto se dio cuenta
que la libre asociación, a través de la famosa metodología de recostar al paciente en un diván para
escucharlo, le abría interesantes posibilidades para explorar el llamado inconsciente, concepto que,
por cierto, Freud no inventó, pero sí popularizó enormemente.
Para principios del siglo XX, Sigmund Freud era ya famoso por sus escritos y había sido nombrado
Profesor de la Universidad de Viena, donde también era conocido por sus virulentos ataques hacia
quienes sostenían posiciones diferentes a las suyas, como Carl Jung, que comenzó siendo su
amigo y terminó como terrible rival. Además de sus conocidos y relevantes trabajos en
Psicoanálisis, Freud fue un pionero de la Neurología moderna, ya que estudió los orígenes de la
parálisis cerebral y planteó hipótesis que resultaron correctas, de acuerdo con investigaciones
recientes. También analizó las aplicaciones médicas de la cocaína, desde sus propiedades
analgésicas hasta su uso como antidepresivo, llegando a prescribirlo a un amigo ¡para tratarlo de
su adicción a la morfina! Sigmund Freud fue, sin duda alguna, uno de los grandes de la Historia
de la Humanidad.
69
LA RAZÓN DIVINA EN EL ARTE Y EN LA CIENCIA
Uno de los primeros conceptos matemáticos que aprendemos los humanos es el de las
proporciones, ya que todos logramos entender rápidamente que algo es proporcionalmente mayor
o menor e inclusive casi cualquiera puede realizar el cálculo matemático de la “regla de tres”. No
todas las reglas de proporcionalidad son iguales y, sin embargo, las encontramos jugando papeles
preponderantes en campos tan diversos como la química, la arquitectura, la geometría, la
economía, la poesía, el discurso político, etc., etc. Sería imposible enumerar aquí todos los casos
en los que las leyes de proporción aportan una herramienta valiosa para la solución de problemas
prácticos y de naturaleza estética.
En la historia de la Humanidad se ha verificado, no obstante, la presencia y utilización de una regla
especial que se ha distinguido tanto por su perseverancia y difusión, como por su atractivo
estético. Nos referimos a la famosamente conocida como “razón divina”, “regla de oro” o
“proporción áurea”, que fue aplicada ampliamente en la enseñanza académica de la pintura del
siglo XVII. Esta regla o “proporción dorada” ha sido conocida y utilizada desde tiempos
antiquísimos: los egipcios la usaron para determinar las dimensiones de los campos de cultivo
(ellos descubrieron la proporción áurea por análisis y observación, buscando medidas que les
permitieran dividir la tierra de manera exacta, a partir del hombre, utilizando la mano y el brazo),
los griegos (quienes la llamaban aurea sectio) construyeron palacios de reconocida belleza (como
el Partenón de Atenas) basándose en el dominio de este número de oro. La proporción áurea,
pasó de Egipto a Grecia y de ahí a Roma. Las más bellas esculturas y construcciones
arquitectónicas están basadas en dichos cánones.
El reconocido astrónomo alemán Johannes Kepler lo consideró una de las cosas perfectas del
Cosmos, junto al teorema de Pitágoras, mientras que el filósofo griego Platón argumentó que era
imposible combinar bien dos cosas sin la participación de una tercera, una relación entre ellas que
las ensamble, y la mejor ligazón es el todo. Vitruvio, autoridad de la arquitectura Romana,
estableció una afinidad entre el hombre y las figuras geométricas, al descubrir que el hombre de
pie con los brazos extendidos puede inscribirse en un cuadrado, si separa las piernas puede
inscribirse dentro de un circulo, que tiene como centro el ombligo.
Otro testimonio del empleo de la sección dorada se encuentra en la obra “Neue Lehre von der
Proportionen des Menschlichen Körpers” (1854) escrita por el alemán Adolf Zeising y en el libro
“Elementos” de Euclides, donde a la sección áurea se le conoce como la “división de un segmento
en su media y extrema razón”.
Sin embargo, el primer hombre en darle nombre a esta regla de proporción fue Leonardo da Vinci
(quien la llamó “sección áurea”), quien utilizó este principio para dibujar y pintar diagramas
geométricos para el libro “De Divina Proportione” escrito por Fra Luca Pacioli en 1509, en el que se
trata con detalle este tópico. Pacioli se inspiró en las ideas de Piero della Francesca, personaje
70
actualmente conocido por su obra pictórica, pero en su tiempo famoso por ser el autor del libro
“De ábaco”, un manual de matemática para comerciantes.
La regla de proporción (hoy coloquialmente llamada “regla de tres”) era una herramienta básica
para los comerciantes del siglo XV: servía para determinar las proporciones da capital, tierras,
volumen de grano o cualquier otra clase de bienes que le correspondía a cada socio, heredero o
copropietario ante un total determinado. Era entonces conocida como “regla de oro” o “llave del
comerciante”. Piero della Francesca aplicaba en sus pinturas una serie de fórmulas que su público
estaba capacitado para comprender. Ese público estaba formado principalmente por comerciantes
acaudalados que tenían la formación matemática necesaria para percibir belleza en la forma
abstracta del volumen de un cuerpo.
La regla de oro, además de ayudar a mantener buenas relaciones comerciales, parecía una
fórmula perfecta para relacionar las artes de la música (tan trabajadas por los pitagóricos), la
pintura y la arquitectura. Cuando Luca Pacioli escribió “La Divina Proporción” consideró una regla
de tres especial, en la cual partiendo de una unidad arbitraria se permitía la construcción de
proporcionalidades tanto mayores como menores.
La expresión matemática de la sección áurea es
ba
b
b
a
,
que en términos geométricos nos habla de la proporción resultante cuando un segmento de recta
es dividido en dos partes desiguales que se encuentran en proporción, según la fórmula anterior.
Es decir que el segmento menor, es al segmento mayor, como éste es a la totalidad de la recta. La
ecuación anterior puede reescribirse de la siguiente forma:
022 baba ,
la cual si se resuelve para a y poniendo b = 1 resulta:
618.12
15
a
, llamado “numero de oro” o “sección áurea”, cuyo símbolo es letra griega
cociente que está presente en los patrones de crecimiento de muchos fenómenos de crecimiento
biológico, tales como la concha de un molusco o la distribución de ramas de un árbol.
Según algunos autores, el gran historiador griego Herodoto afirmó que las dimensiones de la Gran
Pirámide se hicieron de tal manera que el área de un cuadrado cuyo lado fuera igual a la altura de
la Pirámide coincida con el área de una cara triangular. De este modo la altura de una cara lateral
estaría en sección áurea con la mitad del lado base. Arquitectos, pintores y escultores de todos los
71
tiempos han utilizado la Sección Áurea como método para componer sus obras, al observar en ella
una agradable impresión de armonía y belleza. Entre algunos ejemplos, se citan: el Partenón de
Atenas, la fachada de la Universidad de Salamanca, las Meninas, la Santa Cena, las Hilanderas de
Velázquez y la Sagrada Familia de Miguel Ángel.
Tal vez no todas las bellezas relacionadas con el número de oro hayan sido descubiertas,
podríamos buscarlas en los rincones más callados de la Naturaleza o quizá nos estén llamando a
todas voces desde los sitios más visibles de la Tierra. Para finalizar con este breve vistazo a las
proporciones divinas citaremos a Pitágoras, para quien las proporciones mágicas de los números
aparecen por todas partes en la Naturaleza, incluyendo los sonidos emitidos por los planetas en
vibración mientras se trasladan por el vacío negro: “hay geometría en el canturreo de las
cuerdas—dijo—, hay música en el espacio que separa las esferas”.
72
EL PLANETA QUE RESULTÓ…¡PLANETOIDE!
En muy, pero muy contadas ocasiones una discusión entre científicos recibe la atención
generalizada de los medios masivos de comunicación de todo el orbe, como sucedió en 2006, a
propósito de la reunión de la Unión Astronómica Internacional, que se llevó a efecto en la hermosa
ciudad de Praga, donde se decidió que el Sistema Solar no consiste, como nos enseñaron a todos
en la escuela, de 9 planetas, sino sólo 8, ya que, a partir de ese año, Plutón deja de ser
considerado, de manera ya oficial, un planeta.
La mera verdad es que, desde su descubrimiento oficial en 1930, por el astrónomo norteamericano
Clyde W. Tombaugh del famoso Percival Lowell Observatory en Arizona, la historia de Plutón ha
estado rodeada de controversias. Para comenzar, Tombaugh se dedicó a buscar un planeta más
allá de Neptuno, ya que cálculos matemáticos predecían que debería existir tal cuerpo celeste en
esa posición, al que Clyde bautizó como Plutón, en honor al dios romano de los infiernos (que
recibe el apelativo de Hades, en la mitología griega). El problema es que ¡esos cálculos eran
completamente erróneos!, por lo que el “descubrimiento” de Plutón fue completamente obra de la
casualidad (o de la intervención del dios del averno).
Otra característica de este “planeta” que generó problemas conceptuales a los astrónomos desde
mediados del siglo XX es su reducido tamaño, de 2274 km, más pequeño, no digamos que todos
los otros planetas del sistema solar, sino que inclusive varios de los satélites de esos planetas,
como nuestra misma Luna, que tiene un diámetro de 3476 km. Además, la órbita de Plutón es
muy excéntrica, es decir, forma una elipse muy alargada, lo que es muy distinto del caso de los
otros 8 planetas de nuestro Sistema Solar, como distinto es hecho de que gira en la dirección
opuesta a la de los otros planetas. De hecho, tan diferente es Plutón de los demás, que ahora se
cree que se trata de un objeto que no se generó dentro del Sistema Solar en si, sino que fue
capturado por la atracción gravitacional de Neptuno.
Total, que la Unión Astronómica Internacional, votó, después de acaloradísimas discusiones, no
exentas de intereses políticos y personales, según testigos del histórico acontecimiento, que Plutón
sería degradado de la categoría de planeta a la de planeta enano o planetoide, por lo que no sólo
los libros de texto deberán ser corregidos, sino que los astrólogos deberán convencer a sus
creyentes que los horóscopos pueden seguir prediciendo nuestra vida cotidiana sin Plutón.
73
LA DECISIÓN QUE ESTREMECIÓ AL MUNDO
Hace ya más de 60 años, el 6 de agosto de 1945, la ciudad japonesa de Hiroshima, capital de la
Prefectura del mismo nombre, en la isla de Honshu, la más grande del Japón, sufrió la detonación
de la primera bomba atómica de fisión utilizada con fines militares, que, de acuerdo con algunas
estimaciones, mató a cerca de 80,000 personas de manera instantánea, incluyendo a más o
menos 2,000 individuos de nacionalidad norteamericana que se encontraban en la ciudad desde
antes de la Guerra y a los que no se les permitió la salida al iniciarse las hostilidades.
Aunque es muy difícil establecer con precisión el número de víctimas de la bomba apodada “Little
Boy” se estima que, para diciembre de 1945 ya habían fallecido 140,000, la inmensa mayoría
civiles, ya sea por heridas directas o bien por los efectos de la radiación subsecuente. Si se suman
a los que murieron por la segunda bomba atómica, conocida por los militares norteamericanos
como “Fat Man”, lanzada sobre Nagasaki pocos días después (el 9 de agosto), se tiene la
horrososa cantidad de cerca de 220,000 seres humanos que iniciaron, con su deceso, la llamada
Guerra Fría, que tuvo al mundo en vilo por casi medio siglo y cuyos efectos aún nos amenzan.
Este evento marcó un hito para la Humanidad, desde todos los puntos de vista, ya que no sólo
señala el comienzo de una acelerada carrera por el predominio tecnológico y cientifico sobre las
armas nucleares, sino que inició un intenso debate, que continúa hasta nuestros días, sobre las
razones verdaderas para, por un lado, lanzar una bomba tan potente (el poder explosivo de Little
Boy, que contenía 60 kg de Uranio 235, equivalía a 13,000 toneladas de TNT) y, por el otro,
escoger dos blancos civiles en vez de centros militares nipones.
Para los defensores de la bomba, ésta “salvó” muchas vidas, tanto de japoneses como de
norteamericanos, en caso de que, o la guerra se hubiese prolongado o bien que se hubiese
intentado una invasión aliada a Japón, que ciertamente habría luchado hasta la última gota de
sangre, dada la ideología japonesa y que habría costado, según este argumento, muchas más que
las 220,000 muertes que se han mencionado líneas arriba. Los japoneses, por su parte, aseguran
que su país se encontraba ya en vías de rendición, sólo esperando negociar condiciones más o
menos dignas para su nación.
Por otro lado, la milicia norteamericana creó un comité especial, the Target Committe, para decidir
dónde se lanzarían las bombas atómicas. La primera opinión de ese grupo era que los blancos
ideales serían las ciudades de Kioto, Hiroshima y Yokohama y el arsenal militar de Kokura. En un
segundo análisis, el Committee decidió no utilizar la bomba sobre un objetivo puramente
castrense, debido a la posibilidad de que el bombardero no acertara a un blanco pequeño,
mientras que el riesgo de fallar en una zona urbana densamente poblada era mucho menor. Para
los miembros del Comité el efecto sicológico sobre los japoneses y sobe el mundo entero resultaba
un elemento fundamental para la decisión, ya que querían, y ciertamente lo lograron, generar
pánico generalizado por el poder del armamento atómico. Kioto, centro intelectual por excelencia
de la sociedad nipona, estuvo a un tris de ser destruída por Little Boy, pero el mayor tamaño y
población de Hiroshima y el hecho de estar rodeada al noreste y noroeste por montañas, lo que
74
causaría un efecto de enfocamiento de la onda explosiva, sellaron la fatal suerte de la ciudad
fundada en 1589.
Un hecho fortuito que ayudó a salvar a Kioto fue el que el entonces Secretario de Guerra del
gobierno norteamericano, Henry Lewis Stimson (1867-1950), había pasado su luna de miel ahí y le
tenía gran admiración y cariño a la ciudad. Otra macabra anécdota es que, temprano por la
mañana del día del bombardeo, el radar japonés detectó una pequeña formación de aviones
volando a gran altitud hacia el sur de Japón, pero la alerta de bombadeo fue desactivada puesto
que se pensó que esos tres aviones aislados (el Enola Gay, The Great Artiste y el Necessary Evil)
no podrían causar mayor daño. Lo que ciertamente todos esperamos es que nunca jamás se
vuelva a tomar la decisión, por nadie, de utilizar dispositivos nucleares con fines bélicos.
75
LA ESCALA RICHTER Y LOS TEMBLORES DEL 85
Los mexicanos cada año recordamos los terribles sismos del 19 de septiembre de 1985 (¡hace ya
más de 4 lustros!), que cambiaron para siempre a la ciudad de México y a sus habitantes. Vale la
pena recordar algunos aspectos científicos relacionados con uno de los sismos más destructivos de
la historia de México, caracterizado por su gran magnitud, medida de acuerdo con la llamada
“escala de Richter”.
La famosa escala fue inventada por el sismólogo norteamericano Charles Francis Richter, profesor
del California Institute of Technology que, curiosamente, murió en septiembre de 1985 (había
nacido en 1900) a quien se le ocurrió proponer una estructura logarítima (base 10) para la escala
que lleva su nombre. Esto quiere decir que cada número de la escala representa un evento 10
veces mayor que el número anterior, en términos de la amplitud de las ondas sísmicas. La escala
empieza en cero y, en principio, no tiene límite superior, aunque los terremotos más terribles que
hemos medido históricamente llegan hasta cerca de 9 en ésta escala.
En términos generales, un temblor menor a 3.5 en la escala de Richter no lo llegamos sentir los
humanos, aunque los aparatos (y algunos animales, según parece) lo detectan. Entre 3.5 y 5.4 el
movimiento sísmico es evidente para todos, aunque los daños son muy escasos. Entre 5.5 y 6 se
notan ya daños más o menos serios en construcciones civiles. Entre 6.1 y 6.9 el daño es severo
en un radio de más o menos 200 km. alrededor del epicentro. A partir de 7, el temblor se
considera ya uno de gran magnitud, con terribles consecuencias. El mayor sismo del 85 en el
D.F., que se produjo a las 7:17 de la mañana de ese fatídico día, tuvo una magnitud de 8.1, con
epicentro frente a las costas de Guerrero y que causó, según cifras oficiales, alrededor de 4,500
muertos, aunque se habla de que hubieron en realidad cerca de 30,000 víctimas mortales, más
miles de heridos y daños cuantiosos, no solamente en una de las zonas metropolitanas más
pobladas del planeta, ¡sino en un area estimada de 825,000 km2!!
Un fenómeno poco conocido respecto al temblor del 85 y sus réplicas es que se generó un
tsunami, con olas de más de 3 m de altura en las costas del Pacífico, causando también estragos a
la población. Existen otras propuestas de cómo medir la “intensidad” (contra la “magnitud”, como
lo mide Richter) de un temblor, como, por ejemplo, la del italiano Giuseppe Mercalli, que se basa
en el daño que los sismos causan en un lugar específico, ya que los daños dependen de la
distancia al epicentro. Dentro de la tragedia, el temblor de septiembre de 1985 nos permitió
aprender muchísimo de la dinámica de los sismos así como formar una conciencia ciudadana que
ha permitido minimizar, en lo posible, los daños de un evento telúrico mayor.
La pregunta importante, empero, sigue siendo: ¿estamos preparados para otro temblor como ese?
Sirvan estas líneas como un recuerdo de las víctimas de ese temblor y como modesto homenaje a
los innumerables héroes que permitieron que hoy, veintitantos años después, la ciudad de México
siga siendo orgullosa capital de nuestro país.
76
LA DETECTIVESCA CIENCIA DE LOS DOCUMENTOS ANTIGUOS: EL CASO DE CÓDICE 1548
En abril de 1990 la prensa nacional e internacional reportó la beatificación del legendario indígena
mexicano Juan Diego y, el mes siguiente, con motivo de la que fue su segunda visita oficial como
Papa al Santuario de Guadalupe, Juan Pablo II presidió la ceremonia correspondiente. La
santificación se llevó a cabo muy poco después, en el verano del 2003, gracias a una serie de
estudios minuciosos de la Congregación para las Causas de los Santos, del Vaticano, que contó
entre los documentos para tomar tan relevante decisión, con el llamado Códice 1548, también
conocido como Códice Escalada, que se descubrió aparentemente en Querétaro, a mediados de la
década de 1990 y que de inmediato suscitó controversia sobre su autenticidad.
Independientemente de las discusiones histórico-político-religiosas que el Códice 1548 pueda
suscitar como evidencia válida para diversos objetivos, para los fines del presente escrito, hay dos
partes fundamentales de dicho documento que resultan fundamentales: la firma atribuida a Fray
Bernardino de Sahagún, y la fecha, 1548, por supuesto, ya que representan dos de las más obvias
características que darían al Códice una identidad como documento histórico. Desde el punto de
vista técnico, el reto que planteaba el estudio del Códice 1548 no era, de manera alguna, menor,
ya que se trataba de obtener la mayor cantidad de información relevante cuantitativa sin dañar a
la muestra, lo que constituía una de las condiciones obligadas para cualquier técnica que se
planteara.
En términos generales, las metodologías analíticas que se utilizan para realizar análisis
cuantitativos en física o en química hoy en día se basan en la interacción directa con la muestra a
estudiar, en otras palabras, un gran parte de las técnicas disponibles son destructivas, lo que
resultaba, como se ha mencionado, inconcebible para el caso del Códice. Además, el tiempo del
que se disponía para realizar el análisis era muy limitado, lo que obligó a una gran creatividad por
parte del grupo de expertos involucrados en el estudio.
Uno de los primeros estudios que se realizaron fue el de un análisis fotográfico detallado de toda
la superficie del Códice, utilizando tanto luz blanca como filtros de colores (verde, azul, rojo,
amarillo, etc.) para obtener un mapa cromático de la muestra. Con esos resultados, se realizó un
análisis estadístico mutivariado de la distribución de colores en cada región del Códice, es decir,
dada una porción de su superficie, cuánto rojo contenía, cuánto azul, etc., a través de técnicas de
procesamiento digital de imágenes. El resultado es que todo el Códice es homogéneo en su
distribución cromática, excepto las zonas que corresponden a la firma y a la fecha, que
presentaban distribuciones claramente diferentes al resto y distintas entre sí.
El siguiente paso fue el utilizar espectroscopia infrarroja para intentar determinar los diferentes
compuestos químicos, tanto de los materiales constitutivos del Códice como de los pigmentos
usados para las ilustraciones ahí contenidas. El método rutinario para preparar muestras para su
77
análisis en FTIR (Fourier Transform Infrared Spectroscopy) consiste en pulverizar el espécimen a
estudiar y mezclarlo con KBr, para entonces producir una pastilla compacta, procedimiento
imposible para el caso que nos ocupa, por lo que se decidió utilizar la técnica conocida como ATR
(Attenuated Total Reflectance), que permite estudiar muestras in situ.
Paralelamente, se realizó un estudio en las fuentes históricas disponibles sobre los materiales que,
en el siglo XVI, se utilizaban para fabricar esos documentos, así como las metodologías de
preparación de tintas y de curtido de pieles.
El resultado general se puede resumir en dos puntos fundamentales:
1.-los análisis de infrarrojo son consistentes con el tipo de materiales que contendría un
documento tipo códice del siglo XVI y
2.-toda la superficie del Códice 1548 es homogénea y similar, excepto, de nuevo, la fecha y la
firma, que presentan características claramente distintas.
A pesar de la valiosa información que los resultados científicos aportaban, seguía siendo menester
el contar con datos cuantitativos que permitiesen aventurar alguna hipótesis sobre la edad
probable del Códice, por lo que se recurrió a una técnica de física nuclear: PIXE (Particle-Induced
X-Ray Emission), cuyo principio de operación es, fundamentalmente, el hacer incidir partículas
nucleares (protones, por lo general), sobre la muestra a estudiar la que, como resultado, emite
rayos-X característicos de cada elemento químico, con lo que se puede realizar un análisis con
resoluciones de partes por millón (o mayores, incluso) de manera no destructiva, lo que resulta
extremadamente atractivo y conveniente para una gran variedad de aplicaciones.
El acelerador van de Graaf de 5.5. MeV (¡sí, millones de electrón-volts!) del Instituto de Física de
la Universidad Nacional Autónoma de México, en Cd. Universitaria, fue el aparato empleado para
estos estudios, con las modificaciones necesarias para poder sacar al aire el haz de protones y, así,
evitar el introducir el Códice al vacío que normalmente se requiere en estos dispositivos.
En nuestro caso particular, además de corroborar, de manera independiente, varios de los
resultados semi-cuantitativos del FTIR, ya mencionados, PIXE permitió analizar si existían trazas
significativas de Cr en el cuero del que está constituido el Códice, ya que los estudios históricos
realizados por nuestro grupo revelaron que el curtido de pieles no utilizó sales de cromo antes de
fines del siglo XVIII, por lo que la presencia de ese elemento químico hubiese sido fuerte evidencia
de que el 1548 no es un documento del siglo XVI, lo que, a pesar del cuidadoso análisis de PIXE,
no fue el caso, al no detectarse ni Cr ni ningún elemento químico no acorde con la supuesta fecha
del Códice en cuestión.
De nuevo, y de manera muy interesante, PIXE reveló una gran homogeneidad en la composición
elemental del Códice 1549, con excepción de la fecha y de la firma, que mostraron mapas de
composición química diferentes. Los estudios fueron realizados por un grupo de expertos de
diversas disciplinas, trabajando de manera independiente y sin conocimiento de los resultados
parciales de los otros, para evitar cualquier posible influencia personal.
78
Como resumen global, se puede concluir que:
1.-no es posible, con las técnicas empleadas, y bajo las severas restricciones ya mencionadas,
demostrar que NO se trata de un documento del siglo XVI y
2.-todas las técnicas mostraron gran homogeneidad del Códice, excepto en la firma y la fecha, que
son claramente diferentes.
Todo lo anterior puede arrojar luz sobre el interesante Códice 1548, pero también abre discusiones
muy serias sobre si la fecha y la firma fueron añadidas en posteriormente o bien son coetáneos al
documento, pero elaborados por otra(s) persona(s).
79
DESENREDANDO LA TELARAÑA: LOS CRISTALES LIQUIDOS
Seguramente todos los lectores han escuchado, más de una vez, las palabras “cristales líquidos”,
asociadas a computadoras, televisores y demás artefactos de la tecnología moderna. Pues bien,
para comenzar, un cristal liquido es en realidad un estado de la materia, intermedio entre aquel en
el que las moléculas están desordenadas (líquidos) y aquel estado donde los átomos están
ordenados periódicamente (cristales). Quien acuñó el término, en 1889, fue el físico alemán Otto
Lehmann y, en efecto, si bien fue el precursor de las actuales pantallas de cristal liquido, éstas se
inventaron apenas en la década de 1960, en la compañía norteamericana RCA, aunque con
severas limitaciones visuales. Sin embargo, las pantallas electrónicas no constituyen,
probablemente, la aplicación más antigua (y fascinante) de los cristales líquidos.
En efecto, la seda de araña es, sin lugar a dudas, un material de propiedades asombrosas,
perfeccionado por la selección natural a lo largo de cientos de millones de años. Esa seda está
formada principalmente por una proteína llamada fibroína, que se produce en unas glándulas
epiteliales modificadas, situadas en el extremo posterior del cuerpo de la araña. Se han descrito
hasta siete tipos distintos de estas glándulas. Según van avanzando a lo largo de la glándula, las
largas moléculas de espidroína, la fase cristalina de la proteína, se van organizando, hasta formar
un verdadero cristal líquido. La seda se produce en forma de proteína soluble en agua y se
polimeriza al contacto con el aire. Es, de hecho, un biopolímero, trenzado para formar fibras
extremadamente resistentes y elásticas.
Una fibra de seda es mucho más resistente que un cable de acero de similar grosor, y muchísimo
más elástica. Se dice que un cable de seda de araña del grosor de un lápiz podría detener a un
Boeing 747 en pleno vuelo. La singular estructura molecular de las fibras de seda permite que
puedan estirarse hasta 135% de su longitud original sin romperse. Todo ello en un material de
origen natural, biodegradable e insospechado. No es sorprendente que el hombre haya intentado,
desde hace décadas, usar este singular material para sus fines tecnológicos. Por ejemplo, el
famoso MIT (Massachussets Instite of Technology) tiene propuestas para crear un material similar
a la seda de araña, sin usar técnicas genómicas. La multinacional Dupont, líder mundial en la
fabricación de fibras, intentó expresar el gen de la fibroína de araña en bacterias y levaduras, con
resultados bastante decepcionantes. El equivalente artificial más parecido, el Kevlar, la fibra
sintética de la que se fabrican los chalecos anti-balas, es tres veces menos resistente y de mucha
menor elasticidad que la seda de araña.
Los intentos de criar arañas en granjas, del mismo modo que se crían los gusanos de seda, han
resultado siempre desastrosos, dado el carácter agresivo y territorial de prácticamente todas las
especies de arácnidos. Además, la araña recicla su telaraña y está continuamente comiéndose las
sedas que se han quedado viejas, para aprovechar su contenido en proteínas. Por tanto, si se
desea obtener gran cantidad de seda para fines comerciales, es necesario recurrir a soluciones
biotecnológicas, intentando su fabricación mediante otro tipo de organismo, más adecuado para su
crianza y que no destruya la seda que produzca.
80
Los científicos de Nexia, una compañía biotecnológica, intentaron una idea mucho más ambiciosa
basándose en las semejanzas que existen entre las células productoras de seda de las arañas y las
células productoras de leche de los mamíferos. Ambos tipos celulares proceden de células
epiteliales, modificadas con el fin de fabricar grandes cantidades de proteína y segregarlas al
exterior. Nexia es uno de los líderes mundiales en biotecnología de animales, y hace un par de
años, había desarrollado una estirpe de cabras de rápido crecimiento denominadas cabras BELE
(Breed Early - Lactate Early, o "crianza rápida – producción de leche rápida"). El intento de la
fabricación de seda de araña en cabras es únicamente el más reciente y, quizás, el más
espectacular, pero en ningún caso es el único.
Las fibras de seda de araña constituyen un material enormemente atractivo. Su elevada resistencia
y deformabilidad les permite almacenar gran cantidad de energía de que pueden después disipar,
de modo que son especialmente apropiadas para absorber impactos, lo que nos hace pensar en
aplicaciones futuras de ropa y calzado ligeros, resistentes al desgaste, chalecos antibalas,
cinturones de seguridad, cuerdas de paracaídas, redes de cables de suspensión de puentes,
paneles inoxidables para barcos y vehículos de motor, parachoques de auto y para preparar
nanocables conductores. También es posible preparar una nanofibra óptica hueca: se recubre la
fibra de seda con un silicato y se cuece a 420°C. La seda se quema y el silicato se convierte en
sílice, encogiéndose a 1/5 de su diámetro original. Así se consigue una fibra de vidrio hueca, de 1
micrómetro de diámetro. Varios grupos han patentado proteínas de la seda, pero ninguno ha
conseguido hilar tales proteínas en algo que se parezca a la fibra natural.
81
EL CICLO DEL CARBÓN
Sin lugar a dudas, el carbón (símbolo: C) es el elemento químico fundamental para la vida en
nuestro planeta, tal y como la concebimos hoy. Para empezar, nuestro propio cuerpo está
constituido en buena parte de C, el 18%, para ser precisos, con 65% de oxígeno, 9.5% de
hidrógeno y 3.2% de nitrógeno, con el resto correspondiendo a otros elementos como calcio,
fósforo, potasio, etc. y, si consideramos nuestro peso seco, es decir, sin tomar en cuenta el agua,
entonces cerca del 50% de nosotros es carbón. Más aún, uno de los factores que sustentan a la
Tierra misma es, precisamente, el llamado Ciclo del Carbón. En efecto, el carbón realmente se
“mueve” constantemente entre la biosfera, la atmósfera, los océanos y los suelos que componen
nuestro hábitat, de manera tal que la vida depende de tal ciclo.
A todos nos resulta familiar la manera cómo la atmósfera y la vegetación intercambian C a través
de la fotosíntesis, en la que un compuesto del carbón juega un papel básico: el CO2, que también
se encuentra disuelto en el agua de los mares y contribuye, de esa forma, a mantener el
ecosistema global. De hecho, los océanos son, literalmente, gigantescas máquinas de absorción
de carbón ya que, por ejemplo, se ha estimado por los especialistas que la cantidad neta anual de
C que los mares del planeta absorben es del orden de 2.5 Gt (1 GigaTonelada = 1000000000000
kg). Desde el punto de vista biológico, el ciclo del C está íntimamente ligado a las cadenas
tróficas: las plantas convierten el CO2 atmosférico en carbohidratos simples, que los animales que
comen plantas convierten en substancias orgánicas más complejas, que a su vez sirven para
alimentar a los animales que se comen a los herbívoros, etc., etc. Al final, cuando el último
organismo de la cadena muere, de la descomposición de su cuerpo surge, de nuevo CO que se va
a la atmósfera, reiniciando así, el ciclo del carbón que, empero, es más complicado, ya que,
durante su vida, varios de los organismos de la cadena que se ha mencionado, respiran, con lo
que emiten dióxido de carbono también.
Un asunto importante a recordar es el que el ciclo del carbón es cerrado, lo que quiere decir que la
cantidad de carbón es, por razones naturales, constante y sólo se está transformando, como
hemos visto, constantemente. Por desgracia, la acción humana se ha convertido en un factor
determinante en el ciclo del carbón, ya que, a través del uso de los combustibles fósiles, es decir,
derivados del petróleo, se introducen cantidades importantes de compuestos de C (dióxido y
monóxido) al ciclo natural, a un nivel de alrededor de 6.1 Gt cada año lo que, por supuesto, pone
en aprietos a los océanos para intentar mantener el equilibrio dinámico del sistema. La
deforestación también afecta de manera muy importante al ciclo del carbón, ya que, al tener
grandes extensiones de tierra sin plantas que intercambien CO2 se altera el ritmo adecuado al que
se debe absorber y emitir C entre la atmósfera y la superficie.
Como consecuencia de lo anterior, importantes grupos ecologistas estiman que la cantidad de CO2
atmosférico se ha incrementado alrededor del 30% desde mediados del siglo XIX, o sea, a partir
de la Revolución Industrial, que marcó el inicio del uso masivo de los combustibles fósiles. Esto
82
nos lleva a reflexionar sobre las medidas a tomar para mantener la vida en este planeta, que
deben incluir investigación científica básica sobre los detalles del ciclo del carbón, que tiene varios
aspectos fundamentales que desconocemos, el impulso a nuevas tecnologías para la eliminación
de las actuales que emiten dióxido de carbono, generación de nuevos sistemas de transporte y
generación de energía y, sobre todo, la creación de una conciencia entre todos los seres humanos
de que somos parte de un ciclo natural cuya alteración puede resultarnos fatal.
83
EL COMETA MÁS FAMOSO DEL MUNDO
Durante noviembre de 1680 los habitantes de Europa fueron testigos de la aparición de un
cometa, lo que no hubiese tenido mayor relevancia de no ser porque en diciembre de ese año,
escasas dos semanas después de que dicho cometa hubiese desparecido de la vista del mundo, un
segundo cometa, mucho más conspicuo que el anterior, hizo acto de presencia en los cielos de
buena parte del orbe conocido de entonces. Este segundo objeto celeste era inmenso: su cola
tenía un ancho de cerca de cuatro veces el diámetro aparente de la Luna y se extendía por más de
setenta grados de la bóveda celeste.
Todos los astrónomos de entonces, coincidieron en el obvio hecho de que dos cometas habían
hecho, por pura coincidencia, su aparición en fechas tan cercanas. Todos….menos uno: John
Flamsteed, el Astrónomo Real de Inglaterra, que creía que se trataba del mismo cometa ¡qué se
había regresado al pasar cerca del Sol!, afirmación que, por decir lo menos, contradecía todo lo
que se pensaba acerca del orden del Universo en esos días. Flamsteed, que era un hombre
inteligente y decidido, buscó la opinión de uno de los científicos más famosos de su tiempo, Isaac
Newton, a quien le escribió pidiendo su opinión acerca de su idea revolucionaria. Newton
encontró serias objeciones al planteamiento de Flamsteed, que creía que el cometa no giró
alrededor del Sol, sino que se había regresado antes, aunque no resolvió adecuadamente el
problema de cuál era la posible trayectoria del cometa (que es elíptica). Lo curioso es que, para el
tiempo de su correspondencia sobre cometas con Flamsteed, Newton había ya desarrollado las
matemáticas del movimiento orbital de los planetas, pero no se le ocurrió que tales principios
físicos se deberían aplicar también a los cometas, a los que consideraba, como la inmensa mayoría
de sus contemporáneos, objetos “extraños” al sistema solar y, por tanto, no sujetos a sus leyes.
Fue en 1705, cuando un amigo de Newton, Edmund Halley (1656-1742), se dio cuenta que las
leyes de movimiento de Newton se podían aplicar a todo objeto, lo que le llevó a concluir que esos
dos cometas de 1680-81 eran, en efecto, uno sólo, que describía una órbita elíptica con un período
de alrededor de entre 76 y 79 años. De sus cálculos, Halley demostró además que otros cometas
que se habían observado en 1531 y 1607 no eran sino el mismo cometa del que se discutió en
1680 y predijo que aparecería de nuevo en los cielos en 1758, lo que en efecto ocurrió. En su
honor, este cometa lleva su nombre y su denominación oficial es 1P/Halley, aunque todo mundo lo
conoce simplemente como Halley. A partir de los cálculos matemáticos que hoy en día podemos
realizar con gran precisión, sabemos que varios de los antiguos reportes de astrónomos babilonios,
chinos y japoneses sobre cometas, corresponden al Halley, como el del año 240 A.C., uno de los
primeros reportes históricos sobre cometas que tenemos. Más aún, algunos científicos han
inclusive sugerido la posibilidad de que la famosa Estrella de Belén, de los relatos bíblicos, sea en
realidad nuestro cometa, aunque existe una gran controversia entre los especialistas sobre esta
afirmación. Lo que sí se ha determinado fuera de duda es que la ocasión en la que el Halley se ha
encontrado más cerca de nuestro planeta fue en el año 837 de nuestra era, cuando pasó a menos
de 5 millones de kilómetros de la Tierra.
84
El impacto que ha tenido el Halley en la historia humana se puede apreciar hasta en el arte, ya
que lo muestra, por ejemplo, el famoso tapiz de Bayeux, importante obra histórica europea del
año 1066, así como se le puede apreciar en alguna obra del famoso pintor italiano Giotto di
Bondone, que lo pintó a raíz de su visita a nuestro sistema solar en 1301. Las más recientes
apariciones del Halley fueron en 1835, 1910, primera ocasión en la que se le pudieron tomar
fotografías, y, por supuesto, en 1986, como algunos aficionados a la astronomía recordarán. Ojalá
que todos los amigos de ésta columna puedan presenciar la próxima visita del cometa más famoso
de la historia, en el año 2061.