Puebla, Pue. compartidos - Consejo de Ciencia y...

64
saberes compartidos Revista de Divulgación Científica, Tecnológica y Humanística año 1 no. 1 • 2007 Puebla, Pue. ¿Acaba en realidad la Mecánica Cuántica con la realidad? La era genómica y el secreto de la diversidad La anáfora: una maravilla del lenguaje

Transcript of Puebla, Pue. compartidos - Consejo de Ciencia y...

saberes compartidos

Revista de Divulgación Científica, Tecnológica y Humanística

año 1no. 1 • 2007

Puebla, Pue.

¿Acaba en realidad la MecánicaCuántica con la realidad?

La era genómica y el secretode la diversidad

La anáfora: una maravilla del lenguaje

Enero-Junio 2007 Directorio/Sumario3

Núm. 1año 1 • Enero-Junio 2007

Directorio SumarioDr. Jaime Díaz HernándezDirector General del Consejo de Ciencia y Tecnología del Estadode Puebla

M. A. Patricia Yanett MartínezLic. Agustín Pacheco LunaDr. Benito Ramírez ValverdeDr. Eduardo Mendoza TorresDr. Gregorio Hernández Cocoletzi Lic. Rubén Aréchiga RoblesConsejo Editorial

Dr. Gerardo Francisco Torres del Castillo Dr. José de Jesús Pérez Romero Dr. José Luis Carrillo Estrada Dr. Jenaro Reyes Matamoros Dr. Umapada Pal Dr. Eduardo Miguel Brambila Colombres Dr. Jaime Eduardo Estay Reyno M.C. Germán Sánchez Daza Dr. Michal W. Borys Dr. Nestor Estrella Chulim Dra. Griselda Corro Hernández Dr. Mario García Carrasco Comité Editorial

Fís. Pedro Ochoa SánchezEditor

Lic. Graciela Juárez GarcíaLic. Verónica Macías AndereCorrección de Estilo

Fabiola Mayela Herrerias AriasDiseño y Formación Editorial

Saberes Compartidos es una revista de la comunidad académica y de investigación del Estado de Puebla, coordinada por el Consejo de Ciencia y Tecnología del Estado de Puebla.29 Sur 718, Col. La Paz, CP. 72160 Puebla, Pue.Tel/Fax: 01(222)249 76 22 / 231 58 07.www.concytep.pue.gob.mxISSN (en trámite)

4

EditorialRené Druker Colín

Artículosde Divulgación

¿Acaba en realidad la Mecánica Cuántica con la realidad?

Luis de la Peña Auerbach/Andrea Valdés Hernández

La era genómica y el secreto de la diversidad

Rebeca Martínez Contreras

El Observatorio Astrofísico Nacional de Tonantzintla: 65 años explorando el universo

Raúl Mújica García

El Observatorio Astrofísico “Guillermo Haro”José Ramón Valdés Parra

¿Qué ondas con el Cosmos? Abraham Luna Castellanos

El trabajo experimental: una alternativa para la construcción

del conocimiento?José G. Vázquez Luna

La aplicación de los estudios en Ciencia, Tecnología y Sociedad

(CTS) en el Instituto Tecnológico de Puebla (ITP)

María Evelinda Santiago Jiménez

La anáfora: una maravilla dellenguaje

Raúl Morales Carrasco/Efrén A. Osorio Ramírez

¿Que son los agujeros negros?José Enrique Barradas Guevara

Dr. José Antonio de la PeñaBeatriz Guillen Ramos

Química Imaginada: Reflexiones sobre la Ciencia

5

11

Entrevista

Reseña

17

22

27

32

44

48

62

57

39

Enero-Junio 20074

Editorial

EditorialEn este país, en el que poco se lee y aun menos se lee y se conoce sobre ciencia, no podemos más que

congraciarnos con el nacimiento de una nueva publicación, sobre todo si su designio es la divulgación de los avances de la investigación científica, humanística y tecnológica. Mantener a nuestra sociedad al tan-to de dichos avances, es indispensable si queremos ser parte de las sociedades del conocimiento y mejorar nuestra economía.

El nombre de esta nueva revista expresa con claridad su propósito: Saberes Compartidos, es decir, un espacio de comunicación que albergará a los tres grandes campos del conocimiento: la ciencia, las humanidades y la tecnología. Reunir estos grandes campos resulta un gran reto porque estamos mal acostumbrados a leerlos por separado. Se pensaba que la ciencia podía por ejemplo, resolver el problema del acceso y la distribución del agua sólo inventando los mecanismos y procedimientos para purificarla o desalinizarla, no obstante, se requiere de la tecnología para producir los equipos adecuados y se precisa de las humanidades porque solu-cionar el problema del acceso y la distribución del agua, no es posible sin atacar la desigualdad social.

Bajo esta perspectiva sistémica de la divulgación, Saberes Compartidos logrará que sus lectores se aproxi-men de una manera integral a los avances y resultados que produce la investigación. A su vez, les advertirá sobre la necesidad de acceder a diferentes especialidades y disciplinas para comprender mejor el mundo en el que viven, así como para tomar decisiones informadas sobre ellos mismos, sus familias y su entorno. Se augura que tal enfoque de la divulgación científica evitará que ésta se vuelva sólo una publicación de y para la propia comunidad académica y que encuentre sentido y resortes en la población en general.

Este primer número ilustra el camino: no sólo hay artículos en torno a los alcances de distintas disciplinas; también, contiene artículos con enfoques multidisciplinarios; y otros más, que ponen a dialogar a la ciencia, con las humanidades.

Otro asunto que hay que destacar es que si queremos ser competentes y competitivos en un mundo globa-lizado, requerimos conocer nuestras habilidades y capacidades atendiendo cada una de las zonas geográfi-cas del país y no pensando que somos un todo homogéneo. Así, difundir lo que se hace en materia ciencia y tecnología por regiones, resulta fundamental para tales fines. Saberes Compartidos es un esfuerzo de comunicación que coordina el Consejo de Ciencia y Tecnología del Estado de Puebla y tendrá una periodicidad semestral, con un número aproximado de 60 páginas, a la que le deseamos larga vida y enhorabuena.

Dr. René Drucker ColínInvestigador Emérito de la UNAM

Enero-Junio 20075

Artículos de Divulgación

¿Acaba en realidad la Mecánica Cuántica

con la realidad?Luis de la Peña Auerbach Andrea Valdés Hernández

Recientemente, la filosofía de la ciencia ha encontrado un espacio abierto a la verifi-

cación de sus principios en los laboratorios de física cuántica. Al menos eso es lo que sugieren algunos artículos de divulgación y especializa-dos. La filosofía, esa rama del pensamiento que teníamos como la tarea más abstracta y alejada de los disturbios del diario ir y venir, ha sido in-troducida a los laboratorios, y una vez ahí, pues-ta a prueba vis à vis la física. La conclusión, se-gún nos cuentan, es que el realismo (al menos su versión natural, es decir local) no refleja el verdadero comportamiento del mundo, como habían supuesto los físicos (o sus antecesores, los filósofos naturales) durante dos o tres mi-lenios. ¿Cómo ocurrió esto?, ¿cómo puede ser que lo que alguna vez fue motor y guía para el desarrollo de la física ahora muera en manos de esta ciencia? Empecemos por ver qué es lo que sucede dentro del laboratorio.

“… el realismo no refleja el verdadero comportamiento del mundo,como habían

supuesto los físicos (o sus antecesores,los filósofos naturales) durante

dos o tres milenios.“

El experimentoImaginemos una molécula o cualquier otro cuer-pecillo que, debido a las fuerzas que operan en su interior, en cierto momento se divide en dos partes, las cuales se separan y alejan de inme-diato hasta independizarse. La naturaleza espe-cífica de la partícula original que se destruye no es relevante, con tal de que sea suficientemente pequeña como para que su comportamiento deba ser descrito por la mecánica cuántica y no por la física clásica. Fuera de esto, lo demás resul-ta secundario, al menos en principio.

Con el afán de simplificarnos la vida —es-fuerzo que compartimos con los físicos que realizan el experimento— consideraremos la situación más sencilla posible: la molécula ini-cial no estaba rotando al momento de romper-se, de manera que su giro (el término técnico apropiado es impulso angular) era nulo. Las leyes físicas indican que esta cantidad debe conservar su valor aún después de haberse di-vidido el cuerpo, así que las partes resultantes salen girando, pero lo hacen en sentidos con-trarios para asegurar que el giro total (la suma de ambos impulsos angulares) siga siendo cero.

Enero-Junio 20076

Artículos de Divulgación

Asimismo, la molécula original se encon-traba en reposo, es decir, su movimiento (su impulso lineal) era también cero. Ésta es otra cantidad que se conserva, de modo que una de las partículas (le asignaremos el número 1), sale hacia una dirección, mientras que la otra (la 2) se dirige precisamente a la opuesta, de tal forma que la suma de sus movimientos (el im-pulso lineal total) es cero, como al inicio.

El experimento que nos va a interesar, con-siste en recoger cada una de las partículas en sendos detectores que miden si el corpúsculo gira a la derecha o a la izquierda. Cuando se re-cibe una partícula se envía una señal al detec-tor colocado en el lado opuesto, que lo man-tiene en alerta y dispuesto a recibir la pareja, durante cierto intervalo, el cual es suficiente-mente largo para darle tiempo a la pareja de arribar, pero suficientemente corto para evitar que se detecte una partícula que pertenece a otro par, pues en el experimento son muchas las moléculas que se dividen. Y así, se analizan las mediciones de los detectores, acumulando la información necesaria como para realizar un estudio estadístico confiable de los resultados.

El enredo de los estados enredadosEn nuestro entorno de cuerpos grandes, cuyo comportamiento se rige por la física clásica, los resultados de tan simple experimento nos parecerían completamente previsibles y natu-rales, pero el caso es que estamos tratando con objetos diminutos, y la mecánica cuántica, una vez más, desafía nuestra intuición. Cuando se “prepara” un sistema cuántico como el formado por la pareja de partículas de nuestro ejemplo, que puede tener dos o más comportamientos diferentes (en este caso la partícula 1 gira a la derecha y la 2 a la izquierda o viceversa), no es posible saber a priori en cuál de dichos estados se encuentra el sistema. Todo lo contrario, la mecánica cuántica sólo nos permite hacer des-cripciones probabilistas a partir de amplitudes de probabilidad1 (la probabilidad se obtiene al multiplicar entre sí estas amplitudes). En el caso de sistemas como el de nuestro experimento, las amplitudes de probabilidad se construyen sumando las diferentes situaciones que pue-den presentarse, dando lugar a unos estados

característicos de la mecánica cuántica conoci-dos como estados entrelazados o enredados. Y entonces se presenta un fenómeno que suele interpretarse de manera sorprendente. Para en-tenderlo, volvamos con la pareja de partículas.

El estado enredado que describe a nuestro sistema contempla dos posibilidades exclu-yentes: la partícula 1 gira hacia la derecha y la 2 hacia la izquierda, o viceversa, aunque no necesariamente ambas deben tener la misma probabilidad de realizarse. Cuando se mide el sentido del giro de una de las partículas, unas veces se encuentra uno de los resultados y otras el otro; esto ocurre de manera un tanto caprichosa (mejor dicho, azarosa, determinada tal vez por un cúmulo de factores desconoci-dos e impredecibles), pero finalmente los re-sultados aparecerán en una proporción espe-cificada por los correspondientes pesos que se le asignaron a cada una de las posibles situa-ciones. Lo que hay que destacar aquí, es que el hecho de haber medido el giro de una de las partículas conduce a un repentino cambio en la descripción del sistema: antes de que la de-tección se efectuara, la descripción correspon-día a la coexistencia de ambas posibilidades; una vez efectuada la medición conocemos con certeza el sentido de giro de ambas partícu-las, ya sabemos cuál de las dos posibilidades se realizó y por lo tanto nuestro sistema deja de estar descrito por el estado enredado origi-nal. Así, el acto de medir nos obliga a cambiar la descripción. ¿Qué ocurre?, ¡tal parece que lo que la mecánica cuántica no nos puede decir (el estado del sistema antes de hacer medicio-nes sobre él) nos lo resuelve el acto de medir! Lo que sucede es que nos encontramos frente a un problema que es tema de debate vigente. Si nos apegamos a la idea, como lo hemos esta-do haciendo, de que la mecánica cuántica solo nos provee una descripción del estado cuánti-co, entonces la conclusión anterior no nos debe producir mayor sorpresa2. Sin embargo, es muy frecuente considerar que lo que aquí hemos llamado descripción, corresponde más bien al estado mismo del sistema. Con esto se quiere decir que tanto el estado enredado, asociado al sistema antes de que las partículas sean detec-tadas por los medidores, como el estado final

Enero-Junio 20077

Artículos de Divulgación

que resulta de haber hecho la medición, refle-jan completamente el estado físico del sistema, sin que sea legítimo decir nada más sobre cada uno de dichos estados. Desde esta perspectiva, no nos queda más remedio que concluir que el acto de medir es un “desenredador” natural. Aunque ahí no terminan las dificultades.

Repasemos de nuevo el experimento, pero ahora con la mirada de esta nueva interpreta-ción en la que la teoría cuántica nos permite conocer, no una descripción del sistema, sino su estado mismo: sabemos ya que una par-tícula se va hacia la derecha en alguno de los estados de rotación (desconocido hasta el mo-mento), mientras que la otra se dirige al lado opuesto y gira en sentido contrario. Como las dos situaciones pueden presentarse, el estado del sistema es una superposición de ambas. Ahora medimos la rotación de una de las partí-culas (la cercana) y encontramos un resultado; esto nos dice que la segunda partícula gira en sentido inverso, y con ello que su estado se ha transformado (para nosotros) en uno de rota-ción bien definida. Según esta visión, que, in-sistimos, es la dominante, el estado de la partí-cula lejana se ha reducido (o colapsado, como se dice comúnmente) del inicial al final sin que hayamos actuado sobre ella de manera alguna (recordemos que la medición la hicimos sólo sobre el corpúsculo cercano, arbitrariamente lejos del otro, lo que en principio elimina toda influencia entre las partículas).

Desde la perspectiva usual es claro que nada es claro: ¿cómo podríamos entender que por medir aquí, modificamos el estado del corpúsculo allá, siendo que éste se encuentra totalmente libre de influencias del primero? Esto nos hace testigos de un fenómeno que se conoce como no localidad, y que es completa-mente ajeno a nuestra experiencia cotidiana, o ¿quién ha visto que si empuja su automóvil sea el coche del vecino el que se mueve? Nadie, por-que en toda la física clásica, que describe muy bien nuestro entorno diario, las consecuencias de una acción son locales, se manifiestan ahí donde se ejercen, y no pueden tener influen-cia alguna sobre un objeto que se encuentra arbitrariamente lejos. Sin embargo, cuando los

constituyentes de un sistema cuántico están entrelazados, existe una correlación recíproca entre ellos, que sugiere que esta propiedad de localidad puede no satisfacerse.

“...¿cómo podríamos entender quepor medir aquí modificamos el estado del corpúsculo allá, siendo que éste se

encuentra totalmente libre deinfluencias del primero?”

El lector podría pensar: “muy bien, enton-ces adoptemos el lenguaje que se ha estado empleando aquí, referido a la descripción del sistema, y nos quitamos de todos estos líos”; pero no es tan sencillo. Incluso apegándonos a esta interpretación siguen existiendo algunas dificultades. El objetivo de una descripción es, como su nombre lo indica, describir, y aunque una descripción no está necesariamente suje-ta a restricciones físicas, sí deseamos que ella corresponda a la situación física que estamos analizando. No podemos pretender que cam-bie una sin que ello venga acompañado de un cambio en la otra. Es por eso que intentamos es-tablecer una correspondencia entre las propie-dades que posee el sistema y las herramientas o conceptos con que lo describimos. Basados en esta idea, podemos pensar que la indeter-minación del sentido de giro de cada una de las partículas antes de efectuar la medición es producto, no de que el sistema está indetermi-nado per se, sino de que sus componentes po-seen cierta información que escapa a nuestra descripción y que determina a priori el resul-tado que obtendremos al medir. Esta postura conduce a suponer la existencia de variables ocultas, que no son más que aquellas propie-dades que no están contempladas en nuestra descripción actual y que habrán de proporcio-nar la información faltante para restablecer el determinismo, es decir, para garantizar predic-ciones bien determinadas en cada caso.

El teorema contra el principioLo que hemos visto hasta ahora es que nuestro experimento deja entrever efectos no locales en algunos sistemas cuánticos y pone de ma-nifiesto la ausencia de propiedades adecuadas que determinen totalmente el estado del sis-

Enero-Junio 20078

Artículos de Divulgación

tema físico. Sin embargo, de acuerdo a nues-tra discusión, nos gustaría tener a la mano una teoría que arrojara resultados locales y predic-ciones bien definidas. ¿Es eso posible? Para sa-berlo, veamos qué nos obsequió el físico irlan-dés, John Bell en 1964.

En ese año vio la luz un teorema que, pese a su aparente sencillez, se ha convertido en el centro de atención de un sinnúmero de investi-gaciones, tanto teóricas como experimentales. Nos referimos al teorema de Bell, el cual involu-cra un sistema de dos partículas independientes pero entrelazadas, como el que hemos estado analizando, y establece que si construimos una teoría local que tome en cuenta la existencia de variables ocultas, de tal manera que resulte también determinista (es decir, Bell presupone que estas variables que portan la información de la que adolece la mecánica cuántica como hoy la conocemos son locales), entonces dicha teoría resulta incompatible con las prediccio-nes de la mecánica cuántica. En otras palabras, un sistema regido por la mecánica cuántica no puede satisfacer simultáneamente las deman-das de determinismo y localidad, si bien quizá sólo una o la otra. Al parecer, de acuerdo con este resultado, nos hemos quedado sin una so-lución que dé salida a ambas peticiones.

Debemos hacer notar que en este contex-to, entendemos la noción de determinismo como una manifestación del realismo y éste, a su vez, como una postura que otorga a los sistemas físicos propiedades que le son intrín-secas y cuya existencia no depende de nues-tro conocimiento sobre ellos.3 Consideramos que la posición de una partícula es una de es-tas propiedades, que tal ubicación existe, in-dependientemente de si sabemos cuál es; de esta manera estamos convencidos que una partícula que se desplaza lo hace recorriendo continuamente todos los puntos intermedios que unen su posición inicial con la final, lo que nos permite tener una representación, una imagen de su movimiento. Así, rechazar una descripción determinista (y realista) implica la renuncia a una idea tan fundamental como la de que los electrones (como las canicas) se mueven en el espacio siguiendo una trayecto-

ria que recorren punto a punto. Por otro lado, como ya mencionamos, abandonar una des-cripción local significa admitir que es posible picar aquí una parte del sistema, y que sea la otra parte, lejana e independiente de la pri-mera, la que reacciona a esta perturbación.

“Las demandas de realismo y separabilidad son … irrenunciables… por lo que sólo podríamos aceptar tal renuncia cuando el peso de los hechos nos obligará

de manera inapelable a ello.”

De acuerdo con el teorema de Bell, un sis-tema cuántico no cumple con la demanda de realismo, no cumple con la de localidad o, peor aún, no es compatible con ninguna de las dos. Puesto a escoger, ¿qué haría el lector?, ¿admite como “aceptable” lo que de entrada nos parece inaceptable?

Nuestra ciencia constantemente se pone a prueba a sí misma, demandando que las pre-dicciones de sus teorías se apeguen a los re-sultados que arroja la naturaleza. Cuando no ocurre así, la teoría debe ser modificada y sus-tituida por otra que dé cuenta de lo que se ma-nifiesta en el laboratorio. La misma mecánica cuántica surgió así, de un intento por explicar lo que con la física clásica no podía entender-se. Pero ese nacimiento fue un tanto peculiar; los hechos se desarrollaron de tal manera que aunque su formalismo daba grandes resulta-dos y no dejaba lugar a dudas de procedimien-to, sus interpretaciones no han logrado salir de la sala de debate. No es de extrañar entonces, que un teorema nos invite (con frecuencia con ayuda del laboratorio) a rechazar unas teorías y reforzar otras. Pero lo que el teorema de Bell ha puesto en juego va más allá de la teoría física: ahora la mecánica cuántica, una disciplina de lectura siempre en discusión, está lista para po-ner en jaque un principio filosófico tan sólido y fundamental como el de realismo local.

Y el vencedor es...Las demandas de realismo y separabilidad4 son, desde la perspectiva que ofrece el conoci-miento general, tanto científico como común, irrenunciables. Abandonar cualquiera de ellas

Enero-Junio 20079

Artículos de Divulgación

nos conduce a una visión del mundo que va en contra de principios en los que la misma cien-cia se ha apoyado para su desarrollo, por lo que sólo podríamos aceptar tal renuncia cuando el peso de los hechos nos obligará de manera inapelable a ello. Pero eso no ha ocurrido.

Desde que Bell publicó su teorema y hasta el día de hoy, los investigadores se han reuni-do en el laboratorio, han preparado sistemas cuánticos como el de nuestro ejemplo y se han dado a la tarea de ver si se cumplen las predicciones cuánticas o no. Si bien los ex-perimentos muestran resultados afirmativos, sus análisis carecen de argumentos contun-dentes para acabar con la demanda de rea-lismo local, pues ninguno de los hasta hoy realizados es incontrovertible y exhaustivo. En todos los casos existen dificultades aún no resueltas, pues se trata de experimentos su-mamente complejos y delicados, en el límite de las posibilidades tecnológicas contempo-ráneas que contienen suposiciones adiciona-les a las que hizo Bell, entre otros problemas. Además, para todos los experimentos realiza-dos ha sido posible construir modelos realis-tas y locales que reproducen los resultados del experimento. Que tales modelos puedan parecer un tanto caprichosos no es relevante, pues lo que importa es que sirven de contrae-jemplo al teorema de Bell: sí existen modelos compatibles con la física cuántica que son a la vez realistas y locales.

La conclusión estricta que se debe extraer de estos experimentos es que la mecánica cuántica arroja predicciones correctas (como era de esperarse) y que no existe hasta hoy evidencia categórica contra el realismo local. Sin embargo, el dictamen generalizado es ta-jante: la mecánica cuántica es incompatible con el realismo local. Siguiendo esta línea, tendríamos que admitir que de acuerdo a lo que los experimentos han mostrado, el realis-mo, al menos en su versión local, no estaba en los planes de la naturaleza: uno de los más ca-ros principios de la filosofía de la ciencia está siendo cancelado por la propia ciencia, y lo que es peor, con un soplo poco potente para tan magna tarea.

Aislada de las prematuras conclusiones que ya mencionamos, no deja de ser interesante la pretensión (por lo demás magnífica en principio) de haber puesto a prueba en el laboratorio un principio filosófico. Como lección es encomiable, pues nos recuerda que la filosofía de la ciencia tiene a la propia ciencia como raíz y soporte ge-nérico. Ninguna tesis de la filosofía de la ciencia puede contradecir al conocimiento científico, al menos por emerger aquélla de éste en un proce-so de generalización y abstracción, pero tampoco podemos olvidar que la ciencia descansa sobre principios filosóficos que le son fundamentales.

“Ninguna tesis de la filosofía de la ciencia puede contradecir al conocimiento

científico, al menos por emergeraquélla de éste en un proceso de

generalización y abstracción...”

¿Qué lección podemos extraer de todo este galimatías? La mecánica cuántica tiene muchos problemas interpretativos de fondo, no sólo los que saca a la luz el teorema de Bell. Quizá haya que empezar por aceptar que en efecto existen tales dificultades, para abrir la puerta a una even-tual teoría futura que nos brinde una solución general, que dé salida a todas ellas; bien puede ser que no sea el realismo el que se encuentra en vías de extinción, sino nuestra comprensión ac-tual, aún inacabada e insuficientemente refinada y profunda, de los secretos del mundo cuántico.

1Del hecho de que la mecánica cuántica sólo nos pro-

vee amplitudes de probabilidad se derivan muchas de sus dificultades conceptuales, así como algunos de sus rasgos más característicos. Cuando tenemos un sistema que contempla dos posibilidades y multiplicamos la am-plitud de probabilidad que determina a ese estado por ella misma (la elevamos al cuadrado) a fin de determinar la probabilidad correspondiente, ocurre una circunstan-cia muy especial. Para ver de qué se trata, como ejemplo elevemos 7 al cuadrado: 7x7=49; no hay ni duda ni miste-rio. Pero veamos otra manera de obtener este 49, ahora por la vía difícil. Escribimos 7=4+3 y multiplicamos: 7x7=(4+3)x(4+3)=(4x4)+(3x3)+(4x3+3x4)= 16+9+12+12=49. Todo claro y bien. Notamos, sin embargo, que a este 49 contribuyen dos tipos de cantidades. Una es la de los cuadrados (16=4x4 y 9=3x3), y otra es la de los produc-tos cruzados (12=4x3 y 12=3x4). Estos términos cruzados tienen como factores a los dos sumandos del 7, pero uno de ellos (ya sea el 4 o el 3) proviene de un 7 mientras que el otro (el 3 o el 4) proviene del segundo 7. Algo similar

Enero-Junio 200710

Artículos de Divulgación

ocurre cuando se multiplican las amplitudes de probabi-lidad que describen cada una de las posibles situaciones. En este caso también se van a generar términos que son el cuadrado de una amplitud (lo que da una probabilidad legítima, pues es siempre un número positivo) y otros que tienen factores diferentes, que vienen cada uno de amplitudes distintas. Estos últimos términos, aunque con-tribuyen a la probabilidad total, no son necesariamente probabilidades legítimas, pues incluso podrían resultar negativos (éste sería el caso si hubiéramos escrito, por ejemplo, 7=11-4, en cuyo caso los términos cruzados hu-bieran resultado cada uno igual a (11x-4)= -44). Es claro, para una mente clásica, que una probabilidad no puede ser negativa, pero no lo es cuando se trata de mecánica cuántica. Los términos cruzados son también responsa-bles de un fenómeno extraño e inesperado, característico de la mecánica cuántica, conocido como interferencia, del que se deriva la tan sonada idea de que los corpúsculos cuánticos gozan simultáneamente de propiedades de las partículas y las ondas. Debemos, sin embargo, ser cuida-dosos y distinguir ser, de comportarse como.

2Para ver qué sucede si nos limitamos al ámbito puramen-

te descriptivo pensemos en el siguiente ejemplo, que bien puede ser una situación clásica convencional: una señora tiene dos loritos; un día una visita entrometida se pregunta: ¿cuál es la probabilidad de que ambos pajaritos sean machos? Dado que existen cuatro resultados igual-mente probables a priori (MM, MH, HM, HH) la respuesta es un cuarto. Ahora bien, supongamos que la visita se ha enterado de que alguno de los loritos es macho; quizá porque llamó al edificio de enfrente donde hay un labo-ratorio que hace varias semanas midió las feromonas en el ambiente cercano a los loros para determinar los sexos presentes; este dato descarta automáticamente la opción HH, quedando entonces tres posibilidades equivalentes (MM, MH, HM), y ahora la probabilidad de que ambos ani-males sean machos aumenta a un tercio. Vemos así que la información adicional (proveniente del laboratorio) modi-fica (reduce) el espacio de eventos que debemos conside-rar, y la probabilidad aumenta de 1/4 a 1/3. El cambio en la descripción se refiere meramente a nuestra capacidad predictiva en presencia de los datos que tenemos sobre el sistema, y no al sistema mismo. Nótese que en ningún momento alguien ha interferido con los loritos; el labora-torio hizo sus mediciones hace algunas semanas y desde varios decímetros de distancia de las jaulas, midiendo el ambiente con detectores muy sensibles. 3El realismo (filosófico) afirma la existencia del mundo

como real e independiente de la conciencia o de nuestro conocimiento sobre él. Es la contraparte del idealismo (fi-losófico), el cual niega la existencia del mundo como algo independiente de la conciencia. Dentro de la actividad científica es normal adscribirse al realismo (el científico estudia un mundo que considera que existe en sí mismo), pero pueden encontrarse muchas variantes de él, que van desde la ingenua y la espontánea hasta la crítica, en muy diversos grados.

4Quizá sea más apropiado hablar aquí de separabilidad antes que de localidad. La idea intuitiva del término sepa-rabilidad, como la posibilidad de analizar una parte de un sistema físico de manera independiente del resto de sus constituyentes cuando no hay interacciones entre ellos (cuando las partículas están suficientemente separadas) es adecuada para los propósitos presentes. El uso del término localidad está, sin embargo, generalizado.

Referencias1. Emilio Santos. Quantum mechanics vs. local realism, is that the question? En http://xxx.lanl.gov/quant-ph/0103062.2. Olival Freire, Jr. Philosophy enters the optics laboratory: Bell´s theorem and its first experimental tests (1965-1982). En http://arxiv.org/physics/0508180 3. Principle of locality. En http://wikipedia.org/wiki/Local_realism4. S. Ortoli y J.-P. Pharabod. El cántico de la cuántica. Ed. Gedisa, colección Límites de la Ciencia, Barcelona, 1987.

Luis de la Peña Auerbach estudió Ingeniería en Comunicaciones Eléctricas y Electrónica en el IPN y el doctorado en ciencias físico-matemáticas en la Universidad Estatal Lomonósov de Moscú (1961-1964). Es investigador emérito del Instituto de Física, Cate-drático de la UNAM e Investigador Nacional Emérito (SNI). Desde 1958 labora como investigador en el Instituto de Física de la UNAM y como profesor de asignatura en la Facultad de Ciencias (UNAM). Su área de trabajo es la física teórica, con énfasis en los fundamen-tos de la teoría cuántica y la teoría de procesos estocásticos. Es au-tor o coautor de 10 libros, de un centenar de artículos en revistas especializadas de investigación en física y de alrededor de 90 ensa-yos y artículos diversos, particularmente en política científica y di-vulgación. Ha sido investigador invitado y conferencista en nume-rosas universidades del país y del extranjero; además, ha recibido diversas distinciones de universidades, academias y [email protected]

Andrea Valdés Hernández cursó la licenciatura en Física en la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM). Ha colaborado como ayudante de profe-sor en diversos cursos impartidos en la misma facultad y como ayudante de investigador del Sistema Nacional de Investi-gadores (SNI) con el doctor Luis de la Peña. Es compiladora y coautora del libro Navegante sin fronteras. Homenaje a Luis de la Peña, editado por la UNAM e hizo una reseña del libro Cien años en la vida de la luz, escrito por Luis de la Peña (Ciencias, Num. 80, octubre-diciembre 2005). Actualmente desarrolla su proyecto de tesis doctoral dentro del programa de Doctorado en Ciencias (Física) en el Instituto de Física de la [email protected]

Enero-Junio 200711

Artículos de Divulgación

La era genómica y el secreto de la diversidadRebeca Martínez Contreras

¿Qué es lo que hace a cada individuo de la especie humana único y diferente? ¿Por qué

incluso los gemelos idénticos pueden sufrir distintos tipos de enfermedades? ¿Es realmen-te la información genética lo que nos define como individuo y como especie? Al conocer la secuencia del genoma humano, se abrieron una serie de posibilidades para mejorar nues-tra calidad de vida. Pero aún quedan preguntas por responder antes de que podamos utilizar mucha de la información que la misma natura-leza nos ha proporcionado.

Un poco de historiaA comienzos de la década de 1950 no se sabía que la información genética estaba de algún modo relacionada con la fabricación de pro-teínas. Se había demostrado que el portador básico de la herencia era el ADN, pero su fun-cionamiento era aún muy oscuro. Incluso en 1953, Alfred Hershey, quien había corroborado con sus investigaciones importantes hallazgos genéticos, afirmó que el ADN no resultaría ser un determinante único de la especificidad ge-nética. Casi toda la evidencia señalaba al cito-plasma (la zona de la célula fuera del núcleo) como el lugar donde se sintetizaban las proteí-nas. Esto requería de la existencia de un inter-mediario entre el ADN, que sólo podía locali-zarse en el núcleo y los minúsculos orgánulos

citoplásmicos donde se fabrican las proteínas, denominados ribosomas. Un candidato impor-tante para este intermediario era otro ácido nucleico, el ARN, presente en cantidades más pequeñas en las células.

Figura 1. James Watson (a la izquierda) acompañado de Francis Crick (de pie, a la derecha), junto a su mo-delo para la estructura de la molécula de ADN en los laboratorios de Cavendish, en 1953.

Enero-Junio 200712

Artículos de Divulgación

Durante los meses que estuvo preocupado por el modelo del ADN, James Watson pegó en la pared un papel donde había escrito la frase: “ADN a ARN a proteína” (Fig. 1). Francis Crick se dirigió en 1957 al Simposio de la Sociedad de Biología Ex-perimental, que ese año se reunía en Cambridge, llamando a la frase escrita en el papel de su labo-ratorio el Dogma Central. En el mismo simposio, Crick hizo pública la hipótesis de secuencia, según la cual el orden en que aparecen los aminoácidos que componen a cada proteína está determinado por un código simple, contenido en la secuencia de ADN del gen que codifica para dicha proteína.

“... la hipótesis de secuencia, según la cual el orden en que aparecen los aminoácidos

que componen a cada proteína está determinado por un código simple... “

En los dos años siguientes a la charla de Crick, reinó la confusión en los intentos por definir los detalles del código genético; es decir, el lengua-je en el que están escritas las instrucciones para determinar la secuencia de las proteínas. El len-guaje del ADN estaba compuesto sólo por cua-tro letras (o nucleótidos: A=adenina, C=citosina, G=guanina, T=timina), que debían traducirse a otro lenguaje de 20 letras distintas, una por cada aminoácido que forma parte de las proteínas (Fig. 2). Era evidente que, por combinaciones de dos de las cuatro letras, sólo se podían formar 16 pala-bras distintas, insuficientes para definir todos los aminoácidos. En cambio, con tres letras (tripletes) existían 64 combinaciones, suficientes para codifi-car los diferentes aminoácidos. Pero, ¿funcionaba así la naturaleza? y ¿qué tripletes específicos en el ADN codificaban para cada aminoácido?

La elucidación del código genético debe gran parte de su éxito inusitadamente rápido a Marshall Warren Nirenberg y Johann Mathei, que trabajaban en los Institutos Nacionales de la Salud (NIH), cerca de Washington D.C. Ellos descubrieron que cuando se añadía a su sis-tema la enzima ribonucleasa (que destruye el ARN, pero no el ADN) la síntesis de proteínas se detenía inmediatamente; por el contrario, la adición de una desoxirribonucleasa (que des-truye sólo el ADN) no impedía la síntesis sino hasta después de unos 30 minutos.

Figura 2. El código genético. En esta tabla observamos los 64 codones (combinaciones) posibles. Cada codón indica el aminoácido que produce. El código genético es redundante, ya que existe más de un codón para cada aminoácido. UAA, UAG y UGA representan seña-les de paro o término, es decir, el final de una proteína. AUG codifica para metionina y también marca el inicio de la proteína.

Esto confirmaba experimentalmente el Dogma Central, dotando al ARN del papel de intermediario entre el ADN y las proteínas. Coincidentemente, el jefe de su laboratorio era Leon Heppel, quien había descubierto un modo de fabricar ARN artificial con una com-posición definida y tenía acumulada una colec-ción de tales ARNs.

En 1961, Mathei decidió experimentar con un ARN de Heppel que sólo contenía uraci-lo en la secuencia. Comprobó que la proteína que se fabricaba entonces estaba compuesta únicamente de unidades del aminoácido feni-lalanina. ¡El código genético estaba siendo des-cifrado! y la señal para añadir una fenilalanina a una cadena de proteínas en crecimiento era una secuencia de tres uracilos.

Entretanto, Hans Gobind Khorana, en la Uni-versidad de Wisconsin, había perfeccionado la bioquímica necesaria para hacer largos seg-mentos de ARN con secuencias repetidas de tres nucleótidos. Sólo bastaba ir probando con los ARNs de Khorana para llegar a conocer qué tripletes (o codones) de nucleótidos codifica-ban cada aminoácido de las proteínas. Además, se dedujo qué codones permitían comenzar la síntesis de una cadena proteica y cuáles mar-caban el punto final de la misma. El código ge-nético se había descifrado por completo en tan sólo cuatro años (Fig. 2). Nirenberg y Khorana recibieron así el premio Nobel en 1968.

Enero-Junio 200713

Artículos de Divulgación

El genoma de cualquier organismo pudo, a partir de entonces, ser comprendido de un modo detallado, que no hubiera podido soñar-se veinte años antes. El genoma era un dicciona-rio de palabras en código, ahora traducido, que determinaba qué proteínas podía fabricar cada organismo [1]. Era el centro de control de la célu-la. Si pudiese descubrirse la secuencia completa del ADN, se conocería el conjunto completo de genes de un organismo. La molécula promedio de ADN en una célula humana es de unos 140 millones de pares de nucleótidos de longitud.

“El genoma de cualquier organismo pudo, a partir de entonces, ser comprendido de un modo detallado, que no hubiera

podido soñarse veinte años antes.”

En ese momento, a pesar de los increíbles avances que habían conducido a la compren-sión de la naturaleza del gen, algún intento por determinar la secuencia completa de cualquier genoma (conjunto de genes que define a un organismo) y mucho más del humano, hubiera sido descabellado. Una década más tarde, ya no sería impensable. La biología molecular abriría un nuevo capítulo de la ciencia, en el que el gen se transformaría en una entidad que podía ser aislada, reproducida en el laboratorio y llevada de un organismo a otro. Había iniciado la era de la ingeniería genética.

El secreto de la diversidadEn 1977 se descubrió que en la mayoría de las moléculas de ARN de los organismos superio-res, las regiones que contienen la información que codifica para una proteína (exones) se en-cuentran interrumpidas por secuencias no co-dificantes (intrones). Los exones representan tan sólo el 1% del genoma humano y varían entre 1 y 1,000 nucleótidos, con un tamaño promedio de 145 nucleótidos. Por otro lado, los intrones conforman el 24% de nuestro genoma y su tamaño varía entre 60 y 200,000 nucleó-tidos, siendo el 20% de los intrones humanos más grandes de 5,000 nucleótidos. Pero, ¿por qué los genes se encuentran fragmentados? La ventaja radica en la capacidad de generar diferentes ARNs maduros y consecuentemente múltiples proteínas a partir de un solo gen. El

mecanismo mediante el cual se eliminan los in-trones y se religan los exones se conoce como corte y empalme (Fig. 3) o procesamiento del ARN. (Cabe mencionar que el procesamiento en su totalidad comprende además otros even-tos de maduración a los cuales no haremos re-ferencia en el presente artículo).

Figura 3. Procesamiento (corte y empalme) del ARN. El gen contiene 3 exones (codificantes) y 2 intrones (no codificantes). A partir del ADN, se transcribe una molécula de ARN que posee todas las secuencias com-plementarias. Posteriormente se cortan y eliminan las secuencias intrónicas y se empalman las exónicas (E1, E2, E3) para producir el ARN maduro.

El efecto del procesamiento sobre la es-tructura de la proteína que codifica es bastan-te diverso. En algunos casos, un dominio fun-cional puede ser agregado o eliminado en su totalidad de la secuencia codificante. En otros sistemas, la introducción de diferentes señales puede dar como resultado una proteína trun-cada o un ARN inestable. El procesamiento al-ternativo puede ser responsable también de la inclusión de pequeñas secuencias dentro de una proteína más grande. Alteraciones en este mecanismo pueden determinar a su vez diver-sos cambios en la expresión de determinados genes, en la localización de una proteína en la célula o en la capacidad de dicha proteína para ser funcional o no. Aunque los cambios en las secuencias que regulan este mecanismo pue-den llegar a ser en extremo sutiles, las implica-ciones funcionales pueden ser determinantes en diversos procesos de biología celular y del desarrollo, incluyendo el control de la apop-tosis o muerte celular programada (proceso que garantiza que las células que han sufrido daños severos se suiciden en vez de seguirse dividiendo), la progresión tumoral y la conecti-vidad neuronal.

Enero-Junio 200714

Artículos de Divulgación

“…las implicaciones funcionales pueden ser determinantes en diversos procesos

de biología celular y del desarrollo, incluyendo el control de la apoptosis o

muerte celular programada ...”

El procesamiento alternativoLas diferentes rutas de procesamiento alterna-tivo permiten generar distintos productos pro-téicos a partir de un mismo molde, incremen-tando así la capacidad codificante de los genes. El procesamiento alternativo puede funcionar también como un sistema de encendido-apa-gado de la expresión de determinados genes para la producción de proteínas específicas en cierto tipo de tejido o en determinado estado del desarrollo; todo ello con consecuencias dramáticas. Por lo tanto, la selección del sitio de procesamiento debe ser finamente regulada tanto en espacio como en tiempo. En la natu-raleza se encuentran diferentes tipos de proce-samiento alternativo, los cuales se resumen en la figura 4 y se describen a continuación. En la situación más simple, un exón completo puede ser incluido o eliminado (Fig. 4A), o bien puede ser alargado o recortado en cada extremo (Fig. 4C y 4D). En otro ejemplo, dos exones pueden competir, de tal manera que solamente uno de ellos pueda ser incluido (Fig. 4B) y, finalmente, un intrón puede ser conservado en la molécula de ARN maduro (Fig. 4E).

Figura 4. Diferentes tipos de procesamiento alternativo. Los cilindros representan a los exones y las regiones en rojo son las secuencias procesadas de manera alternativa.

Estos eventos pueden ocurrir de manera independiente o bien pueden estar acopla-dos en combinaciones específicas. Estudios recientes indican que del 40 al 60% de los ge-nes humanos presentan diferentes formas de procesamiento alternativo [2]. A pesar de ello, el mecanismo mediante el cual se lleva a cabo el procesamiento alternativo ha sido disecado genética o bioquímicamente para muy pocos genes y la mayoría de los elementos regulado-res no han sido aún identificados [3].

Figura 5. Esquema de la estructura de DSCAM. El pro-cesamiento alternativo de los diferentes exones podría generar teóricamente 38,016 proteínas diferentes.

El gen DSCAM: un ejemplo abrumadorUn descubrimiento en el genoma de la mosca de la fruta (Drosophila melanogaster) consti-tuye un ejemplo fascinante de los sutiles cam-bios que pueden realizarse en una proteína, así como una demostración impresionante del número de proteínas que puede generar-se a partir de un solo gen a través del pro-cesamiento alternativo. La proteína DSCAM fue clonada y caracterizada como un recep-tor que sirve como guía de crecimiento para los axones en ciertas neuronas. La secuencia correspondiente al gen DSCAM reveló que los exones 4, 6, 9 y 17 están conformados a su vez de un módulo de exones alternativos. Todos estos exones son utilizados de mane-ra excluyente, con 12 alternativas diferentes para el exón 4, 48 para el 6, 33 para el 9 y dos para el 17 (Fig. 5). Si todas las combinaciones de exones fueran empleadas, este gen sería capaz de producir ¡38 016 proteínas DSCAM diferentes! Considerando que el genoma de la mosca contiene aproximadamente 13,600 genes identificados, es impresionante que un solo gen pueda codificar para casi el triple de proteínas [4]. Aunque aún no se conocen las

Enero-Junio 200715

Artículos de Divulgación

implicaciones funcionales para cada una de las proteínas generadas por procesamien-to alternativo, el sistema resulta interesante como prueba de la diversidad generada. Es intrigante que un organismo de la comple-jidad de la mosca de la fruta necesite tan pocos genes para cubrir todas sus funciones. Resulta entonces claro que debido al proce-samiento alternativo el número de genes no refleja de manera alguna la complejidad de un organismo determinado.

El procesamiento alternativo y las enfer-medades genéticasEl procesamiento alternativo forma parte de un programa normal de regulación de la expresión en la mayoría de los genes humanos y puede conducir a la producción de proteínas diferen-tes, incluso con funciones totalmente opuestas. Este mecanismo es el responsable de controlar la determinación de los caracteres sexuales en la mosca, la producción de proteínas membra-nales o solubles, así como la síntesis de ciertas hormonas con actividades psicológicas distin-tas. Se sabe que al menos el 15% de las muta-ciones puntuales que provocan enfermedades hereditarias tienen su origen en un defecto a nivel del procesamiento alternativo. Algunos de estos ejemplos se señalan en la tabla 1. Exis-te también cada vez más evidencia acerca de genes involucrados en diferentes etapas del cáncer, cuyo procesamiento alternativo se ve afectado, con implicaciones en diversos proce-sos como la proliferación y la invasión celular, la resistencia a la apoptosis y la susceptibilidad a diferentes agentes quimioterapéuticos [5]. De acuerdo a los datos proporcionados por el Cancer Genome Project del Instituto Wellcome Trust Sanger en el Reino Unido (http://www.sanger.ac.uk/genetics/CGP/Census/), 353 ge-nes humanos poseen mutaciones asociadas con algún tipo de cáncer. 70% de dichos genes presentan mutaciones somáticas (no heredita-rias), 20% corresponden a mutaciones germina-les (hereditarias) que predisponen al individuo a padecer algún tipo de cáncer y 10% de los genes contienen ambos tipos de mutaciones. Cabe resaltar que 42 de los 353 genes presen-tan mutaciones que afectan de alguna manera el procesamiento alternativo.

ENFERMEDAD GEN ALTERADO

Porfiria aguda intermitente

Forfobilinógeno desaminasa

Cáncer ovárico y cáncer de mama

BRCA1

Síndrome de la glicoproteína deficiente en carbohidrato, tipo 1A

PMM2

Xantomatosis cerebrotendinosa

Esterol-27-hidroxilasa

Fibrosis quística CFTR

Síndrome de Ehlers-Danlos tipo V1

Lisil hidroxilasa

Anemia de Fanconi FANCG

Demencia frontotemporal (FTDP-17)

Tau

Hemofilia A Factor VIII

Déficit de hypoxantin fosforibosil transferasa

HPRT

Encefalomielopatía de Leigh

Piruvato deshidrogenasa E1α

Síndrome de Marfan Fibrilina 1

Leucodistrofia meta cromática juvenil

Arilsulfatasa A

Neurofibromatosis tipo 1

NF1

Déficit de ornitin carbamil transferasa

OCT

Porfiria cutánea tardíaUroporfirinógeno descarboxilasa

Enfermedad de Sandhoff

Hexosaminidasa

Inmunodeficiencia severa combinada

Adenosina desaminasa

Atrofia espinal muscular SMN1 y SMN2

Tirosinemia tipo 1Fumaril acetoacetato hidrolasa

Tabla 1. Alteraciones en el procesamiento alternativo de diversos genes ocasionan las enfermedades here-ditarias listadas.

Enero-Junio 200716

Artículos de Divulgación

“Existe también cada vez más evidencia acerca de genes involucrados en diferentes

etapas del cáncer, cuyo procesamiento alternativo se ve afectado, con

implicaciones en diversos procesos como la proliferación y la invasión celular…”

Debido a lo delicado de su naturaleza, es ne-cesario que el procesamiento alternativo sea re-gulado de manera fina y precisa. Hasta la fecha se conoce la generalidad de las secuencias de ARN responsables de regular este mecanismo en ciertos genes, así como algunas de las proteí-nas nucleares que reconocen estas secuencias (como una llave para una cerradura, aunque de forma un poco más laxa). Mutaciones en dichas secuencias reguladoras son la causa principal de las alteraciones en los perfiles de procesamiento alternativo. Como un resultado de esta regula-ción deficiente, se pueden generar proteínas truncadas, con alteraciones en dominios indis-pensables para su regulación posterior, o bien productos destinados a degradación [6].

“El proyecto del genoma humano abrió la puerta a un sinfín de posibilidades. No es un capitulo cerrado. Por el contrario,

es un cúmulo de información que habrá que estudiar, analizar y darle sentido e

importancia funcional y biológica.”

Perspectivas para el futuroEl proyecto del genoma humano abrió la puer-ta a un sinfín de posibilidades. No es un capitulo cerrado. Por el contrario, es un cúmulo de infor-mación que habrá que estudiar, analizar y darle sentido e importancia funcional y biológica. El procesamiento alternativo parece ser la clave, no sólo de la diversidad funcional de los organismos superiores, sino también de la diversidad entre di-ferentes sujetos de una misma especie. Aún falta conocer en su totalidad cuáles son los genes que sufren procesamiento alternativo, las implicacio-nes funcionales de cada uno de estos productos y la manera como dicho evento es controlado. Conocer el mecanismo que regula el procesa-miento alternativo, nos permitirá quizá modifi-carlo, de tal manera que pueda ser una más de las herramientas diagnósticas y terapéuticas que la era genómica ponga a nuestro alcance.

Referencias1) García MR, Valdés J. 1996. El genoma. En: Los fenómenos fundamentales de la vida, Siglo XXI eds. 16pp.2) Modrek B, Lee C. 2002. A genomic view of alternative splicing. Nature Genet 30: 13-19.3) Matlin AJ, Clark F, Smith CWJ. 2005. Understanding alternative splicing: towards a cellular code. Nature Rev Mol Cell Biol 6: 386-398.4) Schmucker D, Flanagan JG. 2004. Generation of recognition diversity in the nervous system. Neuron 44: 219-222.5) Revil T, Shkreta L, Chabot B. 2006. Ëpissage alternatif des ARN prémessagers dans le cancer: impact fonctionnel, mécanismes moléculaires et espoirs thérapeutiques. Bull Cancer 93: 909-919.6) Faustino NA, Cooper TA. 2003. Pre-mRNA splicing and human disease. Genes Dev 17: 419-437.

Glosario y lista de abreviaturas.ADN. Ácido desoxirribonucleico. Molécula encargada de la herencia y componente químico primario de los genes.ARN. Ácido ribonucleico. Intermediario entre la informa-ción contenida en los genes y la correspondiente proteí-na que cada uno de ellos codifica DSCAM. Molécula de Adhesión Celular en el Síndrome de Down (Down Syndrome Cell Adhesion Molecule).Exón. Secuencia de ADN que codifica para una porción específica de una proteína determinada. Intrón. Región no codificante que se localiza entre dos exones y que no se encuentra en la proteína correspon-diente al producto final.Gen. Unidad básica de herencia en los seres vivos consti-tuida por una secuencia lineal de moléculas de ADN.Genoma. Conjunto de genes que determina a un orga-nismo determinado.

Rebeca Martínez Contreras, es egresada de la Facultad de Ciencias Químicas de la BUAP (1991-1996), realizó su maestría en Fisiología en el CINVESTAV-IPN (1997-1999) y el doctorado en Neurobiología celular y molecular (CINVESTAV-IPN 1999-2003). Actualmente esta terminando su estancia postdoctoral en el Departement de Microbiologie et d´Infectologie. Faculté de Medecine et des Sciences de la Santé. Université de Sher-brooke. Sherbrooke, Québec, Canadá. A su regreso a México buscará una posición permanente como [email protected]

Enero-Junio 200717

Artículos de Divulgación

Figura 1. Inauguración del OANTon.

El inicio: Luis Enrique ErroHace 60 años, revistas de gran prestigio como Sky & Telescope y las Publicaciones de la So-

El Observatorio Astrofísico Nacional

de Tonantzintla: 65 años explorando el universo

Raúl Mújica García

El año es 1942. En una colina que delata la historia prehispánica de México, se elevan edificios,casetas dispersas recién construidas, su color amarillo brillando intensamente bajo un sol invernal.

Se aguarda la llegada del presidente don Manuel Ávila Camacho y su comitiva.Están congregadas alrededor de la escalinata del edificio principal frente a los dos volcanes,

los dirigentes del pueblo de Tonantzintla, del estado y la ciudad de Puebla, un grupo representativode reconocidos intelectuales, maestros, científicos mexicanos, secretarios de Estado, diputados, senadores,

entre otros, y un elenco de astrónomos norteamericanos. Los europeos se encontraban aisladosa causa de la segunda Guerra Mundial. Así se celebra la inauguración del ObservatorioAstrofísico de Tonantzintla

el 17 de febrero de 1942, acto que daría la pauta y marcaría el principio de una época que continuamos.Paris Pismis en “El amanecer de la Astrofísica en México”

ciedad Astronómica del Pacífico (PASP, por sus siglas en inglés), le dedicaron portadas y artículos a la inauguración del Observatorio Astrofísico Nacional de Tonantzintla (OAN-Ton), que posteriormente sería transformado en el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE).

El OANTon fue el resultado del esfuerzo de Luis Enrique Erro (1897-1955) quien, además de ser astrónomo aficionado, fue un gran po-lítico y educador. Entre sus muchas otras ac-ciones, fundó la Escuela Nacional Politécnica, antecesora del Instituto Politécnico Nacional (IPN). Como diputado trabajó en las reformas al artículo tercero de la Constitución y fue di-plomático en varios países.

Enero-Junio 200718

Artículos de Divulgación

“ El OANTon fue el resultado del esfuerzo de Luis Enrique Erro (1897-1955) quien,

además de ser astrónomo aficionado, fue un gran político y educador.”

Como astrónomo fue fundador y director del Observatorio de Tonantzintla. Su pasión fueron las estrellas variables y era reconocido dentro de la Asociación Americana de Observadores de Estrellas Variables (AAVSO) como uno de los más dedicados, lo cual le valió la amistad de Leon Cam-pbell, el fundador y coordinador de la asociación, quien lo pondría en contacto con Harlow Shapley, Bart Bok y otros astrónomos del Observatorio de Harvard. De ellos recibiría una valiosa ayuda, prin-cipalmente, en el diseño, construcción e instala-ción de un telescopio tipo Schmidt, que sería el eje de un observatorio moderno en México.

Erro también contó con un grupo de científicos y técnicos de gran nivel, Carlos Graeff Fernández, Paris Pismis, Luis Rivera Terrazas, Guillermina y Gra-ciela González, entre otros, que hicieron un gran esfuerzo por tener uno de los mejores instrumen-tos de la época: la Cámara Schmidt, que pondría a la Astronomía Mexicana en primer plano mundial.

Figura 2. Luis Enrique Erro.

La Cámara SchmidtUna Cámara Schmidt es un telescopio cata-dióptrico, esto significa que combina espejos y lentes en su diseño. La lente principal de la Schmidt de Tonantzintla es de 27 pulgadas, y el espejo esférico de 31 pulgadas. A este sistema es necesario acoplar una placa de vidrio muy delgada, llamada placa correctora, que tiene una superficie tallada y que produce una ima-gen libre de aberraciones. La óptica fue manu-facturada por la firma Perkin Elmer y las partes mecánicas en los talleres del Observatorio de Harvard. En esa época resultó uno de los tele-scopios más potentes de su tipo en el mundo.

“ Una Cámara Schmidt es un telescopio catadióptrico, ... En esa época

resultó uno de los telescopios más potentes de su tipo en el mundo.”

Figura 3. Cámara Schmidt.

El Telescopio SolarErro, siguiendo otro de sus principios, deja la di-rección del Observatorio en 1952, en manos de los jóvenes. La pasión de Erro por la Astrono-mía quedó perfectamente ilustrada en la placa que mandó a colocar dentro del edificio del te-

Enero-Junio 200719

Artículos de Divulgación

lescopio solar cuando lo donó al Observatorio y donde dice: “Este instrumento fue adquirido con la mayor parte de la suma que el Presiden-te Lázaro Cárdenas me dio para curar mi sor-dera. Quedó en México como uno más de los recuerdos de este gran mexicano”.

En reconocimiento a la labor astronómica de Erro, la Unión Astronómica Internacional (IAU) nombró uno de los cráteres de la Luna en su honor.

Figura 4. Telescopio Solar.

Descubrimientos con la SchmidtEntre los más importantes descubrimientos realizados con la Cámara Schmidt destacan los objetos HH, las Nebulosas Planetarias, una nue-va clase de estrellas variables irregulares llama-das Ráfaga, una nueva clase de galaxias llama-das Blue compact galaxias; a partir de una lista de objetos azules compilada por Iriarte y Cha-vira se descubrieron varios Cuasares. El trabajo intenso en el OANTon condujo a otros descu-brimientos: cometas, estrellas novas y superno-vas. Estos resultados pusieron a Tonantzintla en el plano mundial de la Astronomía.

Objetos Herbig-Haro (HH)Estas nebulosas se forman por el material que fue expulsado de estrellas jóvenes, que se mueve a grandes velocidades y que interac-túa con el material alrededor de la estrella, así como con material expulsado previamente. De esta manera se forma lo que se llama una estructura de onda de choque. Estas ondas de choque ionizan y calientan el material que está siendo expulsado y el material alrededor de la estrella, que por este efecto, emite un es-pectro con líneas en emisión.

Esta característica le permitió a Haro identi-ficarlos en las placas. George Herbig, otro astró-nomo estadounidense, también los descubrió de manera independiente y por eso llevan el nombre de los dos. Las estrellas que eyectan el material algunas veces se pueden observar en el óptico, pero en otros casos son fuentes infra-rrojas, ya que todavía se encuentran dentro de la nube de la cual se formaron y para detectar-las se requiere de técnicas especiales.

Figura 5: Objeto Herbig-Haro en una de las placas de la Schmidt.

Nebulosas planetariasLas Nebulosas Planetarias son como cascarones de gas iluminado que rodean a las estrellas en las etapas finales de su vida. Fueron descubier-tas por William Herschel, quien en 1785 refirió la apariencia planetaria, o de disco, del objeto que ahora es llamado NGC7009. Posteriormente, des-cubrió que una de sus planetarias (NGC 6543) tenía una condensación central o estrella. Ac-tualmente se conocen más de 2000 Nebulosas Planetarias. La más conocida es la Nebulosa del Anillo (Ring Nebula) en la constelación de la Lira.

Actualmente sabemos que las estrellas que se encuentran en el centro de estas nebulosas fueron, alguna vez, las regiones internas de es-trellas gigantes, donde se generaba la energía mediante reacciones nucleares. Por otro lado, las capas exteriores se pierden convirtiéndose en las envolventes que huyen y que generan las efímeras planetarias. Haro realizó una búsque-da de objetos con líneas en emisión, en direc-ción al centro de nuestra galaxia, descubriendo una gran cantidad de nebulosas planetarias.

Enero-Junio 200720

Artículos de Divulgación

“Haro realizó una búsqueda de objetos con líneas en emisión en dirección

al centro de nuestra galaxia,descubriendo una gran cantidad

de nebulosas planetarias.”

Figura 6. Nebulosa planetaria (http://heritage.stsci.edu/1999/01/index.html)

Guillermo Haro Guillermo Haro, quien desde 1948 era director del Observatorio Nacional de Tacubaya, de la Universidad Nacional Autónoma de México, es nombrado también director del OANTon, uni-ficando objetivos de dos instituciones por los casi 20 años en los que Haro las dirigió. En este tiempo surgen proyectos como la construcción del telescopio de 1 metro localizado también en Tonantzintla, pero en el campus de la UNAM y el Observatorio de San Pedro Mártir, así como el cambio de montura de la Cámara Schmidt.

En 1968, Guillermo Haro deja la dirección del Instituto de Astronomía de la UNAM, se dedica de tiempo completo a dirigir el OANTon y enfoca todos sus esfuerzos para revitalizarlo. Conocía la importancia de la Óptica y la Electrónica para la Astronomía e impulsa la transformación de Obser-vatorio Astrofísico Nacional de Tonantzintla a un Instituto Nacional de Investigación que contem-plara las tres áreas: Astrofísica, Óptica y Electróni-ca. El proyecto fue presentado al presidente Luis

Echeverría quien accedió a reestructurar el Obser-vatorio y, el 12 de noviembre de 1971, expidió el decreto mediante el cual crea el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE).

“... Luis Echeverría quien accedióa reestructurar el Observatorio y,

el 12 de noviembre de 1971, expidió el decreto mediante el cual crea el Instituto

Nacional de Astrofísica, Ópticay Electrónica (INAOE)”

Haro es designado director del nuevo Ins-tituto. De inmediato convence, a un grupo de ópticos, entre ellos Daniel Malacara y Alejan-dro Cornejo, así como a algunos técnicos del Instituto de Astronomía de la UNAM, a que se trasladen a Tonantzintla para crear el grupo de Óptica del INAOE; a Eduardo de la Rosa, para lo relativo al área de Electrónica, mientras que la de Astrofísica quedaba integrada por el propio Haro y otros miembros del OANTon: Braulio Iriarte, Enrique Chavira y Graciela González.

Figura 7. Guillermo Haro.

Así como en 1942 Erro y sus colaboradores decidieron tener el mejor instrumento astro-nómico, en 1973 Haro, con su nuevo grupo, ini-cia un proyecto para mantener competitiva a la Astronomía Mexicana a nivel mundial. En el Taller de Óptica se inicia uno de los proyectos

Enero-Junio 200721

Artículos de Divulgación

más importantes que hasta esas fechas había realizado el Instituto, el diseño y la manufactu-ra del espejo primario de 2.12 metros de diá-metro para lo que sería el telescopio del Ob-servatorio de Cananea en Sonora (ver artículo sobre el OAGH en este número).

En 1973 se incorpora al INAOE Jorge Agraz, un doctor en Electrónica, joven y entusiasta, quien además de iniciar el programa de maes-tría en esa especialidad, inicia la instalación del laboratorio de microelectrónica y abre líneas de investigación sobre diseño y fabricación de cir-cuitos integrados con tecnología bipolar, apli-cación de microprocesadores, y otras más. Con esto, las tres áreas de investigación del INAOE estaban en pleno desarrollo y el Instituto ad-quiría reconocimiento nacional e internacional.

Braulio Iriarte sustituye interinamente por unos meses a Guillermo Haro y Jorge Ojeda es designado director de 1984 a 1992. Durante este periodo se termina el telescopio y el 8 de septiembre de 1987 se inaugura el Observatorio Astrofísico Guillermo Haro (OAGH), ubicado en la Sierra La Mariquita, a 26 km de la ciudad de Ca-nanea en Sonora y a una altura de 2,480 metros. Cada año se tienen alrededor de 260 noches des-pejadas. Hasta la fecha, el OAGH es el laboratorio más importante para los astrónomos del INAOE.

Otra labor de gran importancia, desde la creación del INAOE, ha sido la destacada e inin-terrumpida formación de Recursos Humanos de alto nivel. En 1972 se inició la maestría en Óptica, continuando en 1973 con la de Electrónica, a par-tir de 1993 principiaron los postgrados de Astro-física y en 1998 los de Ciencias Computacionales.

El Gran Telescopio Milimétrico (GTM) En 1992, Alfonso Serrano Pérez-Grovas es de-signado director del INAOE, quien con el mis-mo deseo y siguiendo la tradición de sus an-tecesores, Erro y Haro, de mantener a la ciencia mexicana a la misma altura que en paises más avanzados, involucra al Instituto en el proyecto científico-tecnólogico de mayor envergadura que existe hasta la fecha en America Latina: el Gran Telescopio Milimétrico (GTM) Boletín es-pecial de INFOCYT, Diciembre de 2006].

La construcción y operación del GTM es un proyecto conjunto entre el INAOE y la Univer-sidad de Massachusetts. El GTM es un telesco-pio cuya antena principal es de 50 metros de diámetro y que operará en longitudes de onda entre 1-4 mm. Su gran capacidad colectora, así como la exactitud de su superficie, permitirá a los astrónomos llevar a cabo contribuciones notables en diferentes áreas científicas, desde el Sistema Solar (cometas, asteroides, etcétera), hasta el origen y la evolución de las galaxias.

El INAOE es actualmente un gran centro de investigación básica y aplicada, cuenta con más de 100 investigadores y 300 estudiantes de maestría y doctorado. José Guichard, actual director, fue designado en 2001 y con el GTM recientemente inaugurado, tiene como reto operarlo exitosamente, además de continuar con la realización de proyectos de ciencia bá-sica, complementados con el desarrollo tecno-lógico y la ingeniería, los cuales permitirán a la Astrofísica, y en general a la ciencia mexicana, continuar superándose y cumplir con el sueño que inició, hace 65 años, Luis Enrique Erro.

Referencias1. Daniel Malacara, Juan Manuel Malacara. Telescopios y Estrellas. 1988. Fondo de Cultura Económica. La Ciencia desde México (57).2. Jorge Bartolucci. La Modernización de la Ciencia en México. El caso de los astrónomos. 2000. Universidad Nacional Autónoma de Méxi-co. Centro de Estudios sobre la Universidad. Plaza y Valdés Editores. Colección Historia de la Educación. Serie Mayor. 3. Marco Arturo Moreno Corral, compilador. His-toria de la Astronomía en México. Colección: La ciencia para todos, 1986. Secretaría de Educa-ción Pública. Fondo de Cultura Económica.

Raúl Mújica García obtuvo su doctorado en el INAOE en 1997, actualmente es investigador Titular A en la Coordina-ción de Astrofísica del INAOE. Se especializa en Núcleos Acti-vos de Galaxias (AGN) y otras fuentes de rayos X. Además, se dedica a promover la ciencia a diferentes niveles, organiza foros y talleres de ciencia para niños, jóvenes y profesores, entre otras [email protected]

Enero-Junio 200722

Artículos de Divulgación

El talento mexicano al servicio de la creación del Observatorio Astrofísico “Guillermo Haro”La Astronomía es una de las ciencias más anti-guas en la historia de la humanidad. En el caso de nuestro México, basta mencionar los amplios conocimientos astronómicos que la gran mayo-ría de las culturas prehispánicas tenían al mo-mento del encuentro de las dos culturas. Sólo por mencionar un ejemplo, recordemos que los principales edificios de todos los centros cere-moniales mesoamericanos tenían una orienta-ción astronómica, pues servían, entre otras cosas, para identificar puntos extremos del Sol y la Luna sobre el horizonte, lo cual revestía una importan-cia crucial en la elaboración de los calendarios.

Al mismo tiempo, hoy en día, la Astronomía es una de las ciencias que más aporta al desarrollo del pensamiento humano y, en buena medida, los úl-timos adelantos astronómicos están relacionados con el desarrollo de nuevas técnicas de observa-ción y el uso de modernos y potentes telescopios.

“... la Astronomía es una de las ciencias que más aporta al desarrollo del

pensamiento humano y, en buena medida, los últimos adelantos astronómicos están relacionados con el desarrollo de nuevas

técnicas de observación y el uso de modernos y potentes telescopios.”

El Observatorio Astrofísico “Guillermo Haro”José Ramón Valdés Parra

El objetivo fundamental del presente en-sayo es recordar los esfuerzos realizados por mucha gente valiosa del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), en la fundación y posterior explotación del Observa-torio Astrofísico “Guillermo Haro” (OAGH), ubi-cado en Cananea, Sonora.

Figura 1: Edificio del telescopio de 2.1m del OAGH.

Enero-Junio 200723

Artículos de Divulgación

El OAGH es heredero de las tradiciones as-tronómicas del Observatorio Astrofísico Nacio-nal de Tonantzintla (OANTon), inaugurado el 17 de febrero de 1942 por decreto presidencial del general Manuel Ávila Camacho, y cuyo primer director fue el Dr. Luis Enrique Erro (1897-1955). La fundación del OANTon formó parte de un importante proceso de consolidación nacional y social que comenzó en 1936 bajo la presiden-cia del General Lázaro Cárdenas del Río.

“El OAGH es heredero de las tradiciones astronómicas del Observatorio Astrofísico

Nacional de Tonantzintla (OANTon), inaugurado el 17 de febrero de 1942por decreto presidencial del general

Manuel Ávila Camacho...”

En 1952, el Dr. Guillermo Haro (1913-1988) asume la dirección del OANTon, quien desde 1948 fungía, además, como director del Insti-tuto de Astronomía de la UNAM. En 1968, al dejar la dirección de este último en manos del Dr. Arcadio Poveda, el Dr. Haro dedica todos sus esfuerzos al desarrollo del OANTon, incluso sabiendo de antemano que ya había comen-zado la decadencia de la calidad astronómica del cielo de Tonantzintla debido, fundamental-mente, a la contaminación lumínica e industrial de una creciente ciudad de Puebla.

Un primer paso importante de este nuevo período del OANTon se dio en 1972, cuando se transformó en el actual Instituto Nacional de As-trofísica, Óptica y Electrónica (INAOE). En 1973, sólo un año después de su fundación, comenzó uno de los proyectos científicos más ambicio-sos del joven instituto: el diseño y construcción del espejo primario, de 2.12m de diámetro, del telescopio que sería instalado, posteriormente, en el OAGH. Ésta ha sido la mayor componente óptica construida fuera de los países del Primer Mundo. Los bloques de vidrio para los espejos del telescopio fueron donados al INAOE por la Universidad de Arizona.

Además de la indiscutible aportación que el OAGH ha brindado a la Astronomía mexicana y mundial, otro logro muy importante de este proyecto ha sido la amplia y mayoritaria parti-

cipación mexicana en el diseño y construcción del telescopio de 34 toneladas de peso y en la posterior explotación del observatorio. En la parte astronómica participaron Guillermo Haro, promotor del proyecto, Braulio Iriarte, En-rique Chavira, Luis Carrasco y Octavio Cardona.

La montura mecánica del telescopio fue diseñada por la empresa Rademakers en Rot-terdam, Holanda y sus partes construidas, ade-más, en Alemania, Italia y Estados Unidos. La mayor parte del telescopio fue construida por la empresa De Bartolomeis, ubicada en Lecho, Italia. El diseño y construcción del edificio y de la cúpula que protege al telescopio fueron rea-lizados en nuestro país con la participación de Carlos Palafox, José Luis García, César Arteaga y de la compañía Construmetálica, S.A. del Distri-to Federal. En la construcción del edificio tuvo una destacada participación el Ing. Montaño de Agua Prieta, Sonora. El diseño y construcción del sistema de giro de la cúpula fueron reali-zados en el taller mecánico del INAOE, además se contó con la participación de los ingenieros Salazar Polanco y Alanís.

Asimismo, el diseño de la consola que con-trola el telescopio fue realizado en el Laborato-rio de Microprocesadores de la Coordinación de Electrónica del INAOE. Este control, totalmente computarizado, es capaz de posicionar el tele-scopio con una precisión de 0.5 segundos de arco. En un principio, esta tarea fue dirigida por el Ing. Eduardo de la Rosa y posteriormente por Jorge Pedraza, un joven egresado del postgra-do de Electrónica del INAOE.

En cuanto a los componentes ópticos del telescopio, también fue fundamental la partici-pación de técnicos e investigadores de la Co-ordinación de Óptica del INAOE. En el Taller de Óptica se diseñaron y fabricaron las máquinas para el tallado y pulido del espejo, así como la herramienta necesaria para probar todo el sis-tema óptico del telescopio. En este proceso –que duró más de cinco años– participaron Daniel y Zacarías Malacara, José Castro, Rober-to Noble, Jesús Pedraza, Arquímedes Morales, Oswaldo Harris, Jorge Cuautle, Carlos J. Martí-nez y Alejandro Cornejo.

Enero-Junio 200724

Artículos de Divulgación

Se contó, además, con el apoyo financiero de varios organismos federales y del gobierno del estado de Sonora, que financió la construcción del camino de acceso a la cumbre de la montaña donde se construyó el telescopio. La construcción del camino estuvo a cargo del Ing. García Urrea.

Después de sortear muchas dificultades, pro-vocadas por las recurrentes crisis económicas que afectaron a nuestro país, el 8 de septiembre de 1987 se realizó, en la Sierra de la Mariquita, la ceremonia de inauguración oficial del observa-torio. Comenzó así su fructífero quehacer cien-tífico que no se ha detenido hasta el día de hoy. Para que se tenga una idea de qué tan largo fue el camino recorrido hasta la inauguración del observatorio, basta mencionar que los espejos primario y secundario del telescopio estuvieron listos desde 1981, cuando fueron aluminizados en el Observatorio Nacional de Kiit Peak.

“Después de sortear muchas dificultades...el 8 de septiembre de 1987 se realizó, en la

Sierra de la Mariquita,la ceremonia de inauguración oficial

del observatorio.”

Figura 2. Telescopio de 2.1m del OAGH.

El telescopio de 2.1m y la instrumenta-ción astronómica disponibleEl diseño óptico del telescopio es un Ritchey-Chrétien con espejos primario y secundario hiperbólicos y una montura de horquilla que permite su movimiento en dos direcciones perpendiculares. Tiene una estructura peque-ña y un diseño compacto para su distancia fo-cal, que es de unos 25 metros.

La instrumentación con que contamos en el observatorio, nos permite estar a la vanguardia mundial de las investigaciones astronómicas que se pueden realizar con un telescopio de esta envergadura. Por otra parte, los detectores electrónicos que utilizamos, llamados Disposi-tivos de Carga Acoplada (CCD, por sus siglas en inglés), optimizan los tiempos de observación, dada su alta eficiencia cuántica (~80%), en un sitio que comienza a ser afectado por la luz de Cananea y por la contaminación proveniente de la actividad minera de la región.

Los instrumentos que la comunidad astronó-mica nacional e internacional tiene a su dispo-sición en el OAGH son los siguientes:

- Cámara Directa, que con una resolución espacial de 0.2 segundos de arco, permite obtener imágenes de los objetos celestes en las bandas U, B, V, R e I del sistema fotomé-trico de Johnson y en filtros de banda estre-cha centrados en transiciones atómicas del hidrógeno y oxígeno.- Cámara Infrarroja de Cananea (CANICA). Ins-trumento diseñado para obtener imágenes de los objetos celestes en el Infrarrojo Cercano, en las bandas J (1.25 micras), H (1.63 micras) y K (2.12 micras); así como en algunas transiciones atómicas y moleculares. La resolución espacia-les de 0.32 segundos de arco con un campo de visión de 5x5 minutos de arco.- Landessternwarte Faint Object Spectrogra-ph and Camera (LFOSC). Es un instrumento muy versátil, que permite obtener imágenes directas y hacer espectroscopía multiobjeto. La fotometría se realiza en las bandas B y V de Johnson, R e I de Cousins y en la transición de Hα. Se pueden obtener espectros de rendija larga de baja resolución. La escala de placa es

Enero-Junio 200725

Artículos de Divulgación

de un segundo de arco, con un campo de vi-sión de 6x10 minutos de arco. - Espectrógrafo Boller & Chivens. Instrumen-to para obtener espectros de rendija larga de resolución baja e intermedia a través de la utilización de diferentes rejillas de difracción como elemento dispersor.

Figura 3. Acercamiento de la cámara directa e instru-mental del telescopio.

El OAGH en la vanguardia de la Astrofísica Moderna Muchos han sido los proyectos de colabora-ción internacional que se han desarrollado en el OAGH. Entre los más importantes podemos citar los siguientes:

- Identificación de las contrapartes ópticas de las fuentes observadas por el satélite ROSAT de rayos X. Este proyecto reactivó al Observa-torio y fomentó las bases de la colaboración entre el INAOE y el Observatorio de Heidel-berg, Alemania, mediante la instalación del LFOSC en el OAGH. El objetivo del proyecto fue identificar, a través de observaciones fo-tométricas y espectroscópicas, la contraparte óptica más probable de entre todos los obje-tos que se encontraban en el círculo de error de las fuentes de rayos X detectadas por el satélite ROSAT. - Monitoreo de núcleos activos de galaxias (AGN). Este proyecto se ha encaminado a la obtención de una base de datos de 10 años de observaciones espectroscópicas ópticas de una muestra de AGN, los cuales están siendo estudiados, en otras frecuencias, en

diferentes observatorios del mundo. El ob-jetivo principal es estudiar cómo varía la intensidad, tanto en las líneas de emisión como en el continuo de estas galaxias. Este proyecto ha permitido la incorporación del OAGH al Programa Internacional de Moni-toreo de AGNs.- Historia de la formación estelar en el Uni-verso. Se están obteniendo los espectros ópticos de galaxias elípticas aisladas, en pares o pertenecientes a cúmulos de ga-laxias (Virgo y Coma). Estas galaxias ya han sido observadas con el Telescopio Espacial Infrarrojo Spitzer. La combinación de los es-pectros ópticos con los del Infrarrojo Lejano (Spitzer) y los del Infrarrojo Cercano permi-tirán determinar con gran precisión la edad y la metalicidad de las poblaciones estelares de estas galaxias.- Monitoreo de estrellas del tipo T Tauri. Se estudió el efecto de las nubes alrededor de muchas estrellas jóvenes, que muy proba-blemente den lugar a la formación de siste-mas planetarios alrededor de ellas.- Descubrimiento de la estructura espiral de la galaxia M82. Utilizando la Cámara Infrarro-ja CANICA se ha logrado descubrir la existen-cia de dos brazos espirales simétricos en esta galaxia, hasta hace poco considerada como el prototipo de las galaxias irregulares de tipo II, que se caracterizan por la ausencia de brazos espirales.- Estudio de contrapartes de fuentes infra-rrojas detectadas por el Satelite ISO (Infrared Space Observatory), en la región del cielo conocida como el European Large Area ISO Survey (ELAIS). - Monitoreo espectrofotométrico de los obje-tos de la Segunda Exploración de Byurakan (SBS). Este proyecto constituye una impor-tante búsqueda de galaxias y cuasares. De los 3,563 objetos contenidos en el catálogo del SBS, 319 fueron observados en el OAGH, de los cuales 228 son galaxias y 91 son objetos con apariencia estelar.

Existen muchos otros proyectos que se están desarrollando en la actualidad, en cola-boración con astrónomos de varios observa-torios del mundo.

Enero-Junio 200726

Artículos de Divulgación

El objetivo del presente ensayo, que ha trata-do de recoger en unas páginas la historia de más de 30 años, de un importante proyecto científico mexicano, es que sirva como un merecido ho-menaje a todas aquellas personas e instituciones que, con su trabajo y dedicación, hicieron posi-ble la construcción del Observatorio Astrofísico “Guillermo Haro”. Con ello, el agradecimiento de varias generaciones de astrónomos mexicanos que hemos disfrutado los beneficios de su obra.

”... que sirva como un merecido homenaje a todas aquellas personas e instituciones que, con su trabajo y dedicación, hicieron posible la construcción del Observatorio

Astrofísico Guillermo Haro.“

Un reconocimiento especial a todo el perso-nal de servicio y mantenimiento del Observato-rio, que durante casi 20 años ha trabajado, con dedicación y entusiasmo, para lograr que tanto el telescopio como los instrumentos astronómi-cos disponibles hayan estado a la altura de las exigencias de los importantes proyectos científi-cos que se han desarrollado en el Observatorio.

Referencias1. Daniel Malacara, Juan Manuel Malacara. Telescopios y Estrellas. 1988. Fondo de Cultura Económica. La Ciencia desde México (57).

2. Jorge Bartolucci. La Modernización de la Ciencia en México. El caso de los astrónomos. 2000. Universidad Nacional Autónoma de México. Centro de Estudios sobre la Universi-dad. Plaza y Valdés Editores. Colección Historia de la Educación. Serie Mayor. 3. Marco Arturo Moreno Corral, compilador. Historia de la Astronomía en México. 1986. Secretaría de Educación Pública. Fondo de Cultura Económica.

AgradecimientosAgradecemos profundamente la colabora-ción brindada por el Dr. Octavio Cardona Núñez, la Dra. Elsa Recillas Pishmish y el Ing. César Arteaga Magaña, en la elaboración del presente escrito.

José Ramón Valdés Parra obtuvo el grado de Doctor en Cien-cias, en la especialidad de Astrofísica, en 1999, otorgado por el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE). En la actualidad es Investigador Titular de la Coordinación de Astrofísica del INAOE e Investigador del Sistema Nacional nivel I. Las principales líneas de investigación, dentro de la As-tronomía Extragaláctica, son los Núcleos Activos de Galaxias y el estudio de la conexión entre los procesos de Formación Estelar y aquellos relacionados con la acreción de material hacia el Agujero Negro Central en este tipo de [email protected]

Figura 4. Vista panorámica del observatorio OAGH sobre el cerro de la Mariquita en Cananea, Sonora.

Enero-Junio 200727

Artículos de Divulgación

Literalmente, la ciencia se hace con los cin-co sentidos; las experiencias, que son el

inicio de nuestro conocimiento empírico, las adquirimos a través de ellos. Luego, obser-vando y experimentando, por ejemplo en el laboratorio donde reproducimos y controla-mos las variables hasta que, en algunos ca-sos, llega la revolución, la genialidad, el nue-vo paradigma, es decir, la nueva forma de ver o describir el fenómeno. Ésta es la base del desarrollo científico.

¿Cuántos sentidos tenemos? Un médico diría que cinco, alguien dirá que seis –contando uno más entre los atributos del sexo femenino–, pero fisiológicamente se re-conocerán sólo cinco, los asociados a las sen-saciones que tenemos a través de los ojos, la nariz, la lengua, la piel y los oídos.

La tecnología podría medirse en térmi-nos de la cantidad y calidad de extensión que inventa el ser humano para cada uno de nuestros sentidos, así, para la vista hemos in-ventado los anteojos, los telescopios, visores nocturnos, cámaras que nos permiten ver sin estar presentes, etcétera. Para el oído hemos

¿Qué ondascon el Cosmos?

Abraham Luna Castellanos

Equipado con sus cinco sentidos, el hombre explora el universoque lo rodea y llama a esa aventura: CIENCIA

Edwind P. Hubble

inventado audífonos y micrófonos, repro-ductores de música portátil, teléfonos, entre otros. Para el tacto hemos inventado robots, que hacen las cosas que podrían lastimarnos y que pueden estar sin problema en lugares difíciles para el ser humano. De igual mane-ra, para el olfato y gusto hemos desarrollado olores y sabores artificiales. Sin embargo, es-tos dos sentidos han sido poco impulsados tecnológicamente debido a nuestro limitado conocimiento de ellos.

“...la tecnología podría medirse en términos de la cantidad y calidad de

extensión que inventa el ser humano para cada uno de nuestros sentidos…”

¿Por qué un astrónomo famoso, como lo fue Edwin Hubble, habla de hacer ciencia con los cinco sentidos? ¿La astronomía ocupa los cinco sentidos en su quehacer cotidiano? ¿A qué sabe o huele una estrella? De la respuesta a esta pregunta podríamos empezar a descar-tar dos sentidos que al parecer no son útiles en las labores de un astrónomo. ¿Los tres res-tantes son cotidianamente útiles? Seguro que ahora la conclusión inmediata para todos es

Enero-Junio 200728

Artículos de Divulgación

que sólo la vista es el sentido que cotidiana-mente usará el astrónomo. Alguien podría du-dar y asegurar que el tacto nos sirve también, pues al menos a la Luna hemos llegado, ade-más en la Tierra hay material que seguramen-te llegó hasta aquí después de un largo viaje interplanetario, al cual podemos recoger con nuestras propias manos.

Una duda más reservada, o quizás errónea-mente la más común, sería que el oído también le sirve al astrónomo en su quehacer diario. Desafortunadamente esto es un gran error. Para quienes creen que el astrónomo oye algo que proviene del espacio exterior, debemos re-cordarles que el sonido es una onda longitudi-nal que se mueve a través de un medio elásti-co. ¿Qué medio elástico hay entre las estrellas? Ninguno, entre las estrellas prácticamente hay vacío, en promedio unos pocos miles de partí-culas por centímetro cúbico, insuficiente para ser el medio elástico por donde se transmitiera el sonido hasta los oídos del astrónomo. Queda entonces sólo la vista, la luz que llega y vemos de las estrellas, la onda electromagnética que viaja incluso en el vacío y más rápido que nin-guna otra cosa. Otra vez una onda.

“…entre las estrellas prácticamente hay vacío, en promedio unos pocos miles de partículas por centímetro cúbico,

insuficiente para ser el medio elásticopor donde se transmitiera el sonido

hasta los oídos del astrónomo.”

¿Qué es una onda? Tenemos tres sentidos que captan ondas: el tacto, el oído y la vista. Un temblor lo podemos percibir con el tacto, un sonido fuerte también. El caso del sonido podríamos entenderlo sim-plemente como variaciones de presión que se mueven en el aire y que tienen un comporta-miento periódico, es decir, que se repiten de modo regular en el espacio o en el tiempo. El caso de un temblor serían variaciones casi pe-riódicas del nivel del suelo o del punto de refe-rencia en él. Hay dos tipos de ondas: transver-sales y longitudinales (ver figuras siguientes), entre estos dos, ¿cuál es el caso para el sonido, el temblor y la luz?

| | | | |||||||| | | | | | | |||||||| | | | | | |||||||| | | | | |||||||| | | | | |Figura 1. Fotografía y esquema de una onda longitudinal.

/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/Figura 2. Fotografía y esquema de una onda transversal.

El sonido es una onda longitudinal, el tem-blor lo es también cuando se transmite dentro de la tierra, pero en la superficie se convierte generalmente en una onda transversal, como la luz, la cual es una onda en donde las varia-ciones de campo eléctrico y magnético varían perpendicularmente entre sí y con respecto a la dirección del movimiento.

El caso del sonido es el más sencillo para ex-perimentar y recordar las cualidades de las ondas: intensidad, tono y timbre. Éstas, a su vez, están relacionadas con parámetros físicos y conceptos prácticos. Así, la intensidad del sonido es conoci-da como volumen. Cuando gritamos y susurra-mos una letra, por ejemplo la A, la diferencia es el volumen o intensidad y el parámetro físico aso-ciado es la potencia de la onda sonora. El tono nos permite distinguir lo grave de lo agudo, por ejem-plo, entre las letras I y O, la I como chilla un ratón, es un sonido agudo y el otro, la O, es un sonido grave. El parámetro físico asociado con el tono es la frecuencia de la onda, es decir, la rapidez de los cambios de presión, así para los sonidos agudos la frecuencia es alta, y muchos cambios de presión llegan a nuestro oído en un segundo; para los sonidos graves recibimos menos cambios de pre-sión. Resumiendo, frecuencias altas son sonidos agudos y frecuencias bajas dan sonidos graves.

Enero-Junio 200729

Artículos de Divulgación

La última cualidad del sonido mencionada anteriormente fue el timbre, éste nos permite distinguir entre diferentes instrumentos, no sue-na igual el violín que el piano. Esta cualidad se debe a que el sonido que emite cada uno de ellos es, en realidad, una mezcla de varias frecuencias cercanas o de múltiplos enteros de ella, pero si permitimos que dominen algunas de éstas, el sonido cambiará ligeramente dándole el soni-do característico a cada instrumento. Cuando la mezcla se hace con ondas sonoras de diferente frecuencia e intensidad lo que generamos es ruido. Por el contrario cuando la mezcla se hace con ritmo y armonía el resultado es música. El parámetro físico relacionado con el timbre es la modulación, ésta nos permite reconocer la voz de cada integrante de nuestra familia. ¿Confun-dirías la voz de tu mamá con la de tu papá?

Como ya mencionamos, los temblores tam-bién son ondas que pueden medirse y se carac-terizan por estos tres parámetros: la intensidad del sismo, medida en escalas como la de Richter o Mercalli; la frecuencia y la modulación de la vi-bración, que nos permiten caracterizar el tipo de suelo a través del cual se propagó la vibración.

“…los temblores también son ondas que … se caracterizan por tres parámetros: la intensidad del sismo, medida en escalas

como la de Richter o Mercalli; la frecuencia y la modulación de la vibración, que nos permiten caracterizar el tipo de suelo a través del cual se propagó la vibración.”

Por fin, llegamos al fenómeno indispensable para el astrónomo: las ondas electromagnéticas, en particular la luz. La principal tarea de un astró-nomo es medir estos tres parámetros para las on-das electromagnéticas: la intensidad de la luz, su frecuencia y su modulación del haz de luz. ¿Cómo se puede lograr esto? Tenemos varios ejemplos co-tidianos que nuestros ojos perciben: la luz del Sol es más intensa que la luz de una vela, los colores los podemos distinguir uno de otro gracias a que tienen diferente frecuencia y, por el fenómeno de refracción de una onda, podemos saber que un haz de luz blanca es en realidad la mezcla de on-das electromagnéticas de diferentes frecuencias, el arco iris es una bella demostración de este hecho.

La Astronomía basa sus principales resulta-dos en los datos que colecta mediante sondas espaciales y por medio del análisis de las ondas electromagnéticas que recibimos en la tierra de diferentes frecuencias: radio, microondas, infrarrojo, luz (visible), ultravioleta, rayos X y ra-yos cósmicos. Las ondas electromagnéticas son variaciones del campo eléctrico y, perpendicu-larmente a él, del campo magnético. Juntos se mueven, en una dirección perpendicular a am-bos, con una rapidez mayor a la que ningún objeto se puede desplazar, aproximadamente 300,000 km/s en el vacío.

“Las ondas electromagnéticasson variaciones del campo eléctrico y,

perpendicularmente a él,del campo magnético.”

Para conocer qué produce una onda elec-tromagnética, recordaremos el caso del soni-do, en el cual la onda se genera por un movi-miento mecánico, lo suficientemente rápido y periódico, que al interactuar con el aire que lo rodea, cause las zonas de mayor y menor pre-sión consecutivamente. Algo muy parecido será un temblor, sólo que aquí el medio será la tierra en lugar del aire. Para el caso de las ondas electromagnéticas hay tres formas y no necesi-tan de un medio:

- Cambios energéticos a nivel atómico o mo-lecular, que producen transiciones electróni-cas y/o transiciones moleculares rotacionales y/o vibracionales. - Aceleración de cargas eléctricas, como en las estaciones radiodifusoras. Los casos de emi-sión sincrotrón y ciclotrón emitida por cargas eléctricas en presencia de campos magnéti-cos, y la llamada bremsstrahlung emitida por cargas eléctricas en campos eléctricos.- Cargas a velocidades comparables a la de la luz, conocida como radiación Cherenkov.

El Gran Telescopio MilimétricoPara la astronomía, los instrumentos que se usan desde la antigüedad son los ojos. Culturas en Medio Oriente, Europa y Mesoamérica tienen vestigios de un paciente y metódico estudio de los objetos más brillantes, como lo son el Sol,

Enero-Junio 200730

Artículos de Divulgación

la Luna, algunas pocas estrellas y algunos pla-netas. México cuenta con una larga historia en Astronomía (ver artículos sobre los Observato-rios de Tonantzintla y Cananea en este número). Sin embargo, los dos telescopios profesionales de mayor tamaño con que cuenta actualmente, tienen espejos primarios de 2.1m de diámetro y trabajan en la región del espectro visible e infra-rrojo. Uno de estos telescopios está localizado en Cananea, Sonora (ver artículo sobre el OAGH en este número) y es operado por el INAOE, y el otro se encuentra en la Sierra de San Pedro Mártir, en Baja California Norte, y es operado por el Instituto de Astronomía de la UNAM. Aunque ambos telescopios generan datos que permiten a los astrónomos mexicanos estar a la par que muchos astrónomos de otras partes del mundo, ya son limitados por su propio tamaño.

El Gran Telescopio Milimétrico (GTM) es un nuevo instrumento, recientemente inaugu-rado, que estará optimizado dentro la región espectral de las microondas, es decir, ondas electromagnéticas a frecuencias entre 75 y 300GHz (GHz, quiere decir, miles de millones de variaciones del campo electromagnético por segundo, en longitudes de onda éstas se-rán entre 1mm y 4mm, por lo que también son llamadas ondas milimétricas); es un radiotele-scopio con una antena principal, de tipo para-boloide de revolución (sección transversal pa-rabólica) de 50 metros de diámetro. El proyecto GTM ha terminado su etapa de construcción e iniciará la de ajuste de instrumentos. Cada uno de los instrumentos es un prototipo diseñado científicamente para un objetivo específico, son instrumentos para los cuales se han inven-tado nuevas tecnologías que pronto veremos aplicadas a la industria, la medicina y comuni-caciones. El proyecto es una colaboración entre el INAOE en Tonantzintla, México y la Universi-dad de Massachusetts Amherts, Estados Uni-dos. GTM y sus instrumentos en poco tiempo darán a la comunidad astronómica mexicana, e internacional, nueva información del universo.

¿Cómo funciona el GTM? Como la mayoría de los telescopios, tiene una superficie principal o primaria que colecta las ondas milimétricas, éstas son reflejadas a una

superficie secundaria, la cual las enfoca en un punto donde se colocan los detectores que registran y procesan las señales. El funciona-miento básico es el mismo de un radio recep-tor comercial de frecuencia modulada. Usa una técnica dividida en dos etapas, una a altas fre-cuencias en la detección inicial y otra etapa de baja frecuencia, esta última la consigue de la diferencia entre la inicial y la generada por un oscilador local a una frecuencia fija cercana a la que se desea sintonizar, finalmente se procesa la diferencia y esto le permite mejor control de los parámetros a medir, pues es relativamente mas fácil el procesamiento a bajas frecuencias.

Figura 3. Diagrama esquemático de un radiotelescopio.

¿Qué observará? Básicamente verá la componente molecular que hay entre las estrellas de nuestra galaxia y las galaxias vecinas. Sí, entre las estrellas hay moléculas flotando y vagando entre esas in-mensas distancias, la cantidad por centímetro cúbico es muy pequeña, del orden de unas mi-les por centímetro cúbico, pero en total, gran-des cantidades por la inmensidad de espacio, lo que permite que sean ubicadas. Actualmen-te se han localizado unas 150 especies molecu-lares y se espera la detección de muchas más como los son los fullerenos (nano-moléculas como el revolucionario C-60) y los hidrocar-buros poli-aromáticos (PAH´s por sus siglas en ingles). El tema es sensiblemente interesante, pues se han detectado moléculas como H2O, CO, NH3, y cadenas hasta de 12 elementos en donde abundan C, O, y H. Se espera encontrar moléculas prebióticas y con esto replantear el origen mismo de la vida. Otro tema muy impor-tante que abordará el GTM serán las galaxias más lejanas en el Universo, que son galaxias

Enero-Junio 200731

Artículos de Divulgación

muy tempranas; por lo tanto, permitirán ha-cer deducciones sobre su evolución. También estudiará planetas y sus atmósferas, así como cometas en el Sistema Solar y un tema crucial dentro de la astronomía, que es el de cómo se forman las estrellas, fenómeno que inicia en las nubes moleculares.

“Se espera encontrar moléculas prebióticas y con esto replantear

el origen mismo de la vida.”

¿Por qué se construyó en este lugar? Debido a la elevación del sitio, el Volcán Sierra Negra se encuentra a aproximadamente 4,600m sobre el nivel del mar. Tiene poca humedad (vapor de agua), lo que hace que la atmósfera sea más transparente a las ondas milimétricas. Además, debido a su latitud, desde La Negra se podrá observar el centro de nuestra galaxia, la Vía Láctea, a una buena elevación, y de esta ma-nera descubrir qué sucede en los núcleos de las galaxias. Por la misma razón, será un buen alia-do para presentes y futuros proyectos en ela-boración en el hemisferio sur como son ALMA (Atacama Large Milimeter-Array, el arreglo de ra-dio-telescopios más ambicioso del mundo, que estará listo en una década) y el VLT (Very Large Telescope, telescopios ópticos-infrarrojos que trabajarán interconectados). Y por otro lado con los telescopios orbitales, que prácticamente no tienen restricciones en su línea de visión. GTM podrá observar parte del hemisferio sur y todo el hemisferio norte, potenciando su utilidad.

“…desde La Negra se podrá observarel centro de nuestra galaxia,

la Vía Láctea, a una buena elevación,y de esta manera descubrir qué sucede

en los núcleos de las galaxias…”

El GTM es un proyecto que inició hace más de 10 años, en el que han participado un gran núme-ro de personas: astrónomos, técnicos, estudiantes, administradores, etcétera, cuyo esfuerzo se verá re-flejado en el impacto científico a nivel mundial con los resultados que aporte este gran instrumento.

Referencias 1. María Cristina Piña Barba, La Física en la medicina I y II. Serie La ciencia para todos, Fondo de Cultura Economica, 1998 y 2006.2. Luis Felipe Rodríguez, Un universo en expansión, Serie La ciencia para todos, Fondo de Cultura Económica, 1995.3. Arturo Menchaca Rocha, El discreto encanto de las partículas elementales, Serie La ciencia para todos, Fondo de Cultura Económica, 2003.

Abraham Luna Castellanos, egresado de la Licenciatura en Fí-sica de la BUAP, tiene los grados de Maestría y Doctorado en As-trofísica en el INAOE. Actualmente investigador asociado en la Coordinación de Astrofísica del mismo INAOE. Los temas de su interés son Estructura y cinemática galáctica, Radioastronomía y formación estelar. En divulgación ha participado haciendo di-ferentes actividades desde hace aproximadamente10 añ[email protected]

Figura 4. El GTM sobre el cerro “La Negra”.

Enero-Junio 200732

Artículos de Divulgación

IntroducciónLa característica que ha diferenciado al ser hu-mano de las otras especies ha sido la capacidad técnica para la transformación del ambiente. Sin embargo, esta connotación adaptativa del medio a la vida humana se ha convertido en una extre-ma dependencia en la tecnología, creando una serie de espacios difusos que no permiten discer-nir los vínculos o los límites existentes entre cien-cia, tecnología y sociedad. Algunos autores (Beck, 1998; Martín Gordillo y López Cerezo, 2000; Waks, 1990), se han avocado al estudio de estos espa-cios y reflexionan: que los artefactos tecnológicos o la tecnología no definen a la sociedad, sino que la abrazan, la circundan, la rodean; pero al mismo tiempo concluyen que tampoco la sociedad defi-ne la innovación tecnológica, sino que la usa. Sin embargo, en realidad la definición de los avances tecnológicos y científicos depende de un patrón

La aplicación de los estudios Ciencia,

Tecnología y Sociedad (CTS) en el Instituto

Tecnológico de Puebla (ITP)

María Evelinda Santiago Jiménez

de interacciones complejas de las que los grandes sectores sociales están apartados, al igual que la diversidad ecológica porque ambas son utilizadas como mano de obra y como insumo de los siste-mas productivos de esta última, no se respeta su derecho de permanencia y sus tiempos de repro-ducción, lo que ha devenido en la crisis ecológica que vivimos. Contrariamente, el uso de la ciencia y la tecnología es para que un reducido número de seres humanos logren obtener grandes dividen-dos. Toman el control de la ciencia y la tecnología para la creación de bienes suntuarios, diseñados y construidos con fecha de caducidad.

“… la tecnología no definen a la sociedad, sino que la abrazan, la circundan,

la rodean; pero al mismo tiempo… tampoco la sociedad define la innovación

tecnológica, sino que la usa.”

Enero-Junio 200733

Artículos de Divulgación

Aquí no se pone a discusión la importan-cia de la ciencia y la tecnología para la socie-dad, ya que éstas son determinantes para el desarrollo económico de los países y para la calidad de vida de los seres humanos, como es la salud. Pero también se debe hacer ver que ambas son responsables de la transfor-mación de los paisajes naturales y de los cam-bios en las formas de vida. Por otra parte y pa-radójicamente gracias al desarrollo científico y tecnológico en los medios de comunica-ción, la ciudadanía está más informada y está preocupada por los efectos de ciertos desa-rrollos tecnocientíficos, como son los Orga-nismos Genéticamente Modificados (OGMs), el desarrollo de nuevas armas biológicas, la producción de alimentos con materia prima contaminada (especialmente agua), el uso criminal de animales para experimentos, los desastres tecnológicos por negligencia técni-ca, tecnología nuclear, entre otros. Los ciuda-danos hoy se plantean interrogantes singula-res sobre lo que somos (cuando ya es posible la replicación de seres vivos idénticos, lo que comemos (cuando ya es posible la creación de alimentos transgénicos), lo que sabemos

(cuando las redes de comunicación casi han llegado a ser infinitos) (Martín Gordillo y Ló-pez Cerezo, 2000) y lo que permaneceremos (cuando el riesgo es la constante debido a la criminalidad, los desastres naturales provoca-dos por el uso irreverente de la ciencia y la tecnología y la globalización de los desastres de los procesos industriales).

Los estudios CTS1

Los cuestionamientos anteriores pueden tener un mejor acercamiento si la ciudadanía se en-cuentra al tanto de las relaciones que se dan en-tre la ciencia y la tecnología con la sociedad. Los Estudios CTS son una alternativa que provee una conexión con el mundo real. Desde las aulas de clase, el proceso pretende darle al estudiante la práctica de identificar problemas potenciales, re-colectar datos respecto al problema, considerar soluciones alternativas y las consecuencias basa-das en una decisión en particular. Por otra parte, los estudios CTS establecen que una sociedad evolucionada por las ciencias y las tecnologías demanda que los ciudadanos manejen saberes científicos y técnicos, para que puedan respon-der a necesidades de diversa índole, sean estas

Figura 1: Desencuentro: Raramuris y artefacto tecnológico.

Enero-Junio 200734

Artículos de Divulgación

profesionales, utilitarias, democráticas, operati-vas, incluso metafísicas y lúdicas (Osorio 2002). Para que los ciudadanos manejen esos saberes es necesario dar a la sociedad ciudadanos alfa-betizados tecnocientíficamente, es decir gente que tenga la información que les permita parti-cipar en las decisiones –como son la definición de políticas sobre ciencia y tecnología, por ejem-plo: ¿para qué sirve el estudio del genoma de los mexicanos? ¿Servirá al pueblo o a las corporacio-nes? ¿Cuál será su uso?2 – que les impacten nega-tivamente como ciudadanos, específicamente las decisiones políticas sobre ciencia y tecnología.

Dentro de las aulas, los programas CTS son un complemento curricular para estudiantes de di-versas procedencias (Osorio 2002) por un lado, se ofrece a los estudiantes de ingeniería y de ciencias naturales una formación humanística básica y por otro a los estudiantes de humanidades un acer-camiento holístico a la ciencia. En ambos casos se busca desarrollar una sensibilidad crítica sobre los impactos sociales y ambientales derivados de las nuevas tecnologías, enfatizando la naturaleza so-cial de la ciencia y la tecnología, el rol político de los expertos y su propia posición en esas situacio-nes. Las formas en que la educación CTS se da, van desde Injertos CTS hasta educación en valores. Este esfuerzo reside en incorporar actitudes de responsabilidad personal y social en la evaluación científica y tecnológica. La orientación es lograr una enseñanza de calidad y mejores actitudes ha-cia el aprendizaje de la ciencia y la tecnología3. En este sentido, CTS busca promover y desarrollar for-mas de análisis e interpretación sobre la ciencia y la tecnología dentro de un ambiente interdiscipli-nario, en donde se destacan la historia, la filosofía y sociología de la ciencia y la tecnología, así como la economía del cambio técnico y las teorías de la educación y del pensamiento político. Una de las herramientas que facilita la alfabetización tec-nocientífica es la estrategia llamada Simulación Educativa con Enfoque en Ciencia, Tecnología y Sociedad (CTS) o Injerto CTS.

“Una de las herramientas que facilita la alfabetización tecnocientífica es la

estrategia llamada Simulación Educativa con Enfoque en Ciencia, Tecnología y

Sociedad (CTS) o Injerto CTS.”

La simulación educativa con enfoque CTS o injerto CTSEsta modalidad de trabajo es especialmente útil para abordar una temática dentro de un curso de ciencias o de tecnología. Se trata que a una asig-natura tecnológica o científica, se le introduzca un tema CTS. Regularmente este tema tiene que ver con la naturaleza de la ciencia y sus implicaciones con la tecnología y la sociedad, así como del papel de los científicos y de los ciudadanos en las decisio-nes relacionadas con el desarrollo tecnocientífico. La estrategia consiste en darle a una asignatura tecno-lógica una visión CTS donde se resalte la naturaleza de la tecnología, las interacciones entre tecnología y sociedad, y entre tecnología y ciencia (Acevedo, 1996); además de las preocupaciones acerca de los fines de los sistemas tecnológicos y la forma como nos afectan en la vida personal, familiar y social.

Figura 2. Naturaleza regresada como basura.

Los injertos o los estudios de caso, sean estos reales o simulados, resultan ser una herramienta importante para problemas locales, son de gran utilidad para provo-car en los estudiantes conciencia sobre las implicaciones de la ciencia y la tecnología. Esta estrategia de aprendizaje se enfoca a los conceptos centrales y principios de una disciplina, involucra a los estudiantes en la solución de problemas y otras tareas signifi-cativas, les permite trabajar de manera autó-noma para construir su propio aprendizaje y culmina en resultados reales generados por ellos mismos. Para lograr el aprendizaje es imperativo que los estudiantes manejen una diversidad de fuentes de información y disciplinas que son necesarias para resolver problemas o contestar preguntas que sean

Enero-Junio 200735

Artículos de Divulgación

realmente relevantes. El maestro presenta una situación real en forma de noticia local4, los estudiantes deben reflexionar5 sobre tal noticia y fijar su postura que expresan en un breve escrito y comentan en clase. El maes-tro solicita que sean identificados el proble-ma y las posibles causas, invitándolos a in-vestigar buscando hechos relacionados. Al presentar los resultados de su investigación, se discuten grupalmente y se privilegia el proceso de examinar los hechos, datos, et-cétera, relacionándolos con principios cien-tíficos y tecnológicos presentes. El maestro orienta e incita a profundizar la búsqueda de los principios, teorías, hipótesis, señala-das por los estudiantes y una vez hecho esto, se les pide que propongan una solución y la proyecten; el paso final es que el estudiante actúe, es decir, lleve a la práctica, en lo posi-ble, la solución al problema planteado; asu-ma una posición frente a ese hecho, piense, sienta y actúe diferente, tome conciencia. Una vez efectuado lo anterior, los procesos mentales que han intervenido en estas ac-ciones se traducen en un producto que no es totalmente predecible, pero sí vinculado con el entorno real y laboral del estudiante, convirtiéndolo en un verdadero actor del ser y devenir de su entorno. De esta manera, se fomenta que el alumno investigue utilizan-do las técnicas propias de las disciplinas en cuestión, llevándolo así a la aplicación de es-tos conocimientos a otras situaciones, maes-tros y otras personas involucradas con el fin de que el conocimiento sea compartido y distribuido entre los miembros de la “comu-nidad de aprendizaje”. Al mismo tiempo se desarrollan una variedad de habilidades so-ciales relacionadas con el trabajo en grupo y la negociación, se promueve la asimilación de conceptos, valores y formas de pensa-miento. Se provoca la creación de un clima en donde los estudiantes puedan aprender y practicar una variedad de habilidades y dis-posiciones para “aprender a aprender”, a de-sarrollar la iniciativa propia, la persistencia y la autonomía, orientándose a suscitar y ayu-dar a desarrollar en el educando habilidades metacognitivas, tales como autodirección y autoevaluación, ocasionando un aprendiza-

je significativo que integra conceptos de di-ferentes materias. Las condiciones para que se dé la estrategia son: flexibilidad, apertura, libre expresión de ideas; en breve, crear un ambiente favorable para la participación in-dividual y grupal y por ende la posibilidad de aprender tanto de errores como de acier-tos. Esta estrategia supone la definición de nuevos roles para el alumno y para el profe-sor, muy diferentes a los ejercidos en otras técnicas y estrategias didácticas. El maestro está continuamente monitoreando la apli-cación en el salón de clase, observando qué funcionó y qué no, volviéndose estudiante al aprender cómo sus alumnos aprenden; lo anterior, le permite determinar cuál es la mejor manera en que puede facilitarles el aprendizaje, actuando como un proveedor de recursos y en un participante de las ac-tividades de aprendizaje. Los estudiantes lo consideran un asesor o colega más que un experto, porque les motiva a una participa-ción activa en la construcción y refinamiento de los aprendizajes, tanto procedimentales como actitudinales (Bruner 1996).

“Los estudiantes lo consideranun asesor o colega más que un

experto, porque les motiva a una participación activa en la

construcción y refinamientode los aprendizajes…”

La aplicación de la simulación educativa con enfoque CTS en el ITPEl Sistema Nacional de Educación Superior Tecnológica6 (SNEST) está constituido por Institutos Tecnológicos del Mar, Agropecua-rios e Industriales, el Instituto Tecnológico de Puebla es parte de este último grupo ubicado geográficamente a lo ancho y largo del país. En marzo de 2004 el SNEST saca a la luz el Mo-delo Educativo para el Siglo XXI en el que dice que toma la decisión “[…] de convertirse en un actor comprometido y destacado de esta nueva era, donde la capacidad de reflexión ideológica y el acceso al conocimiento, así como la competencia para generarlo y apli-carlo en beneficio del ser humano y la preser-vación de la naturaleza, serán los principales

Enero-Junio 200736

Artículos de Divulgación

componentes de la identidad de las naciones y su viabilidad en la historia (SNEST, 2004:10)”. Siendo el Sistema un organismo federal avo-cado mayormente –desde hace más de 50 años– a la formación de ingenieros para for-talecer el desarrollo industrial del país, reco-noce la importancia del impacto que tiene en la vida social y ecológica de México, por lo que decide reestructurar las curriculas de las diferentes licenciaturas y posgrados e in-cluir materias que induzcan a los alumnos a reflexionar sobre su compromiso social y eco-lógico en el ejercicio de su profesión. Una de las materias que se encuentra dentro de las currículas de todas las licenciaturas es la de-nominada Desarrollo Sustentable7. En el caso de los alumnos de la licenciatura en Informá-tica se empezó a impartir desde el segundo semestre del 2005. Desarrollo Sustentable es una materia diseñada con cinco grandes te-mas que son desglosados en temas particu-lares que tocan rubros que incluyen: Impacto de las actividades humanas sobre el medio ambiente, Valores y ética ambiental, Desarro-llo Sustentable y evolución de la legislación ambiental, Calidad de vida y el Desarrollo Sustentable y Fomento del desarrollo susten-table a partir de las carreras del SNEST.

Regularmente, los alumnos que incur-sionan en la vida académica del Instituto Tecnológico de Puebla llegan con un baga-je cultural escaso, ocasionado por su poco interés en la lectura, en consecuencia tienen una exigua habilidad para la redacción, sin dejar de mencionar hermetismo para emitir sus pensamientos –cuando se les cuestiona– ante el público que se encuentra en el aula. Teniendo este contexto, se reflexionó que co-ordinar una clase de manera tradicional sólo incrementaría o fortalecería las debilidades que los alumnos traen de suyo, por lo que se consideró que una manera de hacer partici-par activamente a los alumnos era incluir una Simulación Educativa de Caso CTS o Injerto CTS. Como complementos, se les hacen llegar lecturas sobre temas sociales y ecológicos actuales, que son comentadas en clase; se invitan a colegas expertos en temas de con-taminación para que les dicten una charla

durante una hora; se les proyectan películas con contenido referente a los temas que la materia sugiere y se realizan visitas a centros donde se estén llevando a cabo recuperacio-nes de la diversidad social y ecológica como es el “Museo del Agua8” y “Las Cañadas9”.

Figura3. Museo del agua.

Después de cada una de las actividades se les hace llegar un cuestionario para que el profesor y ellos mismos conozcan el grado de apropiación de la información, cabe mencionar que éste no tiene la calidad de examen, sino es para que cada alumno se evalúe a sí mismo. Al inicio del curso se les pide contestar 10 preguntas sobre el tema Desarrollo Sustentable y se ha encontrado que el desconocimiento es muy grande, poco saben de la contaminación ambiental y sobre la pro-blemática social que existe en el planeta. A partir de esta actividad se les dicta una charla sobre el tema, rica en contenido fotográfico, mostrando los impactos globales sobre el planeta que tienen las actividades de la vida moderna. Se les induce a investigar con mayor profundidad sobre los te-mas expuestos para que sean discutidos en cla-se. Los resultados son sorprendentes porque los alumnos empiezan a emitir con soltura su punto de vista, haciendo referencia a hechos que ob-servan en el entorno donde se desenvuelven. Al mismo tiempo que se desarrollan las actividades antes mencionadas se les presenta la estructura de lo que será el injerto CTS, éste consiste en una noticia relevante que es analizada durante todo

Enero-Junio 200737

Artículos de Divulgación

el semestre, dándoles oportunidad de investigar para crear una postura al respecto. Hasta este momento se han desarrollado tres Simulaciones Educativas CTS: Desastre ecológico causa Pemex por fuga de gasolina en Xicotepec de Juárez, Pue-bla –caso real ocurrido en agosto de 2005–, La Es-cuela en la red y AIDS 2001: la vacuna contra el sida10. Para el injerto los alumnos forman equipos simulando ser cada uno de los actores que están implicados en el problema.

“…los alumnos empiezan a emitir con soltura su punto de vista, haciendo

referencia a hechos que observan en el entorno donde se desenvuelven…”

Durante varias semanas se llevan a cabo debates donde cada actor presenta su pos-tura, el resto hace preguntas y opina a favor o en contra. A final del semestre los alumnos organizan un foro presentado ante la co-munidad de la institución y cada asistente puede emitir su opinión y hacer preguntas a los alumnos que ellos contestan con sol-tura debido a la investigación que han he-cho previamente. Como actividad de cierre se les aplica de nuevo el cuestionario sobre Desarrollo Sustentable para conocer el gra-do de aprendizaje. Los resultados que se han obtenido son alumnos que aprenden a ha-blar en público, hacen preguntas con cono-cimiento de causa, mejoran su redacción y se interesan por los temas relacionados con la crisis social y ecológica del planeta. Se cali-fica la responsabilidad, la profundidad en la investigación sobre el actor que les tocó, la ética y cooperación dentro del equipo y con el grupo, entre otros valores. Finalmente, se tiene una plática con cada uno de los equi-pos para que ellos evalúen su participación y comenten sobre qué aprendieron y qué les faltó hacer para que por ellos mismos obtu-vieran un mejor resultado.

“Los resultados que se han obtenido son alumnos que aprenden a hablar en público,

hacen preguntas con conocimiento de causa, mejoran su redacción y se interesan

por los temas relacionados con la crisis social y ecológica del planeta. “

ConclusionesEn los últimos años hemos sido protagonistas de eventos que nos hacen cuestionar la posibi-lidad de vivir con tranquilidad. Continuamente se lee en los diarios noticias que nos muestran fenómenos naturales donde perecen cientos o miles de seres humanos, flora y fauna; movi-mientos sociales que reclaman justicia social o ecológica y desastres tecnológicos que conta-minan el agua, suelo y aire del planeta. El pa-norama nos dice que es urgente reconsiderar nuestros actos e iniciar actividades que dismi-nuyan la crisis social y ecológica. Una educa-ción social y ecológicamente responsable es una alternativa para construir una ciudadanía alfabetizada tecnocientíficamente para que pueda participar en todas aquellas decisiones que generen emergencias sociales y/o eco-lógicas. Los Estudios con Enfoque en Ciencia, Tecnología y Sociedad (CTS) son una estrategia que educa para participar en ciencia y tecnolo-gía de manera responsable. El documento hace referencia a los resultados de su aplicación en la materia Desarrollo Sustentable impartida en el Instituto Tecnológico de Puebla.

1La Organización de Estados Iberoamericanos (OEI) pro-

mueve a través de sus cátedras los Estudios de Ciencia Tecnología y Sociedad (CTS) con un enfoque que cons-tituye un campo interdisciplinario centrado en el estudio de las relaciones de la ciencia y la tecnología con su entor-no social. Busca el objetivo de conciliar una orientación de la ciencia y la tecnología hacia la innovación produc-tiva con la preservación de la naturaleza y la satisfacción de las necesidades sociales. Para más información visitar: http://www.oei.es

2Servin, Mirna. “Discutir el derecho genómico”. La Jornada.

Lunes de la Ciencia. 19 de marzo de 2001. http://www.jornada.unam.mx/2001/03/19/cien-servin.html. Cabral R. Antonio. “El genoma humano”. La Jornada. Lunes de la Ciencia. 2 de julio de 2000. http://www.jornada.unam.mx/2000/07/04/cien-genoma.html

3Aquí se considera, por ejemplo, el ciclo de responsabili-

dad social de Waks (1990); que consta de las siguientes etapas: a) Formación de actitudes de responsabilidad personal en relación con el ambiente natural y con la ca-lidad de vida; b) Toma de conciencia e investigación de temas CTS, enfatizando el bien individual y el bien co-mún; c) Toma de decisiones en relación a estas opciones considerando factores científicos, tecnológicos, políticos, éticos y económicos; d) Acción individual y social res-ponsable para llevar a la práctica el proceso de estudio y

Enero-Junio 200738

Artículos de Divulgación

toma de decisiones; e) Generalización a consideraciones más amplias de teoría y principio incluyendo la naturale-za sistémica de la tecnología y sus implicaciones sociales y ambientales, la formulación de las políticas en las demo-cracias tecnológicas modernas y los principios éticos que puedan guiar el estilo de vida y las decisiones políticas sobre el desarrollo tecnológico.

4Originalmente se pensó en una noticia ficticia, como lo

hace el Grupo Argo (http://www.grupoargo.org/), pero dado que en nuestro país son muy frecuentes las noti-cias que ponen de manifiesto algún desastre ecológico natural o bien atentados contra el ambiente, se sugiere trabajar con noticias reales.

5Se le ha denominado estrategia REPA (REFLEXIO-

NAR, EXAMINAR, PROYECTAR Y ACTUAR (Arroyo y Santiago, 2005).

6http://www.dgit.gob.mx/dgest/popaso.htm

7Es importante aclarar que cada área colocó la materia en dife-

rentes periodos. En este documento sólo se hará referencia a la licenciatura en Informática. Desarrollo Sustentable es una ma-teria que se imparte a alumnos de tercer y cuarto semestre.

8http://www.alternativas.org.mx

9http://www.bosquedeniebla.com.mx

10El primer caso fue elaborado por la que escribe este

documento, pero los dos siguientes son producto del Grupo Argo. Para más información visitar: http://www.grupoargo.org/

Referencias1. Acevedo José Antonio. “Cambiando la práctica docente en la enseñanza de las ciencias a través de CTS”. Revista Borrador, 13, 26-30. 1996. En línea en Sala de Lecturas CTS+I de la OEI, <http://www.campus-oei.org/salactsi/acevedo2.htm>2. Arroyo Gloria y Evelinda Santiago. “Estrategia REPA para la formación en Desarrollo Sustentable y Productividad en el Sistema Nacional de Educación Superior Tecnológica” 3ème Congrès de l’ADERSE. 18 et 19 octobre 2005 à Lyon. France. Congrès de l’Association pour le Développement de l’Enseignement et de la Recherche sur la Responsabilité Socialede l’Entreprise. 2005.3. Jerome Bruner. “The Culture of Education”. Cambridge, MA: Harvard University Press. 1996.4.Mariano Martín Gordillo. “¿La escuela en la red?”. Simulación educativa de un caso CTS

sobre la educación y nuevas tecnologías. Seminario-taller sobre Materiales Didácticos CTS en la Enseñanza Media. La Antigua, Guatemala. Organización de Estados Iberoamericanos. 2004.5. Mariano Martín Gordillo. “AIDS-2001: la vacuna contra el sida. Simulación educativa de un caso CTS sobre salud”. Madrid. Organización de Estados Iberoamericanos. 2001.6. Mariano Martín Gordillo y José Antonio López Cerezo. “Acercando la Ciencia a la sociedad. La perspectiva CTS, su implantación educativa”. En: Ciencia, tecnología/naturaleza, cultura del siglo XXI. Coordinadores: M. Medina y T. Kwiatkowska pp:45-75. Barcelona. Anthropos-UAM. 2000.7. Osorio Carlos. “La Educación Científica y Tecnológica desde el enfoque en Ciencia, Tecnología y Sociedad. Aproximaciones y Experiencias para la Educación Secundaria”. En: Revista Iberoamericana de Educación. Enseñanza de la Tecnología. Número 28. Enero-Abril, 2002. En línea en Revista Iberoamericana de Educación de la OEI. <http://www.rieoei.org/rie28a02.htm> 8. SNEST. “Modelo Educativo para el Siglo XXI”. México. CosNet. 2004.9. Ulrich Beck, “Sociedad del Riesgo. Hacia una nueva modernidad”, Ediciones Paidós, Barcelona, 1998.10. Waks Leonard J. “Educación en ciencia, tecnología y sociedad: orígenes, desarrollos internacionales y desafíos intelectuales”. En: M. Medina y J. Sanmartín (Eds.): Ciencia, Tecnología y Sociedad, pp. 42-75. Barcelona: Anthropos. 1990.

María Evelinda Santiago Jiménez estudió su Doctorado en Ciencias en Planificación de Empresas y Desarrollo Regional en el Instituto Tecnológico de Oaxaca (Octubre de 2004) con la Te-sis: “La Participación local en Procesos Productivos Sustentables: Estudio de caso en tres comunidades de la Costa de Oaxaca”. Ac-tualmente es Catedrática de la Maestría en Ciencias en Ingeniería Ambiental y de la Maestría en Ciencias en Ingeniería Mecánica, Profesora invitada en el Departamento de Ciencias Económico-Administrativas e Investigadora de la División de Estudios de Pos-grado e Investigación del Instituto Tecnológico de Puebla (ITP). [email protected]

Enero-Junio 200739

Artículos de Divulgación

IntroducciónEl desarrollo del conocimiento alberga múltiples trampas y caminos falsos, sólo el trabajo persis-tente y coherente permite alcanzar las escarpa-das cumbres del conocimiento. El acto de escu-driñar el intricado mundo de lo desconocido en busca de nuevos conocimientos requiere de una voluntad y bases teóricas firmes, además de mucha paciencia y perseverancia. Además de lo anterior, es claro que una concepción filosófica adecuada permite la elaboración de un méto-do que, cual plano, guíe en las penumbras de la exploración. La afirmación “El problema de si al pensamiento humano se le puede atribuir una verdad objetiva, no es un problema teórico, sino un problema práctico. Es en la práctica donde el hombre tiene que demostrar la verdad, es de-cir, la realidad y el poderío, la terrenalidad de su pensamiento. El litigio sobre la realidad o irreali-dad de un pensamiento que se aísla de la prác-tica, es un problema puramente escolástico”[1]. Expuesta en el siglo XIX, muestra un método de análisis donde se pondera la práctica como el criterio absoluto de la verdad, no la práctica ais-lada y ocasional, tampoco la práctica circunstan-

El trabajo experimental: ¿una alternativa para

la construcción del conocimiento?

José G. Vázquez Luna

cial, aislada de una premisa basada en las teorías previas, en el área dada del conocimiento, sino la práctica cernida y decantada en todas las cribas del conocimiento pre-existente. No hay praxis donde no hay voluntad consciente, deseo pre-determinado, proyecto, concepto de la obra por realizar. Aristóteles señala en su metafísica que la contemplación (teoría) es la praxis más eleva-da que puede realizar el ser humano [2].

“El desarrollo del conocimiento alberga múltiples trampas y caminos falsos,

sólo el trabajo persistente y coherente permite alcanzar las escarpadas

cumbres del conocimiento.”

En enero de 1896 se publicó la noticia del descubrimiento de los rayos X, misteriosa y enigmática radiación descubierta por un casi desconocido Wilhelm Conrad Roentgen1, pro-fesor del Instituto de Física de la Universidad Würzburg. En cambio, en el mundo científico era ampliamente conocida su meticulosidad y seriedad. Era sabido que Wilhelm Conrad Roentgen sólo publicaba sus artículos cuando,

Enero-Junio 200740

Artículos de Divulgación

después de explorar los múltiples caminos, concluía que las mediciones de sus experi-mentos y las conclusiones obtenidas no tenían error alguno; de existir alguna duda, se abste-nía de publicar. Roentgen consideraba que el experimento es el máximo juez, sólo el expe-rimento decide el destino de la hipótesis, sólo el experimento permite saber si la hipótesis es correcta o es necesario deshacerse de ella. En 1895 Roentgen inició estudios para compren-der el fenómeno de la corriente eléctrica en gases enrarecidos; los estudios previos dividían las opiniones de los científicos entre la posibili-dad de ser ondas electromagnéticas o partícu-las cargadas las que se desplazaban a lo largo de estos gases enrarecidos. Buscando la verdad en esta diferencia de opiniones, para finales de octubre, reunió los elementos suficientes para realizar una serie de experimentos que consi-deraba necesarios para discernir entre las hipó-tesis planteadas. En el inicio de los experimen-tos se planteó emplear una esfera de vidrio con dos placas metálicas en su interior, conectadas eléctricamente al exterior; posteriormente Roentgen tomó una bomba para extraer el aire y realizó el máximo vacío posible dentro de la esfera, procediendo después a sellarla. El siste-ma para hacer pasar una corriente eléctrica a través del gas enrarecido ya estaba listo. Roent-gen contó con una bobina de Ruhmkorff que permitía obtener chispas con una longitud de 10 a 15 centímetros, conectó esta bobina de in-ducción a los extremos metálicos de la esfera de vidrio, prendió la bobina y un fuerte ruido se escuchó al iniciar el chisporroteo de la bobina de inducción, dándole la diferencia de poten-cial necesaria para obtener una constante des-carga electromagnética a través del gas enra-recido: así se inicio el experimento.

Días después, el 8 de noviembre de 1895, Roentgen descubrió un fenómeno interesante: era de noche y los ayudantes se habían retirado después de todo un día más de arduo trabajo en el laboratorio. Al retirarse el viejo auxiliar, Roent-gen se quedó solo en el laboratorio. Se prepara-ba para trabajar hasta tarde. Sólo se escuchaba el chisporroteo de la bobina de inducción y la luz verde-amarillenta del tubo de descarga iluminaba tenuemente la estancia. Éste no era

el bulbo original, durante los experimentos se habían preparado cápsulas con diferentes for-mas y llenado con diferentes gases: nitrógeno, hidrógeno, oxígeno; todos con la misma estruc-tura de conexiones eléctricas. Roentgen quería saber cómo influía en la corriente eléctrica la forma de la cápsula, la densidad o presión del gas, la forma de los electrodos. Todos estos re-sultados se escribían de manera meticulosa en la bitácora del laboratorio.

“Roentgen decidió llamar a estefenómeno Rayos X.”

Dieron las 23 horas y ya el sueño invadía al experimentador. Cubrió la cápsula de vidrio con una gruesa funda de cartón, faltaba sólo desco-nectar la bobina de inducción, apagar la luz y sa-lir. Por distraído, Roentgen olvidó desconectar la bobina de inducción. Desconectó las luces y ya se dirigía a la puerta cuando el ruido del chispo-rroteo lo hizo reaccionar. Regresó y aquí lo sor-prendió una extraña y maravillosa visión: en la mesa adjunta a la mesa donde se encontraba la cápsula cubierta por la gruesa funda de cartón, parpadeaba un raro destello, una especie de fla-ma verde amarillenta se observaba en la mesa. Resultó que un pedazo de papel se iluminaba de extraña manera; éste no era un papel simple, ya que se encontraba recubierto de una gruesa capa de platino-cianuro de bario. Esta sustancia suele excitarse y fluorecer bajo la acción de los rayos del sol, pero ¡era de noche! y la oscuridad era casi total, ¿por qué se iluminaba esta hoja de papel? Roentgen desconectó la bobina de inducción y la hoja de papel también se apagó, conectó de nueva cuenta la bobina, ¡y la sustan-cia volvió a iluminarse! Desconectó nuevamen-te el interruptor y la sustancia de nueva cuenta se apagó, Roentgen ya no pensaba en salir de su laboratorio. Decidió investigar este raro fenóme-no, ¿qué es lo que hace que el papel se ilumine?, ¿la bobina de inducción que genera el alto vol-taje o la cápsula a través de la cual pasa la co-rriente? Para averiguarlo desconectó la cápsula de vidrio y conectó la bobina a cualquier otra estructura, como las esferas metálicas para estu-diar las chispas eléctricas, conectó el interruptor, se produjeron las chispas, pero el papel no se alteró. Entonces él reconectó la cápsula, conectó

Enero-Junio 200741

Artículos de Divulgación

la bobina de inducción y el papel de nuevo se iluminó. Ya no quedaba duda, era la cápsula de vidrio la que provocaba que el papel con la capa de platino-cianuro de bario se iluminara. Es de-cir, que bajo la acción de la corriente eléctrica la cápsula de vidrio adquiría una misteriosa fuerza. Esta fuerza, además, atravesaba las paredes de vidrio de la cápsula y la gruesa funda de cartón. Toda la noche del 8 al 9 de noviembre de 1995, Roentgen se la pasó en el laboratorio.

Roentgen decidió llamar a este fenómeno “Rayos X”. En realidad, la “fuerza” descubierta por Roentgen, era completamente desconoci-da hasta ese instante.

¿Qué conocía Roentgen de esta extraña “fuerza”? Sólo tres cosas.a) Para invocarla era necesario provocar una corriente eléctrica a través de una cápsula de vidrio con gas enrarecido.b) La “fuerza” provocaba que la capa de platino-cianuro se iluminara.c) Esta “fuerza” atravesaba sin mayor problema la pared del vidrio y la densa capa de cartón de la funda.

Identificados estos tres aspectos del fenó-meno, decidió continuar con sus experimentos hasta que la “fuerza” desconocida se convirtiese en conocida.

Se inició una época de profunda inquietud y zozobra para Roentgen, él aún no estaba se-guro de que sus observaciones fuesen ciertas. ¿Qué tal si todo es sólo producto de la imagina-ción?, ¿qué si sólo es un engaño óptico, una au-tosugestión?, ¿de verdad existen los rayos X?

Durante largo tiempo, Roentgen, de acuerdo a su costumbre, no contó a nadie de su singular descubrimiento. Su mejor amigo, el profesor de Zoología Boveri, recor-daba que en noviembre de 1895, Roentgen, de una manera intrascendente le comentó: “Parece que he realizado un descubrimien-to interesante, pero aún es necesario com-probar la certidumbre de mis observacio-nes”. Roentgen no comento esto incluso a sus asistentes.

“Parece que he realizado un descubrimiento interesante, pero aún

es necesario comprobar la certidumbrede mis observaciones.”

Él se encerraba solo en su laboratorio y des-de temprano hasta muy entrada la noche rea-lizaba experimento tras experimento. En oca-siones pasaba así toda la noche robándose, a veces, una o dos horas para el sueño. Después de la memorable noche del 8 al 9 de noviem-bre de 1895, en su laboratorio instaló una cama plegable de campaña.

Las ventanas de su laboratorio fueron cu-biertas con gruesas cortinas oscuras, temien-do que la luz del sol le impidiese ver la débil verde-amarillenta luminiscencia del platino-cianuro de bario.

Figura 1. Radiografía de la mano con un anillo en el dedo anular.

Roentgen estudiaba la acción de los rayos misteriosos. Colocó entre el papel fluorescente y la cápsula de vidrio, un libro grueso de más de mil páginas. El papel continuaba luminisciendo.

Enero-Junio 200742

Artículos de Divulgación

Ésto significaba que los rayos X penetraban no sólo una capa de cartón, sino una gran can-tidad de papel, un libro ¡de más de 1000 hojas!

Roentgen cambió el libro por un mazo de car-tas y los rayos X vencieron también al mazo. Enton-ces Roentgen colocó dos mazos. Los rayos tam-bién vencieron este obstáculo. El papel recubierto fluorecía, aunque no con la misma intensidad.

Roentgen experimentó con muchas cosas: probó con una tabla de pino de dos pulgadas de grueso, con una placa de ebonita y con una hoja de estaño. Los rayos X pasaron a través de todo, sólo treinta hojas de estaño sobrepuestas una sobre otra lograron impedir el paso del los rayos X. La luminiscencia del papel recubierto de platino-cianuro de bario se debilitó hasta desaparecer. Significa, –concluyó Roentgen– que los rayos X son absorbidos por el estaño.

Roentgen experimentó con muchos me-tales: cobre, plata, oro, plomo. Resultó que los rayos X eran capaces de atravesar fácilmente delgadas hojas de metal, pero a través de grue-sas laminas sólo pasaba una cantidad insignifi-cante de estos rayos X.

La conclusión es clara: todas las sustancias son atravesables por los rayos X, sólo que en di-ferentes grados. El papel, la madera y la ebonita son transparentes para los rayos X, como vidrio para los rayos del sol. Sin embargo las gruesas capas de metal son casi imposibles de penetrar. Cuando llegó a esta conclusión, Roentgen deci-dió complicar su experimento, tomando un ob-jeto que conjugase dos sustancias a un mismo tiempo: uno transparente y uno no transparen-te para los rayos X, por ejemplo, madera y metal. Para este experimento tomó una cajita metálica en la cual se encontraba un conjunto de figuri-llas de latón. ¿Podrían los rayos atravesar este obstáculo? ¡Lo atravesaron! La luminiscencia verde-amarillenta se encendió inmediatamen-te. Los rayos X atravesaron la cajita de madera de la misma manera que lo hicieron con el car-tón y la tabla de pino. Sin embargo, en la super-ficie del papel se notaban algunas regiones os-curas. Observando estas manchas, poco a poco distinguió los contornos de las sombras.

Las manchas tenían la forma de las figurillas de latón. Era la sombra de las figurillas que ha-bía escondido dentro de la caja de madera.

Ultima revisiónTodos y cada uno de los experimentos fueron realizados por Roentgen. Cada nuevo experi-mento mostraba nuevas propiedades de estos misteriosos rayos.

Con sus propios ojos vio sus maravillosas acciones, pero un investigador cuidadoso no está acostumbrado a creer lo que sus ojos ven.

“Con sus propios ojosvio sus maravillosas acciones,

pero un investigador cuidadosono está acostumbrado a creer

lo que sus ojos ven.”

Al final se le ocurrió la idea de realizar un experimento con una placa fotográfica. “El ojo humano puede equivocarse –pensó Roentgen– pero si la placa fotográfica distin-gue los rayos, entonces significa que en rea-lidad existen. La placa fotográfica no puede ser engañada”.

Figura 2. Radiografía de la figura de metal que se es-condió dentro de la caja de madera.

Lo pensó y lo realizó. En el camino de los rayos colocó la placa fotográfica, ¿y qué suce-dió? En ese mismo instante la película se oscu-reció. Resultó que los rayos X no eran un juego de la imaginación. Roentgen ya no dudó más de su existencia.

Enero-Junio 200743

Artículos de Divulgación

Repitió todos los experimentos previos, sólo que en lugar de papel recubierto con platino-cianuro de bario, colocó la caja de madera con la placa fotográfica en su interior. Ya no era ne-cesario cubrir las ventanas, ya que los rayos del sol no atraviesan la caja de madera y para los rayos X la madera no es un obstáculo.

Roentgen de nuevo hizo pasar los rayos a través de la caja de madera con las figurillas de latón en su interior, sólo que ahora en lugar del papel recubierto con platino-cianuro de bario colocó la placa fotográfica. Minutos más tarde reveló y fijó la película; en ella se distinguían claramente las figuritas de latón.

Después de esto, Roentgen realizó otro ex-perimento, el más distinguido de todos ellos.

Colocó la cápsula de vidrio bajo la mesa. So-bre la mesa colocó su mano y sobre la mano la película fotográfica dentro de la caja de madera. Conectó la corriente. Cuando la película fotográ-fica fue revelada, en ella se distinguía claramen-te la nítida imagen de los huesos de la mano. Los rayos X atravesaron la piel y los músculos, pero no fueron capaces de atravesar los huesos con la misma intensidad. La sombra de los huesos se imprimió en la placa fotográfica. Así, Roentgen realizó lo que nadie hasta ese momento había podido: fotografiar sus propios huesos [3].

“…Roentgen realizó lo que nadie hasta ese momento había podido: fotografiar

sus propios huesos.”

De esta manera me he permitido relatar una experiencia científica tomada de un texto de Briunshtein M. titulado “Rayos X” publicado en la revista KBANT, Moscú, URSS, No.11, 1989, que nos muestra lo subyugante y laborioso del proceso, la necesidad de la autocrítica y la necesidad de una sólida base teórica en el maravilloso camino del quehacer experimental que, a su vez, permite construir una nueva etapa en el infinito y cons-truible edificio del conocimiento científico.

Glosario de términos.Bobina de Ruhmkorff. Los primeros experi-mentos con tubos de descarga obtenían sus

voltajes de baterías enormes conectadas en se-rie. En 1851, Ruhmkorff, a partir de los trabajos de Antoine Masson y Louis Breguet, diseñó una bobina de inducción.Ruhmkorff modificó la bobina de inducción, de-sarrollada por Masson y Breguet, para obtener algo parecido a las bobinas de los automóviles actuales, con las que se producen descargas de miles de voltios a partir de una batería de menos de diez voltios. La bobina Ruhmkorff permitía, por medio de interrupciones muy rápidas, generar una corriente continua primaria de alta tensión en un hilo secundario muy fino. Cabe destacar que esta innovación fue utilizada en numerosos inventos posteriores, que necesitaban de una manera casi instantánea disponer de un elevado voltaje. Entre ellos las transmisiones sin hilos.Luminiscencia. Es toda luz cuyo origen no ra-dica exclusivamente en las altas temperaturas. Cuando un sólido recibe energía procedente de una radiación incidente, ésta es absorbida por su estructura electrónica y posteriormen-te es de nuevo emitida cuando los electro-nes vuelven a su estado fundamental. http://es.wikipedia.org/wiki/Luminiscencia

1http://es.encarta.msn.com/encyclopedia_761555545/Wilhelm_Conrad_Roentgen.html

Referencias1. www.marxists.org/espanol/m-e/1840s/45-feuer.htm 2. www.geocities.com/jrme_chile/tesis_de_feuerbach.htm3. Briunshtein M. “Rayos X” Revista KBANT, Moscú, URSS, No.11, 1989

José G. Vázquez Luna es doctor en Ciencias Físico – Mate-máticas, por la Universidad Rusa de la Amistad de los Pueblos, Nivel I del SNI. Profesor de la FCFM-BUAP de 1992 a la fecha. Profesor Fundador del Posgrado en Optoelectrónica de la FCFM-BUAP 1993. Ha dirigido un total de 29 trabajos de te-sis de licenciatura(18), maestría(9) y Doctorado(2). Líneas de investigación: Instrumentación Biomedica; Espectroscopia de Baja Frecuencia; Física de Películas Delgadas; Estructuras Fotovoltaicas y Fototérmicas; Fuentes alternativas de energía. Más de 50 ponencias en conferencias y revistas [email protected]

Enero-Junio 200744

Artículos de Divulgación

IntroducciónLa resolución de la anáfora ha sido foco de in-vestigación, desde los primeros estudios del lenguaje y más en los últimos años, de filóso-fos, lingüistas, científicos del conocimiento y de la inteligencia artificial, de psicolingüistas y de lingüistas computacionales. Es uno de los fenómenos más complejos dentro del lengua-je natural [4 y 5]; es considerada uno de los problemas fundamentales de la lingüística. Chomsky se apoya en ella para mantener la teoría de que la facultad del habla es innata [1]. Resolver la anáfora es fundamental en un amplio rango de tareas del procesamiento del lenguaje natural [3] por medio de la computa-dora como: interfaces hombre-máquina, com-prensión del lenguaje, traducción automática, extracción de información y la generación au-tomática de resúmenes [6]. La mayoría de los problemas de la lingüística computacional se presentan en la resolución de la anáfora, de-bido a la necesidad de hacer explícita para la computadora toda la información y relaciones requeridas para “entender” el texto[2].

El contexto del discursoEl contexto del discurso puede ser imaginado como un iceberg donde la parte visible o explí-cita es el conjunto de símbolos agrupados para

La anáfora: una maravilla del lenguaje

Raúl Morales CarrascoEfrén A. Osorio Ramírez

formar palabras, frases, oraciones y párrafos, que dan forma y estructura a un documento de texto. Pero, ¿qué hay debajo del agua? Existe la información implícita requerida para la inter-pretación completa, que depende de: el con-junto de reglas gramaticales; el vocabulario del emisor y del receptor; la habilidad del emisor para expresar sus ideas; la habilidad del recep-tor para integrar la información del discurso; el conocimiento previo del tema; el conocimiento del sentido común y el acto de comunicación. En pocas palabras, se percibe sólo el texto y lo demás permanece oculto; el iceberg completo constituye el contexto del discurso que es ne-cesario para el proceso de interpretación o ge-neración del lenguaje natural.

“La mayoría de los problemasde la lingüística computacional

se presentan en la resoluciónde la anáfora…”

En general, el contexto del discurso se en-tiende como el conjunto de conocimientos y creencias, compartidos por los interlocutores, de un proceso de comunicación, que son nece-sarios para producir e interpretar sus enuncia-dos. Se reconocen tres componentes: el socio-cultural que comprende reglas sobre el saludo

Enero-Junio 200745

Artículos de Divulgación

en cada tipo de situación o sobre el tipo de lec-tores para una publicación; el situacional que contiene los datos accesibles a los participantes del proceso, porque se encuentran en el entor-no físico inmediato o han sido mencionados en el texto; y el lingüístico formado por el material lingüístico que precede y sigue a un enunciado e incluye paulatinamente la información nece-saria para construir el contexto situacional.

La coherenciaLa coherencia es la propiedad que indica cuál es la información pertinente que se ha de co-municar y cómo se ha de hacer; se encarga de la cantidad, la calidad y la estructura de la infor-mación; y afecta a la organización profunda del significado del texto. Se puede definir como la conexión, continuidad o coordinación, que se observa entre los componentes del discurso.

“La coherencia…se puede definircomo la conexión, continuidad o

coordinación, que se observa entre los componentes del discurso.”

Figura 1. En un iceberg, la mayor parte del volumen del bloque esta oculto bajo la superficie.

La coherencia referencial se observa como un proceso incremental de procesamiento de información transmitida del emisor al re-ceptor; tiene que ver con las señales que el emisor coloca explícitamente en el texto o discurso; se requiere, pues, que el receptor reconozca estas señales para interpretar la coherencia de la nueva información respecto a la anterior.

La anáforaEn lingüística se considera como “una relación en-tre dos expresiones donde la interpretación de una, llamada anáfora, está en alguna forma determinada por la interpretación de la otra, llamada anteceden-te” [4]; donde el antecedente provee la información necesaria para la correcta interpretación de la aná-fora. En los ejemplos, para explicarla, se marcará con un subíndice cada objeto, con negrita el antece-dente, con cursiva la correferencia o anáfora y entre corchetes la información “implícita” omitida.(1) Juan1 no está de acuerdo. Él1 cree que debe hacerse fuera y ya [él1] ha empezado a sacar instrumentos2 a la terraza3.

Enero-Junio 200746

Artículos de Divulgación

“…una relación entre dos expresiones donde la interpretación de una,

llamada anáfora, está en alguna forma determinada por la interpretación de la

otra, llamada antecedente…”

Si no dispusiéramos de mecanismos para evitar la repetición del nombre Juan1, el texto llegaría a ser reiterativo. En el ejemplo (1) se muestra la señal de la anáfora con el pronom-bre Él1. Otras señales no están explícitamente en el texto e identificar las entidades a las cua-les hacen referencia requiere un conocimiento del proceso; por ejemplo, la omisión (o elipsis) del pronombre “implícito” en la conjugación del verbo [él1]. Algunas señales de coherencia están aún más ocultas e identificar la entidad a la cual hace referencia requiere un proceso de inferencia del receptor que debe apoyarse en su conocimiento del mundo real.

En resumen, la anáfora es considerada una de las principales formas de coherencia y consiste en la repetición de referencias a una misma enti-dad conceptual en oraciones sucesivas; es directa si hace referencia a una entidad por medio de una relación preestablecida en el lenguaje e indirecta si se requiere un proceso de inferencia y conocimien-to general o “común” para identificar la relación.

“…la anáfora es considerada una de las principales formas de coherencia y

consiste en la repetición de referencias a una misma entidad conceptual en

oraciones sucesivas…”

Interacción entre referencia, correferencia y anáforaLa anáfora puede o no coincidir con la correfe-rencia y esta coincidencia plantea dos pregun-tas que surgen al considerar cada expresión:I) ¿Hay alguna señal específica para cada caso? II) ¿Qué relación existe entre estos fenómenos?

Para responder a la primera pregunta se presen-ta el concepto “libro” en los siguientes ejemplos:(2) El viernes1 pasado, José2 presentó el libro3 de Juan4 “Volcanes activos del mundo”3. Después cené con Juan4 y comentó que le4 había llevado tres años5 escribir el libro3.

(3) María1 compró un ejemplar2 de “Aprenda fotografía en 21 días”2 y se1 molestó porque el libro2 tenía imágenes3 borrosas.(4) Pedro1 tiene algunos problemas2 con Mate-máticas3. Él1 dice que el libro4a [de matemáti-cas3] no es el4 [libro4b] adecuado.

El ejemplo (2) muestra que “libro3” es una referencia directa a un objeto del mundo real; “libro3” es una anáfora directa y correfe-rencia porque son “palabras idénticas” que nombran al mismo objeto del mundo real. En el ejemplo (3) “libro2” es una anáfora indi-recta y correferencia a ejemplar2 por la rela-ción entre los sinónimos “ejemplar” y “libro”. En el ejemplo (4) “libro4a” es una anáfora indi-recta sin correferencia a Matemáticas3; “nor-malmente” se utiliza un libro para estudiar matemáticas y por medio de esta palabra nos referimos al libro de matemáticas, no a cualquier libro en general.

En todos los casos “libro” está precedido por el determinante “el” formando la expresión “el li-bro”; la respuesta a la pregunta, ¿hay alguna señal específica para cada caso?, es “no hay una señal específica para cada caso porque el mismo deter-minante puede utilizarse para todos los casos”.

Para responder a la segunda pregunta, ¿qué relación existe entre estos fenómenos? se ana-lizan algunos casos que muestran su relación con los diferentes tipos de expresión.(5) Juan1 chocó ayer su carro2 nuevo. El coche2 quedó deshecho.

“La anáfora es indirecta y es correferencia porque carro2 y coche2 son sinónimos

y hacen referencia al mismo objeto del mundo real.”

La anáfora es indirecta y es correferencia porque carro2 y coche2 son sinónimos y hacen referencia al mismo objeto del mundo real.(6) Juan1 compró dos neumáticos2. Le gusta te-ner un auto3 seguro.

La anáfora es indirecta debido a la relación entre auto3 que tiene como componentes los neumáticos2; la información implícita en el an-

Enero-Junio 200747

Artículos de Divulgación

tecedente permite inferir que el auto3 de Juan1 va a recibir los neumáticos2 que compró. ¿Qué sucede si en el proceso no se encuentra alguna relación? En este caso, se está encontrando una referencia a nueva información del discurso.

Si la referencia, la correferencia y la anáfora utilizan el mismo tipo de señal, no es posible determinar la anáfora indirecta sin antes verifi-car la posibilidad de correferencia. La respuesta a la segunda pregunta, ¿qué relación existe en-tre estos fenómenos? es la secuencia u orden de detección para su resolución:1º la anáfora directa con correferencia,2º la anáfora indirecta con correferencia,3º la anáfora indirecta sin correferencia,4º la referencia directa,5º la referencia indirecta y6° la nueva información del discurso.

ConclusionesLa anáfora es una maravilla del lenguaje, pro-ducto de la adaptación evolutiva del mismo, para permitir la coherencia y la fluidez en cual-quier charla o texto; su resolución requiere modelar cada pieza nueva de información, to-mada en relación con otra anteriormente pro-cesada. Algunos “elementos lingüísticos” en la estructura del discurso, que operan como “se-ñales” aunados al conocimiento “común”, per-miten interpretar la información “implícita”. Es un fenómeno que se presenta en la mayoría de los idiomas, por lo que elaborar las bases de conocimiento y dotar de ellos a las compu-tadoras permitirá desarrollar correctores de estilo, obtener resúmenes automáticamente y mejorar las traducciones automatizadas.

Referencias1. Chomsky, Noam (1986). [Conocimiento del lenguaje: su naturaleza, origen y uso]. Knowledge of language: Its Nature, Origin and Use. Praeger, New York, EUA2. Gelbukh, Alexander (2000). [Procesamiento computacional del lenguaje natural: tareas, problemas y soluciones]. Computational Processing of Natural Language: Tasks, Problems and Solutions. Congreso Internacional de Computación en México D.F., Nov 15-17, 2000. México.

3. Hirst, Graeme (1981). [La anáfora en el entendimiento del lenguaje natural]. Anaphora in Natural Language Understanding. Springer Verlag, Berlín, Alemania.4. Huang, Yang (2000). [La anaphora: un acercamiento intralingüístico] Anaphor: A Croos-linguistic Approach. Oxford University Press, New York, EUA5. Mitkov, Ruslan (1998) [Evaluando los acercamientos a la resolución de la anaphora]. Evaluating anaphora resolution approaches. In: Proceedings of the Discourse Anaphora and Anaphora Resolution Colloquium (DAARC’2) Lancaster, Inglaterra. 6. Morales Carrasco, Raúl (2002). [Un método para la detección de la anaphora indirecta]. A method for indirect anaphora detection. XI International Conference on Computing (CIC2002). 25-29 Noviembre. DF, México. ISBN: 970-18-8590-2

Raúl Morales Carrasco obtuvo el grado de Doctor en Ciencias de la Computación, en enero del 2004, del Centro de Investigación en Computación del Instituto Politécnico Nacional (CIC-IPN) en México DF, donde alcanzó el diploma de mejor promedio doctoral (99). Se incorporó al Instituto Tecnológico de Puebla como profesor de tiempo parcial en septiembre de 1991, en la academia de Sistemas y Computa-ción; en agosto de 1993 como profesor de tiempo completo. Es miembro del Sistema Nacional de Investigadores desde el 2005; miembro distinguido de otras asociaciones y del Comité Técnico del Consejo de Ciencia y Tecnología del Es-tado de Puebla desde el 2006. Ha sido ponente en más de 5 congresos internacionales y cuenta con 5 publicaciones en congresos con arbitraje y dos en revistas internacionales. Ha dado cursos a profesionales en las áreas de docencia, com-putación y planeación estraté[email protected]

Efrén A. Osorio Ramírez es candidato a Doctor en Ciencias en Planificación de Empresas y Desarrollo Regional en el Ins-tituto Tecnológico de Oaxaca. De 1997 a 2000 fue Director del Centro de tecnología Educativa de la BUAP y tiene más de 10 años de experiencia en diferentes jefaturas del Sistema Nacional de Educación Superior Tecnológica, siendo actual-mente Jefe de la División de estudios de Posgrado e Inves-tigación del Instituto Tecnológico de Puebla. Cuenta con 7 publicaciones en congresos con arbitraje y 3 en revistas de divulgación. Ha dado cursos a profesionales en las áreas de Simulación y Redes Sociales y Planeación Estraté[email protected]

Enero-Junio 200748

Artículos de Divulgación

Figura 1. Representación pictórica de un agujero negro.

En el universo existen cuerpos celestes con la característica principal, de una gran concen-

tración de masa en una región del espacio fan-tásticamente reducida. Por ejemplo, nuestro pla-neta es aproximadamente esférico con un radio de 6.37 millones de metros y una masa 5.98 × 1024 kg; la Luna tiene un radio de 1.74 millones de metros (más pequeña que la Tierra? y una masa de 7.36 × 1022 kg, el Sol un radio de 696 millones de metros, el más grande de los cuer-

¿Qué son losagujeros negros?

José Enrique Barradas Guevara

Adán comió la manzana de la virgen Eva. Newton fue un segundo Adán de la Ciencia. El primero conoció la belleza. El segundo un Pegaso cargado de cadenas.

Y no fueron culpables. Las dos manzanas eran sonrosadas y nuevas, pero de amarga leyenda. ¡Los dos senos cortados de la niña inocencia!

Federico García Lorca

pos celestes a nuestro alrededor, con una masa de 1.99 × 1030 kg, impresionante!1. Sus dimen-siones y la cantidad de materia determinan las características físicas de estos cuerpos celestes. Si tuvieran menor cantidad de masa, su forma no sería necesariamente esférica, como los sa-télites del planeta Marte que tienen una forma irregular; o serían un planeta en lugar de una es-trella, como el caso de Júpiter que no contiene la suficiente masa como para encenderse.

El Sol es una estrella con la suficiente masa para aplastar los átomos de hidrógeno y de esta manera generar energía, pero en el uni-verso, en nuestra misma galaxia, existen estre-llas mucho mayores que aplastan a los consti-tuyentes atómicos, estrellas de neutrones por ejemplo. Los físicos utilizan una cantidad cono-cida como densidad para determinar las pro-piedades de estos cuerpos. La densidad es la razón o cociente entre la masa y el volumen de un cuerpo, por ejemplo, el plomo es más denso que el agua, esto significa que hay una mayor concentración de masa en el plomo, que en el agua, en el mismo volumen.

Enero-Junio 200749

Artículos de Divulgación

Así, las estrellas al concentrar mayor materia que los planetas, mayor densidad, y esto hace que por cuestiones gravitacionales generen energía que se manifiesta en forma de luz. Por lo que podemos decir, que la materia es el com-bustible gravitacional que produce energía. Fantástico ¿no lo cree así?

“…las estrellas al concentrarmayor materia que los planetas,mayor densidad, y esto hace que

por cuestiones gravitacionalesgeneren energía que se manifiesta

en forma de luz.”

Cuando hablamos de agujeros negros, te-nemos que referirnos necesariamente a obje-tos celestes impresionantemente singulares: “contar con una concentración de masa de varios soles en un radio de unos cuantos ki-lómetros”, pero ¿cómo puede ser posible esto? Para tratar de contestar esta pregunta, necesa-riamente debemos de responder otros cuestio-namientos fundamentales como son: ¿cuál es nuestra concepción del Universo? En el sentido ¿qué es y cómo surge el Universo? ¿Cuál es su evolución?, o simplemente, ¿cómo interactúan los cuerpos celestes? Es decir, ¿qué tipos de fuerzas, entre los cuerpos celestes, son las cau-santes del comportamiento que observamos?

Figura 2. Isaac Newton formuló la “ley de Gravitación Universal”. De “gravitación” porque determina la in-teracción entre cuerpos por sus masas y “universal” debido a que establece la semejanza independiente-mente de los puntos en el espacio.

¿Fuerza gravitacional?Las teorías científicas con que contamos son la teoría de Gravitación Universal de Isaac Newton (propuesta en el siglo XVII) y la de Interacción Gravitacional de Albert Einstein del siglo XX.

Figura 3. ¿Qué tan lejos se puede lanzar un obje-to? Esta representación pictórica fue propuesta por Newton para mostrar cómo se podría poner en órbita un cuerpo, al ser proyectado solo con una velocidad inicial. Cuando uno arroja una pelota recorre una dis-tancia en el aire y cae al piso. Si uno le aplica un mayor impulso, trae como consecuencia que adquiera una mayor velocidad y llegara más lejos, pero que suce-de si se le aplica mayor y mayor velocidad. Llegara un momento en que no caerá, no tocará la superficie, y en ese momento girará alrededor del planeta.

A primera vista parecería que el girar de los planetas alrededor del Sol y la caída de una manzana de un árbol, poco tienen en común. Sin embargo, hace ya más de tres-cientos años, Newton propuso que se trata de dos manifestaciones de la misma interac-ción: la fuerza gravitacional. Esta fuerza gra-vitacional, es una interacción fundamental dominante en la mecánica (dinámica) del Universo, es la causante de que la Tierra gire alrededor del Sol a más de 150 millones de kilómetros, a una rapidez de 29.5 kilómetros por segundo y, de que a su vez, el Sol se mue-va alrededor del centro de la Vía Láctea, a una distancia de más de 25 mil años-luz. Más aun, Newton se percató que esta misma fuerza es la responsable de la caída de los objetos en la Tierra y por ello la denominó “universal”, ya que hasta donde se sabía (y se sabe hoy en día) rige todo el Universo.

¿Una manzana en órbita?La relación entre la Luna girando alrededor de la Tierra y una manzana cayendo, se pue-de entender de la siguiente manera: si deja-mos caer una manzana, esta caerá en línea recta, pero si la lanzamos horizontalmente, su trayectoria será una curva que llegará a mayor distancia, si lanzamos la manzana con mayor fuerza. Si se pudiera lanzar suficiente

Enero-Junio 200750

Artículos de Divulgación

mente fuerte, la manzana podría ir cayendo a una distancia mayor y si no hubiera atmós-fera ni montañas, la distancia alcanzada se-ría mayor, una distancia tan grande como la circunferencia de la Tierra y se mantendría siempre a la misma altura del suelo (hasta, posiblemente, golpear la cabeza del lanza-dor por detrás), esto es, la manzana habría entrado en órbita. La Luna está constante-mente siendo atraída hacia la Tierra, solo que como lleva un movimiento horizontal, nunca alcanza a caer sobre ella.

“Si se pudiera lanzarsuficientemente fuerte la manzana,

podría ir cayendo a unadistancia mayor y … se mantendría

siempre a la misma alturadel suelo… esto es, la manzana

habría entrado en órbita.”

Figura 4. Albert Einstein, autor de la Teoría de Relatividad Especial y General. Para Albert Einstein todo observador determina las mismas leyes de la física independiente-mente de su condición de movimiento, y establece como límite la velocidad de la luz, siendo estos dos postulados la base para construir la teoría de relatividad.

Ley de Gravitación UniversalLa historia de la manzana y Newton es casi tan famosa como la de Eva y Adán. Hay quien pien-sa que es también una leyenda, pero miren este escrito realizado por un amigo de Newton: W. Stukeley en Memorias de la vida de sir Isaac Newton relata: “Tras la cena, con clima agrada-ble, salimos al jardín a tomar el té a la sombra de unos manzanos. En la tertulia me dijo Newton que se sentía en la misma situación, que cuan-do le vino a la mente por primera vez la idea de la gravitación, que originó la caída de una manzana mientras estaba sentado, reflexio-nando. Pensó para sí ¿por qué tienen que caer las manzanas siempre perpendicularmente al suelo? ¿Por qué no caen hacia arriba o hacia un lado? ¿Por qué siempre hacia el centro de la Tierra? La razón tiene que ser, que la Tierra las atrae. Debe haber una fuerza de atracción en la materia y la suma de la fuerza de atracción de la materia de la Tierra debe estar en el centro de la misma y no en otro lado. Por esto la man-zana cae perpendicularmente a la superficie de la Tierra, hacia el centro. Si la materia atrae a la materia, debe ser en proporción a su cantidad, a su masa. Además, la manzana también atrae a la Tierra tanto como la Tierra atrae a la manza-na. Hay una fuerza, la que aquí llamamos grave-dad, que se extiende por todo el universo”.

Así, que para Newton la interacción gravita-cional es directamente proporcional al produc-to de las masas de los sistemas que interactúan, Tierra Luna o Tierra Sol, e inversamente propor-cional al inverso al cuadrado de la distancia que separa dichos sistemas. Es una fuerza atractiva y como consecuencia inmediata en la descripción del Universo es que este último debe de ser in-finito, para que no se colapse en un punto. Eins-tein hace un planteamiento similar a Newton, pero para lograr que el Universo se mantenga como es, sin cambios conforme transcurre el tiempo, introduce una constante a sus ecuacio-nes, conocida como constante cosmológica.

¿Es la interacción gravitacional solamente atractiva?El problema es que sí la interacción gravita-cional es sólo atractiva, ¿qué evita que toda la materia se concentre en un punto? Incluso,

Enero-Junio 200751

Artículos de Divulgación

en 1783 John Michell, catedrático de Cam-bridge, publicó en el Philosophical Transac-tions of the Royal Society of London, que una estrella que fuera lo suficientemente masiva y compacta tendría un campo gravitacional tan intenso que la luz no podría escapar:

“La luz emitida desde lasuperficie de la estrella sería arrastrada

de vuelta hacia el centro por la atracción gravitatoria de la estrella, antes de que

pudiera llegar muy lejos”

Además, Pierre Simon Laplace, astrónomo y matemático francés del siglo XVIII, también planteó esta idea en la primera y segunda edi-ción de su libro “El sistema del mundo”. Estas ideas traen como consecuencia que la luz se comporta de la misma manera que un obje-to material, que tiene un carácter corpuscular. Esto planteaba un nuevo dilema ¿cuál es la naturaleza de la luz?

Fue Einstein quien contestó esta pregunta, en sus trabajos de 1905 del Efecto Fotoeléctrico: la luz presenta la dualidad onda partícula, en cier-tos fenómenos se comporta como si se tratase de una onda y en otros como una partícula y además su velocidad es finita, constante, con va-lor aproximadamente de 300 000 kilómetros por segundo (recorre trescientos mil kilómetros en un segundo). Los componentes de la luz son los fotones, partículas sin masa y de espín entero.

¿Partículas sin masa?Con la teoría de la relatividad especial y pos-teriormente con la de relatividad general, Eins-tein estableció cómo la luz podría interaccionar con la gravedad, pero si la luz está formada por partículas sin masa ¿cómo es posible que esto pueda ocurrir? Esta teoría, algo complicada de razonar, resuelve esta y muchas otras incógni-tas de la naturaleza del universo e incluso a lo largo de la historia se han prestado anécdotas curiosas como la siguiente: Entender la relativi-dad general de Einstein no es fácil. L Silberstein preguntó a Eddington tras el eclipse de 1919 (cuando se acababa de confirmar la predicción de Einstein de que la luz se curvaba por la gra-vedad): “Profesor, usted debe ser una de las tres

personas en el mundo que entiendan la relati-vidad ¿verdad?”. Eddington se quedó dudando, y Silberstein insistió: “Vamos, profesor, no sea modesto”. Eddington respondió: “Al contrario, intento pensar quién es la tercera...”.

Figura 5. Modelo simplificado que ilustra la afirma-ción de Einstein de que la luz sigue un camino curvo cuando pasa cerca de un objeto masivo. El espacio puede ser considerado como una lámina tensada por el Sol (amarillo). Cuando la luz de una distante estrella (línea continua) pasa cerca del Sol en su camino hacia la Tierra (marrón), seguirá la superficie combada de la lámina. Vista desde el planeta, la posición aparente de la estrella (línea blanca punteada) diferirá de su posi-ción real en una magnitud predecible.

La teoría newtoniana de la gravitación hace uso del concepto de la “acción a distancia”, es decir, supone que una fuerza gravitatoria actúa instantáneamente, al momento de aparecer espontáneamente materia; mientras que en la teoría einsteniana establece que la interac-ción se propaga a rapidez finita, la velocidad de la luz. En la teoría no relativista clásica de Newton, el espacio y el tiempo se consideran separados y la gravedad no está relacionada en forma alguna con la geometría. Por otra parte, en la teoría de Einstein, el espacio y el tiempo se confunden y la gravedad se halla íntimamente relacionada con la geometría del espacio-tiem-po. La relatividad general, a diferencia de la gra-vitación newtoniana, está fundamentada en el principio de equivalencia: es imposible distin-guir localmente entre un campo gravitatorio y un sistema de referencia uniformemente acele-rado, como un ascensor.

¿El espacio se curva?La teoría de relatividad general de Einstein ex-presa las características universales de los cam-pos gravitacionales en el cosmos. A partir de las masas, las posiciones y las velocidades de to-das las partículas materiales, puede calcularse el campo gravitatorio.

Enero-Junio 200752

Artículos de Divulgación

La teoría especial de la relatividad combi-naba el tiempo con el espacio, pero espacio y tiempo seguían siendo un fondo fijo en el que sucedían acontecimientos. Se podía op-tar por seguir diferentes trayectorias a través del espacio-tiempo, pero nada de lo que se hiciera modificaría el fondo de espacio y de tiempo. Todo esto cambio en 1915, cuando Einstein formuló la teoría general de la rela-tividad. Tuvo la idea revolucionaria de que la gravedad no era simplemente una fuerza que operase en un fondo fijo del espacio-tiempo. Por el contrario, la gravedad constituía una distorsión del espacio-tiempo, causada por la masa y la energía que hay allí. Objetos como granadas de cañón y planetas tratan de mo-verse en línea recta a través del espacio-tiem-po, pero como este es curvo en vez de plano, sus trayectorias se comban. La Tierra trata de moverse en línea recta a través del espacio-tiempo, pero la curvatura del espacio-tiempo producida por la masa del Sol la obliga a gi-rar alrededor de éste. De manera semejante, la luz trata de desplazarse en línea recta, más la curvatura del espacio-tiempo cerca del Sol obliga a curvarse a la que llega de estrellas le-janas, si pasa próxima al Sol.

“…la gravedad constituía unadistorsión del espacio-tiempo, causada

por la masa y la energía que hay allí.”

Figura 6. Einstein propuso la existencia de ondas gra-vitacionales.

Normalmente no es posible ver las estrellas del cielo que se encuentran casi en la misma dirección que el Sol. Pero durante un eclipse, cuando la mayor parte de la luz del sol queda bloqueada por la Luna, se puede observar la luz de esas estrellas. Einstein elaboró su teoría ge-neral de la relatividad durante la Primera Guerra Mundial, cuando las condiciones no eran propi-cias para las observaciones científicas. Pero in-

mediatamente después de la contienda una ex-pedición británica observó el eclipse de 1919 y confirmó la predicción de la relatividad general: el espacio-tiempo no es plano, sino que está cur-vado por la materia y la energía que contiene.

¿Por qué no se caen los habitantes del otro lado del mundo?

Figura 7. La interacción gravitacional se determina por la cantidad de materia que existe en una determinada región del espacio. Pero la forma en la que se distri-buye en el espacio depende del momento angular de los cuerpos que interactúan. Un conjunto de estrellas, las galaxias, presentan formas típicas que dependen de las condiciones iniciales, cuando se formaron los sistemas, como el que podemos ver en esta gráfica. Existen aparentemente dos concentraciones de ma-teria, las zonas más iluminadas, que caracterizan este sistema, observándose espirales alrededor de estos.

Propiedad importante de la masa y de la energía es que son siempre positivas. Esa es la razón de que la gravedad haga que los cuerpos se atraigan siempre entre sí. Por ejemplo, la gra-vedad de la Tierra nos atrae hacia el planeta in-cluso en lados opuestos del mundo. Por eso no se caen los habitantes de Australia. De manera semejante, la gravedad del Sol mantiene a los planetas en órbita alrededor de él e impide que la Tierra salga disparada hacia las tinieblas del espacio interestelar. Según la relatividad gene-ral, el hecho de que la masa sea siempre positi-va significa que el espacio tiempo esta curvado hacia dentro, como la superficie de la Tierra. Si la masa hubiese sido negativa, el espacio-tiem-po se habría curvado en el otro sentido, como la superficie del interior de una cacerola. Esta curvatura positiva del espacio tiempo, que re-fleja el hecho de que la gravedad sea atrayen-te, fue considerada por Einstein como un gran problema. Entonces se creía, por lo general, que el universo se hallaba estático, pero ¿cómo era posible que perdurase en un estado, más o me-nos igual al de ahora, si el espacio y, sobre todo, el tiempo se curvaban sobre sí mismos?

Enero-Junio 200753

Artículos de Divulgación

Figura 8. La fuerza de interacción entre el Sol y un planeta es directamente proporcional a sus masas e inversamente a la distancia que los separa, es una interacción atractiva y actúa sobre todos los pun-tos del espacio.

¿Constante cosmológica?Las ecuaciones originales de la relatividad general de Einstein predecían que el Univer-so se expandía o se contraía. Por ese moti-vo, Einstein añadió un término ulterior a las ecuaciones que relacionan la masa y la ener-gía del universo con la curvatura del espacio-tiempo, llamado “término cosmológico” que ejerce un efecto gravitatorio repelente. Así, era posible equilibrar la atracción de la ma-teria con la repulsión del término cosmoló-gico. En otras palabras, la curvatura negativa del espacio-tiempo originada por la masa y la energía del universo. De este modo cabía obtener un modelo del universo que persis-tiera indefinidamente en el mismo estado. De haberse aferrado a sus ecuaciones origi-nales, sin el término cosmológico, Einstein habría llegado a predecir que el universo se expande o se contrae. Pero, tal como fueron las cosas, a nadie se le ocurrió que el univer-so cambiaba con el tiempo, hasta que en 1929 Edwin Hubble descubrió que se aleja-ban de nosotros galaxias remotas. El univer-so se hallaba en expansión. Einstein calificó mas tarde a su término cosmológico como “el mayor error de mi vida”.

“…en 1929 Edwin Hubble descubrióque se alejaban de nosotros galaxias

remotas. El universo se hallabaen expansión. Einstein calificó mas tarde a

su término cosmológico comoel mayor error de mi vida.”

Densidad elevadísimaPero con o sin el término cosmológico, subsis-tía el problema de que la materia determinaba la curvatura sobre sí mismo del espacio-tiem-po, aunque generalmente no se reconociese como tal, lo que significaba que la materia po-día combar sobre sí misma una región hasta el punto de que llegara en realidad a aislarse del resto del universo. La región se convertiría en lo que se denomina un agujero negro. Podrían caer objetos en los agujeros negros y nada es-caparía de allí. Para salir hubieran tenido que desplazarse a una velocidad superior a la de la luz, lo cual no es posible de acuerdo con la teo-ría de la relatividad. De este modo, dentro del agujero negro quedaría atrapada la materia, que se contraería hasta un estado desconocido de elevadísima densidad.

Colapso Gravitatorio

Figura 9. En el espacio curvo que rodea una estrella, los círculos interiores tienen una circunferencia me-nor. Este diagrama nos ayuda a visualizar este efecto. La distancia en un plano que pasa por el ecuador de una estrella se representa por la distancia sobre una lámina que se curva en una tercera dimensión imagi-naria. Este diagrama corresponde a una estrella muy compacta: una estrella de neutrones. La parte inferior es el interior de la estrella. Para un agujero negro, la región central se prolonga hacia abajo hasta el infini-to, formando un agujero en la hoja.

Einstein se sintió profundamente inquie-to por las inferencias de este colapso y se negó a creer lo que sucedía. En 1939 Robert Oppenheimer demostró que una estrella vieja, con una masa de más del doble de la del Sol, se contraería inevitablemente tras haber agotado todo su combustible nuclear. Entonces sobrevino la guerra y Oppenhei-mer se consagró al proyecto de la bomba

Enero-Junio 200754

Artículos de Divulgación

atómica dejando de ocuparse del colapso gravitatorio. Otros científicos se interesaban más por una física que pudieran estudiar en la Tierra. Desconfiaban de predicciones so-bre remotas regiones del universo, porque no creían que pudieran comprobarlas me-diante observaciones. El gran progreso en alcance y calidad de las observaciones as-tronómicas durante la década de los sesenta suscitó un nuevo interés por el colapso gra-vitatorio y el universo primitivo. No estuvo exactamente claro lo que la teoría general de la relatividad de Einstein predecía en esas situaciones, hasta que dos de los más presti-giosos físicos teóricos contemporáneos: Ro-ger Penrose y Stephen W. Hawking trataron en profundidad dichas cuestiones y como fruto de esa colaboración fue el desarrollo de las llamados “teoremas de singularidad”. Estos demostraron que el hecho de que el espacio-tiempo se curvase sobre sí mismo suponía la existencia de unas singularidades, sitios en donde el espacio tiempo tuviera un comienzo o un final. Habría existido un co-mienzo en el Big Bang (Gran Explosión), hace unos quince mil millones de años y llegaría a un final para una estrella que se contrajese y para todo lo que cayera en el agujero negro que dejara el colapso de la estrella.

Densidad infinitaEl hecho de que la teoría general de la re-latividad de Einstein predijese así unas sin-gularidades, determinó una crisis en la física. Las ecuaciones de la relatividad general, que relacionan la curvatura del espacio-tiempo con la distribución de la masa y de la ener-gía, no pueden definirse en una singulari-dad. Eso significa que la relatividad general no es capaz de predecir lo que surge de una singularidad, en especial, la relatividad ge-neral no puede indicar como tuvo que co-menzar el Universo en el Big Bang; en con-secuencia, la relatividad general no es una teoría completa; precisa de un ingrediente adicional para determinar el modo en que hubo de comenzar el universo y lo que ha de suceder cuando se contraiga la materia bajo su propia gravedad.

Figura 10. El espacio-tiempo se curva sobre sí mismo.

Las observaciones de galaxias remotas in-dican que se alejan de nosotros: el universo se expande. Eso supone que en el pasado las galaxias tuvieron que hallarse más próximas. Se suscita entonces la siguiente pregunta: ¿hubo un momento del pasado en que to-das las galaxias se hallaban unas encima de otras y era infinita la densidad del Universo?, ¿o existió una fase previa de contracción en la que las galaxias consiguieron sustraerse a los choques? Tal vez se cruzaron y empeza-ron a alejarse unas de otras. La respuesta a tal interrogante exigía nuevas técnicas ma-temáticas, que fueron desarrolladas entre 1965 y 1970, fundamentalmente por Roger Penrose y Stephen W. Hawking. Quienes em-plearon esas técnicas para mostrar que, si era correcta la teoría general de la relativi-dad, tuvo que haber en el pasado un estado de densidad infinita.

El Gran Pum (La Gran Explosión)

Ese estado de densidad infinita recibe el nombre de singularidad de Big Bang. Significa que, de ser correcta la relatividad general, la ciencia no podría determinar cómo empezó el universo. Pero los trabajos de Hawking indican que sería posible determinar cómo empezó el universo si se tiene en cuenta la teoría de la físi-ca cuántica, la teoría de lo muy pequeño.

Enero-Junio 200755

Artículos de Divulgación

Figura 11. Stephen W. Hawking fue uno de los que de-sarrollaron técnicas matemáticas para mostrar que, sí era correcta la teoría general de la relatividad, tuvo que haber en el pasado un estado de densidad infinita.

La relatividad general predice además que las grandes estrellas se colapsarán sobre sí mismas cuando hayan agotado su com-bustible nuclear. Los trabajos de Hawking y Penrose mostrarón que seguirían contrayén-dose hasta haber alcanzado una singularidad de densidad infinita, que significaría el final del tiempo, al menos para la estrella, y todo lo que contenga. El campo gravitatorio de la singularidad sería tan fuerte que la luz no podría escapar de la región circundante que-dando retenida por el campo gravitatorio. La región de la que no es posible escapar recibe el nombre de agujero negro y su frontera el de horizonte de sucesos. Algo o alguien que caiga en el agujero negro a través del hori-zonte de sucesos alcanzará, en la singulari-dad, un final del tiempo.

Un agujero negro, ¿realmente es negro?De 1970 a 1974 Hawking se consagró funda-mentalmente a los agujeros negros y en 1974 descubrió que ¡los agujeros negros no son completamente negros!

“Si se tiene en cuenta la conducta de la materia en pequeña escala, partículas y

radiación pueden escapar de un agujero negro. Este emite radiación como si fuese

un cuerpo caliente.” 2

Desde 1974 trabajó en la tarea de combinar la relatividad general y la mecánica cuántica para lograr una teoría consistente. Uno de los

resultados de este trabajo fue la afirmación en 1983, junto a Jim Hartle de la Universidad de California, en Santa Bárbara:

“...tanto el tiempo como el espacio

son finitos en su extensión, pero

carecen de frontera o límite algu-

no. Son como la superficie de la

Tierra pero con dos dimensiones

más. La superficie de la Tierra tiene

una área finita pero no fronteras.

En ninguno de mis viajes caí jamás

en el fin del mundo.”

Si esta afirmación es correcta, no habría singularidades y las leyes de la ciencia serían aplicables en todas partes, incluyendo el co-mienzo del universo. Las leyes de la ciencia podrían determinar el modo en que comen-zó el Universo.

Figura 12. Algo o alguien que caiga en el agujero ne-gro, a través del horizonte de sucesos, alcanzará en la singularidad un final del tiempo.

La confirmación de la teoríaLos dos mayores observatorios orbitales de la NASA, el Telescopio Espacial Hubble y el Ob-servatorio Chandra de Rayos X, reportaron el 12 de enero de 2001, que han encontrado cada uno por su parte, lo que podría ser la mejor evidencia directa obtenida hasta ahora de la existencia de un horizonte de sucesos, la principal característica de un agujero negro y uno de los conceptos astrofísicos más extra-ños de la naturaleza.

Enero-Junio 200756

Artículos de Divulgación

Figura 13. Representación artística de una fuente de rayos X galáctica (a la izquierda). El gas desprendido de una estrella compañera forma un disco de materia que se acerca en espiral hacia un agujero negro en su centro. Los rayos X son emitidos por el gas caliente del borde interior del disco (derecha).

Un horizonte de eventos es la teórica fron-tera “sin retorno” que rodea a un agujero negro, de donde nada, ni siquiera la luz, puede escapar. Los agujeros negros son los únicos objetos que pueden tener un horizonte de eventos. Por lo tanto, la evidencia reafirma la existencia de los agujeros negros.

A medida de que el gas se acerca al ho-rizonte de eventos, un fuerte corrimiento al rojo gravitacional lo hace verse más rojizo y le quita luminosidad. Cuando finalmente cru-za el horizonte de eventos, el gas desapare-ce de vista; la región dentro del horizonte de eventos se ve negra.

Figura 14. Disco de gas en el núcleo de una galaxia gigante llamada NCC 4486B. Las líneas de emisión con corrimiento Doppler indican que el gas se mueve rápidamente en direcciones opuestas en los bordes opuestos del disco. Esta rápida rotación es de espe-rarse, si hay una gran masa en un pequeño volumen en el centro de la galaxia: un agujero negro.

Utilizando información del Observato-rio Chandra y de antiguos satélites de rayos X, un equipo de investigadores estudió una docena de “novas de rayos X”, sistemas que contienen una estrella semejante al Sol or-bitando alrededor de un agujero negro o de una estrella de neutrones. Comparando el ni-vel de energía de diferentes tipos de novas de rayos X inactivas, el equipo del Chandra concluyó que los sistemas que podrían alber-gar a agujeros negros emitían sólo el uno por ciento de la energía que emiten los sistemas con estrellas de neutrones.

1La notación empleada para denotar las masas se le lla-

ma notación científica y significa, por ejemplo, que para el número 1.99 × 1030 kg, consideremos que después del 1.99 hay que colocar 30 ceros, esto es: 1990 000 000 000 000 000 000 000 000 000, el cual, obviamente, es un nú-mero muy difícil de pronunciar.2Agujeros Negros y Pequeños Universos, Stephen W. Hawking.

Referencias 1. Stephen W. Hawking, Historia del Tiempo, Del big bang a los agujeros negros, Editorial Crítica, Grupo Editorial Grijalbo, México, 1988.2. Alan H. Guth, El Universo Inflacionario, La búsqueda de una nueva teoría sobre los orígenes del Cosmos, Editorial Debate, S.A. Madrid, 1999.3. Stephen Hawking, Roger Penrose, Cuestiones cuánticas y cosmológicas, Editorial Alianza, 1993.

José Enrique Barradas Guevara es egresado de la licencia-tura en Física de la Facultad de Ciencias Físico Matemáticas de la Benemérita Universidad Autónoma de Puebla (BUAP). Desde mayo de 1980 a la fecha es profesor de ésta. Obtuvo el grado de Maestro en Física en el Centro de Investigación y Es-tudios Avanzados del Instituto Politécnico Nacional y el doc-torado en Física en el Instituto de Física “Luis Rivera Terrazas” de la BUAP en 1996, en el área de física de partículas y campos. Además, ha pertenecido al Sistema Nacional de Investigado-res y al Sistema de Perfil deseable del Programa de Mejora-miento al Profesorado de la Secretaria de Educación Pública. Ha publicado en diversas revistas nacionales e internaciona-les de amplio impacto y circulación, así como trabajos de in-vestigación originales en el área de partículas y [email protected]

Enero-Junio 200757

Entrevista

Merecedor del premio Humboldt, que otor-ga la Fundación Alexander Humboldt, por

su trayectoria en el campo de las Matemáticas y de manera particular en Álgebra, José Anto-nio de la Peña se pronuncia por una reforma educativa y una política de Estado, que permita invertir, planear y crecer en ciencia, desarrollo e innovación tecnológica.

Partidario de una educación integral que in-cluya una visión humanista, considera que Méxi-co debe fortalecer su oferta en educación supe-rior, con instituciones fuertes y competitivas.

En su cubículo de la Facultad de Ciencias de la Universidad Nacional Autónoma de México, José Antonio de la Peña nos recibe. Su cubículo es una extensión de su casa. Libros, computadoras, es-critorios y demás herramientas para el estudio se suman a objetos personales y una pequeña sala donde charlamos. Es alto. Luce fuerte. Su vigoroso bigote armoniza con la viveza de sus oscuros ojos.

El problema de la enseñanza de las

Matemáticas radica desde los primeros años de la instrucción básica

Beatriz Guillen Ramos

Fig. 1. Dr. José Antonio de la Peña, durante una cátedra de Álgebra.

- Las Matemáticas son una materia que forma parte de la instrucción básica. ¿Por qué las Ma-temáticas son importantes en la formación de todo estudiante?- En primer lugar, las Matemáticas tienen la cualidad de desarrollar las habilidades del estudiante en lo que se refiere al pensamiento ordenado, al resolver problemas. Y cuando digo resolver problemas pienso en un sentido más amplio que meras operaciones.

Entrevista

Enero-Junio 200758

Entrevista

Las Matemáticas bien diseñadas permiten plantear un problema, conocer cuáles son los variables perti-nentes al problema y cuáles son las posibles solucio-nes. Todas estas características son útiles para otros problemas, tanto en la formación del estudiante, como para la vida en general. Hay otra característica que hace importante a las Matemáticas: en el sistema educativo representa la entrada a la ciencia, pues es la entrada natural al pensamiento riguroso, al pen-samiento científico, al pensamiento ordenado. Hay también razones históricas.

Napoleón se hizo asesorar por un grupo de cien-tíficos para plantear una reforma a fondo del sistema educativo y una de las decisiones que se tomó fue sustituir el Latín como centro de la enseñanza, por las Matemáticas; y esto lo que hizo fue desplazar el pensamiento retórico, el pensamiento discursivo y colocar como centro de la enseñanza el pensamien-to lógico, más deductivo. A lo largo de los años, se ha ido acrecentando ese papel central de las Ma-temáticas. Creo que estos dos aspectos, histórico y formativo, son los que colocan a las Matemáticas como una ciencia central en la educación. Esto no hace que las Matemáticas sean bien enseñadas, a pesar de que tienen ese papel tan importante. De todos modos no se ha encontrado la mejor mane-ra de enseñar Matemáticas. En todos lados, no sólo en México, se discute que las Matemáticas son mal enseñadas, que los maestros están mal preparados, que los niños se aburren, que consideran a las Ma-temáticas una materia árida, aburrida etcétera. Y en muchos aspectos los niños tienen razón, se les en-señan de tal manera que termina siendo una mate-ria aburrida, árida, no porque sea una característica intrínseca de las Matemáticas, sino porque de esa manera se les enseña. Todavía hay muchísimo tra-bajo que hacer en la educación matemática.

“…no sólo en México, se discute que las Matemáticas son mal enseñadas, que los

maestros están mal preparados, que los niños se aburren, que consideran a las Matemáticas

una materia árida, aburrida etcétera.”

-En su opinión, ¿cuáles son los principales pro-blemas en el campo de la enseñanza de las Ma-temáticas? -Hay algunas características intrínsecas de las Ma-temáticas: para aprender bien Matemáticas de ter-cer grado necesita uno saber bien las Matemáticas de segundo grado; y para saber bien las Matemá-ticas de segundo se necesita saber bien las Mate-máticas de primer grado. Es decir, no puede uno darle la vuelta al material previo, a diferencia de Historia, Geografía o casi cualquier otra materia. Si no aprendió bien la geografía del continente ame-ricano, puede uno perfectamente aprender bien

la geografía del continente africano del siguiente grado; si se distrajo uno y no aprendió la historia de Europa, pues igual se puede aprender la historia de América. A lo mejor le falta algún contexto am-plio, le falta a uno comprender la relación global histórica, pero puede uno ir más o menos pasan-do. Pero Matemáticas no, necesita uno dominar lo que se le enseña en un grado anterior. Pero el problema principal de la enseñanza de las Mate-máticas, creemos muchos, radica en la falta de preparación de los maestros. Si el maestro medio entiende las cosas, recita un poco mecánicamen-te, pues lo que va a enseñar son mecanizaciones, de manera aburrida, de manera poco atractiva. Es necesario que el maestro adquiera no sólo los conocimientos necesarios, sino la habilidad por el material, que vaya más allá de lo que está ense-ñando, como para que a él mismo le emocione, le interese lo que está enseñando y lo comunique y transmita esta emoción al estudiante. Bien enseña-das las Matemáticas tienen una parte lúdica.

- ¿Puede hablarnos de esa parte lúdica de las Matemáticas?- Existen varios aspectos de las Matemáticas como materia educativa que podrían aprovecharse para resaltar esa parte lúdica y transmitir la belleza y utilidad de las Matemáticas. Yo pienso, por ejem-plo, que desde los primeros años de la enseñanza, a través de juegos como el ajedrez, las damas chi-nas, las damas españolas, o cualquier otro juego donde se requiere una estrategia -planear, pen-sar- se está mucho más cerca del pensamien-to matemático, que hacer cuentas 835 por 944. Eso es mecánico, eso es aburrido, nunca va a ser atractivo para los estudiantes. En cambio, pen-sar un problema como puede ser el juego, ¿cuál es la situación del juego?, ¿qué tengo que lograr?, ¿qué estrategia puedo seguir?, ¿qué posibilidades tengo?, está mucho más cerca del pensamiento matemático, del pensamiento ordenado, y podría uno explotar esas relaciones con el juego. Tam-bién, podemos pensar en problemas donde el estudiante se involucre. ¿Qué es resolver un pro-blema? Es desde entender bien el problema, saber plantearlo, entender cuál es la información rele-vante, descartar la que no lo es, e intentar desarro-llar modelos elementales. Es decir, planteamientos que asemejen a la realidad, problemas caseros de agua, electricidad, que el niño puede resolver en la escuela y así lo estamos preparando para la vida adulta. Por otra parte, podemos buscar las relacio-nes de las Matemáticas con el arte; en general con las proporciones de los objetos de la naturaleza, unos en el cuerpo humano, otros en las simetrías de las plantas, de los animales. Todo eso tiene una expresión matemática. Entender esas relaciones de las Matemáticas con el mundo natural, con el arte, es algo que no se explota en la enseñanza.

Enero-Junio 200759

Entrevista

- Entonces, ¿es necesaria una reforma educativa?- ¡Por supuesto! Yo creo que en general, si pensamos en la educación pública actual, nuestros programas no están mal, pero se pueden mejorar en ese sentido, en buscar aspectos más lúdicos, más artísticos, que acerquen las Matemáticas a los estudiantes. Lo que falta es la capacitación del maestro, que el maestro sepa sacarle jugo a los libros, a otros materiales. En la actualidad, programas como Bibliotecas de Aula dan otras posibilidades a los maestros y a los alumnos para utilizar otros materiales; todo esto es bueno, pero yo creo que el maestro no está capacitado todavía para saberle sacar jugo a las cosas con las que cuenta.

- El bajo rendimiento escolar en Matemáticas, un problema no sólo en México sino en el mundo, ¿está relacionado con la poca preparación de los maestros, o las Matemáticas en sí mismas entra-ñan alguna dificultad en la enseñanza?

Fig. 2. Durante la entrevista en su oficina.

--Yo creo que la complejidad de las Matemáticas estriba al menos en los primeros años de enseñan-za y lo que decía yo antes, en que el alumno tiene que dominar lo que le enseñaron en grados previos para poder entender y poder ser capaz de entender lo que viene después. Hay países donde las cosas se hacen bastante mejor, donde el rendimiento de los estudiantes es mucho más alto que el de los es-tudiantes mexicanos. No se trata de que sean más ca-paces los estudiantes de Suecia que en México. No lo son, las capacidades, en principio, de los jóvenes, de los niños, son las mismas en todo el mundo. La dife-rencia son dos cosas: la capacitación de los maestros y el problema de la cultura general de la sociedad. Yo creo que en México hay ese rechazo a la enseñanza de las Matemáticas, viene desde la casa, no es porque el niño llega a la escuela y no le gustó. Quizá antes sus papás le dijeron: “¡es horrible eso!”, o empiezan a tener problemas y le dicen: “te entiendo, yo también tenía ese problema”. Hay un rechazo cultural, un re-chazo social a las Matemáticas y eso se refleja en un mal rendimiento de los alumnos. Los problemas en la enseñanza de las Matemáticas no es una tarea senci-

lla de resolver, no dentro de un año y modificar los libros de texto. Es un programa que tomará a una o dos generaciones si se ataca seriamente a tiempo; y tendrá que pasar por capacitación de los maestros, programas mejor pensados, más modernos. Pero creo que eso no es el punto central; es importante pasar por una sensibilización de la sociedad sobre la importancia de la educación en lo general y de la enseñanza de las Matemáticas, en particular. Lo que notamos, por ejemplo de los resultados de evaluacio-nes internacionales en donde ha participado Méxi-co, es que los resultados en Matemáticas son malos, pero son igual de malos que los de lengua nacional y ciencias naturales. No es que los niños mexicanos estén mal educados en Matemáticas y bien en otras cosas: están igual de mal en todo. Lo que queda de manifiesto en estas evaluaciones internacionales es que la enseñanza de las Matemáticas es el mejor indicador del aprovechamiento de los estudiantes en todas las materias. Las Matemáticas, en general, son un indicador de que le va a ir bien en todas las materias, porque comprendiendo las Matemáticas se tiene un cierto nivel de pensamiento organizado, de disciplina para poder aprender bien otras cosas.

“...son un indicador de que le va a ir bien en todas las materias, porque comprendiendo las Matemáticas se

tiene un cierto nivel de pensamiento organizado, de disciplina para poder

aprender bien otras cosas.”

- Las Matemáticas auxilian a prácticamente to-das las demás áreas del conocimiento científico, en ese sentido ¿son las Matemáticas una herra-mienta para la ciencia o una ciencia en sí misma, o las dos cosas?- Pues sin duda las dos cosas. Todas las ciencias lla-madas duras o exactas como la Física, Química, y cada vez más las ciencias naturales como la Biología, y cada vez más las ciencias sociales como la Econo-mía, tienen una base matemática fundamental. Es decir, que el lenguaje en el que se estructura la cien-cia es matemático. Y, finalmente, lo que una ciencia busca -desde la Física para explicar fenómenos de la naturaleza, hasta la Economía para explicar fenóme-nos monetarios- es entender cómo pasan las cosas y crear modelos que permitan predecir qué va a pasar. Lo que es muy importante es predecir, entonces no interesa únicamente saber qué pasó y otros datos así aislados, lo que interesa de los datos es que sean úti-les para predecir qué va a pasar, ya sea un fenómeno físico, como un ciclón, o un fenómeno de devalua-ción de la moneda. Los modelos son matemáticos. Las herramientas para hacer modelos para poder obtener numéricamente predicciones son matemá-ticas. Eso le da un papel central a las Matemáticas en el desarrollo de todas las ciencias.

Enero-Junio 200760

Entrevista

- Usted es especialista en representaciones de Álgebra, ¿para qué nos sirve el Álgebra?, ¿que aplicaciones tiene?- El Álgebra juega un papel central en todas las Matemáticas, más que por sus aplicaciones fuera de éstas, porque desarrolla un lenguaje dentro de las propias Matemáticas. Es decir, casi todas las Ma-temáticas que se hacen formalmente tienen una estructura algebraica. Son objetos para entender cómo funcionan los objetos de las Matemáticas. Son objetos que no son visibles, no son físicos, pero son estructuras Matemáticas donde entiende uno el comportamiento y funcionamiento de las Mate-máticas. En ese sentido tienen un papel importante dentro de las Matemáticas, pero no un papel muy observable fuera de las Matemáticas. -¿Qué tanto ha cambiado la enseñanza de las Matemáticas?-Las Matemáticas por supuesto son una disciplina muy dinámica que ha cambiado muchísimo en los últimos 20 a 30 años, pero no todas las innovaciones, no todas las áreas de interés actual de las Matemáti-cas, se reflejan en cambios en la educación más ele-mental, pero podrían reflejarse más de lo que se hace actualmente. Quizá uno de los errores más dramáti-cos de la enseñanza, no sólo de las Matemáticas, sino de la enseñanza escolarizada en el siglo XX, fue la introducción de la Teoría de Conjuntos en la enseñan-za de primero de preparatoria, luego de secundaria, luego de primaria y luego de preescolar. ¿Cuál era el problema con la enseñanza de Teoría de Conjuntos? El problema es que los maestros no entendían lo que estaban enseñando. Entonces fue un gran y estrepi-toso fracaso la enseñanza de Teoría de Conjuntos. Hay que tener cuidado de qué cosas introducir.

- ¿Considera usted que existen inclinaciones naturales, vocaciones, para ser matemático, por ejemplo?, o tiene mucho que ver la formación, la escuela, la familia, el entorno…- Hay los factores sociales, los factores innatos, pero también uno va encontrando qué cosas le gus-tan más. Será por gusto, por influencias familiares, culturales o accidentes de la vida y pues uno va in-clinándose en una dirección u otra. Mi idea de ser matemático surgió un poco tarde, porque yo que-ría ser físico desde niño, como un tío que es físico y era bien visto en el ámbito familiar la profesión de científico, entonces yo quería ser científico. Pero uno no entiende realmente qué son las Matemáticas sino hasta que llega a un grado más avanzado. Tal vez en la Facultad de Ciencias fue donde aprecié qué eran las Matemáticas. Enfrentarme a los laboratorios de fí-sica no era algo muy agradable, la parte práctica de la ciencia experimental no me interesó, no me pareció atractiva. Una manera, a lo mejor de huir un poco de esa parte, fue irme hacia la parte más teórica, luego hacia las Matemáticas y terminé de matemático.

-Seguramente las Matemáticas le han trazado todo un mapa en el cerebro y yo no sé si usted se observa de pronto pensando matemáticamente en la cotidianidad, ¿Influyen las Matemáticas en su vida cotidiana?-Sí y no. Es típico que si van cinco matemáticos a co-mer y les dan la cuenta, obtienen cinco resultados di-ferentes a la hora de dividir. No es que sea uno bueno haciendo cuentas. Eso para nada! Tal vez lo que influ-ye es que trata uno ser más ordenado mentalmente, no ordenado en su vida personal o en su vida, ¡mi escritorio es una buena muestra de que muy orde-nado no soy!, pero trata uno de entender las cosas de manera ciertamente sistemática, y critica uno ciertas cosas y no se deja uno convencer fácilmente.

- México tiene un déficit en cuanto a número de investigadores con respecto a su población, ¿Qué retos nos representa como país?, ¿estamos preparados para resolver nuestros problemas de agua, pobreza, electricidad? -En el país hay muy poco desarrollo tecnológico, hay muy poca gente dedicada a la aplicación de la cien-cia, a resolver problemas sociales, problemas natu-rales, pero no por falta de convicción, sino porque somos muy pocos científicos. Aunque es un proble-ma de gobierno, no es exclusivo de éste. Yo creo que es un problema social, que la sociedad no ha estado convencida de la relevancia de la ciencia para resol-ver los problemas de bienestar de la sociedad, en un sentido amplio. Se piensa que la ciencia es algo curioso que hacen los científicos y, bueno, mientras se siga pensando de esa manera, pues es difícil que haya un desarrollo más grande. El apoyo que han dado los gobiernos en los últimos 40 años ha sido suficiente para que haya un crecimiento marginal de la ciencia, para que exista la ciencia, pero no ha sido suficiente para dar un empuje, un crecimiento decidido para que sea suficiente la cantidad de gen-te dedicada a la tarea científica.

Figura 3. El Dr. de La Peña originalmente quería es-tudiar Física.

Enero-Junio 200761

Entrevista

-Históricamente, México ha carecido de una polí-tica de Estado en ciencia y tecnología y los resul-tados están a la vista... -Simplemente llevamos 20, 30 y 40 años quejándo-nos de la falta de apoyo de los gobiernos a la cien-cia. Pero el gobierno actual consiguió bajar todavía más los índices de apoyo a la ciencia. Yo creo que el país ha fallado en la planeación. Sí se puede pla-near la ciencia. Sin embargo, en general, no sólo en la ciencia, en todo el ámbito político, no ha habido nunca políticas de Estado en México, con miras a largo plazo, con perspectivas de largo alcance, don-de se planea qué es, cómo se debe resolver el país y, por supuesto en temas como educación y ciencia se podría hacer muchísimas cosas. Sería importante tener metas como país de largo alcance.

- Hasta cuándo seguiremos diciendo lo mismo... - Vamos a seguirlo diciendo. No veo muchos indicios de que vaya a haber muchos cambios en el futuro.

- ¿Por qué?- Yo creo que la política se concibe en México como una cuestión inmediatista, como una cuestión de cartas de poder, como una cuestión más populis-ta: “vean que hice”, porque eso va a significar votos para un partido, va a significar votos para otro pues-to para mí mismo, y eso es lo que importa. Entonces hay poca planeación estratégica. Y eso lo estamos viendo en México con el petróleo, que es el ejemplo más dramático. Hubo los grandes hallazgos de yaci-mientos petroleros y los grandes capitales que en-traron al país sólo se utilizaron para el desarrollo de la extracción y se descuidó el resto de la industria, el resto del desarrollo de una infraestructura como país. Ahora que hay un boom petrolero, yo no sé en qué se utiliza el dinero, porque el desarrollo de in-fraestructura no se nota.

-¿Considera que los investigadores, los científi-cos, como los políticos y los funcionarios debe-rían rendir cuentas a la sociedad?- Sí claro. Son situaciones un poco diferentes. Los científicos, como parte de una comunidad universi-taria, rendimos cuentas en cuanto a que los resulta-dos de nuestro trabajo están disponibles. Se hacen informes frecuentemente. Cuando hay dinero adi-cional que entra de apoyo a investigaciones cien-tíficas, hay que rendir informes, entonces todo eso se rinde. Ahora, es difícil que todo eso llegue al gran público, pues en general, esa investigación es rela-tivamente sofisticada, en áreas de especialización que no le dicen mucho al público en general. Que puede estar disponible en red, como ahora se acos-tumbra por razones de transparencia y demás, no veo dificultad en eso. Creo que en general se hace el proceso de rendición de cuentas. En ciencia es difícil planear el trabajo como en la administración pública. Es difícil decir: este año voy a resolver tal

problema y este año voy a publicar tales artículos. Es muy difícil, porque simplemente el conocimiento no se genera de esa manera. Uno no puede planear qué resultados va uno a obtener.

-Tenemos un país con un grave rezago educa-tivo; cada vez se acotan las oportunidades de ingreso a las universidades; sólo dos de cada diez jóvenes de entre 18 y 22 años, que debe-rían estar inscritos en la licenciatura, sólo dos están dentro...

“…si en México hubiera una políticade planeación, de inversión en la

educación pública muy importante, podríamos cambiar las cosas en tan

sólo una generación.”

- Por supuesto el problema es grave. Pero hay varios aspectos. Por un lado, el crecimiento de la matrícu-la de la educación superior ha sido muy grande. En 1940, me parece, había 20 mil estudiantes en uni-versidades en México y actualmente son millones. Actualmente, la cobertura en el país, de jóvenes de entre 18 y 24 años, es del 21%, algo así como dos de cada diez. Esto es bajo, pero puede hacerse mucho por ello. Por ejemplo, hace 15 años Inglaterra tenía la misma cobertura –sólo dos de cada diez estudian-tes estaba inscrito en la educación superior, actual-mente, 15 años después, tiene de 60 a 70 por ciento. Hubo una inversión muy importante en educación superior y cambiaron las cosas en muy pocos años, lo cual nos lleva a pensar que si en México hubiera una política de planeación, de inversión en la edu-cación pública muy importante, podríamos cambiar las cosas en tan sólo una generación. Los rezagos no son todavía insalvables, el problema es que no hay una política de Estado que permita planear e invertir en ciencia y educación. La matrícula públi-ca ha crecido en México, pero no al ritmo suficien-te. Requerimos crecer en otros ritmos y no se trata de dar cabida a todo mundo. Lo que debe hacerse es formar mejores estudiantes, seguir siendo selec-tivos, aunque sea educación pública, ser selectivo, pero tener la capacidad de absorber a toda la gente que tenga una disposición, una capacidad desarro-llada. Lo que necesitamos es tener en el país univer-sidades fuertes, competitivas internacionalmente. Ahora sólo contamos con tres o cuatro de ese nivel, De tener unas 20 universidades competitivas sería-mos, sin duda, otro país. José Antonio de la Peña nació en Monterrey, Nuevo León, en 1958. Actualmente es Director adjunto de Desarrollo Científico y Académico de CONACYT. Es investigador Titular “C” del Instituto de Matemáticas de la UNAM e Investigador Na-

Enero-Junio 200762

Entrevista

cional nivel III. Sus áreas de especialidad son la Teoría de Representaciones de Álgebras, el Álge-bra Homológica y la Teoría Espectral de Gráficas.

Obtuvo los grados de licenciatura, maestría y doctorado en Matemáticas en la UNAM, en-tre 1980 y 1983. Realizó un postdoctorado en Matemáticas en la Universidad de Zürich, Sui-za, entre 1984 y 1986. Ha publicado 95 artículos en revistas internacionales. Ha publicado dos libros especializados y dos libros de texto. Sus artículos cuentan con más de 600 citas. Ha rea-lizado estancias de investigación en Canadá, Estados Unidos, Brasil, Argentina, España, Suiza, Alemania, Grecia, Polonia, Venezuela y Japón.

Ha dirigido la tesis doctoral de siete estudian-tes, todos ellos ahora incorporados al sistema de investigación nacional. Dos de sus estudiantes doctorales han obtenido el Premio Weizmann a la mejor tesis doctoral en ciencias exactas. Asi-mismo, codirigió el diseño y la construcción de la Sala de Matemáticas del Museo de las Cien-cias Universum y de varias exposiciones de di-vulgación de las Matemáticas. En divulgación científica ha publicado más de 30 artículos y ha impartido más de 50 conferencias.

El Dr. de la Peña fue Presidente de la Socie-dad Matemática Mexicana en el periodo 1988-1990; Presidente de la AMC en el periodo 2002-2003 y Director del Instituto de Matemáticas de la UNAM de 1998 a 2006.

Entre las diversas distinciones académicas ob-tenidas por el Dr. de la Peña, destacan, en 1994 el Premio de Investigación Científica en Ciencias Exac-tas de la Academia Mexicana de Ciencias (AMC), el Premio de la Academia del Tercer Mundo (TWAS Award) en investigación en Matemáticas 2002 y el Premio Nacional de Ciencias y Artes 2005 en Cien-cias Exactas y Naturales, y el Humboldt Award otor-gado por la Fundación Humboldt de Alemania.

Beatriz Guillen trabaja en la oficina de comunicación so-cial de la Benemérita Universidad Autónoma de Puebla. [email protected]

Reseña

(ISBN 968-16-7274-7, Fondo de Cultura

Económica,México, 2004)

Autores: RoaldHoffmann (ensayos)

y Vivian Torrence(collages)

Luego de un cuidadoso trabajo que inició en 1999, la periodista y escritora uruguaya Patricia Linn y el

doctor Miguel Ángel Méndez-Rojas, profesor del De-partamento de Ciencias Químico-Biológicas de la Uni-versidad de las Américas, Puebla, han traducido la obra Chemistry Imagined: Reflections on Science, surgida del trabajo colaborativo del científico Roald Hoffmann (Cornell University, Premio Nobel de Química 1981) y la artista gráfica Vivian Torrence.

La obra en español es editada y distribuida en Méxi-co e Hispanoamérica por el Fondo de Cultura Económi-ca (FCE). Con un prólogo del fallecido astrónomo Carl Sagan, la obra conjuga 30 ensayos y poemas de Roald Hoffmann y el mismo número de collages de Vivian To-rrence, en donde revelan el aspecto humanístico y crea-tivo de la ciencia de las transformaciones de la materia.

Los collages muestran la magia de la ciencia de las moléculas y los átomos, remontando nuestra imagina-ción a sus raíces históricas y a las misteriosas confluencias entre el arte y la ciencia. Publicada en inglés en 1993, era la única obra del autor aún no traducida al español, cu-yos otros trabajos incluyen “Vino Viejo, Ánforas Nuevas” (2004), la obra teatral “Oxígeno” (2003), “Lo mismo y no lo mismo”(1997) –editadas por el FCE–, así como las colec-ciones de poesía “Solitón” (2002) y “Catalista” (2002).

Roald Hoffmann (Ucrania, 1937) fue premio Nobel de Química en 1981 por sus investigaciones sobre los orbíta-les electrónicos de las moléculas. Es profesor de Química en la Universidad de Cornell (EE UU), ha escrito nume-rosos ensayos, dos libros científicos y cuatro poemarios. Una de sus últimas obras literarias es Oxygen (febrero 2001), una obra de teatro de la que es coautor junto a Carl Djerassi, en la que se narra el descubrimiento del oxígeno y donde científicos del siglo XVIII comparten escena con miembros actuales de la Academia Sueca.

Los días 25 y 26 de mayo, Hoffmann estuvo en la Universidad de las Américas, Puebla, para impartir un par de charlas y convivir con estudiantes y profesores. En sus poemas habla de ciencia y también de su infancia, como cuando, hasta los 12 años, estuvo huyendo de los nazis junto a su madre. En sus obras, aborda las interrela-ciones entre la ciencia, la vida cotidiana y el arte. Desde hace algunos años, en colaboración con la periodista K. C. Cole, organiza y a veces participa en sesiones abiertas en un café, tanto en Nueva York como en Los Angeles, donde el público platica de manera informal con diver-sos científicos sobre temas cotidianos y actuales.

* El Dr. Miguel Ángel Méndez Rojas es jefe del Departamen-to de Ciencias Químico-Biológicas de la Universidad de las Américas Puebla y director del proyecto ALEPH ZERO de di-vulgación científica (http://www.udlap.mx/alephzero). [email protected]