REVISTA DE BIOQUÍMICA ONLINE - bioquimica.ucv.cl n8.pdf · • NUEVA SECCION: BASES BIOQUÍMICAS Y...

50
N°8 Abril 2004 REVISTA DE BIOQUÍMICA ONLINE CELULAS DENDRITICAS DETERMINAN HOMING TEJIDO-ESPECIFICO EN LINFOCITOS T. J. RODRIGO MORA, MARIA ROSA BONO, N. MANJUNATH, WOLFGANG WENINGER, LOIS L. CAVANAGH, MARIO ROSEMBLATT & ULRICH H. VON ANDRIAN PIONEROS DE LA BIOQUÍMICA LUIS FEDERICO LELOIR CIENCIA AL DIA LA MOLÉCULA ISO-1 PREVIENE LA APARICIÓN DE DIABETES EN RATONES AVANCES EN EL PROYECTO GENOMA HUMANO. UNA NUEVA TÉCNICA REBASA EL LÍMITE ACTUAL DE DIFRACCIÓN. El ROSTRO MÁS MORTIFERO Y MENOS CONOCIDO DEL SMOG. VISUALIZACIÓN DE NEURONAS RECIÉN NACIDAS. CRISTALOGRAFIA DE MICROGRAVEDAD TECNICAS QUE UN BIOQUÍMICO DEBE SABER MICROARRAYS NUEVA SECCION: BASES BIOQUÍMICAS Y FISIOLOGICAS DE LAS ENFERMEDADES. ALZHEIMER: PRIMERA PARTE NUEVA SECCIÓN: BIOINFORMATICA ¿QUE ES LA BIOINFORMATICA?, APRENDIENDO BIOINFORMATICA

Transcript of REVISTA DE BIOQUÍMICA ONLINE - bioquimica.ucv.cl n8.pdf · • NUEVA SECCION: BASES BIOQUÍMICAS Y...

N°8 Abril 2004

• REVISTA DE BIOQUÍMICA ONLINE

• CELULAS DENDRITICAS DETERMINAN HOMING TEJIDO-ESPECIFICO EN LINFOCITOS T. J. RODRIGO MORA, MARIA ROSA BONO, N. MANJUNATH, WOLFGANG WENINGER, LOIS L. CAVANAGH, MARIO ROSEMBLATT & ULRICH H. VON ANDRIAN

• PIONEROS DE LA BIOQUÍMICA LUIS FEDERICO LELOIR

• CIENCIA AL DIA LA MOLÉCULA ISO-1 PREVIENE LA APARICIÓN DE DIABETES EN RATONES AVANCES EN EL PROYECTO GENOMA HUMANO. UNA NUEVA TÉCNICA REBASA EL LÍMITE ACTUAL DE DIFRACCIÓN. El ROSTRO MÁS MORTIFERO Y MENOS CONOCIDO DEL SMOG. VISUALIZACIÓN DE NEURONAS RECIÉN NACIDAS. CRISTALOGRAFIA DE MICROGRAVEDAD

• TECNICAS QUE UN BIOQUÍMICO DEBE SABER MICROARRAYS

• NUEVA SECCION: BASES BIOQUÍMICAS Y FISIOLOGICAS DE LAS ENFERMEDADES. ALZHEIMER: PRIMERA PARTE

• NUEVA SECCIÓN: BIOINFORMATICA ¿QUE ES LA BIOINFORMATICA?, APRENDIENDO BIOINFORMATICA

3 CARTA DEL DIRECTOR

4-10 CIENCIA AL DIA LA MOLÉCULA ISO-1 PREVIENE LA APARICIÓN DE DIABETES EN RATONES. AVANCES EN EL PROYECTO GENOMA HUMANO. CRISTALOGRAFIA DE MICROGRAVEDAD. PAGINA 8 (BREVE DE ARTE)

11-13 CIENCIA EN CHILE. CELULAS DENDRITICAS DETERMINAN HOMING TEJIDO-ESPECIFICO EN LINFOCITOS T.

14 -20 PIONEROS DE LA BIOQUIMICA LUIS FEDERICO LELOIR

21 - 25 BIOQUIMICA PATOLOGICA ALZHEIMER PRIMERA PARTE

26 -31 MICROARRAYS

32-33 TRIBUNA DEL ESTUDIANTE

48 HUMOR GRAFICO

47 PERSONAJE DEL MES ARTURO SANTIBAÑEZ

31 AGENDA BIOQUIMICA

Francisca Benavente

Axel Pinto

34 -35 TRIBUNA DEL PROFESOR

Lisette leyton

36-37 ENTREVISTA: Paula Cury

38-46 BIOINFORMATICA

49GALERIA FOTOGRAFICA

20 BECAS Y DOCTORADOS

CARTA DEL DIRECTOR

DIRECTOR CARLOS LIZAMA

EDITORES KELLY CAUTIVO CARLOS LIZAMA ALVARO GONZALEZ PABLO TAPIA

REDACCION KELLY CAUTIVO CARLOS LIZAMA ALVARO GONZALEZ PABLO TAPIA

REPORTEROS KELLY CAUTIVO PABLO TAPIA CARLOS LIZAMA ALVARO GONZALEZ DISEÑO GRAFICO ALVARO GONZALEZ KELLY CAUTIVO CARLOS LIZAMA PABLO TAPIA NUESTRA PORTADA

…………………RECORDATORIO

Hola, a todos aquellos que revisan y aprovechan el material vertido en nuestra revista, les cuento que hemos abierto una nueva sección (Bioinformática), además les doy el dato que muy pronto comenzara a funcionar una CDTECA a cargo de Nicolas Perez, y en conjunto con los miembros que editan esta revista. Quiero hacer un llamado a participar en nuestra revista sin necesidad de comprometerte a fondo con esta, lo único que tienes que hacer es enviarnos información acerca de temas de tu interés, o aquellos que tu creas que son necesarios tocarlos en la revista. Además te invitamos a proponer al personaje del mes para los próximos números de nuestra revista solo tienes que comunicarte con nosotros vía e-mail. Por ultimo creo que es importante felicitar a las personas organizadoras del paseo, ya que este tuvo una muy buena acogida por parte de los alumnos de primero, y una gran cantidad de alumnos de cursos superiores además estuvo muy bien organizada, espero que se sigan repitiendo. Este viernes 23 de abril recordemos que hay un debate entre las listas que se presentan a centro de alumno, seria importante que todos participaran para poder de una vez portadas tener un centro de alumnos y salir del paso ya que las votaciones se llevaran acabo los días lunes 26 y martes 27 de abril. Por otra parte además el día 30 de abril se realizara una tocata en la cafeta de nuestra casa central donde participaran una gran variedad de grupos interinos de nuestra carrera y algunos invitados ya consolidados. En esta tocata además se votara por la elección del logo para nuestra polera, esperamos que vayas y disfrutes un buen rato escuchando y riéndote en compañía de tus amigos.

Carlos Lizama V.

E-MAIL: [email protected]

LA MOLÉCULA ISO-1 PREVIENE LA APARICIÓN DE DIABETES EN RATONES. El compuesto ISO-1 parece prevenir la aparición de la diabetes tipo 1 cuando se administra en ratones, según un estudio presentado en la CCXXVII Reunión Anual de la Sociedad Americana de Química, que se celebra en Anaheim (California). Este compuesto sintético bloquea una vía implicada en la inflamación y actúa como una vacuna en la prevención de la diabetes. El equipo de Yousef Al-Abed, del Instituto de Investigación Judío North Shore-Long Island, en Manhasset (Nueva York), ha especificado que la molécula iría dirigida a individuos prediabéticos, definidos como aquéllos cuyos marcadores sanguíneos predicen el desarrollo de la enfermedad. Aunque hace falta una investigación más exhaustiva antes de que se pueda emplear el ISO-1 en humanos, el grupo de Al-Abed confía en que "pueda convertirse en un fármaco oral de acción prolongada" En su estudio, el equipo administró el ISO-1 por medio de una inyección durante un periodo de 10 días a un grupo de ratones que habían recibido un compuesto químico para inducir la aparición de diabetes de tipo 1. El ISO-1 protegía por completo de la enfermedad, que fue desarrollada únicamente por los animales que no lo recibieron. En un experimento similar controlado, el ISO-1 fue administrado a través de una inyección a ratones modificados genéticamente para ser diabéticos y previno su aparición en el 90 por ciento de los casos tratados. Los dos grupos de ratones que recibieron el ISO-1 siguieron produciendo insulina durante el tratamiento y no mostraron ningún efecto adverso. Los beneficios de la terapia fueron prolongados, "puesto que el compuesto seguía protegiendo a los animales dos meses después de concluido el tratamiento", ha informado Al-Abed. Según explican, la ISO-1 parece actuar bloqueando una proteína recién identificada, denominada factor inhibidor de la migración de macrófagos (MIF), que tiene un papel fundamental en la cascada de eventos inflamatorios que conducen a la destrucción de las células beta pancreáticas. Aunque el número de compuestos diseñados contra la diabetes que se dirigen a la inflamación es cada vez mayor, "el presente estudio es el primero que propone prevenir la diabetes dirigiéndose a la proteína MIF", ha comentado Al-Abed. Al tratarse de un compuesto químico relativamente pequeño, el experto confía en que pueda convertirse en un fármaco oral que funcione como una vacuna para la diabetes de tipo 1. Actualmente, el ISO-1 se prueba actualmente en animales para comprobar su eficacia en diabetes

diagnosticadas, "aunque los resultados no están disponibles todavía", han concluido. Unos adhesivos biocompatibles que pueden emplearse en tejido vascular aceleran el proceso de reparación tisular, según ha anunciado un equipo de la Facultad de Ciencias de la Universidad de Virginia, en Blacksburg (Virginia), en la CCXXVII Reunión Anual de la Sociedad Americana de Química, que se celebra en Anaheim (California). El objetivo del invento es posibilitar que los cirujanos puedan cortar, pegar o reparar tejido vascular por medio de un recubrimiento de biopolímero que se active por láser, según ha detallado Timothy Long, profesor de Química en Virginia. Otro de los usos sería como material estable aplicable para detener hemorragias. Una de las inventoras del biopolímero, Afia Karikari, ha explicado la estructura y características del innovador polímero, ahondando en cómo la luz provoca un cambio en su forma y función. En su presentación, Karikari ha detallado las características que poseen los múltiples compuestos que ya han sido seleccionados para componer un material que haría posible la reparación vascular asistida por láser. De confirmarse su eficacia, el invento mejoraría la sutura de venas y arterias, ya fuera después de una lesión o en el transcurso de una intervención de trasplante o by-pass. Asimismo, permitiría cohibir hemorragias y evitar la coagulación excesiva.

AVANCES EN EL PROYECTO GENOMA HUMANO. Secuencian los cromosomas humanos 13 y 19 y el genoma de la rata. Un equipo británico y otro norteamericano han conseguido retratar con precisión los cromosomas humanos 13 y 19, respectivamente. El análisis de sus datos publicado en la Nature, revela cómo el 13 incorpora varios genes implicados en el cáncer, la esquizofrenia y el trastorno bipolar, mientras que el 19 incluye genes asociados a enfermedades como la hipercolesterolemia o la diabetes insulinorresistente. Las secuencias de los cromosomas humanos 13 y 19 aparecen descifradas en dos trabajos que se publican hoy en la revista Nature y aportan datos valiosos sobre enfermedades como el cáncer y la diabetes. El cromosoma 13, secuenciado por el equipo de Andrew Dunham, del Instituto Wellcome Trust Sanger, en Hinxton (Reino Unido), es el mayor de los cromosomas acrocéntricos humanos (el resto son el 14, 15, 21 y 22). Su contenido se estructura en 95,5 megabases, que contienen 633 genes y 296 pseudogenes.

Basándose en la comparación con las secuencias genómicas de otros vertebrados, los autores estiman que el 95,4 por ciento de los genes codificadores de proteínas de este cromosoma han sido identificados en el presente trabajo. Además, se han encontrado otros 105 genes putativos no codificadores de ARN. Una de las peculiariedades del cromosoma es que posee una de las densidades genéticas más bajas del genoma humano (6,5 genes por megabase), especialmente en su región central de 38 Mb, donde la densidad genética se reduce hasta 3,1 genes por Mb. El 13 incorpora genes conocidos por su implicación en el cáncer, como el BRCA2 del tumor mamario y el gen del retinoblastoma (RB1), alterado en las leucemias linfocíticas crónicas de células B. Además, contiene regiones de ADN que se han asociado con patologías psiquiátricas, como el trastorno bipolar y la esquizofrenia. La comparación del cromosoma 13 con sus homólogos en otras especies, el Mus musculus (ratón), Tetraodon nigroviridis (pez soplador), Fugu rubripes (pez globo) y Danio rerio (pez cebra), revela que el 96 por ciento de los genes del cromosoma 13 tienen exones (parte del gen que codifica la proteína) conservados en la rata y el ratón, mientras que sólo el 81 por ciento incluyen exones conservados en los tres peces. En el mismo número de Nature se publica la secuenciación del cromosoma 19, descifrada por el equipo de Jane Grimwood, del Centro de Genoma Humano de Stanford, en Palo Alto (California), en colaboración con el Departamento estadounidense de Energía (DOE). El cromosoma 19 posee la mayor densidad genética de todos los cromosomas humanos (26 por megabase como media), más del doble de lo habitual, e incorpora redes reguladoras fundamentales de genes que controlan la reparación del daño genético causada por exposición a radiación y a otros contaminantes ambientales. La secuencia consta de 55,8 millones de megabases con una alta precisión, lo que representa un 99,9 por ciento del cromosoma. En total se han detectado 1.461 genes y 321 pseudogenes. El 19 posee varios genes implicados en enfermedades hereditarias, como la hipercolesterolemia familiar, la distrofia miotónica y la diabetes insulinorresistente. Cinco años de revolución genómica. 2004

Abril. Completados los cromosomas 13 y 19 y el genoma de la rata.

2003 • Octubre. Completado el cromosoma 6. • Julio. Completado el cromosoma 7. • Junio. Completado el cromosoma Y. • Abril. Final del Proyecto Genoma Humano. • Enero. Completado el cromosoma 14.

2002 • Diciembre. Completado el genoma del ratón. • Febrero. Obtienen el genoma del pez globo.

2001 • Diciembre. Completado el cromosoma 20. • Febrero. Publicación del borrador inicial del

Genoma Humano por Celera Genomics y Proyecto Genoma Humano en Science y Nature, respectivamente.

2000 • Mayo. Publicada la secuencia del cromosoma

21. • Abril. El Departamento de Energía de Estados

Unidos anuncia el borrador de la secuencia de los cromosomas 5, 16 y 19.

• Marzo. Secuenciado el genoma de la mosca Drosophila melanogaster.

1999 • Diciembre. Publicada la secuencia del primer

cromosoma humano, el 22 La rata de laboratorio no difiere del hombre y ratón. La rata es el primer signo del zodiaco chino, un gran reservorio de patógenos, el primer transmisor de la peste bubónica y compañera indeseable del hombre hasta que la convirtió en una valiosa aliada para investigaciones de laboratorio. Con su concurso se ha mejorado el conocimiento de ciertas enfermedades humanas El genoma de la rata de laboratorio, Rattus norvegicus, ya está secuenciado gracias al proyecto común del Centro de Secuenciación del Genoma Humano del Baylor College of Medicine, en Houston, en colaboración con el Instituto Nacional de Sangre, Pulmón y Corazón, de Estados Unidos, y con el Instituto Nacional de Investigación del Genoma Humano. Los resultados se publican hoy en Nature, aunque la información se ampliará en el próximo número de Genome Research. Se trata del tercer genoma de mamífero secuenciado. Hay que recordar que la rata ya se estableció como modelo de investigación desde principios del siglo XIX y cien años más tarde dejó el protagonismo al ratón, más pequeño y más fácil de manipular y manejar. Para Francis Collins, director del Instituto Nacional de Investigación del Genoma Humano, "la secuenciación de la rata constituye uno de los mayores hitos en nuestros esfuerzos por expandir el conocimiento del genoma humano". Según Elias Zerhouni, director de los Institutos Nacionales de Salud, durante más de 200 años las ratas de laboratorio han jugado un papel imprescindible en los esfuerzos de los científicos para entender la biología humana y para desarrollar nuevos fármacos. "Con los datos de la secuenciación, las nuevas generaciones de investigadores podrán mejorar la utilidad de los modelos de la rata y, por tanto, la salud humana". Aunque la rata es el reservorio de un gran número de patógenos, su contribución a la salud humana no se puede subestimar, puesto que en ella se prueban diversos fármacos, es de gran utilidad para conocer ciertos nutrientes y ha hecho que se sepan más datos sobre la patobiología de la enfermedad humana. La secuenciación del genoma del chimpancé, macaco, perro, vaca y comadreja ya se ha iniciado. Cuando se completen, se podrá establecer una comparación entre mamíferos más amplia y específica.

Dos modelos básicos. La diferencia que existe entre el ratón y la rata para experimentación no es considerable: sólo difieren en su tamaño y peso, que en el ratón no supera los 40 gramos y en la rata los 250. Tanto el ciclo reproductivo como la gestación son similares en ambos animales, según ha explicado a DM Ignacio Alvarez Gómez de Segura, de la Unidad de Investigación del Hospital La Paz, de Madrid. Como el genoma del ratón está disponible desde hace dos años, se emplea más en investigación básica. Además, la fácil obtención de ratones knock out ha propiciado su uso en los laboratorios. De hecho, hay varias empresas que se dedican a desarrollar y vender ratones transgénicos, en especial el Laboratorio Jackson, de Estados Unidos. Por el contrario, la rata se utiliza más en laboratorios de los centros hospitalarios, sobre todo para intervenciones quirúrgicas, "debido a su mayor tamaño. En el ratón es un poco complicado trabajar". Gómez de Segura ha destacado que, mediante el cruce de razas, se ha ido consiguiendo modelos específicos, como las ratas hipertensas. Ahora, como ya se conoce su genoma, se podrán desarrollar ratas con alteraciones genéticas específicas, similares a los ratones knock out ya existentes.

• El genoma de la rata, que consta de 2,75 gigabases, es más pequeño que el del hombre, con 2,9 gigabases, pero parece mayor que el del ratón, que contiene entre 2,5 y 2,6 gigabases. • La rata, el ratón y el hombre codifican un número similar de genes. La mayor parte ha persistido sin deleción o duplicación desde el ancestro más común. En los tres se han conservado sin problemas las estructuras intrónicas.

• Algunos genes encontrados en la rata, pero no en el ratón, han crecido a través de la expansión de familias de genes, que incluyen genes productores de feromonas, los implicados en la inmunidad, quimiosensación, detoxificación o proteolisis. • La mayor parte de los genes humanos conocidos que se asocian con enfermedades tiene otólogos en el genoma de la rata, pero sus tasas de sustitución sinónima son significativamente diferentes a los genes restantes. • Cerca del 3 por ciento del genoma de la rata son duplicaciones de segmento largo, una fracción intermedia entre el ratón, entre 1 y 2 por ciento, y el hombre, entre el 5 y el 6 por ciento. Esto sucede sobre todo en las regiones pericentroméricas. La expansión reciente de las principales familias de genes se debe a esas duplicaciones genómicas. El núcleo euteriano del genoma de la rata consta de mil millones de nucleótidos y contiene una gran cantidad de exones y de elementos reguladores conocidos, que suponen entre el 1 y el 2 por ciento del genoma. Una porción de ese núcleo constituye entre el 5 y el 6 por ciento del genoma y parece estar restringido de forma selectiva a los roedores y primates, mientras que los restantes parece que son neutrales. • Aproximadamente el 30 por ciento del genoma de la rata se alinea sólo con el ratón, una porción importante que es específica de los roedores. De esa porción no alineada, al menos la mitad es específica de la rata. • La mayor parte de los cambios genómicos se producen en las líneas de los roedores más que en las de los primates. Esos cambios genómicos en los roedores incluyen cerca de 250 reajustes entre un hipotético ancestro murino y el humano y cerca de 50 desde el ancestro del murino y el ratón. • Existe una correlación entre la tasa local de microinserciones y microdeleciones, elementos transposales de inserción y sustituciones de nucleótidos entre la divergencia de la rata y el ratón, incluso cuando esos procesos tienen lugar de forma independiente entre las dos lineas.

Para mayor información: (Nature 2004; 428: 493-521/475-476). (Nature 2004; 428: 522-528, 529-535).

UNA NUEVA TÉCNICA REBASA EL LÍMITE ACTUAL DE DIFRACCIÓN. Un grupo de científicos del Laboratorio Nacional Pacific Northwest, en Richland, Washington, perteneciente al Departamento de Energía del gobierno estadounidense, ha ideado una nueva técnica que permite rebasar el límite de difracción, un umbral que impide ver a través de un microscopio óptico partículas de tamaño inferior a los 200 nanometros. El estudio de moléculas de ADN, como el de muchas otras

TRES MAMIFEROS DESCIFRADOS

Comparación entre genomas

Homo Sapiens

Mus Musculus

Ratus Norvegicus

Nº. de cromosomas

22,X, Y 19,X,Y 20,X

Tamaño 2,9 Gb 2,6 Gb 2,75 Gb

Nº de genes 30.000 30.000 30.000

Total de mapeo

92,64 % 95 % 90 %

Genes específicos de especie

681 Mb 319 Mb 378 Mb

Duplicaciones de segmento largo

5-6 % 1-2 % 3 %

nanopartículas de interés, se beneficiaría de esta nueva tecnología. Dehong Hu y Peter Lu, investigadores del Departamento de Energía responsables del hallazgo, lo han explicado en la Reunión Nacional de la Sociedad Americana de Química. Para rebasar la barrera de los 200 nanometros, los investigadores combinaron el uso de dos tipos de microscopios: uno de fluorescencia permanente y otro atómico. El microscopio de fluorescencia permanente ofrece una imagen borrosa del ovillo formado por el ADN marcado con luminescencia de un tamaño aproximado de una micra. La molécula de ADN aparece con nitidez una vez que se introduce el microscopio atómico, que emplea una varita de silicio con punta de oro para seleccionar una muestra diminuta sin producirle daño alguno. Como ha indicado Hu, la punta de oro genera un campo eléctrico muy intenso cuando se ilumina con un láser. La interacción entre el campo magnético y las moléculas fluorescentes de la muestra proporciona la imagen de la molécula de ADN con su contraste. Gracias a esta innovadora técnica, Dehong Hu y Peter Lu han conseguido imágenes de calidad de partículas fluorescentes de hasta 40 nanometros de diámetro.

El ROSTRO MÁS MORTIFERO Y MENOS CONOCIDO DEL SMOG.

Investigadores chilenos realizan estudio sobre dos peligrosas y poco estudiadas familias de compuestos orgánicos tóxicos presentes en la contaminación atmosférica. Mejorarán la forma de obtener muestras y analizarlas. La polución del aire no se restringe a los compuestos incluidos en los reportes de las redes de monitoreo de calidad ambiental. La peligrosa novedad, y fuente de estudio de este proyecto Fondef de Conicyt, es que existen numerosos compuestos orgánicos presentes en muy bajas concentraciones, pero que tienen un alto potencial de daño a la salud. Entre dichos compuestos destacan por su capacidad de producir cáncer o mutaciones genéticas los Hidrocarburos Aromáticos Policíclicos (HAPs) y los Bifenilos Policlorados (PCBs). Estudios exploratorios en dos ciudades de Chile mostraron concentraciones de estos contaminantes bastante mayores que en otras partes del mundo. En Santiago, las concentraciones de HAPs medidas en el año 2001 resultaron ser 3,3 y 6,6 veces mayores que lo recomendado por la Unión Europea y 330 veces

mayores que lo recomendado por la Organización Mundial de la Salud (OMS). En Temuco, mediciones puntuales realizadas en 1998 mostraron valores que fluctúan entre 98,5 y 197 veces por sobre la recomendación de la UE y 9.850 veces por sobre la recomendación de la OMS. Un grupo de investigadores de la Universidad Técnica Federico Santa María se adjudicaron recientemente un Proyecto Fondef de Conicyt, con el que se proponen desarrollar tecnologías de punta para la toma, procesamiento y evaluación toxicológica de muestras atmosféricas para dar soporte a redes de monitoreo de calidad química del aire, en colaboración con organismos ambientales y de salud pública. Este proyecto de carácter multidisciplinario e interinstitucional, se desarrolla en colaboración con los Departamentos de Química, Electrónica, Diseño de Productos y Ciencia de Materiales de la UTFSM, con el Departamento de Física de la USACH, con la colaboración de CONAMA y SESMA, además de la empresa norteamericana Rupprecht & Patashnick Co., líder mundial en el desarrollo y venta de equipos de monitoreo y su representante en Chile, Milenio XXI. Estos nuevos equipos permitirán obtener información precisa, fidedigna y representativa sobre los compuestos objeto de este estudio, sus concentraciones, su variación en el tiempo y su nivel de riesgo toxicológico, posibilitando a los organismos ambientales y de salud iniciar planes preventivos o correctivos para proteger la salud de la población El Proyecto, al que Fondef de Conicyt asignó un monto de $266 millones, es dirigido por el Prof. Dr. Francisco Cereceda, académico del Departamento de Química de la UTFSM y director del Laboratorio de Química Ambiental. los HAPs y los PCBs están presentes prácticamente en todos los compartimentos ambientales (agua, suelo, aire y biota), en todos los continentes, e inclusive en las zonas más remotas del planeta como los polos. Por otra parte, su gran persistencia en el tiempo, sin que varíe su toxicidad y su difícil degradación, sobre todo de los PCBs, hace aún más peligrosa su presencia en el medio ambiente, así como finalmente la posibilidad de la incorporación al hombre y el aumento por ende, de sus efectos tóxicos sobre la salud. Los HAPs fueron los primeros contaminantes atmosféricos a los que se les pudo comprobar propiedades carcinogénicas o mutagénicas. La principal vía de entrada de los HAPs en el medio ambiente es a través de la atmósfera, pudiéndose encontrar ya sea en estado gaseoso o adsorbidos sobre material particulado (MP) y también formando parte de las denominada deposición total (deposiciones secas y húmedas). El origen de los HAP puede ser tanto natural como producido por el hombre. Estos se forman cada vez que se produce una combustión incompleta de materiales orgánicos que poseen carbono e hidrógeno. Los PCBs son un subgrupo de los compuestos orgánicos sintéticos conocidos como hidrocarburos clorados. Sus propiedades más importante son su gran inerticidad (resisten los ácidos y bases), su gran estabilidad térmica, baja conductividad eléctrica y el no ser explosivos. Esto favoreció su producción masiva en la industria química. Estas sustancias no existen en la naturaleza, salvo que sean sintetizadas artificialmente. Fueron producidos en forma industrial por primera vez en Estados Unidos en 1929 por la compañía Monsanto y se distribuyeron bajo el nombre

comercial de Aroclor. La producción industrial de los PCBs se mantuvo por más de 50 años y fueron exportados a todos los países del planeta. Para poder determinar la calidad química del aire que respiramos se debe tomar una muestra. Ejemplo de ello son los monitores continuos diseñados para el análisis de los contaminantes gaseosos más importantes (dióxido de azufre, monóxido y dióxido de carbono, ozono, óxidos de nitrógeno, etc.), la mayoría bien estandarizados y validados, incorporados a instrumentos portátiles, como los utilizados en la Red MACAM de calidad del aire de Santiago, perteneciente al SESMA. Para recolección de muestras atmosféricas para determinar la concentración de compuestos químicos orgánicos, y en especial los HAPs y/o los PCBs, no existen aún métodos estandarizados o de referencia y persiste una gran variedad de problemas, que van desde la toma de muestras hasta la metodología analítica para su identificación y cuantificación. Estos compuestos no son parte de los contaminantes normados que se miden regularmente en nuestro país, además como ellos se pueden encontrar en el aire en fase gaseosa, asociados al material particulado o incluso en la lluvia o el rocío, se dificulta aún más la toma de muestra. En la última década se han desarrollado métodos de toma y procesamiento de muestras atmosféricas para tratar de solucionar y satisfacer estas necesidades. Sin embargo, en su actual estado de desarrollo resultan extremadamente complejos, lentos, caros y requieren de personal altamente especializado para dar resultados reproducibles y confiables. Es por esto que los objetivos del presente proyecto son desarrollar justamente una tecnología más accesible de toma, procesamiento y evaluación toxicológica de muestras atmosféricas e intensificar la colaboración con los organismos ambientales y de salud para articular una red de monitoreo de calidad química del aire que los incluya.

Visualizan neuronas recién nacidas Lo hicieron en ratones modificados en los que se marcan estas células con proteína verde fluorescente. ─ El método señala únicamente tejido de reciente

formación ─ El modelo animal es similar al humano ─ Ahora podrán estudiarse estadios iniciales de la

neurogénesis

Por primera vez, un equipo de científicos argentinos, junto a colegas norteamericanos, consiguió identificar neuronas recién nacidas en el cerebro de un animal adulto y seguir la evolución de estas células nerviosas durante sus primeras dos semanas de vida, el tiempo que demoran en madurar y convertirse en adultas.

El doctor Marcelo Rubinstein, investigador del Instituto de Investigaciones en Ingeniería Genética y Biología Molecular (Ingebi) del Conicet, diseñó junto a su grupo un ratón capaz de expresar una proteína fluorescente sólo en las neuronas que acaban de nacer. El trabajo se publicó en The Journal of Neuroscience.

"Ya se sabía que existe neurogénesis en algunas partes del cerebro adulto, tanto en el humano como en el ratón -dice Marcelo Rubinstein-. Lo que se desconoce es qué mecanismos controlan la producción de nuevas neuronas y en qué casos ocurre." Las neuronas bebes fueron identificadas en una zona cerebral llamada giro dentado, que existe tanto en el ratón como en el ser humano y que anatómicamente se ubica en el hipocampo.

"Esto significa -dice Marcelo Rubinstein- que el giro dentado es el lugar del nacimiento de las neuronas y, por lo tanto, que allí existe una fuente de células troncales neuronales en el cerebro adulto, que como todas las células troncales tienen una gran capacidad proliferativa, pero también indiferenciación. Esta es una de las fuentes de células stem o troncales más estudiadas hasta ahora en el cerebro junto a la de los ventrículos laterales, donde se generan stem cells que serán parte del sistema olfatorio."

El investigador dice que el trabajo de su equipo contribuiría a "descubrir qué mecanismos permiten que nazcan neuronas en un cerebro adulto y abre las puertas a la posibilidad de estudiar más precisamente procesos de regeneración neuronal o del reforzamiento de circuitos que estén envejeciendo o muriendo". Similitudes y diferencias

Los cerebros del ratón y del humano son similares. "Por eso es tan importante contar con estos animales para realizar trabajos científicos. La gran diferencia -explica Rubinstein con una sonrisa cómplice- es en el lóbulo prefrontal, que en el ratón es proporcionalmente más chiquito que en el ser humano." Las neuronas identificadas por la proteína verde fluorescente son células granulares, un tipo celular del hipocampo cerebral que forma muchas conexiones y que participa especialmente en procesos de memoria, más que nada de memoria espacial. "Por

“SALA DE CLASES”

“Zapatos de todos colores, sillas de un solo color,

uniformidad en cada forma, y variabilidad en cada palabra,

razón alguna, no entiendo, no entiendo líneas por todas partes,

puntos encerrados, sigo perdido, luces blancas, un ambiente, un corazón,

un Díos, y yo no estoy en ese lugar,

es solo por la chaqueta” Caom.

ejemplo -ilustra-, para formar nuevas memorias que nos permitan recordar dónde dejamos tal o cual cosa o dónde vivimos, probablemente necesitemos de estas neuronas bebes que, una vez que crezcan, irán a parar a circuitos vinculados con la formación de memoria espacial."

Rubinstein afirma que el modelo de ratón con el que trabajaron confirma dos cuestiones características de la neurogénesis adulta: que ésta disminuye con la edad (es decir, los ratoncitos más jóvenes tienen más neuronas jóvenes) y que cuanta más actividad física desarrolla el animal de laboratorio más neurogénesis se produce. "O sea que este hallazgo abonaría -dice Rubinstein- la idea de que un mayor nivel de actividad motora aumenta la producción de neuronas, a diferencia del sedentarismo. Al contrario, el estrés traumático disminuye la neurogénesis y eso desmejoraría la capacidad de aprender."

Otros dos argentinos, recuerda Rubinstein, hicieron aportes en neurogénesis. Fernando Nottebohm descubrió, en 1989, que una zona del cerebro de aves cantoras machos aumenta la producción de células nerviosas cada vez que comienza un período de apareamiento y debe aprender un canto nuevo para atraer a su pareja.

Y otro científico local, Alejandro Schinder, mostró en un trabajo reciente que las nuevas neuronas nacidas son capaces de integrarse a circuitos activos en el hipocampo, es decir, de adquirir funcionalidad. Marcelo Rubinstein indica que la proteína verde fluorescente tiene un alto poder discriminador: lo que ilumina son únicamente neuronas recién nacidas, no células de soporte (glías o astrocitos).

Una neurona nueva, ¿ya tiene inscripto un determinado aprendizaje o debe aprender algo nuevo dentro del cerebro? "Es una de las preguntas clave -dice-. La cuestión de cómo se almacena una memoria no está desentrañada. Cuando conocemos por primera vez un lugar, esa información que permanece almacenada en el cerebro podrá ser luego recordada. Es decir: guardamos información espacial, pero al mismo tiempo es necesario tener neuronas dispuestas a almacenar información nueva mientras se mantiene la que ya teníamos. Este es uno de los problemas más graves de algunas enfermedades neurodegenerativas y también del envejecimiento normal. Los individuos mayores van perdiendo la capacidad de aprender y orientarse en lugares nuevos."

Para Marcelo Rubinstein, no cabe duda de que los nuevos circuitos neuronales se van formando en la medida en que se los necesite para algo.

"Cuando somos adultos, y necesitamos generar más conexiones, porque estamos aprendiendo cosas nuevas, ¿utilizamos redes existentes o redes nuevas? Mi hipótesis es que posiblemente se combinen ambas cosas."

Los ratoncitos del laboratorio que dirige Rubinstein servirán seguramente para estudiar muchos de estos fenómenos que aún no tienen respuesta científica. "Antes se creía que en el cerebro no se generaban nuevas células -dice el investigador-. Ahora que se sabe que sí ocurre es posible hacerse nuevas preguntas. Por ejemplo: ¿qué fenómenos regulan la revitalización del cerebro? ¿se puede controlar ese proceso desde afuera?"

No es una cuestión menor: el aumento de la expectativa de vida es paralelo al incremento de los

males neurodegenerativos y el envejecimiento casi siempre causa algún grado de déficit cognitivo. Por Gabriela Navarra De la Redacción de LA NACION http://www.lanacion.com.ar/04/04/08/sl_590414.asp LA NACION | 08/04/2004 | Página 09 | Ciencia/Salud

Cristalografía en microgravedad.

A

partir de la secuencia de aminoácidos de una proteína pueden a menudo predecirse los elementos de la estructura secundaria de la proteína. Sin embargo por ahora no es posible deducir de forma segura el plegamiento de tridimensional de la proteína a partir de su secuencia de aminoácidos, y sin conocer la estructura detallada no es posible comprender las bases moleculares de su función. La principal técnica que se ha utilizado para determinar la estructura tridimensional de las

moléculas, incluidas las proteínas a nivel atómico, es la cristalografía de rayos X.

Los rayos X, como la luz, son una forma de radiación electromagnética, pero de una longitud de onda mucho menor, típicamente cerca de 0.1 nm. Si se dirige un haz estrecho y paralelo de rayos X a una muestra de proteína pura, la mayoría de los rayos X pasará a su través. Sin embargo una pequeña fracción de ellos serían dispersados por los átomos de la muestra. Si la muestra es un cristal bien

ordenado, los haces dispersados se reforzarán unos a otros en ciertos puntos y aparecerán como y aparecerán como manchas de difracción cuando los rayos X sean recogidos sobre un detector.

La posición e intensidad de cada mancha en el patrón de difracción de rayos X contiene

información sobre las posiciones de los átomos en le cristal que

intentamos deducir. La deducción de la

estructura tridimensional de una gran molécula a partir del patrón de difracción de su cristal es una tarea compleja. Ello requiere grandes cantidades de una proteína muy pura y a menudo, supone años de tanteo en la búsqueda de las condiciones de cristalización adecuadas. Todavía hay muchas proteínas, especialmente proteínas de membrana, que han resistido todos los intentos de cristalización. Durante los años 70’ Walter Littked, un pionero de la investigación y profesor de la química en la Universidad de Freiburg, Alemania, utilizaba un método común de obtención de cristales de proteína: colocaba una solución de sal junto con una solución de la proteína. Cuando tales soluciones entran en contacto, la sal se asocia con algunas de las moléculas de agua en cuál se disuelve la proteína, esto causa que las moléculas de proteína se agrupen y comiencen a cristalizarse. Sin embargo, muchos de los cristales que se producen con este método son frágiles, pequeños o están rotos. Por los 80’, Littke sospechó en los cristales inutilizables un fenómeno de convección, o flujo, dentro de la solución que rodea los cristales crecientes de proteína. Este fenómeno ocurre en gravedad normal, como por ejemplo en la Tierra. Como las moléculas de la proteína se mueven hacia el cristal y conforman una pieza de éste; la solución entonces que confina el cristal contiene una concentración más baja de la proteína y, por lo tanto, tiene una densidad más baja. Esta solución menos-densa tiende a subir, y los más densos de la solución bajo influencia de la gravedad a hundirse, creando flujos de fluidos próximas al cristal. Estas corrientes convectivas pueden tener un efecto negativo en la calidad del cristal formado, porque pueden alterar la orientación y posición de las moléculas de la proteína. Esto puede causar desorden en la estructura del cristal de la proteína. Estas imperfecciones cristal, alternadamente, afectan adversamente los resultados del análisis de la difracción rayos X, o la claridad con que el cristalografo puede “ver” la precisa posición de cada átomo ocupado en la estructura tridimencional de la estructura de la molécula de proteína.

Otro efecto de la gravedad en los cristales es la sedimentación. Los cristales se hunden en la solución cuando tienen una masa más grande de la necesaria para estar en suspensión. Cuando esto sucede, los cristales parcialmente formados caen uno encima de otro. Ya que el análisis de rayos X requiere cristales

únicos, este fenómeno de sedimentación hace a los cristales potencialmente de alta calidad inutilizables para los análisis.

Los científicos comenzaron a considerar la idea de que en un ambiente de microgravedad, las moléculas de proteínas se moverían más lentamente, sobre todo por la difusión, reduciendo los fenómenos de convección y sedimentación. Este ambiente de microgravedad para generar alta calidad de cristales puede ser producido, por ejemplo, en un Trasbordador Espacial. Las muestras obtenidas en el espacio, pueden entonces empezar a ser analizadas en la tierra. Es por esto que el ambiente de microgravedad ha sido

escogido para docenas de experimentos de crecimiento de cristales macromoleculares. El programa de cristalografía de proteínas de la NASA. ha llevado a investigar muestras de 185 diferentes tipos de diferentes proteínas RNA, DNA y virus (hasta Agosto de 1999). La construcción de la Estación Espacial Internacional (ISS, por sus siglas en inglés), ampliará ahora las oportunidades de realizar experimentos en ambientes de microgravedad, y permitirá realizar experimentos por más tiempo en el espacio.

BIBLIOGRAFÍA. ─ Alberts, Bruce -&- Bray, Dennis -&- Lewis, Julian

-&- Raff, Martin -&- Roberts, Keith -&- Watson, James D. Biología Molecular de la Célula. 3ª. Ed. Barcelona, España: OMEGA, 1996. 1387 P. Pág. 185.

─ http://www.xtal.iqfr.csic.es/Cristalografia/index2.html

─ http://crystal.nasa.gov

Rodrigo Mora

Médico cirujano egresado en 1994 de la Facultad de

Medicina de la Universidad de La Frontera, Temuco. Realizó una beca de especialización en Inmunología Clínica en la

Universidad de Chile, en 1995, cuya tesis finalizó en 2001, resultando de ella un

importante descubrimiento en el sistema inmune y que le

valió una publicación en Nature. Luego emigró al The Center for Blood Research &

Department of Pathology (Harvard Medical School, Boston, USA) donde está

realizando un Post Doctorado

Nueva hipótesis en inmunologia: CELULAS DENDRÍTICAS DETERMINAN HOMING TEJIDO-ESPECÍFICO EN LINFOCITOS T.

Los linfocitos T (LT) naïve al ser activados, se diferencian a LT efectores y de

memoria que migran preferentemente a los tejidos periféricos asociados a los órganos linfoides donde encontraron su antígeno. Así, antígenos administrados por vía oral generan LT de memoria/efectores que expresan altos niveles de los receptores de homing para mucosa intestinal, la integrina a4b7 y el receptor de quimioquina CCR9. Nosotros encontramos que el tropismo de LT a intestino es determinado por las células dendríticas (DC) de placas de Peyer (PP). Estimulación ex vivo de LT vírgenes transgénicos para el TCR por DC de PP pulsadas con el antígeno, pero no de ganglios linfáticos o bazo, inducen altos niveles de a4b7 y CCR9 (respuesta a TECK). Consistente con esto, LT activados con DC de PP migran dramáticamente más a mucosa de intestino delgado. En contraste, otras moléculas de adhesión, marcadores de activación, y actividad funcional fueron inducidas en forma equivalente en los LT por DC de todos los órganos linfoides estudiados. Estos resultados establecen que DC de PP confieren a los LT especificidad para el homing a mucosa intestinal, capacitándolos entonces para migrar al tejido periférico asociado a este órgano linfoide. Nuestros resultados identifican por vez primera un elemento tisular responsable de la determinación del potencial de homing tejido-específico en LT, y establecen un nuevo rol para las DC en la "educación" de LT.

Nadie se imaginó que de las reuniones informales para tomar café en los pasillos de la Facultad de Medicina de la Universidad de Chile, luego de las clases del Curso de Inmunología Avanzada, nacerían ideas y preguntas que serían plasmadas en una investigación de alto nivel y, finalmente, en una publicación de seis páginas de la prestigiosa revista Nature, en el artículo: “Selective imprinting of gut-homing T cells by Peyer’s patch dendritic cells”. Los tres científicos protagonistas de esta particular forma de emprender un proyecto son: Rodrigo Mora, doctor en Ciencias Biomédicas de la Universidad de Chile; María Rosa Bono, doctora en Físicoquímica de la Universidad de París; y Mario Rosemblatt, Ph.D. en Bioquímica especializado en Inmunología en la Wayne State University, Estados Unidos.

Nosotros, tras años de trabajo, resolvimos uno de los grandes enigmas del funcionamiento del sistema inmunológico, cambiando la perspectiva que existía en torno al tema, al descubrir que los linfocitos T (células centrales en la respuesta inmune) están subordinados a las células dendríticas, encargadas de guiarlos hasta el sitio donde se necesitan. Aunque hace alrededor de 20 años ya era conocido que estos linfocitos acuden al lugar exacto donde se encuentra un patógeno o agente infeccioso para eliminarlo, hasta ahora no se entendía cómo ellos sabían dónde se encontraba el enemigo, ni cuándo o cómo lo reconocían.

Muchos grupos que estudiaron la materia “han derivado finalmente en un problema de homing (volver a la casa), porque sabemos que los linfocitos, a pesar de no haber visto jamás un antígeno, saben cómo reconocerlos. A ellos se les

llama linfocitos vírgenes y tienen un mensaje que los hace estar destinados a reconocer al patógeno”. Mediante las discusiones, “surgió la idea de que los linfocitos tenían que recibir un mensaje para poder migrar a donde se iba a producir el encuentro con el antígeno”.

De ahí surgió la pregunta de si los linfocitos una vez que se topan con el antígeno en algún lugar, se mantienen en una circulación restringida, es decir, ya no van a recorrer todo el trayecto, sino que se circunscriben al área infectada, “de manera que el linfocito va a ser capaz, por una parte, de ir al lugar de la infección, pero después, para destruir al patógeno tienen que volver a salir. Entonces, el problema es quién le da las instrucciones a ellos de volver al lugar de la infección”.

Rodrigo Mora se planteo un desafío: averiguar quién es el jefe de esos linfocitos, quién los manda y les proporciona la información que requieren para llegar a los órganos que están siendo atacados. Así, y con la fundamental ayuda de nosostros (Rosemblatt y Bono), plantea la hipótesis que más tarde él mismo comprobaría: son las células dendríticas las que instruyen u ordenan al linfocito para que vaya al lugar correcto de la infección.

“Selective imprinting of gut-homing T cells by Peyer's patch dendritic cells”. J. RODRIGO MORA, MARIA ROSA BONO, N. MANJUNATH, WOLFGANG WENINGER, LOIS L. CAVANAGH, MARIO ROSEMBLATT & ULRICH H. VON ANDRIAN. doi:10.1038/nature01726

Había evidencia de que las células dendríticas influenciaban la respuesta inmune en forma importante, y además se sabía que para que los linfocitos pudieran migrar a donde tenían que ir, debían activarse, es decir, pasar de ser linfocitos vírgenes a activados. Las únicas células capaces de activar linfocitos vírgenes son las dendríticas, entonces nos parecía obvio que si ellas activaban al linfocito, al mismo tiempo, era muy probable que le dieran también la señal de migración. Esas células se caracterizan por encontrarse ubicadas en las principales vías de entrada de los patógenos (vías respiratorias, aparato digestivo, mucosas en general) y se les conocía hasta ahora varias funciones importantes, una de ellas es capturar al antígeno o bacteria y llevarlo a un órgano linfoide (como puede ser un ganglio), donde se encuentran con los linfocitos, para ‘presentarles’ al invasor. Además tienen la capacidad de detectar a los elementos anómalos, ayudadas por receptores que poseen en su superficie, que funcionan como verdaderos radares.

Aunque está consciente de que es prematuro el vaticinio de potenciales aplicaciones clínicas, Rodrigo Mora da un

ejemplo del uso que se le podría dar al descubrimiento: “una de las dificultades al momento de diseñar vacunas, especialmente aquellas destinadas a proteger tejidos mucosos como el intestino y el genital, es que es difícil generar inmunidad protectora en ellos. Esto es debido a que la mayoría de los protocolos de inmunización no generan linfocitos capaces de patrullar por estos sitios. En esta línea, si logramos identificar los mecanismos moleculares responsables de ‘programar’ a los linfocitos para que migren específicamente por estos tejidos, eso nos daría una herramienta potencial para diseñar o hacer más efectivas las vacunas que se usan actualmente”.

La búsqueda del modelo de experimentación estuvo enfocada en conseguir un animal que ofreciera linfocitos T

vírgenes, para lo cual se adquirieron desde Estados Unidos ratones transgénicos que tenían esta particularidad. Definido el modelo de estudio, se concentraron en las células dendríticas, que son un tipo celular difícil de estudiar

debido a que son muy pocas en el organismo, lo que implica utilizar un complicado sistema de selección para poder obtenerlas y analizarlas en el laboratorio. Los primeros experimentos que hizo Rodrigo fueron maratónicos, porque para poder sacar suficientes células dendríticas y hacer algunos de los experimentos teníamos que sacrificar a veinte ratones. Esto implica un protocolo que es muy caro y trabajoso. Estas células dendríticas representan en los órganos que nosotros estábamos tratando de aislar (ese era el primer paso), una sobre diez mil. Entonces la frecuencia es muy poca, y uno tiene que utilizar métodos para poder enriquecer esa población.

Por ello debimos acrecentar la población de esas células mediante un método innovador, que conocimos gracias a la sugerencia de una estudiante chilena de postgrado residente en Harvard, quien nos comentó que existía un factor soluble que inducía el aumento de dendríticas en el organismo. a través de este método, en vez de obtener las células dendríticas a partir de 20 o más ratones, con dos o tres ratones tenías suficiente para efectuar el ensayo y con mucho menos trabajo.

Una vez obtenidas las dendríticas, se reúnen con los linfocitos en placas de cultivo para que éstas los instruyan. Y finalmente, se reinyectan a los ratones los linfocitos, que ya llevan el mensaje, y se observa en el animal a dónde se dirigen. Reinfundir estos linfocitos en el animal y ese tipo de protocolo, no lo dominábamos, pero había varios grupos en Estados Unidos donde se estaba haciendo, entonces decidimos con Rodrigo que había que ir a uno de esos laboratorios a aprender la tecnología”.

El experimento clave para nosotros era demostrar que podíamos inducir la capacidad de los linfocitos de homing in vitro (en cultivo), y que ellos ahora eran capaces de migrar al sitio que debían in vivo, en el animal. Las investigaciones dieron frutos positivos prácticamente de inmediato, los primeros resultados que tuvo Rodrigo eran para publicarlos, pero había que hacer los controles.

Luego de demostrar la hipótesis en Chile, Rodrigo Mora viajó a Estados Unidos donde replicó las investigaciones y obtuvo los mismos resultados.

La hipótesis planteada era original y al mismo tiempo atractiva, lo que fue el motivo por el cual Rodrigo pudo trabajar con absoluta libertad en el laboratorio del Dr. Von Andrian (Harvard Medical School, Boston, USA) para este proyecto.

Mario Rosemblatt.

Bioquímico de la Universidad de Chile y Ph.D. Biochemistry, Wayne State University, Detroit, Mich. USA. Entre 1964 y 1990 ocupó diversos cargos académicos, especialmente como docente de Postgrado y responsable docente en Inmunología, en diferentes instituciones, entre ellas la Universidad de Chile, Harvard University Graduate School, Cambridge, MA. USA.; Brown University, Providence, RI. USA.; Association pour le Recherche sur le Cancer (ARC), France; Faculte de Sciences. Université de Paris VII. France. Fue miembro del Comité para el Desarrollo de la Biotecnología de la U. de Chile, director de la Sociedad de Biología Celular de Chile y fue Presidente de la Sociedad Chilena de Inmunología; desde 1996 es Coordinador del Comité Asesor de FONDECYT en Biología Desde 1991 es Profesor Asociado del Departamento de Biología, Facultad de Ciencias U. de Chile, donde además ha ocupado cargos como director del Departamento de Biología y director de la Carrera de Biotecnología. Desde 1997 es Director Ejecutivo de la Fundación Ciencia para la Vida y desde 1999 es Director Suplente del Instituto Milenio de Biología Fundamental y Aplicada (MIFAB).

El trabajo fue expuesto en varios seminarios internacionales recibiendo una buena acogida de parte de la comunidad científica, sin embargo, todo el mérito fue fruto del apoyo que este grupo obtuvo de distintas entidades que promueven el avance de la ciencia, sin el cual, no se habría hecho realidad.

El grupo comenzó la investigación con el respaldo de haberse adjudicado un proyecto del Fondo Nacional de Desarrollo Científico y Tecnológico (Fondecyt), que fue la plataforma para poder construir todo lo demás, pero a pesar de que brinda dinero para viajes, para extranjeros y estudiantes, éstos son limitados.

Por ese motivo, el apoyo de la Iniciativa Científica Milenio, fue lo que finalmente permitió el viaje de Mora y su estadía en Estados Unidos, que en un principio se planificó por tres meses, pero luego se extendió al doble. Por otra parte, Mora ganó su propio proyecto de investigación de doctorado, además de una prestigiosa beca de la Fundación Andes.

..............la publicación. Al darse cuenta de que este descubrimiento era de suficiente envergadura como para mandarlo a una revista del

calibre de Nature, esperamos hasta tener un trabajo más completo. Así, el paper se publico un año después (en julio de 2003), debido en gran medida a que los árbitros plantearon requerimientos que hubo que responder, lo que supuso llevar a cabo nuevos experimentos que no eran posibles de realizar en Chile.

Responder a todos las exigencias de los árbitros tomó su tiempo. Nos pidieron una confirmación, es decir, cuando nosotros hacíamos las purificaciones, lo hacíamos con métodos inmunomagnéticos que consiguen un 90% de pureza de célula dendrítica. Había que asegurarse que el fenómeno no estaba siendo producido por este 10% de células negativas, nos pidieron que las purificáramos al máximo y para eso necesitábamos un cell sorter (equipo que separa células electrónicamente), entonces Rodrigo se fue a Estados Unidos a terminar los experimentos.

Las indagaciones que desembocaron en la publicación en Nature las efectuaron sobre la base de linfocitos T citotóxicos, que están destinados a matar células infectadas. Entonces, ahora se abocaron al mismo fenómeno, pero con otro tipo de poblaciones de linfocitos T, los de ayuda, que tienen como principal función el auxiliar a otras células a tener una respuesta inmune eficiente.

Se partió estudiando el comportamiento de ciertos tipos de linfocitos en pacientes transplantados, se fue derivando sobre el efecto de drogas inmunosupresoras sobre el comportamiento de los linfocitos y ahora se explora

el efecto de esta droga en el comportamiento de la célula dendrítica. Esto es un problema bastante fundamental de la biología porque un mejor conocimiento de la célula dendrítica nos permitirá usarla en transplantes, aunque se cree que no se está muy lejano el día en que esto se haga realidad, así como también el uso en terapias inmunológicas.

Mora sigue vinculado a los resultados que obtuvo para esa publicación en Nature, aunque ahora desde Harvard, Estados Unidos, donde realiza su postdoctorado, pero esta ‘promesa de la ciencia chilena’, como se le ha llamado, tiene planes de volver a Chile:

“puesto que siento estar en deuda con el apoyo que mi país me ha brindado en todos los aspectos. No obstante, pienso que el invertir algunos años en Estados Unidos sólo puede ser mejor para adquirir experiencia y de este modo tener mejores posibilidades de hacer investigación a un buen nivel desde Chile”.

María Rosa Bono. Licenciada en Ciencias, mención Química en la Universidad de Chile. Dra. en Fisicoquímica, Universidad de París. Actualmente trabaja en la Facultad de Ciencias de la Universidad de Chile, donde es coordinadora de los cursos de pregrado de Inmunología Básica y Taller Práctico de Inmunología para estudiantes de Ingeniería en biotecnología, y es coordinadora del curso de Inmunología Avanzada del Programa de Doctorado de Biología Celular, Molecular y Neurociencia. Investigación en Inmunología Básica en los temas mencionados en colaboración con el Dr. Rosemblatt. Cuenta con un equipo de investigación formado por profesionales Bioquímicos, Químicos y estudiantes tesistas de Doctorado y Pregrado. Experta en Citometría de Flujo, mantiene un Servicio de formación de profesionales académicos y de la Salud en esta área.

Nacido en París (Francia) el 6 de setiembre de 1906, fallecio en Buenos Aires el 2 de diciembre de 1987. En el año 1970 le otorgan la más famosa distinción internacional en el campo de la ciencia y la cultura, el Premio Nobel, a uno de sus compatriotas, cuyo nombre y

actuación eran absolutamente desconocida por la inmensa mayoría de ellos. Aunque los inicios de su carrera de investigador estuvieron firmemente ligados a la figura de Bernardo A. Houssay -también premio Nobel, Luis Federico Leloir brilló luego con luz propia y llevó a la ciencia argentina tan alto como su maestro y amigo. Leloir habia nacido en París el 6 de setiembre de 1906, durante una estadia de sus padres, durante la cual el Dr. Leloir se someteria a una intervencion quirurgica, ambos argentinos y en aquella ciudad transcurrieron sus primeros dos años de su vida, de todos modos, posteriormente el Dr. Leloir adopto la ciudadania argentina.. Una vez en Buenos Aires y desde muy chico se interesó por la naturaleza, a la que tenía fácil acceso ya que su familia poseía grandes extensiones de campo y se dedicaba a actividades agropecuarias. Terminados los estudios primarios y secundarios se inscribió en la Universidad de Buenos Aires, graduándose en Medicina en 1932. En sus inicios como practicante trabajó en el Hospital Municipal José María Ramos Mejía, donde participó de la creación de una sociedad en parte científica y en parte social llamada como el hospital y cuya principal actividad era el dictado de conferencias. Ya graduado pasó a formar parte del plantel del Servicio de la Cátedra de Semiología y Clínica Propedéutica que funcionaba en el Hospital Nacional de Clínicas, dedicándose a la gastroenterología durante dos años. Pero poco tiempo después -inquieto por su deseo de encontrar respuestas a algunos enigmas de la naturaleza- abandonó la práctica médica para consagrarse a la investigación científica pura. Conociendo bien los trabajos del profesor de Fisiología Bernardo A. Houssay, resolvió incorporarse al instituto que éste dirigía, y que funcionaba en el viejo edificio de la Facultad de Medicina. Así, Leloir comenzó a trabajar en el Instituto de Fisiología para realizar su tesis de doctorado, que a propuesta de Houssay trató sobre Las glándulas suprarrenales en el metabolismo de los hidratos de carbono -y que resultó ganadora del

Premio de la Facultad de Medicina de Buenos Aires en 1934. Para llevar adelante esta investigación se necesitaba contar con conocimientos de técnica bioquímica, por lo que Leloir siguió algunos cursos en la Facultad de Ciencias Exactas y Naturales. En esta Facultad, aunque no llegó a completar la carrera, sí adquirió los conocimientos que serían luego la base de sus notables trabajos de investigación y también definió su futuro científico: pasó de la Medicina a la Bioquímica. Esta disciplina, rama de la Química, había nacido en los inicios del presente siglo y se desarrolló en forma acelerada. Gracias a ella se pudieron conocer la estructura química de la mayor parte de las vitaminas y hormonas. Luego de doctorarse en medicina Leloir partió a Inglaterra, al Biochemical Laboratory, de la Universidad de Cambridge, que dirigía el profesor Frederick Gowland Hopkins, ganador del Premio Nobel en 1929 por su descubrimiento de las vitaminas. Cuando regresó, en 1937, se reincorporó al Instituto de Fisiología, desempeñándose como ayudante de investigaciones hasta 1943. En un ámbito con marcadas limitaciones materiales investigaba metódica e intensamente y se integraba muy bien a los equipos de trabajo. Con el doctor Juan María Muñoz -químico de personalidad original, ya que era además odontólogo y médico- realizaron experiencias sobre el metabolismo del alcohol. Después se sumó a Juan Carlos Fasciolo, Eduardo Braun Menéndez, Juan María Muñoz y Alberto Taquini para llevar adelante observaciones sobre aspectos fundamentales de la hipertensión arterial. Cuando el riñón sufre una disminución de la irrigación sanguínea libera una sustancia -renina- vinculada al aumento de la presión arterial. El grupo logró comprobar que la renina actuaba sobre una proteína de la sangre y es ésta la que produce la hipertensión: la llamaron hipertensina. También descubrieron que en los tejidos y en la sangre existía otra sustancia que destruía la hipertensina. De estas investigaciones surgió el libro Hipertensión Arterial Nefrógena, publicado en 1943, que obtuvo el tercer premio Nacional de Ciencias y que fue traducido al inglés y publicado en los Estados Unidos en 1946. En 1941, paralelamente a sus investigaciones, Leloir comenzó su carrera de profesorado de Fisiología en la cátedra de Houssay, pero la abandonó en 1943, cuando su maestro fue destituido por haber firmado junto a otros profesores un manifiesto en el que pedían el restablecimiento de la democracia después del golpe de estado del 4 de junio de ese mismo año. Como protesta también renunció a su cargo en el Instituto de Fisiología y decidió irse a seguir su labor en el exterior. El laboratorio de Carl Gerty Cori -Premio Nobel de Medicina- en St. Louis, Estados Unidos, fue el sitio elegido. Allí trabajó durante seis meses en el estudio

“La bioquímica y yo nacimos y crecimos casi al mismo tiempo… El verdadero premio del científico está en hacer buenos experimentos, no en los premios que se le otorgan por eso".

Luis Federico Leloir (1906-1987)

de la formación del ácido cítrico. Luego fue al Colegio de Médicos y Cirujanos de la Universidad de Columbia, en Nueva York. Cuando regresó a la Argentina volvió a trabajar con Houssay, pero esta vez en el ámbito del Instituto de Biología y Medicina Experimental, una institución creada gracias al apoyo de fundaciones privadas. Por iniciativa de Jaime Campomar, propietario de una importante industria textil, se fundó un instituto de investigación especializado en bioquímica que Leloir dirigiría desde su creación en 1947 y por 40 años. Este organismo empezó a funcionar en una pequeña casa de cuatro habitaciones separada sólo por una pared medianera del Instituto de Biología y Medicina Experimental. Como se trataba de una casa antigua y en mal estado, durante los días de lluvia, caía abundante agua en su interior, pero nada de esto desanimaba a Leloir. Poco tiempo después la sede del instituto se trasladó a un edificio mejor, naciendo así el Instituto de Investigaciones Bioquímicas, Fundación Campomar. Con la puesta en marcha de este Instituto se inició el capítulo más importante de la obra científica del doctor Leloir, que culminaría con la obtención del Premio Nobel de Química en 1970. Con una excepcional voluntad, las investigaciones de Leloir en el Instituto avanzaron superando los inconvenientes que provocaba el muy modesto presupuesto disponible. Esta circunstancia lo exigía a usar toda su creatividad para concebir, en forma artesanal, parte del complejo instrumental necesario. En estas condiciones, su trabajo se orientó a un aspecto científico hasta entonces postergado: el proceso interno por el cual el hígado recibe glucosa -azúcar común- y produce glucógeno, el material de reserva energética del organismo. A principios de 1948, el equipo de Leloir identificó los azúcar-nucleótidos, compuestos que desempeñan un papel fundamental en el metabolismo (transformación por el cuerpo de los hidratos de carbono). Pocos descubrimientos han tenido tanta influencia en la investigación bioquímica como este, que convirtió al laboratorio del Instituto en un centro de investigación mundialmente reconocido. Leloir recibió inmediatamente el Premio de la Sociedad Científica Argentina, el primero de una larga lista de reconocimientos nacionales y extranjeros previos y posteriores al Premio Nobel de Química de 1970. En el vocabulario científico internacional se denomina "el camino de Leloir" al conjunto de descubrimientos que llevó al gran científico argentino a determinar cómo los alimentos se transforman en azúcares y sirven de combustible a la vida humana. La fundación del Consejo Nacional de Investigaciones Científicas y Técnicas en el año 1958, permitió asociar al Instituto de Bioquímica con la Facultad de Ciencias Exactas de la Universidad de Buenos Aires y aumentar el número de investigadores. A su vez, esta Facultad

creó su propio Instituto de Investigaciones Bioquímicas y designó director al doctor Leloir, quien también fue nombrado Profesor Extraordinario. Numerosas instituciones científicas lo incorporaron como miembro: la Academia Nacional de Ciencias de los Estados Unidos, la Academia de Ciencias de Chile, la Academia Pontificia de Ciencias, la Biochemical Society, la Royal Society de Londres, la Societé de Biologie de París, la Academia de Ciencias de Francia y la Academia de Ciencias de Buenos Aires. La resonancia que provocó en argentina la adjudicación del Premio Nobel al doctor Leloir despertó el interés de las autoridades que dotaron a su laboratorio con los elementos y el equipamiento necesario para que pudiera continuar su labor científica y transmitir su saber a un importante grupo de colaboradores y discípulos. El equipo de investigación dirigido por Leloir también inició el estudio de las glicoproteínas -una familia de proteínas asociadas con los azúcares- y determinó la causa de la galactosemia, una grave enfermedad manifestada en la intolerancia a la leche. Luis Federico Leloir -como su maestro, el también Premio Nobel Bernardo A. Houssay- hizo del trabajo

disciplinado y constante una rutina y sus admirables logros no lo apartaron de la sencillez, su otra costumbre. Pocos años antes de su muerte Leloir pudo inaugurar, frente al Parque Centenario, un nuevo edificio para el Instituto de

Investigaciones Bioquímicas, que se veía desbordado por la gran cantidad de estudiantes, becarios e investigadores que querían trabajar en él. Sus valores éticos

y sus ciencias siguen siendo un ejemplo para el mundo. Leloir formó parte de la escuela de Houssay, de quien fue discípulo y amigo. Pero su trayectoria fue tan importante como la de su maestro. Recibido de médico, y mientras era interno del hospital Ramos Mejía, se interesó por la tarea de laboratorio. Leloir se especializó en el metabolismo de los hidratos de carbono. Fue a principios de los años - 40 cuando se acercó al Instituto dirigido por Houssay, antecedente del Instituto de Investigaciones Bioquímicas de la Fundación Campomar, que Leloir dirigiría desde su creación en 1947 y durante 40 años. Por ese entonces, Leloir compartía sus trabajos de laboratorio con la docencia como profesor externo de la Facultad de Ciencias Exactas y Naturales, tarea que sólo interrumpió para realizar viajes al exterior con el fin de completar estudios en Cambridge, el Enzime Research Laboratory de los Estados Unidos y otros importantes centros científicos del mundo. Con una excepcional voluntad, las investigaciones de Leloir en el Instituto superaron los escollos de un presupuesto modesto que obligaba a usar cajones de madera como sillas y a fabricar complejos

instrumentos de forma casera. El propio Leloir resumió su postura al recordar la obtención del Nobel: "El verdadero premio del científico está en hacer buenos experimentos, no en los premios que se le otorgan por eso". Siguiendo esta idea, Leloir logró poner el máximo potencia creativo al servicio de la ciencia Autobiografía Luis Federico Leloir La bioquímica y yo nacimos y crecimos casi al mismo tiempo. Antes del comienzo del siglo, algunos químicos orgánicos y fisiólogos habían establecido las bases de la bioquímica. En 1906 aparecieron dos revistas que trataban el tema, la Biochemische Zeitschrift y la Biochemical Journal. La revista Journal of Biological Chemistry había comenzado a publicarse sólo un año antes. En 1906, Arthur Harden y W. J. Young lograron separar "zumo de levadura en residuo y líquido filtrado, cada uno de los cuales era incapaz por si solo de producir la fermentación alcohólica de la glucosa, sin embargo cuando se los unía, la mezcla producía una fermentación tan activa como el zumo original". Este hallazgo ocurrió sólo nueve años después que Edward Buchner preparara un zumo de levadura libre de células, capaz de fermentar. Esta línea de trabajo condujo eventualmente al descubrimiento de una multitud de enzimas, coenzimas e intermediarios del metabolismo celular. En 1906 Tswett publicó la primera descripción de cromatografía. Otro hecho importante (desde mi punto de vista) ocurrió en 1906. Fue mi nacimiento en París, Avenida Victor Hugo 81, a pocas cuadras del Arco de Triunfo. El crecimiento de la bioquímica fue rápido; en unas pocas décadas se descubrió la mayoría de las vitaminas, hormonas, enzimas y coenzimas, pero en el momento de escribir este ensayo la bioquímica está mostrando signos de desmembración. La biología molecular, la biología celular, la genética química etc. han nacido de ella y seguramente habrá otras. En cuanto a mí alcancé la edad de 77 años gracias a un hábil trabajo de reparación arterial llevado a cabo por Michael Debakey en Houston. He tomado prestado el título de este ensayo, de un libro encantador de W. H. Hudson que describe la vida silvestre del campo en las cercanías de Buenos Aires. Hudson describe el mismo escenario y los mismos animales -flamencos, armadillos, caranchos, vizcachas, etc.-que yo vi en mi infancia. Parece ser que ambos estábamos interesados en la vida animal y en entender la naturaleza, pero mientras yo me convencí que el conocimiento científico y la tecnología serían buenos para la humanidad, Hudson tenía algunas dudas y las expresó de la siguiente manera: ''Ah sí, todos nosotros estamos buscando la felicidad por el camino equivocado. Estuvo con nosotros una vez y fue nuestra, pero la despreciamos porque era sólo la común y antigua felicidad que la naturaleza da a todos sus hijos y nos alejamos de ella en busca de otra clase de felicidad, más grande, que algún soñador-Bacon u otro-nos aseguró que encontraríamos. Tentamos que conquistar solamente la naturaleza, pero ¡cuán cansados y tristes nos volvemos! La antigua felicidad de vivir y la alegría del corazón se han desvanecido''. Los comienzos con Houssay

Cuando tenía dos años, mis padres argentinos me trajeron a Buenos Aires, donde luego de haber realizado los estudios y aprobado los exámenes correspondientes para graduarme de médico en la Universidad de Buenos Aires (1932), trabajé en el hospital de la universidad (Hospital de Clínicas) durante aproximadamente dos años. Nunca estuve satisfecho con lo que hacía por los pacientes. Volviendo la mirada sobre aquellos tiempos, me doy cuenta cuán profundamente ha cambiado la medicina desde entonces. El tratamiento médico en esos días sólo era un poco mejor que aquel ejemplificado en el cuento francés en el cual el doctor ordenaba: "Hoy vamos a sangrar a todos los que se encuentran del lado izquierdo de la sala y vamos a dar un purgante a todos los que se encuentran del lado derecho''. Cuando practicaba la medicina, podíamos hacer muy poco por nuestros pacientes, a excepción de la cirugía, digital y otros pocos remedios activos. Los antibióticos, drogas psicoactivas y todos los agentes terapéuticos nuevos eran desconocidos. No era por lo tanto extraño que, en 1932, un joven médico como yo, tratara de unir esfuerzos con aquellos que querían adelantar el conocimiento médico. El laboratorio de investigaciones más activo en la ciudad era el Instituto de Fisiología de la Facultad de Medicina de Buenos Aires, dirigido por el doctor Bernardo A. Houssay, profesor de fisiología. En su trabajo sobre el rol de la glándula pituitaria en el metabolismo de los hidratos de carbono, hizo descubrimientos muy novedosos por los cuales le fue otorgado, junto a Carl y Gerty Cori, el Premio Nobel de Fisiología y Medicina en 1947. Houssay sugirió que hiciera mi tesis bajo su dirección y me propuso varios tópicos. Mi elección recayó sobre el rol de las suprarrenales en el metabolismo de los hidratos de carbono. La primera tarea era aprender a medir el azúcar en la sangre con el método de Hagedorn & Jensen. Fue mi primera experiencia en un laboratorio de investigaciones. Mi ignorancia en química era insondable, por esa razón decidí seguir algunos cursos en la Facultad de Ciencias. Houssay me ayudó mucho. No sólo hacía el trabajo mental sino que también llevaba a cabo la mayoría de las adrenalectomías en perros. Houssay realizaba diariamente sus rondas en el Instituto y a menudo dejaba mensajes en trozos de papel. Fue aparentemente a través de él que aprendí a ser económico. Aún ahora usualmente escribo manuscritos sobre hojas ya usadas de un lado. La gente joven es actualmente derrochadora y escandalizaría tanto a Houssay como a mí. La tesis fue distinguida con el Premio Anual de la Facultad a la mejor tesis, pero fue sin duda mérito de Houssay y no mío. Nuestra estrecha asociación duró hasta su muerte en 1970. Durante todos esos años nos veíamos diariamente y pude apreciar su ciclópea labor en favor de la ciencia argentina. Mi entusiasmo por la investigación aumentó gradualmente y, sin notar el cambio, comencé a pasar más horas en el laboratorio y menos en el hospital. Podía hacerlo porque no necesitaba ganarme la vida con la medicina. Mis abuelos vinieron a la Argentina, algunos de Francia, otros de España, y compraron tierras cuando eran baratas pero aún inseguras, debido a las incursiones de los indios. Mas tarde estas tierras produjeron los cereales granos y ganado que trajeron riqueza al país y a los pioneros que las trabajaron. Estas circunstancias me permitieron dedicarme a la investigación, cuando era muy difícil o

imposible encontrar una posición de tiempo completo para ella. Fue un gran privilegio estar asociado con Houssay. Él era extraordinariamente excepcional y trabajó muy duro durante su vida tratando de modernizar la enseñanza de la medicina y dirigiendo a numerosos estudiantes. Su interés por la investigación fue muy amplio, en especial por la endocrinología, pero también incursionó en muchos otros aspectos de la fisiología y la bioquímica. Realizó intensos esfuerzos para promocionar la ciencia. Fue durante muchos años presidente de la Asociación Argentina para el Progreso de la Ciencia y más tarde presidente del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). A veces sus esfuerzos tenían gran éxito, pero otras el gobierno estaba en su contra debido a la forma abierta de expresarse y a sus ideas liberales. Houssay surgió como por generación espontánea en un ambiente completamente árido desde el punto de vista de la ciencia. Gracias a su tenacidad, laboriosidad, memoria e inteligencia logró formarse a si mismo y también a muchos jóvenes. Bajo su dirección el Instituto de Fisiología llegó a ser un centro donde trabajaron la mayoría de aquellos que construyeron las bases de la investigación médica argentina. Se estudiaban allí las tres materias básicas -fisiología, bioquímica y física biológica- y se enseñaba a estudiantes de medicina, bioquímica y odontología. Mi iniciación en la bioquímica Después de haber terminado mi tesis, Houssay me aconsejó que trabajara un tiempo en el exterior. Habiendo consultado con Venancio Deulofeu, profesor de bioquímica, y el doctor Romano de Meio, decidí que un buen lugar sería el Laboratorio de Bioquímica de la Universidad de Cambridge, dirigido por Sir Frederick Gowland Hopkins, quien había recibido el Premio Nobel en 1929, junto con Eijkman por el "descubrimiento de las vitaminas, estimulantes del crecimiento". Cambridge se encontraba entonces en la cumbre de su gloria, con Rutherford, Dirac y otros gigantes científicos en el departamento de física. La bioquímica también era excelente con Hopkins, padre de la bioquímica inglesa, al frente del laboratorio de bioquímica. y David Keilin, descubridor de los citocromos, en el departamento de parasitología. Llegué a Cambridge sediento de saber y comencé a trabajar inmediatamente bajo la dirección de Malcolm Dixon en el efecto del cianuro y pirofosfato sobre la succínico dehidrogenasa. Después trabajé con Norman L. Edson en cetogénesis usando trozos de hígado. Edson había estado trabajando con Hans Krebs, a quien admiraba mucho. Cuando Edson regresó a su país natal, Nueva Zelandia, trabajé con David E. Green en la purificación y propiedades del Beta-hidroxibutirato dehidrogenasa. La atmósfera en el laboratorio bioquímico era muy estimulante debido a la cantidad de personas con talento, tales como Marjorie Stephenson, una de las pioneras en la bioquímica bacteriana; Norman Pirie, que cristalizó el virus del mosaico del tabaco; Robin Hill, bien conocido por su trabajo en fotosíntesis (el efecto Hill); Joseph Needham, que comenzó la embriología química y terminó como un orientalista; Dorothy Moyle Needham, una experta en química muscular, y muchos otros. Fue durante mi estadía en Cambridge cuando empecé seriamente con la investigación bioquímica.

Calidad de mis primeros compañeros de equipo. Después de mi año en Cambridge, regresé al Instituto de Fisiología en Buenos Aires donde me asocié con el doctor Juan M. Muñoz. Nunca disfruté trabajando solo por eso me agradó poder investigar con él. Tenía una personalidad original y era graduado en medicina y en química. No satisfecho con estos títulos, obtuvo también el de odontólogo. En realidad no hizo esto sólo para aumentar sus conocimientos, sino, lo que era más importante, para ser profesor de fisiología en la Facultad de Odontología. Muñoz había estado midiendo etanol y tenía un método confiable utilizando un hermoso y pequeño aparato de destilación. Por lo tanto decidimos trabajar en el metabolismo del etanol, lo que nos llevó a obtener interesantes resultados que fueron publicados en el Biochemical Journal. Luego de nuestra aventura alcohólica, empleamos el mismo aparato de destilación para la medida de los ácidos grasos volátiles, y en este campo también tuvimos un pequeño éxito. Mientras estábamos trabajando con Muñoz en la oxidación de los ácidos grasos, Juan Carlos Fasciolo estaba experimentando sobre el mecanismo de la hipertensión renal. Bajo la dirección de Houssay, Fasciolo continuó con los experimentos de Harry Golblatt, quien descubrió que la obstrucción de la arteria renal de los perros producia una hipertensión permanente. Esto había marcado un hito, ya que proporcionó un método experimental para producir alta presión arterial. La contribución de Fasciolo consistió en injertar uno de esos riñones a un perro normal y observar los cambios en la presión sanguínea. El resultado fue un aumento de la presión arterial, lo cual probó que el efecto se debía a alguna sustancia que el riñón con constricción arterial vertía en la sangre. En esta etapa entré yo. Con Fasciolo, Eduardo Braun Menéndez y Muñoz formamos un equipo que aclaró el problema exitosamente. El doctor Alberto Taquini también colaboró en muchos experimentos. Mientras trabajábamos arduamente en Buenos Aires, se realizaban experimentos similares en otros lugares. En los laboratorios de Eli Lilly en Indianápolis, por ejemplo, Irwin Page y sus colaboradores obtenían resultados parecidos. A pesar de que nuestro trabajo había sido ya publicado (1939), nos deprimimos considerablemente cuando supimos del trabajo del otro grupo, debido a que no podíamos reclamar un descubrimiento sino solo un co-descubrimiento. Mirando hacia atrás después de muchos años, veo esas desilusiones como bastante infantiles. Sin embargo, tales hechos afectan a menudo a investigadores mucho más experimentados de lo que nosotros éramos en ese tiempo. Durante muchos años ambos grupos trataron de imponer los nombres que habían propuesto. Nosotros empleábamos los términos hipertensina, hipertensinógeno e hipertensinasa, mientras que el grupo de Indianápolis hablaba de angiotonina y activador de renina. Finalmente Braun Menéndez y Page acordaron una solución salomónica y propusieron los nombres de angiotensina y angiotensinógeno. Estos son los nombres hoy comúnmente usados Mi incursión en la investigación de la hipertensión duró sólo un año aproximadamente, pero fue uno de los años más productivos en mi carrera. Dos factores

importantes del éxito fueron la atmósfera simpática y la calidad personal de mis compañeros de equipo. Poseían personalidades diferentes pero trabajaban juntos en forma exitosa. Braun Menéndez estaba lleno de energía, entusiasmo y habilidad empresaria; Muñoz tenía una personalidad original y muchas ideas únicas; Fasciolo siempre de buen humor, contaba bromas e historias graciosas, pero también realizaba su trabajo sería y eficientemente. Todos eran muy inteligentes y diligentes. Nos divertíamos mucho con nuestro trabajo. Después de experimentos exitosos, yo solía decir: "Ven, nada puede resistir la investigación sistemática''. Pero después de experimentos fracasados, me veía cansado y deprimido y Fasciolo se burlaba de mí diciendo: "Ves, nadie puede resistir la investigación sistemática". Sin embargo trabajamos duro; la velocidad de la investigación sólo estaba limitada por la disponibilidad de perros para medir las sustancias vasopresoras. También empleábamos sapos para medir las sustancias vasoconstrictoras, pero con muy poco éxito. Siempre daban resultados desorientadores. Días de confusión y preocupación; viaje a Estados Unidos Nuestro trabajo en el Instituto de Fisiología fue interrumpido en 1943 debido a hechos inesperados y desagradables. Houssay nunca se mezclaba en política, pero había firmado una carta, aparentemente inocente, que apareció en los periódicos con la firma de muchas de las personas más importantes del país. La carta pedía "normalización constitucional, democracia efectiva y solidaridad americana". El gobierno reaccionó en forma inesperada y desproporcionada y decretó el despido de todos los firmantes que ocuparan posiciones en instituciones estatales. Muchos de los mejores profesores perdieron sus puestos. Houssay quedó cesante. La mayoría de los miembros del Instituto de Fisiología renunciaron en protesta y se dispersaron. Siguieron días de confusión y preocupación. Finalmente se decidió continuar trabajando, no en la universidad sino en una institución privada -el Instituto de Biología y Medicina Experimental-la cual debía ser organizada de la nada. Como no me gustaba la perspectiva de pasar años sin poder investigar, pensé que sería un buen momento para trabajar en el exterior durante una temporada. Esta decisión coincidió con un evento importante y afortunado en mi vida, el comienzo de un matrimonio feliz. Mi esposa y yo decidimos viajar a los Estados Unidos. Los vuelos comerciales se hacían en aviones bimotores y sólo durante el día, por lo que, después de haber realizado varias escalas en el continente, llegamos finalmente a Nueva York. Como no tenía compromisos previos, debí buscar un lugar en el cual trabajar. Un centro altamente reconocido era el laboratorio de los Cori en St. Louis, quienes acababan de publicar un estudio profundo y cuidadoso sobre la cristalización y preparación de la fosforilasa. Luego de permanecer unos días en Nueva York, viajamos a St. Louis, donde Carl Cori me aceptó cordialmente en su laboratorio. Cori fue quien años después compartió el Premio Nobel con Houssay. Él arregló que colaborara con Ed Hunter en la formación del ácido cítrico. De este modo tuve el privilegio de trabajar 6 meses en un lugar repleto de tradiciones, donde todos los dias me encontraba con Carl y Gerty Cori, Sidney Colowick, Arda Green y otros científicos relevantes. Para ampliar mi perspectiva, pasé 8 meses

en Nueva York, donde me apresté a investigar nuevamente con David E. Green. Él tenía dos habitaciones en el College of Physicians and Surgeons de la Universidad de Columbia, y un pequeño grupo de colaboradores incluyendo a Sarah Ratner, Eugene Knox y Paul Stumpf. Una de las cosas importantes que aprendí de Green fue que si uno puede encontrar un lugar de trabajo, debería poder formar un grupo de investigación, obteniendo los salarios, equipo y los productos químicos necesarios. En realidad, eso fue justamente lo que hice cuando regresé a la Argentina, donde formé un pequeño grupo de investigación que creció lentamente y dio lugar a la Fundación Campomar. Mi actividad al frente de la Fundación Campomar Después de mi estadía en Estados Unidos regresé al Instituto de Fisiología, Houssay había sido restablecido en su puesto y trataba de armar nuevamente el Instituto. Durante algún tiempo trabajé por mi cuenta e intenté iniciar un pequeño equipo de investigación. En 1946 me enteré que Jaime Campomar, uno de los dueños de una importante industria textil, había consultado con Houssay sobre la posibilidad de financiar un instituto de investigación bioquímica. Sospecho que había pocos candidatos para ocupar el cargo de director del nuevo instituto y por eso Houssay propuso mi nombre, aunque creo que no estaba muy convencido de que yo pudiera tener éxito en la empresa. Nos instalamos en el sótano de la facultad de Medicina. La primera persona que vino a trabajar fue el doctor

Ranwel Caputto de la Universidad de Córdoba, que recién volvía del laboratorio de Bioquímica de Cambridge. Había trabajado allí, igual que yo, con Dixon, y tuvo éxito cristalizando una enzima: la gliceraldehido dehidrogenasa. Actualmente es profesor en el Instituto de Ouímica de la Universidad de Córdoba. El segundo en unirse al grupo fue el microbiólogo Raúl Trucco. La idea era continuar con él los estudios sobre la oxidación de los ácidos grasos, pero con enzimas bacterianas. Actualmente Trucco es director de un instituto de microbiología de peces en Mar del Plata. Mientras las cosas se organizaban continuamos trabajando en el sótano de la Facultad de Medicina, pero esto sólo duró hasta que Houssay fue nuevamente removido de su cargo de profesor y director del Instituto de Fisiología, esta vez con el pretexto de que tenía más edad de la aceptable. Este nuevo abuso produjo una gran conmoción en la

facultad y la mayoría de nosotros decidimos irnos. Si las instalaciones y el equipo eran pobres en la facultad, las del laboratorio al cual nos mudamos eran dasastrosas. Este laboratorio era el Instituto de Biología y Medicina Experimental, que funcionaba en la calle Costa Rica como institución privada, creada cuando Houssay fue removido de su cargo por primera vez. Allí teníamos un cuarto, una heladera y unas pocas pipetas. Las facilidades de trabajo eran realmente malas pero éramos jóvenes, entusiastas y teníamos esperanza en el futuro. Poco tiempo después alquilamos una pequeña casa vecina, con cuatro habitaciones, en la calle Julián Alvarez, y la adaptamos para laboratorio. Otros se unieron allí al grupo: Carlos Cardini, durante varios años profesor en la Universidad de Tucumán; Naum Mittelman, experto en proteínas, y Alejandro C. Paladini, el más joven de todos y el primer becario de la Fundación Campomar. La contribución anual de Campomar de 100.000 pesos era equivalente a 25.000 dólares, una donación muy generosa. Con ella instalamos el laboratorio, adquirimos equipo y pagamos algunos sueldos.

El doctor Enrico Cabib, un brillante joven, se unió luago a nuestro equipo en reemplazo de Paladini que se había ido a trabajar con Lyman Craig a la

Fundación Rockefeller de Nueva York. Tenía buen sentido del humor y era un arduo trabajador. La atmósfera en el laboratorio era muy agradable, excepto por minúsculos episodios que ocurren en todos los grupos humanos. Todo nuestro tiempo lo dedicábamos a la investigación; no había conferencias, ni juntas, ni fuerzas que nos apartaran del laboratorio; no éramos miembros de ninguna comisión, nadie nos consultaba ni conocía. En pocos años logramos el aislamiento e identificación de glucosa-1-ó-difosfato y del uridina difosfatoglucosa. Luego aislamos el uridina-difosfatoacetilglucosamina y el guanosina-difosfato-manosa. Estos hallazgos tuvieron cierta repercusión en su época y sirvieron para aclarar el mecanismo de la biosíntesis de polisacáridos, especialmente del glucógeno y del almidón. (N. de la R.: el conjunto de estas investigaciones le valió al autor el Premio Nobel de Química 1970). En 1957, la muerte de Campomar dejó al Instituto sin recursos. Antes de dispersarnos, jugamos nuestra última carta y pedimos un subsidio al Instituto Nacional de la Salud de los Estados Unidos. Teníamos pocas esperanzas pero, para nuestro asombro, la subvención fue aprobada y continuamos la labor. No faltó quien nos criticara por aceptar un subsidio extranjero. Creíamos importante seguir con la investigación en el país y en esos tiempos el gobierno no se interesaba en lo más mínimo. Ni siquiera llegamos a discutir la posibilidad de conseguir un subsidio nacional. Por otra parte, no se trataba de recibir dinero de un gobierno extranjero por razones políticas sino por razones estrictamente científicas, y la decisión correspondía a una comisión de investigadores, lo que suele llamarse el "juicio de los pares". Con el mencionado subsidio pudimos seguir

investigando durante varios años, obteniendo resultados interesantes en la síntesis del glucógeno y almidón. Recién en 1958 el gobierno nos ofreció una casa grande, en la calle Obligado en Belgrano, que había sido un colegio de señoritas, donde aún estamos trabajando. Como se unieron al laboratorio nuevos investigadores, se perdió el espíritu romántico que solía tener. Comienza la ayuda local. No tuvimos ayuda local hasta la creación del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), durante el gobierno de Aramburu. Intervinieron en los trámites iniciales y en la redacción del estatuto Braun Menéndez, Deulofeu, Houssay y Abel Sánchez Diaz, presidente de la Academia de Ciencias Exactas. El primer directorio incluía a algunos de los mejores investigadores del país y también me incluía a mí. Cuando el presidente Aramburu nos puso en posesión del cargo, dijo que creía que todos los gobiernos apoyarían al Consejo. Esto resultó cierto con algunas limitaciones. En la primera reunión tuvimos que elegir presidente. Deulofeu propuso a Houssay que tenía larga experiencia. El doctor González Bonorino propuso a Rolando García. La mayoría votó a Houssay que fue 12 años presidente del Consejo. Durante este periodo se realizó un obra muy importante que hubiera sido aún más trascendente si la hubiera acompañado un correspondiente desarrollo agrícola-industrial. Gracias a la obra del Consejo se formaron muchos nuevos investigadores, los laboratorios pudieron funcionar adecuadamente y se crearon centros en el interior. A la par que crecía el Consejo las universidades tenían un acentuado progreso. En la Universidad de Buenos Aires, mientras era rector Risieri Frondizi, se crearon numerosos cargos de profesores con dedicación exclusiva y los recursos fueron mayores que en otras épocas. Lo cierto es que fue un buen momento para la investigación en la Argentina. Desde entonces las cosas ya no anduvieron tan bien; el Consejo estuvo muchos a-os intervenido y la universidad también. Gracias, en gran parte, a la obra del Consejo y al empuje de muchos jóvenes, la investigación bioquímica ha tenido considerable progreso en el país; sin embargo es pequeño si se lo compara con el ocurrido en los países más avanzados. Por qué me dediqué a la investigación Han pasado unos 50 años desde que me dediqué a la investigación. He presenciado el maravilloso desarrollo de la bioquímica y el haber contribuido a él, aunque en forma modesta, es para mi un motivo de placer. No sé cómo ocurrió que seguí una carrera científica. No era una tradición familiar ya que mis padres y hermanos estaban principalmente interesados en las actividades rurales. Mi padre se graduó como abogado pero no ejerció la profesión. En nuestra casa siempre hubo muchos libros de los más variados temas y tuve la oportunidad de adquirir información sobre los fenómenos naturales. Supongo que el factor más importante en la determinación de mi futuro fue el recibir un grupo de genes que dieron las habilidades negativas y positivas requeridas. Entre las habilidades negativas podría mencionar que mi oído musical era muy pobre y por lo tanto no podía

Podía ser un compositor ni un músico. En la mayoría de los deportes era mediocre, por lo tanto esa actividad no me atraía demasiado. Mi falta de habilidad para la oratoria me cerró las puertas a la política y al derecho. Creo que no podía ser buen médico porque nunca estaba seguro del diagnóstico o del tratamiento. Estas condiciones negativas estaban acompañadas presumiblemente de otras no tan negativas: gran curiosidad por entender los fenómenos naturales, capacidad de trabajo normal o ligeramente subnormal, una inteligencia corriente y una excelente capacidad para trabajar en equipo. Lo más importante probablemente fue la oportunidad de pasar mis días en el laboratorio y efectuar muchos experimentos. La mayoría fracasaron, pero algunos tuvieron éxito, debido sólo a la buena suerte o al hecho de haber cometido el error adecuado. Casi han transcurrido 50 años desde que comencé a investigar. Fueron años de trabajo bastante duro pero con momentos agradables. La investigación posee muchos aspectos que la transforman en una aventura atractiva. Hay también aspectos humanos dignos de mencionar. Algunos de los períodos más placenteros de mi carrera fueron aquellos en los cuales trabajé con personas inteligentes y entusiastas, con buen sentido del humor. La discusión de los problemas de investigación con ellas, fue siempre una experiencia muy estimulante. La parte menos agradable de la investigación, el trabajo de rutina que acompaña a la mayoría de los experimentos, está compensada por los aspectos interesantes, que incluyen conocer y a veces ganar la amistad de personas intelectualmente superiores, provenientes de diferentes partes del mundo. El balance es claramente positivo. Perspectivas futuras La investigación en bioquímica ha sido para mi una experiencia fascinante. Tuve la suerte de trabajar en la época en que esta especialidad científica tuvo un desarrollo espectacular. Poco a poco se fue conociendo cada vez mejor la composición química de los seres vivos. Luego se fue averiguando como se van transformando las substancias químicas que forman las células. Se pudo conocer el mecanismo químico de formación de las proteínas, de las grasas y de los hidratos de carbono. Los trabajos de nuestro laboratorio ayudaron a aclarar el mecanismo de biosíntesis de los oligo y polisacáridos. Esto fue gracias al descubrimiento de los nucleótidos-azúcares que actúan como dadores de las unidades de monosacárido. Ahora los progresos superaron todo lo que podíamos imaginar en los momentos de mayor optimismo. Con el nombre de bioquímica o con el de bioingeniería o tal vez con otro nombre, se seguirá investigando para resolver algunos de los grandes problemas que enfrente la humanidad.

La investigación científica en la Argentina ha progresado considerablemente pero no tanto como creíamos y deseábamos. Siempre recuerdo lo expresado por Houssay en el Instituto Popular de Conferencias de La Prensa: ''Señores, debemos tener fe en el porvenir de nuestro país en un futuro más o menos próximo. Si nos inspiramos en buenos ejemplos, con una labor intensa y bien orientada, en dos o tres décadas podremos tener una posición de primera fila entre los países más adelantados. Toda la sociedad estará influenciada, ennoblecida y favorecida por esta situación. Nuestra nación será entonces grande por obra de sus pensadores y sabios. Nuestros hombres serán dignos de su patria y útiles a la humanidad". El 2 de diciembre de 1987 se produce el fallecimiento de Leloir. Con su muerte, el Instituto perdió a su miembro más importante, pero, a pesar de ello, el trabajo continuó, alentado por el excepcional ejemplo que dejó quien lo dirigiera durante 40 años.

Programa DAAD-CRUCH de intercambio de científicos. En noviembre del 2003, el DAAD y el Consejo de Rectores de las Universidades Chilenas (CRUCH) firmaron un acuerdo sobre un programa de intercambio de científicos, destinado a promover e intensificar las cooperaciones entre las universidades chilenas miembros del CRUCH y universidades e instituciones científicas y/o tecnológicas de Alemania. El texto del convenio (en formato pdf) está disponible en www.cruch.cl en la parte de "Convenios Internacionales" y amplía las posibilidades de cooperación entre universidades chilenas y alemanas. Concurso de becas 2004 Se encuentra abierto el concurso de becas 2004 del Servicio Alemán de Intercambio Académico (DAAD) para el año académico alemán del 2005/2006, destinado a realizar doctorados en todas las áreas científicas en Alemania. Artistas visuales y músicos pueden postular a una profundización, médicos a una sub-especialización. Fecha tope de postulación: 6 de agosto del 2004. Mayores informaciones y formularios disponibles en www.daad.cl y en la oficina del DAAD en Santiago, los días martes y jueves de 15 a 18 hrs., Esmeralda 650, Santiago (cerca del Metro Bellas Artes). Adicionalmente, los interesados en regiones pueden acercarse a los siguientes colegas: Andrea Cornelissen, en la Universidad de Talca ([email protected]); Sophie v. Werder, en la Universidad de Concepción ([email protected]); Dr. Matthias Guenther, en la Universidad Austral ([email protected]).

Enfermedad de Alzheimer PRIMERA PARTE. La enfermedad de Alzheimer (EA) representa hoy día la causa de demencia más común de la población del adulto mayor, cuya incidencia se duplica cada 5 años, entre los 65 y los 85 años de edad en todas las poblaciones humanas examinadas y es, con propiedad, referida como una enfermedad relacionada con la vejez pero no una enfermedad dependiente de la edad. Para explicar esta relación con la edad, se han propuesto varias hipótesis que van desde cambios metabólicos sistémicos, dependencia de neurotransmisores y estrés oxidativo neuronal causado por especies reactivos de oxígeno, hasta el momento sin embargo, ninguna de ellas ha probado ser una explicación concluyente. Los marcadores de la enfermedad, incluyen los cambios neurofibrilares, la deposición de las placas neuríticas, la pérdida neuronal, la disminución dendrítica y la pérdida de sinapsis, las que combinadas llevan a una pérdida de la comunicación entre las áreas corticales. Teniendo en cuenta los hallazgos neuropatológicos, se han propuesto dos hipótesis que podrían explicar la enfermedad: La hipótesis de la cascada del amiloide y la de la degeneración del citoesqueleto neuronal. …Un poco de historia. La Enfermedad de Alzheimer fue descrita en 1907 por Alois Alzheimer. Hasta ese momento las demencias conocidas eran la demencia senil, atribuida a la edad y la parálisis general progresiva producida por la infección por Treponema pallidum. Durante su práctica clínica, Alzheimer atendió a una paciente de 51 años, Auguste D, Tras el fallecimiento de esta paciente, el director del centro envió el cerebro de la paciente a Alzheimer. En este cerebro, Alzheimer encuentra las "placas seniles" (previamente descritas por Fischer) y la degeneración neurofibrilar, describiendo el caso como "demencia presenil” una enfermedad diferente a las demencias anteriormente descritas. Fue Kraeppelin, maestro de Alzheimer, quien le dio el nombre de enfermedad de Alzheimer. Michael Kidd fue el primer investigador en el mundo que aplicó el microscopio electrónico al estudio de los ovillos neurofibrilares y a las placas seniles o neuríticas, lesiones microscópicas prototípicas del Alzheimer en muestras de biopsias de enfermos. Desarrolló una técnica propia para hacer cortes muy finos del tejido cerebral aplicando una corriente eléctrica que pasó a llamarse el vibratomo. En enero de 1963 fue el primero en publicar en Nature que los ovillos neurofibrilares estaban formados por neurofilamentos, exactamente por neurofilamentos helicoidalmente emparejados según sus hallazgos con microscopio electrónico. Un año más tarde en Brain describió la ultraestructura de las placas. Robert Terri estudiando con esta técnica biopsias y autopsias de enfermos de Alzheimer pudo comprobar en 1963, casi al mismo tiempo que Kidd, que los ovillos neurofibrilares estaban formados por microtúbulos emparejados en doble hélice y lo publicó ese año en el Journal of Neuropathology and Experimental Neurology. Un año más tarde descubrió y

publicó (American Journal of Pathology) que el núcleo de las placas neuríticas estaba formado por amiloide. Treinta años después, la biología molecular dio a conocer que los ovillos neurofibrilares estaban constituidos por proteína tau hiperfosforilada y que el núcleo de las placas neuríticas estaba formado por un péptido ß–amiloide de 40-42 aminoácidos. La auténtica investigación aplicada del Alzheimer, la dirigida a encontrar tratamientos adecuados, comenzó en 1976 y fue obra de David Bowen, el matrimonio Elaine y Robert Perry y Peter Davies que hicieron sus descubrimientos de forma casi simultánea en sus respectivos laboratorios David Drachman, estaba muy intrigado, por ejemplo, en descubrir por qué un sujeto estando borracho, si oculta su dinero en un determinado lugar, no es capaz de encontrarlo cuando se despeja pero, si se vuelve a emborrachar, lo encuentra con facilidad. Drachman comenzó a estudiar en personas jóvenes normales los efectos de la escopolamina, una sustancia que anula la acción del neurotrasmisor acetilcolina que es esencial para formar memorias, evocar recuerdos y realizar aprendizajes. Un sujeto bajo los efectos de la escopolamina presenta un trastorno de memoria muy semejante al que tienen los viejos y sobre todo los viejos dementes. Por ello, Drachman formuló la hipótesis de que en el Alzheimer podía existir una deficiencia o carencia de acetilcolina, hipótesis que se conoce con el nombre de “colinérgica” (colinérgica viene de acetilcolina). Tal hipótesis fue confirmada por completo dos años más tarde. En el Departamento de Neuroquímica del Instituto londinense de Neurología de Queen Square, a mediados de la década de 1970, se estudiaban intensamente los cambios enzimáticos que se producían en el cerebro por causa del Alzheimer. Bowen descubrió que en esta enfermedad falta un enzima, la colinacetilesterasa, necesaria para sintetizar la acetilcolina. Publicó sus hallazgos en 1976. Así que desde entonces quedó claro que la diana terapéutica para el Alzheimer era tratar de corregir el déficit de ese neurotransmisor. En 1979 se conoció con detalle todo el mapa del sistema colinérgico. En 1982 se publico en Science que la hipótesis colinérgica explicaba el declinar de la memoria en las personas mayores. Glenner y Wong, agregaron a las preparaciones microscópicas Rojo Congo, lo que condujo rápidamente a localizar el gen que codifica la expresión de amiloide beta y a caracterizar a la proteína precursora del mismo llamada abreviadamente APP. La APP es una molécula muy grande de 771 aminoácidos en su forma más larga. El amiloide beta que se deposita en el cerebro Alzheimer solo contiene entre 39 y 45 aminoácidos.

Por otra parte, en 1986 se descubrió cuál es la proteína que forma los filamentos helicoidales emparejados de los ovillos neurofibrilares. Se le llamó tau a la proteína encontrada. Tau facilita el transporte de proteínas desde el cuerpo neuronal hasta la sinapsis a través de los axones. En el Alzheimer el sistema microtubular axonal se desestabiliza, se carga de fósforo y se rompen las sinapsis. El paso siguiente en la investigación del Alzheimer fue el de buscar genes que tengan relación con esta enfermedad y descubrir la función de las proteínas que estos genes codifican para preparar el asalto definitivo y vencer el terror que conlleva el miedo a padecerla. Con el aumento en el conocimiento de la Enfermedad de Alzheimer en la última década se ha visto que la Enfermedad de Alzheimer es un continuo, no existiendo ninguna diferencia relevante que obligue a mantener la diferencia entre presenil o senil, quedando esta diferencia más como un recuerdo histórico, que como una diferencia biológica o clínica Importancia socio-sanitaria. Debido al envejecimiento progresivo de la población de los países desarrollados, y por el incremento progresivo de este proceso con la edad, la Enfermedad de Alzheimer constituye uno de los principales problemas de Salud Pública, por lo que se prevee un incremento muy importante de la prevalencia de este proceso en los próximos años. Los principales indicadores socioeconómicos de esta enfermedad en los Estados Unidos, muestran la importancia sociosanitaria de ésta: • 4 millones de pacientes. • 14 millones de afectados previstos para el año 2050. La Enfermedad de Alzheimer es como puede preveerse, por tanto, objeto de una enorme investigación. Los conocimientos que se tienen de esta enfermedad pueden considerarse como un rio largo y caudaloso. Largo por cuanto está siendo objeto de estudio desde hace casi un siglo. Caudaloso por cuanto a medida que aumenta en su longitud, está aumentado en el caudal de conocimientos, por la afluencia de gran número de técnicas al conocimiento de esta enfermedad Etiopatogenia. Por el momento no se conoce la causa de la Enfermedad de Alzheimer, por lo que la aproximación a la etiopatogenia de esta enfermedad proviene de los hallazgos de los estudios epidemiológicos y de los estudios de casos y controles. A partir de estudios epidemiológicos, los factores de riesgo asociados de forma positiva o negativa con la Enfermedad de Alzheimer son:

Edad y género La edad es un factor de riesgo para desarrollar Enfermedad de Alzheimer, pero lo es también para desarrollar otras demencias degenerativas, la demencia multiinfarto o procesos neurodegenerativos sin demencia como la enfermedad de Parkinson.

El envejecimiento personal, el cumplir muchos años no es una enfermedad pero la condición de ser mayor de 65-70 años es un terreno abonado para que surjan las enfermedades neurodegenerativas. Se habla mucho de que la formación aumentadada de superóxido dismutasa puede estar en la base de esta relación debido a mutaciones en los aproximadamente 1000 genes implicados en la biogénesis mitocondrial pero al día de hoy no hay una explicación biogerontológica definitiva de esta conexión. A la luz de los estudios epidemiológicos, la edad es el factor de riesgo más importante para sufrir Alzheimer. Los estudios de EURODEM, basados en 528 casos incidentes demostraron fehacientemente que las mujeres tienen un riesgo relativo mayor para sufrir demencia y en particular Alzheimer. El hecho de que las mujeres vivan el último tercio de su existencia en situación de deficiencia estrogénica podría explicar la mayor prevalencia e incidencia en la mismas. Ahora que el metabolismo del colesterol está cobrando importancia en la patogenia del Alzheimer porque un factor de transcripción del mismo está ligado a proteasas, las diferencias hombre/mujer en cuanto a frecuencia de esta enfermedad podrían también radicar en el distinto metabolismo lipídico que hay entre uno y otro género.

Antecedentes genéticos y familiares. La historia familiar así entendida es un factor de riesgo importante de Alzheimer. En el 50-60 % del 99% de casos, que constituyen la enfermedad de inicio tardío (después de los 65 años), existe un familiar de primer grado que también padece o padeció la misma enfermedad. Son muy pocos los casos en que se detectan estas mutuaciones responsables directas de Alzheimer familiar de presentación autosómica dominante de inicio precoz (antes de los 65 años). Todo paciente con enfermedad de Alzheimer se ha de encuadrar en uno de los cuatro grupos indicados más abajo. Si tiene antecedentes de la misma enfermedad en la familia (uno o más casos de parientes de primer grado correctamente diagnosticado), se habla en sentido laxo de Alzheimer familiar. Si esta condición no se cumple porque no hay antecedentes familiares, se dice que se trata de Alzheimer esporádico. A su vez, dentro de las formas familiares o esporádicas, cabe que los síntomas comiencen antes de los 65 años, lo que se denomina inicio precoz, o que, como ocurre en la inmensa mayoría de los casos, los síntomas primeros aparezcan después de los 65 años y entonces se habla de Alzheimer tardío. 1. Alzheimer esporádico de inicio tardío. 2. Alzheimer familiar de inicio tardío: 3.Alzheimer esporádico de inicio precoz. 4. Alzheimer familiar de inicio precoz. El Alzheimer de inicio tardío es la forma prototípica de la afección. Supone el 99% de todos los casos. La forma tardía familiar se comprueba en un 40% de casos pero no ocurre con carácter autosómico dominante. El análisis genético de esta forma es sugestivo de que hay diversos genes de susceptibilidad para padecerla pero no mutaciones determinantes. El más robusto de todos ellos es el alelo E4 del gen APOE que codifica la apolipoproteína E (ApoE). La ApoE es una proteína plasmática que se sintetiza en el hígado, astrocitos, y oligodendrocitos. Transporta el colesterol

y los lípidos intercelularmente, juega un papel en el mantenimiento neuronal y tiene una importante función en el desarrollo del proceso.

Cociente intelectual y capacidad lingüística.

Produjo mucho impacto el trabajo de Snowdon de correlacionar la capacidad lingüística en la juventud con la aparición de Alzheimer en la vejez. Snowdon consiguió que 678 monjas de la orden de Nôtre Dame de Kentucky aceptaran y acordaran someterse a revisiones neurológicas longitudinales y donaran sus cerebros para examen neuropátologico tras su muerte. Todas ellas habían escrito una carta autobiográfica de postulacion cuando tenían alrededor de 20 años. La menor densidad de ideas en tal texto se correlacionaba positivamente con la presencia clínica de enfermedad de Alzheimer y con la carga de ovillos neuro-fibrilares en sus cerebros. Se encontró así una asociación recíproca entre nivel cognitivo-educativo bajo en la juventud y padecimiento de esta enfermedad. Más elocuente resultó el estudio de la relación entre la capacidad mental de los niños escoceses de Aberdeen nacidos en 1921. Al iniciar la enseñanza secundaria era obligatorio para ellos realizar el Moray House Test. Se estudiaron las correlaciones entre las puntuaciones en esa prueba y la subsiguiente aparición de demencia en la vejez. La demencia de inicio antes de los 65 años, la que teóricamente es "más genética", no guardaba relación con las puntuaciones del test de capacidad mental realizado a los 11 años. Sin embargo, las puntuaciones bajas correspondían a las personas que padecieron demencia de inicio tardío, después de los 65 años, la forma "menos genética". Estos datos apoyan sólidamente que la capacidad mental en la infancia modifica la propensión a padecer demencia en la edad senil, aun cuando se desconozcan los mecanismos biológicos subyacentes

Hormonas sexuales y colesterol. Las hormonas ováricas foliculares tienen efectos pleiotrópicas en el cerebro. Participan en todos los procesos que mantienen la fisiología neuronal: aporte y consumo de oxígeno y glucosa, síntesis y degradación de proteínas y comunicación interneuronal. Los datos a favor de la relación hormonas sexuales/Alzheimer se siguen acumulando. Recientemente se ha encontrado que, las concentraciones séricas de amiloide beta son paralelas a las de 17-beta-estradiol y testosterona como si estas hormonas controlaran los niveles circulantes de tal péptido cuya elevación indica inicio de la enfermedad.

Ingesta de antiinflamatorios o antioxidantes.

Características y conceptos importantes. En el Alzheimer hay interrelación entre lo genético, lo neurobiológico, lo conductual, lo ambiental y la respuesta personalizada a los medicamentos. Aunque no se han despejado todas las incógnitas, está demostrado que esta enfermedad tiene una larga fase presintomática, que puede durar alrededor de diez años, durante la cual se está produciendo la muerte de neuronas sin que el sujeto presente defecto intelectual

alguno. Los síntomas son de tres tipos:

• Déficit de funciones intelectuales, mentales o cognitivas: trastornos de memoria, lenguaje y razonamiento, incapacidad para realizar actos conforme a una intención y para reconocer lo que se ve, oye o palpa e imposibilidad para tomar decisiones y ejecutar una acción.

• Trastornos psiquiátricos: cambio profundo de personalidad, apatía, desinterés, ansiedad, depresión, beligerancia, agitación, agresividad, insomnio, ideas delirantes, alucinaciones y delirios.

• Dificultades para realizar las actividades cotidianas perdiéndose primero la capacidad de uso de instrumentos (teléfono, electrodomésticos, manejo de dinero, ordenador, tareas domésticas y culinarias y, en general, todo tipo de actividad profesional) y más tarde lo que es más básico en la vida individual (aseo, vestido y la propia alimentación).

La causa de la enfermedad de Alzheimer es un mal funcionamiento de determinadas proteínas neuronales. Casi todo lo que para bien o para mal ocurre dentro de esta célula exige la intervención de miles de proteínas, cada una de las cuales está codificada por un gen. La proteína que parece ser responsable del Alzheimer se llama amiloide beta (abreviadamente, Aß). A la proteína precursora de amiloide se le llama de manera reducida APP. La proteína APP tiene el papel fisiológico de proteger a las neuronas y mantener su desarrollo. Si una neurona se daña por la causa que sea, la APP ayuda a su reparación y restauración. Sobre la APP actúan otras proteínas llamadas enzimas o catalizadores de reacciones químicas que cortan la proteína precursora en fragmentos más pequeños. El enzima que normalmente corta la APP se llama α-secretasa y entonces no se forma Aß. Pero en el Alzheimer no actúa la α-secretasa como es debido sino que cede su papel a otros dos enzimas anormales conocidos como ß y γ secretasas que entonces sí dan

lugar Aß, que aparece fuera de la neurona, en el parénquima o espacio intersticial de la corteza cerebral primero en moléculas sueltas, luego formando oligómeros, más tarde fibrillas que se unen unas a otras formando las placas neuríticas. Pero hay algo más. A lo largo de nuestra vida, aunque

de manera mucho más notable entre los 40 y los 80 años, todas las personas formamos Aß constantemente en nuestros cerebros, pero esta proteína se degrada rápidamente y pasa a la sangre. Es decir, no se acumula en el cerebro porque es degradado y transportado a los líquidos biológicos (líquido intersticial cerebral, líquido cefalorraquídeo y sangre). Si se produce en mucha cantidad (lo que ocurre en el Alzheimer familiar autosómico dominante debido a una mutación genética), es fácil que se deposite, acumule y agregue dañando así a las neuronas. En la forma de inicio tardío, la que tiene lugar después de los 65 años que representa el 98-99% de los casos, no se produce excesivo Aß pero lo que fallan son los mecanismos de su degradación y transporte con lo cual las consecuencias son las mismas: depósito, acúmulo, agregación y daño neuronal. En los últimos diez años hubo una reñida discusión sobre qué era más importante y primero en el Alzheimer: si las placas precedían a los ovillos o al revés y sobre si estos tipos cardinales de lesiones guardaban entre sí alguna relación. Al día de hoy todo el mundo cree que ambas estructuras anormales que se ven en el cerebro de las personas con Alzheimer son igualmente importantes. Pero en el tiempo la impresión general es que las cosas suceden así La repercusión de los oligómeros de Aß sobre las sinapsis les hace enfermar a éstas apareciendo el déficit de acetilcolina característico de la enfermedad y el exceso de glutamato. Los depósitos de Aß activan unas proteínas llamadas caspasas que son responsables de muerte celular programada o apoptosis. Tales caspasas, se cree ahora, dañan los microtúbulos del esqueleto neuronal, alteran la proteína tau que los mantiene estables, provocan una hiperfosforilación de esta y finalmente la muerte de la célula. El depósito de Aß desencadena una importante respuesta inflamatoria, activa el receptor de productos finales de glicación y conduce a una cascada progresiva de sucesos citotóxicos con formación de radicales libres, estrés oxidativo, entrada masiva de calcio en la neurona y ruptura de la membrana mitocondrial. Así sobreviene la muerte neuronal responsable, en definitiva, de los síntomas que el Alzheimer va causando en el enfermo, mes a mes, año a año. Genética de la Enfermedad de Alzheimer. Al no existir diferencias entre la enfermedad de Alzheimer esporádica y las formas familiares, los descubrimientos genéticos de las formas familiares pueden aplicarse a las formas esporádicas, mucho más frecuentes. Esto ha hecho que se investigen las formas hereditarias y que mediante técnicas de análisis de ligamiento, se haya podido localizar y después aislar genes implicados en la enfermedad de Alzheimer. El primer gen responsable de esta enfermedad aislado fue el de la APP localizado en el cromosoma 21. Esta primera mutación causante de Alzheimer familiar precoz consistía en un simple cambio de posición de aminoácidos en la proteína APP: la isoleucina salía de su lugar y se sustituía por valina. Al descubrimiento de este gen se llegó por dos vías: de un lado la sospecha

de un gen involucrado en la Alzheimer localizado en el cromosoma 21 dado la frecuente y precoz aparición de esta enfermedad en sujetos con trisomia del cromosoma 21 y, por otra parte, al encontrarse que el Ab, la proteína contenida en las placas seniles, proviene de una proteína precursora, la APP (amyloid precursor protein). Perikak-Vance, encontro que algunos casos de enfermos con Alzheimer tardío guardaban relación con algún gen situado sobre el cromosoma 19. En 1992 saltó la sorpresa de que este gen era el que codificaba la apolipoproteína E, que es esencial para transportar el colesterol por la sangre y los tejidos. Este gen APOE tiene tres alelos posibles llamados con la letra griega epsilon (ε) 2, 3 y 4. La predisposición genética para padecer Alzheimer tardío asienta precisamente en el alelo ε4. Este factor genético de riesgo solo ocurre aproximadamente en un 50% de enfermos con Alzheimer tardío. En 1995 se descubrió la mutación del gen que codifica la proteína presenilina 1, situado en el cromosoma 14. Mediante técnicas de análisis de ligamiento, se vió que otras familias presentaban Alzheimer por un gen localizado en el cromosoma 14 en unos casos y en el cromosoma 1 en otros, existiendo otras familias en las que no existía ligamiento a estos loci, que además presentaban la particularidad de que en ellas la enfermedad aparecía de forma más tardía. En estas familias se ha visto que el gen responsable es el de la apolipoproteina E (APOE). Con el aislamiento de los genes responsables en estas familias, se ha visto que existen 2 formas hereditarias de Alzheimer. De una parte unas formas de inicio precoz (30-50 años) producidas por mutaciones en genes de los cromosomas 21,14 y 1 (APP, presenilina 1 y presenilina 2) y las formas de inicio tardío, asociadas al gen de la APOE. Todas estas formas cubren aproximadamente el 50 por ciento de los casos familiares, por lo que todavía quedan genes por conocer. Las mutaciones en la APP y presenilinas son determinísticas, esto es, siempre que el sujeto es portador de la mutación va a padecer la enfermedad al llegar a la edad de inicio de la misma. En cambio, los polimorfismos de la APOE se comportan como probabilísticos, lo que quiere decir que aumentan la probabilidad de padecer la enfermedad, pero hay sujetos portadores de un genotipo de riesgo (APOE e4) que viven más de 90 años sin haber desarrollado la enfermedad. La edad de aparición de la enfermedad va a ser diferente según la mutación presente. Como ya se ha señalado, las mutaciones en el gen de la APP y presenilinas generan Alzheimer antes de los 60 años (Alzheimer precoz). Mutaciones en el gen de la APP. Las mutaciones en el gen de la APP son raras, dentro de las formas autosomal dominantes. Están localizadas en los exones 16 y 17, que son los que codifican el segmento que genera el péptido Ab, generalmente en los extremos o en la parte central del péptido, donde actuan las secretasas o

enzimas que cortan la APP. La más frecuente es la mutación APP717. En alguna familia con esta mutación se han encontrado cuerpos de Lewy corticales, asociados a placas seniles, lo que pone en evidencia que ambos procesos están relacionados. En el caso de las mutaciones APPGlu697 y 698, la clínica es de hemorragias cerebrales corticales múltiples secundarias a depósito de material amiloide en los vasos de pequeño calibre de leptomeninges y corteza (angiopatía amiloide familiar), con hematomas cerebrales espontáneos, corticales. En el caso de la mutación 677, la clínica es de demencia senil tipo Alzheimer, asociada a hematomas cerebrales múltiples. Mutaciones en la presenilina 1 (Ps-1): La Ps-1 es una proteína con 8 ó 9 dominios transmembrana, codificada por un gen localizado en el cromosoma 14. Entre alguna de sus posibles funciones, se ha descrito que puede ser la g-secretasa, uno de los enzimas que metabolizan la APP. Otras posibles funciones serían la actividad como un canal de membrana y/o un papel durante el desarrollo embrionario similar a la de la proteína Notch-3. Se han descrito más de 50 mutaciones en esta proteína, que producen Alzheimer familiar autosomal dominante, de inicio entre los 30 y 50 años, siendo las mutaciones en la Ps-1, la causa más frecuente de Alzheimer hereditario. Mutaciones en la Presenilina 2 (Ps-2): La Ps-2 es una proteína transmembrana con una secuencia similar a la Ps-1, codificada por un gen localizado en el cromosoma 1. No se conoce la función de esta proteína. Se han descrito 5 mutaciones en este gen, que producen Enfermedad de Alzheimer familiar en edades entre los 30 y 65 años Apolipoproteina E: La apolipoproteina E es una lipoproteína transportadora de colesterol de los quilomicrones al hígado. Su secuencia de aminoácido presenta diversos polimorfismos (desde el punto de vista genético se habla de polimorfismo cuando una mutación se presenta en más del 1 por ciento de la población). Desde los estudios de Alan Rose en 1995, se conoce que el polimorfismo e4 es más frecuente en la enfermedad de Alzheimer en la población general (aparece en el 50 por ciento de los pacientes con Alzheimer). Esto se debe a que la presencia de este polimorfismo adelanta en aproximadamente 10 años la aparición de la enfermedad. La existencia de este polimorfismo de un modo homocigoto, esto es siendo los 2 alelos e4, aumenta aún más el riesgo de tener Alzheimer. La influencia de estos polimorfismos para padecer Enfermedad de Alzheimer parece seguir un patrón aditivo, siendo el riesgo mayor en sujetos e4/4, luego 4/3, 3/3,4/2,3/2 y 2/2 por este orden. Anatomía patológica de la Enfermedad de Alzheimer. El cerebro de los pacientes con Enfermedad de Alzheimer se atrofia, lo que se traduce en una pérdida de peso y una disminución de la superficie de las circunvoluciones con aumento de los surcos. El cerebro de estos pacientes pesa entre 1.000 a 1.100 gramos, pero esta disminución de peso es variable con un rango de 900 a 1.400, existiendo solapamiento con el rango de peso de los cerebros normales. Microscópicamente, las lesiones fundamentales son las

placas seniles y la degeneración neurofibrilar con la pérdida neuronal secundaria a estas alteraciones. Además, existen otras lesiones microscópicas de importancia secundaria como la degeneración granulovacuolar de las neuronas, los cuerpos de Hirano o el depósito de amiloide en la pared de los vasos de pequeño y mediano calibre de las leptomeninges y la corteza o angiopatía amiloide. Las placas seniles son acúmulos extracelulares de proteínas, constituidos por una proteína fundamental (Ab) y otras proteínas menos constantes o en menor concentración (apolipoproteína E, a2-macroglobulina, apolipoproteína J, heparan sulfato proteoglicanos). Según características tintoriales y morfológicas se distinguen dos tipos de placas: las placas difusas y placas neuríticas. Las placas difusas son deposito de material amiloide (proteína Ab de 42 residuos) no fibrilar, lo que hace que no se tiñan por rojo Congo o tioflavina T, visualizándose solo mediante algunas técnicas de plata, y sobre todo mediante tinciones inmunohistoquímicas con anticuerpo contra la proteína Ab de 42 residuos. Se asocian a envejecimiento normal y se considera que no son tóxicas sobre las células del sistema nervioso. Por el contrario, las placas neuríticas están constituidas por proteína Ab de 40 y 42 residuos, presentan una estructura fibrilar, por lo que se tiñen con tinciones para material amiloide, como el rojo Congo o la tioflavina T, con los que presentan birrefringencia con la luz polarizada, además de con tinciones de plata y con inmunohistoquímica con anticuerpos anti proteína Ab de 40 y 42 residuos. Las placas neuríticas pueden a su vez diferenciarse en placas primitivas y placas clásicas según su grado de evolución. Las placas primitivas están constituidas por un núcleo de material amiloide y una serie de neuritas (prolongaciones nerviosas) distróficas que las atraviesan. Las placas clásicas presentan una estructura similar a las placas primitivas pero asocian una corona de astrocitos y microglía reactiva que las rodea. El grado extremo de desarrollo lo constituyen las placas quemadas formadas solo por el núcleo o core de amiloide. La degeneración neurofibrilar u ovillos neurofibrilares está formada por agregados intracelulares de proteína tau anormalmente fosforilada. La relación entre el número de placas seniles y los ovillos neurofibrilares no es lineal existiendo variaciones con un gran número de placas seniles y escasos ovillos y lo contrario. Las alteraciones anatómicas de la enfermedad de Alzheimer no se localizan por igual en todo el cerebro ni aparecen al mismo tiempo en todas las zonas afectadas. Los ovillos neurofibrilares aparecen inicialmente en el cortex entorinal, afectándose luego el hipocampo y el núcleo basal de Meynert, y finalmente las áreas de asociación del neocortex. Por el contrario, las placas seniles son más precoces y frecuentes en el neocortex. Contra lo que puede esperarse para el diagnóstico anatomopatológico del Alzheimer no basta la existencia de las alteraciones descritas. Ello se debe a que con el envejecimiento es normal la presencia en un cierto grado de estas alteraciones (placas seniles y ovillos neurofibrilares) con lo que las lesiones en el Alzheimer no siguen un patrón de todo o nada, siendo la cuestión el conocer cuál es en cada caso el número de lesiones necesarias para justificar la presencia de una alteración cognitiva.

Introducción. Los microarrays de ADN o micromatrices son una de las tecnologías más recientes para el estudio de la expresión global de genes. Esta muestra, en un solo experimento los genes que están siendo activados y expresados en forma de ARNm, en un grupo celular determinado y bajo diferentes estímulos. Son múltiples las aplicaciones que se le han encontrado a esta metodología en el estudio celular permitiendo avanzar en campos tales como: el reconocimiento de los perfiles de respuesta celular ante estímulos determinados, la expresión de los factores reguladores de diferenciación y crecimiento celular, la determinación de los componentes y la cinética de activación de las diferentes vías de transducción, entre otros. En el campo clínico, los microarrays han facilitado la comprensión de los mecanismos moleculares de carcinogénesis, conocer nuevos marcadores tumorales, clasificar neoplasias de difícil diferenciación, identificar patrones de expresión diferencial de genes involucrados en la génesis de metástasis, así como determinar los genes involucrados en las respuestas inmunes en diferentes enfermedades o en la respuesta a diferentes microorganismos. En el futuro se espera que el conocimiento del genoma de cada individuo permita dilucidar la predisposición a sufrir determinadas enfermedades y de esta manera desarrollar terapias específicas para cada persona. Los microarrays son uno de los instrumentos que harán posible este anhelo médico. Hoy por hoy la genómica funcional está impulsando múltiples campos de la biología y la medicina, incorporando nuevas metodologías para el estudio del ADN y las proteínas, con herramientas computacionales para el análisis, archivo y manejo de la información. Ejemplo de una de estas metodologías son los denominadas microarrays de ADN, que permiten por ejemplo cuantificar la expresión genética del trascriptoma de una célula. Debido que los microarrays permiten obtener una visión global y cuantitativa de la expresión génica en el ARN mensajero (ARNm) producido por las células, esta tecnología ofrece grandes ventajas sobre métodos tradicionales que sólo permiten un análisis cualitativo o semicuantitativo de un número muy limitado de genes. Es creciente el número de estudios que están aplicando estas metodologías para llegar a un entendimiento de la estructura, función, diferenciación, interrelación y regulación de las diferentes células del sistema inmune; que además permiten una nueva aproximación a enfermedades de diversa índole y de difícil clasificación y acerca de las cuales desconocemos sus bases moleculares y genéticas. Los microarrays hacen parte de las nuevas metodologías aplicadas en la genómica funcional que están cambiando el modelo reduccionista científico hacia un enfoque más amplio y directo de la interrelación de los componentes que constituyen las células de diferentes organismos, hacia hipótesis dirigidas al entendimiento del funcionamiento global de un sistema celular. De esta forma, organizaciones tan complejas como el sistema inmune tienen ahora una nueva herramienta de análisis con múltiples aplicaciones de gran utilidad clínica. Conceptos generales. Los biochips representan una de las herramientas recientes con las que cuentan los investigadores para hacer frente a la resolución de los problemas biológicos basados en nuevos enfoques que se orientan a la obtención masiva de información. El desarrollo de estos enfoques integrados para el análisis ha venido de la mano de la capacidad de gestionar y almacenar grandes cantidades de información, por tanto no es de extrañar que la llegada de estos dispositivos haya coincidido con la madurez de la bioinformática en la cual se sustentan la realización de los experimentos en general y el análisis de los datos que de ellos se obtienen en particular. Dentro de las aplicaciones en biología podríamos diferenciar entre los Biochips como hardware y la bioinformática como software. Los Biochips, serían un hardware biológico que surge como una adaptación de los microprocesadores electrónicos en los que se sustituyen los circuitos impresos por muestras de material biológico. Son dispositivos

miniaturizados capaces de inmovilizar con una elevada densidad de integración material biológico de diferentes tipos como proteínas, ácidos nucleicos, etc…. Por el contrario, la Bioinformática aplica las tecnologías de la información a la resolución de problemas de orden biológico. La bioinformática trabaja en la investigación y desarrollo de herramientas útiles para llegar a comprender el flujo de la información biológica que se origina en los genes, estructuras moleculares, la función bioquímica, la conducta biológica y por último la influencia en las enfermedades y la salud. Debido a este problema terminológico a estos dispositivos también se les conoce con otros nombres como Micromatrices de material biológico, Microarrays, y según el tipo de material inmovilizado como DNA arrays o Chips Genéticos, Protein Chips o Tissue Chips y virochips. Un arrays es una colección ordenada de muestras de acido nucleico que proporciona un mediopara aparear la muestra con secuencias conocidas y desconocidas, facilitando la determinación de los niveles en la muetra y la identificación de los desconocidos. La tecnología microarrays tiene dos grandes aplicaciones

1. Identificación de secuencias (genes o mutaciones en los mismos) 2. Determinación del nivel de expresión (abundancia de los genes).

Antecedentes. El fundamento de los biochips se encuentra en el desarrollo y miniaturización de las técnicas de afinidad que se conocen y han venido empleando desde hace años como una herramienta común en biología molecular. En los años 70 cuando Edwin Southern, comenzó a emplear filtros de nitrocelulosa para que actuasen como soporte sólido para la adhesión de moléculas de ADN. El ADN así inmovilizado no interacciona con las otras moléculas inmovilizadas pero mantia su capacidad de hibridar con moléculas complementarias en disolución. La detección de estas hibridaciones se realizaba mediante la detección de un marcador radiactivo en un revelado por autorradiografía. A este tipo de técnica se la bautizó con el nombre de Southern blot, que después se extendió al campo de la inmovilización de proteínas y ARN. Con la puesta a punto de la técnica de Southern, el siguiente paso en el camino hacia la aparición de los biochips consistió en la construcción de matrices de material biológico inmovilizado por este mecanismo empleando para ello superficies porosas como son las membranas de nitrocelulosa o nylon. Posteriormente se comenzó a trabajar con el empleo de superficies con unos tamaños de poro más reducidos y con soportes sólidos como pueden ser el vidrio y el silicio. Paralelamente con la llegada y desarrollo de las técnicas de miniaturización también se comenzó a disminuir el tamaño de los puntos de material depositado sobre la superficie, consiguiendo de esta manera una mayor densidad de integración en las matrices. La aplicación de las técnicas de miniaturización condujo hasta el desarrollo de las Micromatrices. Nomenclatura y clasificación. Dado el auge que han tenido recientemente estas tecnologías se ha producido una gran diversificación tecnológica que ha derivado en la necesidad de establecer una nomenclatura y clasificación para estos dispositivos. Los criterios de clasificación son muy variados, y abarcan conceptos desde la forma de fabricación, los materiales inmovilizados, etc….que se encuentran resumidos en la siguiente tabla:

EN FUNCION DE CARACTERISTICA NOMENCLATURA

Virus Oligonucleotidos

Virochips GeneChips

Material cDNAs, Virus cDNA Arrays Inmovilizado Proteinas Protein Chips Tejidos Tissue Chips Tamaño del punto Micromatriz Fabricación Macromatriz Generacion de la sonda "in situ" Depositados No poroso/Covalente Glass-Based Soporte/Tipo de unión Poroso/No covalente Gel-Based Electronico/Electrostatica Electronic-Based

Como se fabrican. Primero se hace la distinción entre micro y macromatrices. Estos términos hacen referencia al tamaño de las celdas o puntos de sonda ( spots) donde se deposita el material genético, en pocas palabras, el nivel de miniaturización en una misma especie. Los microarrays tienen spots de pocas micras de diámetro y contienen miles de ellos. Segundo, se diferencian dos formas de depositar el material genético en la superficie, por un lado sintetizando el material y luego colocándolo en la superficie, por otro la síntesis “in situ” y unión química sobre la superficie. Algunas tecnicas de producción mas empleadas son<.

1. Fotolitografía. 2. Robots piezoeléctricos.

Microarrays de DNA. Los microarrays son placas de cristal, plástico o nylon con un tamaño de pocos centímetros cuadrados de superficie, en las que se distribuyen ordenadamente de cientos a miles de secuencias de ADN. Al igual que las técnicas de Southern y de Northern, el principio de los microarrays es la hibridación (apareamiento complementario) entre ácidos nucleicos conocidos que son fijados químicamente a una superficie sólida (matriz), y fragmentos de ácidos nucleicos complementarios presentes en las muestras en estudio. Las micromatrices pueden contener ácidos nucleicos fundamentalmente de dos tipos: ADN complementario (ADNc) y oligonucleótidos sintéticos. Los microarrays de ADN complementario, se elaboran en una fase sólida mediante la aplicación automatizada de secuencias cortas correspondientes a los ADNc de un número variable de genes (teóricamente todos los genes humanos). Los ADN complementarios empleados en la construcción de estos microarrays se obtienen a partir de librerías de ADNc que contienen fragmentos representativos de genes en el transcriptoma, los cuales se conocen como "secuencias de expresión corta" (Expresed Séquense Tags - ETSs) y que son identificadas con un número de referencia o acceso de fácil identificación en una base de datos. Para lograr la precisión requerida en la ubicación de las secuencias en la matriz, se emplean técnicas de litofotografía y de semiductores haciendo posible que cada ADNc sea fijado en una posición conocida para su posterior identificación. Los microarrays de oligonucleótidos sintéticos se elaboran en una fase sólida similar y contienen fragmentos de oligonucleótidos representativos (generalmente entre 15 y 20 bases) de todos los genes de interés. Una variación de este tipo de matrices son las matrices de polimorfismos que contienen varios oligonucleótidos correspondientes a un sólo gen, con las variaciones en su secuencia que son representativas de polimorfimos de interés. Para determinar la expresión global de genes por medio de las micromatrices, se requiere la obtención de ARN mensajero (ARNm) de las células a estudiar (células con una característica especial o que han sido estimuladas) y de células control (células normales o que no han sido estimuladas). Seguidamente, este ARNm se convierte en ADN complementario (ADNc) por medio de una reacción de trascripción reversa en la que simultáneamente se agregan nucleótidos marcados con fluorocromos tales como la Cyanina-3 (Cy-3) y la Cyanina-5 (Cy-5); alternativamente el marcaje del ADNc se puede realizar con un isótopo radioactivo. En el proceso tradicional, para la muestra control se utiliza la Cy-3 y para la muestra problema se usa la Cy-5. La Cy-3 emite una fluorescencia verde, mientras que la Cy-5 emite una fluorescencia roja. Este marcaje diferencial permite no sólo localizar las señales fluorescentes en la micromatriz facilitando la identificación de los genes, sino que también permite la cuantificación de las señales correspondientes a cada uno de ellos como una medida directa del grado de expresión del ARNm correspondiente. Luego de adicionar el ADNc marcado a la matriz se debe esperar un tiempo prudencial (toda la noche) para propiciar la hibridización. En el caso de las matrices de vidrio o de plástico, los resultados son analizados en un fluorómetro el cual cuantifica la intensidad de la fluorescencia en cada punto de la matriz, correspondiente a un gen. La intensidad para cada fluorocromo reportada por el equipo en cada punto de la matriz es la resultante de la relación Cy5/Cy3 (verde/rojo), la cual se expresa como intensidad de fluorescencia en escala logarítmica y en números absolutos: si ésta es 1 (color amarillo) significa que el gen se expresa de manera similar en ambas muestras (control y problema), si es menor que 1 (color verde) significa que el gen se expresó más en las células control y si la relación es mayor de 1 (color rojo) significa que el gen se sobre expresó en la muestra problema. Convencionalmente se emplea como punto de corte de significancia el valor de dos en la escala logarítmica. Finalmente empleando algoritmos de asociación computacionales y con base en la regulación positiva y/o negativa de los genes bajo estudio, es posible establecer relaciones entre los patrones de expresión de los genes y diversas funciones celulares. Comúnmente en los estudios de este tipo, estos datos se corroboran realizando análisis de

Northern (ARNm) o de Western (proteínas) blots para aquellos genes que muestran una expresión diferencial, permitiendo al investigador identificar características del sistema por medio de datos que pueden ser entendidos como una "escena" molecular en un estudio biológico. Tratamiento de la información. Metodología. En el análisis de microarrays de expresión génica, el interés principal de esta técnica reside en la agrupación de los datos de expresión para localizar grupos funcionales de genes y relacionarlos con ciertos tipos de individuos (sanos, enfermos), tejidos, condiciones o estadios temporales. Dentro de todo el proceso, la fase más importante es el revelado, ya que es cuando se conocen los puntos de la matriz en la que ha habido hibridación. Suelen emplearse marcadores fluorescentes. El análisis de los datos generados por los trabajos con biochips requieren el uso de algoritmos de análisis exploratorio de datos, con el fin de descubrir patrones ocultos en los mismos. Una de las técnicas mas usadas s el “clustering” o agrupamiento. Se trata de sistemas de clasificación no supervisados en los que se asocian ciertos grupos de observaciones o características con grupos de entrada (muestras).

A. Tratamiento de la imagen – transformar las intensidades medidas en los spots del array en valores cuantitativos de expresión.

Segmentación de los spots en el array (manual o automático). Determinación de la retícula Fondo – Eliminar señal no-específica (controles negativos). Estudio del resto de la superficie (fuera de los

spots) Asignación de zonas geométricas a las manchas de hibridación (manual, automática) Obtener el dato final de intensidad de cada zona geométrica Normalización – Hacer congruentes las dos imágenes de las muestras (peso, marcado, hibridación, lectura en

el escáner,...)

B. Análisis de los datos – obtención de los resultados del experimento con múltiples microarrays, normalizados, depurados y cuantificados relativamente.

Control de calidad – eliminar variación aleatoria. Controles positivos y negativos Obtener intensidad relativa – ratios y normalización Estadística – correlación, niveles de confianza Análisis de múltiples imágenes (patrones de expresión temporal, de diferentes muestras, diferentes

condiciones, ...)

C. Acceso a bases de datos – completar los datos experimentales con fuentes externas de referencia (genes, enfermedades, bibliografía) o datos relacionados del proyecto (ensayos clínicos).

Información sobre genes, proteínas, (CGAP, Entrez, Unigene, …) Información clínica (OMIM, Genecards) Otros datos de expresión génica (repositorios públicos) Resultados clínicos, farmacológicos, toxicologia, ...

D. Análisis multivariante o multidimensional - Ya que los datos sobre expresión génica representan solo

un parámetro mediante el cual se pueden caracterizar células o tejidos. Dependiendo del experimento, se pueden incorporar otros datos (patología molecular, epidemiología, sensibilidad a fármacos, que influirán en la interpretación de los datos del array.

Correlación. Clustering (jerárquico, redes de neuronas) Análisis de series temporales Análisis de componentes principales

E. Métodos Avanzados – Sistemas de modelización para la Inferencia de relaciones causales, mecanismos

reguladores, relaciones inhibidoras o activadoras y aplicación de teorías emergentes en el campo, otros métodos de clustering.

Varias son las metodologías de la genómica funcional que permiten establecer el papel que desempeña un gen y su producto (la proteína) en los diferentes tipos de células. Entre estas metodologías están los estudios de comparación filogenética y el análisis de homologías con secuencias ya conocidas y los microarrays de ADN que permiten estudiar indirectamente en que momento y bajo que estímulos se expresan determinadas proteínas y las consecuencias derivadas de las expresión. Los modelos experimentales que se pueden establecer para conocer las circunstancias específicas en las cuales un gen muestra su máxima o su mínima expresión son múltiples, y de esta forma se puede

inferir los efectos que la expresión de múltiples genes tiene en una función específica gobernada por un sin número de proteínas. Ventajas y desventajas. Las micromatrices o microarrays aunque muy convenientes para el estudio global de la expresión de genes, tienen algunas desventajas con respecto a otras metodologías. A continuación se listan las principales ventajas y desventajas de esta metodología. Las ventajas son:

Facilitan el estudio de la expresión de miles de genes en forma simultánea en un sistema celular determinado. Permiten establecer una conexión biológica racional entre la función de un producto génico y su patrón de

expresión, así como su relación con los patrones de expresión de muchos otros genes simultáneamente, es decir, facilitan identificar el grupo de genes expresados en una célula en un momento determinado. Esto permite analizar a fondo los sistemas bioquímicos y regulatorios que están operando y que funciones puede o no realizar la célula en un momento dado.

La viabilidad técnica: es una tecnología de fácil transferencia (de hecho ya existe en nuestro medio tecnología adecuada para construirlas), la medición depende de una hibridación sencilla y hay suficiente información de libreras de secuencias para construirlas.

Sus desventajas son:

El costo elevado de su elaboración. La necesidad de fluorómetros y de software especializados en el análisis de la información que dependen en

forma importante de la casa comercial que los suministra. La reproducibilidad de los datos no siempre es consistente. Este problema se ha resulto parcialmente

haciendo mediciones por duplicado (dos puntos en la matriz que corresponden al mismos gen). La repetición de un experimento a otro puede mostrar variaciones importantes en el patrón de expresión lo

cual hace necesario en algunos casos obtener múltiples réplicas. Aplicaciones. El estudio del ARNm total de una célula (trascriptoma) cobra gran valor gracias a la relación existente entre la expresión génica y la función de un gen: genes que participan en una misma respuesta tendrán una expresión aumentada mientras que aquellos que son inhibidos tendrán una expresión disminuida al compararlos con el control. Es así como el estudio de la expresión global hace posible estudiar al mismo tiempo el comportamiento de múltiples genes en un momento celular específico, que puede ser modificado y analizado de acuerdo a los conocimientos funcionales de la célula o grupo celular de interés. Los microarrays están siendo empleados en la investigación biomédica cubriendo áreas tales como la fisiología, la genética, la embriología, etc. Sin embargo, los avances más importantes se han realizado empleando esta tecnología en el campo de la inmunología básica y aplicada. El desarrollo de modelos experimentales de diferentes enfermedades inmunológicas basados en los microarrays, busca entender fisiopatogénesis y poder en un futuro cercano aplicar estos conocimientos para el manejo individualizado del paciente con afecciones del sistema inmune. Perfiles de expresión y función celular. Las micromatrices se han utilizado para entender globalmente fenómenos tales como la ontogenia, la diferenciación y la activación de las diversas células que componen el sistema inmune. Así se han podido identificar un número importante de genes y su relación con otros genes conocidos que están involucrados en las diferentes fases de estos fenómenos inmunológicos. Este conocimiento detallado, en el caso particular de la respuesta inmune específica de los linfocitos, cobra importancia al permitir establecer patrones de expresión de estas células en personas sanas que al ser comparadas con los patrones de expresión de las células de pacientes, pueden llegar a identificar las bases moleculares de múltiples enfermedades. El uso de los microarrays para el estudio de la expresión génica en los diferentes estadios del ciclo celular y en diferentes células, está ampliando el conocimiento de los factores reguladores del crecimiento tisular. Los resultados de estos análisis demuestran que los procesos moleculares están gobernados por múltiples genes que actúan relacionados directa o indirectamente con las múltiples funciones que cumple una célula dentro de su ciclo vital. Este conocimiento está acelerando dramáticamente nuestro conocimiento acerca de los factores que regulan el desarrollo de los organismos y su respuesta frente al medio ambiente que lo rodea. Transducción de señales intracelulares. Las células responden a estímulos gracias a la capacidad de relacionarse con el medio externo por medio de receptores ubicados en la membrana celular, los cuales trasmiten la información recibida al interior de la célula por medio de segundos mensajeros intracelulares. El avance reciente del conocimiento inmunológico en las diferentes vías de señalización que llevan a la respuesta frente a un estímulo determinado ha sido significativo. No obstante, la creciente complejidad de estos fenómenos dificulta cada vez más la comprensión de todas las interrelaciones que hacen posible las respuestas desencadenadas por diferentes estímulos externos.

Una de las vías de señalización más estudiadas, es la activación del linfocito T luego de la presentación antigénica con o sin coestimulación. En este campo las micromatrices han permitido profundizar ampliamente los diferentes componentes génicos que intervienen en la cinética de activación del linfocito T en respuesta al reto antigénico. El resultado de este análisis es el de un panorama integrado de señales que convergen para promover una respuesta inmune y los genes que participan en ella. Esta información está siendo empleada por los científicos y las casas farmacéuticas para desarrollar nuevas modalidades de tratamiento. Las aplicaciones derivadas de estos estudios génicos y su aplicación en el campo de la farmacología se conoce ahora como "farmacogenómica". Identificación de polimorfismos y mutaciones. En los últimos dos años los proyectos de secuenciamiento del genoma han provisto más de dos millones de polimorfismos de un sólo nucleótido denominados (single nucleotide polymorphisms -SNPs) que han servido como marcadores genéticos. Los análisis de estos polimorfismos han permitido la identificación de patrones comunes de expresión de polimorfismos en enfermedades genéticamente complejas como la diabetes, el asma, la enfermedad inflamatoria intestinal y el cáncer, entre otras. Con los arrays de ADN es posible genotipificar más de 2000 polimorfismos por placa, con lo cual se podría determinar la susceptibilidad a padecer enfermedades y la posible respuesta a terapias específicas de una manera más rápida y práctica. Al igual que con los polimorfimos, también se pueden buscar mutaciones conocidas o probables de hasta un sólo nucleótido en diferentes regiones del ADN, como un método de resecuenciamiento o búsqueda, con lo cual se podría evaluar en un sólo experimento múltiples mutaciones causantes de una enfermedad en particular. Esta información ha sido reunida de diferentes publicaciones. Nature 2000;405:819. Annu Rev Immunol 2000;18:829-59. Genomics, gene expression and DNA arrays. Nature 2000;405(6788):827-36. DNA microarrays and their application to clinical medicine. S D J Med 2001; 54(2):57-61. Making and reading microarrays. Nat Genet 1999;21(1 Suppl):15-9. Nat Med 2002;8(1):68-74. DNA microarrays in clinical oncology. J Clin Oncol 2002;20(7):1932-41. Microarray profile of differentially expressed genes in a monkey model of allergic asthma. Genome Biol 2002;3(5):research0020. Detection of allergen-specific IgE on microarrays by use of signal amplification techniques. Clin Chem 2002;48(8):1367-70.

El viernes 30 de abril del 2004 desde las 9:30 horas hasta las 3:00 am se nos viene la tercera gran tocata titulada como es ya de costumbre “Noche de Talentos”. Para quien no sabe de que tratan estas tacatas y cual es su objetivo aquí se los explicamos brevemente: El objetivo principal de estas es poder unir a nuestra carrera en una noche en la cual podrán ver participar a los alumnos de nuestra carrera ya sean de primer año hasta el ultimo año tocando o realizando algún tipo de talento especial y desconocido que pueda dar a conocer el alcohol. Ya que en esta noche podras beber, disfrutar y compartir con tus compañeros, de la forma mas barata. En esta ocasión habrán alrededor de 12 grupos participando y la cerveza de litro estará aproximadamente 550 pesos. Pueden asistir alumnos de todas las carreras de nuestra y de otras universidades, ya que aquí todos son bienvenidos. Pronto comenzara a funcionar nuestra CDTECA aquí podrás encontrar una gran variedad de cds de los diferentes libros que son necesarios revisar, contaremos con aproximadamente 60 cd roms, y habrá una persona en cargada a la cual dirigirse, el funcionamiento de esta se dará a conocer al alumnado en la próxima asamblea. El 25 y 26 de abril son las elecciones de centro de alumnos no olvides ir a votar por tu lista, aquí solo podrán votar alumnos de cursos superiores.

Francisca Benavente.

2º Año. Bioquímica

Al principio no sabia que escribir y al pensar en poner un ensayo que tengo, que a mi me gusta mucho, pero realmente es muy polémico. Se me ocurrió que en vez de escribir algo tan crítico, mejor escribiera algo que nos ayude a encontrar la paz en estos días turbulentos, donde la tierra llora por el hecho de que sus hijos, la destruyen y se destruyen constantemente.

Ahí voy: “me da mucha pena pensar que mi grito de alarma

no tenga respuesta, me da mucha pena ver como la potencialidad se pierde.

Camino y camino y adonde quiera que voy veo sonámbulos, ¿acaso la vida, ya no da a luz a seres que observen, que sientan, que estén concientes?, ¿Dónde se ha ido la potencia de nuestra juventud?, ¿donde se ha ido el idealismo de los jóvenes de antaño? Es cierto vivimos en la época de la post-modernidad , donde el idealismo ya no esta de “moda” y el pragmatismo envuelve al sistema y es muy duro , y el que no se encarama y sube con dientes y uñas , se queda atrás, viviendo una vida mediocre (a ojos de este sistema inhumano). Pero es en este tiempo, en donde cabe gritar para que se despierten las conciencias. Para que no se desperdicie la vida, que no se desperdicie la posibilidad de cambiar; de ser mejores.

Es que es tanta la pena que tengo de ver las vidas perdidas, tantos ojos cerrados, como se malgasta la vida de los jóvenes donde pasiones vacías, llenan sus vidas inocuas. Donde el engrandecimiento tiene marca, y no veneración y ganas de subir sobre nosotros mismos. Al ver como el hombre malgasta su energía engrandeciendo su ego, un ego que engrandece marchitando el de sus iguales. Por que el ser humano goza con el sufrimiento ajeno.

Veo un mundo donde la violencia, es el pan que nos alimenta al desayuno, lo que me da una angustia inexplicable, al ver que nuestro hermoso mundo se sumerge en un caos violento, desde donde no veo salida.

Veo un mundo que necesita con desesperación que se haga algo por la paz, por el bien de todos, un mundo donde la tristeza se cambie por felicidad, donde lo superficial se cambie por lo altruista. En donde el hermano ayude al hermano y al no hermano. Un mundo en donde nos de ganas, de traer a nuestros hijos.

Amigos, yo les digo, solo como una mas de los suyos, despierten, dense cuenta que nos perdemos la maravilla en la sencillez de la vida, al vivir inertes, arrastrados por una masa superficial y estúpida. Lo que nos hace felices, no es el dinero, ni las cosas superficiales, tampoco es ser el mejor a los ojos de otros, es simplemente tener plena conciencia de que se está vivo, maravillarse por la vida y permitir que

otros también lo hagan. Como Maharayi un maestro

hindú, decía: “no se maravillen por las puestas de sol, han habido

muchas y muchas habrán luego que nos hayamos ido, mas bien maravíllense por el aliento que nos permite verlas”

Y la pregunta es: ¿Por qué les digo todas estas cosas? ¿Cuál es mi motivación a escribir? La respuesta es sencilla y es que amo al ser humano y creo fielmente en su potencial, y a lo único que aspiro es que mis palabras sirvan para limpiar un poco los ojos empañados de la sociedad y en especial de la juventud que adormilada se deja llevar por la corriente devastadora de este sistema infecto. Que se basa en el egoísmo, la competencia y la dominación.

Por eso hermanos, hagamos algo por cambiar nuestro futuro, luchemos por la paz con una espada de paz, con una espada de mar, para que limpie nuestros pies de la maldad, con una espada de viento para que arrastre las nubes que nublan la conciencia.

Una espada de luz que ilumine nuestra mente, y nos muestre el camino a un futuro mejor.” GRITO DE ALERTA……

Jose Miguel Fernandez Parodi

Promoción 1999 Carrera de Bioquímica

Hola compañeros, quisiera plantearles mi inquietud por los problemas que se estan dando acerca de la realizacion de las practicas profesionales, ya que en los lugares que nos exigen hacerla, (ejemplo Hospital Naval, Gustavo Fricke, etc.) nos piden para autorizarnos un convenio con la Universidad el cual no existe y no se si hay señales de su futura existencia, por lo cual cada dia se nos cierran mas puertas para poder hacer nuestras practicas y si esto no se soluciona, posiblemente muy pronto no tendremos donde hacer nuestra practica. Mando este mensaje como una alerta, nos vemos.

Axel Pinto-Agüero Tercer año Bioquimica

“UN DIA EN EL PARQUE”.

Cuando despertó “el dinosaurio”, todavía estaba allí. En su dormitorio. Mirando al techo, como lo

era todos los días. Antes de levantarse pensaba en lo que seria su día. Bañarse, tomar desayuno, salir a la calle con sus amigos; como lo era la rutina. Una vez que terminó su desayuno, salió a buscar a sus amigos. El esperaba encontrarse con sus compadres, como siempre, en el parque de la esquina. El quería mucho a sus amigos, de hecho los consideraba a todos como tal. Sin embargo, el no sentía lo mismo por parte de ellos. Se burlaban de él, lo molestaban, nunca lo dejaban descansar. Y eran ellos mismo los que le pusieron de apodo "el dinosaurio". Todos los días era igual. Se suponía que de tanto ellos decir siempre lo mismo, él ya debería estar acostumbrado, y no tendría por que importarle lo que ellos le dijeran. Pero esto no era así, ya que cada palabra que ellos decían le dolía mucho. Era un golpe, constante de cada día, sobre la misma herida o llaga que podrían haber dejado los anteriores azotes. El no sabia cuanto mas podría aguantar. Sentía que podía soportar mucho. Es mas, dentro de todo, no importaba, total, eran sus únicos amigos. El siempre entendió que las burlas eran por ser distinto, él lo sabia desde muy pequeño. Su madre siempre le decía que era distinto, por que era especial. “El dinosaurio” creía que así era. Recordaba que cada día que se levantaba, se miraba en el espejo, y recordaba que era distinto. Su afán de saber la respuesta a esa razón, de no ser igual a los demás, nunca acababa. ¿Habrá sido dios?, ¿Seré una mala persona?, ¿Habré hecho algo malo?, y así sucesivamente, muchas preguntas más que nunca acababan y que siempre terminaban sin alguna respuesta satisfactoria. Un día, frente a las molestas palabras de sus amigos, no aguantó más, y les dijo que sus burlas verbales eran hirientes, que le causaban mucho daño. De pronto, un estallido estremecedor de llanto se dejo escapar de “el dinosaurio”. Su humillación se dejo sentir por todo el parque. La triste y escalofriante expresión de dolor dejó a sus amigos paralizados. El joven les pedía, por favor, que no le hicieran más daño. Ellos sin saber que decir, se miraron entre todos a las caras, y largaron una gran risa junto con burlas al pobre dinosaurio. Ja,ja,ja; dinosaurio llorón; dinosaurio maricón; etc. Era lo mas suave que le decían sin misericordia alguna. Entonces, de un momento a otro, la mente de dinosaurio quedo en blanco. Sintió un gran odio que comenzó a nacer desde el fondo de su corazón, lo que lo llevo a buscar una causa justa para vengarse. Todo paso en menos de un segundo. Junto con ello, se proyecto una clara imagen en su mente, la cual no lograba borrar. Un revolver. Era todo lo que ocupaba su cabeza. Recordó entonces que su padre guardaba uno en el cajón de su velador. Con claros rastros de lágrimas en su rostro, se marchó corriendo a su casa. Mientras sus oídos no podían dejar atrás las maliciosas

palabras de sus amigos. Llegó a su casa. Fue directo al dormitorio de sus padres. Al velador de su padre. Ahí estaba, tal cual como la había presenciado en su cabeza. La tomo, sin percatarse de que estuviera o no cargada. La guardo en un bolsillo de su pantalón. Y salió sin que su madre lo viera. Esta vez todo seria distinto. Algo había cambiado en su mirada. Sus ojos estaban rojos y brillaban. Su garganta estaba seca. La adrenalina recorría todo su cuerpo. Sus emociones cada vez se hacían más fuertes. Sus impulsos por una justa venganza lo dominaban. Una vez que llego al parque, aun continuaban las risas de sus amigos. Más aun cuando lo vieron llegar de nuevo con cara solloza. Las burlas comenzaban de nuevo. Esta vez, una tenue sonrisa se dibujo sobre la cara de “el dinosaurio”. Los miro a todos. Les dijo: "Quiero ver si esta vez son capaces de tomarme en serio". Sacó el revolver rápidamente, y lo apuntó, con el brazo extendido, directo al suelo. Sus amigos, atónitos, se quedaron en silencio, sin decir ni un tipo de burla, o broma de mal gusto. Todos lo miraban a él, y al revolver. Ninguno se atrevía a decir algo. Todos estaban quietos, como si estuviesen congelados. El dinosaurio preguntaba: ¿Por que ahora no son capaces de decir algo?, ¿Es que acaso tienen miedo?. Hasta que uno dijo: ¿Que harás con ese revolver?. El dinosaurio Respondió: Lo que yo quiera. Mientras comenzaba a apuntar a uno por uno con el dedo. Parecía como si eligiera a alguien al azar. Estuvo varios minutos con el juego de la suerte. Todos participaban, incluso él. En el momento menos pensado, el dedo se detiene en alguien. Apunta, y dispara. Un certero disparo a quemarropa. Un fuerte estruendo. El resonante sonido se alejaba rebotando por las calles aledañas al parque. Las aves volaron precipitadamente desde los árboles donde se encontraban, como si huyeran de algún astuto cazador. Un gran zumbido retumbaba en los oídos de los presentes. Una gran dosis de adrenalina provocó un palpitar acelerado en los corazones de los espectadores. Nadie entendía lo que ocurría. La gran mayoría con salpicaduras de sangre y sesos. Todos en silencio. Solo un agudo sonido que perforaba los oídos de los testigos del sangriento hecho, que con el pasar de los minutos, comenzaba a desaparecer. De apoco se comenzó a sentir, nuevamente, el sonido característico del parque. Niños jugando. Aves cantando. El sonido de las hojas de los árboles que chocan cuando son sacudidas por el viento. Etc. Solo que ahora, un sonido más se agregaba a la orquesta ambiental del parque. De lejos el llanto desconsolador de una madre se confundía con el sonido de las sirenas. Una madre destrozada por el irracional hecho. Una madre que creía en su hijo. En él. En lo distinto, lo especial, que él era. La pobre mujer no hallaba respuestas lógicas que explicaran, de alguna forma menos cruda, las razones de la incomprensible acción. Un cuerpo tendido. El charco de sangre, que reflejaba la cabeza del difunto cuerpo, ya era evidente en el suelo del parque. La gente de los alrededores ya comenzaba a aglomerarse. Todos pertenecientes al entorno del parque. La policía ya estaba aquí. Una madre abrazada a su hijo. No quería que se lo lleven. Sólo lo miraba de entre sus brazos. Y ella, y toda la gente, que luego tendría que dar su testimonio, se preguntaban: ¡¿Por qué?!

HISTORIA DE UN RETORNO Hace 5 años, cuando acababa de volver a Chile después de 11 años de vivir en el extranjero, mi Padre, quien hoy en dia está feliz de tenerme de regreso, me preguntó: ¿a qué volviste a Chile? Mi respuesta fue como sigue: Padre, hace 11 años atrás, me encontraba haciendo un Doctorado en Ciencias en un país que ofrecía poco campo laboral para una carrera científica como la que yo elegí, la Bioquímica. Decidí postular a una beca para buscar nuevas posibilidades en el extranjero. La Universidad de Chile, consciente de los escasos recursos que ofrecía, me permitió realizar mi tesis de Doctorado en una Universidad de Carolina del Norte, USA. Terminado mi trabajo de tesis, volví un año mas tarde a Chile a presentar mi trabajo y recibirme de Doctor en Ciencias con mención en Biología, título otorgado por la Facultad de Ciencias de la Universidad de Chile. Las posibilidades no Se habían abierto todavía en Chile y no podía aspirar a ningún trabajo mejor que el que había tenido antes de haber salido al extranjero y haber terminado mi doctorado. Volví entonces a Duke University en Carolina del Norte, becada por la Rockefeller Foundation a realizar un Post Doctorado que duró 4 años. Durante estos años me casé con un suizo, Andrew Quest, quien es también Bioquímico y se encontraba en USA en entrenamiento Post Doctoral. Terminado nuestros períodos de entrenamiento en USA, aún sin posibilidades de volver a Chile, nos fuimos a trabajar al Instituto de Bioquímica de la Universidad de Lausanne en Suiza. Andrew encontró un puesto de Profesor Asistente y yo un lugar donde realizar un segundo Post Doctorado becada por la “Federation of European Biochemical Societies” (FEBS). En Suiza la carrera académica no sigue el curso que tiene en Chile o en USA y Andrew, una vez terminado el período de contrato por 6 años, no tenía posibilidades de quedarse en esa Universidad. Yo como mujer, madre de una niña pequeña y además extranjera, a pesar de tener pasaporte suizo, tampoco podía aspirar a una gran carrera académica. Quizás para aclarar este punto sería importante destacar que al año 2000, en toda Suiza, sólo había 3 mujeres que habían llegado a ser nominadas Profesoras Titulares en el área de la ciencia y la investigación. Luego de transcurridos 5 años en Suiza y pronto a cumplirse el fin del contrato, apareció un aviso en la revista Nature anunciando la apertura de un Nuevo Instituto de Ciencias Biomédicas (ICBM) en la Facultad de Medicina de la Universidad de Chile. En esta Facultad, ocurriría una gran reestructuración y se ofrecían 27 posiciones para diferentes niveles académicos. Postulamos e inmediatamente obtuvimos una respuesta muy positiva del Dr. Jorge Allende, en ese entonces Director del Instituto. Nos citaron a una entrevista y quedamos aceptados para los cargos de Profesor Asistente del Programa de Morfología (L.Leyton) y Profesor Asociado del Programa de Biología Celular y Molecular (A. Quest). Luego postulamos a un proyecto Fondecyt, Andrew como Investigador Principal y yo como Co-Investigadora, para estudiar los eventos moleculares implicados en la transformación celular. Nosotros estamos interesados en conocer cuáles son los procesos moleculares que determinan que una célula deje de proliferar normalmente y se transforme. Dicho proyecto, duró 3 años y tuvo uno de los financiamientos mas altos que otorgara Fondecyt a la Universidad de Chile en esos años. Era además, la continuación del proyecto que tuvo Andrew en Suiza vigente hasta el año 2000. Al finalizarse dicho período, la Universidad de Lausanne donó una serie de equipos a nuestro laboratorio en Chile además de todo el material biológico generado en los años de trabajo en ese país. Como reconocimiento a la labor desarrollada y para continuar con los lazos establecidos, las Facultades de Medicina de las Universidades de Lausanne y Chile firmaron un acuerdo de intercambio de estudiantes de Doctorado entre los dos países. A la fecha, este convenio ha permitido enviar a 3 estudiantes chilenos a Suiza, uno de los cuales estableció contactos para volver y continuar su formación en Ginebra, Suiza. Cuando volvimos a Chile, la Facultad de Medicina y en particular el ICBM comenzaba a darle posibilidades de desarrollo aquellos profesionales que un día partieron por falta de oportunidades de trabajo. Se abrieron las puertas para hacer ciencia de alto nivel en nuestras Universidades en un esfuerzo por mejorar la ciencia en Chile. Se contrataron profesionales que trabajaban en el extranjero (chilenos o no) y les construyeron laboratorios que hoy en día cuentan con facilidades para hacer investigación de punta. Nuestro laboratorio es uno de ellos y constituye el actual Laboratorio de Comunicaciones Celulares. Junto con ofrecerle esta respuesta a mi Padre hace 5 años atrás, le dije “Fueron 11 años de espera pero sin duda valdrán la pena porque aquí nosotros podremos hacer una diferencia y hacer aportes importantes al ambiente científico y a la formación de nuevos profesionales” Si bien tenemos trabajo en colaboración con Andrew, yo he desarrollado mi propia línea de investigación. Esta línea partió en mis años de Post Doctorado en Suiza y mi interés era estudiar “eventos en la adhesión celular entre neuronas y astrocitos”. Para iniciarla conseguí una beca de reinserción al país de origen con la FEBS, y además postulé al concurso para obtener fondos de reinserción llamado por la Dirección de Investigación y Desarrollo de la Universidad de Chile. Este apoyo fue fundamental para concretar las bases para presentar un proyecto al concurso Fondecyt regular. Este proyecto fue finalmente aprobado el año 2004 y evaluado dentro de los cincos mejores en el área de la Biología Celular. Mi proyecto Fondecyt está focalizado a estudiar “las interacciones moleculares entre neuronas y astrocitos específicamente aquellas mediadas por la proteína Thy-1 neuronal. Esta glicoproteína se expresa altamente en la superficie de las células neuronales y a pesar de que se conoce desde hace mas de 40 años, su función es aún

Foto1: Lisette Leyton, Ph.D. Profesora Asistente del Instituto de Ciencias Biomédicas de la Facultad de Medicina de la

materia de discusión. A partir de nuestras investigaciones, logramos determinar que Thy-1 interactúa con una integrina presente en astrocitos provocando cambios dramáticos de la morfología celular. Hoy en día se sabe que existe una intensa comunicación entre neuronas y astrocitos lo cual es vital para que ocurra la reparación de conexiones neuronales luego de ocurrido un daño cerebral. Estamos interesados en dilucidar los mecanismos moleculares gatillados por Thy-1 en astrocitos y saber si a consecuencia de esta interacción se producen señales desde el astrocito que inhibirán el crecimiento de las neuritas o si existe una señalización bidireccional entre estas células que podría también explicar el mismo fenómeno, la poca capacidad de regeneración del Sistema Nervioso Central”. Además, para realizar estos estudios, he obtenido financiamiento de la Fundación Andes y recientemente de la Fogarty-NIH de USA en colaboración con un prestigioso científico inglés radicado en Carolina del Norte, el Dr. Keith Burridge. En el Instituto de Ciencias Biomédicas de nuestra Facultad se formó un grupo de integración en transducción de señales. Como es el punto común a nuestros temas de investigación, participamos activamente en este grupo. De aquí surgió un mega-proyecto para obtener fondos nacionales otorgados a áreas prioritarias, los proyectos FONDAP. Seis jefes de Laboratorio, parte del grupo de integración en transducción de señales, se unieron para presentar este proyecto donde propusieron formar un Centro de Estudios Moleculares de la Célula (CEMC). Se ganaron el proyecto y hoy en día este grupo integrado por: Cecilia Hidalgo (Directora), Andrew Quest (Sub-Director), Luigi Devoto, Enrique Jaimovich, Sergio Lavandero y Andrés Stutzin, con sus grupos de trabajo, forman este gran y exitoso Centro cuyo enfoque está en la excelencia científica y la formación de estudiantes de post-grado. En este mega-proyecto soy co-investigadora y participante activa del CEMC.

Durante el período antes mencionado, el Laboratorio de Comunicaciones Celulares ha formado a 6 estudiantes de Bioquímica y tiene uno que presentará su Tesis este año. Se han incorporado 5 estudiantes de Doctorado quienes se encuentran realizando sus tesis y han realizado Unidades de Investigación otros 10. Se encuentran también asociados dos Doctores en período de formación PostDoctoral, quienes junto a 3 profesionales que desarrollan labor técnica, una secretaria y un auxiliar técnico forman el grupo que tenemos actualmente en el Laboratorio. En cinco años de permancia en Chile, la conclusión es que ciertamente ha valido la pena, gracias al apoyo y reconocimiento recibido a nivel profesional y humano. Es muy gratificante estar de vuelta en la tierra natal, sobre todo porque la familia constituye aún un núcleo fuerte de apoyo en la sociedad. La gratuidad del cariño familiar es impagable.

Foto 2: Laboratorio de Comunicaciones Celulares. De Izquierda a derecha. Fila de arriba: Daniel Muñoz (Asistente Técnico), Claudia Calderón (Asistente Técnico), Alvaro Lladser (Tesista Doctorado), Mario Párraga (PostDoctorado), Gonzalo Encina (Unidad de Investigación, Doctorado). Fila del medio: Denisse Bravo (Tesista pre-grado), Lillian Corona (Secretaria, atrás), Tamara Hermosilla (Tesista Doctorado), Lisette Leyton (Profesor Asistete), Andrew Quest (Profesor Asociado), Julio Tapia (PostDoctorado), Margarita Montoya (Tesista Doctorado). Fila de abajo: Enrique Ñañculef (Auxiliar Técnico), Patricio Reyes (Asistente Técnico), Vicente Torres (Tesista Doctorado).

UN ACERCAMIENTO A LA ELECTROQUÍMICA. Una mirada que los futuros tesistas deben tener en mente. Entrevista a la Dra. Paula Cury Pastene, Bioquímica de la PUCV. Actualmente trabaja en el laboratorio de Electroquímica de la PUCV. — ¿Cómo fue que Ud. llegó a la Carrera de Bioquímica? Yo entré el año 1986, con la malla antigua, que según tengo entendido la han cambiado y hasta donde yo sé Uds. no tienen histología. En el caso de histología, por ejemplo, no estoy de acuerdo que la hayan sacado; debieran de tener una histología por que ahí se ve todos los tipos de tejidos, las células que son los macrófagos, los eosinófilos, etc. Uno ya va acostumbrando el ojo, pensando que un bioquímico está capacitado para trabajar en un laboratorio clínico, en donde te hacen recuento de glóbulos rojos, de eosinófilos, de leucocitos, de linfocitos, de basófilos y una serie de cosas que ustedes deberían de saber verlos, uno ya en segundo año veía eso. Se dictaba en el segundo año en el primer semestre, y era anual.. — ¿Pero tenían Bioquímica Clínica? Sí. — ¿Porqué eligió Bioquímica? Yo entré a la carrera porque quería estudiar Química, entonces empecé a averiguar, en una época en que no estaba muy en boga todo lo que era bioquímica, piensa tú que era el año 1986, y descubrí que había una carrera que mezclaba biología con la química, y era más por ese lado que a mí me gustaba el área de investigación y decidí ingresar. En un comienzo éramos 45 y quedamos 6 después en la carrera, nos recibimos unas 6 o 5 personas de mí generación. Después hice mi tesis en Química Analítica, con la Profesora Ida De Gregori, en un sistema catalítico para la reducción de oxígeno, y de ahí seguí en ese tema de analítica. Después decidí hacer un el Doctorado y hablé con profesores ya que necesitaba un profesor que me patrocinara y hablé con Ricardo Schrebler, y así terminé en el Laboratorio de Electroquímica. Pero ya aquí tenía la base de la reducción de oxígeno en la tesis con la Profesora Ida De Gregori. — ¿Qué hace ahora Ud. específicamente? Yo partí con mi tesis de doctora en reducción de CO2, las plantas hacen reducción de CO2, a través de la fotosíntesis, por lo tanto qué relación tiene la bioquímica con la electroquímica; mucha. La idea de nosotros era reducir el CO2 hasta algún tipo de compuesto que fuera combustible como el caso de metano, que se puede reducir dependiendo del sistema catalizador que tú uses, y así obtienes metano como fuente de energía, porque le petróleo en algún momento se te va a acabar. Si bien los países árabes, que flotan en petróleo, en algunos casos el petróleo se les agotará en 50 años. Actualmente estoy en un proyecto FONDECYT que trata de transformar la energía solar en eléctrica, donde ahí se parece mucho a un sistema bioquímico. La radiación hace que se generen electrones que pasan a un sistema semiconductor renovando el sistema con un mediador. — ¿Tienen en este caso enzimas involucradas? Aquí en este caso no hay enzimas involucradas, está un semiconductor, que puede ser un óxido de titanio y un mediador que puede ser un sistema yodo/yoduro. En otros casos sí hay trabajos en donde sí se utilizan enzimas, que son inmovilizadas en un electrodo y esas enzimas se utilizan para hacer reacciones y ver cómo afecta la actividad catalítica de esta reacción. Aquí no trabajamos mucho con ese tema pero en Santiago sí trabajan con enzimas inmovilizas, que es poco complejo porque depende del soporte que tú uses cambias la conformación de la enzima y con eso cambias automáticamente su actividad catalítica, entonces es ahí donde nacen los problemas. — ¿Es la única Bioquímica que ha trabajado en este laboratorio? No, aquí trabajaron varios Bioquímicos. Más de las generaciones antiguas. — ¿Se siente aislada de la sección bioquímica? Primero que nada la cantidad de Profesores bioquímicos es muy poca. A lo mejor faltaría un poco más de comunicación entre los Bioquímicos y los Químicos, quizás no es un trabajo muy compartido, en todo caso se podría hacer. Eso no significa que sea malo, al contrario, a veces simplemente lo que falta tiempo ya que todos están muy metidos en su tema, incluso a veces trabajando en mismo laboratorio. Más que un problema de comunicación es más problema de tiempo. — Se cuestiona, entre el alumnado, el hecho de tener muchas químicas en la Carrera, especialmente las analíticas. Bueno la química analítica que sirve muchísimo, sobre todo cuando uno ve el ion común, la fuerza iónica, que como tú debes saber en bioquímica es muy importante. Para hacer los cálculos de fuera iónica tienes que haber pasado por una analítica. Yo estuve en los dos lados de la moneda, fui y alumno y profesor actualmente y por eso trato de ser muy objetiva en mis análisis. Uno cuando es alumno critica mucho a los profesores y a veces es muy duro en sus críticas, pero luego uno se da cuenta que cuando es profesor el cuento es totalmente distinto, porque tú tienes de alguna manera aplicar criterios donde no vas a querer perjudicar a nadie. Además de medir conocimientos, ves que hay alumnos que les cuesta más pero que le ponen empeño, que tienen además cargas como problemas personales, entonces todos esos

factores hacen que ser profesor sea más difícil de lo que uno cree, mucho más difícil. Cuando tu eres profesor te das cuenta que algunas cosas en que eras muy critico, estabas equivocado en algunas cosas y que no es tan así, porque a mí me ha pasado. Yo era muy crítica, por ejemplo pensaba que algunos ramos no servían para nada. Sin embargo, te puedo decir que un 5% de los ramos de la carrera no te sirve, en el caso del Cálculo 3 (el que ya no está), en mi doctorado en química me di cuenta que me servía mucho más de lo que yo pensaba. — Los alumnos quieren cada vez quitar muchos ramos.... No, lo que yo creo es que los alumnos cada vez más se quieren alivianar la carga. Y no es así, tu tienes que pensar en la vida qué es lo que tú quieres, hacia donde vas y cuáles son tus intenciones; en base a esos objetivos tu vas viendo, si tú quieres tener una profesión con el mínimo esfuerzo la calidad profesional que vas a tener es bastante precaria. En la universidad, pienso que cuando uno llega, viene a estudiar, al rigor, a sacrificarse, a emprender, a entender y no a ¡esto es muy difícil y no me va a servir¡ Todo de alguna u otra manera te sirve, si no es para una cosa es para otra. Tú en la vida quizás quieres ser bioquímico, pero tú no sabes si algún día te vas a dedicar a otra cosa de la bioquímica, como el caso mío. Yo pensaba que Calculo 3 no me iba a servir para nada, sin embargo cuando yo estudié el doctorado me sirvió más de lo que yo pensaba. — Anatomía ya no está... A lo mejor Anatomía no era un ramo tan indispensable. Si eligiera entre Anatomía e histología, elegiría Histología. Anatomía te servía más como cultura general. Si tú me preguntas en la carrera yo pondría inglés. — Está optativo, el alumnado lo pidió. Yo no lo pondría como optativo lo pondría como obligatorio. Ahora me doy cuenta que el inglés es fundamental, quizás cuando era alumna no me hubiera gustado. La impresión que a mí me da cuando yo hago clases es que algunos alumnos quieren la profesión con el mínimo esfuerzo, yo no estoy de acuerdo con eso. Creo que uno debe tener un nivel. — Mi opinión personal es que el Tribunal de Mérito es demasiado permisivo. Cuando yo estudié, dabas dos veces un ramo y para pedir tercera tenías que ir a un tribunal... — Sí, también ahora, pero es un trámite. En mi época no, te podían decir que no, y en muchos casos dijeron que no. En realidad no había cuarta en esa época. Era súper exigente. Con esto no te estoy diciendo que sea un problema sólo de Bioquímica, sino para todas las carreras de la universidad. — Otra cosa son los números elevados de alumnos que ingresan. Cuando entré a estudiar y hacíamos las analíticas, éramos un grupo terriblemente grande. En esa época había un Erlenmeyer por grupo, pero todos eran muy buenos compañeros. Sin embargo yo veo los laboratorios con el equipamiento que veo actualmente comparado cuando nosotros entramos y era de un 90% menos del que hay ahora, con cursos súper masivos y nunca tuvimos problemas. — ¿Pero antes cuantos entraban a Bioquímica? 42 a 45. ¿Ahora cuantos entran? — Entre 55-60. Nos es mucho más porque la cantidad de gente que abandona es bastante. — Es que ahora no abandonan por el tribunal de mérito. No, en mi época con suerte quedábamos el primer año 10. Aunque yo te digo que sobre todo en la analítica I, eran laboratorios caóticos, sobre todo en las valoraciones, pero nunca tuvimos ningún problema, siempre salimos adelante. Trabajamos con poco material, y habían 40 alumnos, pero como todos éramos amigos salimos adelante. Ahí perduró mucho la amistad y de alguna manera nos ayudábamos mucho entre todos. — Ahora no pasa eso... Es una lástima, porque en esa época, venir a la universidad, para mí, mis compañeros eran como mi familia, con ciertas excepciones claro, no se puede caer bien a todos. Actualmente, estos problemas se dan por la competitividad del sistema. — ¿Qué les diría a los Bioquímicos sobre electroquímica? Que ellos se pueden acercar con alguna idea en mente y plantearlo a algún profesor, se conversa y si es buena, ellos están dispuestos a escuchar y a recibirte; si es bueno ¿porqué no?

Es muy difícil definir la palabra bioinformática ya que es muy utilizado hoy en día y cada laboratorio de bioinformática le da una definición según su punto de vista. Sin embargo una definición acotada de esta seria la siguiente: Ciencia que utiliza herramientas informáticas basadas en modelos matemáticos y estadísticos, para estudiar los fenómenos biológicos La bioinformática como tal involucra conocimientos avanzados de una gran gamma de ciencias como lo son la biología, química, matemática, física, entre otras. Es una ciencia agrupadora matemáticamente hablando, otorga capacidad de procesamiento y repetibilidad de los ensayos. Algunas Aplicaciones de la Bioinformática: Dado la capacidad de obtener secuencias génicas y proteícas podemos:

o Usar bases de datos de secuencias génicas para Predecir genes por homología de secuencias Predecir secuencias proteicas a partír de secuencias génicas Estudiar relaciones evolutivas entre organismos

o Usar bases de datos se secuencias proteícas para:

Predecir funcionalidad proteíca por similitud estructural y/o de secuencias Predecir estructura secundaria y terciaria de proteínas Predecir sitios activos

o Utilizar modelos asistidos por computador

Genómica: Genomas, Diseño de organismos in sílico Proteómica: Interacción Ligando-Receptor, Docking, Mutación sitio dirigida Modelos integrales: Membrana, Canales Iónicos, Bombas, Receptores SBDD, CombiChem

o Utilizar bases de datos relacionales para Determinar genes relacionados a enfermedades genéticas Relacionar estructura proteica con función

• Pensamiento clásico: o Screening de interacción de proteínas con moléculas pequeñas (small molecules) Link?

Gen? = Droga!!! • Quimio-genómica:

o Screenning de moléculas pequeñas contra bases de datos de proteínas Link? = Gen! + Proteína! + Droga!

• ¿Cómo se unen moléculas con actividad biológica? o Determinación de función

• Diseño de inhibidores y bloqueadores moleculares • Docking, Structure Modeling (Homology modeling, ab initio)

• Genes Homólogos

• Microarrays • Reconstrucción metabólica • Química combinatoria • Ingeniería proteica

Antes de comenzar ya hablar de esta como tal es importante tener en claro algunos conceptos de computación: Computador: Aparato electrónico de múltiples componentes capaz de procesar y almacenar información en base a instrucciones Hardware: Dispositivos electromecánicos de operación (unidades de almacenamiento temporal y permanente, cálculo, memoria, I/O, gráficos) Software: Conjunto de instrucciones interpretables por el computador (sistema operativo, programas, aplicaciones) Programa: Conjunto de instrucciones mediante las cuales un computador realiza una tarea Algoritmo: Set de instrucciones detallado para completar una tarea en una serie de pasos finitos Heurística: Método de aplicación de un algoritmo basado en la experiencia de su aplicación Base de Datos: Repositorio de información estructurado y jerarquizado

PRIMER CAPITULO Alineamientos de secuencias Lo primero que trataremos aquí seran algunos conceptos:

Homología, Similaridad, Identidad

• Dos secuencias son “homólogas” si y solo si comparten un ancestro en común

• Dos secuencias son “similares” si es que poseen aa/nucleótidos en común

• La identidad de una secuencia corresponde al score de su alineamiento (E value)

Distancia de Secuencias • Vital para la determinación de relaciones evolutivas entre secuencias • La distancia entre dos secuencias se cálcula mediante el costo de la menor cantidad de

modificaciones necesarias para transformar una secuencia en otra • A medida que la distancia entre dos secuencias es mayor, la cantidad de modificaciones evolutivas

que deben ocurrir es mayor • Para calcular la distancia entre secuencias, debe realizarse un alineamiento

Homología/Ortología/Paralogía/Xenología:

Homología: Dos genes son homólogos si es que poseen un ancestro en común Ortología: Los genes hortólogos, son los que han divergido después de un proceso de especiación Paralogía: Los genes parálogos, son genes homólogos que han divergido después de un proceso de duplicación. Xenología: Los genes xenólogos, son genes que se han transferido de una especie a otra, no importando que estén evolutivamente muy separadas. Patrones de Secuencias - La Secuencia de Conceso (Consensus Sequence), esta compuesta por el nucleótido más representado para el alineamiento.

- La Secuencia de Expresión Regular (Regular Expression), es la representación que permite cualquier nucleótido en cualquier posición.

- Cadenas Ocultas de Markov (Hidden Markov Chains), la cual contiene información estadística acerca de la forma patrón permitida, así como de su variación posicional esperada en forma independiente de la posición.

- La Matriz Ponderada o Perfil (Weight Matrix or Profile), contiene información estadística de la variación posicional esperada, en forma independiente de la posición.

Pr

1/4 1/

1/4 2/5 3/5 1 - Pr

1/

4/5

Alternativas de Patrón A Bn C D E F G A Bm C E F G A Bk C F G A Bl C G A D E F G

GGCCGGCCAATTGGGGAATTTTGGAAGGCCGGAAGGGGAAAAGG TTCCGGCCAATTAAGGTTTTAAGGGGAACCCCAATTGGAACCAA **CCGGCCAATT**GG**TT**GG****CC**AA**GGAA****

GGCCGGCCAATTGGGGAATTTTGGAAGGCCGGCCAATTGGGGAA GGCCGGCCAATTGGGGAATTTTGGAAGGCCGGAAGGGGAAAAGG TTCCGGCCAATTAAGGTTTTAAGGGGAACCCCAATTGGAACCAA KKCCGGCCAATTRRGGWWTTWWGGRRRRCCSSMMDDKKRRVVRR

M P R C L C Q R J N C B AP 0 1 0 0 0 0 0 0 0 0 0 0 0B 0 0 1 1 1 1 1 1 1 1 1 2 1R 0 0 2 1 1 1 1 2 1 1 1 1 2C 0 0 1 3 2 3 2 2 2 2 3 2 2K 0 0 1 2 3 3 3 3 3 3 3 3 3C 0 0 1 3 3 4 3 3 3 3 4 3 3R 0 0 2 2 3 3 4 5 4 4 4 4 4N 0 0 1 2 3 3 4 4 5 6 5 5 5J 0 0 1 2 3 3 4 4 6 5 6 6 6C 0 0 1 3 3 4 4 4 5 6 7 6 6J 0 0 1 2 3 3 4 4 6 6 6 7 7A 0 0 1 2 3 3 4 4 5 6 6 7 8

Análisis de Secuencias: ¿Porqué? • Para:

– Identificación de genes en secuencias – Determinación de función para cada gen – Identificación de las proteínas involucradas en la regulación de la expresión génica – Identificación de regiones repetidas, regiones conservadas: Patrones – Identificación de regiones funcionales en el genoma – Inferir relaciones evolutivas

• ¿Cómo?:

– Algoritmos para el análisis de secuencias: • Alineamiento Simple (2 Secuencias) • Matrices de Puntos (Dot Matrix) • Alineamiento Global (Algoritmo Needleman & Wunsch) • Alineamiento Local (Algoritmo Smith-Waterman)

– Heurísticas para búsquedas en base de datos de secuencias:

• FASTA • BLAST

Alineamiento Múltiple de Secuencias (AMS) Como fue mencionado anteriormente se puede afirmar que el centro de todas las operaciones y análisis en el mundo bioinformático, lo tiene el AMS tanto para búsqueda de patrones entre secuencias de aminoácidos y nucleótidos, como para la búsqueda de relaciones filogenéticas entre organismos. De esta manera el AMS permite responder una serie de importantes preguntas para la biología, tales como.: ¿Que tan parecidas son dos secuencias ya conocidas? o dada una secuencia desconocida ¿a que puede llegar a parecerse?. Aunque de cierta manera estas preguntas pueden parecer de cierta manera triviales, encontrarles una respuesta no ha sido una tarea fácil para la biología molecular, y ha existido una gran brecha entre los conocimientos y volúmen de datos adquiridos durante largos años de investigación, y la eficiencia con la que estos pueden ser analizados. Sin embargo en la actualidad con la ayuda de sofisticados algoritmos y el desarrollo del campo de la biología computacional se ha logrado cerrar un poco esta brecha. REQUISITOS DEL MSA La implementación efectiva de un AMS requiere que ciertas condiciones sean cumplidas: 1. Establecer las secuencias correctas para llevar a cabo el alineamiento múltiple. 2. Escoger la función objetivo (FO) apropiada. 3. Optimizar dicha función objetivo. Los dos primeros puntos son de carácter netamente biológico, por lo tanto nos centraremos en el análisis del problema computacional propiamente dicho, este es el de la optimización de la FO. Sin embargo antes de entrar de lleno en este punto es importante dilucidar un poco los 2 primeros puntos. La búsqueda de las secuencias correctas para el alineamiento es un punto crucial, del cual depende el resultado de todo el análisis que se esté realizando, pues es necesario que dichas secuencias cumplan con cierto nivel de homología. Por otra parte la FO, es la “meta” a la cual debe llegar nuestro alineamiento y debe responder preguntas como ¿de que manera debe lucir el alineamiento?, o ¿es posible definir sus propiedades esperadas?. La FO debe ser entonces una función en sentido matemático, que permita evaluar la calidad biológica del AMS. Como es de esperar, resulta extremadamente difícil evaluar matemáticamente el sentido biológico de un alineamiento, pues no necesariamente un óptimo matemático, desemboca o representa un óptimo biológico, de manera que para minimizar esta posible fuente de error, es necesario que la función objetivo incorpore toda la información disponible de las secuencias, esto es estructura, función e historia evolutiva. Sin embargo, resulta difícil incorporar estas y otras variables en la FO, o simplemente en la mayoría de casos esta información no está completamente disponible, por esta razón se utiliza la idea de similaridad3 como fuente de información para la función objetivo.

Alineamiento local y global Definimos como alineamiento global, a aquel alineamiento que sehace para buscar el mayor número de coincidencias entre dos secuencias a lo largo de toda su longitud. Un alineamiento local busca el mejor segmento alineado entre dos secuencias. Una manera de aproximarnos de manera sencilla a una FO, es tomando como ejemplo uno de los algoritmos más conocidos para alineamiento local de secuencias: Smith y Waterman. ya que este es un modelo básico que ha sido reimplementado para acomodarse a las exigencias de otros tipos de alineamiento: Dadas las Secuencias A,B: A= a1,a2….an B=b1,b2…bn Se realizan las siguientes Definiciones:

• Una función de coincidencias que se den entre los elementos de las dos secuencias.

• Si es necesario abrir “huecos” (gaps), es decir no aparear ciertos elementos de la secuencias5 para

lograr mejores alineamientos, se debe penalizar dicha acción. De esta manera un gap de longitud K se penaliza con un peso Wk.

• Construcción de una matriz H de n+1 filas y m + 1 columnas de tal manera que la secuencia A se

ubique en las filas y la B en las columnas. Computacionalmente tratamos las dos secuencias biológicas (sean estas de aminoácidos o residuos nucleotídicos), como cadenas de texto, y es la función objetivo la que de alguna manera se encarga del significado biológico, así se pueden realizar búsquedas de patrones entre estas dos o más cadenas. El lineamiento general del algoritmo es el siguiente: 1.- Se inicializa la matriz H con ceros. 2.- La posición Hij es la máxima similitud de dos segmentos que terminan en aii y bj respectivamente, el segmento mejor alineado se obtiene de la matriz H ubicando en esta matriz la posición con el valor más alto y por medio de un procedimiento de “traceback” se recuperan los residuos que conforman el segmento. Esta recuperación se detiene cuando se encuentra un 0 (cero) en la diagonal de la matríz.

En este caso el máximo puntaje para la matriz H es de 3,3 el cual se encuentra en la posición de 10,8. Una vez definido este lugar de máximo puntaje se realiza un recorrido de la matríz hacia atrás, siguiendo los lugares de mayor puntaje (negrilla), hasta que nos encontramos con un valor 0,0 el cual en este caso se encuentra en la posición 3,2. De esta manera el segmento de secuencia alineado localmente es: PENALIZACIONES Cuando se realiza un alineamiento de secuencias, lo que realmente se quiere evaluar es si dicho alineamiento es o no significativo, es decir si el nivel de similaridad entre las secuencias se debe realmente a una relación funcional o evolutiva y no a una mera coincidencia. Como vimos anteriormente esto se realiza mediante la implementación de una función objetivo, sin embargo existe una parte de la implementación de esta que bien merece un poco más de atención, y es el sistema que utilizamos para penalizar una coincidencia o no coincidencia entre dos o más secuencias en cada una de las posiciones minj, / * siendo m y n nuestras secuencias a alinear, esto se realiza mediante la utilización de una matríz de sustitución. Una matríz de sustitución es una tabla de valores que describe la probabilidad de que un residuo 7 de la secuencia m en la posición i tenga ocurrencia en la secuencia n en la posición j. Existen por lo tanto matrices de sustitución para ADN y proteínas, sin embargo las más utilizadas son las matrices para sustitución de aminoácidos (proteínas) ya que la gran mayoría de análisis se realizan con este tipo de secuencias, incluso cuando lo que se requiere es encontrar un nivel de similaridad entre dos secuencias de ADN8. La matríz más sencilla es entonces aquella que evalúa de manera binaria si un residuo en la Posición mi

es o no idéntico al residuo en la posición nj. Otra manera de evaluar la ocurrencia de residuos nucleotídicos es mediante una matríz que evalue las ocurrencias dado que se halla cambiado una purina por una pirimidina o viceversa (transiciones/transversiones):

Las matrices de sustitución para proteínas son un poco más complejas, y los valores en una matríz de este tipo son logaritmos del radio de dos probabilidades (ecuación 1), la primera es la probabilidad de una ocurrencia aleatoria de un aminoácido en el alineamiento (este valor es el producto de las frecuencias de ocurrencia independientes de cada aminoácido). La segunda es la probabilidad de una ocurrencia significativa de un par de residuos en un alineamiento. Estas probabilidades se derivan de alineamientos ya conocidos y de los cuales se sabe que son significativos. Calificación de alineamiento en secuencias protéicas Al momento de realizar o implementar un algoritmo para alineamiento de secuencias, se debe tener en cuenta que este debe conocer la manera de discernir entre la probabilidad de que el apareamiento de dos residuos se halla dado por casualidad o por una verdadera relación evolutiva. De esta manera el logaritmo del radio de las dos probabilidades mencionadas anteriormente es positivo si la probabilidad de ocurrencia significativa es mayor, así entre más positivo sea el puntaje, podemos asumir que más significativo es el alineamiento. Las matrices de sustitución son complejas en gran medida, pues reflejan la naturaleza química y frecuencia de ocurrencia de los aminoácidos. Claro está que en un momento dados se podría evaluar la ocurrencia de un aminoácido en una posición dada de manera similar a como se haría con las secuencias de ADN, pero este método es raramente empleado y se debe al hecho de que existen mayores probabilidades de que ciertos aminoácidos sustituyan a otros en virtud de sus propiedades fisicoquímicas, y esto es precisamente lo que tratan de evaluar la matrices de sustitución para secuencias protéicas. PAM (Point Accepted Mutation) y BLOSUM (Blocks Substitution) son las matrices de sustitución más utilizadas para análisis de este tipo. Las matrices PAM son escalonadas de acuerdo a un modelo de distancia evolutiva a partir de alineamientos de secuencias estrechamente relacionadas, de esta manera una “unidad PAM” equivale a un cambio promedio del 1% en todas las posiciones aminoacídicas. Las matrices BLOSUM se derivan de la base de datos BLOCKS, un set de alineamientos desprovistos de gaps de familias de proteínas relacionadas. Mediante un sistema de agrupamiento (clustering) se organizan las secuencias en bloques de grupos relacionados, y las frecuencias de sustitución entre estos dentro de una familia se deriva de la probabilidad de una sustitución significativa. Los valores numéricos asociados a una matríz BLOSUM (por ejemplo 62), representa el valor de corte (cutoff) cuando se está realizando el agrupamiento. De esta manera un valor de 62 significa que las secuencias fueron puestas en un mismo grupo si su nivel de similaridad era mayor a 62 %. Desde el punto de vista biológico un valor de corte más bajo implica escalas de tiempo evolutivo mucho más largas, así una matríz BLOSSUM 50, por ejemplo, sería óptima para la búsqueda de relaciones más distantes entre las secuencias: En la Tabla 1 podemos ver por ejemplo que el ácido glutámico (E), tiene un puntaje positivo cuando es sustituido con el ácido aspártico (D), o con glutamina (Q). Estas dos sustituciones son de tipo conservativo y obedecen a similaridades en las propiedades fisicoquímicas de estas moléculas. Los puntajes en la diagonal dejan ver la frecuencia de ocurrencia de cada aminoácido, por ejemplo con un valor positivo de 15, es extremadamente improbable que el alineamiento de un raro triptófano (W), con otro triptófano sea coincidencia. GAPS Este es otro aspecto importante de las penalizaciones en el alineamiento de secuencias, ya que estas cambian no solo por mutaciones puntuales, sino por inserciones y/o deleciones, entonces se hace necesario algunas veces introducir gaps en las secuencias que estamos alineando, de manera que podamos obtener un mejor alineamiento. La penalización de estos gaps está íntimamente ligada al tipo de matríz que se está utilizando, por ejemplo en BLOSUM 62 es común utilizar valores de -11 y -1 para la apertura y la extensión de gaps respectivamente, mientras que BLOSUM 50 utiliza valores de -12 y -1.

MSAs y la optimización de la función objetivo Este es el punto que toca realmente el problema computacional y parte de que los MSAs tiene una importante particularidad, y es que su complejidad se eleva exponencialmente de acuerdo al número de secuencias a analizar. De esta manera cada vez que sumamos una secuencia al alineamiento múltiple, estamos elevando en un grado un polinomio, de tal manera que la cantidad de tiempo y recursos de hardware necesarios para alinear simultáneamente 4 secuencias, equivale a la resolución de un polinomio de grado 4, lo que representa una ardua tarea. Por esta razón es que la mayoría de aproximaciones al MSA consiste en realidad de alineamientos sencillos, cuyo resultado se alinea con una nueva secuencia y así sucesivamente, arrojando resultados de manera heurística y nunca se alinean más de dos secuencias a la vez, este tipo de algoritmos se basan en métodos extraídos de la programación dinámica, y son clasificados como progresivos. Como es de esperar este es un campo en bioinformática que se encuentra en pleno desarrollo e intensa investigación, y gracias a esto se han desarrollado otros tipos de aproximaciones al problema, las cuales implementan Modelos ocultos de Markov (HMMs), o procesos iterativos complejos. De esta manera siguiendo la clasificación propuesta por Notredame, resulta útil clasificar los algoritmos utilizados en MSAs en 3 ramas, de acuerdo al “sistema” de programación implementado: 1. Algoritmos progresivos. 2. Algoritmos exactos. 3. Iterativos. Algoritmos exactos Este tipo de algoritmos son bastante interesantes, pues tratan de mejorar las incorrecciones propias de la heurística de los algoritmos progresivos, pero cuentan con las mismas complicaciones que mencionábamos anteriormente: la imposibilidad de alinear más de tres secuencias al mismo tiempo, sin el uso extensivo de grandes recursos de memoria y tiempo10. Para resolver este inconveniente se ha implementado con mediano éxito el algoritmo DCA (Divide and Conquer Algorithm), que corta las secuencias en sets más pequeños los cuales se alinean y son reensamblados por el DCA mismo.

Algoritmos iterativos Estos algoritmos se basan en la idea de que la solución a un problema dado se puede computar modificando una “solución sub-óptima” ya existente, donde cada paso de la modificación es una iteración. Este tipo de algoritmos pueden ser completamente estocásticos (Ej. HMMER) o no estocásticos (ej. AMPS). Algoritmos progresivos Como fue mencionado anteriormente este tipo de algoritmos son ampliamente utilizados, debido a su simpleza y alta efectividad, medida esta como la poca utilización de recursos, el poco tiempo empleado y los resultados con un nivel de acierto muy aceptable. Su debilidad se basa en el hecho de que los resultados arrojados por este tipo de algoritmos son de índole heurística, de tal manera que siempre tendremos resultados aproximados.

DEBIDO A LA COMPLEJIDAD DE CREAR ESTA SECCIÓN VA SER SUPER IMPORTANTE TU APORTE, YA QUE MUCHOS ALUMNOS NO MANEJAN NINGUN CONCEPTO COMPUTACIONAL, Y ALGUNOS PARA ALGUNOS ALUMNOS AUN ES DIFICIL MANEJAR ALGUNOS CONCEPTOS BIOLOGICOS, FISICOS, ESTADISTICOS, QUIMICOS Y MATEMATICOS, QUE SON DE GRAN IMPRTANCIA PARA PODER ENTENDER ESTA CIENCIA YA QUE COMO HEMOS VISTO PARA PODER APLICARLA DE LA FORMA CORRECTA ES IMPORTANTE SABER UN POCO DE CADA CIENCIA. ES POR ESTO QUE NOSOTROS NOS DIRIJIMOS A USTEDES PIDIENDOLES LO SIGUIENTE:

1) CUALQUIER DUDA O CONSULTA DE ALGUN TERMINO EN ESPECIAL PUEDES ENVIARNOS UN MAIL Y EN LA PROXIMA REVISTA ESTA SERA CONTESTADA Y SI ES POSIBLE TU RESPUESTA SERA ENVIADA DE INMEDIATO.

2) SI QUIERES HACER ALGUNA SUGERENCIA DE ALGUN TEMA A TRATAR EN ESTA SECCION TAMBIEN LO PUEDES HACER. (YA SEA ALGUNA APLICACIÓN O ALGUNA HERRAMIENTA BIOINFORMATICA QUE NECESITES SABER USAR, SOLO ENVIANOS TU CONSULTA).

3) LA ESTRUCTURACION DE ESTA SECCIÓN PARTE CON UN ENTENDIMIENTO DE ALGUNOS CONCEPTOS BASICOS, QUE SE IRAN TRATANDO MAS ESPECIFICAMENTE A FUTURO, YA SEA CON HERRAMIENTAS BIOINFORMATICAS DISPONIBLES EN LA WEB U OTRAS QUE TU PUEDAS BAJAR A TU PC.

4) PROXIMAMENTE ESTA SECCIÓN ADEMAS SERA APOYADA POR BIBLIOGRAFIA, SI TU QUIERES APORTAR CON ALGO O CONSIDERAS QUE HAY ALGUN TERMINO QUE ESTA MAL APLICADO, SE PUEDE PONER EN DISCUSIÓN PARA QUE TODOS VAYAN APRENDIENDO Y ENTENDIENDO ESTA CIENCIA.

5) ESPERAMOS POR ULTIMO QUE PARTICIPES Y NOS AYUDES A DESARROLLAR ESTA SECCION COMO DEBE SER.

PERSONAJE DEL MES

Nombre IUPAC : Arturo santibañez Isotipos : Cocido, Cochino, batusai, epidemia, capitan cavernicola, bacteria, cojirro, jirro, etc. Medio : La torre, en el Balmaceda, en el ex-barco, y en cualquier otro lugar donde se pueda tomar. Características : Un poco inquieto, sin ningun rumbo (todo el día), Localización subcelular: En la oficina. (es otro empresario de nuestra universidad) Frase típica : Por motivos de que cocido habla en otro idioma no pudimos colocar muchas frases. (idioma de cocido: el indisnai X). Frases Traducidas al español de cocido: Hola po jirra Me excitan las francesas Odio los gatos. L.Q.N.S.Vio : Nada si todo lo que hace quiere que lo vean (es mas posero). L.Q.N.S.Supo : Hablandole a las estrellas con el pajaro en la mano y una jirra al lado, echando la cortada en el ascensor de la U, que se baña y se lava cuando va a santiago (alguien lo obligara). Regalo útil : Una mina que se parezca a la gabriela, un jabon, un cepillo de dientes. Mayor virtud : Inquietud, simpatia, sincero, confiable (las tiene todas).

MEMORIAS DEL PERSONAJE

COMENZARON LAS ACTIVIDADES EN NUESTRA CARRERA, CON UN NUEVO GRUPO DE ESTUDIANTES PARTICIPANDO………

ALGUNOS SE PREPARAN PARA EL 30 DE ABRIL DEL 2004 , DONDE NOS VEREMOS LAS CARAS NUEVAMENTE “CON LA NOCHE DE TALENTOS”….