2008 Avances

19
LOS 10 LOGROS CIENTÍFICOS MÁS RELEVANTES DE 2008 La revista Science ha publicado una lista con los que, en su opinión, son los 10 logros científicos más importantes del año 2008. 1) Encabeza la lista la investigación en reprogramación celular , un método que produce líneas celulares “a la carta” reprogramando las células del paciente enfermo. Tal y como dijo el subeditor de noticias de Science, Robert Cootz: “nuestra primera opción, la reprogramación celular, ha abierto un nuevo campo de la biología casi de la noche a la mañana, y es un avance médico que nos trae grandes esperanzas de salvar vidas”, Los otros nueve logros del ranking son: 2) Exoplanetas: Empleando técnicas telescópicas especiales, los astrónomos han sido capaces por primera vez de observar directamente planetas orbitando otras estrellas. 3) Expandir el catálogo de genes del cáncer: Los investigadores han sido capaces de secuenciar los genes de las células de dos de los cánceres más mortíferos: el cáncer de páncreas y el glioblastoma. Estos cánceres ponen en marcha docenas de mutaciones que “dejan sin frenos” a la división celular y hacen que la célula inicie la senda tumoral. 4) Nuevos materiales misteriosos: Se ha descubierto una segunda familia completa de superconductores de alta temperatura. Estos materiales se forman mediante compuestos de hierro y no de cobre y oxígeno. 5) Ver a las proteínas trabajando: Para los bioquímicos fue una sorpresa placentera observar a las proteínas uniéndose a sus objetivos , conectando un estado metabólico celular y contribuyendo a las propiedades del tejido. 6) Hacia la energía renovable a demanda: Para poder almacenar el exceso de energía generado por fuentes discontinuas como el viento y el sol, los investigadores han encontrado una nueva y prometedora herramienta, un catalizador de cobalfo y fósforo . 7) El embrión en vídeo: En el año 2008, los investigadores observaron con detalles sin precedentes, la danza de las células en un embrión en desarrollo , registrando y analizando los rastros de los movimientos de las casi 16.000 células que componen el embrión de un pez cebra al final del primer día de desarrollo. 8 ) Iluminan la grasa “buena”: Los científicos han sido capaces de transformar la grasa marrón “buena” (que quema la grasa blanca “mala” para generar calor para el cuerpo) en músculos y viceversa. Esto ha conducido a nuevos enfoques para tratar la obsesidad. 9) Calcular el peso del mundo: Los físicos han logrado con éxito calcular la masa del protón y del neutrón a partir del modelo estándar, el cual describe a la mayor parte de las partículas visibles del universo y a sus interacciones.

Transcript of 2008 Avances

LOS 10 LOGROS CIENTÍFICOS MÁS RELEVANTES DE 2008 La revista Science ha publicado una lista con los que, en su opinión, son los 10 logros científicos más importantes del año 2008.

1) Encabeza la lista la investigación en reprogramación celular, un método que produce líneas celulares “a la carta” reprogramando las células del paciente enfermo.

Tal y como dijo el subeditor de noticias de Science, Robert Cootz: “nuestra primera opción, la reprogramación celular, ha abierto un nuevo campo de la biología casi de la noche a la mañana, y es un avance médico que nos trae grandes esperanzas de salvar vidas”, Los otros nueve logros del ranking son:

2) Exoplanetas: Empleando técnicas telescópicas especiales, los astrónomos han sido capaces por primera vez de observar directamente planetas orbitando otras estrellas.

3) Expandir el catálogo de genes del cáncer: Los investigadores han sido capaces de secuenciar los genes de las células de dos de los cánceres más mortíferos: el cáncer de páncreas y el glioblastoma. Estos cánceres ponen en marcha docenas de mutaciones que “dejan sin frenos” a la división celular y hacen que la célula inicie la senda tumoral.

4) Nuevos materiales misteriosos: Se ha descubierto una segunda familia completa de superconductores de alta temperatura. Estos materiales se forman mediante compuestos de hierro y no de cobre y oxígeno.

5) Ver a las proteínas trabajando: Para los bioquímicos fue una sorpresa placentera observar a las proteínas uniéndose a sus objetivos, conectando un estado metabólico celular y contribuyendo a las propiedades del tejido.

6) Hacia la energía renovable a demanda: Para poder almacenar el exceso de energía generado por fuentes discontinuas como el viento y el sol, los investigadores han encontrado una nueva y prometedora herramienta, un catalizador de cobalfo y fósforo.

7) El embrión en vídeo: En el año 2008, los investigadores observaron con detalles sin precedentes, la danza de las células en un embrión en desarrollo, registrando y analizando los rastros de los movimientos de las casi 16.000 células que componen el embrión de un pez cebra al final del primer día de desarrollo.

8 ) Iluminan la grasa “buena”: Los científicos han sido capaces de transformar la grasa marrón “buena” (que quema la grasa blanca “mala” para generar calor para el cuerpo) en músculos y viceversa. Esto ha conducido a nuevos enfoques para tratar la obsesidad.

9) Calcular el peso del mundo: Los físicos han logrado con éxito calcular la masa del protón y del neutrón a partir del modelo estándar, el cual describe a la mayor parte de las partículas visibles del universo y a sus interacciones.

10) Secuenciación del genoma más rápida y barata: Los investigadores han sido capaces de encontrar una tecnología de secuenciación mucho más económica y veloz. La técnica puede aplicarse a todo, desde mamuts lanudos hasta humanos enfermos de cáncer.

Lás áreas de interés para el próximo 2009 pasarán por el genoma de las plantas, el esquivo bosón de Higgs, la especificación de genes, la acidificación de los océanos y el papel de la neurociencia en los juicios.

Traducido de 2008 Top Ten Scientific Breakthroughs

PARA CREAR CÉLULAS PLURIPOTENTES

La técnica de reprogramación celular, más simple y menos peligrosa

• Emplea dos de los cuatro factores necesarios hasta el momento para el proceso

• Uno de los elementos descartados es cancerígeno • Con este avance su uso clínico está un paso más cerca

Actualizado martes 15/07/2008 20:15 CRISTINA DE MARTOS

MADRID.- No son formalmente células madre embrionarias pero se parecen mucho. Tienen una morfología similar y lo más importante, lo que genera tanta expectación, la misma capacidad de diferenciarse en cualquier tipo de tejido. Las iPS, sus siglas en inglés, se crearon por primera vez hace dos años gracias a la reprogramación celular. El último número de la revista 'Nature' recoge un importante avance para que algún día puedan tener una aplicación clínica.

Para muchos podrían ser la alternativa a la controvertida clonación. Las iPS, o células de pluripontencialidad inducida, se obtienen a partir de una célula madre somática –las que están en los tejidos, como la piel o el sistema nervioso-. La técnica, llamada reprogramación, consiste en introducir en dicha célula una serie de factores que hacen que ésta sea capaz de diferenciarse en todo tipo de tejidos. Es, en pocas palabras, retroceder un escalón en la evolución celular.

Dos años atrás, se reprogramaron con éxito células de ratón y hace unos meses dos equipos de investigadores demostraron que la técnica funcionaba en humanos al transformar células de la piel en células madre como las embrionarias (iPS). El logro del estudio publicado ahora en 'Nature' es haber simplificado esa técnica acercándola un poco más a su posible uso clínico.

El procedimiento, tal y como lo describen los autores, es "sencillo". En este caso, los científicos del Instituto Max Planck de Münster y del RWTH de Aquisgrán (Alemania) tomaron células madre neurales (del sistema nervioso) de ratón. La elección no fue azarosa. Dos de los factores empleados en los estudios anteriores para lograr la reprogramación se expresan en mayor cantidad en este tipo celular por lo que los investigadores pensaron que tal vez podrían prescindir de ellos.

Y así fue. Primero probaron suerte, en distintas combinaciones, con el cóctel de cuatro factores de transcripción usados en trabajos previos: Oct4, Sox2, Klf4 y c-Myc (este último, cancerígeno). Luego lo hicieron con sólo tres factores y, por último, con parejas. Dos díadas tuvieron éxito y su hipótesis se confirmó. Gracias a la expresión endógena de Sox2, fue posible reprogramar las células añadiendo sólo Oct4 junto con Klf4 o con c-Myc.

“Hemos demostrado un nuevo principio básico: existe una población celular en ratones (células madre neurales) que expresan de forma endógena ciertos factores que formaban parte del famoso 'cóctel reprogramador'", explica a elmundo.es Hans Schöler, investigador del Instituto Max Planck. De esta manera, dos de estos factores son suficientes para el proceso.

Dos mejor que cuatro

Las iPS resultantes tenían una morfología idéntica y propiedades similares a las células madre embrionarias, según el estudio. Además, mostraron su pluripotencialidad 'in vitro' e 'in vivo'.

La primera ventaja de esta técnica reside en la posibilidad de renunciar a c-Myc, un factor de transcripción con capacidad para generar tumores. Librarse de él "nos acerca a la generación de iPS válidas para ser trasplantadas [en humanos]", apuntan los autores dirigidos por Schöler y Martin Zenke.

La introducción de dos en lugar de cuatro factores es también positiva porque se reduce el número de virus que penetran en el ADN de la célula –cada factor lleva uno de estos microorganismos como vehículo de entrada-. Así, disminuye mucho el riesgo de mutaciones que supone la 'mezcla' del ARN viral con el ADN celular.

El último escollo a salvar son precisamente estos virus. "Una solución es reemplazar estos 'taxis virales' por pequeñas moléculas", explica Schöler. Éstas actuarían reactivando los genes necesarios para el proceso, como Oct4, o haciendo que se volvieran más activos.

"Ahora habrá que trasladar estos resultados a células humanas. Aún debemos averiguar qué tipo celular es el más adecuado", concluye el autor.

Por primera vez observan directamente a exoplaneta El telescopio espacial Hubble ha tomado por primera vez una fotografía directa de un planeta fuera de nuestro sistema solar.

Escrito por José Ojeda.

15/11/2008.

La estrella Fomalhaut ha sido un fuerte candidato para la búsqueda de exoplanetas desde los años 80, por la gran cantidad de polvo que contiene en sus alrededores, detectado por el satélite IRAS. Varios años después, en el 2004, el telescopio espacial Hubble tomó una imagen detallada de este cuerpo astronómico, encontrándose con un disco protoplanetario de 230 unidades astronómicas de radio.

La existencia de Fomalhaut b se hace evidente al comparar las observaciones del año 2004 y 2006 (NASA).

El astrónomos Paul Kalas de la Universidad de California en Berkeley, y sus colegas, propusieron en el año 2005 que el disco de Fomalhaut estaba siendo gravitacionalmente modificado por causa de un planeta aún no detectado en ese entonces. Otros investigadores también llegaron a la conclusión de que el disco protoplanetario estaba afectado por un cuerpo no avistado, dadas las características de la parte interna de este. Dada la fundada posibilidad de la existencia de este planeta, los científicos usaron nuevamente el Hubble para obtener más imágenes, para así conseguir una serie de fotografías que permitiesen ver algún cambio notable en el disco. Al ser comparadas las imágenes, apareció un pequeño cuerpo que claramente tenía una órbita cerrada en torno a la estrella, el cual fue llamado 'Fomalhaut b', que corresponde a un planeta extrasolar que está a 19 unidades astronómicas de su estrella. Se cree que posee 3 masas jupiterianas, pero es demasiado brillante como para poseer esa masa, por lo que se ha propuesto que posiblemente es que posea anillos de cristales de hielo - tal como Saturno - que son más eficientes en la reflexión de luz. Futuras observaciones intentarán ver al planeta en luz infrarroja para encontrar evidencia de vapor de agua en las nubes de su atmósfera. También se emplearán técnicas astrométricas para deducir con mayor precisión la masa del cuerpo.

TRES IMPORTANTES ESTUDIOS

Descifrados los mapas genéticos de los dos cánceres más mortales

• La ausencia de un agente causal principal ha 'decepcionado' a los investigadores

• Los hallazgos sugieren que hay varios 'botones' que desencadenan estas patologías

Antonio Jimeno (izqda.) y Manuel Hidalgo (dcha.) (Foto: Grupo Hospital de Madrid | J.L. Serna) Actualizado jueves 04/09/2008 20:00 CRISTINA DE MARTOS

MADRID.- Como ya hiciera en 2006 con el cáncer de mama y de colon, un equipo de investigadores ha elaborado un mapa genético del carcinoma de páncreas y del glioblastoma multiforme (un agresivo tumor cerebral). Los resultados han revelado la enorme complejidad de estas patologías, en las que están implicados más genes de lo que en principio se pensaba, y han dado un giro a la forma de entender y enfrentarse a ellas.

"La idea de que todos los tumores tienen su talón de Aquiles no es correcta", ha explicado a elmundo.es Manuel Hidalgo, director del Centro Integral de Oncología Clara Campal, miembro de la Universidad Johns Hopkins (Estados Unidos) y colaborador en el trabajo del carcinoma pancreático. En lugar de eso, Hidalgo y sus colegas, entre los que hay otro español, el oncólogo Antonio Jimeno, han identificado varios genes implicados en la carcinogénesis. "Durante 20 años hemos trabajado con cuatro genes en el manejo del cáncer de páncreas", añade Hidalgo, "y ahora tenemos casi 70 de los que aún hay que averiguar su verdadera implicación en esta enfermedad. Estamos un poco decepcionados porque no hemos dado con un gen clave".

Gracias a la meticulosa metodología empleada por investigadores dirigidos desde el Centro Kimmel se han identificado los genes que están involucrados en la aparición del cáncer de páncreas y del glioblastoma multiforme (GBM). Una información que, en opinión de los autores, podría tener implicaciones clínicas importantes, aunque también reconocen que los resultados dejan un panorama "desesperanzador", ya que ponen de manifiesto la tremenda complejidad que envuelve a los procesos oncológicos.

Sus trabajos comenzaron con 24 muestras de adenocarcinoma pancreático avanzado y 22 de GBM. Tras una primera secuenciación, se identificaron más de 20.000 genes pertenecientes a cada uno de los tumores.

Después había que averiguar cuáles de ellos no eran normales y, de esos, cuáles podrían desempeñar un papel crucial en el desarrollo neoplásico. En el caso del cáncer de páncreas, el complejo proceso -detallado en las páginas de la revista 'Science'- culminó con la detección de 63 alteraciones genéticas comunes a la mayor parte de las muestras analizadas. Casi todas las mutaciones eran polimorfismos de un único nucleótido, algo similar a cambiar una letra (que sería el nucleótido) de una palabra (el gen) por otra.

Son los procesos más que los genes

"No esperábamos que muchos de estos genes estuvieran alterados", ha explicado uno de los autores, Kenneth Kinzler, profesor de oncología de la Universidad Johns Hopkins. "Lo más importante es que hemos observado cómo actuaban estos genes y hemos visto que su mutación individual no es demasiado frecuente".

Kinzler y sus colegas han descubierto que las alteraciones genéticas se podían agrupar en 12 vías de señalización o procesos celulares, que estaban modificados en algún lugar en un elevado porcentaje de los tumores estudiados. Es decir, hay ciertas cadenas de señales que suelen presentar algún error en su recorrido en la mayor parte de los cánceres de páncreas aunque no necesariamente siempre en el mismo punto. Entre el 67% y el 100% de los tumores estudiados tenía cambios en procesos relacionados con el control del daño del ADN, la apoptosis o la invasión tumoral.

La fotografía que deja el análisis del glioblastoma multiforme (el tumor del que ha sido operado recientemente el senador estadounidense Ted Kennedy) "es muy similar a las observadas en el cáncer de mama, colon y páncreas", explica Victor Velculescu, oncólogo de la Johns Hopkings, en una entrevista con elmundo.es. Una vez más, "estos genes parecen formar parte de un reducido número de vías de señalización", añade Velculescu. Sus hallazgos se corresponden con los de otro trabajo desarrollado en el marco del proyecto El Atlas del Genoma del Cáncer, que publica simultáneamente la revista 'Nature'.

Con una salvedad, la investigación del equipo de Velculescu y Kinzler incluía muestras de glioblastomas primarios y secundarios, dos subtipos de este tumor. Un gen llamado IDH1, relacionado con el estrés oxidativo, estaba alterado en un porcentaje significativo de las muestras. Un análisis más profundo reveló que los pacientes portadores de esta mutación eran más jóvenes, padecían la forma secundaria del trastorno y tenían mejor pronóstico.

"Comprender este nuevo paisaje de los tumores cambiará nuestra visión acerca del desarrollo del cáncer. Solíamos pensar que había genes con un alto grado de mutación responsables de la génesis del tumor pero lo que ahora vemos es que hay muchos genes alterados cada uno de los cuales es responsable de una pequeña fracción de ese cáncer", señala Kinzler. Manuel Hidalgo habla de un "panorama muy complejo", que deja entrever una heterogeneidad de las neoplasias mucho mayor de la esperada, que dificulta el desarrollo de terapias generalizables.

Nueva familia de superconductores

Miércoles, 30 de Abril de 2008

Logran sintetizar diversos compuestos de una nueva familia de superconductores de alta temperatura crítica. Quizás ayuden a explicar este fenómeno superconductivo o proporcionen nuevas aplicaciones prácticas.

Estructura cristalina de uno de los nuevos superconductores basados en hierro. Dibujo: Takatoshi Nomura y colaboradores.

Los superconductores son materiales que conducen la corriente eléctrica sin pérdida cuando están por debajo de cierta temperatura. Los superconductores tradicionales realizan esto cuando su temperatura está muy cerca del cero absoluto. Pero en 1986 se descubrió una familia de superconductores basada en cupratos (óxidos de cobre), como el YBaCuO, que hacían esto mismo a una temperatura relativamente alta (hasta la última marca de 138 K), de tal modo que bastaba nitrógeno líquido (que hierve a 79 K) para que se tornaran superconductores. A pesar de su naturaleza cerámica y lo difícil que es trabajar con ellos se han encontrado algunas aplicaciones prácticas a los mismos. Se cree que los planos de cobre-oxígeno del YBaCuO son los que proporcionan la superconductividad a este tipo de materiales. Pero la explicación última del mecanismo que hay detrás de estos materiales y que les hace superconductores a alta temperatura (relativa) ha traído de cabeza a los físicos desde entonces. Todavía hoy día no hay unanimidad a la hora de explicar su comportamiento, siendo uno de los grandes misterios que hay actualmente en Física. Ahora investigadores japoneses y chinos han descubierto una nueva familia de superconductores de alta temperatura de una composición distinta. Quizás estos nuevos materiales, aunque de menor temperatura crítica (de momento), puedan ayudar a entender este fenómeno. También hay físicos teóricos afirmando que la importancia de la nueva familia será más relevante si se comportan de un modo distinto a los cupratos, ya que si hubiera un nuevo mecanismo detrás del fenómeno de la superconducción sería más fascinante a los ojos de estos. La superconductividad tradicional (descubierta en 1911) puede explicarse mediante la existencia de pares de Cooper. Cuando las temperaturas son muy bajas aparecen los pares de Cooper. Éstos son asociaciones de dos electrones que se mantienen unidos gracias a fonones, que son vibraciones de la red. La atracción mediada por fonones entre estos electrones de spines opuestos es mayor que la repulsión entre sus cargas. Los pares de Cooper son bastante más grandes que el espaciado interatómico de la red cristalina y todos ellos se comportan como un todo que puede avanzar a través de la red sin esfuerzo, por lo que la resistencia eléctrica desaparece. Los fonones son por tanto fundamentales para la superconducción tradicional. A una temperatura relativamente alta (a la temperatura crítica) se terminan destruyendo todos los pares de Cooper y, por tanto, el estado superconductor desaparece.

Pero este mecanismo de fonones no puede explicar los superconductores basados en cupratos que desde hace más de 20 años se viene estudiando. Recientemente se ha propuesto que para estos materiales la superconductividad no está mediada por fonones. En los nuevos materiales no hay cobre (algún investigador ha exclamado que se ha “liberado” de la “tiranía” del cobre en un ataque de excitación), aunque se parecen de algún modo a aquellos, pues la nueva familia tiene planos conductores, aunque de hierro-arsénico. El pasado 23 de febrero Hideo Hosono del Instituto de tecnología de Tokio informó en la revista de la Sociedad Americana de Química que un compuesto de lantano, oxígeno, flúor, hierro y arsénico (LaO1-xFxFeAs) se volvía superconductor por debajo de 26 grados Kelvin. El equipo chino, dirigido por X.H. Chen, de la Universidad de Hefei informó el pasado 25 de Marzo que un compuesto de samario, oxígeno, flúor, hierro y arsénico (SmO1-xFxFeAs) tenía una temperatura crítica de 43K. Tres días más tarde Zhong-Xian Zhao afirmaba haber encontrado un compuesto de praseodimio (PrO1-xFxFeAs) con una temperatura crítica de 52 kelvins. Y el pasado 13 de abril este mismo grupo entraba una temperatura crítica de 55 kelvins en este último compuesto cuando era sometido a presión. Estos nuevos materiales tiene una estructura cristalina muy similar y los cálculos sugieren que las vibraciones de la red o fonones no proporcionan el mecanismo superconductivo. El descubrimiento de esta nueva familia ha cogido por sorpresa a los investigadores del campo, ya que la naturaleza magnética del hierro debería de interferir en la formación de pares de Cooper. Quizás las fluctuaciones del spin jueguen un papel importante en este caso como se cree que lo hace en los cupratos, aunque quizás en este caso este mecanismo no sea suficiente. Otras especulaciones (de momento no hay otra cosa) hablan de fluctuaciones orbitales. La cuestión es si estos superconductores se comportan de la misma manera en la que lo hacen los superconductores basados en cupratos. Ambos tienen estructuras planares por donde circulan los electrones, exhiben antiferromagnetismo y son malos conductores por encima de la temperatura crítica, pero el estado electrónico de los nuevos surge de dos electrones de los iones de hierro en lugar de uno en los iones de cobre. La síntesis de estos materiales y los que quedan por llegar traerá sin duda mucha excitación al mundillo de la superconductividad. Además de hacernos pensar sobre la naturaleza de la superconductividad a alta temperatura, este descubrimiento nos haga plantearnos si hay otras familias de superconductores de alta temperatura que funcionen a temperaturas muy superiores. Una ventaja de los nuevos superconductores es que son más fáciles de fabricar y manufacturar que los cupratos, cuya naturaleza cerámica les confiere mucha fragilidad. Los avances en superconductores basados en cupratos han sido muy pocos en los últimos años. Si se aumentara la temperatura crítica en los recientemente descubiertos desbancarían a los cupratos como materiales comerciales. Incluso se podría soñar con trenes de levitación magnética comerciales viables económicamente, envío de energía eléctrica a gran distancia sin perdida, etc. Mientras tanto siempre podremos soñar con superconductores a temperatura ambiente.

Fuentes y referencias: - Crystallographic Phase Transition and High-Tc Superconductivity in LaOFeAs:F - Superconductivity at 55 K in iron-based F-doped layered quaternary compound Sm[O1-xFx]FeAs. - Superconductivity at 52 K in iron-based F-doped layered quaternary compound Pr[O1-xFx]FeAs.

Científicos identifican nuevas proteínas en la muerte celular programada

JUEVES, 21 de agosto de 2008 (HealthDay News/Dr. Tango) -- Investigadores de EE. UU. han identificado 170 proteínas más para agregar a las 91 ya conocidas por su relación con la muerte celular programada o apoptosis.

También descubrieron nueva información sobre cómo estas proteínas podrían funcionar. Los hallazgos podrían ayudar en el desarrollo de nuevos tratamientos para el accidente cerebrovascular y muchas otras enfermedades, dijeron los investigadores.

Para este estudio, un equipo del Instituto de investigación Scripps de California utilizó una nueva técnica a la que nombraron PROTOMAP (Plataforma de análisis de migración y topografía de las proteínas) para analizar la proteólisis, el acto por el que las enzimas descomponen las proteínas de mayor tamaño en compuestos más pequeños.

Se cree que más de 500 enzimas están involucradas en la proteólisis, un conductor crítico de la apoptosis y de procesos como la coagulación sanguínea, las enfermedades infecciosas y la aparición del cáncer.

Además de la identificación de 170 proteínas nuevas involucradas en la apoptosis, los investigadores aprendieron más sobre el funcionamiento de estas proteínas.

Se creía que la descomposición de las proteínas durante la proteólisis era un proceso de degradación de las proteínas para su eliminación, y que sólo unos cuantos de los productos descompuestos servían para funciones específicas.

Pero el equipo de Scripps señaló que parece que la mayoría de los productos que resultan de la descomposición de las proteínas sirven para nuevas funciones, y sólo unas pocas son degradadas totalmente.

Apuntaron que las nuevas proteínas identificadas en este estudio deberían estudiarse más a fondo, porque algunas podrían ser buenos objetivos para los medicamentos a fin de tratar afecciones en la que la apoptosis pierde el control, como los accidentes cerebrovasculares, en los que las células son aniquiladas prematuramente.

El estudio aparece en la edición del 22 de agosto de la revista Cell.

Más información

El U.S. National Institute of Neurological Disorders and Stroke tiene más información sobre los accidentes cerebrovasculares.

Artículo por HealthDay, traducido por Dr. Tango -- Robert Preidt FUENTE: Scripps Research Institute, news release, Aug. 21, 2008

(07/31/2008 2:00 PM EDT)

El MIT idea generadores solares que funcionan todo el día

Investigadores del MIT combinaron un catalizador líquido con células fotovoltaicas para conseguir lo que afirman es un sistema de energía solar que podría generar electricidad las 24 horas del día.

El catalizador líquido se añadió al agua antes del proceso de electrolisis para conseguir - en palabras de los investigadores - un 100% de eficiencia. Cuando se combinó este sistema con células fotovoltaicas para almacenar energía químicamente, el sistema energético solar resultante fue capaz de generar electricidad a lo largo del día completo.

“Lo más difícil de separar el agua en sus componentes no es el hidrógeno — el platino funciona muy bien como catalizador con el hidrógeno — sino el oxígeno, ya que el platino funciona de forma muy poco eficiente con él, lo cual obliga a usar mucha más energía”, comentó el profesor de química del MIT Daniel Nocera. “Lo que hemos hecho es conseguir un catalizador para el oxígeno que no necesite una adición de energía extra. De hecho, con nuestro catalizador, casi se consigue emplear el 100% de energía requerida por la electrolisis en descomponer el agua en oxígeno e hidrógeno”.

En la actualidad se emplean catalizadores de óxido de níquel para disparar la eficiencia de los electrolizadores, los cuales funcionan igualmente bien en la formulación del MIT, reconoce Nocera. Pero la toxicidad del óxido de níquel obliga a emplear contenedores de agua caros y sellados herméticamente. No obstante, la formulación del catalizador patentado por el MIT es “ecológico”, dice Nocera, y puede usarse en contenedores abiertos y económicos.

“El óxido de níquel no puede usarse en todas partes, y mucho menos al aire libre por el peligro de corrosión, incluso el dióxido de carbono en el aire reacciona con él para crear carbonatos”, comenta Nocera. “Pero nuestro catalizador usa materiales abundantes que no reaccionan con el medio ambiente.

La formulación patentada por el MIT, a base de fosfato de cobalto, se disuelve en agua. Cuando la corriente pasa a través del agua para iniciar la electrolisis, el catalizador se une al electrodo de oxígeno para incrementar su eficiencia. Cuando se desconecta la electricidad, el fosfato de cobalto se disuelve de nuevo en el agua.

La simplicidad del proceso permite que funcione en electrolizadores muy básicos, comentó el científico.

“Como nuestro catalizador es ecológico, las máquinas que realizan la electrolisis pueden ser mucho más baratas que las empleadas en la actualidad, ya que no necesitan ninguna protección para evitar contaminantes medioambientales”, dijo Nocera.

En la actualidad el MIT trabaja con fabricantes de células fotovoltaicas para incorporar en los sistemas de energía solar métodos de electrolisis que empleen este nuevo catalizador. Combinando ambos, el exceso de capacidad durante el día podría almacenarse en forma de oxígeno e hidrógeno, y recombinarse luego durante la noche mediante pilas de combustibles, cuando fuera necesario.

“Los fabricantes de células solares pueden añadir electrolizadores super baratos a sus sistemas para lograr que funcionen las 24 horas del día, durante el día descomponiendo el exceso en hidrógeno y oxígeno, y durante la noche recombinándolos en pilas de combustible para generar electricidad”, predice Nocera.

Traducido de MIT claims 24/7 solar power (autor: R. Colin Johnson)

http://www.eetimes.com/showArticle.jhtml;jsessionid=UEZMTKS4MJIBKQSNDLRSKH0CJUNN2JVN?articleID=209900956

Las primeras 24 horas de un embrión Escrito por Carlos Dan

Uno de los mecanismos más fascinantes de nuestro cuerpo humano es la reproducción celular. Esta es la clave del desarrollo desde que somos embriones, la primera forma que adopta nuestro organismo y el de cualquier otro animal. Tras el continuar leyendo podrás ver el desarrollo celular de un embrión en tres dimensiones.

El Laboratorio Europeo deBiología Molecular en Heidelberg, Alemania, ha logrado registrar en video el desarrollo del embrión de un pez cebra desde una célula hasta la reproducción en 20.000 de ellas. La técnica utilizada se llama “Digital Scanned Laser Light-Sheet Fluorescence Microscopy”.

El video que puedes ver a continuación muestra el desarrollo del embrión de pez cebra en 24 horas registradas en intervalos de diez minutos registrados gracias a esta innovadora técnica, que además puede ser utilizada en otra clase de animales como ratones, pollos y sapos.

Científicos estadounidenses identifican una hormona que actúa contra la obesidad Las lipoquinas aumentan la sensibilidad a la insulina, necesaria para que la glucosa en sangre entre en las células, y bloquea la acumulación de grasa en el hígado.

Científicos de la Harvard School of Public Health (HSPH) han determinado en ratones qué son las lipoquinas y de qué modo podrían ayudar a paliar dos trastornos relacionados con la obesidad: la resistencia a la insulina y la acumulación de grasa en el hígado.

El hallazgo se publica en la revista Cell. Las lipoquinas son un tipo de hormonas descubiertas recientemente y aún se desconocía de qué molécula se trataba.

Gracias al análisis de centenares de lípidos presentes en la sangre, el tejido adiposo, el músculo y el hígado de los ratones, el equipo del profesor Gökhan Hotamisligil ha conseguido identificar entre todos ellos a las lipoquinas.

Se trata del palmitoleato, un lípido producido por las células adiposas que viaja a través del torrente sanguíneo al músculo y al hígado.

En estos tejidos la hormona mejora dos situaciones asociadas con la obesidad: aumenta la sensibilidad a la insulina (necesaria para que la glucosa en sangre entre en las células) y bloquea la acumulación de grasa en el hígado.

Además de estos efectos, el palmitoleato también detiene la inflamación, un proceso que, según estudios previos realizados por Hotamisligil y otros colaboradores, sería un factor importante para el desarrollo de enfermedades metabólicas.

Para realizar estos experimentos los científicos utilizaron unos ratones transgénicos incapaces de depositar la grasa procedente de la comida, por lo que la grasa que estos animales acumulaban en el tejido adiposo era la que ellos mismo producían.

Los investigadores observaron que esa grasa intensificaba la señal de la hormona recibida por el músculo y el hígado, que mejoraban en consecuencia su sensibilidad a la insulina y la absorción de nutrientes.

Ensayos en ratones

Los ratones manipulados genéticamente resultaron estar más sanos que los normales, seguramente debido a los efectos beneficiosos del palmitoleato sobre el control del metabolismo: no desarrollaron diabetes ni enfermedades cardíacas y tampoco acumularon grasa en el hígado a pesar de estar sometidos a una dieta rica en grasas.

La obesidad se ha convertido hoy en uno de los mayores problemas en las sociedades desarrolladas porque incrementa el riesgo de padecer enfermedades metabólicas como la diabetes o la aterosclerosis, dos alteraciones que incrementan las tasas de mortalidad y morbilidad entre la población.

Si bien los resultados de este estudio están lejos de poder ser aplicados en seres humanos puesto que se debe comprobar primero si el efecto del palmitoleato es tan importante en nosotros como en los ratones, el equipo del profesor cree que si esto fuera así la hormona se podría utilizar para tratar o prevenir esas enfermedades.

Hotamisligil añade que "sería posible estimular químicamente a las células adiposas para que produzcan su propia grasa "buena", con unos efectos beneficiosos sobre el metabolismo gracias al incremento de la señal del palmitoleato".

Confirmado, la materia es básicamente fluctuaciones de vacío

La materia se construye sobre fundamentos frágiles. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interior de los protones y neutrones, que como sabéis son las partículas que aportan casi la totalidad de la masa a la materia común. Cada protón (o neutrón) se compone de tres quarks - véase ilustración - pero las masas individuales de estos quarks apenas comprenden el 1% del total de la masa del protón ¿Entonces de donde sale el resto?

La teoría sostiene que esta masa es creada por la fuerza que mantiene pegados a los quarks, y que se conoce como fuerza nuclear fuerte. En términos cuánticos, la fuerza fuerte es contenida por un campo de partículas virtuales llamadas gluones, las cuales irrumpen aleatoriamente en la existencia para desaparecer de nuevo. La energía de estas fluctuaciones del vacío debe sumarse a la masa total del neutrón y del protón.

Llegar a estos números ha llevado varias décadas. La fuerza fuerte se describe mediante las ecuaciones de la cromodinámica cuántica, o QCD; ecuaciones que son demasiado difíciles de resolver en la mayor parte de los casos.

De modo que los físicos han desarrollado un método llamado enrejado QCD, en el cual se modela un espacio-tiempo liso en forma de rejilla de puntos separados. Este enfoque pixelado permite que las complejidades de la fuerza fuerte puedan simularse con cierta aproximación mediante computadoras.

Los cálculos de Gnarly

Hasta hace poco, los cálculos en el enrejado QCD se concentraban en los gluones virtuales, e ignoraban otros componentes importantes del vacío como los pares de quarks y antiquarks virtuales.

Los pares quark-antiquark pueden emerger y transformar momentáneamente un protón en una partícula diferente y más exótica. De hecho, el verdedero protón es la suma de todas estas posibilidades sucediendo al mismo tiempo.

“Los quarks virtuales hacen mucho más complicados los cálculos, implicando la utilización de una matriz de más de 10.000 billones de números”, comenta el miembro del equipo Stephan Dürr del Instituto John von Neumann de Computación en Jülich, Alemania.

“No existe ninguna computadora en la Tierra que pueda almacenar una matriz numérica tan enorme en su memoria”, comentó Dürr a New Scientist, “así que hemos tenido que hacer algunos trucos para evaluar la masa de un protón”.

La hora de la verdad

Varios equipos han estado pensando en formas de resolver estos problemas técnicos, y hace cinco años, un equipo dirigido por Christine Davies de la Universidad de Glasgow en el Reino Unido, logró calcular la masa de una partícula exótica llamada mesón B_c.

Esa partícula solo contiene dos quarks, lo cual hizo que su simulación fuera más simple que la del protón, que tiene tres quarks. Para operar con protones y neutrones, el equipo de Dürr empleó varios meses de tiempo de trabajo en la red de computadoras en paralelo de Jülich, que puede manejar 200 teraflops (o 200 billones de cálculos aritméticos por segundo).

Incluso así, tuvieron que recortar su código para usar la potencia de la red de forma eficiente. “Realizamos un esfuerzo enorme en asegurarnos de que el código hiciera un uso óptimo de la máquina”, comenta Dürr.

Sin los quarks, las primeras simulaciones arrojaron un error en la masa de un protón en torno a un 10%. Con ellos, Dürr obtuvo un resultado que solo se aleja un 2% del valor medido experimentalmente.

Campo de Higgs

Aunque los físicos ya esperaban que la teoría finalmente coincidiese con los experimentos, se trata de un importante punto de referencia. “Lo mejor es que demuestra que se puede uno aproximar a los experimentos mediante simulaciones informáticas”, comenta Davies. “Ahora que sabemos que el enrejado QCD funciona, queremos hacer cálculos exactos de las propiedades de las partículas, no solo de su masa”.

Eso permitirá a los físicos someter a prueba a la QCD y buscar sus efectos más allá de la física conocida. Por ahora, los cálculos de Dürr demuestran que la QCD describe partículas basadas en quarks de forma precisa, y que la mayor parte de nuestra masa viene de quarks virtuales y gluones que burbujean en el vacío cuántico.

Se cree que el campo de Higgs hace también su pequeña contribución, dando masa a los quarks individuales, así como a los electrones y a otras varias partículas. El campo de Higgs también crea masa a partir del vacío cuántico, en forma de bosones virtuales de Higgs. De modo que si el LHC confirma la existencia del bosón de Higgs, eso significará que toda la realidad es virtual.

Fuente noticia New Scientist (Autor: Stephen Battersby)

Crédito imagen: Wikipedia

Un paso más cerca de la medicina ‘a medida’ para el paciente Hace poco tiempo, la idea de tener acceso a tu propio código genético secuenciado era algo reservado solo a individuos fanáticos de la ciencia, o grandes en ego – y pudientes.

Pero una nueva técnica descrita el pasado jueves en la edición de la revista británica Nature, ha recortado el coste y tiempo en la secuenciación del genoma, lo cual supone un paso importante hacia la medicina “a medida”.

El genoma humano comprende alrededor de tres mil millones de bases de pares, los “peldaños” en la escalera del código químico de la vida.

El Proyecto Genoma Humano (HGP), un consorcio de científicos del sector público, gastó 437 millones de dólares (278 millones de euros) y necesitó 13 años para completar la primera secuenciación del genoma en el año 2003.

El consorcio empató en su carrera contra esa maravilla de la biología llamada Craig Venter, que logró desarrollar un método de secuenciación a “cámara rápida”.

Más tarde, Venter secuenció su propio genoma. Ese proyecto, que se completó el pasado mes de septiembre, costó alrededor de 100 millones de dólares (62,9 millones de euros).

La técnica (de nueva generación), empleada por el Instituto Rothberg para las investigación de enfermedades infantiles del estado de Connecticut (EE.UU.), secuenciará una muestra donada por el premio Nobel James Watson, codescubridor de la doble hélice del ADN.

Esta técnica evita el laborioso y costoso proceso de clonación de la muestra mediante bacterias, que es el fundamento en el que se basan los métodos tradicionales de secuenciación.

En su lugar, la muestra se amplifica directamente mediante un proceso llamado reacción en cadena de la polimerasa (RCP). Luego, se rompe la larga cadena de “peldaños” y se desenmaraña empleando secuenciadores paralelos, tras esto se introducen los datos en una poderosa computadora para que esta los ensamble de nuevo y los analice.

Una vez acabado, conocer el genoma de Watson habrá costado menos de un millón de dólares (629.000 euros) y el tiempo empleado en el proceso será de apenas dos meses, según se afirma en el estudio.

Este enfoque, rápido y barato, “es un hito importante en nuestra habilidad de conectar los ‘genomas personalizados’ con la ‘medicina personalizada’”, comentan sus autores.

Los biólogos trabajan duramente para descifrar el código, buscando la identificación de los genes defectuosos que puedan transferir las enfermedades hereditarias o exponer al individuo a un riesgo mayor de padecer cáncer, adicción al tabaco, obesidad o alcoholismo, por poner algunos ejemplos.

En el futuro, los científicos esperan que cada individuo pueda recibir tratamientos hechos a medida para su genoma, de este modo se maximizarían los beneficios y se minimizarían los efectos secundarios.

Traducido de A genome for everyone takes a step closer to reality