Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y...

43
Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco Noviembre 2010 nº8 Artículos del Dr. Carlos López Otín (iuopa, Universidad de Oviedo) y de los Dres. Josep Llovet y Augusto Villanueva (idibaps, Hospital Clínic) Investigación y Cáncer ENTORNO CIC La ciencia a medida Mesa de Ideas sobre la importancia de la medición en la actividad científica, con Eudald Carbonell, Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona. Proyectos de Investigación Roger Burnett Entrevista con el experto británico en biología estructural

Transcript of Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y...

Page 1: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco

Noviembre 2010 nº8

Artículos del Dr. Carlos López Otín (iuopa, Universidad de Oviedo) y de los Dres. Josep Llovet y Augusto Villanueva (idibaps, Hospital Clínic)

Investigación y Cáncer

ENTO

RNO

CICLa ciencia a medida

Mesa de Ideas sobre la importancia de la medición en la actividad científica, con Eudald Carbonell,

Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona.Proyectos de Investigación

Roger Burnett

Entrevista con el experto británico en biología estructural

Page 2: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Contenidos

«La antesala de los nuevos materiales para la energía», por Jesús María Goiri.

Nicola G.A. Abrescia, investigador de cic biogune, entrevista a Roger Burnett, científico británico de referencia internacional en el ámbito de la biología estructural y pionero en el área de la virología estructural.

El biólogo y divulgador Eduardo Angulo y el matemático Raúl Ibáñez reflexionan sobre el valor de la divulgación científica.

Una doble mirada sobre la investigación en cáncer, desde la visión clínica (Josep Llovet y Augusto Villanueva) y desde la investigación básica (Carlos López Otin).

Mesa de Ideas sobre la importancia de la medición en la actividad científica, con Eudald Carbonell (Atapuerca), Aurkene Alzua (cic tourgune) y Enrique Zuazua (bcam). Modera: Iñaki Letona.

El Prof. Francisco García Olmedo recuerda al recientemente fallecido Edwin Krebs, bioquímico de referencia internacional.

Editorial 04

Diálogos Científicos 06

Divulgación 14

Investigación hoy 22

Entorno cic 35

Científicos ilustres 80

EN PORTADA: Células de cáncer de próstata. Imagen coloreada tomada con micrografía de barrido electrónico.

Page 3: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

La antesala de los nuevos materiales para la energíaLa adquisición de tecnologías por parte de la humanidad es un proceso complejo e impredecible. Así, desde el punto de vista de la energía, nuestro modo de suministro todavía nos conecta de manera directa con la era del vapor. El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución de la electricidad a caballo de la cual disponemos de un confort que tomamos como habitual y de aparatos inconcebibles, del dominio de la ciencia ficción hace solo cincuenta años. Sin embargo, esa conexión con el vapor nos ubica en los mismos principios limi-tantes descritos por Sadi Carnot en los albores de la Revolución Industrial. Además, la electricidad continúa con esa dependencia al utilizar los ciclos termodinámicos como base para su producción. En cierto modo, estamos entre la Revolución Industrial de principios del siglo xix y las promesas de la nueva física de la última mitad del s. xx y la primera década del s. xxi.

De la era de las válvulas electrónicas pasamos, merced al descubri-miento de un material nuevo, el transistor, a un cambio mayor en la historia que nos provee acceso ubicuo a la comunicación y a la in-formación. El cambio producido se origina en la nueva física, cuyo desarrollo actual posibilita un conocimiento de la materia casi tan detallado como queramos. Aunque lo prudente es no predecir, podemos estar en la antesala de la creación de nuevos materiales que, de modo similar al transistor que posibilitó la era digital, remodelen la energía alejándola de la combustión para centrarla en la conversión directa con énfasis de aplicación en las energía renovables y en la eficiencia.Los viejos conocidos fenómenos del mundo físico de conversión directa entre energías, tales como: fotoelectricidad, termoelectricidad, piezoelec-tricidad, piroelectricidad, aleaciones con memoria de forma, fotocatálisis, electroquímica, entre otros, constituirán nuevos modos que, merced al imparable conocimiento de la materia desde lo cuántico, producirán los materiales necesarios para lograr una nueva era de la humanidad. Por tanto, se puede barruntar que los logros de la energía en el futuro no se basarán únicamente en nuevos descubrimientos de yacimientos de

Edito

rial

Jesús M. Goiri es director general de CIC energiGUNE.

consejo editorial

Aurkene AlzuaEduardo AnituaPedro Miguel EtxenikeManuel FuentesJesús María GoiriFélix M. GoñiJoseba Jaureguizar Xabier de MaidaganManuel Martín-LomasJosé María PitarkeAna Zubiaga

director

José M Mato

colaboran

Raul IbáñezEduardo AnguloJosep Llovet y Augusto VillanuevaCarlos López OtinFrancisco García OlmedoESS-Bilbaocic microguneAlex Bittner (cic nanogune)

redacción y coordinación

Guk Estrategias de Comunicación

diseño y maquetación

Nu Comunicación

reportaje fotográfico

Xabier Aramburu

edita

cic NetworkAsoc. Red de Centros de Investigación Cooperativa del País VascoParque Tecnológico de Bizkaia, Ed. 80048160 Derio (Bizkaia)[email protected]

traducciones

Elhuyar Fundazioa

reserva publicidad

[email protected]+34 943 32 69 66

depósito legal

ss-1228-2006

Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda

prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.

carbono sino en nuestra habilidad de crear nuevos materiales para la energía. Es en esa línea donde deberemos centrar nuestros esfuerzos de investigación, aunque sin abandonar el perfeccionamiento de lo tradi-cional, que ahora nos rodea.Con cierto optimismo se puede decir que desde la edad del hierro, en cierto modo la que vivimos en la actualidad, una nueva era de los mate-riales para la energía nos ha de conducir por derroteros sostenibles, pues ahora lo crucial en nuestro planeta es satisfacer las necesidades de más de 6.500 millones personas y, al mismo tiempo, mantener la viabilidad de la biosfera con su diversidad de especies. En ese sentido todo indica que, para ello, es clave que cambie radicalmente nuestra forma de suministro y de consumo energético. Se precisan cuatro movimientos: escapar de los combustibles fósiles; saber explotar las energías renovables, adquirir sabiduría para utilizar lo nuclear y establecer nuestras costumbres de vida alrededor de conceptos éticos y de convivencia más responsables. Los resultados de una bien meditada investigación básica, orientada en la Ciencia de los Materiales para la energía, deberán de contribuir a que la humanidad tenga una estancia más placentera en este desconcertante lugar en el que nos encontramos todos.

Page 4: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

7

Diá

logo

s cie

ntífi

cos

Roger Burnett, pionero en virología estructural, entrevistado por Nicola G.A. Abrescia.

Roger Burnett, es profesor emérito en el Wistar Institute

of Filadelfia. Anteriormente fue Profesor de Inmunología,

Química en dicha universidad, y Profesor de Bioquímica

y Biofísica en la Universidad de Pensilvania. Es miembro

del Advisory Board de cic biogune.

Nicola G.A. Abrescia es investigador principal de la

Unidad de Biología Estructural de cic biogune e

Ikerbasque Research Professor.

era muy difícil cambiar de dirección y nunca obtuve titulación alguna en biología.Entonces, por casualidad, me llegó una carta de Michael Rossmann, que acababa de trasla-darse del laboratorio de biología molecular del mrc (Cambridge, Inglaterra) a la universidad de Purdue (medio oeste de ee.uu.) para poner en marcha su laboratorio. Esto ocurrió en 1964, cuando la mayoría de los europeos jamás ha-bían estado en ee.uu. Solo conocíamos ee.uu. por las películas. Así que yo era un joven entu-siasmado con la idea de acudir a ee.uu. para trabajar en un departamento de biología. Sabía que cualquier licenciado puede recibir forma-ción en ee.uu. y que así podría estudiar biología y realizar investigaciones en cristalografía.Debo confesar que inicialmente no tenía es-pecial interés en la cristalografía. Es más, no tenía ni idea acerca de la cristalografía. Ahora parecerá imposible, pero en aquella época aún no había visto ningún ordenador. Era 1964 y los ordenadores no eran muy comunes; y me-nos aún entre quienes no eran licenciados. Así

¿Cuándo surgió su interés por los virus?Eso fue cuando era estudiante de postgrado, en el laboratorio de Michael Rossmann. Después de licenciarme en física, pensé que dedicarme a la física no era lo más acertado, porque aunque pu-diese abrirme paso en el campo de las matemá-ticas no era algo que conseguiría de inmediato y además odiaba la electrónica; y claro, ésa no era la mejor combinación para ser físico. Incluso pensé en dar marcha atrás, estudiar medicina y convertirme en médico, ya que me interesaba la biología. Pero en la Inglaterra de aquél tiempo

“Me fascina el Microscopio Electrónico por su gran potencial”

Roger Burnett es un científico reconocido internacionalmente en el ámbito de la biolo-gía estructural, por sus aportaciones cientí-ficas con estructuras moleculares de virus y de proteinas virales, especialmente de ade-novirus. Actualmente es profesor emérito en el Wistar Institute de Filadelfia (ee.uu.) y miembro del Scientific Advisory Board de cic biogune. El pasado mes de junio visitó este centro de investigación con motivo de su 5º aniversario y tuvimos la ocasión de mantener una interesante entrevista con él.

Page 5: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

9 8

Diálogos científicos - Roger Burnett

primera persona a la que convenció para que tratase de cristalizar virus. Y así fue, conseguí pequeños cristales de virus.

¿De qué virus se trataba?No lo recuerdo exactamente, pero diría que era el virus del mosaico del pepino (cucumber mo-saic virus). De alguna manera, tuve suerte de que los cristales no fueran de gran tamaño, porque de lo contrario probablemente aún seguiría con el doctorado de física en Lafayette Oeste, así que me dediqué a otra cosa. Esto era una especie de introducción para explicar que se pueden estu-diar los virus mediante la cristalografía.Pero en aquella época era prácticamente impo-sible pensar en obtener la estructura de los virus.

Creo que por aquél entonces Stephen Harrison (en Harvard University) era la única persona que intentaba seriamente obtener la estructura de los virus. Después realicé un trabajo de postdoc-torado acerca de la flavoproteína, una pequeña molécula, que sorprendentemente creo que es la octava o novena de las estructuras registradas en la base de datos (Protein Data Bank). Era 1973 y yo trataba de trabajar como docente univer-sitario, pero la ciencia en ee.uu., y puede que en cualquier otro lugar, se comporta de forma cíclica en lo que a financiación se refiere, y aquel era un periodo de vacas flacas. Así que era impo-sible establecer un laboratorio en ee.uu., porque la cristalografía estaba considerada como algo exótico y caro, exigía un completo equipamiento y gran capacidad informática; todo ello era muy caro. Por lo que decidí preguntarle a Steve Ha-rrison, a quien conocía personalmente, si sabía de alguna vacante en Europa. Él me respondió: «Pues un investigador del Biozentrum de Basi-lea ha cristalizado el recubrimiento proteico del adenovirus y creo que busca un cristalógrafo». Escribí al Biozentrum (a Richard Franklin) pre-guntando si tenían alguna vacante que pudiera ocupar. Poco después recibí su respuesta; una oferta de trabajo. Y me trasladé a Suiza. Fue una época realmente interesante. De hecho, visitan-do estas instalaciones de cic biogune no puedo evitar realizar comparaciones con lo que era el Biozentrum de aquellos días, y es que entonces el Biozentrum era un lugar relativamente nue-vo; fue inaugurado unos cuatro años antes de que yo llegase. Algo parecido a lo que ocurre aquí. El sistema universitario suizo estableció el instituto de Basilea como un instituto inde-pendiente dirigido a atraer a investigadores de todo el mundo y crear un centro de excelencia. Quedaba fuera de los habituales requerimientos burocráticos provenientes tanto de la estructura universitaria como de la administración pública. Era apasionante vivir allí, y contaba con una po-tente financiación y un completo equipamiento, características que también se dan aquí. Vaya, ha sido una larga respuesta a su pregunta.

Usted nació en el Reino Unido y se trasladó a ee.uu. ¿Por qué no regresó al Reino Unido? En aquella época el Reino Unido era la cuna de la cristalografía.Cada vez que he cambiado de trabajo, incluso recientemente, casi al final de mi carrera, he bus-cando vacantes en Inglaterra, pero nunca había algo que fuese interesante o estuviese disponi-ble. Además, también pienso que cuando creces

“Debo confesar que inicialmente no tenía especial interés en la cristalografía. Es más, no tenía ni idea acerca de la cristalografía”

que embarqué en el Queen Elizabeth original con destino a ee.uu., tomé un autobús de la Greyhound que habría de llevarme desde Nueva York a Lafayette Oeste (Indiana), y me pasé los primeros seis meses sintiéndome como dentro de una película, porque todo me parecía extra-ño y exótico. Michael Rossmann vino a buscar-me a la estación de autobuses y enseguida me llevó a un cuarto oscuro, para enseñarme sus más recientes fotografías de difracción. Resultó que estaba muy interesado en los virus... Bueno, creo que, en realidad, no le entusiasmaban los virus como tales, sino poder desarrollar méto-dos. Existe un método denominado Método de Reemplazo Molecular. Él estaba muy interesado en los virus, porque constan de múltiples copias de la misma proteína en la misma estructura; los consideraba un buen modelo o banco de pruebas para testar sus métodos. Eran métodos en los que se podía hacer uso del reemplaza-miento molecular. Así pues, él disponía de un pequeño programa [de virus]. De hecho, fui la

Diálogos científicos - Roger Burnett

en un lugar desarrollas anticuerpos contra ese sitio. Y aunque vivir en casa resulta cómodo, también es confortable vivir fuera del país natal, porque careces de esa clase de barreras.

Sí, y resulta curioso porque actualmente el Reino Unido guía la actividad científica en Europa. El Reino Unido es el único país que puede hacer sombra a ee.uu., quizás también Alemania. Así que cualquier investigador desea desplazarse al Reino Unido o bien a ee. uu.Durante mi estancia en el Biozentrum, nuestros recursos eran muy superiores a los que disponía ee.uu., y para alguien joven, que procedía del sistema europeo, licenciado y postdoctorado, todo aquello era perfecto. Era un gran lugar para emprender un proyecto.

Y fue allí, en Suiza, donde comenzó a trabajar con adenovirus; virus en los que ha centrado prácti-camente todas sus investigaciones. Así es.

¿Qué los hace tan fascinantes?Se sabía muy poco acerca de los virus. Si nos fi-jamos en el recubrimiento proteico de un virus, y algo que sale de lo común en adenovirus es que cuando el virus infecta la célula se produ-ce una gran cantidad excedente de proteínas estructurales. Un investigador puede obtener esas proteínas y cristalizarlas, y después definir su estructura. Hallar la estructura completa de un virus era algo impensable en aquellos años, porque la cryo-microscopía electrónica toda-vía no había echado a andar. Era demasiado para la cristalografía, y el hecho de que el virus disponga de largas fibras lo complicaba todo aún más, ya que dificultan la cristalización. Ha-bía que tratar de resolver el problema poco a poco, primero debía aislarse el recubrimiento proteico (la proteina de la cápsida) y después tratar de avanzar hacia un mayor nivel de en-samblaje. Podría decirse que era un modelo con dos utilidades: de un lado obteníamos indi-cios acerca de la formación del virus y de cómo se producía el autoensamblaje; y por otro, po-día darnos una vía, general en todo caso, para abordar estructuras macromoleculares más

grandes. En otras palabras, definiendo la es-tructura de una pieza es posible desarrollar un modelo que describa todo el conjunto. Que en definitiva, es lo que ha funcionado.

Recientemente se ha desvelado la estructura de adenovirus por cristalografía de rayos-x y me decía usted que existe también una reconstrucción de adenovirus por cryo-microscopía electrónica a una resolución de 3.6 Å.... ¿Cómo le hace sentir des-pués de haber dedicado toda su carrera al estudio del adenovirus?Es muy interesante, porque llevando tres años jubilado, creo que tengo cierta perspectiva. Creo que de haber conocido dichas noticias durante mis años de investigador... en fin, quie-ro pensar que habría sabido ser generoso, pero seguramente hubiera sentido envidia o irrita-ción... No sé cómo me lo habría tomado enton-ces, pero me complace mucho haber conocido la noticia. Creo que la cristalografía supuso un avance semejante en su día, pero lo que más me fascina es el microscopio electrónico; un gran avance por todo lo que pone a nuestro alcance. De hecho, las dos estructuras de adenovirus se han producido este mismo año 2010. Es una conjunción positiva. Como bien sabe, fuimos

pioneros en combinar microscopia electrónica y cristalografía, que actualmente son las téc-nicas preponderantes. Hoy en día, solo falta la imagen de un virus obtenida a través de reso-nancia magnética nuclear....

Dr. Burnett, el adenovirus se ha revelado como una herramienta enormemente práctica. Usted –junto con Dennis Bamford y Dave Stuart– origi-nó una especie de revolución en cuanto a cómo clasificamos los virus.Sí.

Transformó muchos conceptos; los virus se con-virtieron en tema de interés público. Los científi-cos han clasificado los virus según su morfología general, su tipo de genoma y demás, al menos hasta 2002. Entonces, usted, Dave Stuart y Den-nis Bamford, propusieron que tal vez los virus deban clasificarse en base a un criterio diferente: la semejanza estructural entre las proteínas víri-cas esenciales que forman los virus, por ejemplo las referentes a la cápsida. Esto implica la idea de lineajes virales. ¿Significa esto que los virus que infectan las bacterias y aquellos que infectan a los humanos podrían seguir estrategias similares en la morfogénesis? Es una idea revolucionaria...

“Visitando estas instalaciones de cic biogune no puedo evitar realizar comparaciones con lo que era el Biozentrum de Basilea”

Page 6: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

11 10

Diálogos científicos - Roger Burnett

lla en su dominio proteico, nos dimos cuenta de que las capas exteriores tenían gran capacidad para acoger formas complejas o formas de gran tamaño de cualquier tipo. De alguna manera, eran formas simples.

Ha dicho simples... pero si examino el pdb (ban-co de datos sobre las proteínas) y comparo las estructuras víricas registradas con las estructu-ras proteicas o incluso con las estructuras de proteinas de membranas, veo que no hay gran número. Pocos investigadores se centran en la estructura de los virus, y me pregunto cuáles son las limitaciones, por qué no hay más grupos de investigación dedicados al análisis de virus desde la estructura.No lo sé. Puede que haya muchos investigadores interesados, y sé que hay mucho dinero disponi-ble para correlacionar proteínas con enferme-dades; y es que la estructura de una proteína que permite abordar cuestiones referentes a en-fermedades, una mutación en una encima, por ejemplo, puede ser causa de enfermedad. Pero no creo que la influencia del virus sea tan clara, porque la mayor parte de lo que se puede tratar con un virus, esto es, con la estructura de un virus, no explica per se cuál es la relación entre ese virus y la enfermedad que causa. Puede que ésa sea una de las razones. Por supuesto, otra de las razones es el tamaño de los virus, que, hablando en términos históricos, ha impedido avanzar en su investigación.

Por tanto, la metodología es una rémora para el estudio de la estructura de los virus.Pero no por mucho tiempo. Tenemos la ra-diación de sincrotrón y todas las ventajas que aporta...

Sí, sin embargo es destacable que cada vez hay más estructuras víricas en la emdb (la base de datos para estructuras obtenidas mediante la cryo-microscopía electrónica).Estaba a punto de comentarlo. Sigo conside-rando que el microscopio electrónico es una herramienta mejor, en ciertos aspectos, para el estudio de la estructura vírica, la estruc-tura completa del virus, que la cristalografía. De hecho esta nueva forma de trabajar con adenovirus, refleja claramente que la resolu-ción (nominal) ofrecida por el microscopio electrónico es cada vez menor. Pero en este punto coinciden el microscopio electrónico y los rayos-x, ya que tienen prácticamente la misma resolución.

¿Qué deberíamos obtener centrando la investiga-ción sobre los virus en sus estructuras?Más que suponer una revolución, unifica cri-terios. Anteriormente no había criterios. Se establecían clasificaciones mediante familias de virus, pero sin saber cómo se relacionaban. Así que, lo que se hizo fue definir, o desvelar, esas relaciones. Una vez que las relaciones en-tre virus han sido descubiertas, se simplifica la manera de verlos y permiten la investigación en nuevos campos. Si uno sabe que ciertos virus tienen algún tipo de relación y descubre algo referente a uno de ellos, puede que también lo halle en el virus relacionado. Con lo que surgen posibilidades, por ejemplo, terapéuticas. Sería posible hallar un compuesto antiviral que inter-firiese en el ensamblaje de esa familia de virus, y uno podría aplicarlo a dicho virus. Así que es algo realmente útil.

Este punto de vista unificador es muy intere-sante. Los físicos siempre han buscado leyes unificadoras en la naturaleza. Puede que ése sea el motivo...En realidad, la idea parte de cuando investigá-bamos la estructura del recubrimiento proteico (hexon de adenovirus), incluso antes de obte-ner estructura molecular alguna, ya que obser-vamos que en las muestras obtenidas en baja resolución la molécula era cuasi-hexagonal. Tuvimos que esforzarnos mucho y recurrir a la tinción negativa de imágenes de fragmentos de cápsida, para descubrir la organización del virus. Al mismo tiempo, Nick Wringley obtuvo mediante un microscopio electrónico bellas imágenes de grandes virus, como el virus iridis-cente de tipula, que cuenta con múltiples copias proteicas, y pudimos observar que la estructura cuasi-hexagonal del hexon acogía un conjunto de empaquetamientos de aspecto hexagonal, y que la molécula no requería de condiciones ambientales diferentes para poder formar un virus de gran tamaño. Un virus tan grande como se quisiera solo requeriría cinco formas de empaquetamiento diferentes. Antes de que advirtiésemos que la esencia de los virus se ha-

“La cristalografía supuso un avance semejante en su día, pero lo que más me fascina es el microscopio electrónico; un gran avance por todo lo que pone a nuestro alcance”

Diálogos científicos - Roger Burnett

dificados de proteínas del vih, con la idea de desarrollar una vacuna para el vih, pero repar-tiéndola con un gen, en vez de una proteína. Y para eso, usábamos adenovirus de chimpancé, de los que habíamos descubierto la estructura, y la idea era poder utilizar este adenovirus como vector de reparto en las primeras vacunacio-nes, porque la mayoría de las personas no han estado expuestas a virus de chimpancé, a no ser que sean cuidadores en un zoo; y después utilizaríamos nuestros conocimientos sobre la estructura de los hexones para diseñar los cambios en los loops y así crear otro virus que pudiera usarse para repartir la dosis de la se-gunda vacuna o la dosis de refuerzo.

¿Funcionó?En principio, sí. Funcionó con ratones (risas). No ha funcionado en lo que se refiere al reparto de vacunas del vih, pero ésa es otra cuestión. Pero la idea de modificar la proteína funcionó, sí.

Los virus patogénicos humanos y animales afec-tan diariamente a nuestra sociedad. Algunas de las enfermedades que preocupan a la Organización Mundial de la Salud son virus como el Ébola, la fie-bre de Rift Valley y la gripe y algunos de ellos son virus emergentes zoonóticos. Pero yo creo que un proyecto sobre virus se convierte en interesante o fi-nanciable cuando llega a los países ricos. ¿Es solo mi

¿Piensa que los pliegues de las proteínas víricas son limitados o ilimitados? ¿Cree que conocemos todos los pliegues que forman las proteinas víricas?Probablemente no. Y es que tampoco conoce-mos gran variedad de estructuras víricas.

¿Piensa que hay un reducido número de virus y que se basa en los mismos principios de ensamblaje?Si damos por sentado que existen ciertas vías o líneas de conexión entre virus, parece que efectivamente no hay gran cantidad de linajes virales. Digamos que unos diez ó veinte. Ade-más, parece que existen ciertos pliegues víricos o proteicos que son comunes a cada línea.

Tengo la impresión de que las herramientas pre-dictivas para evaluar el espacio topológico de las proteínas (no solo víricas) todavía no son lo sufi-cientemente sólidas...Creo que cada vez queda más claro que el uni-verso de los pliegues proteicos es más limitado de lo que se pensaba en mis tiempos de estu-diante. Entonces todo el mundo pensaba que existía un número ilimitado de ellos, que cada proteína se plegaba de forma diferente. Pero es obvio que no es así.

Actualmente se ejerce cierta presión sobre la ciencia básica para hacerla cada vez más trasla-cional, y puede que eso sea algo que concierne a los investigadores jóvenes. Pero, ¿cuál cree que es el impacto que la virología estructural tiene en el desarrollo de una vacuna y/o un fármaco? ¿Es cierto que la conexión entre ambas no es tan directa como se pensaba?Creo que es así, probablemente porque la es-tructura no tiene mucho que ver con el desa-rrollo de vacunas. No sé mucho acerca de ese tema, pero me parece que no es necesario tener grandes conocimientos sobre la estructura para poder desarrollar una vacuna.

Hoy en día las compañías farmacéuticas pueden hacer screening in-silico de miles y miles de com-puestos con una diana específica. Aun así, todavía valoro el conocimiento básico de la estructura de un virus como estrategia para que, comprendien-do sus mecanismos biológicos, puedan desarro-llarse aplicaciones biomédicas. Exactamente. Pero, los adenovirus se han utili-zado en una dirección muy distinta que puede que usted no conozca. Me refiero al reparto de genes (gene delivery). De hecho, participé en un proyecto en el Instituto Wistar en el que se utilizaban adenovirus para repartir genes co-

impresión? ¿Qué le parece? Por ejemplo, el dengue se convirtió en un objetivo cuando llegó a ee. uu.Sí, creo que la gente de los países ricos es egoísta, suelen gastar el dinero para sus pro-pios intereses. Se supone que las compañías farmacéuticas necesitan dinero para financiar sus investigaciones, por lo que es poco probable que investiguen enfermedades con las que no pueden recuperar el coste de las investigacio-nes. Pero existe un movimiento, como sabe, el de la Fundación Gates, que intenta solucionar este problema y financiar áreas que no cuen-tan con fuentes de financiación convenciona-les. Aunque no sé exactamente a qué se refiere con su pregunta, a si la gente es egoísta, si los países lo son…

No, no. Soy consciente de que existen virus zoonóticos reemergentes y parece que no se están centrando en ellos… Puede ser que la fiebre de Rift Valley o el Ébola sean más conocidos, pero mien-tras se queden en África, Oriente Medio, Asia o incluso Australia o Nueva Zelanda, no nos preocu-pan demasiado.También está el problema práctico. Investigar virus de ese tipo, como bien sabe, es mucho más caro porque se necesitan instalaciones de contención, todo tipo de trámites para trabajar con virus, por lo que es mucho más complica-do. Por tanto, para un investigador particular es muy difícil hacerlo, porque tienen que jus-tificar las razones por las que es importante invertir tanto dinero en analizar una enferme-dad que solo puede acarrear problemas al país que la investigue.

“La estructura del virus no explica per se qué enfermedad va a causar”

Page 7: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

13 12

Diálogos científicos - Roger Burnett

Sin embargo, es fundamental estudiarlas. Algu-nos de estos virus pueden llegar a los países del sur del Mediterráneo, por ejemplo, a través de sus vectores (como mosquitos).Sí, por ejemplo en España, donde estamos, exis-ten institutos como éste, y se hacen inversiones considerables en biología estructural, por lo que estoy seguro de que se hace frente a problemas que puede que no se hayan estudiado en otros países. No sé, enfermedades mediterráneas, etc.

Abordemos el aspecto económico de los proyec-tos. Estamos afrontando una crisis mundial y Es-paña está pasando por una época bastante dura. La situación del País Vasco es algo mejor, pero en definitiva, se han hecho recortes en investigación. ¿Si fuera el encargado de asignar becas, qué línea de investigación apoyaría? Esa es una pregunta muy difícil, porque no creo que haya nadie tan inteligente como para repar-tir recursos, a no ser que se use un método que se ha demostrado que funciona, basado en dar recursos a los investigadores más imaginativos y a los mejores. ¿Pero cómo se definen los mejo-res investigadores y los más imaginativos? En mi opinión, esta es una cuestión de juicio y gustos. Lo que siempre me llamaba la atención cuando formaba parte de una mesa de revisión de becas era la sorprendente unanimidad para reconocer proyectos buenos y cosas interesantes, aunque se suele pensar que cada miembro tendrá sus prefe-rencias a la hora de elegir lo que es bueno o lo que merece la pena apoyar. Me puede decir, por su-

puesto, que todos somos muy homogéneos o que no hemos sido entrenados para ser imaginativos. Y, por supuesto, hay algunas tendencias sobre lo que es interesante en cada momento. Pero, en general, creo que si han recibido una buena for-mación, la mayoría de los científicos son bastante imaginativos; creo que cuando ves algo intere-sante, se puede reconocer. Así que dar recursos a gente con buenos antecedentes es una manera de repartirlos. El problema es, por supuesto, que se debe financiar a jóvenes investigadores sin ninguna trayectoria. Y la tasa de éxito es menor. Es difícil decir en cada fase si alguien llegará a la siguiente. Recuerdo que cuando era estudiante de doctorado, miraba a mis compañeros y pensaba: «¿por qué molestarme en investigar, si ellos son tan inteligentes?»; pero no todos terminaron el doctorado. Luego pasas al siguiente nivel y te en-cuentras con postdoctorandos realmente increí-bles, pero no todos terminarán el postdoctorado con éxito, ni publicarán artículos. Luego están los profesores adjuntos que comienzan su carrera y aunque algunos son muy inteligentes, no todos seguirán adelante y promoverán un proyecto. Así que creo que para tener una carrera de investiga-ción, ser productivo, trabajar en el laboratorio y ser capaz de tratar con personas, etc., necesitas capacidades bastante amplias y puede que no se vean de antemano. Por tanto, lo dicho, creo que no importa lo mala que sea la situación econó-mica, siempre se debe invertir en nuevos labora-torios para investigadores jóvenes, porque nunca se sabe cuál de ellos será brillante.

¿Por tanto, no tiene preferencias en cuanto a las líneas de investigación?No, me parece muy inoportuno tenerlas. Sería disparatado que yo dijese que en toda España tienen que trabajar en la estructura de los virus.

Se retiró de la ciencia activa en 2007...Sí, a finales de 2006, de hecho.

Ahora que su punto de vista es imparcial, ¿cuá-les cree que son los retos que deberá afrontar la biología estructural en los próximos veinte años?Veamos las diferentes disciplinas una por una. Hablaremos de cristalografía, porque es una de las que mejor conozco; quiero decir que me sorprendí muchísimo cuando visité estas ins-talaciones de cristalografía, al comprobar que el equipo que teníamos cuando yo me retiré era como del siglo xix. La gente todavía realizaba cristalizaciones a mano y ahora existen robots y máquinas para hacerlo; está claro que todo se está automatizando, la habilidad de cristalizar en diversas condiciones con pequeñas cantida-des de proteína; está claro que se ha mejorado muchísimo la habilidad de cristalizar cosas y descubrir estructuras. Todo eso está muy bien, porque así se pueden tratar más cosas. Aunque la cristalografía de proteínas está avanzando en una dirección en la que casi se ha conver-tido en una instalación de servicios. En otras palabras, es como si alguien dijera: «tengo una proteína interesante y quiero descubrir su es-tructura»; y entonces se la diese al laboratorio y éste descubriese la estructura. Por lo que la cristalografía de proteínas se convertiría en lo que hoy en día es la cristalografía de moléculas pequeñas; solo un servicio adjunto, como en la industria farmacéutica donde encuentran cientos de compuestos al día. Por lo tanto, la pregunta es: ¿qué ocurrirá con los que se for-men en cristalografía de rayos-x, cómo será su existencia en el futuro? ¿Serán solo técnicos? ¿Cómo continuarán contribuyendo a la ciencia de un modo más científico e imaginativo? No sé la respuesta a esa pregunta, pero segura-mente la microscopía de electrones y el rmn aún no han llegado a este punto de automati-zación. En cuanto al rmn, todavía exige mu-cha interpretación manual; pero desde luego la microscopía electrónica va por esa dirección. Todas estas técnicas están dirigidas a conver-tirse en técnicas consolidadas, por lo que la gente interesada en la estructura tendrá todas estas herramientas potentes al alcance de su mano. Puede que haya otras herramientas que

Diálogos científicos - Roger Burnett

se están creando ahora, como la microscopía de fuerza atómica que da imágenes de baja re-solución, pero será mucho más importante en el futuro. Aunque es difícil saber qué ocurrirá en el futuro.

Pero, por ejemplo, ¿qué sistema o trayectoria su-geriría tratar? ¿En qué sentido?

Por ejemplo, ¿se debería estudiar la señalización de células, las estructuras virales, la regulación de cromatina? ¿Cuál le parece un tema candente? Por ejemplo, actualmente muchos laboratorios centran su atención en la proteínas de membrana y de canales iónicos…Sí, he dejado aparte las proteínas de membra-nas porque todavía es un ámbito difícil. Pero creo que, de alguna manera, los avances en torno a la estructura pueden llegar de cosas más grandes que, digamos, un complejo ma-cromolecular, puede que de imaginar partes de células. O hay formas en las que se puede desarrollar un microscopio de rayos-x con una resolución extremadamente baja que puede obtener imágenes de orgánulos celulares. Por tanto, sería fantástico que alguien pudiera ha-cer eso, de la misma manera que alguien con-siguió ver los recubrimientos proteicos de los virus con estructuras de rayos-x para obtener la arquitectura completa, si alguien pudiera usar el gran número de estructuras que conocemos al detalle, para intentar unir las grandes orga-nizaciones de orgánulos en las células y esa es la nueva frontera, ¿no le parece?

Ahora, volvamos a los retos de la biología estruc-tural. Pensemos que va a emprender una nueva profesión: la profesión científica. ¿Qué sistema sería su objetivo? El suyo personal. Digamos que comienza otra vez en cic biogune.No lo sé.

¿Cambiaría su campo de interés?De hecho, creo que mi carrera profesional ha sido muy satisfactoria, porque mi objetivo era

aprender más sobre biología e integrarlo con la física. Cuando era estudiante de postgrado, me interesaba muchísimo la informática; como físico, te gusta juguetear con cosas para po-der usar, en definitiva, instrumentos. Aunque nunca conseguí mi objetivo de convertirme en doctor, terminé como profesor en una es-cuela de medicina; por lo que he tenido una vida muy rara y me siento muy afortunado, he seguido solo lo que me parecía interesan-te, lo que me parecía satisfactorio en términos científicos; también ha sido muy gratificante personalmente. Así que es difícil imaginar ser tan afortunado otra vez (risas).

Recientemente Craig Venter ha publicado un ar-tículo sobre las primeras células con un genoma sintético. ¿Qué opina del hecho de que seamos capaces de producir células sintéticas?Bueno, en cierto sentido, hemos estado pro-duciendo células sintéticas durante mucho tiempo, porque se ha estado jugueteando con varios genes y el hecho de que él haya creado uno totalmente sintético… estoy seguro de que se basó en los que estaban funcionando, porque la probabilidad de conseguir uno correcto es muy pequeña, aunque sea sintético, probable-mente se parecerá a algo que ya existe. No lo he mirado detalladamente, pero creo que estoy en lo cierto. ¿Es así?

Sí. Ya ha pasado dos días y medio aquí y ha visto qué es cic biogune. ¿Cuál es su impresión sobre el instituto? ¿Cuál es su opinión sobre lo que ha visto, como miembro del Consejo Asesor Cientí-fico? ¿Y sobre la gente que ha conocido? Bueno, es obvio que es la gente la que hace el instituto, se puede tener un edificio precioso, pero sin la gente adecuada sería un desastre. El edificio, el marco físico, y las infraestructuras son magníficas. Es un sitio muy agradable para trabajar, porque como ya he dicho, me recuer-da al Biozentrum cuando yo me incorporé en los setenta. Está muy bien equipado. Obvia-mente, por lo que puedo ver está bien dirigido, porque se deja a los científicos que hagan su trabajo; y lo que me ha impresionado mucho es que el grupo de investigadores es muy joven y la gente es muy entusiasta. Todos los que he conocido se divierten estando aquí, haciendo su trabajo. Así que creo que se conseguirán buenas cosas. Está claro que como cualquier organización, necesita cuidados y encontrar una forma en la que desarrollarse. Pero creo que le espera un buen futuro.

“No importa lo mala que sea la situación económica, siempre se debe invertir en nuevos laboratorios para investigadores jóvenes, porque nunca se sabe cuál de ellos será brillante”

Page 8: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Xxxx xxxx xxx xxxxx

15 14

En esta segunda acepción, el propio diccionario ya reconoce la presencia relevante de la ciencia en la cultura, mientras que en relación a la prime-ra, ¿cuáles son esos conocimientos que permiten desarrollar un juicio crítico? En mi opinión, la formación de las personas tiene dos pilares fundamentales, las matemáticas y el lenguaje, que junto con las demás enseñanzas, tanto científicas como humanistas, forman a los jóvenes de nuestra sociedad, convirtiéndoles en personas adultas, independientes y críticas. En ambos casos, no solamente es fundamental la aportación de los dos lados del conocimiento y la cultura, sino que en realidad estos están enmarañados. No podemos, y no debemos, separarlos. Al realizar de forma artificial dicha escisión, que bien podríamos calificar de quirúr-gica, parte de nuestro saber y de nuestra cultura desaparecen, o se ven mutilados, en la operación.De igual forma, la división de la humanidad bajo las denominaciones de letras y de ciencias, no solamente es artificial, sino que es simplista, falaz y esconde un problema más complejo, del que hablaremos más adelante.

Si miramos al diccionario de la rae, en su vigésima segunda edición, nos encontramos con dos acepciones interesantes, en relación con este debate, de la palabra «cultura»,

··· conjunto de conocimientos que permite a alguien desarrollar un juicio crítico.

··· conjunto de modos de vida y costumbres, conocimientos y grado de desarrollo artístico, científico, industrial, en una época, grupo social,…

Raúl Ibáñez Torres es profesor titular de Geometría (upv/ehu). Su

investigación se centra en la Geometría Simpléctica y en la Cultura

Matemática. Ha participado en 23 proyectos de investigación, en

9 de ellos como investigador principal. Es director de Divulgamat,

miembro del Raising the Public Awareness of Mathematics de la

European Mathematical Society, ex-vicepresidente segundo de

la Real Sociedad Matemática Española. Premio de Divulgación

Científica José María Savirón 2010.

A pesar de que desde hace varios años se viene proclamando, por parte de algunas personas del ámbito de la cultura, pero fundamentalmente por quienes estamos trabajando en la divulgación de la ciencia, la falsedad de la existencia de dos culturas distintas, además de enfrentadas, la humanis-ta (que es la que la sociedad en su conjunto denomina erróneamente cultura a secas) y la científica, sigue siendo necesario llevar este debate ante la opinión pública. La sociedad está reconociendo cada vez más el destacado papel de la ciencia, y de la tecnología que emana de ella, para su progreso y el del conocimiento, aunque desde una óptica cultural se la mira como algo anecdótico, sin excesivo interés y prescindible. Por cultura se entiende habitualmente la de letras, despreciando las aportaciones, el interés y trascendencia de la ciencia en la misma, y solo recientemente se ha empezado a utilizar el término cultura científica para admitir por fin que la ciencia en sí misma puede ser parte de la cultura, aunque dejando muy claro que no es la cultura con mayúsculas, es decir, la de las humanidades, y manteniéndola completamente alejada de ella, separada por un muro artificial.

Raúl Ibáñez Torres, profesor de Geometría en la upv/ehu

Div

ulga

ción

La cultura científica o la misteriosa identidad del señor Gauss

Caric

atur

a de

Gau

ss p

or E

nriq

ue M

oren

te L

uque

(Ex

posi

ción

«El

Ros

tro

Hum

ano

de la

s M

atem

átic

as»,

RSM

E)

Yo soy de cienciasLa existencia de dos mundos separados, el de ciencias y el de letras, hace que desde bien jóvenes tengamos que elegir en cuál de ellos habitar, y que miremos con recelo a los habitantes del otro. La propia sociedad nos ha enseñado que debemos considerar natural esta supuesta realidad. Por ejemplo, ya en la universidad, esta divergencia se manifiesta de una forma bastante clara, los de letras suelen opinar de los de ciencias, y con mayor vehemencia si es de los matemáticos de quienes se está hablando, que son empollones, aburridos, cabezas cuadradas, faltos de imaginación, o incluso unos incultos, mientras que estos piensan de los primeros que no estudian nada, están siempre de fiesta, sus carreras son ligeras, utilizan su imaginación para escaquearse y juegan con el lenguaje para parecer cultos. La separación entre ambos colectivos se mantiene desde las dos partes, mirándose con suspicacia o simplemente intentando ignorar la existencia de los otros.Sin embargo, en mi opinión, que seguramente, y con razón, pueda ser calificada de subjetiva y sujeta al mismo defecto que se está intentando combatir, la situación no es simétrica y desde el mundo humanista hay una mayor militancia en contra del científico. Con bastante frecuencia los habitantes de éste se encuentran con la expresión «yo soy de letras», que suele ser utilizada a modo de comodín o escudo contra ellos. Una situación en la que es habitual escuchar esta expresión es cuando dos personas, una de letras y otra de ciencias, se conocen (ya sea un perio-dista que tiene que entrevistar a un científico, un artista y un físico que coinciden en un acto público, o los padres/madres de dos amigas de la escuela), y suele ser utilizada por la primera como defensa a la supues-ta agresión de la persona de ciencias, con el fin de cortar todo intento que pueda existir por parte de ésta de hablar de su trabajo o de temas científicos, para que sepa que se considera de mal gusto que hable de su ocupación, que no interesa lo que pueda contar o simplemente que no se moleste ya que no le van a entender, ni van a intentarlo. Sin embargo, no suele ocurrir que un científico se defienda con la expresión «yo soy de ciencias» para que su interlocutor no mencione sus preocupaciones labo-rales o temas como el arte, la música, el cine, la historia o el periodismo. Serán materias de las que podrá dialogar con toda naturalidad e interés. Aunque por desgracia aún tenemos mucho que avanzar para que en una conversación se puedan tratar con normalidad temas relacionados con la ciencia, es curioso observar la sorpresa que en ocasiones se llevan los de letras, cuando descubren que su interlocutor, de ciencias, no solamente es capaz de charlar de esos temas de cultura general, sino que en muchas ocasiones son unos apasionados o incluso expertos en alguno de ellos.La expresión «yo soy de letras», o si el tema está relacionado en algún sentido con las matemáticas, manifestaciones del tipo «los números no son lo mío» o «a mí con las cuatro operaciones me vale y me sobra», suelen utilizarse también para justificar un error relacionado con la ciencia (por ejemplo, un error en un cálculo numérico, un porcentaje mal utilizado, o confundir un quark con una galaxia o un tipo de estrella), o incluso para anticiparse al posible error, como un método de defensa. Aunque esta ex-presión se usa con normalidad, y sin ningún pudor, no se entendería el em-pleo –de hecho ningún matemático o científico lo haría- de la frase «yo soy de ciencias» para justificar faltas de ortografía cometidas, un informe mal redactado o un error al establecer la época de un hecho histórico relevante.Más generalmente, la expresión «yo soy de letras» suele servir para trans-mitir, pero sobre todo justificar, con cierto orgullo, la falta de cultura científica. Se considera normal, incluso para los que somos de ciencias,

Divulgación - La cultura científica o la misteriosa identidad del señor Gauss

Hipercubo

Retrato de Ambroise Vollard. © Sucesión Pablo Picasso, VEGAP, Madrid, 2010

Page 9: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

17 16

Divulgación - La cultura científica o la misteriosa identidad del señor Gauss

Por ejemplo, el hombre, o la mujer, del tiempo anuncia: «La probabilidad de que llueva el sábado es del 50% y la de que llueva el domingo también es del 50%, por lo tanto, la probabilidad de que llueva el fin de semana es del 100%». Aunque esto pueda parecer un chiste matemático, errores similares a este (por cierto, la probabilidad de que llueva el fin de semana sería del 75%) se encuentran en la prensa (véase Un paseo por los medios de comunicación de la mano de unas sencillas matemáticas, R. Ibáñez, Revista sigma 32, 2008; o la web malaprensa.com). Por otra parte, cuando leemos un informe médico, económico o de otra índole, ya sea de nuestra vida privada o de nuestro trabajo, en una empresa o en la administración, debemos de entenderlo bien para poder extraer el conocimiento útil del mismo y tomar las decisiones correctas, y ahí el conocimiento científico también es primordial. Si hablamos de nuestra sociedad, el desprecio de la ciencia está llevando a una falta de conocimiento de nosotros mismos y de nuestra cultura (incluyendo la humanista). Un ejemplo ilustrativo puede ser el siguiente. A finales del siglo xix, y principios del xx, la cuarta dimensión (que venía de las matemáticas) fue un tema que interesó y cautivó a científicos, artistas, filósofos, escritores, personas religiosas, y público en general. En particular, tuvo una influencia importante en el cubismo, así como en

conocer ciertos hechos históricos, las características de algunos movi-mientos artísticos, o quiénes eran personajes como Wolfgang A. Mozart, William Shakespeare, Winston Churchill, Charles Chaplin o Pablo Picasso, sin embargo, no hace falta saber quiénes eran Carl F. Gauss, Isaac Newton, Marie Curie, James D. Watson y Francis Crick, o Dame Jane Goodall, cuán-do y cómo se unificaron y universalizaron los sistemas de medidas o cuándo ocurrieron algunos hechos científicos relevantes. Mientras que a un científico, o a cualquier persona, se le tachará de inculta si no sabe contestar a la primera serie de cuestiones, alguien del mundo de las hu-manidades que no sepa contestar a ninguna de las de la segunda serie, simplemente tendrá que utilizar el comodín «¡es que yo soy de letras!». ¿Por qué se mantiene esa separación absurda entre personas de ciencias y de letras, entre la cultura científica y la cultura (de las humanidades)? La mayoría de los muros que se levantan en nuestro planeta son fruto de la ignorancia o el desconocimiento de la otra realidad, así como del miedo. Y este caso no es una excepción.

Consecuencias de la brecha entre las dos culturasPudiera pensarse que la división de la población en personas de ciencias y de letras, es algo similar a ser del Madrid o del Barcelona en fútbol, ser de Kas Naranja o de Kas Limón como en el anuncio publicitario o ser una persona que tiene perro o tiene gato, es decir, una elección personal, inofensiva, que seguramente definirá parte del carácter del individuo pero sin graves consecuencias. Sin embargo, no es así. Esa separación, y más generalmente la brecha entre las culturas científica y humanista (en realidad, la consideración de la cultura de letras como la única, y el menosprecio y olvido de la ciencia) sí tienen secuelas en nuestra sociedad, tanto en lo personal, como en lo social.En mi opinión, que seguramente sea tildada de exagerada por algunos de los lectores de este artículo, un efecto negativo que esta situación puede tener en lo personal es la falta de un desarrollo completo en la formación de algunas personas (por supuesto que la cuestión de qué es un desarro-llo personal completo es muy interesante, así como clave para definir la educación que deben recibir los jóvenes, aunque no es el tema de este artículo). ¿Por qué? Este desprecio de la cultura científica hace que como sociedad no valoremos la importancia de la ciencia, y de las matemáticas, en la educación, y que los jóvenes (que lo han heredado de sus familias y su entorno social) las miren con desinterés, más aún con temor, como es el caso de las matemáticas escolares. En consecuencia, el desconoci-miento o la mala formación en temas científicos, y muy especialmente en matemáticas, hace que hombres y mujeres no estén bien preparados para muchos temas de su vida, tanto personal como profesional, en los que un mínimo conocimiento científico es indispensable.Algunos ejemplos. En 2008 pudimos leer el titular «Cinco países euro-peos recomiendan a sus sanitarios estudiar cálculo», y en la noticia se explicaba que «hasta un 45% de los fallos hospitalarios tienen que ver con un cálculo erróneo de los medicamentos suministrados por médicos y enfermeras». Somos muchos los que a diario leemos el periódico para estar informados, y se supone que la formación recibida en nuestra edu-cación es suficiente para poder entender sus artículos. Una gran cantidad de los mismos pueden tener contenido relacionado con la ciencia, pero además, mucha de la información que se suministra se realiza en un for-mato matemático (estadísticas, probabilidades, medidas, proporciones, gráficos, datos numéricos,…), luego este saber es imprescindible, tanto para el periodista que escribe el texto de la noticia, como para el lector.

Divulgación - La cultura científica o la misteriosa identidad del señor Gauss

otros movimientos artísticos del siglo xx. Sin embargo, hasta los años 70, en los estudios y publicaciones de Historia del Arte sobre el cubismo no aparecían referencias a las dimensiones superiores, lo cual seguramente era consecuencia de la falta de formación matemática e interés científico de los historiadores del arte, a pesar de que los propios artistas hablaban de la cuarta dimensión en sus escritos (cartas, conferencias, artículos o libros). Por suerte, la situación cambió en los años 70 y hoy es un hecho conocido y ampliamente documentado (véase por ejemplo La cuarta dimensión. ¿Es nuestro universo la sombra de otro?, R. Ibáñez, rba, 2010). En general, una cultura y un conocimiento científicos pobres (y en parti-cular, la incomprensión de una herramienta fundamental como son las matemáticas), hace que quienes tienen capacidad de decisión (ayunta-mientos, gobiernos de autonomías o de la nación, empresas, fundaciones, etcétera) aprueben leyes y actuaciones fundamentales para nuestra socie-dad teniendo una visión sesgada de la misma, lo cual tiene consecuencias negativas para nuestro presente y nuestro futuro (economía, desarrollo del país, educación, investigación científica y tecnológica, promoción de la cultura, organización de actividades culturales,…).

La divulgación de la cienciaLa solución al problema de la brecha entre ciencias y letras, y de sus ne-fastos efectos en la sociedad, es la divulgación de la ciencia. Esta no sola-mente traerá una mayor cultura científica y acabará con la confrontación, sino que provocará un cambio de actitud de la población hacia las mate-máticas y la ciencia, la desaparición del temor a ellas, un mayor interés por las mismas, una mejora de su imagen social, que las personas sean científica y matemáticamente más activas, pero también estimularán el desarrollo de la actividad en ciencia y tecnología, de la cultura científica y de sus relaciones con otras partes de la cultura. Teniendo en cuenta que los jóvenes de hoy se convertirán en las personas que dirigirán el mundo en el futuro, la divulgación científica debe de empezar en la escuela, pero no debe de quedarse ahí, sino que debe de extenderse a través de todo el sistema educativo, y a la sociedad en su conjunto. Cuestiones como la importancia de la divulgación de la ciencia en nues-tra sociedad, cómo y quiénes deben realizar esa labor, a través de qué medios, qué temas divulgar y cuál debe de ser el nivel científico de los mismos, a quién debe dirigirse, entre otras, son sumamente interesantes y merecerían un comentario más extenso que dejaremos para otra oca-sión, puesto que queremos terminar analizando brevemente el papel de la universidad en la cultura científica.

La cultura científica en la universidadSi centramos nuestra atención en los retos de futuro que tiene la uni-versidad es probable que algunos únicamente piensen en el diseño y la gestión de la educación superior de nuestros jóvenes -los conocimientos y la sociedad cambian por lo que hay que adaptar la enseñanza univer-sitaria a los nuevos tiempos- y también de la investigación -en la que la universidad debe de liderar la adquisición de nuevos conocimientos, el desarrollo de nuevas tecnologías o la creación cultural. Sin embargo, a estos dos retos, que han existido desde el inicio de la universidad (y que, de hecho, la definían hasta ahora), se les ha añadido un nuevo pero im-portante reto, la divulgación de la ciencia, aunque tendríamos que hablar realmente de la difusión de la cultura en su totalidad.Hasta hace no mucho tiempo, la divulgación científica tenía un papel marginal dentro de nuestra sociedad, mucho más la matemática en la que

hubo que esperar al año 2000 –Año Mundial de las Matemáticas- para que llegara su despertar, e incluso hoy en día nos encontramos con medios como la televisión en los que siguen siendo reacios a incluir ciencia en su programación, o simplemente a ofrecer noticias relevantes del ámbito científico. Además, la difusión de la cultura científica se estaba desarro-llando fuera del ámbito universitario, por periodistas que habían girado su carrera hacia la ciencia o personas con formación científica que, a través de museos o revistas, trabajaron al margen de la universidad. Dentro del profesorado universitario se consideraba más un hobby personal que una labor valiosa que debían desarrollar y dentro de la institución tampoco había un gran interés en ella. Incluso no se veía con buenos ojos que algunos profesores se dedicaran a malgastar su tiempo, y, en el fondo, el de la universidad, en este tipo de labores.Pero la situación ha cambiado, si no radicalmente sí de manera destacada. Se ha desarrollado un trabajo significativo en la transmisión de la cultura científica, tanto desde los museos, las editoriales y revistas, como desde la propia universidad, en la cual el profesorado ha empezado a darse cuenta de la importancia de esta labor, y de la conveniencia de que ellos, y ellas, estén involucrados, directa o indirectamente, en la misma. Se han organizado actuaciones de una gran calidad, con destacada presencia del público general, e incluso interés por parte de los medios de comunica-ción, que han servido de aval para el futuro.

La universidad ha entendido perfectamente la importancia que tiene la divulgación, así como que le corresponde a ella intentar liderar en gran medida el enorme trabajo que tenemos por delante, tanto en el desarro-llo de la propia tarea de difusión, como en la gestión de la misma. Pero cuidado, reconocer el valor de la divulgación científica está bien, apoyar al profesorado en el desarrollo de la misma también, pero es necesario que haya un reconocimiento real, desde la universidad y también desde la administración, del trabajo que desarrollamos, no considerándolo un trabajo de segunda o de una cualificación inferior.La universidad tiene la obligación moral y social de divulgar la cultura científica, y la no científica también, que en gran medida surge de entre sus paredes. La sociedad demanda cada vez más un mayor conocimiento de una institución de la que depende la educación superior, la investiga-ción y el desarrollo cultural, quiere saber en qué se gasta el dinero que se invierte en ella y por qué es importante seguir invirtiendo, quiere saber qué educación se está ofreciendo a nuestros jóvenes, qué investigación desarrollan sus miembros y la relevancia de ésta para la sociedad, pero también la sociedad ha entendido, o está empezando a entender, que la ciencia forma parte de la cultura de la humanidad, y que el desarrollo personal y social no puede dar la espalda a la ciencia, y confía en la uni-versidad como difusora de la cultura científica. Además, la propia imagen social de la institución depende también de esta actividad. Estamos ante un reto ilusionante para el futuro como es el diseño y cons-trucción de esa nueva parte del edificio universitario que es la divulga-ción, la difusión de la cultura humana.

eiπ+1=0

Page 10: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Xxxx xxxx xxx xxxxx

19 18

tífica, las decisiones que se tomen basadas en la ciencia y la tecnología, que son casi todas, pueden resultar desde casualmente adecuadas hasta absolutamente inverosímiles. Y así ocurre, por ejemplo, con la inclusión o no del creacionismo en la educación, la polémica sobre el aborto, las centrales nucleares y su seguridad, los organismos transgénicos y sus peligros, el cambio climático, la exploración del espacio y tantos otros asuntos a debatir y decidir democráticamente. Son decisiones que nos conciernen a todos. Hoy no se puede, no se debe, ser un analfabeto en ciencia y tecnología. Un ignorante es manipulable, no tiene ni criterio ni conocimientos, ni siquiera los más básicos, y, como todo ignorante, es atrevido y actúa según sus creencias, y con fe suficiente, esas creencias son inamovibles y difíciles de cambiar. Por tanto, el dilema está claro: o deciden los ciudadanos en su ignorancia plagada de convicciones pétreas, o deciden los ciudadanos después de recibir una educación científica y tecnológica adecuada que promueva el interés por la ciencia y se renueve a través de una buena divulgación. Debemos comprender y difundir con energía la aportación esencial de la ciencia a la construcción de la sociedad democrática. Juan Ignacio Pérez, antiguo Rector de la Universidad del País Vasco (upv/ehu), lo subraya con acierto al destacar que no existe sociedad democrática sin

Una sociedad como la nuestra, rodeada, inmersa, en la ciencia y la tec-nología no se merece el nivel de educación científica que tienen sus ciu-dadanos y, lo que es peor, sus dirigentes. Como afirma la Premio Nobel Christiane Nüsslein-Volhard, es inquietante que el discurso público de cualquier tipo a menudo premie la ignorancia científica. Es evidente que, si la mayoría de los ciudadanos tienen un nivel bajo de educación cien-

Eduardo Angulo es doctor en Ciencias Biológicas y profesor

titular de Biología Celular de la upv/ehu. Docencia desde 1978

en la Licenciatura de Biología. Investiga la relación entre células

y tejidos con el medio ambiente, con más de un centenar de

artículos publicados en revistas nacionales e internacionales.

Autor de Julio Verne y la Cocina, La vuelta al mundo en 80 recetas

(2005), Monstruos, Una visión científica de la Criptozoología (2007),

y El animal que cocina, Gastronomía para homínidos (2009). Ha

colaborado en el libro colectivo Misterios a la luz de la Ciencia

(2008). Desde 2007 lleva los blogs La Biología Estupenda y Cine,

Literatura y Medio Ambiente. Director del Colegio Mayor Miguel

de Unamuno, de la upv/ehu.

Fue en 1981. El aceite de colza tóxico mataba por media España, y el entonces Ministro de Sanidad y Catedrático de Física, Jesús Sancho Rof, de-claró que el síndrome era «una neumonía provocada por el Mycoplasma pneumoniae», y añadió con énfasis y afán pedagógico, mal aconsejado y bastante temerario, que el micoplasma no era peligroso ya que, en su opinión, «es un bichito tan pequeño que si se cae de la mesa se mata».

Eduardo Angulo, profesor de Biología Celular de la upv/ehu

Div

ulga

ción

Reflexiones y profecías

Divulgación - Reflexiones y profecías

ciencia y que no puede existir una ciencia de futuro en una sociedad no democrática. Ciencia y democracia son, a pesar de algunos, las dos caras del dios Jano, aunque, por una vez, ambas miran en la misma dirección. En conjunto, ciencia y tecnología nos rodean por todas partes e influyen, más bien más que menos, en nuestra vida diaria o en nuestras decisiones más importantes. Es necesario transmitir el conocimiento en ciencia y tecnología para que podamos comprender nuestro mundo y planificar el futuro. La divulgación científica es esencial en una sociedad democrática.Lo dicho me lleva a reflexiones sobre la divulgación científica que, quizá ya expuestas muchas veces por personas mejor preparadas, me provocan una cierta inquietud y un deseo de presentarlas de nuevo en esta ocasión.Antes de continuar, necesito aclarar que considero que comunicación científica y divulgación científica no son lo mismo. La comunicación científica proviene de instituciones y personas que difunden líneas y re-sultados de investigación. Dan a conocer la ciencia y sus resultados a la sociedad. Es necesaria socialmente: legitima y justifica la investigación científica y la dedicación y el gasto que supone. Tiene apoyos pues son las propias instituciones y empresas quienes la promueven para dar a conocer lo que hacen. Sin embargo, hay que destacar que muchas noticias que provienen de la comunicación científica, quedan en simples notas en la prensa en las que ni siquiera se cita la fuente. Se ahorra sitio y se pierde credibilidad al no citar la institución o la publicación de procedencia. La divulgación científica, en general, más que instituciones, la hacen personas. Contiene todas las características que hemos dado a la co-municación científica pero, además, es educativa y es pedagógica. Exige un esfuerzo, a veces importante, al receptor, y por ello, también implica su compromiso previo con la ciencia y la tecnología. No es habitual que compre un libro o vea un documental de divulgación científica quien no se interese por la ciencia. Aunque el compromiso con la ciencia puede ser pasivo e inconsciente, tal como ocurre con los documentales sobre la naturaleza: el receptor se asombra, se sorprende, se interesa, pero también aprende. Cada vez se destaca más, en la divulgación, este as-pecto lúdico y cualquier excusa divertida ayuda a enseñar ciencia. Quizá sea banalizar la ciencia pero, es indudable que es eficaz. Además, si la divulgación demuestra emoción por lo que expone es más eficaz: la emo-ción atrae y ayuda al aprendizaje y la mejor emoción es la que implica cercanía y cotidianeidad. Siempre, claro está, que no ahogue la certeza y objetividad de la ciencia. Ambas, comunicación y divulgación, deben mostrar la ciencia y sus valo-res, metodología, conocimientos, beneficios, costes y peligros. Por ello, la divulgación no es bien vista por grupos políticos y sociales que prefieren un ciudadano ignorante y, por tanto, más fácilmente manipulable. Jesús Ávila escribió que se debe establecer una relación de confianza mutua entre la sociedad, representada por sus dirigentes, y los cientí-ficos. Esta es una relación entre dos élites, los políticos y los científicos funcionando como expertos, algo muy de actualidad. La relación debe ser entre los científicos y los ciudadanos, en una fase previa en el sistema educativo, que debe proporcionar conocimientos de ciencia y tecnolo-gía; y en una segunda fase, de actualización y divulgación que ponga al día esos conocimientos. Pongamos un ejemplo: el vertido de la British Petroleum en el Golfo de México. Allí existía esa perforación porque los científicos, actuando como expertos, habían asegurado a los políticos, que aprobaron las leyes y reglamentos necesarios, que esa perforación a gran profundidad era segura. Los científicos, cuando no actúan como expertos para los políticos, saben que esa perforación no es segura y más si en la

zona hay hidruro de metano. Si los científicos actúan como expertos y no existe un cuerpo civil de la administración lo suficientemente establecido, el científico acabará siendo el experto voz de su amo del político, pues de éste dependen los fondos y su futuro. Si los datos científicos hubiesen llegado sin filtrar a los ciudadanos y estos tuvieran una formación básica en ciencia y tecnología, esa prospección nunca se hubiese aprobado. Una consecuencia: ahora los ciudadanos no se fían de los científicos debido al pecado original de éstos de actuar como expertos para los políticos. Ejemplos: los móviles, las antenas para móviles y el cáncer; las nuevas centrales nucleares y su seguridad; los cultivos transgénicos; las vacunas; y así podría seguir con más asuntos. La única relación interesante a largo plazo entre políticos y científicos es aquella, y me repito, que signifique divulgar la ciencia entre los ciudadanos y que sean éstos los que tomen las decisiones. Ingenuo y utópico, quizá.Otro reto de la divulgación científica, y de la educación en general, es desarrollar el sentido crítico en los ciudadanos. No solo debe, con la vo-luntad pedagógica que he mencionado, enseñar, sino que, además, debe desarrollar una intensa sensibilidad crítica ante las variadas y múltiples informaciones que le llegan. Y debe aprender a ser crítico incluso con la propia ciencia; es más, sobre todo debe serlo con la ciencia. Y revertir la tendencia, observable en cualquier actividad, de un pensamiento general cada vez menos crítico y más acomodado o, peor, indiferente.Hay dos aspectos de cómo llega la ciencia a la sociedad que me preocupan especialmente. En primer lugar, y ya lo he mencionado de pasada al ha-blar de comunicación científica, las noticias se dan sin citar las fuentes o citándolas de manera insuficiente, y sin el menor atisbo de crítica. Sé que la información no es opinión, a ser posible, pero no se pueden ofrecer, sin más, curas inmediatas del cáncer, el problema de la energía resuelto por la fusión fría, o datos de contaminación donde se confunde detección y control; es necesario un mínimo de sentido crítico. Y en segundo lugar, hay una preocupante tendencia, que vende muy bien, de convertir la divulgación científica en un apartado más de los métodos de autoayuda: las mentes flexibles, alcanzar la felicidad, cómo encontrar pareja, la atracción sexual, y quién sabe cuántos temas más, mezclan ciencia y autoayuda de manera peligrosa. Los escritos de autoayuda, para que sean eficaces, exigen que el lector crea en lo que allí encuentra y no hay nada menos parecido a la ciencia que la fe. Con la fe, todo está hecho y no queda nada para el debate, la discusión y el futuro. Y en la ciencia, por el contrario, que todo explica pero nada justifica, no hay temas cerrados, todo está sujeto a revisión. Es Eduardo Punset quien afirma, con razón, que el pensamiento científico es frágil, es transitorio hasta que alguien demuestre lo contrario.Para divulgar la ciencia hay medios tradicionales, de reconocida eficacia y difusión, y, en estos tiempos de la web 2.0, nuevas posibilidades a explorar. Entre esos medios en red, uno de los más populares es el blog que, me parece, está empezando a desbancar la mayor rapidez e inmediatez de las redes sociales. El blog es ágil, sencillo de usar, mucha gente lo visita y explora, a menudo por simple curiosidad, y también hay quien busca, como cualquiera de nosotros, a través de Google resolviendo alguna duda, problema o curiosidad.Pero, como pasa siempre en estos asuntos de la red, también hay una cier-ta inconsistencia y falta de compromiso: los visitantes dejan de hacerlo, los que escriben, los blogueros, dejan de hacerlo, cambian de dirección, de tema, etcétera. Es un mundo algo gaseoso, va y viene. Hay que ser constante y cabezón para no rendirse y seguir adelante.

Page 11: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

21 20

Divulgación Científica - Reflexiones y profecías

Incluso podemos profetizar, teniendo siempre en cuenta que las profecías más acertadas se refieren siempre al pasado. Por ejemplo, salimos a la calle, llueve, es un día ventoso, en el móvil buscamos la previsión del tiem-po, una borrasca atlántica nos manda frentes uno tras otro, la borrasca proviene de un ciclón del Caribe, en un aparte, el móvil nos explica cómo se forma un ciclón en el Caribe y cómo se transforma en una borrasca cuando atraviesa el Atlántico, etc. Además, unos gráficos del número y potencia de los ciclones formados en las últimas décadas, nos relacionan nuestra mojadura matutina con el cambio climático. Y entonces suena el móvil, alguien nos llama, y por fin el chisme cumple con su primitiva, y casi olvidada, función: comunicarnos con nuestros prójimos.Y todo esto, ¿a dónde me lleva? Pues a preocuparme de la eficacia de lo que hago. Me pregunto si esto me lleva a alguna parte o si me sigue man-teniendo en la proverbial torre de marfil que se nos achaca siempre a los científicos. Sé que conocer la eficacia en la divulgación científica no es asunto fácil. También hay divulgación ininteligible. Luis Alfonso Gámez comentó una vez que un científico para ser buen divulgador debe dejar de pensar como científico; no sé si tanto como pensar pero desde luego que debe dejar de expresarse como tal pues solo le entenderían sus colegas.Como dijo Arthur C. Clarke, cualquier tecnología lo suficientemente avanzada es indistinguible de la magia. Pero Richard Feynman, otro Pre-mio Nobel, en frase a menudo atribuida a Einstein, también afirmó que «si no eres capaz de explicar tu trabajo a tu abuela es que, en realidad, no lo entiendes». Por lo tanto, aunque sea magia, debemos ser capaces de explicarla para que la entienda todo el mundo. También es cierto, y hay que tomarlo como principio de precaución, lo que escribió Javier Sampedro, cuando afirmaba con razón, que para escribir con claridad, primero hay que pensar con claridad.Y suponiendo que nos sabemos explicar, y no voy a ir más allá, ¿llegamos a la gente, a los ciudadanos, a esa ciudadanía a la que me refería al prin-cipio? Mi primera conclusión es, a la vez, esperanzadora y deprimente. Creo que solo divulgamos para quien quiere aprender; para quien, pre-viamente, quiere ser divulgado; para quien tiene un compromiso previo con la ciencia y la tecnología. Y cómo obtener ese compromiso es algo que también dejo en el aire.En resumen, he dejado abiertos tres puntos que a mí me interesan pero que, en absoluto, cierran cualquier otro comentario sobre lo que acabo de decir. Esos tres puntos se podrían resumir en conocer si la divulgación científica es lo mismo para todos, en si lo que hacemos como divulgación es eficaz y en, si es necesario un compromiso previo del receptor de la divulgación, cómo conseguirlo.Para acabar, considero que la ciencia dejará de ser divulgada cuando forme parte de la educación de los ciudadanos, cuando sea popular. En ese momento, la divulgación, en su aspecto educativo, y en su aspecto lúdico, pasará a formar parte de la vida diaria. Quizá tenemos miedo al llamado almanaquismo, es decir, a la divulgación anecdótica de la ciencia, sin interés y basada en curiosidades expuestas sin orden. Pero, de esta manera, dejamos de lado la explicación científica de los hechos simples y sencillos de la vida diaria y nos centramos en los grandes temas: el cere-bro, la inteligencia, la evolución, vida, Universo, Tierra,… Ni un extremo ni su contrario, pero me haría feliz que, cada día, en vez de consultar el horóscopo, la mayoría de los lectores buscaran la columna de ciencia en una especie de calendario zaragozano científico que incluyesen los medios escritos.

Llega a la gente, sí; a cuánta gente llega, ni idea; da a conocer la ciencia, sí; educa, sí. Sin embargo, como en toda divulgación, y ya lo he mencionado, no conozco su eficacia real. Quizá sea uno de los problemas de la red: faltan datos, por muchas estadísticas de visitas que se tengan, hay que estudiar tiempo de permanencia, cuánto se ha recorrido el blog, cuánto tiempo ante cada pantalla,… Sin embargo, el blog produce una muy inte-resante retroalimentación hacia el divulgador a través de los comentarios de cada entrada. Y, además, y es una característica de la red, destaca la inmediatez de la respuesta. Esta retroalimentación inmediata puede ser un buen indicador de eficacia, siempre con la precaución de que no solo cuente el número de comentarios.En la divulgación pasa como en la docencia, que simplemente con más medios no se mejora sin más la enseñanza. En todo caso, se facilita y, a veces, también se perjudica. Todos sabemos que un buen profesor lo es sin y con más medios, y que un mal profesor también lo es sin y con más medios. Toda esta inmediatez, que digo es tan interesante, no signifi-ca hacer divulgación descuidada o superficial. Como exige José Manuel Sánchez Ron a la divulgación escrita que tenga transparencia expositiva e imaginación literaria, debemos plantear los mismos requisitos a la di-vulgación a través de internet y, en definitiva, de cualquier medio.Y, por otra parte, los medios informáticos, en este momento de la his-toria, son imprevisibles. Lo que yo escribo ahora, unos dos meses antes de que ustedes lo lean, estará obsoleto dentro de, como mucho, un año. Los portátiles son cada vez más pequeños, los móviles son cada vez más grandes, los lectores de libros mejoran sus prestaciones a gran velocidad y, encima, Apple se empeña en unir varias de estas funciones en un artilugio sin nombre más rápido, potente y pequeño.

Divulgación - Reflexiones y profecías

Page 12: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Xxxx xxxx xxx xxxxx

23 22

Inve

stig

ació

n ho

y

unos 800 millones de años, una de estas células primigenias compartió con éxito su vida con otras semejantes, e inició el complejo proceso de construcción de organismos multicelulares. Fue también en ese momento cuando comenzaron a gestarse las primeras vías moleculares que más tarde conducirían al cáncer. La lenta e imparable transición hacia la pluricelularidad fue un indudable logro evolutivo al que debemos nuestra propia vida. Sin embargo, el pro-ceso de generación de seres pluricelulares dejó necesariamente algunas deficiencias moleculares que nos proporcionaron ventajas evolutivas, pero que simultáneamente nos abocaron a la posibilidad de desarrollar procesos tumorales. El cáncer surge cuando una sola de los billones de células que construyen nuestro cuerpo se transforma, pierde su sentido altruista y se multiplica sin control intentando destruir el organismo al que hasta entonces contribuyó a modelar. Entre las deficiencias meca-nísticas intrínsecas a nuestra propia naturaleza pluricelular podemos señalar la falta de fidelidad en los mecanismos de replicación y reparación del dna, la existencia de una compleja red de señalización inter- e intra-celular susceptible de sufrir múltiples alteraciones y el mantenimiento en nuestros órganos y tejidos de un cierto número de células –incluyendo las células madre adultas– con gran potencial proliferativo o invasivo. Estas células son absolutamente imprescindibles para afrontar proce-sos fisiológicos fundamentales como el desarrollo embrionario. Además,

El cáncer es una enfermedad que parece haberse instalado de manera permanente en todas las sociedades humanas y cuya capacidad para hacernos sentir vulnerables también parece aumentar cada día. Así, de acuerdo con estimaciones recientes realizadas por expertos de la Organi-zación Mundial de la Salud, se cree que en el año 2020 se diagnosticarán más de 16 millones de nuevos casos de cáncer y habrá alrededor de 10 millones de víctimas mortales causadas por esta enfermedad. Sin embar-go, pese a estos números abrumadores que casi asemejan el cáncer a una epidemia moderna, no estamos ante una patología de reciente aparición en el escenario humano y solo es necesario que recordemos su origen para convencernos de ello. En efecto, tras la formación de las primeras células hace más de tres mil millones de años, la vida en nuestro planeta transcurrió en un ámbito exclusivamente unicelular. Milenio tras milenio, la vida unicelular, clónica e inmortal dominó la Tierra hasta que hace

Carlos López-Otín. Catedrático de Bioquímica y Biología Molecular

en la Universidad de Oviedo, donde compagina su labor docente

con el desarrollo de líneas de investigación sobre cáncer, envejeci-

miento y análisis funcional de genomas. Codirige el proyecto espa-

ñol de los Genomas del cáncer, es miembro de la Real Academia de

Ciencias y ha recibido diversas distinciones incluyendo el Premio

Nacional de Investigación Santiago Ramón y Cajal.

Carlos López-Otín, Instituto Universitario de Oncología, Universidad de Oviedo.

El cáncer en la nueva era genómica

→Carc

inom

a en

pie

l hum

ana.

Mic

rogr

afía

: Ann

ie C

avan

agh

Page 13: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

25 24

Investigacion hoy - El cáncer en la nueva era genómica

participan activamente en el mantenimiento y defensa del organismo. La pérdida de los controles que permiten que la función de estas células se mantenga siempre en unos límites apropiados, conlleva la adquisición de las propiedades mitogénicas e invasivas características de las células transformadas que conforman los tumores malignos.Afortunadamente, nuestro progreso evolutivo también nos ha propor-cionado una serie de mecanismos biológicos para tratar de minimizar el potencial tumoral derivado de estas deficiencias surgidas tras la ad-quisición de la pluricelularidad. Entre ellos podemos citar la capacidad replicativa finita de las células, la cuantiosa inversión en sistemas de reparación del daño genético, los programas de apoptosis o la eficacia de nuestro sistema inmune antitumoral. Pese a ello, es una realidad el hecho de que los organismos pluricelulares desarrollan tumores malig-nos, y en el caso de nuestra especie, con una frecuencia que ha venido aumentando en las últimas décadas. ¿Cuál es la causa de este aparente incremento en los casos de cáncer? Muy probablemente porque más allá de la evolución biológica, la evolución cultural y social ha conllevado el desarrollo de una gran capacidad de interferir con nuestra propia na-turaleza biológica a través de cambios en la dieta, exposición a agentes cancerígenos, o simplemente, por el notable incremento en la esperanza de vida que hoy podemos observar en una parte significativa de las so-ciedades humanas actuales.En suma, el cáncer es un proceso patológico muy antiguo que surge como consecuencia inevitable de nuestra propia evolución. La inheren-te complejidad y diversidad de esta enfermedad hace que solo podamos aventurar ciertas hipótesis acerca de los mecanismos moleculares que generaron los primeros tumores. Sin embargo, parece claro que el cáncer nos ha acompañado desde el principio de nuestra historia como especie. Más aún, los paleopatólogos han encontrado indicios de tumores óseos malignos en vértebras de dinosaurios del periodo Mesozoico, avalando la idea de la antigüedad de los procesos tumorales. También desde el principio, la búsqueda de soluciones frente al problema del cáncer ha sido amplia y diversa. Así, la cirugía, y después la quimioterapia y la radiote-rapia, aportaron respuestas precisas y evitaron que las palabras cáncer y muerte fuesen términos inseparables dentro de la misma ecuación, de forma que hoy muchos tumores malignos pueden curarse. En efecto, las últimas estadísticas indican que más del 50% de los pacientes con cáncer sobreviven a la enfermedad. Sin embargo, todos tenemos la triste certeza de que la curación de otros tumores nos obliga necesariamente a la exploración de posibles soluciones adicionales.En este sentido, debemos recordar que hace poco más de tres décadas, un grupo de destacados científicos intuyó que la Biología Molecular, de-sarrollada vertiginosamente tras el descubrimiento de la estructura en doble hélice del dna por James Watson y Francis Crick, también podía aportar nuevas respuestas al problema del cáncer. En efecto, los avances en esta joven disciplina han contribuido a desvelar secretos importantes de los procesos tumorales y nos han mostrado que, esencialmente, el cán-cer es el resultado de la acumulación de daño genético o epigenético en oncogenes, genes supresores y genes de mantenimiento de la integridad del dna. También hemos aprendido que este daño se hereda de nuestros progenitores en un pequeño porcentaje de casos (alrededor del 5%), pero que en la mayoría de las ocasiones se adquiere a lo largo de la vida por agresiones externas como las radiaciones solares, el tabaco, algunos virus, o simplemente por azar. Además, varias décadas de investigación mole-cular en biología tumoral nos han enseñado que, tras la impresionante Terapia de radiación

Investigacion hoy - El cáncer en la nueva era genómica

les o dirigidas, para contraponerlas con las derivadas de la quimioterapia citotóxica tradicional que ha sido la base de la Oncología médica durante las últimas décadas. En la actualidad, hay un total de 22 productos apro-bados por la fda para el tratamiento dirigido del cáncer. Entre ellos se encuentran numerosos inhibidores de pequeño tamaño molecular, inclu-yendo el Imatinib para el tratamiento de la leucemia mieloide crónica, y diversos anticuerpos monoclonales humanizados como el Trastuzumab para el tratamiento del cáncer de mama metastásico. Sin embargo, el ele-vado potencial mutagénico del cáncer conduce con intolerable frecuencia a las resistencias anti-quimioterápicas y a las recidivas tumorales que obligan una y otra vez al desarrollo de nuevos medicamentos que inclinen la balanza hacia el lado de la vida, en esa batalla permanente entre los fármacos y el cáncer. Sin duda, esta difícil situación conlleva la necesidad de implementar nuevas aproximaciones experimentales que proporcio-nen oportunidades terapéuticas mejores y más diversas. En este sentido, la resolución de la estructura tridimensional de las distintas proteínas asociadas al cáncer, el diseño de chips genéticos que permiten el análisis global de los cambios en la actividad génica durante la progresión de la enfermedad y la creación de animales transgénicos «humanizados» en los que se pueden examinar los mecanismos de desarrollo del cáncer y los efectos de nuevos fármacos antitumorales, constituyen aspectos que han dirigido muchos estudios recientes en el campo de la investigación oncológica. Además, el estudio detallado de procesos complejos como la adicción oncogénica y no-oncogénica o la letalidad sintética en células tumorales, la identificación de las alteraciones inmunológicas y meta-bólicas asociadas a la transformación maligna, el esclarecimiento de las complejas conexiones entre distintos sistemas reguladores co-optados por las células tumorales, y la definición precisa de la importancia de las células stem en la progresión tumoral representan algunos de los campos que pueden proporcionar nuevas claves acerca de las funciones biológicas que resultan alteradas en el cáncer. Es de esperar que el futuro progreso en todos estos ámbitos pueda conducir finalmente a la instauración de

variabilidad clínica y biológica de los tumores malignos, hay una serie de características bioquímicas adquiridas por las células transformadas y compartidas por la mayoría de los tumores. Entre ellas, y siguiendo la estela integradora de Douglas Hanahan y Robert Weinberg, pode-mos citar la adquisición de mecanismos autónomos de proliferación, la insensibilidad a las señales de inhibición del crecimiento celular, la generación de estrategias de resistencia a la apoptosis, la superación de la barrera de la mortalidad por reactivación de enzimas como la telomerasa, el desarrollo de programas de angiogénesis que aporten el oxígeno y los nutrientes requeridos para la progresión tumoral y final-mente, la adquisición de una capacidad letal de invadir otros territo-rios corporales y generar metástasis, la manifestación más extrema del caos biológico subyacente a la transformación maligna. Estudios muy recientes han mostrado que en gran medida, la capacidad metastásica tumoral está ya preinscrita en las alteraciones genómicas responsables de la formación del tumor primario, las cuales conducen a una com-pleja cascada de acontecimientos sucesivos que implican cambios en la interacción de las células tumorales con componentes específicos de la matriz extracelular, la destrucción local de esa matriz a través de enzimas proteolíticas y la migración activa de dichas células a sitios distintos y distantes del organismo. En efecto, una vez que las células tumorales alcanzan el torrente sanguíneo y se extienden por el cuerpo, la progresión tumoral se torna prácticamente irreversible, limitando extraordinariamente las posibilidades de vencer al cáncer. Por ello, no podemos olvidar que tras todo este volumen de información biológica básica sobre los mecanismos de progresión del cáncer, debe siempre subyacer un deseo profundo y comprometido de encontrar respuestas clínicas para tratar aquellos tumores para los que la Medicina todavía no ha encontrado soluciones adecuadas.En estos últimos años, el conocimiento molecular acumulado sobre los mecanismos de progresión tumoral ha permitido el desarrollo de nuevas terapias para el tratamiento del cáncer que se han dado en llamar raciona-

pet/ct de cáncer de mama. Fuente: Hg6996 Chip genético

Page 14: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

26

noma de los tumores malignos no va a representar la curación rápida y definitiva de todos los tipos de cáncer, sino la posibilidad de ofrecer a los oncólogos toda la información biológica y molecular posible acerca de cada tumor, que permita la instauración de tratamientos individualizados para cada paciente. Para lograr este objetivo fundamental deberán supe-rarse todavía una serie de barreras científicas, tecnológicas y económicas que limitan las posibilidades actuales de estos proyectos. Así, este trabajo de secuenciación genómica solo representa una etapa inicial que habrá que completar con estudios funcionales que permitan definir cuáles son las mutaciones impulsoras o conductoras de la transformación maligna y cuáles son meras acompañantes del proceso. En cuanto a los avances tecnológicos, no podemos sino reconocer que en un espacio brevísimo de tiempo la metodología genómica ha progresado de manera extraor-dinaria. Hoy, en el Centro Nacional de Análisis Genómico recientemente inaugurado en Barcelona, se puede determinar la secuencia completa de un genoma humano en apenas tres días, aunque la labor de análisis de esa información es todavía muy compleja y requiere la participación de expertos de los que solo hay unos pocos en España. El coste econó-mico del proceso de secuenciación genómica también se ha reducido de manera espectacular, lo cual acerca notablemente a la realidad la opción de descifrar genomas individuales en un futuro próximo con alta eficiencia y de manera relativamente asequible. Por último, y pese a que estos proyectos genómicos están todavía en fases muy preliminares, cabe señalar que éxitos recientes como el hallazgo en tumores cerebrales de mutaciones frecuentes en los genes idh que hasta ahora no se habían encontrado alterados en el cáncer, constituyen un ejemplo importante de las nuevas posibilidades que ofrece la Medicina Genómica. Probable-mente, esta disciplina abrirá una ventana al descubrimiento de nuevos genes, nuevos procesos, nuevos mecanismos y nuevas interacciones que a su vez conducirán a nuevos tratamientos que tal vez no consigan curar definitivamente, pero si al menos controlar, aquellos tumores para los que en la actualidad no hay soluciones eficaces.En definitiva, una amplia, sorprendente y estimulante colección de estudios recientes ha comenzado a mostrar que tras la extraordinaria variabilidad clínica y biológica de los tumores malignos, subyace una lógica molecular común que puede ser comprendida o interpretada me-diante la definición de una serie de mecanismos bioquímicos comunes a dichos tumores. La investigación detallada de estos mecanismos, el estudio global de los genomas del cáncer, la estrecha colaboración de la investigación básica, clínica y epidemiológica en Oncología y la im-plantación de exigentes medidas de prevención y concienciación social sobre esta patología serán fundamentales para afrontar los numerosos retos todavía pendientes en torno a una enfermedad que nos recuerda con perseverancia la fragilidad humana.

Bibliografía

Greaves, M. Cancer stem cells: back to Darwin Semin. Cancer Biol. 20: 65-70 (2010)

López-Otín C. and Hunter T. The regulatory crosstalk between kinases and proteases in cancer.

Nature Rev Cancer 10: 278-292 (2010)

Nguyen DX, Bos PD and Massagué J. Metastasis: from dissemination to organ- specific coloni-

zation. Nature Rev Cancer 9: 274-284 (2010)

Stratton et al. The cancer genome. Nature 458: 719-724 (2009)

The International Cancer Genome Consortium. International network of cancer genome

projects. Nature 464: 993-998 (2010)

Investigacion hoy - El cáncer en la nueva era genómica

nuevas estrategias terapéuticas antitumorales más eficaces que las dis-ponibles en el momento presente.Sin embargo, la extraordinaria complejidad del cáncer nos obliga a am-pliar nuestra mirada científica mucho más allá de todas las aproximacio-nes actuales. En este sentido, el nuevo proyecto de los genomas del cáncer, constituye en mi opinión un hito en la investigación oncológica. El pro-yecto pretende determinar la secuencia completa de nucleótidos de al menos 500 genomas tumorales de pacientes con cada uno de los tipos de cáncer más frecuentes, incluyendo enfermos con leucemia linfática crónica que es el proyecto que se va a realizar en España. En este proyecto participan científicos de numerosas instituciones públicas españolas, coordinados desde el Hospital Clínico de Barcelona por el Dr. E. Campo y desde nuestro propio grupo de investigación, ubicado en la Universidad de Oviedo. Los resultados de este proyecto a largo plazo, sumados a los de otros 10 proyectos equivalentes sobre diferentes tumores, que ya se están desarrollando en otros países, permitirán disponer de una información fundamental acerca del paisaje genético del cáncer. Paralelamente, se realizarán estudios epigenéticos y proteómicos que contribuirán a ofre-cer una amplia información molecular acerca de cada tumor. En último término, esta aproximación global al estudio del cáncer podrá conducir al diseño racional de una nueva generación de medicamentos más se-lectivos y eficaces que los disponibles en la actualidad, y que formarán parte de lo que podemos denominar estrategias de terapia combinada frente al cáncer. Así, junto a las aproximaciones tradicionales basadas en la cirugía, radioterapia y quimioterapia, que deberán mantenerse y perfeccionarse, tendrán que introducirse tratamientos complementarios derivados del conocimiento genómico de cada tumor de cada paciente.No obstante, hay que insistir en la idea de que el desciframiento del ge-

Cell line del melanoma maligno colo-829

Page 15: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Xxxx xxxx xxx xxxxx

29 28

Inve

stig

ació

n ho

y

La experiencia pionera en la nueva terapia molecular dirigida fue el des-cubrimiento del imatinib (Gleevec®) y su aplicación en un tipo de cáncer hematológico, la leucemia mieloide crónica (lmc2). El desarrollo del imati-nib comenzó a finales de los años noventa siguiendo un modelo diferente al paradigma tradicional que dominaba la identificación de nuevos fár-macos. En aquel momento, existía un conocimiento razonable sobre las bases moleculares de la lmc. En la mayoría de casos, esta enfermedad se origina tras translocación y unión aberrante de los cromosomas 9 y 22, generando lo que se ha denominado como cromosoma Philadelphia. Esta unión origina una proteína de fusión anómala, la bcr-abl, que posee gran capacidad para inducir proliferación celular incontrolada. El cambio

Dr. Josep María Llovet es profesor de Investigación (icrea) y dirige

el Laboratori de Recerca Translacional d’Oncología Hepàtica (idi-

baps, Hospital Clínic, Barcelona). Es professor of Medicine y direc-

tor del Liver Cancer Program en el Mount Sinai School of Medicine

de Nueva York, y coordinador del consorcio heptromic.

Dr. Augusto Villanueva es especialista en Aparato Digestivo y

trabaja como investigador post-doctoral ciberehd en el idibaps

(Hospital Clínic, Barcelona). Entre 2005-2008 trabajó como

research fellow en el Liver Cancer Program (Mount Sinai School of

Medicine, Nueva York). Es Scientific Manager de heptromic.

El cáncer es la segunda causa más frecuente de mortalidad en países desarrollados, ligeramente por detrás de las muertes producidas por enfermedades cardiovasculares. Según datos de los Centers for Disease Control and Prevention estadounidenses, el 23% del total de fallecimientos anuales en ee.uu. están directamente relacionados con cáncer. A pesar de ello, la mayoría de los tumores malignos han experimentado un marcado descenso en sus tasas de mortalidad durante las últimas décadas1. Sólo hay tres excepciones a esta tendencia: el melanoma, el cáncer de esófago y el de hígado. Esta tendencia es consecuencia de mejoras a diferentes niveles: implementación de programas de cribado y prevención primaria, mejoras en el diagnóstico precoz y estadiaje, optimización de la técnica quirúrgica y tratamientos adyuvantes, desarrollo de unidades de atención oncológica integral, etc. A ello se suma la introducción, a principios de la presente década, de una nueva familia de fármacos (i.e., terapia molecular dirigida) con actividad antitumoral contrastada.

Dr. Josep Llovet, Dr. Augusto Villanueva, idibaps, Hospital Clinic, Barcelona

Nuevas perspectivas en investigación clínica oncológica: diseño terapéutico basado en el conocimiento

Investigacion hoy - diseño terapéutico basado en el conocimiento

conceptual que se produjo en aquel entonces fue la búsqueda de inhibi-dores específicos de dicha proteína de fusión entre grandes librerías de moléculas. En 1998, una vez identificada y evaluada su actividad antitu-moral en modelos experimentales, se inició su desarrollo en humanos. Los resultados de los ensayos clínicos fueron prometedores y en algunos casos hubo respuestas tumorales abrumadoras. Ello motivó que, en 2001, las autoridades reguladoras norteamericanas (i.e., Food and Drug Admi-nistration (fda)), aprobaran el imatinib para el tratamiento de la lmc. La importancia de la introducción de las terapias moleculares dirigidas no sólo radica en la disponibilidad de nuevo armamento en la lucha con-tra el cáncer. Es probable que la gran aportación del fenómeno imatinib es el cambio conceptual en la forma de abordar la investigación clínica oncológica. El nuevo modelo se asienta sobre dos pilares fundamentales: 1) el conocimiento de la patogenia molecular del cáncer como base ra-cional para el desarrollo de nuevas terapias, y 2) el reconocimiento de la importancia de las singularidades moleculares propias de cada tumor. En otras palabras, se asume que la heterogeneidad interindividual del cáncer dista de ser trivial y debe ser tenida muy en cuenta a la hora de diseñar herramientas diagnósticas, pronósticas y terapéuticas.

Bases moleculares para el desarrollo de terapias dirigidas con aplicación clínicaLa investigación oncológica está cambiando de forma vertiginosa. Se pue-den enumerar muchos factores que han impactado de manera decisiva en este cambio, pero cabe destacar cuatro: 1) el gran avance tecnológico producido en los últimos 15 años tras la introducción de tecnologías de exploración génica de alta resolución (e.g., microarrays de expresión, se-cuenciación de segunda generación, etc.); 2) el incremento notable en la disponibilidad de muestras biológicas para estudios moleculares (e.g., ban-cos de tejido); 3) el desarrollo de la bioinformática, biología computacional y las bases de datos de libre acceso como herramientas básicas en investi-gación genómica; y 4) el reconocimiento de la efectividad antitumoral del modelo de diseño de fármacos basado en el conocimiento (i.e., rational drug design3). Si consideramos una perspectiva temporal, los cambios introdu-cidos en los últimos 20 años en nuestra capacidad de interrogar el geno-ma del cáncer son cuantitativamente superiores a los obtenidos durante toda la historia precedente. De hecho, el desarrollo tecnológico ha creado una situación desconocida hasta la fecha en investigación biomédica. A pesar de resultar paradójico, el volumen de información genómica que podemos generar, sobre todo el proveniente de técnicas de secuenciación masiva, supera con creces nuestra capacidad para procesarlo, analizarlo, interpretarlo e incluso almacenarlo de forma apropiada. Prueba de ello es que desde que se publicaron los primeros estudios de secuenciación de genoma completo4, los resultados siguen refiriéndose a descripciones de las alteraciones genéticas en muestras únicas. Actualmente, es impracti-cable realizar este tipo de estudios en cientos de individuos, algo que sí es viable con otras tecnologías como los arrays de expresión5. Existe otro factor que dificulta la realización de estos estudios y es su elevado coste. El precio estimado de la secuenciación de un genoma completo ronda los 50.000-100.000$, haciéndolo prácticamente inasumible para grupos de investigación en solitario. Por este motivo, se han desarrollado iniciativas internacionales encaminadas a distribuir el coste en estudios de esta mag-nitud. Dos de las más conocidas son el Cancer Genome Atlas (www.tcga.cancer.gov, liderada desde ee.uu.) y el International Cancer Genome Con-soritum (www.icgc.org, con participación multinacional y gubernamental).

Ambos comparten objetivo, caracterizar de forma precisa las alteraciones presentes en el genoma del cáncer tras analizar un número muy elevado de muestras humanas (~500 muestras por tumor) procedentes de neoplasias de diferente estirpe. Es muy probable que la relevancia científica de estos resultados sea equiparable al que tuvo en su momento la publicación de la secuencia completa del genoma humano. Desde que en 1976 los ganadores del premio Nobel Michael Bishop y Harold Varmus caracterizaron el primer oncogén humano (i.e., src), se ha avan-zado mucho en el conocimiento de las lesiones del dna que condicionan el desarrollo tumoral. Entre los múltiples mecanismos responsables de la disfunción genómica en cáncer destacan las mutaciones en oncogenes (e.g., kras en cáncer de páncreas, egfr en cáncer de pulmón) o en genes supresores de tumores (e.g., P53 en carcinoma hepatocelular), las trans-locaciones cromosómicas (e.g., cromosoma Philadelphia), el incremento en el número de copias de dna (e.g., her2/neu en cáncer de mama), las alteraciones en la regulación de la expresión génica (e.g., hipermetilación del promotor de mgmt en gliomas, apc en cáncer colorectal), etc. La con-secuencia de todo ello es la activación aberrante de diferentes vías de señalización celular. Estas vías son sistemas bioquímicos de comunicación intercelular. Estructuralmente, suelen constar de moléculas estimulado-ras (i.e., ligandos) que se unen de manera específica a un receptor de la membrana celular y que inducen activación secuencial de mediadores dentro del citoplasma. El resultado final es la translocación nuclear de un efector que modifica la expresión de un grupo de genes relacionados con una función celular concreta (e.g., proliferación, diferenciación, apop-tosis, migración, metabolismo, etc.). El conocimiento de qué vías están alteradas es básica en el diseño de terapias dirigidas ya que la mayoría de estas nuevas moléculas se dirigen contra algunos de sus componentes. Por ejemplo, el cetuximab, aprobado por la fda en el tratamiento del cáncer colo-rectal avanzado, es un anticuerpo monoclonal que bloquea el recep-tor de la vía del factor de crecimiento epidérmico (egf); o el trastuzumab, aprobado en cáncer de mama, bloquea la vía de señalización de her2/neu. Sin embargo, no todas las alteraciones en las vías de señalización son modificables farmacológicamente. Prueba de ello son las dos alteraciones genéticas más extensamente estudiadas en cáncer, pérdida funcional de P53 y activación de ras o Wnt, para las que no existen compuestos en fases clínicas avanzadas capaces de restaurar su normal funcionamiento. El comportamiento de las vías de señalización no es estanco, es decir, existen evidencias robustas que orientan hacia una notable interdepen-dencia entre diferentes vías. Como consecuencia, se genera un denso entramado de circuitos moleculares que operan como sistemas biológicos complejos. El resultado de este entramado es la emergencia de nuevas propiedades, no explicables a partir de la actividad aditiva de los elemen-tos individuales. El hecho de bloquear la actividad de una vía de señaliza-ción impactará en el correcto funcionamiento de otras que dependen de ella. Quizás esto sea una de las explicaciones de por qué algunos fármacos altamente efectivos en modelos experimentales no hayan tenido un éxito proporcional en humanos. Esta concepción multidimensional de las vías de señalización ha favorecido el desarrollo de una disciplina que utili-za un enfoque global para analizar de forma integral el funcionamiento de estos sistemas biológicos (i.e., Biología de Sistemas). Dentro de estas complejas redes de comunicación, existen unos puntos o nodos donde convergen gran parte de las señales y que actúan como factores limitantes en la transmisión de la misma. Es previsible que la correcta modulación de estos nodos tenga un impacto notable en oncología.

Page 16: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

31 30

Investigacion hoy - diseño terapéutico basado en el conocimiento

Desarrollo farmacéutico basado en el conocimiento: Adicción oncogénica y medicina personalizadaLa adicción oncogénica es un concepto que ha adquirido particular rele-vancia en los últimos años. Se define como un estado de dependencia de las células cancerígenas de la activación de determinados oncogenes o la pérdida funcional de genes supresores tumorales. Dicha dependencia es bidireccional, es decir, su presencia es suficiente para que una célula adquiera o mantenga el fenotipo maligno y su supresión consigue rever-tirlo (e.g., regresión tumoral en modelos experimentales de osteosarcoma tras eliminación de su adicción al oncogén myc). Estudios realizados en muestras de cáncer humano han identificado múltiples alteraciones genéticas. Se sabe que la importancia relativa de cada una de ellas es distinta, existiendo cierta ordenación jerárquica. Algunas alteraciones son indispensables para el mantenimiento del cáncer (‘driver events’), mientras que otras son meros acompañantes resultado de errores alea-torios debidos al estado hiper-proliferativo característico de las células tumorales (‘passenger events’). Los drivers son la base de la adicción onco-génica y, a priori, son las dianas ideales para las terapias dirigidas. ¿Cómo se pueden distinguir drivers y passengers? La pregunta no tiene fácil res-puesta y no hay un amplio consenso internacional que establezca unos criterios bien delimitados. Existen algunos datos indirectos que pueden sugerir la presencia de adicción oncogénica en un determinado tumor (e.g., alteración recurrente en diferentes muestras, mutación que active de forma constitutiva una quinasa, etc.). Sin duda, la prueba pre-clínica más consistente la proporcionan los animales de experimentación, siendo éste otro de los campos que ha experimentado una elevada sofisticación en los últimos años. El diseño de animales modificados genéticamen-te (amg) facilita la modelización de múltiples lesiones genéticas en un mismo individuo, habitualmente ratón. Además, existen tecnologías que permiten la expresión de dichas alteraciones únicamente en determina-dos tipos celulares (i.e., amg tejido-específicos) y en algunos casos con modulación cronológica selectiva (i.e., amg condicionados). Es previsible que los amg sean también piezas claves para validar nuevos fármacos en fases preclínicas.

En humanos, existen algunos ejemplos de adicción oncogénica: imatinib en lmc con presencia de la proteína de fusión bcr-abl, transtuzumab (i.e., anticuerpo monoclonal contra her2/neu) en mujeres con cáncer de mama y amplificaciones de her2/neu, gefitinib (i.e., inhibidor de la actividad del receptor del egf) en pacientes con cáncer de pulmón y mu-taciones de dicho receptor, etc. En todos ellos, la respuesta antitumoral es significativamente mejor en aquellos pacientes cuyos tumores presentan la adicción oncogénica diana para cada fármaco. Recientemente se ha producido una situación paradigmática sobre el impacto de identificar estos fenómenos en los diferentes tipos tumorales. En 2007 se comuni-caron los resultados de un gran ensayo clínico en fase 3 que demostraba un incremento significativo en la supervivencia de pacientes con cáncer colo-rectal que sobre-expresaban el receptor del egf tratados con ce-tuximab. Posteriormente se sub-analizaron aquellos pacientes dentro de este estudio que presentaban mutaciones de kras. Estas mutacio-nes tienen capacidad para activar la vía de proliferación de ras/mapk independientemente del estado de expresión del receptor de egf. Los resultados fueron clarificadores: aquellos pacientes con kras mutado no presentaban respuesta al tratamiento con cetuximab. A nivel prácti-co, este estudio resume perfectamente la filosofía detrás de la medicina personalizada. Dicho concepto engloba el estudio de pacientes como individuos biológicos, permitiendo la adecuación de las intervenciones terapéuticas según las singularidades genómicas en cada individuo, con el fin último de maximizar la respuesta terapéutica. La aplicación de mo-delos personalizados en investigación clínica no se restringen a desarrollo farmacéutico, sino que se ha visto que pueden ser de gran utilidad para optimizar la predicción pronóstica en pacientes con cáncer6. El gasto sanitario asociado al manejo de pacientes oncológicos ha crecido exponencialmente en las últimas décadas. Gran parte de este gasto se debe a las nuevas terapias moleculares, cuyo precio supera con creces el de la quimioterapia tradicional. A modo de ejemplo, un tratamiento de seis meses para el cáncer colo-rectal con cinco-fluorouracilo/leucovorin cuesta $350 mientras que con cetuximab el precio ronda los $52.0007. Estudios preliminares sugieren que el ratio coste-eficacia del uso de ce-

Investigacion hoy - ESS-Bilbao

Page 17: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

32

Investigacion hoy - diseño terapéutico basado en el conocimiento

tuximab se incrementa significativamente en pacientes con cáncer colo-rectal seleccionados de acuerdo al estado mutacional de kras. Además de justificación científica, parece que existen razones económicas para seleccionar pacientes a la hora de aplicar terapias moleculares.

Cambios de paradigma y nuevos retosHay una desproporción desfavorable entre el número de fármacos que son evaluados en fase 3 (la previa a su aprobación por agencias reguladoras) y los que finalmente demuestran beneficios significativos en la superviven-cia. Desgraciadamente, los modelos experimentales preclínicos siguen sin predecir adecuadamente el comportamiento antitumoral de un fármaco en humanos. La consecuencia es que una mínima parte del número de com-puestos antitumorales que se empiezan a evaluar (~1%) llegarán al mercado tras demostrar eficacia clínica contrastada. Es muy importante seleccionar apropiadamente los criterios para interrumpir la evaluación clínica de un fármaco en fases tempranas. Asimismo, es de vital importancia escoger las herramientas adecuadas para capturar efectividad antitumoral en el seno de ensayos clínicos. El desarrollo del sorafenib en el carcinoma hepatocelular (chc), la forma más frecuente de cáncer hepático primario, es un claro ejemplo de ello. Hasta 2007, ningún fármaco sistémico había demostrado incrementar la supervivencia de los pacientes con chc en estadío avanzado. Múltiples compuestos habían sido evaluados en estos pacientes: quimiote-rapia tradicional, interferón, tamoxifeno, etc., sin que ninguno demostrase clara eficacia. En 2006 se publican los resultados de un estudio en fase 2 con sorafenib, una nueva terapia molecular dirigida con actividad antiprolife-rativa (inhibición de la vía de ras/mapk) y antiangiogénica (inhibición de vegfr y pdgfr). Dichos resultados contenían una señal de actividad anti-neoplásica teniendo en cuenta la mediana de supervivencia de los pacientes

que recibían la droga. Este indicador proporcionó la base racional para llevar a cabo el ensayo en fase 3 controlado con placebo, que inequívocamente demostró la capacidad del sorafenib para incrementar la supervivencia de estos pacientes8. El efecto antitumoral se conseguía a través del bloqueo de vías de señalización imprescindibles para la progresión y diseminación tumoral. A pesar de que esta droga es considerada poco selectiva, su ac-tividad muti-diana junto a su baja toxicidad han condicionado un efecto antitumoral notable asociado a efectos adversos asumibles y manejables. Obviamente, este avance debe acompañarse en el futuro con la evaluación de terapias moleculares contra vías de adicción más selectivas. Asimismo, el hecho de ser el primer estudio positivo con un tratamiento sistémico ha propiciado que los estudios fase 3 posteriores mimeticen los conceptos básicos de su diseño (restricción a pacientes sin insuficiencia hepática grave, estratificación por factores pronósticos, etc.). Todos estos criterios se han resumido en un documento de consenso y unas recomendaciones para el diseño de ensayos clínicos en pacientes con cáncer hepático9.

ConclusionesLas terapias moleculares han abierto una nueva era en la oncología. El di-seño farmacológico tradicional da paso a uno basado en el conocimiento a priori de los determinantes genéticos que originan, mantienen y hacen progresar al cáncer. A corto plazo, el reto consiste en caracterizar estas alteraciones y discernir cuáles son las principales a la hora de conferir el fenotipo maligno. Una vez identificadas, sin duda serán las dianas ideales para bloqueo farmacológico selectivo. El nuevo modelo se asienta sobre una premisa de heterogeneidad tumoral intrínseca. En otras palabras, las vías de señalización alteradas en un paciente pueden no ser las mis-mas que en otro, a pesar de que ambos presenten tumores de la misma estirpe histológica. Es aún temprano para evaluar si esta aproximación al tratamiento oncológico será exitosa, pues sin duda todavía estamos en fase embrionaria. Sin embargo, creemos firmemente que el futuro de la investigación oncogenómica y su aplicación clínica pasan por perfec-cionar estos abordajes basados en medicina personalizada. Su evaluación en el contexto de ensayos clínicos bien diseñados será fundamental para asegurar su traslado a la práctica clínica diaria.

BIBLIOGRAFÍA

1. Jemal A, Siegel R, Ward E, Hao Y, Xu J, Thun MJ. Cancer statistics, 2009. CA Cancer J Clin

2009;59:225-49.

2. Sawyers CL. Shifting paradigms: the seeds of oncogene addiction. Nat Med 2009;15:1158-61.

3. Mandal S, Moudgil M, Mandal SK. Rational drug design. Eur J Pharmacol 2009;625:90-100.

4. Meyerson M, Gabriel S, Getz G. Advances in understanding cancer genomes through second-

generation sequencing. Nat Rev Genet 2010;11:685-96.

5. Hoshida Y, Villanueva A, Kobayashi M, et al. Gene expression in fixed tissues and outcome

in hepatocellular carcinoma. N Engl J Med 2008;359:1995-2004.

6. Villanueva A, Hoshida Y, Toffanin S, et al. New strategies in hepatocellular carcinoma:

genomic prognostic markers. Clin Cancer Res 2010;16:4688-94.

7. Meropol NJ, Schulman KA. Cost of cancer care: issues and implications. J Clin Oncol

2007;25:180-6.

8. Llovet JM, Ricci S, Mazzaferro V, et al. Sorafenib in advanced hepatocellular carcinoma. N

Engl J Med 2008;359:378-90.

9. Llovet JM, Di Bisceglie AM, Bruix J, et al. Design and endpoints of clinical trials in hepatoce-

llular carcinoma. J Natl Cancer Inst 2008;100:698-711.

A pesar de los apenas cuatro años de vida de nuestro Instituto, ya disponemos de más de una treintena de publicaciones y más de 20 co-laboraciones con centros de investigación de acreditada reputación y excelencia. Queremos convertirnos en un referente entre los princi-pales foros científicos de nuestro país por ello a través de nuestra web www.institutotomaspascual.es dejamos constancia de las actividades realiza-das y trabajamos activamente en la divulgación de estos conocimientos, poniéndolos a disposición del público tanto en formato electrónico como en formato tradicional tipo libro, de forma comple-tamente gratuita.

Los avances científicos han influido, y siguen influ-yendo, en la evolución de la sociedad actual. Hoy día vivimos con un exceso de información, y par-ticularmente de información científica que puede convertirse en un problema si es interpretada mal o fuera de contexto. Por lo tanto, existe una necesi-dad clara de crear nuevos foros independientes de conocimiento que canalicen bien la información y los avances científicos, adaptando y ajustando en cada momento los contenidos y la manera de divulgarlos a una audiencia receptora específica. Puesto que los intereses de los diferentes públicos van cambiando y dado que el acceso a la infor-mación es cada vez mayor, es obligado separar la paja del grano, y saber trasmitirla en un lenguaje adaptado al público que lo escucha, sea científico o no, tenga un nivel cultural mayor o menor.

La divulgación científica responsable es un pilar fundamental de la ciencia moderna, puesto que el mensaje ha de tener el atractivo e interés ne-cesario para que el público por sí solo continúe solicitando más información científica para poder profundizar en su conocimiento. Es un reto apa-sionante encontrar científicos en cada disciplina, capaces de transmitir con palabras sencillas y ejemplos cotidianos lo que para ellos es fácil de entender, y de esta manera así conseguir la necesa-ria conexión entre el mundo académico-científico y la sociedad, que permitan derribar el mito de que la ciencia es sólo para los científicos.

El objetivo es que la sociedad entienda el por qué de la investigación y cuáles son sus aplicaciones, ya sea en ciencia básica o aplicada. De esta mane-ra, por fin, el hombre moderno será capaz de ubi-carse en el espacio y el tiempo en el que vivimos.

En el Instituto Tomás Pascual, distribuimos las actividades entre diversos colectivos, con la inten-ción de crear una corriente crítica de información entre el sector científico, y el público en general, de modo que se logre un diálogo permanente y creativo entre ambos sectores que favorezca el de-sarrollo y la divulgación de nuevos conocimientos. Aunque el Instituto Tomás Pascual se centró en su origen en temas relacionados con nutrición y salud en general, los hábitos de vida saludables, la alimentación o la tecnología de los alimentos, sin renunciar a estos objetivos primarios actual-mente deseamos abrirnos a otras nuevas áreas científicas de interés como la nutrigenómica, la proteómica o la conducta humana entre otras. Nos encontramos en un continuo estado de alerta ante nuevos descubrimientos. Para esta desafiante tarea de situarnos en la frontera de la ciencia y su divulgación, buscamos y establecemos cola-boraciones estables y estrechas, como puede ser la creación de Cátedras o convenios de colabora-ción con centros de excelencia como es el caso del cic biogune.

PUBLICIDAD

Instituto Tomás Pascual, comprometidos con la sociedad y la ciencia

Ricardo Martí Fluxá, Presidente

Acto de Inauguración del Instituto Tomás Pascual Sanz en la Real Academia Nacional de Medicina, en febrero de 2007

El Instituto Tomás Pascual cumplirá cuatro años de vida el próximo mes de febrero. Se trata de una institución sin ánimo de lucro, comprometida al máximo con la sociedad científica moderna. Entre nuestros objetivos está detectar las diferentes inquietudes entre todos los colectivos de la sociedad española para crear foros de debate, jornadas, seminarios, mesas redondas y conferencias.

Page 18: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

34

Entorno cic quiere ser una ventana abierta en la revista cic Network para mostrar los avances y novedades más significativas que se desarrollan en el ámbito de la comunidad científico-tecnológica de Euskadi.

Mesa de Ideas sobre la medición en ciencia, con Aurkene Alzua (cic tourgune), Enrique Zuazua (bcam) y Eudald Carbonell (Atapuerca). Modera: Iñaki Letona.

El Equipo de ESS-Bilbao presenta el «Centro de aceleradores y fuentes de neutrones a baja energía para el sur de Europa».

Alex Bittner, de cic nanogune, escribe sobre el proyecto «Magnifyco» que está desarrollando este centro de investigación.

Investigadores de cic microgune describen las «Tecnologías lab-on-a-chip para observar e identificar moléculas individuales».

Igor Campillo nos habla de la reciente celebración de Passion for Knowledge en Donostia, con motivo del x. Aniversario del Donostia International Physics Center.

36

46

52

56

62

en Euskadi

Det

alle

del

edi

ficio

de

CIC

bio

GU

NE.

Fot

o: A

sier

Lar

raza

“From the lab to the market:

Patents as vehicles of knowledge’s transfer”

09:30-09:45 Seminar Opening José M Mato (cic biogune)

09:45-10:30 General view of the Patent System Manuel illescas (gónzalez-Bueno & illescas -gBi-)

10:30-11:15 Intellectual Property and Technology Transfer from a Basic Research Chemical Laboratory: Some Personal Experiences Manuel Martín-Lomas (cic biomagune)

11:15-11:45 Coffee break 11:45-12:30 The information services of the SPTO: a tool for business support esther Arias (Oficina española Patentes y Marcas)

12:30-13:15 Intelectual Property and Smart Capital Angel Santos (cRB inverbio SgecR)

13:15-14:00 Latest case law of the EPO in Biotechnology: Interpretation and application of the European Patent Convention to the recent technological developments Francisco Fernández-Brañas (european Patent Office)

14:00-14:15 Seminar Closing * All the speaches will be given in english language (no translation into other languages available)

Friday 17th, December 2010HALF DAY SeMinAR Venue: Atrio cic bioguneFree attendance

Organization

collaborators

Parque Tecnológico de Bizkaia ed. 800 · 48160 DeRiO

Bizkaia, País Vasco (Spain)

Page 19: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Xxxx xxxx xxx xxxxx

37 36

Iñaki Letona: Hablemos de la necesidad de medir, ¿por y para qué? Enrique Zuazua: El momento que vivimos so-cialmente se caracteriza por la abundancia de datos. Si dentro de mil años se observa la evolu-ción del planeta y de la especie humana, y lo que ha supuesto el siglo xx y la primera parte del xxi en su desarrollo, se llegará a la conclusión de que este período se ha caracterizado por la explosión del número y complejidad de datos que el ser humano genera y maneja. Interpre-tar y manejar todos esos datos supone un gran nuevo reto y oportunidad para el ser humano.Aurkene Alzua: Por su puesto, pero yo le añadi-ría que nos faltan aún datos para muchos de los retos científicos que nos proponemos. Hay una eclosión de datos, y ahí están la informática y las tecnologías que nos permiten seguir gene-rando nueva información, formas novedosas de medición, que a su vez nos permiten generar

Mesa de ideas con Eudald Carbonell, Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona.

tados o datos variables de mayor o menor rigor, que se asocian a variables ligadas a la propia medición o datación. Se emplean, las emplea-mos, en trabajos que posibilitan, en la mayoría de los casos, resultados científicos, que a su vez, terminan en aplicaciones técnicas concretas de muy alto valor.La medición no está asociada únicamente a lo científico-tecnológico, lo está también al ámbito de las ciencias sociales y a otras disciplinas me-nos conocidas, en el campo y dominio científico. Un ejemplo a su vez, lo podríamos encontrar en la paleontología o en la antropología. Por ello, y con el fin pretendido, hemos reunido alrededor de esta mesa a una científica en turismo y nuevas tecnologías (Aurkene Alzua, directora general de cic tourgune), a un matemático (Enrique Zuazua, director de bcam) y a un paleontólogo (Eudald Carbonell, co-director de Atapuerca); las mediciones son el leit motiv de sus trabajos.

Mes

a de

idea

s

La medición está asociada a la determinación o valoración. Ésta, normalmente, debe expresarse por un número con arreglo a convenciones o a normas admitidas, y por tanto, las mediciones configuran valores en unos casos y expresiones numéricas determinadas en otros, sujetas a la acción de medir. De hecho, lo que medimos, lo que se mide, está referido, en su mayor parte, a magnitudes. Precisan cálculos, principalmente matemáticos, que a veces, se efectúan a través de instrumentos de índole variable y con resul-

La ciencia a medida

Eudald Carbonell es co-director del yacimiento de Atapuerca,

profesor de la Universidad Rovira i Virgili. Aurkene Alzua es

directora general del Centro de Investigación Cooperativa

en Turismo, cic tourgune. Enrique Zuazua director del

Basque Center for Applied Mathematics (bcam). Iñaki

Letona ex director general de Gaiker (30-06-2010), actual-

mente adscrito al Gabinete de Presidencia de Gaiker.

Entorno CIC - Mesa de ideas

nuevas preguntas para las que necesitaríamos nuevos tipos de datos que no son tan evidentes. Ese es nuestro reto. Por qué y para qué medir, comentabas. Yo añadiría: ¿podemos avanzar en el conocimiento sin medir? Creo que no. Y ma-tizaría una cuestión. Cada procedimiento que usamos para medir está imbricado con nuestra visión del mundo, encorsetados en unos para-digmas conceptuales, y nos cuesta muchísimo salir de ellos y generar nuevas técnicas de me-dición para alcanzar una nueva comprensión de la realidad. Es nuestro caso, el de las ciencias sociales, queda pendiente la superación de las técnicas tradicionales y la incorporación de los nuevos diseños y el desarrollo tecnológico como instrumentos para abordar cuestiones científicas; si no superamos los métodos tradi-cionales, como sí se ha hecho en paleontología, no generaremos nuevo conocimiento. En el tu-rismo como disciplina científica que aborda la movilidad humana nos está costando.Eudald Carbonell: En mi caso yo puedo hablar de la importancia de las mediciones redun-dantes, de la interacción de las distintas disci-plinas para datar y medir lo hallado. Nosotros existimos como disciplina científica gracias al parámetro tiempo. Podemos establecer analo-gías entre lo que ocurre y lo que ocurrió, pero se debe medir, se trata del desarrollo de la es-pecie y de nuestra conciencia, como humanos. El tiempo está ligado a los sentidos. Cuando se monitoriza algo se hace con los ojos o creando la óptica que los sustituye, el sonido, lo mismo con los aparatos que lo registran. Lo que ha-cemos al monitorizar es generar la conciencia que registran nuestros sentidos. La arqueología,

a gran escala, es medir el tiempo, como tam-bién el espacio donde se encuentra el registro arqueológico. Nosotros no exhumamos ningún fósil que no haya sido medido y registrado en las tres dimensiones. Si no midiéramos, no existi-ríamos como agentes de conocimiento.Iñaki Letona: He sido testigo de vuestros regis-tros, al levantar «ese» trocito de hueso o de ves-tigio importante. Reconstruis el lugar (coordena-das) y lo datáis informáticamente. Continuando con las preguntas, muchas de las variables que vemos y leemos, ¿hasta qué punto son interpre-tables por la comunidad no científica? Enrique Zuazua: Hay diferentes maneras de in-terpretar los datos. Un piloto de Fórmula 1, utiliza la turbulencia, la inestabilidad, la no linealidad..., para ganar ventaja. Los pilotos han entendido estos complejos fenómenos dinámicos y se han convertido en maestros de los mismos, a través de la experimentación. El otro día me encontré con un grupo de surfistas que desea impulsar una empresa para el desarrollo de generadores de olas. Me llamó muchísimo la atención hasta qué punto entendían la mecánica de fluidos sin haber estudiado a fondo sus ecuaciones. Viven la ola, la han vivido durante muchos años y han entendido su naturaleza. En efecto, si te pasas ocho horas al día en el agua de los 14 a los 34 años, entiendes la mecánica de los fluidos de otra manera. Son muchos los ejemplos. Los pastores nos hablan del tiempo, por ejemplo. Pero es cierto que la mayoría observamos los da-tos, pasamos a su lado, sin entenderlos. En efec-to, con frecuencia, la plasticidad del cerebro que permite absorber los datos como las esponjas, ha de ser normalmente cultivada a través de los

libros y un lento camino de formación y praxis. Todos los datos son intrínsecamente interpre-tables. Otra cosa es que podamos interpretarlos hoy. En el ámbito de las ciencias sociales se obser-va que cosas hasta hace poco incomprensibles, hoy forman parte de teorías bien sustentadas. El reto de entender es lo que hace que vivamos en el planeta. Si renunciáramos a hacerlo, la mayoría nos bajaríamos en marcha.Aurkene Alzua: Es una pregunta difícil esa de si los datos son interpretables por la comunidad no científica. Existen dos puertas para acceder a ese conocimiento. Una es la de la especializa-ción y muchas veces en los medios de comuni-cación encontramos datos de una especificidad muy concreta que queda lejos de nuestras ca-pacidades, requerimos de la ayuda del comu-nicador para entender o interpretarlos. Necesi-tamos esa ayuda. Pero independientemente de eso, es cierto que vivimos en un mundo de datos y todos estamos cada vez más acostumbrados a manejarlos e interpretarlos, a extraer significa-do del mismo. Yo creo, en el caso de la movilidad humana en turismo –personas que se mueven fuera de su entorno cotidiano–, hemos seguido un sistema restrictivo de medición y me pregun-to si los datos generan conocimiento suficien-te y en qué proporción representan la realidad. ¿Qué porcentaje o prisma de la realidad cree-mos entender o cuál es la distorsión derivada de las muestras observadas? Esa es la pregunta. Se ha trabajado poco la observación objetiva de manera empírica, hacer seguimiento del rastro del comportamiento humano, generar datos a través de sistemas de localización avanzados, observar esa conducta en un espacio temporal

Page 20: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

39 38

mación en la red. Luego está el detalle, en el que vivimos la mayoría, con nuestro navegador y nuestros emails, pero que en el fondo no es tan relevante de describir.Aurkene Alzua: Según si te metes en lo micro o si quieres abordar las estructuras subyacentes. Pero esa es la tendencia.Iñaki Letona: Estáis hablando de datos, medicio-nes, redes, y de socializar ese conocimiento en última instancia. ¿Eso no tiene que ver mucho con la divulgación, vamos, con dar a conocer?

Eudald Carbonell: Esto es intrínseco del ser humano racional. Cuando abrimos la boca ya estamos midiendo. Desde que te levantas por la mañana somos numéricos, mides la hora, sobre todo en esta sociedad; si me tomo café, pido uno. Cuántos kilómetros me quedan, a qué hora llamaré o me llamarán. No hay nada que no midamos. No conozco en el cuerpo nada que no sea medido. Cuando tienes un bolígrafo en

Entorno CIC - Mesa de ideas

y poder inferir significado de ellos. Eso es más difícil. Ninguno de los datos de los que hemos hablado hasta ahora hacía referencia al mundo afectivo, por ejemplo. Se puede medir. ¿O no? ¿Cómo inferimos ese mundo afectivo sin ser in-trusivos? Nosotros tenemos un gran reto: cómo medir la conducta humana de movilidad en el eje espacio temporal y además inferir algún tipo de emoción o de ciclo afectivo en esa itinerancia sin ser intrusivos, sin que esa persona deje de comportarse como iba a hacerlo. ¿Cómo pene-tro en ese mundo?Enrique Zuazua: Quizá lo podrías plantear al revés. ¿Del conjunto de personas que se mue-ven fuera de su entorno original, cuántas no lo hacen por una cuestión afectiva?Aurkene Alzua: Pero esa es otra pregunta. No es lo mismo vivir fuera de tu hábitat natural que salir de tu entorno cotidiano.Eudald Carbonell: Aunque de lo general a lo particular. Los conocimientos los afrontas re-cogiendo técnicas de otras disciplinas que te in-teresan y que te son útiles. Pero pienso que si no generas un cuerpo teórico que dé consistencia a las bases analíticas, difícilmente puedes esta-blecer un trabajo sistémico sobre lo que haces. Si me planteara este problema formalmente, primero me preguntaría qué pasa con la diná-mica de flujos; también a nivel de constantes demográficas; y cómo se integra la diversidad, porque cuando te mueves estás integrando. Yo intentaría partir de lo general y después estable-cer lo particular y en la redundancia asegurar el proceso. Quizás no sería un método científico del todo, pero sí uno riguroso. Si partes al revés, de lo que no conoces ni sabes lo que quieres hacer, es muy difícil dar respuestas y la Ciencia en su base tiene una tautología; lo importante no es la respuesta, sino la pregunta.Enrique Zuazua: Estás describiendo la mecá-nica de trabajo de la dinámica de fluidos, de la meteorología, la dinámica de gases y partículas que chocan, rebotan, se agrupan o disgregan.Aurkene Alzua: Es que yo creo que ese es nues-tro trabajo. Se habla cada vez de una sociedad más líquida, de la sociología más allá.Enrique Zuazua: Ahí están los modelos de los fluidos, que cada vez trabajamos más. Internet y el flujo de información que se da en la red es un buen ejemplo. Es tan complejo el grafo que constituye la red, el ir y venir de mensajes, los que rebotan y los que pasan, que es imposible analizarlo todo. Por eso se desarrollan teorías sobre los límites fluidos, que indican las leyes macroscópicas que gobiernan el flujo de infor-

la mesa y quieres cogerlo, tienes que medir la distancia que hay entre tu mano y él para ha-cerlo. Somos ingenios diseñados para entender. Nuestro esqueleto está medido, hay una memo-ria en nuestro sistema que hace que por ensa-yo y error tengamos todas esas mediciones ya hechas. La ciencia natural, que se ha utilizado toda la vida, se ha utilizado para la agricultura, para el tiempo, para los ciclos de los animales. Los mamíferos, que no los primates, medimos todo. Ahora, somos conscientes de las medidas para las que tenemos métodos científicos.Aurkene Alzua: Eso es muy importante. La expre-sión de la medición nos ayuda a ser conscientes de ese gran mundo desconocido del que somos parte. La matemática, por ejemplo, nos ayuda a dar expresión y ser conscientes de ese entorno. Sin ella, no podríamos generar conocimiento.Iñaki Letona: ¿No se utiliza a la opinión pública con los datos que nosotros tenemos y usamos? ¿No os da la sensación de que la manipulamos?Enrique Zuazua: El otro día abrí el periódico y decía: «Obama ha llamado esta noche a Zapa-tero». No entendí por qué. Pero al cabo de cinco horas lo comprendí. «Recorte del 5%». Era una preparación. Es otra de las características de esta sociedad, esa capacidad de los media de incidir en la opinión pública. Iñaki Letona: Evidentemente esto tiene que ver con nuestra permeabilidad hacia los datos que nos dan.Aurkene Alzua: En ciencias sociales en general, académicos, técnicos, todos recogemos datos parametrizados en un contexto teórico. Será una intención política utilizarlos para otros fines. No creo que nosotros lo hagamos.Enrique Zuazua: Pero ahí entra un aspecto ma-temático que es el de las correlaciones, no siem-pre del todo obvias. Vivimos en un mundo en el que hay variables que son independientes unas de otras, como lo era el dinero que teníamos en la hucha de niños. Eso era un hecho seguro. Si en tu hucha tenías cien, ahí estaban. Entonces no éramos conscientes de que el dinero fluye y que lo que pasa en Hungría afecta a España, y a Euskadi, y al final te afecta a ti. Como cuando cierra una compañía aérea dejando a la gente con las maletas en el aeropuerto.El tema de las correlaciones es cada vez más com-plejo. El grafo del planeta es muy conexo; todos podemos contar cuántos pasos nos separan de alguien en concreto. Si le has dado la mano al Le-hendakari, que seguro que se la ha dado al Rey, por ejemplo, solo un paso más te separa de Obama. Vivimos en una sociedad tan interconectada,

“El reto de entender es lo que hace que vivamos en el planeta. Si renunciáramos a hacerlo, la mayoría nos bajaríamos en marcha”

Enrique Zuazua

Entorno CIC - Mesa de ideas

que correlaciones muy poco visibles están afectando a la viabilidad de los negocios. La innovación se está basando no ya en nuevos productos o escenarios, sino en explotar esas correlaciones que otros no habían visto.Eudald Carbonell: Esto es interesante y com-plicado. Lo complicado hay que gestionarlo, lo complejo no podemos. Gracias al conocimiento somos capaces de vivir en lo complejo gestio-nando lo complicado, eso es posible, lo contra-rio no, como ya he dicho. Vamos a colapsar en este siglo, nuestra especie pasa por una crisis sistémica; se manifiesta primero en el sector fi-nanciero; luego en una crisis social, ideológica y psicológica... Es la primera vez en la historia de la evolución humana, que sepamos, que colap-saremos monitorizados. Esto se hundirá y lo es-taremos viendo en nuestras pantallas. Estamos al horizonte de los acontecimientos de un agu-jero negro que pone en peligro nuestra propia evolución y algunas especies humanas somos conscientes porque tenemos información. Con sondas en los mares que controlan la humedad y la conectividad de las aguas; en los continen-tes, con estaciones que controlan día a día cada variable; con estructuras económicas que nos dicen que nuestro sistema capitalista está aca-bándose, que se está autodestruyendo porque no es capaz de generar estructuras suficientes para conservar su potencia. Y precisamente la ventaja de los números es que colapsaremos monitorizados y es una gran ventaja porque sabremos lo que está ocurriendo. La concien-cia de especie nacerá como consecuencia de esta parametrización y monitorización de la realidad, y eso para mí es el gran cambio que estamos viviendo. Todo es medible, no se puede vivir sin medir, y ahora vamos a comprobarlo. La capacidad de medir nos dará la conciencia de especie. Pero esto no evitará que colapsemos.Enrique Zuazua: ¿Esa conciencia no existe ya? En Grecia existía el sabio nómada Protágoras de Abdera, al que le preguntaban de todo cuando iba de pueblo en pueblo; y solía decir que a la hora de medir el mundo el modelo era el propio hombre y por eso, por ejemplo, contamos de cinco en cinco (por los cinco dedos de la mano).Eudald Carbonell: Si hubiera conciencia de especie no colapsaríamos en este siglo. La conciencia de especie, en mi opinión, es cómo colectivamente pensamos como especie, no como hombres o como humanos. En el caso del ser humano la conciencia de especie es una serie de adquisiciones biológicas y culturales que permiten establecer relaciones entre no-

sotros. Es cuando no piensas en clases sociales ni personas, sino en cómo formas parte de un organismo que no existe en todo el planeta. La conciencia de especie empieza a emerger con la crisis de los misiles, en los años 60 es la primera vez que somos conscientes de que podemos destruir el planeta. Esa conciencia empieza a nacer ahí, pero pienso que no será total hasta que seamos capaces de crear un espécimen humano, cuando nos deshumani-cemos. Aparecerá por lo tanto cuando seamos

capaces de construir, no después de destruir. Lo que estamos haciendo ahora -intentar generar vida autónoma, la ingeniería genética y poder construir una secuencia artificialmente- es crear una especie distinta por relación técnica. Por eso pienso que esta crisis monitorizada es el principio de esa conciencia de especie. En

el siglo xxi habrá un colapso para metabolizar todo esto, y este colapso nos dará la capacidad de, mediante modelos matemáticos y sistemas, fundar algo que los humanos podamos dirigir y controlar. Cambiar orden por organización.Aurkene Alzua: Es una reflexión muy interesante pero, ¿no te parece que eso implica más que la medición? Porque tú estás hablando de medi-ción y parametrización, lo que yo entiendo por medición y modelización, como algo parecido. Para modelizar necesitamos parametrizar, y lo cierto es que sí estamos dando algunos pasos hacia adelante. Un poco, en la reflexión de esta mesa redonda, he hecho una lista de asuntos en la medición que son retos pero que suponen un cambio importante en la manera en que ya no solo medimos, sino que gestionamos la me-dición. Son dos cosas diferentes. Y no estoy ha-blando de interpretación, sino estoy hablando de la gestión de la medición, de la generación de sistemas de apoyo para la gestión de la medición. Estamos un poco lejos de lo que se comenta, a mi parecer, porque todavía tenemos retos con-siderables. Se trata tanto de la generación de los datos, de poder generar datos de naturaleza muy diferente, y de nuevos modelos para poder gestionarlos… Antes hablaba de datos que son fugaces, que sólo se pueden gestionar en un momento dado de una manera determinada, de datos que tienen un determinado ciclo vital, son efímeros, pero nos permiten alcanzar otra serie de hitos y respuestas. Pero también esta-mos caminando hacia la gestión de los recur-sos, y los recursos son datos y metadatos; y son datos distribuidos sobre todo espacialmente y también temporalmente y que generan, nuevas formas de trabajar con mayor comprensión de la realidad. La estructura de las bases de datos son ya diferentes, antes has dado un ejemplo buenísimo, sobre cómo empezamos a trabajar con estructuras de bases de datos totalmente diferentes a las que, tradicionalmente, hemos utilizado en ciencias sociales. Cómo hacemos frente con datos distribuidos, heterogéneos, estructuras completamente irregulares, con recursos más que con datos. Las oportunidades que nos brindan las nue-vas tecnologías, de abordar una observación de formas novedosa, nuevos datos, hace que podamos cuestionarnos en términos que nun-ca previamente hubiéramos sido capaces de diseñar o imaginar. Al principio se comenta-ba que por una parte es cierto que tenemos muchos datos pero nos encontramos también con grandes carencias a la hora de poder dar

“ Tenemos un gran reto: cómo medir la conducta humana de movilidad en el eje espacio temporal y además inferir algún tipo de emoción o de ciclo afectivo en esa itinerancia sin ser intrusivos”

Aurkene Alzua

Page 21: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

41 40

Entorno CIC - Mesa de ideas

respuesta a ciertas preguntas porque éstos no responden debidamente a cuestiones comple-jas, con lo cual necesitamos nueva tecnología, nuevos diseños, que a su vez nos dan apoyo en este camino hacia lo que él comentaba: la mo-delización de esos datos en nuevos paradigmas o en nuevas cuestiones.Enrique Zuazua: Lo que pasa es que yo no sé si es tanto falta de datos, porque el modelo que ha descrito Eudald creo que es el modelo de la mecánica de los fluidos, de los gases, que es en el fondo la única que entendemos. Es como jugar al billar. Hay bolitas, tú le das a una, que a su vez le da a otra, la otra rebota… y al final produce ca-rambolas totalmente inesperadas. Creo que en el ámbito que tú mencionas está la necesidad de axiomatizar, o sea, cuáles son las propiedades relevantes, qué sustituye al color, la tempera-tura, la velocidad; y eso es lo que creo que está por determinar. Y no sé si es tanto una cuestión de datos como más bien de todo lo contrario, que alguien se siente como decía Eudald antes y que haga el trabajo de Kant; y establezca lo que realmente determina el comportamiento social, los diez principales ingredientes y sus interacciones que puedan ser descritas en un pequeño mapa. No sé si eso está hecho. Me da la impresión de que para eso falta mucho. Y cuan-do esto se haga, los datos empezarán a encajar.Eudald Carbonell: Yo creo que antes que mo-delización, lo cual también es verdad, estoy de acuerdo en que es una parte técnica y mecánica y hace falta una teoría de la evolución social. Enrique Zuazua: La axiomatización. Eudald Carbonell: La teoría de la evolución, que funciona tremendamente bien, y nadie ha sido capaz de encontrar una brecha que ataque a la descendencia con modificación. Esta teo-ría está cerca de la realidad. No es una teoría en el sentido de un artefacto explicativo, sino que explica la propia realidad, con lo cual ya tampoco es una teoría, sino una metateoría. Es un metasistema porque normalmente los criterios normales en falsación científica di-cen que una teoría que no puede ser falsada no es científica. Nadie ha podido establecer, ni desde la paleontología, ni la genética, ni la ar-queología, ni la prehistoria, argumentos sólidos para rebatirla. Haría falta añadir a la teoría de la evolución biológica una teoría de la evolución social y ésta es mi gran aspiración, construir una teoría unificada de la evolución, explicar cómo somos capaces a través de las leyes de la biología y de sus interacciones culturales de establecer cuáles son las propiedades que

la socialización humana ha introducido en el proceso de adaptación biológica. Nosotros somos sociales por naturaleza, la emergencia de un descubrimiento y su socialización es un proceso que solo se da a nivel acumulativo y ex-ponencial en los humanos, no se da en ninguna especie conocida. Hemos analizado desde seres unicelulares a pluricelulares, es decir, nuestra estructura social se ha retroalimentado gracias a la tecnología. La tecnología ha resocializado a los primates humanos. Tenemos algunos rudi-

mentos para intentar establecer leyes si somos capaces de establecerlas y que complementen la teoría biológica de la evolución, así estare-mos en condiciones de llegar a nuestro objetivo.Iñaki Letona: En esas mesas de sabios o de per-sonas que intercambiáis datos y conocimiento, donde os reunís muchísimas disciplinas; por ejemplo, en los encuentros en las Islas Galápa-gos, se ha estado hablando efectivamente de que vamos hacia a una hecatombe…

Eudald Carbonell: … a un colapso.Iñaki Letona: A esto, principalmente, quiero referirme. En esos debates o encuentros, de las diversas disciplinas o multidisciplinas en las que convergéis en ese tipo de pensamien-tos o de conclusiones ¿habéis llegado a poder evidenciar el que se pueda dar ese colapso o a plantearnos si no está ya en marcha y es irre-versible? Existe una cierta irreversibilidad o al menos eso tengo entendido. ¿Hay datos? En este sentido, pueden estar equivocados? Es decir, de todas estas dataciones, de estos co-nocimientos, de estas hipótesis, tesis…. que se están poniendo encima de la mesa ¿hasta qué punto el error, tan importante en la medición, en este caso, es una esperanza?Enrique Zuazua: Eso depende de la plasticidad social. Si no fuera por ella no habría esperanza. Es como en el cristal del coche: si tiene un pe-queño poro… No sabes cuánto va a durar: igual dura cinco años o toda la vida. Salvo que haya otro elemento o agente que dote al cristal de capacidad de cambiar de fase, eso es un defecto que inexorablemente le va a conducir al colap-so, a la catástrofe, a la singularidad. La cuestión es si la sociedad tiene la suficiente plasticidad como para absorber esas burbujas que le han surgido y que aún están ahí.Iñaki Letona: Pero, ¿no se estarán confundiendo (interpretándolos erróneamente) con toda esa cantidad de datos que se manejan? ¿No nos estaremos confundiendo también nosotros?Enrique Zuazua: Ni nos confundimos ni nos dejamos de confundir, hay burbujas que están explotando permanentemente. La inmobiliaria ha sido igual la más gorda, la que todos hemos vivido. Todo occidente hemos perdido un 20% de nuestro patrimonio, pero la cuestión es si globalmente el planeta y los humanos tenemos suficiente plasticidad como especie como para transmutar a otra fase donde esa burbuja pueda ser digerida. Es como los gases en la digestión… Iñaki Letona: Ligado a esto, los matemáticos trabajáis con datos, con variables de muy di-verso tipo… ¿Hasta qué punto los matemáticos no sois una ciencia que ayuda y que confunde?Enrique Zuazua: Confundir no; si uno usa bien las matemáticas, nunca confunde. Las mate-máticas son una ciencia básica y, además, una herramienta pero, obviamente, hay que utilizarlas bien. Las paradojas de la estadística son bien conocidas, uno puede coger cualquier conjunto de datos y deducir cualquier tipo de comportamiento absurdo. Por eso hay que utilizarla bien.

“¿Hasta qué punto son interpretables por la comunidad no científica muchas de las variables que vemos y leemos?”

Iñaki Letona

Entorno CIC - Mesa de ideas

Iñaki Letona: Te lo comento por lo siguiente. Yo he leído hace poco sobre los fractales, en concreto, La geometría fractal de la naturaleza y, sin embargo, he visto que llevando esta teoría a su aplicación, p.e. a la biología, dentro de la complejidad que tiene, algunos matemáticos, físicos, médicos o biólogos, principalmente, opinaban que las conclusiones a las que se llegaban a través de la aplicación de la geome-tría fractal podían ser un engaño o se llegaba a conclusiones erróneas. Enrique Zuazua: La teoría fractal lo único que indica es que hay determinadas estructuras geométricas que pueden ser reproducidas y que lo puedes hacer, por ejemplo, en los azulejos. La naturaleza acierta, en cierta medida reprodu-ce estos fractales y acaba generando fronteras suaves allá donde parece que hay rugosidad, armonía donde hay desorden, etc. Pero no veo cómo la teoría de los fractales, que está basada en leyes autorreproductivas de funciones, que a veces convergen y otras divergen, puede con-fundir si uno las utiliza bien. Evidentemente la naturaleza es mucho más rica que cualquier construcción matemática y precisamente por eso seguimos haciendo ciencia. Pero no creo que se pueda achacar nada a la teoría fractal, que no es más que una clase de conjuntos que se fueron encontrando desde que se inició esa reflexión sobre incompletitud, la complejidad, los con-juntos de Cantor,… Los conjuntos fractales no son más que reflejos de una constatación. Basta mirar el relieve de un objeto en cualquier ámbito de la naturaleza, para darse cuenta que no es solamente ceros y unos repartidos de manera regular. Pero no sé cómo se puede decir que la teoría fractal tiene algo de incierto o de confuso salvo que sea aquella confusión a la que pueda conducir el mal uso de la misma.Iñaki Letona: Cambiando de tema, me gustaría conocer cuáles son las variables o datos que estáis trabajando, por ejemplo en vuestro caso, en cic tourgune.Aurkene Alzua: Estamos trabajando en ámbitos muy diferentes, pero te doy dos ejemplos. Uno, lo micro, poder medir, representar numéricamen-te; primero, los flujos de las personas que están fuera de su hábitat cotidiano en un entorno no habitual, no es mi casa o mi oficina. Por ejemplo, cualquier ecosistema o cualquier espacio deter-minado pueden tener un doble papel. Para ti Bil-bao puede ser cotidiano y para mí no. Tenemos que saber quién es el visitante, quién está fuera de su entorno cotidiano, que es una gran difi-cultad. Es importantísimo poder identificar esa

partícula en ese espacio y entender y medir los ciclos afectivos de esas personas para empezar a poder inferir algún tipo de conocimiento entre patrones de flujos con evoluciones afectivas en un momento dado. ¿A qué se debe? Se sabe muy poco sobre cómo se «consume» el lugar, o el es-pacio temporal que hacemos las personas en un desplazamiento, como ejemplo de turismo. Es una cuestión muy difícil de medir y eso es lo que estamos haciendo en lo micro, en la medición, que tiene que ver mucho con todas las nuevas

tecnologías que nos ayudan a seguir el rastro de una persona; el móvil, el dispositivo móvil es una herramienta de trabajo para nosotros. Y en lo macro, estamos buscando estructuras sim-ples de comportamiento humano, más allá de lo coyuntural que viene dado por las realidades culturales y sociales en cada caso…

Esos son los dos grandes retos y ahí nos estamos encontrando con muchísimos problemas de los que he estado hablando antes, de la interope-rabilidad, de la naturaleza de los datos, de la gestión de todos los datos, de la construcción de variables, etc.Iñaki Letona: Eudald, vais a empezar una nue-va campaña. La trigésimo segunda campaña, tengo entendido, campaña con otras medicio-nes… Aunque parece que siempre se repiten las mismas cosas, continuareis midiendo y descubriendo …Eudald Carbonell: Sí, empezamos la Campaña en Atapuerca el día 15 de junio cada año. Pienso que en nuestro sistema científico la redundancia es la que nos ha permitido establecer criterios que tienen cierta viabilidad evolutiva. Nosotros hemos tomado una serie de caminos y uno de los fundamentales y básicos es la medición del tiempo. Pongo un ejemplo para ilustraros. Cuan-do llegamos a Atapuerca con el profesor Emilia-no Aguirre hace más de treinta años, encontra-mos una mandíbula de 300.000 años. No había ningún dato radiométrico, solo la morfología de la mandíbula, pero sin aplicación de series isotópicas. Hemos profundizado en lo que es el origen del tiempo y de los homínidos en Ata-puerca. Y de cuando empezamos con registros de una cronología desde 300.000, ahora estamos en 1.300.000. El reconocer una serie estadística evolutiva que asocie herramientas y homínidos y contexto faunístico, nos permite trazar una secuencia en arbusto, o la genética, que nos acerca a la comprensión de los fenómenos de adaptación y adquisición de los homínidos en este tiempo. Con lo cual, medir, paleomagnetis-mo, núclidos cosmogénicos, toda la física, y la física química que es la que nos permite la gran escala temporal para tener elementos parados en el tiempo, para establecer analogías y poder observar los cambios en estos procesos. Y después, por supuesto, un segundo nivel, son los análisis de laboratorio que son la medición, espécimen por espécimen, tanto a nivel botáni-co como a nivel paleontológico que nos expli-quen la ontogenia de los objetos, es decir, cómo estos objetos en esta escala general juegan un papel de variabilidad y cómo somos capaces de reducir esta variabilidad en un proceso filoge-nético, es lo que estamos trabajando ahora. Pre-cisamente, a mí esta experiencia empírica y mis formas de conocer, me han dado la pauta para intentar abordar con un equipo de prospectiva, de prognosis, sobre los humanos, instrumentar elementos para la teoría de la evolución social.

“La arqueología, a gran escala, es medir el tiempo, como también el espacio donde se encuentra el registro arqueológico. Si no midiéramos, no existiríamos como agentes de conocimiento”

Eudald Carbonell

Page 22: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

43 42

Entorno CIC - Mesa de ideas

Enrique Zuazua: Los matemáticos tenemos tendencia, como todos los seres humanos, a intentar llevar las cosas a nuestro terreno, y nuestro terreno es el de los parámetros adimen-sionales. Entonces los matemáticos buscamos paradigmas como el que comentaba Aurkene, de lo micro frente a lo macro. Antes hablaba de encontrar modelos fluidos en el ámbito de las redes, y no es tan de sorprender lo que antes comentaba Aurkene en el ámbito del compor-tamiento de las personas cuando están fuera de su propio hábitat; uno empieza a pensar en modelos, en axiomas, en dinámica, en evolu-ción y, posiblemente, se dará cuenta de que no es tan distinto a lo que antes hablábamos de las bolas de billar, de los fluidos, de las redes, de In-ternet, etc. A los matemáticos nos gusta llevar las cosas a ese terreno. Cuando lo que tenemos es un grafo, tenemos conexiones entre sus ele-mentos y nodos e intentamos determinar qué es lo que hace que algunos puntos de ese grafo sean más importantes que otros. Por ejemplo, el algoritmo de Google, es un algoritmo simple-mente matemático. ¿Por qué cuando uno pone en Google, por ejemplo, Bilbao, te sale segura-mente la página web del Ayuntamiento de Bil-bao y no te sale la página web de mi vecino que también se apellida Bilbao? Es la ordenación inducida por primer autovector de la matriz de conectividad del grafo que, según el teorema de Perron, en el caso de una matriz simétrica defi-nida positiva, tiene todas las entradas positivas y como son positivas las puedes ordenar. Es en eso donde los matemáticos experimentamos el placer, el trabajar con ese tipo de temas. Di-cho esto, como en bcam somos un centro de matemática aplicada, todos los días tenemos que abordar temas más concretos, pero repi-to, siempre intentamos llevarlo al terreno de lo adimensional, de los axiomas y los modelos en temas, por ejemplo, como la medición del viento. Tú antes lo comentabas, los datos, la estadística, eso es algo tremendamente com-plejo. En el ámbito de la energía, en la energía eólica, por ejemplo, uno de los temas claves es la medición del viento, cómo se mide, cómo se extraen tendencias, consecuencias, etc. Tene-mos ámbitos de trabajo variados como son las redes de telecomunicaciones, las energías, los fluidos, la biología matemática, la teoría de la elasticidad de los materiales, donde tenemos siempre que contrastar lo que hacemos con los datos numéricos y experimentales. Pero ahí te-nemos un gran aliado que es el ordenador. Al final, los matemáticos hacemos modelos teó-

ricos que después trasladamos a algoritmos y que testamos en el ordenador. Muy rara vez hoy en día las matemáticas se cruzan con las tablas de datos directamente. En la actualidad, hay un intermediario, que es el ordenador, o sea, teoría matemática, ensayo en el ordenador y contraste con los datos. Y, a partir de ahí, como explicaba Eudald, esa mejora constante de los modelos, que evidentemente siempre son ne-cesariamente demasiado simplificados. Esa mejora se produce a través del procedimiento de la asimilación de datos, que es lo que se ha hecho en meteorología de manera sistemática para ir mejorando los modelos, es decir, apro-vechar el defecto del modelo que tenemos hoy para mejorarlo. ¿Por qué? Porque si somos ca-paces de evaluar qué defecto tiene el modelo ya sabemos en qué dirección lo tenemos que mejorar. Precisamente, con esa idea a mí me suele gustar poner un ejemplo para explicar lo que de alguna manera inspira a la teoría de la asimilación de datos, la optimización, el dise-ño matemático, etc.: Estamos de noche en el monte, no vemos nada, pero queremos bajar a casa, ¿qué haríamos? Palpar el terreno y avan-zar hacia abajo. Pero eso ya sabemos que lo te-nemos que volver a verificar de vez en cuando porque la pendiente del terreno puede volver a cambiar. Y eso es lo que en matemáticas se llama los métodos gradientes de descenso y es lo que en la práctica, con el intermediario del ordenador, nos está permitiendo acercar los modelos matemáticos a realidades cada vez más complejas. Y, por eso, el tiempo lo pode-mos predecir para siete días y no para dos como hace veinte años. Ahora, estamos todavía lejos de los millones de años… Aurkene Alzua: Sin las matemáticas y las capa-cidades computacionales no podríamos avan-zar. La mitad del trabajo o más que hacemos en nuestro centro tiene que ver con ello para la transformación de los datos porque, en nues-tro caso, trabajamos en esta construcción de variables y de modelos complejos, no podría-mos generar ningún puente hacia pequeños fragmentos de información, base de algunas premisas teóricas. Vosotros también trabajaréis y el apoyo de las matemáticas es fundamental.Eudald Carbonell: Yo hice mi tesis sobre El sis-tema lógico analítico aplicado a los conjuntos líticos pleistocenos del Mediterráneo occidental El Montgri (Girona). Me di cuenta que las clasifi-caciones que había eran arbitrarias, los objetos en vez de clasificarlos con una serie de variables conocidas se hacían por analogía. Por ejemplo,

por la forma, una pieza tallada tenía forma de tortuga… núcleo de tortuga, esto es muy pedes-tre. Esta pieza tiene que ponerse en espacio-tiempo, apliqué la teoría de la información y apliqué, porque me pareció que era lo más co-rrecto, la termo-dinámica del conocimiento de la morfología de los objetos. Apliqué el principio de entropía, una piedra que es un canto redon-do, cuando le vas dando golpes hasta hacer un hacha, ¿qué ha pasado? Ha habido una pérdida de peso, de volumen y la aparición de formas intermedias hasta llegar a una forma final. Pues lo que hice fue, de los ochenta o noventa carac-teres que utilizaban para clasificar una piedra lo reduje a seis. ¿Cómo lo hice? Muy sencillo, con estadística inferencial. Con análisis de corres-pondencia y análisis de componente principal, algoritmos muy sencillos, los que me permitie-ron ver que el peso de los ejes, con seis variables o siete de clasificación del objeto, obtenía entre el 60 y 90 % de información. Lo que hice fue suprimir las fichas de ordenador que había de la época que tenías que tomar decenas de datos. Reduje el número de variables para realización del análisis tecnológico-analítico.La teoría de la información y la termo-dinámica me dieron la llave para hacer el proceso y efec-tivamente, reduje a seis o siete. Este sistema de clasificación se ha aplicado en todo el mundo que es el éxito para establecer variables de la evolución de las piedras.

“¿No se utiliza a la opinión pública con los datos que nosotros tenemos y usamos? ”

Iñaki Letona

Entorno CIC - Mesa de ideas

Iñaki Letona: Insisto, con el aspecto del posible «error». ¿No os asusta el miedo al error? El error es intrínseco en la medición. Un error de data-ción, un error de aplicación en una variable, un error al tomar determinado tipo de σ (sigma)…Enrique Zuazua: Aquí los científicos lo que te-nemos que hacer no es acertar sino errar mejor.Eudald Carbonell: Te puedo ilustrar lo que estás diciendo: se trata de una cuestión de paradig-ma científico. Cuando nosotros descubrimos el Homo Antecessor, trabajábamos en una secuen-cia estatigráfica de la cual teníamos muy poca información. Hay secuencias que las tenemos datadas porque llevamos mucho tiempo tra-bajando en ellas y cuando llegamos a un nivel conocemos la biocenosis en cronología. Cuan-do hacíamos lo del Antecessor no sabíamos, en-contramos los restos, se hacen las dataciones paleomagnéticas en este caso y dices, miren ustedes, la impresión paleomagnética está por encima de este nivel, es decir, lo que han en-contrado tiene más de 850.000 años. Automá-ticamente, quien hace eso es el doctor Parés, un colega que trabajaba en Michigan (Estados Unidos), y le digo, ¿estás seguro?, ¿has hecho varias dataciones? Si no has hecho redundancia y lo que publicas es falso, posiblemente nunca más publiques nada, porque los colegas no en-tenderán que es un error, se entenderá que has hecho un protocolo mal. Por ejemplo, Harris, que trabajó en África, tuvo una confusión geoló-

gica, porque no tenía un buen geólogo, y publicó unas industrias que tenían 8.000 años como si tuvieran dos millones y medio. Nunca más ha publicado nada. Esto realmente es un error muy grave, ¿por qué? Porque se ha hecho mal, el error no viene de que ha fallado una máquina, es porque se ha hecho mal. Todos cometemos errores, tenemos que evitarlos.Aurkene Alzua: En el proceso metodológico ha habido un error en su caso. Yo creo que exis-ten diferentes tipos de errores, pero lo cierto es que si le llamamos error al poder superar un paradigma y al poder enfrentarte a un nuevo método con un nuevo instrumento, que quizás es un camino erróneo, pero no hay otra manera para poder avanzar en el conocimiento... Yo no tengo ningún miedo al error. Lo que sí tengo es miedo a la falta de metodología científica, de procesos bien controlados, del trabajo sis-témico y del rigor. Cuando carecemos de esas habilidades o de esos procedimientos, entonces, se acabó. Enrique Zuazua: Lo que sí es cierto es que en matemáticas antes el trabajo era muy indivi-dual, de modo que el margen de error estaba controlado a la mínima. Evidentemente, sí po-día haber un error, pero cada uno, de alguna manera, trabajaba en los ámbitos en los que se sentía técnicamente capaz y, por tanto, llegaba hasta donde llegaba. La cosa empieza a ser más compleja ahora donde el tipo de problemática a

la que nos enfrentamos, muchas veces en cen-tros como el nuestro, donde tienes que hacer frente a retos más ambiciosos, más complejos, más multidisciplinares, te obliga a involucrar a diferentes personas. Entonces, el coordina-dor del equipo de investigación no tiene más remedio que ceder parcelas de responsabilidad, de verificación, a colaboradores. Y es ahí donde uno, efectivamente, aumenta el riesgo. Noso-tros cuando trabajamos en el ámbito aplicado industrial, como está claro que lo que desarro-llamos son algoritmos para modelos más o me-nos adimensionales, después tiene que haber un post-proceso, una adaptación, un trabajo de ingeniería, de verificación antes de ser apli-cados. Ahora, dentro del ámbito estrictamente matemático sí que es verdad que en el momento de poner varias disciplinas juntas se pierde un poco esa capacidad de verificación.Eudald Carbonell: Vuelvo al ejemplo de la últi-ma mandíbula que descubrimos. Lo que se hizo para asegurar que haya integración de datos es reunir todo el equipo de especialistas delante del yacimiento, físicamente, en el nivel donde se encontró el fósil, que explicarán el contexto y toda la información analítica que proporciona el mismo. Los geocronólogos que presentan las series corregidas estadísticamente, los botáni-cos que presentan las muestras palinogramas, los arqueólogos que presentan sus datos y los últimos trabajos que se han hecho sobre el pe-

“Los matemáticos tenemos tendencia, como todos los seres humanos, a intentar llevar las cosas a nuestro terreno, el de los parámetros adimensionales”

Enrique Zuazua

“La Ciencia en su base tiene una tautología; lo importante no es la respuesta, sino la pregunta”

Eudald Carbonell

“La expresión de la medición nos ayuda a ser conscientes de ese gran mundo desconocido del que somos parte”

Aurkene Alzua

Page 23: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

44

riodo que estamos trabajando. Y, en torno a eso, se certifica el artículo que después se publica. El resultado es un artículo consistente.Aurkene Alzua: Es cierto que en sistemas distri-buidos los errores crecen. No sé si es su caso o el nuestro. Pero lo cierto es que no solo no tra-bajamos solos, sino que hay muchos equipos pa-recidos al nuestro que trabajan en el mundo en cuestiones similares, con lo cual también tenemos capacidad de contrastar lo que estamos haciendo. Y creo que eso es muy importante. Cosas pareci-das a las que hacemos aquí, se están haciendo en Filadelfia, en la Universidad de Temple o en Viena. Tengo colegas que están haciendo cuestio-nes similares y puedo ver cuán divergente o dispar es mi trabajo con respecto al suyo. Y yo creo que eso es también interesante, en el fondo tampoco estamos trabajando de manera tan aislada.Iñaki Letona: ¿Puede existir la física sin las ma-temáticas? ¿Tendrían sentido las matemáticas sin la física? ¿Encuentran las matemáticas la medición en la física? ¿Son primas hermanas?Enrique Zuazua: Matemática y física son lo mismo. Newton escribió los Principia Mathe-matica, y estableció los principios de la física y todo lo que hoy eso arrastra en los ámbitos de las ciencias sociales, de la antropología. Tam-bién en esos ámbitos intentamos aplicar los principia de Newton en realidad. Entonces, las matemáticas y la física son hermanas gemelas y, a partir de ahí, establecer fronteras es muy difícil. De hecho existe esa disciplina que se denomina Física Matemática. Hoy se reseña-ba el fallecimiento de Vladimir Arnold, como

gran físico y matemático, de la teoría de los sistemas dinámicos, los billares no lineales, etc. Arnold dio una charla muy bonita hace veinti-tantos años en Nueva York pues le habían dado el Premio del Tiempo –un joyero suizo judío que había hecho dinero y que había dotado el Premio del Tiempo–, por hacer una relectura de los principia de Newton. Él enfatizaba la dificultad de establecer las fronteras. Lo que sí es cierto es que hay una parte de esa física matemática que cada vez se ocupa de teorías más abstractas y más identificadas con las ma-temáticas; y otra parte de la física, que es ya más experimental, que trabaja con los láseres en los laboratorios de óptica y que se identifica más con la física de hoy. Pero siempre hay una interfase extremadamente difusa y común. Y estoy convencido que en el futuro va a seguir siendo así. Es como la informática. Me acuerdo del error histórico de los matemáticos al desin-teresarse por la nuevas facultades de informá-tica. Diez años después vieron cómo muchos alumnos se iban a la facultad de informática. Pero ahora, dentro de las matemáticas, uno de los grandes temas es el de la complejidad algorítmica, que ahora tiene sentido a través de los ordenadores y que consiste en intentar entender si los ordenadores van a ser capaces de crear realidades virtuales, que no van a co-rresponder con las que realmente nosotros co-nocemos e identificamos como físicas. Al final, las matemáticas quedarán como un punto muy pequeño en el mapa de las ciencias, pero en el centro, irrigando un poco todo el sistema

Entorno CIC - Mesa de ideas

científico. Cada vez más, cuando oyes hablar a nuestros colegas desde las ciencias sociales, la antropología, la paleontología, te das cuenta que el nivel de las matemáticas va creciendo también en esas disciplinas, como si el grifo estuviera abierto.Aurkene Alzua: Yo ahondaría un poco más en lo que dices, estoy totalmente de acuerdo. En mi opinión ha sido un error hacer que las ciencias naturales y la matemática trabajarán a espaldas de las ciencias sociales y las humanidades. Yo creo que no vamos a ningún sitio así. De hecho, la realidad nos está diciendo que esa conver-gencia es la que está generando importantes innovaciones en el campo científico y nos está ayudando a comprender mejor los fenómenos de nuestro entorno, sean de carácter natural o sociales. Creo que seguiremos requiriendo de trabajar más en representaciones numéricas. Nosotros buscamos dar una representación numérica a un fenómeno específico y poder representar también lingüísticamente lengua-jes lógicos, gramáticas lógicas, que es la base prácticamente de todo lo demás. Yo creo que la matemática se ha beneficiado de la filosofía, por ejemplo, del pensamiento abstracto. Y yo creo que estaba y estará en la base de todo lo que hacemos. La finalidad está en llegar a mayores grados de comprensión mediante la represen-tación formal del conocimiento.Enrique Zuazua: Einstein dijo algo sí como: ¿cómo puede ser que la matemática, una cons-trucción artificial de la mente humana, sea ca-paz de describir la realidad con tanta fidelidad?

Page 24: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

47 46

Xxxx xxxx xxx xxxxx

Proy

ecto

s de

inve

stig

ació

n

de Fuente Europea de Neutrones por Espalación. La decisión daba al traste con las esperanzas de localizar en Bizkaia la única gran instala-ción europea presente en todo el territorio estatal. No es este lugar para discutir las razones de tal resultado, que comprenden tanto la escasa actividad española en la provisión de instrumentos científicos2 como la claramente mejorable gestión de algunos aspectos de la candidatura. Lo que aquí es sin embargo relevante concierne a la reacción de los responsables ministeriales quienes al suscribir un acuerdo bilateral en el marco del proyecto ess han habilitado la apertura de una ventana de oportunidad que debiera permitir reducir nuestro fuerte déficit tecno-lógico en instrumentación científica avanzada. Tal actuación debiera permitir establecer en nuestro país un núcleo de expertos en tecnología de aceleradores de potencia y sus aplicaciones con experiencia directa

Motivación Hace ya algo más de un año, una reunión de representantes de países con intereses diversos en el uso de haces de neutrones para investiga-ción en Ciencias de la Materia Condensada, votaba abrumadoramente a favor de la ubicación en el sur de Suecia (Lund) del futuro proyecto

ESS-Bilbao: E. Abad, I. Arredondo, I. Badillo, D. Belver, F.J. Bermejo,

I. Bustinduy, D. Cano, O.D. Cortázar, D. de Cos, S. Djekic, S. Domingo,

P. Echevarría, M. Eguiraun, V. Etxebarria, D. Fernández, F.J. Fernandez,

J. Feuchtwanger, N. Garmendia, G. Harper, J. Jugo, H. Hassanzadegan,

G. Larrea, F. Legarda, M. Magan, R. Martínez, A. Megia, L. Muguira,

G. Mujika, J.L. Muñóz, A. Ortega, J. Ortega, M. Perlado, J. Portilla,

I. Rueda, R. San Martín, F. Sordo, V. Toyos, A. Vizcaino

En su primer año de andadura en esta nueva fase, ess-Bilbao ha completado el diseño básico del acelerador lineal de iones ligeros y de la fuente de generación de neutrones a baja energía. De estos, la sección del acelerador que se opera a temperatura ambiente está actualmente en construcción. La máquina ha sido diseñada para cumplir con las especificaciones del proyecto ess, tal y como fueron descritas por la comunidad de expertos1 y que no han sufrido revisión. El nuevo centro de Bilbao servirá como base para soporte en el sur de Europa de diversas actividades en ciencia y tecnología de aceleradores en el contexto de ess así como de las diferentes colaboraciones actualmente en curso. Además se han previsto un buen número de aplicaciones para los haces de iones ligeros y los neutrones rápidos producidos en la instalación mediante reacciones de captura de protones a baja energía.

ess-bilbao

Ess-Bilbao: Centro de aceleradores y fuente de neutrones a baja energía para el sur de Europa

Entorno CIC - Proyectos de investigación

en el diseño y explotación de una instalación local, que desarrollen capa-cidades para traccionar a un entorno industrial con actividad incipiente en el suministro de equipamiento con destino a grandes instalaciones de experimentación avanzada. Consecuencia directa del acuerdo a que se hace referencia en el anterior párrafo ha sido la nucleación de un equipo de proyecto que durante el pasado año ha llevado a cabo un diseño de la instalación a construir por ess-Bilbao y sus posibles aplicaciones, manteniendo al mismo tiempo la colaboración en las labores de rediseño que encara en el momento presente el proyecto ess3.

Descripción del Proyecto en EjecuciónLas tareas que ess-Bilbao (essb) acomete en el presente conciernen al diseño de detalle y construcción de un acelerador lineal (linac) para iones ligeros (protones, iones H o D negativos) capaz de alcanzar energías finales y emplear intensidades de corriente que permitan su explotación en un abanico amplio de especialidades que engloban desde aspectos básicos en ciencias de materiales, electrónica, radiobiología y oncología radioterápica experimental o física fundamental, hasta desarrollos de tecnología de componentes y subsistemas eléctricos y electrónicos, me-cánicos, de radiofrecuencia de alta potencia, de control etc. El linac ha sido concebido como una máquina multipropósito, única en su género al sur de Europa, cuyo objeto es el desarrollo en nuestro país de una base de expertos en tecnología de aceleradores. Ello se ha realizado cumpliendo además el diseño de la máquina con las especificaciones requeridas para poder eventualmente emplear la tecnología desarrollada en el inyector de la European Spallation Source (ess), una vez que este último proyecto comience a despegar. El proyecto essb trata pues de de-sarrollar localmente capacidades significativas necesarias para soportar la participación del país en un buen número de proyectos de aceleradores en todo el mundo en los que el estado participa a través de suscripciones dinerarias (cern, esrf) o mediante acuerdos de desarrollo de tecnológía (fair, isis, ifmif/eveda).Este artículo presenta el estado actual de los proyectos en curso en essb dirigidos a construir la primera sección del acelerador que opera a tem-peratura ambiente, así como un criomódulo de test para dos resonado-res superconductores de tipo radial (spoke resonators), que demuestre la viabilidad de esta tecnología superconductora bajo haz en la segunda sección del linac. Además se resumen algunas de las aplicaciones pre-vistas tanto para los haces de iones ligeros como para los neutrones que se producirán. Las previsiones actuales se centran en un acelerador de protones/H-, aunque está en estudio la posibilidad de usar un inyector común para protones y deuterones de baja energía.

Diseño del LINAC de protones/iones ligerosLos parámetros básicos del acelerador de Bilbao se muestran en la Tabla 1. Todas las estructuras de aceleración planeadas o en desarrollo se han diseñado para satisfacer las exigentes demandas de ess1, de modo que la tecnología desarrollada pudiera eventualmente ser usada en la parte de baja energía del linac de ess. La única decisión pendiente sobre los compo-nentes a temperatura ambiente de la máquina se refiere a la posibilidad de incluir una segunda línea para acelerar deuterones a baja energía, además de la línea ordinaria de aceleración de protones. La ventaja de los deuterones con respecto a los protones es la alta producción neutrónica al impactar en blancos a energías moderadas, así como la muy remarcable dependencia

angular del espectro de los neutrones rápidos generados, que puede ser útil en muchos campos, como por ejemplo en aplicaciones de física nuclear.El estado actual de los componentes del acelerador se describe a conti-nuación de forma somera.En la Fig. 1, se muestra de forma esquemática la estructura del acelerador de essb, cuya fase inicial la constituyen las fuentes de partículas cargadas (iones) a acelerar, seguido por una sección de estructuras de aceleración que operan a temperatura ambiente y una sección que está formada por elementos que contienen cavidades superconductoras. Por razones de viabilidad así como con el fin de permitir la explotación de la instalación en un tiempo razonablemente corto, hemos programado la construcción de la infraestructura en dos fases bien determinadas como:

··· Fase 1. Involucra la construcción de la máquina con capacidad de aceleración del haz hasta unos 50 MeV. Tal fase contempla la construcción y entrada en funcionamiento de las estructuras que operan a temperatura ambiente así como un primer criomódulo de prueba que contiene dos resonadores superconductores. Se prevé en esta fase extraer haces de protones a varias energías con vistas a su aplicación directa en varias líneas experimentales así como la construcción de un blanco de generación neutrónico basado en reacciones de producción directa (p,n) sobre un material ligero.

··· Fase 2. Contempla esta segunda fase la extensión del acelerador mediante elementos basados en tecnología superconductora hasta alcanzar una energía final de 300 MeV. Se prevé en esta fase remplazar el blanco de baja energía por una fuente de generación neutrónica mediante reacciones de espalación sobre un blanco rotatorio de metal pesado.

Describimos a continuación de forma conceptual las estructuras invo-lucradas en la construcción de la primera fase.

Estructuras del aceleradorFuente de IonesEl primer componente de un acelerador lo constituye una fuente de iones. En el caso de un acelerador de electrones, tal fuente es usualmente un cañón de electrones como por ejemplo un cátodo metálico sometido a alta temperatura. En un acelerador de protones, la fuente parte de hidró-geno molecular comercial, al que se somete a procesos de disociación molecular, añadiendo en casos un electrón adicional al ion H o extrayendo H cargados positivamente en otros.La primera fuente de iones de essb ha sido construida e instalada, reali-zándose en la actualidad pruebas de los diversos subsistemas y entrará en explotación próximamente. Comprende una fuente H- tipo trampa de Penning basado en el diseño de isis-fets4, capaz de suministrar un

Max. corriente protones 90 mAMax. energía final 300 MeVMax. potencia de haz 75 kWMax. tasa repetición 50 HzLongitud de pulso 1.5 msFrecuencia de paquetes 352.2 MHzMax. gradiente cavidades 9 MV/m

Angulo0 < E < 10 MeV10 < E < 20 MeV20 < E < 30 MeV30 < E < 40 MeVTotal

0º3.30 10 13

3.91 10 12

2.35 10 12

1.64 1012

4.08 1013

15º3.17 10 13

4.25 10 12

2.15 10 12

7.17 10 11

3.87 10 13

40º2.48 1013

3.14 10 12

1.06 1012

1.58 10 11

2.90 1013

Tabla 1. Principales parámetros del acelerador de protones de ess Bilbao

Page 25: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

49 48

Entorno CIC - Proyectos de investigación

1-Klystron2-Circulador3-Carga4-Guía de Ondas5-Cavidad

1-Fuente H-2-Fuente H+3-LEBT4-RFQ5-DTL6-Criomódulos7-Extracción Continua a 3 MeV8-Extracción Continua a 10 MeV9-Extracción Continua a 40 MeV10-Extracción Pulsada a 40 MeV11-Klystrons

1

2

Eje de haz

Solera

11

11

11

11

11

11

11

11

11

11

11

11

11 7

8

9

10

Eje de haz

6

6

6

6

6

9

8

7

5

5

5

43

2 1

10

3

45

haz de iones de 70 mA en pulsos de hasta 1.5 ms de duración y típicas tasas de repetición de 50 Hz. A continuación se ha instalado un conjunto completo de sistemas de diagnósticos de haz, que permiten medir la co-rriente de haz de iones, su energía así como el perfil del haz. A principios de primavera de 2010 comenzó la producción estable de protones. Las Figs. 2 y 3 muestran los pulsos de plasma de hidrógeno en el osciloscopio y la luminiscencia característica de dicho plasma.En paralelo con el desarrollo de la fuente de iones H-, se ha comenza-do la construcción de una nueva fuente pulsada de protones/deutero-nes basada en el principio de resonancia electrón-ciclotrón (ecr). En este caso, la formación de plasma se produce mediante la aplicación de microondas. Los plasmas se confinan durante tiempos del orden de 10 ms mediante la aplicación de campos magnéticos cuya magni-tud aproximada viene dada (en Teslas) aproximadamente por B= f / 28, donde f es la frecuencia de microondas. En este caso se ha elegido operar en modo pulsado usando un klystron de banda S de una frecuen-cia f = 2.7 GHz, capaz de suministrar hasta 1.2 kW de potencia de rf.

lebtLa siguiente estructura tiene como objetivo transportar el haz desde la fuente de iones y ajustarlo dentro de la ventana de aceptación del primer elemento que produce aceleración mediante campos de ra-diofrecuencia referido como cuadrupolo de radiofrecuencia (rfq). El transporte de haz de essb se basa en un diseño de cuatro solenoi-des y sus correspondientes fuentes de alimentación. Tal ejercicio se ve facilitado por la experiencia previa del equipo de essb ganada en el suministro a la Fuente de Neutrones por Espalación isis, sita en el Rutherford Appleton Laboratory (gb) como parte de la colaboración Front End Test Stand (fets)4. Este diseño del lebt, más largo de lo usual en estos sistemas, se ha elegido para mejorar su versatilidad de modo que pueda emplearse tanto para haces de H+, H- como D+, lo cual requiere controlar los cuatro grados de libertad del trasporte del haz.

rfqPara llegar a obtener los estrictos requerimientos de las fuentes de espa-lación del rango de los MW1, el rfq es un elemento clave. El diseño de esta estructura para el acelerador de essb ha sido completado recientemente en el marco de colaboraciones internacionales entre ral, Imperial College, ASTeC, Warwick University y Universidad del País Vasco (upv/ehu). El diseño contiene una mínima cantidad de braseado, de modo que el man-tenimiento y las reparaciones se facilitan en gran medida, al mismo tiempo que se garantiza un funcionamiento robusto cumpliendo especificaciones

Entorno CIC - Proyectos de investigación

como para eventualmente poder servir como inyector para la ess.Esta estructura de aceleración, de una longitud de unos 4 m requiere una potencia de rf del orden de 1 MW que es suministrada por un transmisor de rf, alguno de cuyos detalles explicamos en un apartado más abajo.

dtlLa última estructura no superconductora del acelerador de Bilbao, para acelerar protones por encima de 3 MeV, es un linac de tubos de deriva (dtl) tipo Alvarez de tres tanques, que deberá llevar el haz hasta los 40 MeV. El diseño en el que nos apoyamos es una adaptación del desarrollado para el proyecto Linac4. El primer tanque, de longitud 4.6m lleva al haz hasta los 13 MeV, y el segundo y tercero, con longitudes 5.12 m y 4.87 m, arrojan energías de salida de 27.3 MeV y 40.5 MeV, respectivamente. Los tres tanques incluyen internamente 45, 30 y 22 tubos de deriva, respec-tivamente. Un reciente acuerdo con el cern para contribuir al proyecto Linac4 mediante la participación en la construcción en su máquina nos ayudará a adaptar su diseño a nuestro propósito. Todos los tubos de de-riva y los cuadrupolos de imanes permanentes, tanto para Linac4 como para nuestro acelerador, se desarrollarán en el área de Bilbao.Cada tanque del dtl está alimentado por un klystron. Las simulaciones de dinámica de haz realizadas con diferentes corrientes y simuladores pre-dicen un haz bien adaptado con emitancias dentro de especificaciones, aunque puede ser necesario insertar un chopper a la salida del rfq, para poder manejar distintas corrientes de haz aún usando imanes permanen-tes. La principal ventaja de usar cuadrupolos de imanes permanentes es que reducen drásticamente el coste del sistema de enfocado, simplifican el montaje de los tubos de deriva y aumentan la impedancia de shunt permitiendo tubos de deriva de menores diámetros. Se ha elegido un gradiente de aceleración relativamente alto en el dtl (3.3 MV/m en el primer tanque y 3.5 MV/m en los tanques 2 y 3) para reducir su longitud. Sección SuperconductoraLa sección superconductora del linac de Bilbao acelerará los protones de 40 MeV hasta 300 MeV, y se basará en resonadores de tipo radial (spoke resonators), que ya han sido diseñados5 y se encuentran en fase de proto-tipación. Se ha construido un modelo en aluminio (cold model) de dicho diseño (Figura 4) y se han medido sus campos acelerantes y su respuesta de rf, contrastándolos con la predicción de los programas de diseño y simulación. Se están preparando actualmente pruebas a temperatura am-biente de sintonizadores y acopladores para estos resonadores. También en el futuro próximo se desarrollará un criomódulo de prueba con una célula de aceleración básica consistente en dos resonadores en niobio y un elemento focalizador superférrico. Se ha puesto en marcha reciente-mente una colaboración con acs (France) con el objetivo de producir el primer prototipo de dicho criomódulo, lo cual podría permitirnos probar cavidades radiales en condiciones de haz por primera vez.

Transmisores de Radiofrecuencia (rf) a Altas PotenciasLa potencia de radiofrecuencias requerida para la aceleración a la fre-cuencia base de 352,2 MHz se genera mediante tubos de vacío conocidos como klystrons cuyo desarrollo está ligado a la tecnología de radar. En re-sumen, tales dispositivos responden en nuestro caso de régimen pulsado a un pulso de corriente eléctrica el cual acelera un haz intenso de electrones emitidos por un cátodo metálico dentro del tubo mediante una serie de cavidades resonantes alimentadas por un campo de radiofrecuancias

Figura 2. Pulsos de plasma en la fuente de iones H

Figura 3. Luminiscencia del plasma de hidrógeno en la fuente de iones H-

Figura 4. Modelo en aluminio de un resonador radial doble

Page 26: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

51 50

Entorno CIC - Proyectos de investigación

auxiliar, hasta un cierto valor a partir del cual tal haz de electrones se desacelera emitiendo en este proceso un pulso de rf intenso al exterior, que se dirige hacia los resonadores en cuestión mediante un sistema de guías de onda, siendo además capaz de atenuar las ondas reflejadas y atenuarlas mediante una carga absorbente de rf con el fin de no dañar el klystron. El sistema en su conjunto contiene una serie de elementos, según se describe en la cadena que se adjunta y en la Figura 5,Transformador -> Convertidor/Modulador -> Klystron -> Circulador -> Guías de Onda / Carga-> Estructura Resonantede las cuales elementos tales como el Convertidor/Modulador, respon-sable de la generación de pulsos de corriente para el guiado del klystron comprenden estructuras de alta fiabilidad construidas mediante com-ponentes de electrónica de potencia de última generación. En este as-pecto, essb ha impulsado el desarrollo por parte de empresas de nuestro entorno y en colaboración con la Fuente de Neutrones por Espalación sns del Laboratorio Nacional de Oak Ridge de un prototipo de Converti-dor/Modulador de muy altas prestaciones adecuado para operación en fuentes de alto rendimiento como sns.

Sistemas de Diagnóstico y Control La operación adecuada de un acelerador requiere de la concurrencia de un sistema jerárquico de sensores y actuadores que permiten detectar con precisión las características del haz y corregir en caso necesario los parámetros relevantes, lo cual incluye usualmente procesos altamente

críticos y de alta especificación, como por ejemplo precisión micromé-trica en guiado, enfocado y emitancia de haz, incremento en energía (orden de GeV) y corriente de partículas (orden de décimas de Amperio) o sincronización en el rango de los ns de los campos acelerantes de ra-diofrecuencia de cientos de MHz y varios MW de potencia, entre muchas otras características para cuya resolución se requiere la presencia de for-ma obligada en la máquina de múltiples lazos de realimentación para empujar a sus límites la tecnología disponible. Las actividades en curso en essb comprenden el desarrollo de sistemas de control para todos los numerosos subsistemas de la máquina, que involucran miles de señales para monitorizar y controlar, así como el diseño y construcción de diver-sos nuevos sensores para medida de la posición, distribución temporal y forma del haz, así como sistemas de llenado y sintonía en rf de cavidades resonadoras, para gobernar y acompasar con alta precisión los campos acelerantes al paso de las partículas. Todo ello se está integrando dentro del estándar abierto epics (Experimental Physics and Industrial Control System) dentro de una red colaborativa internacional de grandes insta-laciones científicas en la que essb participa activamente.

Aplicaciones previstas para haces de protones y neutrones El centro essb espera poder suministrar en pocos años haces de pro-tones y neutrones útiles para la comunidad de usuarios locales, que ha ido mostrando un interés creciente en el uso de haces de partículas en diversos campos de las ciencias físicas y biomédicas.

1-Klystron2-Circulador3-Carga4-Guía de Ondas5-Cavidad

1-Fuente H-2-Fuente H+3-LEBT4-RFQ5-DTL6-Criomódulos7-Extracción Continua a 3 MeV8-Extracción Continua a 10 MeV9-Extracción Continua a 40 MeV10-Extracción Pulsada a 40 MeV11-Klystrons

1

2

Eje de haz

Solera

11

11

11

11

11

11

11

11

11

11

11

11

11 7

8

9

10

Eje de haz

6

6

6

6

6

9

8

7

5

5

5

43

2 1

10

3

45

Figura 5. Transmisión de RF desde el klystron a la cavidad acelerante Dinámica del haz de protones a lo largo del linac

Entorno CIC - Proyectos de investigación

Las aplicaciones protónicas previsibles para los tres puertos diseñados a 3 MeV, 20 MeV y 40 MeV están dirigidos a aplicaciones dentro de:

··· Litografía mediante haces de protones ··· Análisis por haz de iones (pige, erda, pixe…)··· Tecnología Ion Track ··· tof-sims de alta energía··· Terapia experimental por radiación en células vivas y tejidos ··· Radiobiología, particularmente en el campo de mutagénesis

controlada por radiación.Las aplicaciones neutrónicas previsibles se enfocan hacia:

··· Desarrollo de Reflectores/Moderadores,··· Uso de neutrones térmicos y fríos para,

··· Desarrollo de detectores de neutrones apropiados para fuentes de espalación,

··· Estaciones de instrumentos,··· Desarrollo de selectores de velocidad de neutrones y otros

equipos de óptica neutrónica.··· Puertos de neutrones rápidos también para aplicaciones,

··· De tiempo de vuelo para medida de secciones eficaces de núcleos de interés en Astrofísica nuclear y otras áreas de ciencia básica nuclear,

··· De metrología para calibrar detectores de neutrones rápidos,··· Experimentos de propagación neutrónica en medios inertes

como plomo o grafito,··· Estudio de la cinética de sistemas subcríticos.

De la lista anterior, las típicas aplicaciones de haces protónicos se cen-trarán principalmente en su uso para ciencia de materiales (litografía, microprocesado de materiales ultraduros, irradiación de semiconducto-res, etc. ), así como algunas aplicaciones seleccionadas en el ámbito de las biociencias. Por otra parte, actualmente está en desarrollo conceptual un blanco de baja energía (40 MeV) para reacciones (p,n) en materiales sóli-dos ligeros (9Be, 7Li). Dicho blanco es capaz de suministrar flujos neutró-nicos significativos, de acuerdo con algunos cálculos preliminares cuyos resultados se muestran en la Tabla 2. Más que orientados a experimentos en Ciencias de la Materia Condensada, sus principales aplicaciones están dentro del campo de la instrumentación neutrónica general. Además, el desarrollo de dicho blanco ayudará a salvar también el creciente gap detectado por la comunidad de Física Nuclear que trabaja en temas muy diversos que van desde la medida de secciones eficaces neutrónicas hasta aplicaciones en Física de Astropartículas6.

Como conclusión general en lo referido a las aplicaciones, es muy remar-cable el hecho de que simplemente la sección a temperatura ambiente del acelerador previsto, que está en construcción y se espera esté listo en pocos años, debería ser suficiente para comenzar a hacer ciencia seria en la nueva instalación de Bilbao, y dar servicio a un gran número de usuarios. En cuanto a la producción neutrónica esperable, los cálculos y previsiones realizadas permiten concluir que podrán desarrollarse una gran variedad de aplicaciones y dar servicio a una creciente comunidad de usuarios.

Referencias

[1] Conclusions Report of the ESS-Bilbao Initiative Workshop (2009) http://www.essbilbao.com/

portals/0/ficheros/noticias2/imagenes/conclusions.pdf

[2] Informe Cotec 2010, Tecnología e Innovación en España. Fundación Cotec para la Innova-

ción Tecnológica, ISBN: 978-84-92933-00-6, p. 59.

[3] El esfuerzo de rediseño seguido en la actualidad por ESS-AB (ESS-Scandinavia) es funda-

mentalmente indistinguible del propuesto por el Consorcio ESS-Bilbao antes de la toma de

decisión sobre la localización de la instalación. Ver, http://www.essbilbao.com/portals/0/

ficheros/noticias2/imagenes/ESS%20Bilbao%20Proposal%20for%20the%20Design%20Re-

view.pdf. Tal propuesta contrasta con el documento oficial de revisión de diseño al comité

de expertos de esfri producido en 2008, en el cual tanto la candidatura sueca como la

húngara apostaban por el diseño de 2003, considerablemente obsoleto.

[4] Letchford AP et al. (2010) Status of the ral Front End Test Stand

http://accelconf.web.cern.ch/AccelConf/IPAC10/papers/mopec075.pdf

[5] Bustinduy, I, Lucas, J, Bermejo, FJ, and Etxebarria V (2009) Multiparticle beam dynamics

simulations for the Bilbao superconducting proton accelerator

http://accelconf.web.cern.ch/AccelConf/SRF2009/papers/thppo099.pdf

[6] Etxebarria, V, Bustinduy, I, Bermejo, FJ, and Cano-Ott D (2010) Baseline design of the ESS-

Bilbao accelerator: a machine compliant with ESS Specifications Proceedings of ICANS XIX,

19th meeting on Collaboration of Advanced Neutron Sources.

Tabla 2. Producción neutrónica (n mA-1 sr-1) a diferentes ángulos (protones de 40

MeV en blanco de Be)

Max. corriente protones 90 mAMax. energía final 300 MeVMax. potencia de haz 75 kWMax. tasa repetición 50 HzLongitud de pulso 1.5 msFrecuencia de paquetes 352.2 MHzMax. gradiente cavidades 9 MV/m

Angulo0 < E < 10 MeV10 < E < 20 MeV20 < E < 30 MeV30 < E < 40 MeVTotal

0º3.30 10 13

3.91 10 12

2.35 10 12

1.64 1012

4.08 1013

15º3.17 10 13

4.25 10 12

2.15 10 12

7.17 10 11

3.87 10 13

40º2.48 1013

3.14 10 12

1.06 1012

1.58 10 11

2.90 1013

Page 27: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

53 52

Xxxx xxxx xxx xxxxx

Proy

ecto

s de

inve

stig

ació

n

magnética, otorga la funcionalidad, y ha de forzarse a formar pequeñas partículas. Añadir una segunda funcionalidad, la capacidad de unirse a las células por ejemplo, requerirá de una síntesis completamente diferente, que no debe interferir ni con la estructura ni con la primera funciona-lidad. Sin embargo, algunas de las funcionalidades de interés, como la mencionada unión a las células, se basan en interacciones bioquímicas muy sensibles, mediadas por grupos químicos que pueden dañarse con facilidad. No es de extrañar por ello que estructuras bifuncionales y es-pecialmente trifuncionales sean excepcionalmente raras.En segundo lugar, el término hipertermia hace referencia a sobrecalentar las células cancerosas, más sensibles a la temperatura que las células sanas. Esto ofrece un ingenioso método para combatir diferentes formas de cáncer, pero con la dificultad de que el sobrecalentamiento debe apli-carse únicamente en la posición del tumor y de que la temperatura del

En primer lugar, mientras las nanoestructuras están bien asentadas en el ámbito de la investigación y están siendo usadas en un número cada vez mayor de aplicaciones, el concepto de nanoherramientas multifunciona-les es relativamente nuevo y despierta un gran interés. Estas herramien-tas desarrollan, al mismo tiempo, diferentes tareas utilizando un único nanodispositivo, usualmente una nanopartícula. Esta aproximación es muy novedosa dado que la síntesis de este tipo de objetos puede ser muy compleja: normalmente el material en cuestión, digamos una aleación

Alexander Bittner es doctor en química y trabaja desde 2008 como

líder del Grupo de Autoensamblado de cic nanogune y como

investigador Ikerbasque. Con anterioridad ha trabajado en Alemania,

Inglaterra, Suiza y Francia. Sus principales áreas de interés se centran

en la ciencia de la nanoescala, interfaces y electroquímica.

magnifyco es uno de los curiosos acrónimos utilizados para designar un proyecto colaborativo que se desarrolla en el marco de la Unión Europea. El acrónimo hace referencia a «MAGnetic NanocontaIners For combined hYperthermia and COntrolled drug release», esto es, nanocontenedores magnéticos para combinar hipertermia y liberación controlada de fármacos. El proyecto incluye once socios de empresas, institutos y universida-des de Italia, España, Francia, Alemania y Holanda. Su objetivo es «el ensamblado y la fabricación de una nueva generación de nanoestructuras multifuncionales que permitan un tratamiento combinado mediante hipertermia y liberación controlada de fármacos, con una orientación específica a células ováricas cancerosas». Creo que esta complicada frase requiere ser desgranada punto por punto.

Alex Bittner, líder del Grupo de Autoensamblado de cic nanogune e Investigador Ikerbasque

Magnifyco

Entorno CIC - Proyectos de investigación

tejido debe ser controlada con gran precisión. Para conseguirlo pueden colocarse nanopartículas magnéticas en el tumor y producir un calen-tamiento local por medio de un campo magnético oscilante. El proceso de orientación y relajación de los momentos magnéticos producirá calor en la vecindad inmediata de la nanopartícula.En tercer lugar, la liberación o distribución de fármacos en la nanoescala es el sueño de la medicina del futuro, de la que en un futuro cercano probablemente podamos ver las primeras aplicaciones. Este proceso se fundamenta en el hecho de que, aunque hay disponibles un gran número de potentes fármacos, no pueden utilizarse de forma generalizada debido a los efectos no deseables que producen sobre las células sanas. Con el fin de dirigir un fármaco determinado contra una célula cancerosa, in-fectada o dañada, que mide unas cuantas micras, debemos ser capaces de controlar el proceso en la escala del nanómetro. Esta es la razón por la que las nanopartículas juegan un papel tan fundamental en la nanome-dicina del futuro: las nanopartículas huecas no solo pueden transportar fármacos en su interior, pueden además encontrar (reconocer) las células enfermas, atravesar la pared celular o ser ingeridas (endocitosis). Todo este proceso depende en gran medida de la forma de la partícula y de su funcionalidad química.En cuarto y último lugar, no se pueden combatir ciertas formas de cáncer de ovario mediante tratamientos convencionales (que funcionan bien para otras clases de cáncer): nuevos tumores aparecen a menudo tras la remisión inicial. En esta fase sería deseable utilizar fármacos muy po-tentes, pero los efectos secundarios pueden hacer imposible dicho trata-miento. Por ello buscamos una liberación muy localizada de los mismos, combinada con una terapia física como la hipertermia.Resumiendo: los nanocontenedores a desarrollar deben ser capaces de reconocer las células cancerosas, tratar la zona mediante hipertermia mag-nética y, como consecuencia del estímulo térmico o magnético, liberar un fármaco muy tóxico de alta selectividad con las células ováricas cancerosas. Y todo al mismo tiempo. El desarrollo de estos contenedores continuará con estudios en animales, requisito previo a su uso en humanos. Nos cen-traremos a continuación en cómo funcionan dichos nanocontenedores.

¿Cómo pueden integrarse todas estas funciones?Es obvio que requerimos nanocontenedores muy especiales para hacer posible la multifuncionalidad. Aunque magnifyco abarca diferentes clases de materiales contenedores, desde sólidos inorgánicos porosos a pequeños objetos biológicos semejantes a células, todos ellos incluirán tres componentes fundamentales:Material magnético: permitirá su detección mediante imágenes de re-sonancia magnética (irm), el tratamiento del cáncer mediante hiperter-mia y proporcionará además un estímulo para la liberación del fármaco. Trabajamos predominantemente con métodos químicos húmedos para producir y ordenar las partículas magnéticas, requiriendo además un análisis y caracterización física muy detallados. cic nanogune está es-pecialmente bien equipado para realizar estas tareas.Cápsula biocompatible: mientras el contenedor guarda el fármaco y evita su degradación, su contacto con la sangre y las células no ha de provo-car reacciones adversas del sistema inmunitario. Con este fin estamos investigando también recubrimientos orgánicos biocompatibles. Estos recubrimientos deberían adicionalmente facilitar la liberación del fármaco ante la aplicación de un estímulo externo como el calor. El estímulo podría tener también un origen interno como el pH ácido de las células tumorales.

a) Síntesis de partículas magnéticas; b) contenedores; c) partículas magnéticas ligadas

a contenedores cargados de fármacos; d) enlace a células cancerosas (receptores de

folato alpha); e) hipertermia magnética; f) ensayos

Enlace de contenedor cargado (tipo canal) vía anticuerpos – receptores de folato

alpha; b) endocitosis; c) un campo magnético variable induce la apertura del

contenedor, la liberación del fármaco y la hipertermia; d), e), f) Mismo proceso

para otro tipo de contenedor (vesícula o partícula blanda)

Imagen de microscopía de barrido de fuerza atómica de un virus del mosaico del tabaco

Page 28: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

55 54

Entorno CIC - Proyectos de investigación

Fragmentos de anticuerpos: son adheridos a la superficie de los nano-contenedores para que alcancen de forma selectiva las células ováricas cancerosas. Los anticuerpos se enlazan a características específicas pre-sentes en las células cancerosas (receptores de folato alpha).Cuando consideramos todos estos aspectos, decidimos centrarnos en una pequeña familia de contenedores poco habituales, que espe-ramos poder modificar según el triple requerimiento: nanopartículas lipídicas sólidas (pequeñas bolas hechas de lípidos), partículas poli-méricas de hidrogel (objetos orgánicos blandos), tubos de péptidos (ensamblados de pequeños péptidos extremadamente finos). Además de estas estructuras artificiales, se seleccionó una estructura inorgá-nica (silicato), consistente en partículas de zeolita L, poseedoras de canales extremadamente estrechos de escala molecular (< 1 nm), así como otras dos candidatas de origen biológico: el Virus del Mosaico del Tabaco (tmv, Tobacco Mosaic Viruses, partículas de virus vegetal con forma de tubo) y micropartículas vesiculares derivadas de células vivas (globos llenos de líquido, envueltos por una fina membrana). Nos enfrentamos ahora al gran reto de usar estas partículas como plataformas para la fabricación de estructuras multicomponentes, capaces de agrupar todas las tareas biomédicas en un único obje-to. Es evidente que no todos los nanocontenedores en estudio serán igualmente adecuados, por lo que en las fases finales seleccionaremos uno o dos de los candidatos más satisfactorios. Sin embargo, estamos convencidos que todos los candidatos son susceptibles de ser trans-formados en contenedores funcionales, mereciendo todos por ello una investigación en profundidad.

Trabajo en cic nanogunecic nanogune colabora estrechamente con el grupo de Christina Wege y Holger Jeske de la Universidad de Stuttgart (Alemania), expertos en virología vegetal. Nuestro trabajo se centra en el TMV, virus vegetal com-pletamente inofensivo para el ser humano. Estos virus son muy comunes y están muy extendidos, especialmente en las plantaciones de tabaco. Por ejemplo, es muy probable que el lector de este artículo tenga un buen número de ellos en las yemas de sus dedos, ¡especialmente si es fumador! Hay que destacar la gran estabilidad biológica, química y física del virus, relacionada con el hecho de que su infección se produce a través de le-siones en la planta (hojas dañadas, por ejemplo), lo que obliga al virus a sobrevivir en campo abierto para poder infectar y extenderse. Esto es común a otros virus de plantas. De forma general, los virus vegetales están constituidos por una cápsula (envoltorio) de proteínas y al menos una hebra de ácido nucleico. Presentan una gran variedad de formas, con tamaños que van desde unos pocos nanómetros hasta unas micras: estructuras tubulares alargadas y rígidas, filamentos flexibles, partículas esféricas o con forma de bala,…. Para cada familia de virus las dimensio-nes y las características superficiales son extremadamente reproducibles, y pueden ser alteradas de forma predecible incluso mediante reacciones químicas. Obviamente, estas características hacen de ellos excelentes candidatos para fabricar contenedores.Una partícula individual de tmv está formada por 2.130 proteínas idén-ticas, colocadas helicoidalmente alrededor de (y ligadas a) una única hebra de arn con unos 6.400 nucleótidos, que se encuentra encerrada en el interior del mencionado tubo de proteínas de 300 nm de longitud.

Hojas de tabaco sanas

Micropartículas vesiculares rellenas de nanopartículas magnéticas Imagen de microscopía de barrido de fuerza atómica de tmv (rojo) y del virus X de

la patata (verdes, más cortos) sobre una superficie sólida

Hojas de tabaco infectadas por el virus del mosaico del tabaco (tmv)

Entorno CIC - Proyectos de investigación

Cada proteína de la cubierta incluye 158 aminoácidos en el caso de la cepa más común. El tmv tiene un diámetro de 18 nm, y el diámetro del canal interno longitudinal es de 4 nm. Este canal no tiene aparentemente ninguna función biológica pero puede rellenarse de forma sencilla con soluciones acuosas. Esto nos animó a tratar de rellenarlo con potentes fármacos anticancerígenos, trabajo que estamos desarrollando en la ac-tualidad. Aunque confiamos en lograr este objetivo, la naturaleza abierta del canal implica que será necesario desarrollar un tapón de cierre que pueda ser retirado en el interior de las células cancerosas. En esta tarea, a desarrollarse en una escala de 4 nm, esperamos que la física y la quí-mica de pequeñas partículas o coloides nos puedan servir de guía. En otros contenedores propuestos (zeolitas o tubos de péptidos), se espera que los canales puedan cerrarse utilizando objetos tan pequeños como moléculas individuales.Al mismo tiempo, estamos trabajando para dar propiedades magnéticas al virus. Encontramos que mediante la precipitación de sales de hierro se pueden obtener recubrimientos bastante lisos y adecuados. Diferen-tes métodos de análisis, realizados en colaboración con cic biomagune, muestran la presencia de una mezcla de dos óxidos de hierro, mientras que las medidas de magnetometría han probado la existencia del com-portamiento magnético deseado: una histéresis magnética en presencia de campos magnéticos variables. De hecho, los objetos recuerdan a pe-queños imanes débiles con forma de barra.La combinación de estas dos funcionalidades puede ser el obstáculo más grande a superar, y todavía desconocemos si debemos magnetizar el virus en primer lugar para luego introducir el fármaco, o viceversa. En

cualquier caso, el siguiente paso será añadir anticuerpos que liguen el virus-imán-contenedor a un receptor especial ( folato alpha), que se en-cuentra presente en número extraordinariamente alto sobre la superficie de las células ováricas cancerosas.

ColaboraciónDistinguimos dos tipos de socios participantes en magnifyco: industria-les, que desarrollar y evalúan los materiales y actúan como asesores de riesgos, y académicos, en institutos como cic nanogune o en universi-dades, que están a cargo del desarrollo de nuevas estrategias de nanofa-bricación. En ellos se sintetizan los elementos constructivos individuales y se caracteriza su ensamblado según sus propiedades físicas, químicas y biológicas. Experimentos con cultivos celulares nos permitirán enten-der el funcionamiento de nuestras nuevas nanoherramientas in vitro y aclararán si son candidatas aptas para nuevos ensayos y, finalmente, para su uso en humanos – todos los nuevos desarrollos de fármacos deben superar esta larga carrera de obstáculos.Los objetivos de magnifyco cubren un amplio rango de áreas científicas por lo que ha sido necesario establecer una colaboración interdisciplinar entre químicos, físicos, biólogos y médicos. Aunque la red se encuentra todavía en una fase muy inicial, ya podemos decir que hay tanto de trabajo duro como de diversión, y que todos los socios estamos adquiriendo nue-vos y útiles conocimientos. Aparte de intercambiar muestras, distribuimos parte del trabajo entre los socios, en función por ejemplo de la disponibili-dad de los equipos de medida. Esta estrategia ha probado ser muy rápida y eficiente, además de enriquecernos gracias a la interacción adicional.

De izquierda a derecha, esferas de óxido de hierro, cubos de ferrita, mancuernas de FePt-Fe2O3 y nanoflores de Au-Fe2O3 . Estas partículas pueden adherirse a los

contenedores para proporcionarles un momento magnético

Nanopartículas de zeolita. Cada bloque de silicato contiene canales lineales

extremadamente finos

Socios de Magnifyco: National Nanotechnology Laboratory, Lecce; Dompé pha.r.ma,

L’Aquila; Nanovector, Milán; Italian Institute of Technology, Génova; National

Tumor Institute, Milán; cnrs, Groupe Physique du Vivant, París; MagForce, Berlín;

cic nanogune, San Sebastián; Universidad Complutense, Madrid; Universidad de

Santiago de Compostela; Molecular nano Fabrication at University of Twente, Enschede

Page 29: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

57 56

Xxxx xxxx xxx xxxxx

Los avances en tecnología han permitido el desarrollo de técnicas de observación e identificación de moléculas individuales. Técnicas de ob-servación basadas en microscopía electrónica, microscopía óptica de fluorescencia, microscopía óptica de campo cercano y microscopía de fuerzas atómicas han ampliado las posibilidades para observar e inte-raccionar directamente con moléculas individuales. El interés en reducir el volumen de los procesos analíticos, combinado con los avances en micro y nanofluídica, está motivando el desarrollo de nuevos chips en los cuales los análisis pueden ser desarrollados más rápidamente y a un coste mucho menor que los tradicionalmente usa-dos en laboratorios de biología molecular. Su desarrollo está cambiando

Los avances en micro y nanotecnología han permitido fabricar dispositivos en los que biomoléculas individuales interaccionan entre sí ó lo hacen con objetos de su misma dimensión. Estos dispositivos han permitido estudiar la acción de una enzima sobre una molécula de dna o la actividad de un único receptor sobre una célula y han arrojado luz para entender la relación entre estructura, función y dinámica de las biomoléculas en la célula viva. El resultado de una investigación aplicada en este campo permitirá manipular o analizar moléculas individuales y formará la base para sistemas de diagnóstico médico de una manera rápida, barata y personalizada.

Santos Merino, Estefanía Abad, Aritz Retolaza y Aritz Juarros, Unidad de Micro y Nanoingeniería de cic microgune

Proy

ecto

s de

inve

stig

ació

n

Tecnologías lab-on-a-chip para observar e identificar moléculas individuales

la naturaleza de las cuestiones de las que podemos obtener respuestas experimentales a nivel molecular. Estos nuevos chips integran medidas eléctricas, ópticas y físicas combinadas con el guiado de fluidos para crear un nuevo concepto de biochips denominados single molecule devi-ces. Este tipo de sistemas proporcionan localización espacial, la cual es relevante para observar, por ejemplo, la actividad de una única enzima, la actividad de un único receptor sobre una célula, o las moléculas cuyo origen es una célula del sistema inmune. El resultado de una investigación aplicada en este concepto de chips dará lugar a sistemas para manipular o analizar moléculas individuales y formará la base para la fabricación de sensores ultrasensibles y sistemas de diagnóstico médico. Por ejem-plo, uno de los últimos desafíos en biología es entender la relación entre estructura, función y dinámica de las biomoléculas en la célula viva, lo que permite estudiar los procesos bioquímicos y metabólicos y el origen de las enfermedades a nivel celular. Sin embargo, observar los procesos moleculares en células vivas, es todavía un objetivo del máximo interés y dificultad, ya que las interacciones moleculares ocurren en la escala

Los doctores Santos Merino, Estefanía Abad, Aritz Retolaza

y Aritz Juarros son investigadores de la Unidad de Micro y

Nanoingeniería de cic microgune.

Entorno CIC - Proyectos de investigación

Micro y Nanofabricación. Alta resolución y producciónLa habilidad para fabricar estructuras en la micro y nanoescala es de crucial importancia, no solo en los chips para análisis biomolecular, sino en general en el avance de las micro y nanotecnologías y el estudio de las nanociencias. Aspectos críticos como la resolución, fiabilidad, ve-locidad y precisión son todos aspectos que deben de ser considerados a la hora de desarrollar nuevos procesos litográficos. De este modo, se deben desarrollar métodos de fabricación que permitan reproducir en un producto comercializable los diseños y desarrollos de prototipos realizados a escala de laboratorio. En este sentido, cuando se requieren fabricar estructuras con una resolución por encima de 1 micrómetro, la tecnología de fabricación de referencia es la Litografía Ultravioleta con-vencional. Esta tecnología combina tiempos de producción pequeños y un coste en equipamiento y mantenimiento reducidos. Sin embargo, no existe una tecnología madura que aporte estas prestaciones cuando se buscan resoluciones sub-micrométricas, lo que limita la industrialización de prototipos realizados en el ámbito de la nanotecnología. Se han realizado importantes esfuerzos a la hora de optimizar las tecnologías litográficas sub-micrométricas, utilizándose fuentes más energéticas como la litografía ultravioleta extrema, la litografía con electrones, con fuentes de iones o con fuentes de rayos-x. Existen hoy en día numerosos problemas a la hora de hacer estas tecnologías produc-tivas; entre otros: su coste –que en algunos casos supera los 50 millones de dólares- o su tiempo de fabricación –extremadamente lento para la industria-. Únicamente la litografía ultravioleta extrema, tecnología empleada por la industria de semiconductores que integra circuitos integrados en un chip, es una alternativa. Sin embargo, su coste en inversión y mantenimiento anual está solo al alcance de una muy alta producción anual como la que se realiza en la industria de semicon-ductores. Este hecho, unido a la aparición de aplicaciones ajenas a la microelectrónica, muchas de ellas en el campo de la biotecnología y las aplicaciones biomédicas, ha conllevado que numerosos investigadores hayan invertido recursos en la búsqueda de alternativas que combinen alta resolución a un coste moderado (microcontact printing, litografía basada en microscopía de fuerzas atómicas o litografía dip-pen). De entre estas tecnologías, la litografía de nanoimpresión (nil) es con di-ferencia la más madura.

del nanómetro, tamaño no accesible generalmente con sistemas ópticos debido a la difracción. Para lograr este objetivo, se está trabajando en el desarrollo de nuevas herramientas ópticas que permitan la manipulación de funciones biológicas al nivel de moléculas individuales en su entorno natural: la célula. Otro ejemplo importante, es la posibilidad de interac-cionar con moléculas individuales de dna ( figura 1), mapear sus lugares de restricción e identificar, por ejemplo, la presencia de un virus a partir del corte del dna original en partes de dna de longitud conocida y medible a partir del uso de enzimas de restricción. En general, estos chips pueden permitir un análisis menos invasivo de fluidos biológicos complejos para diagnóstico médico y terapias avanzadas. Un amplío rango de tecnologías, incluida la fabricación, están siendo direccionadas hacia estos objetivos. El conjunto de herramientas denominadas lab-on-a-chip, y particular-mente, los chips basados en aproximaciones single-molecule, pueden en el medio y largo plazo proporcionar sistemas funcionales para el diag-nóstico de determinadas enfermedades diana y proporcionar sistemas eficientes en el avance de terapias asociadas a enfermedades crónicas.El desarrollo de chips moleculares en los que interaccionar con las biomo-léculas requiere no únicamente de técnicas de detección ultrasensibles sino que es necesario el control micro y nanofluídico a nivel de chip, integrando canales, celdas, válvulas, electrodos y funcionalización super-ficial que permita la interacción con biomoléculas específicas. No menos importante es el desarrollo de procesos de fabricación que permitan la formación de canales, agujeros o rendijas de dimensiones en la escala de las biomoléculas que queremos detectar, es decir, en el orden de unos pocos nanómetros. Sin embargo, aunque necesario, esto no es suficiente y el desarrollo de tecnologías maduras que permitan la fabricación de dispositivos con motivos en esta escala de una forma fiable y económica resulta fundamental para el éxito y llegada a la industria de este nuevo concepto de chip. La combinación exitosa de todos estos factores crea un rango de oportunidades enorme en el campo del análisis molecular. En este sentido, la unidad de micro y nanoingeniería de cic microgune ( figura 2) está desarrollando tecnología basada en métodos emergentes de nanofabricación, conjugando alta resolución y viabilidad industrial. De este modo, se han fabricado chips de identificación molecular de dna mediante estiramiento de dobles hebras en dispositivos nanofluídicos de diámetro inferior a los 100 nm.

Figura 1. Interacción entre una doble hebra de dna y un agujero de dimensiones en

la misma escala

Figura 2. Sala blanca para fabricación de biosensores

Page 30: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

59 58

El principio de nil es muy simple. Un patrón, normalmente fabricado en silicio, es transferido a una capa fina de polímero que recubre el substra-to –normalmente vidrio o silicio- bajo unas condiciones controladas de presión y temperatura ( figura 3a).Este proceso de impresión da lugar a una capa residual muy fina de po-límero, que es eliminado mediante un plasma anisotrópico de oxígeno hasta alcanzar el substrato ( figura 3b).Posteriormente, se puede realizar la transferencia de motivos al substrato mediante ataques anisotrópicos en vacio, empleando para ello gases espe-cíficos y actuando el polímero como máscara ( figura 3c), o bien, evaporar sobre el substrato una fina capa metálica con posterior extracción del polímero en disolvente orgánico ( figura 3d).El proceso permite la réplica de substratos a partir del patrón en tiempos inferiores a los 15 minutos y alcanza una resolución mínima condiciona-da fundamentalmente por el molde patrón, pudiendo ser ésta inferior a los 10 nm. Esta es la razón por la que esta tecnología ha acaparado una gran atención de la industria y centros de investigación unos pocos años después de su introducción en 1995.La Unidad de Micro y Nanoingeniería de cic microgune está desarrollan-do esta tecnología y, una vez optimizados los procesos de fabricación, la está aplicando en el campo de la salud para desarrollar no solo los sistemas de diagnóstico basados en estiramiento de dna en dispositivos nanofluídicos, sino también al desarrollo de sensores de proteínas en suero basados en fluorescencia o en resonancia de plasmones, sensores electroquímicos de alta sensibilidad, substratos para ingeniería de tejidos o láseres orgánicos de alta fotoestabilidad en el espectro visible.

Dispositivos micro y nanofluídicos para identificación de dnaLos métodos actuales de análisis de dna requieren cortar cada molécula en millones de fragmentos, replicar cada segmento, ordenarlos por tama-ño y reconstruir el dna original en un proceso costoso tanto en tiempo como en material utilizado. En cambio, la posibilidad de estirar dna, que consiste en linealizar moléculas individuales por confinamiento en canales nanofluídicos, abre nuevas posibilidades para el análisis de dna y sensado bioquímico de forma rápida y utilizando una cantidad ínfima de muestra, lo que reduce considerablemente el coste del análisis.

Entorno CIC - Proyectos de investigación

Figura 3a. Impresión del polímero

Figura 3b. Eliminación de la capa residual de polímero mediante plasma de oxígeno

Figura 3c. Transferencia de motivos al substrato mediante plasma específico Figura 3d. Evaporación de una capa fina metálica y posterior extracción del polímero

De este modo, el coeficiente de extensión Lestirado/L depende de la sección del canal, que es característica de cada chip, y por tanto, la determinación del grado de extensión para un determinado chip proporciona un método para identificar moléculas de dna. El diseño del chip para estiramiento de dna se muestra en la figura 4. El chip se compone de una base de silicio, conteniendo microcanales para el transporte del fluido y nanocanales para el estiramiento de dna, inmovilización y detección. Un vidrio pyrex sella el dispositivo e integra electrodos para el movimiento de la muestra por electroforesis. En la figu-ra se aprecia la inclusión de postes de diámetro unos pocos micrómetros, dejando un espaciado cada vez más pequeño según nos acercamos a los nanocanales. El objetivo de estos postes es ayudar a deshacer la estructu-ra helicoidal del dna en solución antes de alcanzar los canales. La figura 5

El estiramiento de moléculas de dna en canales nanofluídicos ha sido utilizado para el estudio de las propiedades físicas y biológicas de estas moléculas, analizándose medidas de longitud de contorno en tiempo real de las moléculas estiradas. Se han realizado también mapas de restricción utilizando endonucleasas así como estudiado interacciones moleculares entre una proteína y una molécula de dna. Recientemente, y por medio de la introducción de electrodos en los canales nanofluídicos, se está intentando desarrollar un método de secuenciación directa de moléculas individuales de dna. La unidad de Micro y Nanoingenieria de cic microgune, basándose en la tecnología de nil, ha fabricado canales de sección nanométrica –de hasta 50x20 nm–, integrándolos en un chip que permite el movimiento de dna por presión o campo eléctrico. De este modo, se ha resuelto el grado de estiramiento de estas moléculas, obteniéndose un buen acuerdo entre la predicción teórica y los resultados experimentales. En la actualidad, se pretende demostrar que el grado de estiramiento es el mismo para un canal dado, independientemente de la molécula de dna, lo que facilitaría enormemente su uso en aplicaciones de diagnóstico rápido. El dna es un polímero largo y flexible que en solución asume una con-formación coloidal con un radio característico de giro dado por (PwL3)1/5, donde P es la longitud de persistencia, una magnitud mecánica que cuan-tifica la rigidez de la macromolécula y que es aproximadamente 50 nm para una doble hebra de dna; w es la anchura del dna, la cual puede ser estimada en 2 nm, y L es la longitud de contorno, es decir, la longitud de la molécula totalmente estirada. L depende del número de bases en una hebra de dna y es normalmente calculada asumiendo una distancia de 0.34 nm entre pares de bases. El radio de giro para una molécula de dna en solución es del orden de unos pocos micrómetros –2 µm en nuestros experimentos–. Sin embargo, cuando las moléculas de dna son forzadas a entrar en una sección con diámetro mucho más pequeño que el radio de giro, es energéticamente más favorable para las moléculas estirarse en una serie de bloques a lo largo del canal. En el régimen de De Gennes, es decir cuando el radio de giro es mucho mayor que el diámetro de la sección, y ésta a su vez mayor que la longitud de persistencia, la longitud de la molécula de dna en el canal –Lestirado- escala con la longitud de contorno L según Lestirado ≈ L(wP/D2)1/3 , donde D es el diámetro del canal.

Entorno CIC - Proyectos de investigación

Figura 4. Diseño del dispositivo fluídico formado por micro y nanocanales y

electrodos en el vidrio para el transporte eléctrico del DNA

Figura 5. Corte transversal del chip. Nanocanales de 250 micrómetros de longitud y

a) 50x50 nm de sección, b) 50x20 nm de sección

A

B

Page 31: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

61 60

Figura 6. Chips micro-nanofluídicos obtenidos

Figura 7. Imagen del llenado de los chips con rodamina B fluorescente

Figura 8. Imagen del λ-DNA estirado e histograma de las longitudes promedio medidas para el conjunto completo de moléculas de λ-DNA analizado. La escala corresponde a 15 µm

muestra un corte transversal del dispositivo micro y nanofluídico, donde se observan canales de sección nanométrica –de dimensiones aproxima-das 50x50 nm y 50x20 nm respectivamente– rodeados de canales –por los que no circula el dna a estudiar– de sección micrométrica.Estos chips han sido fabricados mediante nil, integración de los electro-dos en el vidrio, creación de agujeros pasantes en el vidrio para introducir la muestra y sellado posterior anódico ( figura 6).En la figura 7 se muestra el llenado previo de los chips con una mezcla de tinte fluorescente (rodamina B). Los canales –de 50x50 nm y sepa-rados 3 µm– muestran su funcionalidad y la ausencia de fugas en el dispositivo fabricado.Se han realizando experimentos de estiramiento con los chips fabricados y conteniendo éstos una solución de λ-dna tintado con un marcador fluo-rescente. La figura 8 muestra el histograma de las longitudes promedio medidas para el conjunto completo de moléculas de λ-dna analizado. Considerando la longitud promedio –6µm– y las longitudes de contorno y de persistencia para el λ-dna tintado con yoyo-1, se puede estimar que el grado de estiramiento es del 33%. Si consideramos este grado de esti-ramiento en el régimen de Gennes descrito anteriormente, encontramos que el diámetro teórico del nanocanal debiera ser de 107 nm, muy próximo al valor experimental fabricado.La unidad de micro y nanoingenieria de cic microgune está extendiendo el uso de estos chips a otras moléculas de dna con el fin de demostrar que el grado de estiramiento es el mismo para un mismo chip y condiciones de dilución de la muestra de dna. La fabricación de chips en esta escala de manera fiable y escalable a pro-ducciones de series cortas puede no solo potenciar el uso de estos chips hacia tests de diagnostico rápido y control de terapias basadas en el uso de biomoléculas, sino que puede ser de utilidad para conocer otros aspectos relevantes. Buenos ejemplos de esta aplicación pueden ser: el transporte de proteínas a través de los nanoporos existentes en la membrana del núcleo celular o bien la forma en la que un enzima se fija a una molécula de dna o estudiar una reacción de reconocimiento antígeno-anticuerpo.

Entorno CIC - Proyectos de investigación

Page 32: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

63 62

Xxxx xxxx xxx xxxxx

Ento

rno

CIC

El dipc es una iniciativa muy singular en su ámbito por la flexibilidad de su arquitectura institucional y el desarrollo de actividades que tras-cienden la propia estructura del centro. El dipc nace independiente y a la vez estrechamente vinculado a la upv/ehu, lo que ha potenciado el enriquecimiento de la actividad universitaria investigadora en la Ciencia de Materiales del País Vasco y su internacionalización. Así, el dipc ha contribuido a que en estos 10 años haya aumentado la producción cien-tífica de vanguardia de la Universidad del País Vasco, que es el núcleo fundamental de producción científica de Euskadi. En particular, se han publicado 1.192 artículos en revistas internacionales del sci, siendo la cifra de publicaciones del año 2009 tres veces superior la producción del 2000, y habiendo recibido más de 17.500 citas en la década.El dipc también ha operado como catalizador de la actividad investigado-ra de excelencia en su entorno más cercano, habiendo sido el incubador y ama de cría del centro mixto de la upv/ehu con el csic, así como el impulsor intelectual del cic nanogune.El dipc nació con el fin de promover la investigación y el conocimiento en física de la materia condensada y ciencia de materiales. Para cumplir este

Diez años del dipcEl día 26 de abril del año 2000, Heinrich Rohrer, Premio Nobel de Física en 1986, ofreció la charla inaugural Small is beautiful and powerful con la que el dipc empezaba su andadura. El dipc se constituyó como una alianza público-privada establecida legalmente como una fundación sin ánimo de lucro. Ha contado con una determinante participación pública que incluye a los Departamentos de Educación, Universidades e Investigación, e Industria, Innovación, Comercio y Turismo del Gobierno Vasco, la Dipu-tación Foral de Gipuzkoa, el Ayuntamiento de la Ciudad de Donostia – San Sebastián y la Universidad del País Vasco – Euskal Herriko Unibertsitatea (upv/ehu), así como una significativa participación privada que ha ido incrementándose en el tiempo (ver recuadro «Mecenas»).

Igor Campillo, secretario general de Passion for Knowledge.

Este año se cumple el décimo aniversario del Donostia International Physics Center - DIPC. Para celebrarlo hemos organizado Passion for Knowled-ge, un Festival que ha comprendido múltiples actividades dirigidas a la comunidad científica y al gran público y que ha congregado a grandes figu-ras de las ciencias y otras humanidades durante la semana del 27 de septiembre al 1 de octubre en la ciudad de Donostia – San Sebastián.

Igor Campillo, secretario general de Passion for Knowledge.

Passion for Knowledge→

Entorno CIC

valor importante en su devenir. Por ello el dipc tiene en marcha un cuarto programa de actuación, un Programa de Comunicación de la Ciencia, con el que busca contribuir a establecer un diálogo fluido y permanente entre la ciencia y la sociedad, entre los científicos y los ciudadanos, que propicie un progreso social y científico corresponsable en un entorno intelectual libre y tolerante y que muestre la ciencia como una actividad cultural accesible y atractiva a todos los públicos. De forma especial, se quiere cultivar un clima adecuado que estimule a los más jóvenes a introducirse en las carreras científicas y tecnológicas y así potenciar una cantera dinámica y que capitalice el talento de las nuevas generaciones. Dentro de este programa hay que destacar dos iniciativas ejecutadas en la primera década del dipc. Por una parte, la celebración del Albert Eisntein Annus Mirabilis 2005, evento con el que el dipc se sumó, en el Año Mundial de la Física, a las conmemoraciones del centenario del Annus Mirabilis de Albert Einstein. Los investigadores invitados formaban parte de la élite mundial e incluían a 6 premios Nobel. Los actos programados comprendían conferencias plenarias y temáticas, así como exposiciones para presentar la figura de Einstein a los niños y jóvenes. Por otra parte, la celebración del Congreso Internacional Atom by Atom en septiembre de 2009, coorganizado con el cic nanogune. El congreso Atom by Atom también fue un congreso abierto al público con el objetivo de divulgar de forma clara y accesible los avances, los retos y las implicaciones de diversas áreas de la nanociencia y la nanotecnología. Para ello se diseñó un programa de conferencias y actividades en las que participaron un importante plantel de ponentes que incluía a tres premios Nobel e in-vestigadores destacados. Finalmente, un hito importante en la difusión de la ciencia hacia el pú-blico ha sido la creación de la web TV www.dipc.tv en el año 2008. Esta web tv está sirviendo de plataforma de conexión entre el dipc y el gran público. En esta web se encuentran alojados vídeos con las diferentes actividades científicas, públicas y de difusión que el dipc ha realizado durante los últimos 10 años.

objetivo, el dipc ha mantenido varios programas de actuación abiertos durante estos diez años de andadura.Programa de Investigadores VisitantesEste programa ha buscado atraer a los mejores científicos de todo el mundo en el campo de la ciencia básica de materiales y establecer una plataforma de interacción entre investigadores de reconocido prestigio de otros países e investigadores locales. Más de 1.200 investigadores han disfrutado de estancias superiores a 3 semanas desde el año 2000, 17 de los cuales han sido Premios Nobel.Programa Fellows GipuzkoaGracias a la financiación específica del Departamento de Innovación de la Diputación Foral de Gipuzkoa, se ha puesto en marcha este programa de recuperación de científicos, que permite a jóvenes investigadoresque desarrollan su actividad en el extranjero tener una «plataforma de aterrizaje» en el dipc mediante un contrato de una duración máxima de cinco años. Este Programa se inició a finales del año 2000 y desde entonces lo han disfrutado 11 personas.Programa de Congresos InternacionalesEste programa está destinado a organizar y celebrar jornadas, workshops, escuelas de verano y congresos internacionales que sirvan de encuentro, debate y discusión de las principales líneas de investigación que se abor-dan en el dipc. Se han organizado 51 eventos en los que han participado más de 6.000 personas de todo el mundo.

Compromiso socialLa ciencia, y en particular las ciencias naturales, se fundamentan en un optimismo, en lo que G. Holton, de la Universidad de Harvard, ha dado en llamar el ‘encantamiento jónico’, la creencia de que los problemas tienen solución y que si se deja volar la imaginación sin desanimarse nunca se encuentran las preguntas y las respuestas adecuadas. Respuestas muchas veces distintas a las esperadas y por caminos que ni se vislumbraban. Por eso, la ciencia es, por encima de todo, creatividad, impulsada por la pasión por conocer, por superar la ignorancia, por descubrir y por establecer las leyes que nos permiten explicar y predecir los fenómenos naturales, los comportamientos, los hechos, etc. Asimismo, la ciencia evoluciona en un constante diálogo socrático en el que se suceden hipótesis, premisas, afirmaciones, refutaciones, enunciados, razonamientos y contrarrazona-mientos, experimentos y contraexperimentos, modelos , teorías, leyes, paradigmas… Un flujo de comunicación siempre abierto, infinito, entre los que hacen la ciencia, los científicos. Creatividad y comunicación.La ciencia es creatividad y comunicación.Y es responsabilidad de los científicos a su vez comunicar su conocimiento hacia fuera de la comunidad científica, a compartirlo con toda sociedad. Porque una sociedad científicamente informada y educada, que entienda cómo funciona la ciencia, que entienda que la ciencia es una actividad esté-ticamente hermosa, culturalmente importante y económicamente decisiva es menos susceptible de manipulación por grupos de presión y está más preparada para tomar libremente muchas de las decisiones que configura-rán su futuro. Solo una sociedad concienciada del valor de la ciencia será capaz de configurarse finalmente como una sociedad del conocimiento. En este sentido el dipc tiene un compromiso firme con los ciudadanos de hacerles llegar los resultados, los avances y las implicaciones de la in-vestigación científica. Porque el dipc quiere contribuir a que la sociedad y, en particular, los ciudadanos del País Vasco, vivan la ciencia como un

Encuentro con escolares en el kutxaEspacio de la Ciencia. Participaron Jean Marie

Lehn, Frank Wilczek y Juan Igancio Cirac

Page 33: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

65 64

Entorno CIC

Festival del conocimientoEl 26 de abril del presente año, Julio Linares, consejero delegado de Te-lefónica, impartió la conferencia «Las Telecomunicaciones pasan por la Física», con la que se daba comienzo a la segunda década del dipc y se abría Passion for Knowledge. Durante los diez años de historia, el centro de gravedad del dipc ha sido el conocimiento científico. Por eso, celebrar el dipc es celebrar el conocimiento. El formato elegido para Passion for Knowledge no ha sido el de un congreso al uso, sino que se diseñó como un auténtico Festival, un Festival del conocimiento, que ha englobado múltiples actividades bajo tres grandes secciones: Las Conferencias, La Ciudad, ambas abiertas a todos los ciudadanos, y Los Workshops, restrin-gido a la comunidad científica.Las Conferencias se ha constituido como el plato fuerte de Passion for Knowledge. Ha consistido en un programa de conferencias abiertas al público impartidas por un grupo de ponentes que incluía a diez pre-mios Nobel de física y química, investigadores de reconocido presti-gio y ponentes de disciplinas humanistas, que nos han hablado de los momentos clave, los retos, los resultados y las implicaciones de sus carreras profesionales.Las Conferencias tuvieron lugar en el Kursaal del 27 de septiembre al 1 de octubre en horario de 17:00 a 21:00. Cerca de 2.000 personas se ins-cribieron y asistieron en directo a este ciclo de conferencias, además de las más de 5.500 personas que siguieron en directo las conferencias en el canal tv del dipc –dipc.tv (4.500 personas han visualizado en diferido las conferencias hasta el 12 de octubre de 2010, sumando un total de 3.604 horas de visionado).

MecenasEl Donostia International Physics Center –dipc- es una institución excepcional en el mundo de la Ciencia en nuestro país. Las ra-zones son muchas. Pero hay una que merece ser reconocida de forma destacada: disponer de mecenas privados en un centro de investigación básica. Es una de las razones de su éxito y uno de sus elementos distintivos.El mecenazgo estuvo inicialmente vinculado a las artes. Pero ahora abarca cualquier actividad de interés social relevante. Los países anglosajones son el mejor ejemplo. Las instituciones de investigación científica y de estudios superiores son uno de los destinos elegidos por los mecenas privados y por las empresas, que se han ido sumando a esta labor. Demuestran, así, ser cons-cientes de que el desarrollo económico y el bienestar social de-penden del desarrollo científico.Por desgracia, no es el caso de Euskadi ni de España. El banquero norteamericano David Rockefeller, está donando a la Universidad de Harvard, en la que realizó sus estudios, dos millones de dólares anuales y ha establecido un legado de cien millones a su muerte. Estos hechos ayudan a entender la distancia entre los Estados Unidos y los países europeos.Sin mecenazgo privado no es posible la independencia financie-ra, que garantiza la estabilidad y el trabajo a largo plazo de las instituciones de investigación, indispensables para competir en condiciones en la escena mundial. El dipc, por una excepcional confluencia de factores -la solidez del proyecto, la competitividad internacional de sus investigadores y la personalidad de su presidente-, ha hecho posible que empresas como Kutxa, Naturgas Energía, Telefónica, mapfre y caf se hayan senti-do atraídas por nuestro proyecto, convirtiéndose en sus Patronos y contribuyendo, con su presencia y sus aportaciones económicas, a nuestro éxito. A pesar de que el tratamiento fiscal al mecenazgo en Ciencia no fomenta decisiones como las que ellos tomaron, necesi-tado, como está, de ser pensado con una visión de mayor alcance.Pero el dipc ha tenido la fortuna insospechada de contar con un mecenas de excepción: Dña. Josebe Olarra Lizarralde, quien le dejó su herencia, en la mejor tradición anglosajona. Desde su muerte, el Salón de Actos del Centro lleva su nombre. Nuestra primera benefactora siempre permanecerá en nuestra memoria.

Alberto López Basaguren es catedrático de Derecho

Constitucional de la Universidad del País Vasco y Secretario

del Donostia International Physics Center.

Sesión de pósters en los workshops

La Ciudad incluía un programa de actividades distribuidas por la ciudad de San Sebastián y realizadas en colaboración con diferentes agentes culturales y sociales: Aquarium, Kutxa Obra Social, KutxaEspacio de la Ciencia, el centro comercial La Bretxa, y la Fundación Elhuyar. Estas cola-boraciones han permitido extender la celebración del décimo aniversario del dipc por múltiples espacios y rincones de la ciudad y llevar la ciencia a lugares y eventos que el público asocia con la cultura y el ocio. Sobre todo, estas colaboraciones, y otras que se puedan establecer en los próxi-mos años, deben servir para crear canales permanentes que vehiculicen la difusión del conocimiento científico en formatos innovadores y cada vez más accesibles al gran público. Fruto de esta colaboración, en la sección La Ciudad, Passion for Knowledge se han desarrollado las siguientes actividades:Un ciclo de conferencias bajo el título Lecciones Kutxa impartidas por investigadores del entorno del dipc durante los meses de mayo y junio, y que han servido para preparar al gran público para la sección de Las Conferencias. En lugares concurridos de la ciudad como son el centro comercial la Bretxa y el Aquarium, bajo el título «Pasión por el arte», se han tenido abiertas, desde el 20 de septiembre al 10 de octubre, dos exposiciones de arte de gran calidad y belleza que ofrecen una mirada sorprendente y algo desconocida sobre la ciencia. La exposición NanoArt21 presentaba una selección de trabajos de 28 artistas internacionales que han estado entre los diez mejores en las cuatro ediciones del Concurso Internacional de NanoArte en Internet. La exposición FotCiencia mostraba una selección de 50 obras fotográficas que participaron en la 7a edición del certamen

Encuentro con escolares en el Aquarium. Participaron Ada Yonath y Sylvia Earle

Page 34: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuis-mod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etue-raesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi.Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la corLent acil endiam duis alit, coreet nostie tat irillum ing esecte modiamc onsecte feuguer sit amet, veliquamet am dolobore magna ad minibh et vero od molorper sis amet praese dio od magnim etue molore consequam illam zzriustrud ea feu feu faciduisi ex esto odoloreetue venim dionsed ting euisis aliquate conullan vel dolenit enisim nullaoreet lore conulluptat.Vulla autatem in hendre modionsectem zzriustis nisi blam ad tet, qua-tum non ullam doloborper sent exero commod dolorem dolobore velit lorpero consequat et lamcon enibh eugait ver in exero et vel dolortis ad minis et aciliquat.Uguer sendion sequat. Quisi tem dio odoluptatie cor summy nit wismo-lum nos augiamcon elis diat, quissi.Ud eugiat nit la adigna facing euismod magna feuis adignibh esequatet et, suscing ex ea atem ipisl ute essecte velessi eu faciliquat. Duisim aute commod min enis augiatue delis nonsed tio eliquatin velenibh eugait pratummod magnisit augait in hent acidunt ipit, velit lore min ullaore tet dolor sim dolore dunt lut dolut adignismod exerostie consequ atissi exerit adigna facipisim init irillut nullamet vullaoreet illummy nullametue ming er suscinisi.Ore feumsan utpat irit nonsequisi bla faccummod magnit atet adiamet inciduisim in henismodolut alismol orperci duipsum ipisl ipissim inci-duis aute er sit nonsed tie feu faciliquat acing eugue moloreetue dolore ming erostie diamet vel iniam dignit duis dunt velenis cipiscin henit, core volore molesequisi ex elis nonsequis dolor sim irilisl delisit lutpatie commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuis-mod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etue-raesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi.Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la cor

Xxxx xxxx xxx xxxxx

67

66

Entorno CIC

nacional de fotografía científica organizado por el por el Consejo Supe-rior de Investigaciones Científicas (csic) y la Fundación Española para la Ciencia y la Tecnología (fecyt). Dentro de la sección La Ciudad la actividad que mayor impacto ha te-nido es la de Los Encuentros entre Premios Nobel e investigadores con diferentes colectivos de la Comunidad Autónoma del País Vasco. Se han celebrado 4 Encuentros en total: 2 Encuentros con escolares de entre 14 y 18 años, celebrados en KutxaEspacio de la Ciencia y Aquarium los días 28 y 30 de septiembre respectivamente, uno con profesores de secundaria celebrado en KutxaEspacio de la Ciencia el 29 de septiembre y uno con profesionales del ámbito biosanitario celebrado el 27 de septiembre en KutxaEspacio de la Ciencia. En los Encuentros con Escolares participa-ron 49 colegios, sumando un total de 200 escolares y 66 profesores, en el Encuentro con profesores participaron 80 profesores y en el Encuentro biosanitario participaron 102 profesionales.Junto con la Fundación Elhuyar, se ha organizado el concurso de vídeos on-line On Zientzia, con el que se quiere premiar la capacidad de divulgación de la ciencia. On Zientzia está dirigido a investigadores nóveles, aficionados a la ciencia, escolares y cualquiera que desee un enfoque creativo sobre la ciencia. Se han recibido 50 vídeos en total. El fallo del jurado se dará a conocer durante la semana de la ciencia en Donostia – San Sebastián. En el Aquarium, bajo el título genérico de Pasión por el mar tuvieron lugar una jornada de conferencias sobre investigación en túnidos el día 24 de septiembre y proyecciones de cine sobre el mar y la naturaleza los días 25 y 26 de septiembre.

La sección Los Workshops ha estado dirigida y restringida a la comunidad científica internacional y comprendía la celebración de cuatro workshops centrados en las líneas de investigación principales que se han desarro-llado en el dipc durante los diez años de existencia:

··· Dinámica ultrarrápida de electrones, bajo el título Passion for electrons.

··· Física de superficies, bajo el título Passion for interfaces.··· Física de materiales poliméricos, bajo el título Passion for soft

matter.··· Fotónica y plasmónica, bajo el título Passion for photons.

Cerca de 400 investigadores de todo el mundo han participado en los workhops, habiendo tenido lugar 4 Keynote lectures, 109 ponencias orales y 161 posters.Passion for Knowledge ha sido un éxito porque ha contado con ponentes extraordinarios, porque ha servido para compartir e intercambiar ideas entre científicos, porque el nivel de las comunicaciones recibidas y el nivel de las conferencias plenarias ha sido muy elevado. Todo esto es verdad, y con ello podríamos sentirnos satisfechos. Pero, sobre todo, Passion for Knowledge ha sido un gran éxito por la respuesta ciudadana. La asistencia de público y la participación de estudiantes y profesores en los Encuentros han desbordado las expectativas, y se ha podido comprobar que se han seguido las ponencias y actividades con gran interés y entusiasmo. Por todo ello, en el dipc nos sentimos reafirmados para continuar con ma-yor empeño en nuestro compromiso de acercar la ciencia a la sociedad. Es el comienzo de una nueva década.

El lunes 27 de septiembre, el Ayuntamiento de San Sebastián rindió un homenaje a los patronos privados del dipc, grandes empresas que han apostado por la

ciencia demostrando la viabilidad y necesidad de las alianzas público-privadas para el progreso científico. Acudieron a recibir una placa conmemorativa los máximos

representantes de los patronos privados del dipc, Xabier Iturbe, presidente de Kutxa, Fernando Bergasa, consejero delegado de Naturgas Energía, Julio Linares, consejero

delegado de Telefónica, Andrés Arizkorreta, director general de caf, y José Manuel Martínez, presidente de Mapfre

Page 35: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

69 68

Xxxx xxxx xxx xxxxx

Inaugurado en san sebastián el Centro de Investigación en Neurociencia Cognitiva del Lenguaje

Eusk

adi e

n br

eve

El nuevo Centro de Investigación en Neurociencia Cognitiva del Lenguaje (bcbl, Bas-

que Center on Cognition, Brain and Language), único en España dedicado a esta ma-

teria, fue inaugurado el pasado 7 de junio en San Sebastián. El centro, ubicado en el

Parque Tecnológico de San Sebastián y con un laboratorio en el campus donostiarra

de la upv/ehu, ocupa 1.500 metros cuadrados y cuenta actualmente con un equipo

internacional de 53 personas.

El Basque Center on Cognition, Brain and Language (bcbl) pretende desentrañar los mecanismos neuropsicológicos de la adquisición, procesamiento y representación del lenguaje en bebés, jóvenes y adultos, en personas sanas y con trastornos. Los investigadores también trabajarán en proyectos de investigación neuropsicológica para comprender mejor enfermedades como el Alzheimer o la hiperactividad.Las instalaciones del bcbl dedicadas a neurociencia cognitiva cuentan, entre otros, con resonancia magnética de 3 Teslas, que obtiene imágenes tridimensionales del ce-rebro cuando se presenta un determinado estímulo, y una unidad de magnetoencefa-lografía, que registra la actividad del cerebro durante la ejecución de tareas cognitivas.Actualmente, trabaja en cinco proyectos, uno de los cuales profundiza en los procesos implicados en la lectura, la dislexia, los problemas de atención y las dificultades de razonamiento, que están siendo desarrollados junto a las universidades de Granada, Murcia, La Laguna y Sevilla.

Euskadi en breve

Guserbiot desarrolla la primera levadura autóctona para los vinos de Rioja Alavesa

La empresa Guserbiot ha desarrollado la primera levadura autóctona para los vinos

de Rioja Alavesa con la colaboración de la Fundación Leia y las bodegas Marqués de

Riscal y Baigorri. La levadura, denominada GBiot EL 011-S, ya ha sido patentada y ha

empezado a ser comercializada de cara a la vendimia de 2010.

El vino es el resultado de un complejo proceso bioquímico en el que desempeña un papel fundamental la fermentación alcohólica llevada a cabo por la levadura Saccharomyces cerevisiae, responsable de un proceso metabólico que transforma los azúcares del mosto en etanol. Desde hace más de 20 años, la práctica totalidad de los productores de vino de las diferentes denominaciones de origen recurren a levaduras externas comerciales, importadas de países como Francia o Australia, para incorporarlas al proceso de elaboración del vino.Estas levaduras comerciales han dado unos resultados óptimos, pero al mismo tiempo han contribuido a crear una cierta estandarización de los aromas y sabores de los vinos. Por ello, las denominaciones de origen de diferentes zonas vitivinícolas del mundo están buscando la diferenciación con respecto a la competencia, reforzando las señas de identidad de sus respectivos caldos a través del desarrollo de levaduras autóctonas. Este nuevo producto es el resultado de 6 años de investigación en Guserbiot, que junto con a&b Laboratorios de Biotecnología conforma el grupo abg Biotech. El proyecto ha contado con el apoyo de los programas de ayuda a la investigación, desarrollo e innovación de la Diputación Foral de Alava y del Gobierno Vasco.

Progenika lanza dos nuevos productos contra enfermedades en recién nacidos, embarazadas y personas con cáncerLa empresa de medicina personalizada Progenika ha presentado dos nuevas herra-

mientas para identificar grupos sanguíneos basados en las tecnologías más avanzadas

del mercado. Estos nuevos desarrollos permitirán evitar enfermedades y complica-

ciones a recién nacidos, mujeres embarazadas y personas que requieren múltiples

transfusiones de sangre como son los pacientes oncológicos.

Con estos nuevos desarrollos, se pueden evitar enfermedades en recién nacidos como trombocitopenias neonatales, enfermedad hemolítica o anemia fetal. Asimismo, ayudan a evitar la aloinmunización en mujeres embarazadas, es decir, la generación y el paso de anticuerpos maternos al feto que suponen la destrucción de células sanguíneas fetales. Además, para personas que necesiten múltiples transfusiones sanguíneas, estas técnicas nuevas evitan las reacciones adversas del paciente. Cabe destacar que para algunos de los grupos sanguíneos analizados no existe actualmente ninguna técnica alternativa.Las nuevas herramientas desarrolladas por la compañía vasca están basadas en la tecnología Luminex, una técnica muy rápida, ya que solo son necesarias 5 horas desde la extracción del dna para obtener los resultados, y que permite analizar un elevado número de muestras en el mismo proceso, lo que supone una optimización de los recursos y del coste. Por otra parte, es una técnica que está adaptada a las ne-cesidades de los bancos de sangre, con lo que éstos no tienen que invertir ni cambiar su forma de actuación. Esta nueva tecnología, junto a la ya disponible de dnachips, convierten a Progenika en referente internacional en el desarrollo de herramientas de diagnóstico molecular en medicina transfusional.Ambas técnicas, que forman parte de la familia bloodchipID y por lo tanto cuentan ya con el marcado ce, que supone la aprobación de la Unión Europea y su autoriza-ción para ser comercializados, están incluidas en el acuerdo de distribución suscrito recientemente entre Grifols y Progenika.

La Universidad del País Vasco incluye el grado de Biotecnología en su oferta académica para el próximo curso

La Universidad del País Vasco (upv/ehu) incluye por primera vez el título de

Biotecnología en su oferta de grados para este curso académico. Este será el

primer año académico en que esta institución académica oferte títulos de grado

plenamente adaptados al Espacio Europeo de Educación Superior, tal como hizo

hace ya varios cursos con sus títulos de postgrado.

El grado de Biotecnología, enmarcado en la Facultad de Ciencia y Tecnología, está muy implicado con los de Biología y Bioquímica, con los que tiene algunos cursos en común. La upv/ehu ha realizado esta apuesta para formar profesionales en Biotec-nología, ya que, según la propia Universidad, esta disciplina «ha experimentado un desarrollo espectacular en los últimos años, que se prevé mantenga en un futuro». Las actividades profesionales del Graduado en Biotecnología incluyen de manera preferente el diseño y análisis de bioprocesos destinados a la obtención de productos,

bienes y servicios que demanda la sociedad, así como la gestión y control de procesos biotecnológicos en plantas de producción a escala industrial. El marco laboral de estas actividades incluye de modo muy preferente a las bioempresas, aunque también se extiende a otras industrias que sean usuarias de aplicaciones.

Page 36: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

71 70

Investigadores de cic biomagune desarrollan un nuevo método de diagnóstico basado en quantum dotsInvestigadores del Centro de Investigación Cooperativa en Biomateriales,

cic biomagune, han desarrollado un nuevo método de diagnóstico basado en puntos

cuánticos (quantum dots) que puede tener aplicación en los análisis clínicos del sida, la

hepatitis C y otras enfermedades infecciosas. La nueva técnica, para la cual se ha solici-

tado una patente, ha merecido la portada de la revista Chemistry- A European Journal.

Los puntos cuánticos son una nanoestructura semiconductora con la particularidad de que están iluminados y reemiten luz en una longitud de onda muy específica. Ofrecen imágenes de mucho contraste, lo que los hace muy útiles para el diagnóstico.

Un dispositivo desarrollado por ik4 para detectar ets se comercializará en la India

Un dispositivo portátil desarrollado por la Alianza Tecnológica IK4, capaz de detectar la

clamidia, el virus del papiloma humano (inductor del cáncer de útero) y otras enferme-

dades de transmisión sexual en menos de media hora, será comercializado en la India

en 2012 con el objetivo de contribuir a diagnosticar este tipo de patologías. Con una

población estimada de 1.198 millones de habitantes, se calcula que más de 82,5 millones

de personas están afectadas por alguna de estas patologías en la India.

El dispositivo de diagnóstico rápido y de bajo coste, desarrollado por los centros de ik4 gaiker e ikerlan, permitirá detectar la presencia de Enfermedades de Trans-misión Sexual (ets) u otros agentes infecciosos en un tiempo muy inferior al de los sistemas convencionales actuales de cultivo microbiológico o de detección molecular. Este desarrollo tecnológico, que no requiere la infraestructura de un laboratorio, lleva a cabo complejas técnicas de detección a partir de muestras clínicas y es más eficaz y rentable que otras técnicas rápidas actuales.La empresa india Globionic Technology, que se encargará de poner el desarrollo en el mercado, ha tenido conocimiento de este dispositivo de diagnóstico a través de diferentes publicaciones científicas y especializadas. El pasado mes de mayo, una delegación de esta empresa visitó los centros de ik4 para conocer de primera mano el desarrollo tecnológico. Durante la visita, se llevó a cabo una demostración de de-tección de salmonella en heces mediante ese sistema. La detección de este patógeno fue, de hecho, el modelo inicial de trabajo del nuevo desarrollo. Tras verificar su funcionamiento, ambas partes firmaron un convenio en el que se acordó que la delegación india recibirá un prototipo de la plataforma para que la Universidad de Delhi adapte el dispositivo a la detección de ets. La adaptación deberá permitir el diagnóstico de cualquier enfermedad relacionada con la biología molecular, incluidas las ets. Mientras tanto, los centros de ik4 trabajarán en el de-sarrollo del modelo de dispositivo portátil para su salida al mercado.

Euskadi en breve

Un estudio de la Unidad de Biofísica csic-upv/ehu desarrolla una nueva coraza para evitar la infección del virus del sida

Un estudio del Consejo Superior de Investigaciones Científicas (csic), dirigido por el

profesor Félix Goñi, director de la Unidad de Biofísica, centro mixto csic-upv/ehu,

ha desarrollado un método de ataque contra el virus del sida que consiste en crear un

sistema de prevención basado en una coraza en las células que van a ser infectadas.

Esto impide de facto que el virus pueda acceder a ellas y comience a actuar sobre el

sistema inmunológico.

El estudio, iniciado hace tres años, sienta las bases de un posible futuro fármaco que permitiría atacar al virus del sida en su fase inicial. El artículo que ha dado a conocer el trabajo se titula Dihydrosphingomyelin impairs HIV-1 infection by rigidi-fying liquid-ordered membrane domains, y se ha publicado en la prestigiosa revista Chemistry&Biology del grupo Cell.La investigación proporciona un nuevo enfoque en la investigación científica hasta ahora no explorado: se basa en la regulación de la fluidez de las membranas celulares y pretende evitar el fenómeno conocido como la fusión de membranas, resultado del contacto entre las membranas de las células y la propia membrana del virus. La investigación pretende fortalecer la estructura de la membrana, haciéndola más rígida, para evitar la fusión de membranas y, por consiguiente, la inoculación del virus del sida en la célula.En la investigación han intervenido, además del grupo de Goñi, el grupo del Centro Nacional de Biotecnología (csic-Universidad Autónoma de Madrid) que dirige el profesor Santos Mañes y el grupo de la profesora Gemma Fabrias, del Instituto de Instituto Química Aplicada de Catalunya (csic, Barcelona).

El grupo de investigación de cic biomagune, liderado por Valery Pavlov, ha desarro-llado un ensayo analítico para detectar la actividad de dos enzimas principalmente, a través de la generación de estos puntos cuánticos: por un lado, la acetilcolinesterasa, una enzima humana que se encuentra en los tejidos nerviosos y los glóbulos rojos; y, por otro, la fosfatasa alcalina, una enzima responsable de eliminar fosfatos de las moléculas.La generación de estos puntos cuánticos durante los análisis elisa, un método muy utilizado en el diagnóstico clínico, permite detectar de forma sencilla antígenos y anticuerpos del sida, la hepatitis C y otras enfermedades infecciosas, lo que abre la puerta a su utilización en los ensayos clínicos.

Euskadi en breve

Page 37: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

73 72

Euskadi en breve

Un consorcio vasco desarrolla un microsensor para controlar la artritis y la psoriasisUn consorcio vasco, formado por cic microgune, el Instituto BioDonostia y las empre-

sas Proteomika y Abyntek, del Grupo Progenika, trabaja en el desarrollo de un microdis-

positivo sensor que permita monitorizar la evolución de enfermedades inflamatorias

autoinmunes y crónicas, como la artritis reumatoide, la enfermedad de Crohn, la colitis

ulcerosa o la psoriasis. La actividad inflamatoria podrá medirse directamente en la san-

gre del paciente, lo que permitirá dosificar el uso de fármacos específicos, minimizando

los efectos secundarios y logrando un mejor control del gasto sanitario.

Uno de los parámetros clínicos empleados para estudiar la evolución de estas en-fermedades es la concentración de la proteína C reactiva en sangre, y sin embargo, el factor más importante que afecta al desarrollo de la actividad inflamatoria es la proteína tnf alfa o Factor de Necrosis Tumoral, en muchas ocasiones generada por el cuerpo como respuesta a la enfermedad. La determinación de tnf-alfa no se realiza hoy en día de forma rutinaria en ninguno de los hospitales del mundo ya que no existen técnicas viables dentro de la práctica clínica diaria. Por eso, la búsqueda de un nuevo método que permita determinar el tnf-alfa en la práctica clínica habitual resulta de un gran interés sanitario y eco-nómico. Dicho dispositivo aportará al facultativo datos objetivos y la información necesaria para la personalización del tratamiento del paciente. Los investigadores esperan poder contar ya con un prototipo en 2011, que se probará con muestras reales de pacientes para finales de ese mismo año. Los trabajos en torno a tnf-Alfa están financiados por el Gobierno Vasco y por la Diputación Foral de Gipuzkoa.

Una investigación de cic biogune abre una nueva vía de estudio para predecir enfermedades neurodegenerativas

Investigadores de cic biogune, liderados por el Dr. Aitor Hierro, han abierto una

nueva vía para avanzar en el conocimiento y predicción de enfermedades neuro-

degenerativas como la esclerosis lateral amiotrófica (ela en sus siglas en inglés),

según se ha publicado en la revista The Proceedings of the National Academy of

Sciences of the United States of America.

El antihistamínico Bilastina, de Faes Farma, autorizado para ser comercializado en la Unión Europea

El antihistamínico de última generación de la empresa farmacéutica Faes Farma, Bilas-

tina, ha sido autorizado por la Unión Europea para el tratamiento de la rinoconjuntivitis

alérgica y urticaria. El fármaco estará disponible en el mercado europeo a lo largo de

2011, donde aspira a alcanzar una cuota del 20%.

La aprobación de Bilastina supone un hito de la máxima relevancia en la historia de la farmacéutica vasca, que ve cómo un fármaco nacido fruto de su investigación y desarrollo obtiene luz verde para su comercialización, lo que supone el último paso de un proceso de diez años de duración. Bilastina es un antihistaminico de última generación, rápido y de acción prolongada, con un amplio perfil de seguridad, indicado en rinoconjuntivitis alérgica y urticaria. Su eficacia se ha contrastado en 28 ensayos clínicos llevados a cabo por Faes Farma en tres continentes y sobre más de 5.000 pacientes. Faes Farma ha licenciado ya los derechos del fármaco para su comercialización en numerosos países. Se estima que entre el 10 y el 30% de la población mundial se ve afectada por síntomas alérgicos, hasta ser considerada como la enfermedad más prevalente en pacientes adultos. En la Unión Europea se considera que la alergia afecta a más de 100 millones de personas, con la incidencia más alta en Alemania, Francia, Italia y España. El mercado de antihistamínicos en el mundo se estima en la actualidad en unos 4.200 millones de euros, de los cuales, la cuarta parte corresponde a Europa.

Este estudio abre una posible nueva vía de investigación en humanos para llegar a predecir esta patología, antes de que se generen sus primeros síntomas. El estudio ha sido realizado en colaboración con grupos del Instituto Nacional de Salud (nih) y del Centro Neuromuscular de la Clínica Cleveland, ambos de ee.uu., así como del Centro Nacional de Investigaciones Científicas (cnrs) en Francia.La investigación ha resuelto por primera vez la estructura de una proteína denomi-nada Vps54. En el modelo de ratón wobbler, la proteína Vps54 presenta una mutación que da lugar a una degeneración progresiva de neuronas motoras e infertilidad. Debido a este fenotipo característico, el ratón wobbler ha sido utilizado desde su descubrimiento en 1956 por el Dr. Falconer como modelo de ratón para el estudio de la degeneración espontánea de neuronas motoras, incluyendo la esclerosis lateral amiotrófica. En 2005, el grupo del Dr. Jockusch consiguió identificar la mutación responsable del fenotipo wobbler. A partir de este momento, el grupo liderado por el Dr. Hierro se ha centrado en entender cómo la mutación afecta a la proteína y a su propia actividad.Así, se ha descubierto que la enfermedad no es solo consecuencia de la mutación sobre una proteína concreta —tesis que se había mantenido hasta ahora en base a los estudios precedentes—, sino que existe un efecto dominó en el que los niveles reducidos de la proteína mutada ejercen un efecto desestabilizador sobre el resto de componentes del complejo del que forma parte.

40 entidades vascas participan en Biospain 2010, el principal congreso español de biotecnología

La BioRegión Vasca estuvo presente en BioSpain 2010 con una delegación encabezada

por la Agencia BioBasque y compuesta por cerca de 40 entidades que incluyeron a em-

presas, representantes del entorno sanitario, agentes científico-tecnológicos, parques

tecnológicos, incubadoras e instituciones.

BioSpain 2010 se celebró del 29 de septiembre al 1 de octubre en Pamplona, ciudad que acogió este año el evento que, con carácter bianual, reúne a un nutrido grupo de expertos del sector biotecnológico nacional e internacional. Precisamente, la internacionalización de la feria fue la novedad más destacada de esta edición. Alrededor de 160 compañías, un 33% más que en la edición anterior (BioSpain 2008), participaron en el área comercial, principalmente de España, Bélgica, Canadá, Francia, Alemania e India. La BioRegión Vasca mantuvo contactos con estas de-legaciones y con las oficinas de otros países como Reino Unido.El evento se estructuró en una feria comercial, un acontecimiento de partenariado, un foro de inversores, sesiones plenarias y conferencias de temática diversa con ponentes inter-nacionales, el congreso científico de la Sociedad Española de Biotecnología (sebiot) y un foro de empleo.El congreso científico organizado por la Sociedad Española de Biotecno-logía (sebiot), Biotec 2010 incluyó, entre otros, temáticas relacionadas con la biotecnología medioambien-tal, las tecnologías de diagnóstico y la nanobiotecnología, ámbitos en los que trabajan numerosas empresas y agentes científico-tecnológicos de la BioRegión Vasca.

Convenio de colaboración entre cic biogune y el Instituto Pascual para promocionar la formación y divulgación científica

El Centro de Investigación Cooperativa en Biociencias, cic biogune, y el Instituto

Tomás Pascual han firmado un convenio de colaboración con el objetivo de fomen-

tar la formación y difusión del conocimiento científico durante el presente año 2010.

El Instituto Tomás Pascual ha concedido a cic biogune una ayuda económica por

valor de 30.000€ con el fin de que la entidad científica vasca impulse actividades

asociadas con la formación de nuevos valores investigadores y la difusión científica

durante 2010.

En este sentido, esta colaboración entre cic biogune y el Instituto Tomás Pascual ha derivado en un programa muy ambicioso de actividades en formato de congre-sos, workshops, conferencias y seminarios científicos, mesas redondas, etc. En este programa de actividades de difusión cabe destacar la organización de la V Bienal del grupo especializado en Resonancia Magnética Nuclear, rmn, de la Real Sociedad Española de Química, y las Jornadas de Enfermedades Crónicas, esta última que se organizará en colaboración con la Fundación Ciencias de la Salud los días 11 y 18 de noviembre en Bilbao.Así también, durante este año, cic biogune ha organizado tres workshops: el primero, organizado junto con ciberehd sobre tecnologías ómicas -«Análisis de Genomas, Silenciamiento Génico, Proteómica y Metabolómica»; el segundo, sobre Traslational Research, organizado con las plataformas tecnológicas Tecnalia e IK4, así como con los Centros de Investigación Cooperativa (cic); y el tercero ha estado dedicado a las Nuevas Técnicas en Biología Estructural.Durante el presente año, cic biogune ha organizado alrededor de 25 conferencias y 36 seminarios, con la participación de destacados referentes de la comunidad científica internacional, como son Angelika Schnieke, creadora junto a Ian Wilmut de la clonación de la Oveja Dolly; el Dr. Charles Weissmann, descubridor del gen que fabrica los priones; Manuel Serrano, descubridor de p53, el guardián del genoma; y Antonio Vidal, catedrático de la Universidad de Cambridge.Del mismo modo, y con motivo de la visita a cic biogune del International Scientific Advisory Board, se organizó en junio una mesa redonda bajo el título: «Fronteras de la investigación biomédica», en la que intervinieron Richard H. Finnell, Angela Gro-nenborn, Samir M. Hanash, Shelly Lu, Juan Rodés y Roger M. Burnett.

Inaugurado en Bilbao el observatorio astronómico más potente de Euskadi

La Escuela Técnica Superior de Ingeniería de Bilbao (upv/ehu) inauguró el pasado

mes de julio el Observatorio Astronómico Aula Espazio Gela, que cuenta con el

telescopio más potente de los instalados en el País Vasco.

La cúpula del observatorio, con un diámetro de 3,5 metros y construida en Australia, se instaló el pasado 14 de marzo en el tejado de la escuela, para lo que fue necesario una grúa de 50 metros. En su interior acoge un telescopio de 50 centímetros de diámetro, el más grande y potente de los que operan actualmente en el País Vasco. Junto al ob-servatorio, que ha costado 82.500 euros, los alumnos podrán hacer uso de telescopios auxiliares y móviles para investigar todo tipo de cuerpos celestes desde distintos puntos.

El observatorio permitirá a los alumnos acercarse a los problemas que se encon-trarán durante su carrera profesional, ya sea como tecnólogos para el desarrollo y optimización de telescopios e instrumentos, o como científicos para comple-tar trabajos de investigación del espacio. Aunque el observatorio está enfocado fundamentalmente a la docencia, también se pretenden realizar observaciones astronómicas sencillas que puedan contribuir a la divulgación de la Astronomía y de la Ciencia Espacial.El observatorio forma parte a su vez de las instalaciones del Aula Espazio Gela puesta en marcha en julio de 2009 con el objetivo de formar a profesionales en el ámbito de la ciencia y tecnología espacial, así como a la promoción de la investigación.

Page 38: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

dolobore magna ad minibh et vero od molor-per sis amet praese dio od magnim etue molore consequam illam zzriustrud ea feu feu faciduisi ex esto odoloreetue venim dionsed ting euisis aliquate conullan vel dolenit enisim nullaoreet lore conulluptat.Vulla autatem in hendre modionsectem zzrius-tis nisi blam ad tet, quatum non ullam dolobor-per sent exero commod dolorem dolobore velit lorpero consequat et lamcon enibh eugait ver in exero et vel dolortis ad minis et aciliquat.Uguer sendion sequat. Quisi tem dio odolup-tatie cor summy nit wismolum nos augiamcon elis diat, quissi.Ud eugiat nit la adigna facing euismod magna feuis adignibh esequatet et, suscing ex ea atem ipisl ute essecte velessi eu faciliquat. Duisim aute commod min enis augiatue delis non-sed tio eliquatin velenibh eugait pratummod magnisit augait in hent acidunt ipit, velit lore min ullaore tet dolor sim dolore dunt lut do-lut adignismod exerostie consequ atissi exerit adigna facipisim init irillut nullamet vullaoreet illummy nullametue ming er suscinisi.Ore feumsan utpat irit nonsequisi bla fac-cummod magnit atet adiamet inciduisim in henismodolut alismol orperci duipsum ipisl ipissim inciduis aute er sit nonsed tie feu fa-ciliquat acing eugue moloreetue dolore ming erostie diamet vel iniam dignit duis dunt vele-nis cipiscin henit, core volore molesequisi ex elis nonsequis dolor sim irilisl delisit lutpatie commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eu-gait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi.Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la corLent acil endiam duis alit, coreet nostie tat irillum ing esecte mo-diamc onsecte feuguer sit amet, veliquamet am dolobore magna ad minibh et vero od molor-per sis amet praese dio od magnim etue molore consequam illam zzriustrud ea feu feu faciduisi ex esto odoloreetue venim dionsed ting euisis aliquate conullan vel dolenit enisim nullaoreet

lore conulluptat.Vulla autatem in hendre modionsectem zzrius-tis nisi blam ad tet, quatum non ullam dolobor-per sent exero commod dolorem dolobore velit lorpero consequat et lamcon enibh eugait ver in exero et vel dolortis ad minis et aciliquat.Uguer sendion sequat. Quisi tem dio odolup-tatie cor summy nit wismolum nos augiamcon elis diat, quissi.Ud eugiat nit la adigna facing euismod magna feuis adignibh esequatet et, suscing ex ea atem ipisl ute essecte velessi eu faciliquat. Duisim aute commod min enis augiatue delis non-sed tio eliquatin velenibh eugait pratummod magnisit augait in hent acidunt ipit, velit lore min ullaore tet dolor sim dolore dunt lut do-lut adignismod exerostie consequ atissi exerit adigna facipisim init irillut nullamet vullaoreet illummy nullametue ming er suscinisi.Ore feumsan utpat irit nonsequisi bla fac-cummod magnit atet adiamet inciduisim in henismodolut alismol orperci duipsum ipisl ipissim inciduis aute er sit nonsed tie feu fa-ciliquat acing eugue moloreetue dolore ming erostie diamet vel iniam dignit duis dunt vele-nis cipiscin henit, core volore molesequisi ex elis nonsequis dolor sim irilisl delisit lutpatie commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eu-gait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi.Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la corLent acil endiam duis alit, coreet nostie tat irillum ing esecte mo-diamc onsecte feuguer sit amet, veliquamet am dolobore magna ad minibh et vero od molor-per sis amet praese dio od magnim etue molore consequam illam zzriustrud ea feu feu faciduisi ex esto odoloreetue venim dionsed ting euisis aliquate conullan vel dolenit enisim nullaoreet lore conulluptat.Vulla autatem in hendre modionsectem zzrius-tis nisi blam ad tet, quatum non ullam dolobor-per sent exero commod dolorem dolobore velit lorpero consequat et lamcon enibh eugait ver in

exero et vel dolortis ad minis et aciliquat.Uguer sendion sequat. Quisi tem dio odolup-tatie cor summy nit wismolum nos augiamcon elis diat, quissi.Ud eugiat nit la adigna facing euismod magna feuis adignibh esequatet et, suscing ex ea atem ipisl ute essecte velessi eu faciliquat. Duisim aute commod min enis augiatue delis non-sed tio eliquatin velenibh eugait pratummod magnisit augait in hent acidunt ipit, velit lore min ullaore tet dolor sim dolore dunt lut do-lut adignismod exerostie consequ atissi exerit adigna facipisim init irillut nullamet vullaoreet illummy nullametue ming er suscinisi.Ore feumsan utpat irit nonsequisi bla faccum-mod magnit atet adiamet inciduisim in henis-modolut alismol orperci duipsum ipisl ipissim inciduis aute er sit nonsed tie feu faciliquat acing eugue moloreetue dolore ming erostie diamet vel iniam dignit duis dunt velenis cipis-cin henit, core volore molesequisi ex elis nonse-quis dolor sim irilisl delisit lutpatie commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzri-lisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis dolenia-mcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip euisl eummy nullut lupta-tis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero odUd-nit duis dunt velenis cipiscin henit, core volore molesequisi ex elis nonsequis dolor sim irilisl delisit lutpatie commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor sus-cing exeratummod ex eugait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignis-sed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi.Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la cor

Xxxx xxxx xxx xxxxx

75

74

Euskadi en breve

Un novedoso análisis de sangre permitirá el diagnóstico precoz de la enfermedad del hígado graso

Un consorcio de centros de investigación, universidades y empresas, liderado por cic

biogune y Owl Genomics, ha desarrollado un nuevo test de análisis, a partir de la tec-

nología metabolómica, que se erigirá en una herramienta eficaz para el diagnóstico pre-

coz de la enfermedad del hígado graso no alcohólico (nafld). El novedoso proyecto ha

sido publicado este pasado mes de agosto en la revista Journal of Proteome Research,

y estará disponible en breves fechas en el mercado, ya que la empresa Owl Genomics

iniciará su comercialización en España con la compañía Ferrer.

El desarrollo de este novedoso proyecto ha contado también con la participación de investigadores del inserm y varios hospitales universitarios (el Hospital aphp Pitié Salpêtrière, la Universidad Pierre y Marie Curie de Paris, el Centro Hospitalario Uni-versitario de Niza y la Universidad Sophia-Antipolis de Niza, Francia), la Universidad Vanderbilt (Nashville, ee. uu.), la Universidad del Sur de California (Los Angeles, ee. uu.), el Hospital Clínico e idibaps (Barcelona, España) y la Universidad de Alcalá de Henares (Alcalá de Henares, España). En este sentido, forma parte de los proyectos hepadip (www.hepadip.org) y ciberehd (www.ciberehd.es) y cuenta con el apoyo de la Comisión Europea y del Instituto de Salud Carlos III de España. La obesidad supone un grave factor de riesgo para la nafld. La nafld es una en-fermedad progresiva, que abarca desde la simple acumulación de grasa en el hí-gado (esteatosis) hasta complicaciones necroinflamatorias más severas como la esteatohepatitis no alcohólica (nash o ehna), que afecta al 24% de la población estadounidense y europea. Hoy en día, los métodos más comúnmente empleados para diagnosticar nafld son las técnicas de imagen de ultrasonidos y resonancia magnética, y el examen histológico de una muestra de biopsia de hígado. No obstante, las técnicas de ima-gen resultan caras y poco precisas (no logran distinguir un nash de una simple esteatosis), mientras que la biopsia de hígado es una técnica cara, invasiva y de procedimiento subjetivo, asociada con potenciales complicaciones y propensa a los errores de muestreo.El análisis de sangre basado en la metabolómica sí detecta la diferencia entre una simple esteatosis y la nash. «Creemos que esta es la primera aplicación de una nueva aproximación experimental para determinar un perfil metabolómico de la sangre que dé pie a la identificación de los posibles biomarcadores para cualquier enfermedad hepática y un magnífico ejemplo de investigación traslacional», comenta el profesor José Mato, director de cic biogune e investigador de ciberehd.

Descubren un novedoso mecanismo de comunicación entre las proteínas causantes del suicidio celular

Un reciente estudio realizado por investigadores de cinco centros de investigación,

entre los que se incluye la Unidad de Biofísica (csic-upv/ehu), proporciona nuevas

claves para comprender el proceso de suicidio celular. La investigación se publicó en

septiembre en la prestigiosa revista Cell.

Diariamente, nuestro cuerpo elimina de forma controlada más de 100 millones de células defectuosas, mediante un procedimiento denominado suicidio celular o apoptosis. Este es un proceso de gran complejidad, cuyos desajustes pueden origi-nar graves enfermedades, entre las que destaca el cáncer. Durante las últimas dos décadas ha sido posible identificar los distintos componentes celulares implicados en la apoptosis. Sin embargo, aún quedan importantes cuestiones por resolver sobre el funcionamiento de algunas piezas claves de este gran rompecabezas celular. El tra-bajo desvela que tres componentes esenciales del proceso apoptótico, las proteínas bax, drp-1 y el lípido cardiolipina, actúan de forma conjunta para producir un gran agujero en la membrana externa de la mitocondria, el cual resulta letal para la célula.Pero, probablemente, el aspecto más novedoso y sorprendente del estudio es que los investigadores han conseguido descifrar un nuevo lenguaje utilizado por bax y DRP-1 para comunicarse: estas dos proteínas no interaccionan físicamente entre sí, como ocurre habitualmente, sino que lo hacen a través de los lípidos de la membrana. «Específicamente, lo que hace una de las proteínas (drp-1) es deformar la bicapa lipídica de la membrana y la estructura resultante es la que aparentemente posibilita la activación de la segunda proteína (bax)». explica Gorka Basañez, de la Unidad de Biofísica (csic-upv/ehu), uno de los autores del estudio. Estos hallazgos podrían abrir nuevas vías para el desarrollo racional de fármacos antitumorales específi-camente dirigidos contra estos componentes de la maquinaria apoptótica celular.En este estudio, dirigido por el Profesor Jean-Claude Martinou, del departamento de Biología Celular de la Universidad de Ginebra (Suiza), han intervenido, además de la Unidad de Biofísica csic-upv/ehu, las universidades de Salzburgo (Austria), Hanover (Alemania), y Florida (ee.uu).

En junio de 2009 el Kursaal cumplió diez años, una década en la que el edificio ha cambiado la fisonomía urbana de San Sebastián y se ha convertido en destino preferente del turismo de reuniones.

Los espacios

Dos auditorios y 20 salasCon dos auditorios con capacidad para 1.806 y 624 personas, cuenta además con 20 salas de reuniones con capacidades que van desde las 10 hasta las 575 personas, además de salas vip y salas de prensa.Áreas de exposiciónEquipado al más alto nivel, el edificio está preparado para acoger ferias y exposiciones en sus más de 5.000 metros cuadrados.Dos terrazasSus amplias terrazas exteriores, de 5.000 metros cua-drados, tienen vistas panorámicas a la playa.

El sello “Andoni Luis Aduriz”

En el capítulo gastronómico, el Kursaal dispone de una variada gama de espacios para la restauración con una capacidad de hasta 1.500 comensales senta-dos y 1.800 personas en cóctel. La cocina de Andoni Luis Aduriz y Bixente Arrieta -los chefs que dirigen todos los servicios culinarios del palacio- se hace pa-tente también en los coffe-breaks, en el bar de congre-sos, el restaurante y el bistrot, con estratégica terraza.Y todo ello con el sello Aduriz.

Para todo tipo de eventos

En el Kursaal, innovador tanto en su diseño como en sus infraestructuras, tienen cabida todo tipo de even-tos y reuniones: congresos, jornadas, seminarios, deba-tes, mesas redondas, ruedas de prensa o actos sociales.

Compromiso de calidad

Además de un edificio singular, el palacio de congresos se ha dotado de un servicio integral para dar soporte a la organización de los eventos más exigentes y con una calidad contrastada, avalada internacionalmente por la ISO- 9001, el Certificado en Gestión Ambiental o el Certificado de Accesibilidad Global.

Servicios integrados a la carta

El Kursaal ofrece una atención personal y un ser-vicio integral que destaca por su flexibilidad y capacidad para controlar las necesidades que se planteen en el desarrollo del evento. Un experto equipo humano participa activamente tanto en el proyecto como en la realización del acto y gestiona una amplia oferta de servicios, que van desde au-diovisuales, iluminación escénica hasta personal técnico y azafatas o traducción simultánea. Es posi-ble, además, la contratación de servicios y recursos técnicos y humanos a la carta.

Algunos de nuestros clientes

Entre las entidades y empresas tecnológicas y científi-cas que han elegido el Kursaal para celebrar sus even-tos, congresos, jornadas o seminarios se pueden citar:· Tecnalia · Inasmet · Azti · Tekniker · Fatronik · Cadtech · Cluster de Conocimiento · ceit· ideko · Ikerlan· mik · Saretek· CIC nanogune · dipc · Universidad del País Vasco · Neiker · Mondragon Unibertsitatea · Elhuyar

Entre otros congresos y reuniones del ámbito tecno-lógico y científico celebrados figuran:· 7th European Conference on Superplastic Forming· Passion for Knowledge· Atom by Atom· Nano 2009· 12th CIRP (Conference on Modelling of Machining Operations)· Euspen 11th International Conference· 21st Annual Conference of the European Cetacean Society· X Congreso de Materiales · visio 2007· World Cutting Tool Conference WCTC· tnt-Trends in Nanotechnology· AAATE - Conferencia Europea para el Avance de las Tecnologías

· III Joint European Magnetic Symposia· 4th International Conference on Polymer· Einstein 2006

El Kursaal, un espacio para los profesionales de la ciencia y la tecnologíaSituado en el corazón de la ciudad, frente al Cantábrico y la playa de la Zurriola, el Kursaal, obra de Rafael Moneo –Premio Europeo de Arquitectura Mies van der Rohe al mejor edificio de Europa 2001–, es un conjunto arquitectónico de vanguardia. El Kursaal dispone de la tecnología más avanzada, con espacios po-livalente y versátiles, que lo hacen el escenario idóneo para acoger diversos formatos de congresos y reuniones. Una oferta diferenciadora es la restauración, a cargo del equipo del chef que ocupa el cuarto puesto en el ranking mundial de restauradores y poseedor de dos estrellas michelín, Andoni Luis Aduriz.

PUBLICIDAD

Page 39: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

Xxxx xxxx xxx xxxxx

77 76

Científicos estadounidenses anunciaron el pasado mes de mayo la crea-ción de la primera forma de vida artificial, una célula con un genoma creado en el laboratorio. El hito fue anunciado por el líder del proyecto, John Craig Venter, uno de los padres del genoma, en la revista científica Science.

En realidad, se trata de un híbrido, con la estructura natural de una bacteria viva y el material genético artificial. Para lograrlo, primero generaron un cromosoma sintético, una réplica a imagen y semejanza del genoma de la bacteria (Mycoplasma mycoides) y después lo trasplantaron a otra bacteria viva (M. capricolum), que actuó como recipiente para crear una nueva. Una vez implantado, el dna de síntesis se activó y empezó a funcionar en la nueva célula.El proyecto ha generado diferencias en la comunidad científica respecto a su alcance. Entre los proyectos de Venter está diseñar un alga que fije el co2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar para ello. Otros proyectos persiguen acelerar la producción de vacunas y mejorar los métodos de producción de ciertos ingredientes alimentarios, y de otros compuestos químicos complejos, o diseñar mi-croorganismos que limpien las aguas contaminadas.

Act

ualid

ad C

ient

ífica

Científicos en ee.uu. crean las primeras células con un genoma sintético

Actualidad Científica

El hombre moderno comparte parte del dna con el Neandertal Un equipo internacional de científicos ha conseguido secuenciar el genoma completo del neandertal, un gran proyecto que empezó hace cuatro años y cuyos resultados publicó el pasado mes de mayo la revis-ta Science. Se trata de un primer borrador de un 60% del dna, basado en tres pequeñas muestras, procedentes de tres huesos distintos, de entre 38.000 y 44.000 años de antigüedad, todos ellos del yacimiento de Vindija en Croacia.

Los resultados aportaron datos como la cer-teza de que sapiens y neandertales se llega-ron a cruzar en un momento de sus historias o que el hombre moderno comparte un pe-queño porcentaje de dna (entre un 1 y un 4%) con el homínido extinguido.El genoma neandertal presenta, además, otras regiones cromosómicas que podrían derivar de cruzamientos con homínidos más arcaicos, como Homo erectus u Homo anteces-sor, la especie más antigua de Atapuerca.

El Príncipe de Asturias de Investigación premia la lucha contra el dolor El Premio Príncipe de Asturias de Investigación Científica y Técnica 2010 ha sido concedido a los bioquímicos estadounidenses David Julius y Linda Watkins, y al israelí Baruch Minke por sus estudios inno-vadores sobre el dolor.

El jurado señaló que los galardonados «han realizado descubrimientos que en conjunto permiten una comprensión más profunda de las bases celulares y moleculares de las diferentes sensaciones, en especial de la del dolor». El fallo afirma que sus investigaciones «identifican dianas moleculares a las que dirigir una nueva generación de medicamentos específicos para el tratamiento selectivo de diferentes tipos de dolor, es-pecialmente del crónico». Esto abre «vías esperanzadoras» para paliar un mal que afecta a la calidad de vida de millones de personas.David Julius, profesor del Departamento de Fisiología de la Universidad de California-San Francisco, está considerado como el pionero en el análisis molecular de los nociceptores. Baruch Minke, por su parte, profesor del Departamento de Fisiología de la Facultad de Medicina de la Universidad Hebrea de Jerusalén, ha sido el primero en identificar «los canales trp, com-ponentes fundamentales de los sensores biológicos, implicados en la per-cepción del dolor». Por último, Linda Watkins, profesora del Departamento de Psicología y del Centro de Neurociencia de la Universidad de Colorado-Boulder, ha descubierto un nuevo agente del dolor, las células nerviosas no neuronales, denominadas células gliales, claves en los estados de dolor patológico y en los que se producen después de una lesión nerviosa.

Los premios Lasker distinguen la investigación de la pérdida de visión y la obesidad Los premios Lasker, entregados el pasado 1 de octubre, reconocieron el trabajo de tres científicos, uno por diseñar un tratamiento para una causa importante de pérdida de visión y dos por sentar las bases de considerables progresos en investigaciones sobre la obesidad.

El premio por investigación clínica fue para el doctor Napoleone Ferrara, de 54 años, de la compañía biotécnica Genentech en San Francisco. Es reconocido por haber descubierto una proteína llamada VEGF en 1989 y usarla para desarrollar un tratamiento que mejora significativamente la vista de personas afectadas con una variante devastadora de dege-neración macular. Dos fármacos basados en la investigación de Ferra-ra, Lucentis y Avastin, se usan para el tratamiento de la enfermedad al prevenir la formación de crecimientos anormales de vasos sanguíneos detrás de la retina.El premio Lasker para investigación básica fue compartido por Douglas Coleman, de 78 años, del Laboratorio Jackson en Bar Harbor, Maine, y Jeffrey Friedman, 56, de la Universidad Rockefeller en Nueva York. Se les reconoce por el descubrimiento de la hormona leptina, que ayuda a regular el apetito y el peso corporal.El premio Lasker al logro especial en investigación médica fue para el doctor David Weatherall, de la Universidad de Oxford. Se le rinde home-naje por 50 años de «excelencia internacional en ciencias biomédicas», en especial su investigación sobre una anemia heredada llamada talasemia.

Científicos japoneses crean un páncreas de rata en un ratón Un equipo de investigación japonés ha creado un páncreas de rata dentro del cuerpo de un ratón utilizando células madre pluripotenciales (iPSCs). El proyecto de investigación, liderado por Hiromitsu Nakauchi, del Instituto de Ciencia Médica de la Universidad de Tokio, fue publica-do en septiembre en la revista Cell.

Los investigadores crearon un óvulo fecundado de un ratón al que se había retirado la capacidad genética para crear un pancreas. Las células madre pluripotenciales de una rata común se inyectaron en el óvulo, que fue entonces implantado en el útero de otro ratón.El ratón que nació tenía una combinación de células de rata y ratón, ex-cepto en el pancreas, que estaba compuesto exclusivamente por células de rata. El ratón sobrevivió hasta edad adulta, y los datos reflejaron que tenía un nivel normal de azúcar en sangre. En efecto, el páncreas que faltaba en el óvulo había sido sustituido por células derivadas de las iPSCs. Es la primera vez que se utilizan iPSCs para crear un órgano que funciona, lo cual abre la posibilidad de generar órga-nos humanos procedentes de animales y de usarlos como órganos de trasplante.

Homo neanderthalensis, skull discovered in 1908 at la Chapelle aux saints (France)

Page 40: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

79 78

Descubren una estrella 20 millones de veces más brillante que el sol Un equipo de astrónomos ha descubierto una estrella 20 millones de ve-ces más brillante que el sol. Los científicos, procedentes de Gran Bretaña, Malasia y Alemania, han realizado el descubrimiento desde el desierto de Atacama, en el norte de Chile, usando un telescopio de gran alcance.

La nueva estrella, a la que se ha bautizado como R136a1, duplica el límite de masa solar previamente establecido. La estrella nació con una masa 320 superior a la que tiene en estos momentos el sol.Se espera que, al ser tan brillante, la estrela explote en unos pocos millo-nes de años, lo que en términos cósmicos supone un espacio de tiempo muy breve. De hecho, en los últimos 1,5 millones de años, ha perdido la masa equivalente a 20 soles.El Dr. Richard Parker, de la Universidad de Sheffield, en el norte de Ingla-terra, y miembro del equipo de astrónomos, aseguró que los científicos estaban investigando el proceso de formación de estrellas en busca de pistas sobre cómo evolucionó el sol cuando encontraron la estrella.

Hallan en Cuenca un gran dinosaurio que vivió hace 125 millones de años Científicos españoles descubrieron el pasado mes de septiembre en Cuenca un gran dinosaurio carnívoro y con una extraña joroba. El ejemplar, que con sus seis metros de largo era cuatro veces mayor que un velocirráptor, vivió hace 125 millones de años y es el dinosaurio más completo que se ha encontrado en España.

El dinosaurio ha sido bautizado científicamente Concavenator corco-vatus. La joroba es un rasgo peculiar y sorprendente del concavenator, porque no se conoce en ningún otro dinosaurio, aunque algunos de estos animales prehistóricos tenían una estructura dorsal que podría tener una función termorreguladora, como un radiador. El nuevo dinosaurio, cuyo hallazgo fue publica-do en la revista Nature, destaca no solo por su novedad, su tamaño y su excelente conservación, sino porque aporta información ines-perada sobre la historia de este tipo de animales del Cretácico inferior.

Actualidad Científica

La electrónica del Grafeno, más cerca El grafeno –una lámina bidimensional de carbono de solo un átomo de grosor– puede ser ideal para reemplazar al silicio como material alterna-tivo en futuros dispositivos electrónicos. Concretamente, podría ser uti-lizado para hacer transistores ultrarrápidos, dado que los electrones del grafeno se comportan como partículas relativistas sin masa de reposo.

Esto significa que pueden pasar por el material a velocidades extre-madamente rápidas. No obstante, lamentablemente, las técnicas de procesado utilizadas en la tecnología del silicio no pueden ser aplicadas al grafeno, porque causan defectos en el material, que, a la larga, dete-rioran el rendimiento del dispositivo. Investigadores de la Universidad de California en Los Ángeles pueden haber superado este problema –por lo menos para los transistores–, y han creado el transistor de gra-feno de mayor velocidad que existe. Los dispositivos podrían competir comercialmente con los transistores de silicio existentes hoy en día en el mercado; podrían utilizarse en aplicaciones electrónicas de alta frecuencia, como la comunicación por microondas, toma de imágenes o la tecnología de los radares.Xiangfeng Duan y sus colaboradores han desarrollado una nueva técnica de fabricación que consiste en emplear nanohilos cubiertos de alúmina como electrodo de puerta de un transistor de grafeno. Los electrodos fuente y drenador de los dispositivos están confeccionados utilizando un proceso de autoalineamiento que usa los nanohilos como «máscaras», un proceso que también minimiza la resistencia en el transistor, mejorando así su rendimiento todavía más. De todas maneras, aún hay muchos retos que superar antes de que el sueño de que la electrónica sea totalmente de grafeno se convierta en realidad. Uno de ellos es el desarrollo de una técnica de fabricación que produzca dispositivos prácticamente sin defectos, algo que de momento nunca se ha conseguido. Duan y sus colaboradores, en cambio, han utilizado un nanohilo con núcleo de siliciuro de cobalto y envoltura de alúmina como compuerta superior en su transistor de grafeno. Esta estructura dieléctrica se confecciona aparte y, después, simplemente se coloca sobre una monocapa de grafeno. Tal propuesta no crea ningún defecto apreciable en el material, apunta Duan. El dispositivo final tiene el mayor valor de transconductancia nunca re-gistrado para este tipo de dispositivos, 1.27 mSµm– 1. La transconductancia de un transistor indica la bondad de su funcionamiento. Las medidas de microondas en los transistores también muestran que tienen una fre-cuencia de corte intrínseca inigualada en el rango de 100–300 GHz, que es alrededor de dos veces más rápida que la de los mejores mosfets de silicio de tamaño similar. Por último, la movilidad de los dispositivos (la que determina la velocidad a la que los electrones se mueven a través de ellos) es de aproxi-madamente 20.000 cm2/Vs, un valor que es alrededor de dos órdenes de magnitud me-jor que el de los transistores de silicio comercializados de tamaño similar. El trabajo ha sido publicado en Nature.

De izquierda a derecha: El Sol, Enana Azul, R136a1

Actualidad Científica

Prof. Robert Edwards. Foto: Bourn Hall

Akira Suzuki.

Foto: Hokkaido University

Richard F. Heck.

Foto: University of Delaware

Ei-ichi Negishi.

Foto: Pordue University

Konstantin Novoselov.

Foto: University of Manchester

Andre Geim. Foto: Sergeom,

Wikimedia Commons

Una nueva perspectiva en el campo de los biosensores La sensibilidad de los biosensores basados en cristales plasmónicos (sustratos metálicos nanoestructurados periódicamente en dos di-mensiones) podría mejorarse ajustando un parámetro poco estudia-do: el ángulo de luz que excita a los plasmones superficiales de los cristales. Esto es lo que dicen investigadores de la Universidad del Noroeste de Illinois que han fabricado, partiendo de cristales plas-mónicos, sensores basados en patrones reticulares y que son ahora más sensibles a las proteínas que deben detectar. Tales dispositivos podrían ser utilizados en aplicaciones biomédicas como análisis de drogas y vigilancia ambiental.

Solamente ciertas longitudes de onda de luz pueden ser reflejadas des-de cristales plasmónicos o transmitidas a través de ellos, debido a la periodicidad de la retícula de estos materiales. La plasmónica es una nueva rama de la fotónica que se vale de los polaritones de los plasmones superficiales, polaritones que surgen de la interacción de la luz con los electrones que oscilan en la superficie de un metal.

Premio Nobel de Medicina para el pionero de la fecundación in vitro El Premio Nobel de Medicina y Fisiología 2010 ha sido otorgado al cien-tífico británico Robert Edwards, pionero de la fecundación in vitro, más de 30 años después del nacimiento del primer bebé probeta.

El profesor Edwards, de 85 años, fue recompensado porque «sus descu-brimientos hicieron posible el tratamiento de la esterilidad que afecta a una gran proporción de la humanidad y a más del 10% de las parejas en el mundo», según explicó el Comité Nobel. Cerca de cuatro millones de niños han nacido gracias a la fecundación in vitro. El proceso aplicado por el profesor Edwards consiste en fertilizar un óvulo en laboratorio y dejar que el embrión empiece a desarrollarse antes de implantarlo en el útero de una madre portadora, donde se desarrolla normalmente. Por su parte, Andre Geim y Konstantin Novoselov, científicos de la Univer-sidad de Manchester (Reino Unido), han sido distinguidos este año con el Premio Nobel de Física «por sus experimentos fundamentales sobre el ma-terial bidimensional grafeno». Ambos han demostrado que el carbono en lámina plana tiene propiedades extraordinarias originadas en el mundo de la física cuántica. El grafeno es un nuevo material, extremadamente delgado y resistente que, como conductor de la electricidad, se comporta como el cobre, y como conductor de calor, supera a cualquier otro material conocido.Finalmente, el investigador estadounidense Richard Heck y los japoneses Ei-ichi Negishi y Akira Suzuki compartirán el Premio Nobel de Química 2010 por sus trabajos sobre las reacciones carbono-carbono. Los tres han desarrollado por separado reacciones químicas distintas que emplean catalizadores de paladio para crear enlaces de carbono-carbono mediante emparejamientos cruzados.

El campo de los biosensores basados en la resonancia de los plasmo-nes superficiales es un camino aún no balizado para detectar moléculas químicas y biológicas en tiempo real, gracias a técnicas avanzadas de espectroscopía. La mayor parte del trabajo realizado hasta ahora se ha centrado en reducir los costos de la nanofabricación y en incrementar la sensibilidad de detección para así mejorar el rendimiento de los bio-sensores. «Nuestro artículo supone avances en ambos frentes» dice el jefe del equipo Teri Odom. El trabajo ha sido publicado en Nano Letters.

Fabricación de cristales plasmónicos moldeados

Page 41: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

81 80

este último Krebs coincidí hacia 1954 en el City of Oxford High School, donde nos había precedido nada menos que Lawrence de Arabia.Hace medio siglo, uno de los capítulos centrales de los textos de intro-ducción a la Bioquímica se titulaba «Ciclo de Krebs» y, que yo recuer-de, éste era el único en cuyo encabezamiento aparecía el nombre de un científico. En aquellos tiempos de subdesarrollo, muchos estudiantes españoles teníamos la sensación de que las materias de nuestro inte-rés habían sido desarrolladas por sabios extranjeros ya fallecidos. Por esta razón, cuando por fin conocí a Krebs en un congreso de la Sociedad Española de Bioquímica, me produjo el efecto de que estaba ante una aparición del remoto pasado, impresión no tan descabellada si se tiene en cuenta que las principales contribuciones científicas de aquel casi octogenario profesor de Oxford habían sido hechas antes de la Segunda Guerra Mundial, cuando todavía era un treintañero científico alemán. Según ha contado el propio Edwin, la sombra del famoso ciclo que lleva su apellido, aunque no su nombre, le persiguió durante toda su carre-ra. Así por ejemplo, recién llegado a la Universidad de Washington en Seattle, el chairman de un departamento clínico incurrió en el error de

Un problema de identidadResulta particularmente oportuno hablar del bioquímico Edwin G. Krebs, no solo por su reciente fallecimiento el 21 de diciembre de 2009 sino, también de modo especial, por el hecho de que su importante obra ha padecido con frecuencia un problema de identidad, problema originado por la circunstancia de que el apellido Krebs lo ostentan al menos tres famosos biólogos: aparte de Edwin, el mítico Hans A. Krebs (1900-1981), judío alemán devenido ciudadano inglés, premio Nobel de Medicina por los descubrimientos del ciclo de la urea y del ciclo del ácido cítrico, conocido como ciclo de Krebs, y su hijo John R. Krebs (1945-), Lord vitalicio y destacado zoólogo, coautor con Richard Dawkins de importantes trabajos sobre comportamiento animal. Con

Francisco García Olmedo Real Academia de Ingeniería.

Francisco García Olmedo, Real Academia de Ingeniería.

Cie

ntífi

cos i

lust

res

Hablemos de Edwin G. Krebs

Científicos ilustres - Edwin G. Krebs

confundirlo con el descubridor del ciclo: «Debo confesar que no corregí su falsa impresión. Estaba tan inseguro de mi estatus que me complacía ser tratado con tanta deferencia, aunque fuera por la razón errónea». Esta confusión le acompañó incluso hasta después de recibir el Nobel de Medicina en 1992: «Una de las cosas que me pasó por la cabeza cuando el premio, fue que ya no tendría que contestar más preguntas sobre el ciclo, pero la gente todavía me felicitaba porque mi ciclo había sido por fin reconocido −y pensaba que había sido necesario esperar hasta 1992 para que esto ocurriera». Con el fin de contribuir a deshacer este entuerto puede ser apropiado tratar de resumir la singular obra de Edwin Krebs, tomando su conferencia Nobel como guía.

Una aportación fundacionalEn 1940, cuando Edwin inició sus estudios en la facultad de Medicina de la Washington University en St. Louis, ya se había establecido que la degradación del glucógeno en el músculo esquelético y en otros tipos de células ocurre por fosforolisis, catalizada por la enzima fosforilasa. En ese tiempo y en dicha facultad, Arda Green y el matrimonio Carl y Gerty Cori estaban purificando la fosforilasa de músculo de conejo y habían observado que la enzima podía existir en dos formas, α y b, que eran interconvertibles. Krebs tuvo oportunidad de familiarizarse con dichas investigaciones durante sus años de estudiante, pero no se incorporaría a ellas hasta más tarde. De hecho, su intención era dedicarse a la clínica y, recién graduado, en los meses finales de la Segunda Guerra Mundial, se alistó como médico en la Marina. Son muy numerosos los médicos que, en el camino hacia una carrera clínica, han ido quedando atrapados de forma irreversible por la investigación básica. Éste fue el caso de Edwin, quien al desmobilizarse no encontró sitio en St. Louis para hacer el in-ternado y decidió seguir la recomendación de enrolarse temporalmente en la investigación básica. Entró en el laboratorio de los Cori y quedó seducido para siempre por lo que sería el trabajo de su vida.La forma α de la enzima había sido eventualmente purificada y obtenida en forma cristalina, un hito para la época, y pudo comprobarse que era activa sin el concurso de cofactor alguno, mientras que la forma b era inactiva, excepto en presencia de concentraciones de adenosín monofos-fato cíclico (5´-ampc) muy por encima de las fisiológicas. Aunque las dos formas de la enzima eran interconvertibles, se estaba muy lejos de enten-der el mecanismo subyacente y, mucho menos, su significado biológico.Tras dos años en el laboratorio de los Cori, en 1948 Edwin recibió la oferta de un puesto en la Universidad de Washington en Seattle, ciudad que le había subyugado cuando la visitó en su etapa de médico naval, y lo aceptó sin dudarlo. En este entorno pasaría el resto de su vida, excepto por un periodo en que fue chairman-fundador del Departamento de Química Biológica de la Universidad de California, en Davis. Cinco años más tarde se uniría al departamento Edmond H. Fischer, quien había trabajado en la fosforilasa de patata, y decidieron unir sus esfuerzos para dilucidar el secreto de la interconversión. Su asociación en los primeros años fue tan intensa que, si uno se ausentaba para dar una conferencia, el otro llevaba a cabo los experimentos del ausente. De hecho, en los círculos de la especialidad se les conocía por «los dos Eds», Edwin y Edmond. Por la misma época, Earl Sutherland, descubridor del 5´-ampc, segundo men-sajero de la acción hormonal, estaba investigando sobre la implicación de este compuesto en la formación de la fosforilasa α de hígado.Buscando en vano el papel del 5´-ampc en la activación de la forma b, Krebs y Fischer dieron con un mecanismo cuya generalidad e importancia

no pudieron ni imaginar, la fosforilación reversible de proteínas. Dicho mecanismo consiste en esencia en que una proteína puede recibir un grupo fosfato del adenosin trifosfato (atp), reacción que es catalizada por una enzima proteína quinasa. La proteína fosforilada sufre en conse-cuencia cambios estructurales y funcionales, tales como, en el caso de la fosforilasa, pasar de una forma inactiva a otra activa. En sentido inverso, una enzima proteína-fosfatasa puede liberar el fosfato de la proteína, devolviéndola a su estado inicial, inactivo, en el ejemplo de la fosfori-lasa. En otras palabras, el mecanismo de la fosforilación reversible de proteínas tendría un papel similar al de un interruptor-conmutador en una instalación eléctrica.En una fase inicial se vio que este sistema de conmutación funcionaba en algunas enzimas relacionadas con el metabolismo del glucógeno. Se había demostrado inicialmente que operaba en la glucógeno fosforilasa y en la fosforilasa quinasa, y pronto se vio que también afectaba a la glucógeno sintasa. El trabajo sobre esta última enzima fue desarrollado en los años sesenta por Joseph Larner y sus discípulos, algunos tan des-tacados como C. Villar-Palasí y M. Rosell Pérez. En los años 1965 y 1966 tuve oportunidad de frecuentar el laboratorio de Larner y Villar-Palasí en la Universidad de Minnesota y de asistir a algunos de los seminarios que ellos impartieron sobre sus investigaciones: no cabía duda de la im-portancia y novedad del trabajo que llevaban a cabo, pero nada hacía barruntar la extraordinaria relevancia que ha alcanzado la fosforilación reversible en los procesos biológicos. En contraste con las dos primeras enzimas, la glucógeno sintasa perdía actividad al fosforilarse, lo que sugería que la fosforilación actuaba cam-biando el repertorio de enzimas activas en una coyuntura dada, activando unas y inactivando otras. Durante la primera década de estas investiga-ciones, este mecanismo regulador parecía restringido al metabolismo del glucógeno, pero el descubrimiento por Kuo y Greengard de una proteína quinasa dependiente de 5 ́ -ampc, que era multifuncional, abrió el camino para explorar la verdadera importancia y generalidad de la fosforilación reversible en la fisiología de los seres vivos. Poco después se descubrió que una enzima ajena al ámbito del glucógeno, la piruvato deshidrogenasa, también se regulaba por fosforilación y, hacia finales de los años setenta, eran más de cincuenta las enzimas en las que se había comprobado dicho mecanismo, esto sin contar una infinidad de proteínas no enzimáticas para las que también era relevante.

Page 42: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

82

La activación (o la inactivación) de enzimas y proteínas no enzimáticas por sustitución reversible con fosfato regula toda suerte de funciones celulares, incluido el tráfico metabólico, de una forma no muy distinta a como una red de semáforos rigen el tráfico de una ciudad, abriendo y cerrando vías de una forma coordinada. Estamos pues ante un elemento esencial para la vida, que subyace tanto a procesos normales como a patológicos: el ciclo celular, el desarrollo de los organismos, el cáncer, la función neurológica y las señales cerebrales, la presión sanguínea, la inflamación o la respuesta de las plantas a sus patógenos son solo algunos de los procesos en los que está involucrada la fosforilación reversible. Como se puede constatar, aguas abajo de las pioneras investi-gaciones de Krebs y Fischer se fue ensanchando un verdadero amazonas de nuevo conocimiento.

Una aventura interior En contraste con su excepcional trayectoria científica, con su aventura interior, los signos externos de su vida son los de un sano americano me-dio de vida prosaica. Aunque nació en Lansing, Iowa (1918), consideraría como su ciudad a Greenville, Illinois, un pueblo de entorno agradable y buen sistema educativo al que, tras varios traslados, fue a servir su padre como ministro presbiteriano. Nada hay reseñable de su etapa escolar, salvo que fue un buen estudiante que no mostró particular inclinación por la biología o la química y que no tenía ninguna afición especial. El temprano fallecimiento de su padre significó una cierta estrechez econó-mica que debió servirle de acicate en sus estudios. Se inclinó por la me-dicina, más por su utilidad práctica que como ámbito de conocimiento. Como ya indicamos, su vocación y aptitud para la ciencia básica fue un descubrimiento tardío y su desembarco en el laboratorio de los Cori se debió más al azar que a la astucia. Debió tener excelentes condiciones para el liderazgo que ejerció a partir de los cincuenta años, como chair-man de departamento, primero en Davis (California) y luego en Seattle (Washington). En el ensayo autobiográfico que publicó como parte del ritual del premio Nobel, no dejó traslucir ninguna afición especial por la literatura, las artes plásticas o la música. Que no ambicionaba la ri-queza quedó patente por el hecho de que tardó tres días en preguntar a cuánto ascendía el citado premio y, cuando lo averiguó, por la forma en que lo gastó: «Ed (Fischer) y yo invitamos a nuestras familias am-pliadas y pagamos el viaje a los que lo necesitaban». Ambos donaron la mayor parte del dinero a instituciones educativas, médicas y artísticas, e incluso un poco a sus respectivos departamentos. «Fácil viene, fácil se va», comentaría Edwin.

Científicos ilustres - Edwin G. Krebs

Un mecanismo ubicuoKrebs y Fischer recibieron el premio Nobel de Medicina en 1992 por un descubrimiento concreto y simple. Excelentes experimentadores, no eran ellos propensos a grandes planteamientos teóricos sino que, en cada paso, seguían su instinto hasta el siguiente paso. Sin embargo, lo mismo que el invento del transistor condujo a una pléyade de inventos cada vez más complejos que se basan en él, el descubrimiento de la fosforilación reversible llevó a una interminable nómina de mecanismos reguladores cada vez más complejos que se basan en ella. Entre los primeros en po-nerse de manifiesto cabe señalar la amplificación de señal en cascada y la transmisión de señales extracelulares.La actividad catalítica de una enzima implica que una molécula de ella es capaz de procesar a producto un elevado número de moléculas de sustrato; si el sustrato es la forma inactiva de una segunda enzima y el producto, la activa, unas pocas moléculas de la primera enzima generarán una infinidadde moléculas activas de la segunda; si la segunda es a su vez capaz de activar a una tercera enzima, tenemos lo que denominamos coloquial-mente una cascada de amplificación, cada salto de la cascada supone una multiplicación del efecto. En otras palabras, la cascada es un mecanismo que permite que unas pocas moléculas desencadenen una activación enzimática a gran escala. Si por ejemplo, hemos de salir corriendo en una emergencia, nuestros músculos necesitan liberar deprisa glucosa-fosfato a partir del glucógeno que se almacena en nuestros músculos con el fin de extraer la energía necesaria para la acción mecánica: dicha liberación está catalizada por la fosforilasa y la fosforilasa es activada masivamente por un mecanismo en cascada. La señal que dispara dicha cascada es extracelular y debe ser transmitida al interior de la célula. En el caso del músculo, la señal extracelular es la adrenalina que, al unirse a su receptor en la membrana, activa una ciclasa acoplada que convierte el atp en 5´-ampc; este último activa una proteína quinasa, que a su vez activa una fosforilasa quinasa que a su vez activa la fosforilasa que liberará glucosa-fosfato a partir del glucógeno.

Signal in

Proteinkinase

APP

APP ON

OFF

InactiveEnzyme

ProteinPhosphatase

ActiveEnzyme

Signal Out

P

P Pi

Page 43: Investigación y Cáncer54.154.165.46/wp-content/uploads/2015/02/cn8.pdf · El genio de Faraday y Maxwell, entre otros, abrieron el electromag-netismo para permitir la gran revolución

www.cicnetwork.es