Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf ·...

84

Transcript of Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf ·...

Page 1: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,
Page 2: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,
Page 3: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Contenidos

"Cerrando la brecha abierta entre ciencia y sociedad", por José María Pitarke.

Manuel Martín Lomas, director científico de CIC biomaGUNE, entrevista a José Elguero, doctor del Instituto de Química Médica del csic y premio Nacional de Investigación Ramón y Cajal 1993.

Francisco J. Ayala diserta sobre investigación científica en "Las tres grandes fronteras de la Biología Humana" y José Manuel Sánchez Ron conmemora el 150 aniversario del nacimiento de Max Planck.

Jorge Wagensberg escribe sobre "Ciencia y sociedad en el siglo xxi"; y José M Mato modera una mesa de ideas sobre los retos de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo, Rafael Pardo y Cristina Ribas.

Proyectos de Investigación de ceit-ik4, cic margune, gaiker-ik4 y upv/ehu.

Francisco A. González Redondo, profesor de Historia de la Matemática en la ucm, escribe sobre el inventor español Leonardo Torres Quevedo.

Editorial 04

Entrevista 06

Divulgación 14

Investigación hoy 26

Entorno cic 45

Científicos ilustres 78

EN PORTADA: Imagenes tomadas con microscopio electrónico de barrido (SEM) de un avispón (Vespa Crabro).

Fuente: Eye of Science/Science Photo Library

Page 4: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Cerrando la brecha abierta entre ciencia y sociedadLa ciencia y la tecnología influyen en las estrategias empresariales, trans-forman las economías nacionales e internacionales, prolongan las vidas de las personas y están presentes en gran parte de nuestra existencia. Sin embargo, el gran público experimenta con cierta pasividad el desa-rrollo de la ciencia y la tecnología. Al mismo tiempo que se habla del advenimiento de las sociedades del conocimiento, se constata que la así llamada compresión pública de la ciencia sufre un retraso con respecto a los descubrimientos científicos, el desarrollo de nuevas ideas y la apa-rición de invenciones que, sin duda, afectan nuestro bienestar y nuestro progreso a la vez que plantean retos éticos a los que difícilmente se puede dar respuesta desde la ignorancia científica. Y el futuro no es más esperanzador: parece que en un gran número de países industrializados, entre los que se incluye el nuestro, ha venido disminuyendo durante los últimos años el número de estudiantes de ciencias y, en particular, el número de graduados que emprenden trabajos de investigación una

vez finalizados sus estudios. Esta crisis podría tener importantes con-secuencias, entre las cuales destacaría, por una parte, la futura escasez de canteras de investigadores cualificados que puedan aprovechar las inversiones que se están realizando en la actualidad y, por otra parte, la reducida capacidad de respuesta ante las exigencias cada vez mayores de una sociedad orientada hacia la innovación. Una sociedad con una masa ciudadana poco formada científicamente y escasamente concienciada del valor de la ciencia y la tecnología difícilmente será capaz de asimilar y contribuir a la cultura de la innovación, de configurarse como una so-ciedad del conocimiento y, en consecuencia, de generar una economía competitiva en un escenario de globalización. En definitiva, ha llegado la hora de que la diseminación de la cultura científica y tecnológica entre la ciudadanía se anote en la agenda de las prioridades políticas, al igual que lo están desde no hace muchos años la sostenibilidad, el medio ambiente y la innovación.Por todo ello, las fuertes inversiones que se están realizando en apoyar la i+d y en crear las condiciones que propicien el surgimiento de pro-cesos innovadores deben ir acompañadas de un creciente fomento de iniciativas resultantes en una sensibilización y percepción positiva del público y, en especial, de los más jóvenes haca la ciencia y la tecnología. Es necesario afianzar la confianza ciudadana en la ciencia, muchas ve-

Edito

rial

José María Pitarke

Director general de CIC nanoGUNE

Page 5: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

consejo editorial

Eduardo AnituaPedro Miguel EtxenikeManuel FuentesFélix M. GoñiJoseba JaureguizarManuel Martín LomasJosé María PitarkeAna Zubiaga

director

José M Mato

redacción y coordinación

Iñaki GorostidiIgor CampilloJavier UrtasunJesús L. Morán

colaboran

Francisco J. AyalaJorge WagensbergJosé Manuel Sánchez RonFrancisco A. Gonzalez Redondoceit-ik4cic margunegaiker-ik4upv/ehu

diseño y maquetación

nu Comunicación

reportaje fotográfico

Xabier Aramburu

edita

Arista rr.pp.Portuetxe 24 · 20018 San Sebastián Tel.: 943 215177 · Fax: 943 215777 · [email protected]

traducciones

Elhuyar Fundazioa

reserva publicidad

[email protected]+34 943 32 69 66

imprime

Reproducciones Igara

depósito legal

ss-1228/06

Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda

prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.

ces minada por la propia incapacidad de los científicos de suministrar información accesible al gran público. En este sentido, se impone, por un lado, generar un clima favorable que permita a los científicos dedi-car parte de su tiempo a la divulgación de su actividad y, por otro lado, ampliar el espacio informativo y optimizar el rigor que los medios de comunicación dedican a la ciencia y la tecnología. Asimismo, se nece-sita potenciar el atractivo de la carrera de investigador, destacando la libertad intelectual como valor intrínseco proporcionado por el espíritu crítico que acompaña a la investigación misma y revisando, a su vez, la condiciones laborales y salariales que hoy en día le podrían restar valor en el plano material. Finalmente, más allá del carácter utilitario de la ciencia hay que potenciar el interés, el entusiasmo, la inquietud y, en definitiva, el valor de la ciencia como aventura del conocimiento y como contribución al patrimonio cultural de la humanidad.En la Mesa de Ideas de este número, un destacado panel de expertos aborda y debate estas y otras cuestiones tratando de analizar algunas de las causas de la brecha abierta entre ciencia y sociedad. Junto con el resto de secciones habituales de nuestra revista, y gracias a las extraordinarias colaboraciones con las que contamos, esperamos que el número 4 de CIC Network ayude a cerrar la brecha y anime a difundir el entusiasmo de nuestros lectores por la ciencia.

Page 6: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Diá

logo

s cie

ntífi

cos

Page 7: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

7

José Elguero, premio Nacional de Investigación Ramón y Cajal en 1993, entrevistado por Manuel Martín Lomas

José Elguero Bertolini, premio Nacional Ramón y Cajal

en 1993; Schutzenberger, Sociedad Química de Francia,

1968; Medalla de Oro, Real Sociedad Española de

Química, 1984; Solvay, 1988; Medalla de Oro, Universidad

de Marsella; Premio Miguel Catalán de la Comunidad

de Madrid, 2005). Actualmente, Doctor Vinculado al

Instituto de Química Médica del csic.

Manuel Martín Lomas. Director científico de

CIC biomaGUNE.

ser una simple continuidad, sino que tiene que ser algo más creativo. Esto nos lleva a hablar de centros innovadores como CIC biomaGUNE, que deben hacer cosas que no se hayan hecho aún, ya que si no, el tremendo esfuerzo de algu-nas personas no tendría sentido ni para el País Vasco, ni para la Química mundial.

La realidad es que no aparece ningún español entre los 100 grandes químicos europeos de los tres últimos siglos.Me temo que poco podemos hacer ya a ese res-pecto, excepto lamentarlo.

Otras disciplinas han utilizado los principios de la Química, los han adaptado, engullido y digerido a su servicio y esto ha dado lugar a grandes avan-ces ¿Crees que, debido a ello, se ha generalizado una percepción errónea de que la Química es una ciencia ancilar?

Vamos a comenzar hablando acerca de la situa-ción actual de la Química española.Creo que los dos somos muy conscientes de las oportunidades que se han perdido y de que al-gunas de ellas ya no van a volver. No se puede hacer nada respecto a lo que se perdió y creo que lo que debemos hacer es inventarnos nue-vas oportunidades. Lo que va a venir no puede

“No quiero que a los químicos nos manden al siglo XIX”

Además de ser uno de los investigadores cientí-ficos españoles de mayor prestigio internacio-nal, José Elguero es un apasionado de la Quí-mica. En su visita a CIC biomaGUNE, el doctor Elguero charla con Manuel Martín Lomas sobre la situación de la Química como disciplina cien-tífica en la actualidad, sus retos de futuro y su relación con la industria española.

Page 8: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

8

Diálogos científicos - José Elguero

que fue a ver a unos biólogos y les dijo que podía estudiar el fenómeno que estaban viendo a nivel molecular y entenderlo. Le contestaron que, si quería, podía hacerlo pero que no le iban a espe-rar porque tenían mucha prisa en el estudio del cerebro humano, y no podían esperar a que los químicos les explicasen realmente lo que veían, ya que ellos tenían su propia dinámica. Con este ejemplo quiero decir que las ciencias de la vida avanzan, en este momento, a gran velocidad, pero los químicos tienen una metodología con la cual, por su rigor, no pueden permitirse ciertas cosas. Por eso, no creo que el hueco que existe entre las ciencias de la vida y los químicos interesados en estos problemas vaya a cerrarse pronto. Ellos van a seguir avanzando de una manera que a los químicos nos parece un poco rudimentaria con modelos, dibujitos y esquemas, y me da la impresión de que la dinámica de las dos disci-plinas no es la misma porque los biólogos ven demasiado alejadas las cosas que hacemos los químicos fundamentales. Tú quizás no notes esto tanto, porque estás justo a su lado.

Olvidémonos por un momento de los biólogos y hablemos de la Química como una disciplina bá-sica. Si repasamos los Premios Nobel de Química de los últimos años es evidente que queda un inmenso campo por explorar. Por poner sólo un ejemplo, el último de ellos, el de Gerhardt Ertl, por sus estudios sobre procesos químicos en superfi-cies sólidas evidencia un enorme terreno por ex-plorar dando lugar a aportaciones completamente nuevas. Por lo tanto, la Química sigue teniendo su campo de acción abierto y prometedor.Yo también estoy convencido de que no nos fal-tan temas de investigación, que es una disciplina que aún está muy lejos de agotarse porque cada vez hay más cosas. Debemos cambiar de men-talidad. Los químicos ya han demostrado que son capaces de sintetizar casi cualquier cosa, por muy complicada que sea, pero ahora tene-mos que ir hacia otros sitios: catálisis, superfi-cies, membranas y toda una serie de problemas frente a los cuales los químicos de mi generación siempre han sido un poco reticentes a la hora de abordar porque no se encuentran a gusto.

Incluso en campos más establecidos, como la Química supramolecular, hay un campo inmenso por explorar.Completamente de acuerdo. Un químico con imaginación puede llegar muy lejos si decide hacer la investigación en función de la impor-tancia de los problemas y no en función de sus competencias limitadas. Una nueva generación de químicos debe llegar porque, al menos en Es-paña, la inmensa mayoría de los químicos abor-dan problemas bastante convencionales. En este momento, se puede decir que los biólogos nos comen un poco el terreno a los químicos. En cualquier caso, yo soy un entusiasta y estoy convencido del futuro de la Química. De lo que tengo dudas es del futuro del Consejo Superior de Investigaciones Científicas (csic), del futu-ro de ciertas universidades y de ciertos temas de Química que, a mi modo de ver, ya estaban obsoletos cuando nos reunimos en Santander hace 30 años. Hay mucha gente que no quiere meterse en camisas de once varas porque no está muy segura de que vaya a ser competente,

“Los químicos nos hemos extendido, pero es cierto que hemos perdido algo de protagonismo y de consideración que teníamos en la España del siglo XIX”

La Química está entrando cada vez más en otras disciplinas que no eran tan moleculares y, al mismo tiempo, que se ha extendido, ha perdido un poco de su identidad hasta el punto de que la mayoría de biólogos y bioquímicos españoles, aunque sean químicos de formación, reniegan de alguna manera de serlo. Ahora la Química está en los campos de los ma-teriales y de las ciencias de la vida. Los químicos nos hemos extendido, pero es cierto que hemos perdido algo de protagonismo y hemos perdido la consideración que, por ejemplo, teníamos en el siglo xix. Así, ocurre que muchas de las per-sonas que trabajan en las ciencias de la vida no nos perciben como iguales.

La Química se ha extendido y ha molecularizado a otras disciplinas, pero aún tiene un porvenir tremendo como ciencia troncal, ya que quedan muchos problemas por resolver donde la respues-ta tiene que venir de la mano de la Química ¿No lo ves así?Recuerdo la anécdota de un compañero nuestro

Page 9: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

9

Diálogos científicos - José Elguero

pero la gente joven tiene que saber que ésa es una confianza que sólo se gana a base de echar-le muchas horas.

En pleno siglo xxi, es posible que la visibilidad de la Química sea muy inferior a la visibilidad de las ciencias de la vida y de algunos aspectos de la Física.Exactamente. Cuando hablo con otros colegas químicos o con la propia prensa, uno de los te-mas más recurrentes es que la Química tiene mala imagen porque contamina, o por acci-dentes como el que tuvo lugar en Toulouse. En este sentido, yo siempre digo que, a mi modo de ver, el principal problema al que se enfrenta la Química es que para los estudiantes de bachi-llerato más brillantes no representa un desafío interesante, porque la Química que ven ya está muy anticuada. Creen que en Química ya no quedan problemas importantes y difíciles por resolver y, por ello, prefieren estudiar Física o Matemáticas. Pero hay que cambiar esa imagen porque quedan problemas muy difíciles que no sabemos siquiera cómo abordarlos y por ello necesitamos gente brillante para que la disci-plina no decaiga.Hay quienes piensan que el siglo xix fue el siglo de la Química, el xx el de la Física y el xxi el de la Biología, pero yo no lo comparto porque no quiero que nos manden al siglo xix. En cual-quier caso, esta es una batalla de imagen que no está ganada.

Otro aspecto importante es que la Química es la única disciplina que, además, es una industria y eso representa claramente un éxito. La industria Química mueve grandes cifras y genera mucho empleo en países europeos como Alemania ¿Es posible que el tema de la visibilidad sólo sea un problema nuestro?Creo que nosotros hemos hecho todo lo que he-mos podido y no creo que sea sólo un problema nuestro porque es un asunto muy complicado que tal vez debiera ser estudiado por otros pro-fesionales como, por ejemplo, los sociólogos. Es verdad que la industria química es extremada-mente poderosa y que buena parte de la acti-vidad de la industria farmacéutica se basa en la Química; pero, curiosamente, eso no ayuda a que la clase política y el público en general lo entiendan. Tenemos que hacer un gran esfuerzo con la prensa para cambiar la imagen de la Quí-mica en la sociedad. Es cierto que no podemos minimizar los efectos de las grandes catástrofes químicas en Europa, pero tampoco se les debe

dar más importancia de la que tienen. La vida no tiene precio y cada vez que fallece un ser humano, eso es algo que no se paga con nada, pero se debe situar dentro de un contexto y no se debe generalizar y decir que la industria quí-mica es algo peligroso.

Efectivamente, un número relativamente reciente de la revista Chemical & Engineering News, el pre-sidente entrante de la American Chemical Society también habla del problema de la visibilidad de la Química, lo cual apunta a que el problema es general.Estoy totalmente de acuerdo. Se trata, sin duda, de un problema general.

Volvamos a centrarnos en España. Tú regresas de Francia en 1980. ¿Qué análisis haces del panora-ma que te encuentras y cuál es la evolución que has observado en estos últimos 28 años?Voy a contarte una anécdota. Cuando llegué a Madrid, hice oposiciones, saqué una plaza y llegué a un despacho. Allí, un investigador que ya falleció me dijo: “mira Pepe, este es tu sitio, siéntate ahí y haz lo que quieras pero que sepas que no hay ni para éter”. Entonces pensé que algo tenía que hacer, porque no estaba dispues-to a estar sentado en una mesa sin hacer nada. Afortunadamente, la situación empezó pronto a cambiar y, de hecho, ha cambiado muchísimo desde entonces. Hay toda una generación de químicos que ahora tienen entre 45 y 55 años que son extremadamente brillantes, que están muy bien formados y que, además, cuentan con medios. Junto a esta mejora extraordinaria de la situación profesional ha desaparecido una especie de entusiasmo patriótico de las perso-nas que ahora rondan los 70 años. En España se ha producido un fenómeno irrepetible: hay una generación de españoles que se ha encargado de demostrar que, si eran tan miserables, no es porque fueran tontos sino porque era culpa de Franco. Para ello, se han matado a trabajar, se han dejado la piel y han logrado demostrar al mundo entero que, si a España se le proporcio-naban medios y condiciones adecuadas, podía producir la misma ciencia que el resto del mun-do porque éramos iguales que los demás. En los escritos de Ramón y Cajal ya estaba presente

“No nos faltan temas de investigación, la Química es una disciplina que aún está muy lejos de agotarse”

esta idea. Él mismo decía que le dolía mucho cuando, al principio, iba a Francia o a Alemania y la gente le miraba como diciendo, “de dónde viene éste si allí nadie sabe de nada”, y él tenía que demostrar que las cosas no eran así. Ese sentimiento se ha producido varias veces en la historia de España. Ocurrió primero en los años 20 con la Institución Libre de Enseñanza, que tenía la voluntad de que se podían hacer cosas y luego, de nuevo, entre 1975 y 1980, cuando la gente dijo: “dadnos los medios y nosotros de-mostraremos lo que somos capaces de hacer”. En cambio, creo que esta actitud ha desapare-cido porque, actualmente, la gente joven no se cree obligada a demostrar nada porque saben que van a hacer las cosas bien y que la ciencia en España se ha ganado el respeto internacional.Cuando saqué la plaza en España, fui a ver a un responsable del csic y le dije que volvía de Francia y que me gustaría hacer investigación. Él me contestó que era demasiado viejo para hacer investigación y que lo que tenía que hacer era dedicarme a la gestión.

Page 10: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

10

Diálogos científicos - José Elguero

Entonces tenías cuarenta y pocos años…Sí, cuarenta y tantos, ¡y me dijo que ya era de-masiado mayor para hacer ciencia! Fue muy duro y, aunque llegué a pensar que podía tener razón, sabía que no me apetecía hacer gestión, entre otras cosas, porque lo único que sabía hacer era investigación. Esta etapa duró muy poco porque enseguida empecé a conocer gente que tenía ganas de hacer cosas y se produjo una fermentación de toda la vida española y tuve la suerte de vivir unos años muy interesantes, en los que, aunque se cometieron muchos errores, también se crearon muchas cosas porque ha-bía que inventarse casi todo. A consecuencia de ello, la generación actual también es muy buena pese a que han perdido un poco eso que Malraux llamaba la ilusión lírica: algo que está muy ligado a la poesía, al entusiasmo y a las ganas de querer cambiar las cosas.

En Santander se llevó a cabo un análisis de lo que hacían los químicos españoles y de las áreas que se estaban cultivando. Aquello fue una especie de revulsivo pero han pasado muchos años, ha cambiado el panorama, nos hemos hecho “ricos” –porque la ciencia es una cosa de países ricos– y los químicos españoles publican en revistas de pri-mer nivel. ¿Crees que estamos cultivando algo que dentro de diez años puede derivar en un premio Nobel o que en realidad, a pesar de tanto progreso, nos hemos vuelto a quedar un poco estancados?La respuesta puede ser afirmativa, pero hay que matizar. Creo que hay personas que realmente se acercan a la frontera del más alto nivel. Lo que ocurrió en España es que la gente logró salir de unas líneas obsoletas para situarse en una fran-ja buena, pero que aún no se podía considerar excepcional, porque se empezó a publicar muy bien. Esta transición se consiguió con un éxito total. Unas pocas personas –no voy a decir nom-bres, por no ponerte colorado– se movieron aún más allá de esa franja en la que la frontera es más dura porque se publica poco y, a veces, también se fracasa. Ahora hay bastante conciencia de que habría que moverse en esa dirección y espero que la gente joven lo haga. Yo creo que hay al-gunas personas que ya no pueden. Se dice que un científico solo puede abordar dos o, como mucho, tres temas en su vida, ya que no da para más. Algunas personas ya han hecho ese esfuer-zo y empezaron haciendo una Química de muy bajo nivel –por ejemplo, en el caso del Instituto del Carbón, el de Carboquímica– y han dado un paso muy grande. No creo que sea posible pedir-les ahora que también den el segundo paso.

Es obvio que el futuro está en los riesgos que sean capaces de asumir las nuevas generaciones.Creo que el futuro está en que la gente mayor empuje a las nuevas generaciones a asumir riesgos. Debemos asumir lo más difícil: poner un colchón para que no se den un batacazo tre-mendo, proporcionar seguridad a la hora de en-contrar recursos, dar un apoyo constante a nivel intelectual, arriesgar uno mismo para empujar a que los demás también arriesguen. Así, se es-tán creando una serie de institutos, como éste del País Vasco, que es ejemplar, pero también en otros sitios como Cataluña, Valencia o Madrid donde se va a crear un Instituto de Nanocien-cias. Yo creo que de ahí van a salir cosas muy bonitas, aunque bastante más convencionales que lo que se está haciendo aquí. He visitado muchos centros nuevos y, sin duda, el más atre-vido es este, pero ya se sabe que, generalmen-te, la recompensa suele guardar relación con

el riesgo. Desde luego, si sale algo inesperado, o sale en la Universidad de Harvard en el grupo de George M. Whitesides o sale aquí, y lo digo de veras. Además, creo que lo que está haciendo el Instituto de Ciencia Molecular en Valencia con materiales magnéticos también es de muy buen nivel y también la labor de los catalanes en el iciq, va a desembocar en cosas bonitas en Quí-mica Supramolecular y en Química Orgánica Avanzada. Pero, dentro de todo, son institutos que están más centrados sobre temas bien co-nocidos y cada uno irá lejos dentro de lo que sabe hacer y creo que van a empezar a llenar la fila de la excelencia, aunque a mi esa es una palabra que no me gusta demasiado y me da un poco de angustia.

A mí tampoco me gusta mucho…A veces parece que las cosas, o son de excelen-cia o no tienen sentido y decir eso es muy peli-groso porque alguien te puede decir: no sois de excelencia, luego no tenéis sentido.

Cuando yo empecé mi carrera era un término que no se usaba mucho y la primera vez que lo escuché se lo oí a Sols pero para él la excelencia era otra cosa y no era lo habitual aquí. El usaba la excelen-

cia para hablar de Cori, de Kornberg, de Ochoa…Creo que la excelencia es algo que lo pueden de-cir los otros, pero no lo puedes decir tú. Puedes decir que Ochoa era excelente o que Kornberg lo era, pero uno no puede decir que lo que hace es excelente.

Has mencionado una serie de iniciativas que es-tán teniendo lugar en el país y hablábamos de que, con alguna de ellas, quizás se pueda dar el gran salto que nos hace falta, pero esas iniciativas en muchos casos se están generando fuera de lo que hasta ahora han sido los cauces habitua-les, como el Consejo Superior de Investigaciones Científicas… Yo le dije a Joan Guinovart, director del IRB –Instituto de Investigación Biomédica– de Barcelona, que se debería montar una coordi-nación de centros pero, como dependen más de las comunidades autónomas que del gobierno central, se producen duplicaciones porque no hay ni coordinación, ni comunicación. Creo que, como el Consejo no va a tener esa capacidad de liderar a los centros, sería conveniente reunir, de manera informal, a los directores de los di-ferentes centros relacionados con la Química, digamos de excelencia, de España –que no son más de 10 ó 12–, para intercambiar información. A mi me hubiera gustado que el Consejo asu-miera esa responsabilidad de coordinar, pero creo que va a ser difícil.

La situación se asentará algún día, pero creo que a día de hoy esa coordinación no es fácil.Me doy cuenta de que el tema es delicado y no es fácil, pero hay que ser conscientes de que estáis creciendo y cuando todos esos centros se consoliden serán más difíciles de coordinar. El consejo científico del irb se reunió hace cin-co meses y creo que ahora resultaría más fácil hacer enlaces. Se que es un tema muy delicado y a los científicos, en el fondo, nos dirán que estamos mejor calladitos, pero creo que de-bería haber contactos. Se puede invitar a los directores a dar unas charlas para establecer, por lo menos, contactos bilaterales, porque no es bueno que esto crezca sin que haya comuni-cación. A los aragoneses les han comprado algo que vale una fortuna…

Sí, creo que se trata de una importante plataforma de microscopía electrónica…La más grande que va a haber en España. Pero esto no puede ser, porque hemos luchado du-rante años en el Consejo para que se respetaran

“Hay quienes piensan que el XIX fue el siglo de la Química, el XX el de la Física y el XXI el de la Biología. Yo no lo comparto porque no quiero que nos manden al siglo XIX”

Page 11: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

11

Diálogos científicos - José Elguero

lo entiendo, la idea que preside la creación de los cic es adelantarse haciendo una ciencia de primer nivel que de lugar a innovación que, a su vez, se traduzca en riqueza. Pero, en base a mi propia ex-periencia, este no ha sido hasta ahora el plantea-

miento habitual de las universidades ni del csic. Soy consciente, también por propia experiencia, que no es tan fácil conseguir esa conjunción entre lo que una sociedad industrializada demanda y lo que los centros de investigación pueden y deben hacer. Se corre el serio peligro de que se repita lo que le pasó a algunos Centros y a mucha gente en el Patronato Juan de la Cierva a los que se de-mandaba algo absolutamente inaceptable desde el punto de vista de la investigación científica. Pero, por otra parte, el divorcio absoluto entre la universidad y lo que la sociedad demanda tam-poco es bueno. ¿Quizás necesitamos un tejido industrial más poderoso que el que tenemos o puede ser que con un panorama industrial con-trolado por las multinacionales, la calidad de ese tejido industrial dependa muy poco del nivel de la Química que nosotros hagamos?Cuando yo estaba en el csic, nos mandaron ha-blar con Jordi Pujol para proponerle la fusión de todas las empresas farmacéuticas catalanas. Según el gobierno central no era viable que fun-

los intereses de todas las comunidades y de to-dos los científicos y se montara un sistema en el que todos se beneficiaran del saber de los de-más. Confieso que esto es algo que me preocupa porque surgen centros fuera de las universida-des y, en cierta manera, fuera del Consejo.

Pero como científicos, eso es algo que está fuera de nuestro control…Totalmente. Es un problema de gobierno, no un problema nuestro. Yo me alegro mucho de que CIC biomaGUNE haya surgido aquí porque es mejor que surja algo bueno a tener que espe-rar a que aparezca una estructura que permita acogerlo. Si la estructura no es capaz de crear cosas como CIC biomaGUNE, es mejor que se creen fuera de la estructura a que no se creen. Si esperamos a tener un sistema muy estructurado a la francesa, corremos el riesgo de que al final no se haga nada.Es mejor que, una vez creado, se intenten bus-car pasarelas de comunicación y de intercam-bio –también de profesionales–. En resumen, creo que es un momento precioso y la verdad es que me dais mucha envidia.

Vamos a reflexionar acerca de un tema tan im-portante como es el de la industria. Creo que, de alguna manera, seguimos divorciados de la socie-dad industrial que nos rodea. En el caso concreto del País Vasco, los cic se han creado en el marco del departamento de Industria. Aquí hay una tra-dición industrial importante y en este campo se han conseguido éxitos considerables. Como yo

cionaran independientemente cuatro o cinco grandes firmas catalanas, que son las que siguen existiendo en la actualidad. El señor Pujol, que por cierto es doctor en farmacología en Alema-nia, nos recibió en la Generalitat y muy amable-mente nos dijo: “ustedes no tienen ni idea. Estas empresas –Ferrer, Almirall, Esteve y Uriach– son negocios familiares y sus dueños hacen con ellas lo que les da la gana y ni el presidente del Gobier-no ni el de la Generalitat les puede decir nada”. Y con esta respuesta nos fuimos. Con esto, quiero decir que la industria se en-frenta a dos problemas básicos. Por un lado, que su actuación se escapa bastante al control del estado y, por otro, que la debilidad de la in-dustria española es muy grande. Sólo existe en Cataluña y en el País Vasco, pero es muy peque-ña. Son poco competitivos y buscan temas muy específicos, pero tienen más creatividad que las multinacionales. Me parece que en España no se puede desarrollar la Química al nivel que nos gustaría si no hay detrás una industria química potente. En caso contrario, estaremos ante un castillo de naipes: todo parece muy bonito, pero basta cualquier sacudida económica para que se venga abajo. Las universidades están inten-tando transferir todos los conocimientos que pueden al sector industrial, pero hay poca de-manda. Por ejemplo, yo conozco muy bien a una persona, que ocupa un puesto muy relevante en Cepsa, y me consta que han cerrado un la-boratorio muy bonito que tenían a las afueras de Madrid. El motivo es que resulta que ahora están mucho más interesados en ir a Argelia

“Sería conveniente reunir a los directores de los diferentes centros relacionados con la química de excelencia de España para intercambiar información”

Page 12: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

12

Diálogos científicos - José Elguero

y comprar concesiones de gas. Es decir, ellos mismos no se acaban de creer que la ciencia española les puede ayudar, lo cual les convierte en compañías casi especulativas: compran, ven-den gas, refinan… Pero las patentes que se usan suelen ser de las grandes multinacionales, como Shell. Si simplificásemos este asunto al máximo, probablemente veríamos que el problema más grave de la Química española es precisamente la debilidad de la propia industria química.

Estoy completamente de acuerdo.En una ocasión, el ex ministro Josep Borrell (entonces Secretario de Estado de Hacienda) nos citó a todos los presidentes de los Conse-jos Sociales en el Hotel Palace. Yo le sugerí que la universidad debería transmitir a la industria todo el conocimiento que tiene de manera gra-tuita porque, en mi opinión, lo fundamental es que la industria funcione bien. Por eso, el hecho de que la industria pague o no a la universidad por ese conocimiento no es relevante porque lo realmente importante es que la industria vaya bien, que genere empleo y que crezca. Poco más o menos, me contestó delante de todos que es-taba loco porque eso tenía que pagarse. Yo creo que no lo había entendido: la industria española es tan débil que hay que ayudarla como sea. Y una de las maneras de ayudarla es transferirle conocimiento porque, si no, algunos no van a sobrevivir. Para mi esa medida sería similar a cuando se conceden descuentos fiscales por in-vertir en investigación. La motivación no debe ser el intercambio financiero, sino procurar que las empresas españolas no desaparezcan para que no se nos pierda parte de la Química Orgá-nica española. Si yo fuera político, diría que hay que ayudar mucho a la industria a nivel científico y a nivel tecnológico y eso creo que, en cierta manera, se ha conseguido en el País Vasco, que ha invertido mucho dinero. Por ejemplo, lo que ha ocurrido con la ría de Bilbao es casi un milagro.

Esa simplificación que tú haces cuando dices que sólo cuando tengamos una industria potente po-dremos tener una Química académica potente, creo que es una reflexión que no se ha expresado muchas veces ya que lo más habitual es hacer ese razonamiento al revés…Efectivamente, los dos ámbitos deben ir de la mano pero, a nivel de las instituciones públicas, creo que es mucho más fácil incidir en la ciencia académica –incluidos los centros como éste– que en el sector empresarial. Debemos transmi-

tirles a los gobiernos –tanto al central como a los autonómicos- la idea de que hay que ayudar a la industria porque, como empiece a ir mal, vamos a acabar siendo un país de turistas.

Yo creo que la industria sí recibe ayudas aunque, quizás, no le lleguen de un modo adecuado. La debilidad del sector químico español –con la excepción de las petroquímicas que, pese a ser muy poderosas tienen poca investigación– se ve en que las empresas no están mucho mejor que hace veinte años porque siguen siendo muy frágiles: se crean pocas nuevas y escasean las de capital español mayoritario. Entonces, o no se están haciendo bien las cosas o es que real-mente es muy difícil hacerlo mejor. Por ejemplo, Andalucía y las dos Castillas no logran despe-gar. En Madrid, sí que hay algo de tejido pero es pequeño, salvo el caso de algunas empresas farmacéuticas.

Además, las grandes empresas son multinacionales por lo cual, los países que las acogen no tienen mucha autonomía porque el centro de decisión está fuera.Yo tengo un amigo alemán –el profesor Limba-ch– que me dice que no entiende por qué que-remos hacer química en España si ya se hace mucha en Alemania. Yo le digo que aquí forma-mos químicos muy buenos en la universidad y me contesta que, en ese caso, lo mejor es que se vayan a trabajar a Alemania porque allí hay

mucho trabajo y que es mejor que en España nos dediquemos a otras cosas, como la energía solar. Yo creo en Europa pero no nos la debe-mos repartir por especialidades: la Química en Alemania y Hungría, la aviónica en Francia e Inglaterra, los teléfonos móviles en Finlandia… Creo que se puede y se debe hacer ciencia de calidad en todos los sitios.

No es habitual que, entre científicos, se haga este tipo de análisis que estamos haciendo porque te puede llevar a conclusiones muy tristes. Hay re-giones como el País Vasco que creen que el futuro pasa por tener empresas intensivas en conoci-miento y que luchan por ponerse a la cabeza en los próximos 15 ó 20 años. La cuestión está en pensar si eso es posible en un momento de globa-lización como en el que estamos actualmente.Yo siempre he creído que un exceso de lucidez puede ser peligroso y que hay momentos en los que hay que decidirse por ir hacia adelante y eso es lo que hay que hacer, aunque por el camino pueda haber nubarrones. En Marsella yo cono-

“El futuro está en que la gente mayor empuje a las nuevas generaciones a asumir riesgos. Debemos asumir lo más difícil: poner el colchón para que no se den un batacazo tremendo”

Page 13: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

13

Diálogos científicos - José Elguero

cí a una de las personas intelectualmente más brillantes que he visto en mi vida. Un chico que había sido pastor hasta que, a los 14 años, un profesor lo vio y le dijo que tenía que aprovechar sus facultades. Comenzó a estudiar e hizo la pri-maria, la secundaria, la carrera y el doctorado en tan sólo cinco o seis años. Todo seguido. Era un tipo brillantísimo, se hizo químico teórico y un día me dijo que sabía lo que podía hacer pero que no le interesaba porque no era lo bastan-te bueno para él. Entonces, decidió retirarse y dedicarse a jugar al tenis y a vivir bien. Era una persona extraordinaria que lo abandonó todo por un exceso de lucidez, ya que pensó que no valía la pena porque no iba a llegar a ser como Pople –premio Nobel y químico de referencia en la época–. A mi eso me pareció una barbaridad porque creo que hay que hacer las cosas y lue-go, ya se verá. Así que, aunque haya problemas sociales o económicos, y aunque esto no pueda ser La Jolla, es igual.

Antes de comenzar la entrevista hemos estado hablando de la institucionalización de la Química en Alemania entre 1820 y el fin de siglo. Hacia 1820 el sueldo de un gran filósofo como Hegel era cinco o diez veces mayor que el de un pro-fesor de Química. Sin embargo esta situación había cambiado ya hacia la mitad del siglo. La Química se institucionalizó porque la sociedad se convenció de que lo que se hacía en los laborato-

rios de Justus von Liebig era importante para que los cerveceros hicieran mejor cerveza, tuviesen menos pérdidas y ganasen mucho más dinero. Sólo cuando se llega a ese punto la Química en Alemania empieza a convertirse en un pilar bási-co de la economía apreciado por la sociedad. En la institucionalización de la Física con Siemens en Alemania o en la de la Química con Perkin en el Reino Unido las historias son similares. Te-niendo esto en cuenta, entiendo que tendremos más posibilidades de llegar lejos con nuestras investigaciones si somos capaces de insertarlas de alguna manera en la sociedad. La sociedad nos tiene que tomar como suyos...

Y eso es válido para la Química, para la Física y para las Ciencias de la Vida, aunque los químicos seamos más conscientes de ello y más modestos en nuestras pretensiones. Si se compara la Biolo-gía Molecular o la Física de Partículas españolas con la que se hace fuera, el resultado es similar al que se obtiene si se compara la Química española con la que se hace fuera de nuestras fronteras. No creo que haya grandes diferencias. Esta situación que estamos comentando no sólo se produce en la Química, sino que también es válido para la Física y para la Biología.Aunque quizás sea más agudo para la Química, se puede decir que es un problema común a to-das las ciencias experimentales en el momento actual.

Por otra parte, si creemos lo que nos dicen los ex-pertos, el dinero público que se invierte en i+d en España–con excepciones como el País Vasco, que invierte un poco por encima– es similar a lo que se invierte en otros países europeos. Por lo tanto, lo que nos falla aquí es la inversión en investi-gación de las empresas. El contribuyente sí está aportando el dinero que tiene que poner, pero lo que nos falta es que el tejido industrial invierta en investigación al nivel que le corresponde. En caso contrario, nunca podremos ser un país puntero y eso influirá, sin duda, en la química que hagamos. Se pueden dar casos excepcionales de personas extremadamente brillantes pero, por ejemplo, el caso de Ramón y Cajal no es trasladable a estos tiempos que vivimos. No. Ya no creo que quede ningún sitio en ciencia en el que, casi un autodidacta, por su propio esfuerzo logre sobrepasar a casi todo lo que se hacía en el mundo. Hoy en día, la ciencia ya no se hace así. Ahora tenemos a un físico muy bueno en Alemania, Ignacio Cirac, que está allí porque tiene muchas más facilidades de tra-bajo. Por eso creo que el tejido industrial que ha conseguido crear el País Vasco es una joya y hay que mimarlo extraordinariamente porque son cosas que se pueden destruir con facilidad y podemos encontrar casos de otras regiones que lo tuvieron en su día pero lo han perdido. Por ejemplo, Cataluña perdió su industria textil en muy poco tiempo, los valencianos y los ali-cantinos perdieron la industria del calzado en

sólo cinco años. Algunos supieron reaccionar y se pasaron a realizar un calzado de diseño, pero muchos no lo supieron ver venir y desapa-recieron en poquísimos años. La industria sufre muchos vaivenes y hay que mantenerse alerta y explorar el futuro para saber cómo van a venir las cosas y, en este caso, no supieron imaginarse el fenómeno de China. La industria farmacéu-tica está relativamente bien informada acerca de lo que les espera porque es una investigación muy tecnológica pero siempre hay que estar atentos a cuáles son los campos emergentes y los nuevos sectores. A los países europeos, sólo les queda la industria de alta tecnología –como la aviónica o la farmacéutica– porque no pue-den competir con países como India, China o Vietnam en terrenos como el acero.

“La industria española es tan débil que hay que transferirle conocimiento gratis, porque si no algunos no van a sobrevivir”

Page 14: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

14

La secuencia se ha llegado a conocer con la precisión deseada.La secuencia del genoma humano tiene numerosas aplicaciones médi-cas y forenses y sirve como base de datos para investigar cuestiones de gran interés biológico, pero de por sí no las resuelve. La biología huma-na se enfrenta en el siglo xxi a tres grandes fronteras de investigación: la transición de simio a humano, el paso de cerebro a mente y la desco-dificación ontogenética. Por transición de simio a humano me refiero al misterio de cómo un particular linaje de simios se convirtió en un linaje de homínidos, del cual surgieron, al cabo de sólo unos pocos millones de años, seres humanos capaces de pensar y amar, que han desarrollado sociedades complejas y mantienen valores éticos, estéticos y religiosos. El genoma humano difiere poco del genoma del chimpancé.Por el enigma del paso de cerebro a mente me refiero a las cuestiones interdependientes de (1) cómo las señales fisicoquímicas que llegan a nuestros órganos sensoriales se transforman en percepciones, sentimien-tos, ideas, argumentos críticos, emociones estéticas, y valores éticos; y (2) cómo, a partir de esta diversidad de experiencias, surge una realidad unitaria, la mente o el yo. El libre albedrío y el lenguaje, las instituciones sociales y políticas, la tecnología y el arte son todos epifenómenos de la mente humana.

Existe un acuerdo general de que el siglo xxi será el siglo de la Biología como el siglo xx fue el siglo de la Física. La investigación biológica cuenta al presente con presupuestos mayores y con más investigadores que la física. Uno de los éxitos mas ampliamente conocidos de la biología actual es la secuencia del genoma humano. El Proyecto del Genoma Humano de los Estados Unidos se inició en 1989, con fondos de dos organismos públicos, el National Institutes of Health -nih- y el Department of Energy -doe- (Una empresa privada, Celera Genomics, comenzó en Estados Uni-dos algo después, pero se unió al proyecto patrocinado por el gobierno al lograr, en gran parte de manera independiente, resultados similares.) El objetivo propuesto fue obtener la secuencia completa de un genoma humano en quince años a un coste aproximado de tres mil millones de dólares. Un esbozo de la secuencia del genoma se completó antes de lo previsto en 2001. En 2003 el Proyecto del Genoma Humano estaba acabado.

Francisco J. Ayala, Universidad de California, Irvine, usa.

Las tres grandes fronteras de la Biología Humana

Francisco J. Ayala. National Medal of Science de EEUU en 2001.

Catedrático de Ciencias Biológicas, Ecología y Biología de la

Evolución; Catedrático de Filosofía y Lógica; y Catedrático de

Filosofía de la Ciencia en la Universidad de California.

Div

ulga

ción

Las

célu

las

nerv

iosa

s fo

rman

con

exio

nes

para

alm

acen

ar la

s m

emor

ias

de c

orto

y la

rgo

plaz

o en

el c

ereb

ro. F

uent

e: M

icha

el A

. Col

icos

, UC

SD.

Page 15: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

15

Divulgación - Las tres grandes fronteras de la Biología Humana

Por descodificación ontogenética me refiero al problema de cómo la infor-mación genética unidimensional codificada en el dna de una única célula se transforma en un ser humano en cuatro dimensiones, una criatura heterogénea en el tiempo y el espacio, el individuo que crece, madura y muere. El cáncer, la enfermedad y el envejecimiento son epifenómenos de la descodificación ontogenética.Estas tres fronteras de la biología humana podrían también ser denomi-nadas como la transformación de simio a humano, la transformación de lo físico en lo mental y la transformación de huevo a adulto. La transfor-mación del huevo en adulto es esencialmente similar, y misteriosa en la misma medida, en humanos y en otros mamíferos. La transformación de simio a humano y la transformación de lo físico en lo mental, tal y como las he definido, son distintivamente humanas. En este breve ensayo pre-sentaré algunas reflexiones sobre cada una de estas tres transformaciones fundamentales que, conjuntamente, definen los fundamentos biológicos del humanum, lo que nos hace específicamente humanos. No hay otro tema de mayores consecuencias para comprendernos a nosotros mismos y nuestro lugar en la naturaleza.

De simio a humanoLa herencia biológica se basa en la transmisión de información genética de los padres a la progenie, en los seres humanos de forma muy similar a otros animales. El dna de los humanos está envasado en dos series de 23 cromosomas, una serie heredada de cada progenitor. El número total de letras del dna (los cuatro nucleótidos representados por a, c, g, t) en cada serie de cromosomas es de unos tres mil millones. El Proyecto del Genoma Humano ha descifrado la secuencia de los tres mil millones de letras del genoma humano (esto es, en una serie de cromosomas; la secuencia del genoma humano varía en torno a una letra entre mil genomas).

Calculo que El Quijote, de Miguel Cervantes, contiene alrededor de tres millones de letras, signos de puntuación y espacios. Escribir la secuencia del dna del genoma humano exigiría mil volúmenes del tamaño de El Quijote. Por supuesto, la secuencia del genoma humano no se imprime en libros, sino que se almacena de forma electrónica, en ordenadores donde la información puede ser recuperada por los investigadores. Pero si se deseara imprimir la información, se necesitarían mil volúmenes sólo para un genoma humano.Los dos genomas (series de cromosomas) de cada individuo son diferentes entre sí, y respecto de los genomas de cualquier otro ser humano (con la insignificante excepción de los gemelos homólogos, que comparten las mismas dos series de genes, pues los gemelos homólogos se desarrollan a partir de un solo óvulo humano fecundado). Por lo tanto, imprimir toda la información del genoma sólo para un individuo exigiría dos mil volú-menes, mil por cada una de las dos series de cromosomas. Seguramente, de nuevo, hay formas más económicas de presentar la información en la segunda serie que hacer la lista de la secuencia completa de letras; por ejemplo, indicando la posición de cada letra variante en la segunda serie relativa a la primera serie. El número de letras variantes entre dos series de un individuo es de unos tres millones, alrededor de una entre mil.Conocer la secuencia del dna humano es un primer paso, pero nada más que un paso, hacia la comprensión de la constitución genética de un ser humano. Pensemos en los mil volúmenes del tamaño del El Quijote. Ahora conocemos la secuencia ordenada de los tres mil millones de letras, pero esta secuencia no proporciona una comprensión de los seres humanos mayor de lo que entenderíamos de los contenidos de mil volúmenes del tamaño del El Quijote escritos en un idioma extraterrestre, del cual sólo supiéramos el alfabeto, sólo porque hubiésemos llegado a descifrar su secuencia de letras.

Page 16: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

16

Divulgación - Las tres grandes fronteras de la Biología Humana

Los seres humanos no son máquinas de genes. La expresión de los genes en los mamíferos tiene lugar en interacción con el medio ambiente, en pautas que son complejas y casi imposibles de predecir en detalle: y es en los detalles donde reside el yo. En los humanos, el “medio ambiente” adquiere una nueva dimensión, que se convierte en la dominante. Los hu-manos manipulan el entorno natural para que se ajuste a las necesidades de su constitución biológica; por ejemplo, utilizando ropa y vivienda para vivir en climas fríos. Además, los productos de la tecnología humana, el arte, la ciencia, las instituciones políticas, y cosas por el estilo son rasgos dominantes de los medios ambientes humanos.Dos características manifiestas de la anatomía humana son la postura erecta y un gran cerebro. En los mamíferos, el tamaño cerebral general-mente es proporcional al tamaño del cuerpo. En relación con la masa corporal, los humanos poseen el mayor (y más complejo) cerebro de todos los mamíferos. El cerebro del chimpancé pesa menos de 450 gramos; el de un gorila ligeramente más. Nuestros antepasados homínidos tenían, desde hace al menos cinco millones de años, un andar bípedo, pero su cerebro era pequeño, de poco más de 450 gramos de peso, hasta hace casi dos millones de años. El tamaño del cerebro comenzó a aumentar de for-ma notable con nuestros antepasados Homo habilis, quienes poseían un cerebro de algo mas de seiscientos gramos, que se convirtieron en fabri-cantes de utensilios (de aquí el nombre de habilis), y que vivieron durante unos pocos cientos de miles de años, empezando hace unos dos millones y medio de años. Sus descendientes, los Homo erectus, tenían cerebros adultos que llegaban a algo más de un kilo de peso. Nuestra especie, el Homo sapiens, tiene un cerebro de más de un kilo y trescientos cincuenta gramos de peso, tres veces el tamaño de los primeros homínidos.Nuestro cerebro no sólo es mucho más grande que el de los chimpancés o los gorilas, sino también mucho más complejo. El córtex cerebral, donde se procesan las funciones cognitivas, es en los humanos desproporcio-nadamente mucho mayor que el resto del cerebro cuando se compara con los simios.El “borrador” de la secuencia del dna del genoma del chimpancé se publi-có el 1 de septiembre de 2005. En las regiones del genoma que comparten los humanos y los chimpancés, las dos especies son un 99% idénticas. Las diferencias pueden parecer muy pequeñas o bastante grandes, de-pendiendo del modo en que uno elija mirarlas: un 1% del total parece una fracción pequeña, pero equivale a una diferencia de 30 millones de letras de dna dados los tres mil millones de cada genoma. El 29% de las enzimas y otras proteínas codificadas por los genes son idénticas en ambas espe-cies. De los cien a varios cientos de aminoácidos que constituyen cada proteína, el 71% de las proteínas no idénticas difieren entre los humanos y los chimpancés en sólo dos aminoácidos, por término medio. Si uno tiene en cuenta segmentos de dna presentes en una especie pero no en la otra, los dos genomas son en torno a un 96% idénticos, en vez del casi 99% idéntico como en el caso de las secuencias de dna que comparten ambas especies. Esto es, una gran cantidad de material genético, en torno a un 3% o unos 90 millones de letras de dna, ha sido insertado o eliminado desde que los humanos y los chimpancés iniciaron sus caminos evolutivos separados, hace entre 6 y 8 millones de años. La mayor parte de este dna no contiene genes que codifiquen proteínas.La comparación de los dos genomas da idea del ritmo de evolución de los genes particulares en las dos especies. Un hallazgo significativo es que los genes activos en el cerebro han cambiado más en el linaje humano que en el del chimpancé. Asimismo es significativo que los genes humanos

que evolucionan más rápidamente sean los que codifican los “factores de transcripción.” Estos son las proteínas “interruptor,” que controlan la expresión de otros genes, es decir, ellas determinan cuándo otros genes se activan o desactivan. En conjunto, se han identificado 585 genes que evolucionan a más velocidad en los humanos que en los chimpancés, entre ellos genes implicados en la resistencia a la malaria y la tuberculosis. (Podría mencionarse que la malaria es una enfermedad grave para los humanos pero no para los chimpancés.)Los genes localizados en el cromosoma y (el cromosoma que determina la masculinidad; las hembras poseen dos cromosomas x, los machos tienen un cromosoma x y uno y, siendo el y mucho más pequeño que el x) han sido mucho mejor protegidos por selección natural en el linaje humano que en el del chimpancé, en el cual varios genes han incorporado mu-taciones incapacitadoras que hacen que los genes no sean funcionales. Hay varias regiones del genoma humano que parecen contener genes beneficiosos que han evolucionado rápidamente en los últimos 250.000 años. Una región contiene el gen foxp₂, implicado en la evolución del habla. Todo este conocimiento (y mucho más de la misma clase que se obtendrá en el futuro) es de enorme interés, pero lo que hasta ahora sabemos avanza muy poco nuestra comprensión acerca de qué cambios genéticos nos hacen distintivamente humanos.No cabe duda de que comparaciones entre el genoma humano y el del chimpancé y una exploración experimental de las funciones asociadas a los genes significativos harán avanzar de forma considerable nuestro conocimiento, a lo largo de la próxima década o dos, de lo que nos hace distintivamente humanos. Seguramente también, sólo llegaremos a tener una completa comprensión biológica si asimismo resolvemos el segundo enigma, la transformación de cerebro a mente, que mencioné antes. Los rasgos distintivos que nos hacen humanos comienzan al principio de la

Diagrama circular que compara diversos genomas. Fuente genomediagram.

Page 17: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

17

Divulgación - Las tres grandes fronteras de la Biología Humana

gestación, mucho antes del nacimiento, al empezar a expresarse de forma gradual la información lineal codificada en el genoma en un individuo cuatridimensional. En un sentido importante, las características huma-nas más distintivas son las que se expresan en el cerebro, las que explican la mente y la identidad humanas. A medida que la comprensión biológica avance, sin duda habrá muchos elementos para la reflexión filosófica.

De cerebro a menteEl cerebro es el órgano humano más complejo y más distintivo. Se com-pone de treinta mil millones de células nerviosas, o neuronas, cada una conectada a muchas otras a través de dos clases de extensiones celulares, conocidas como el axón y las dendritas. Desde el punto de vista evolutivo, el cerebro animal es una poderosa adaptación biológica; permite que un organismo obtenga y procese información sobre las condiciones medio-ambientales y luego se adapte a ellas. Esta capacidad ha sido llevada al límite en los humanos, en los que la extravagante hipertrofia del cerebro hace posible el pensamiento abstracto, el lenguaje, y la tecnología. Por estos medios, la humanidad ha entrado en un nuevo modo de adaptación mucho más potente que el biológico: adaptación por medio de la cultura (véase más adelante).La capacidad más rudimentaria para obtener y procesar información sobre el medio ambiente se encuentra en ciertos microorganismos uni-celulares. El protozoo Paramecium nada, aparentemente al azar, ingirien-do las bacterias que halla a su paso, pero cuando se encuentra con una acidez o salinidad inapropiadas, detiene su avance y comienza en una nueva dirección. El alga unicelular Euglena no sólo evita los ambientes inadecuados sino que busca los adecuados orientándose según la direc-ción de la luz, que percibe a través de un punto fotosensible en la célula. Las plantas no han hecho un progreso mucho mayor. Excepto las que tienen zarcillos que se enroscan a cualquier objeto sólido y las pocas plantas carnívoras que reaccionan al tacto, la mayoría de las plantas sólo reaccionan a gradientes de luz, gravedad y humedad.En los animales la capacidad de obtener y procesar información medio-ambiental es transmitida por el sistema nervioso. Los sistemas nervio-sos más sencillos se encuentran en los corales y las medusas; carecen de coordinación entre las diferentes partes de sus cuerpos, de modo que cualquier parte sólo es capaz de reaccionar cuando es estimulada de forma directa. Los erizos y las estrellas de mar poseen un anillo nervioso y cordones nerviosos radiales que coordinan los estímulos proceden-tes de diversas partes; por lo tanto, responden con acciones directas y unificadas de todo el cuerpo. Sin embargo, no tienen cerebro, y parecen incapaces de aprender de la experiencia. Los platelmintos planarios poseen el cerebro más rudimentario que se conoce; su cerebro central y su sistema nervioso procesan y coordinan la información que recogen las células sensoriales. Estos animales son capaces de un aprendizaje sencillo y por tanto de respuestas variables a estímulos encontrados de forma repetida. Los insectos y sus parientes tienen cerebros aún más avanzados; obtienen precisas señales químicas, acústicas, visuales y táctiles del entorno y las procesan, haciendo posibles comportamientos complejos, particularmente en busca de alimento, selección de pareja y organización social.Los vertebrados – animales con columna vertebral – son capaces de ob-tener y procesar señales mucho más complicadas y responder al entorno de forma más variable que los insectos o cualquier otro invertebrado. El cerebro de los vertebrados contiene un enorme número de neuronas

Ilustración del cerebro. Siglo xix. Fuente: 1870 Gray’s Anatomy Descriptive And Surgical Book.

Neurona del cerebro. Fuente: Biosciences Imaging Gp, Soton.

Page 18: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

18

Divulgación - Las tres grandes fronteras de la Biología Humana

asociativas dispuestas en diseños complejos. En los vertebrados la capa-cidad de reaccionar a la información medioambiental está relacionada con un aumento en el tamaño relativo de los hemisferios cerebrales y del neopalio, un órgano que se ocupa de asociar y coordinar las señales pro-cedentes de todos los receptores y centros del cerebro. En los mamíferos, el neopalio se ha expandido y se ha convertido en el córtex cerebral. Los humanos tienen un cerebro muy grande en relación con el tamaño de su cuerpo, y un córtex cerebral que es desproporcionadamente grande y complejo incluso para el tamaño de su cerebro. El pensamiento abstracto, el lenguaje simbólico, la organización social compleja, los valores, la ética y la religión son manifestaciones de la maravillosa capacidad del cerebro humano para obtener información sobre el mundo externo e integrar dicha información y reaccionar de manera flexible a lo que percibe.Con el avanzado desarrollo del cerebro humano, la evolución biológica se ha superado a sí misma, inaugurando un nuevo modo de evolución: la adaptación a través de la manipulación tecnológica del medio ambiente. Los organismos se adaptan al entorno por medio de la selección natu-ral, cambiando su constitución genética a lo largo de generaciones para ajustarse a las exigencias del entorno. Los humanos (y sólo los humanos al menos en un grado importante), han desarrollado la capacidad de adaptarse a entornos hostiles modificando dichos entornos de acuerdo a las necesidades de sus genes. El descubrimiento del fuego y la fabricación de ropa y refugio permitieron a los humanos esparcirse desde las cálidas zonas tropicales y subtropicales del Mundo Antiguo, a las cuales estamos biológicamente adaptados, a casi toda la tierra; no era necesario que los humanos errantes esperasen hasta que los genes evolucionasen para proporcionarles protección anatómica frente a las bajas temperaturas por medio de pelaje o pelo. Tampoco los humanos están aguardando el mo-mento futuro en que pudieran tener alas o branquias; hemos conquistado el aire y los mares con aparatos diseñados para volar y navegar, aviones y barcos. Es el cerebro humano (la mente humana) lo que ha hecho que la humanidad sea la más exitosa, según los parámetros más significativos, de las especies vivas.No hay suficientes bits de información en la secuencia completa del dna de un genoma humano para especificar los billones de conexiones exis-tentes entre los treinta mil millones de neuronas del cerebro humano. En consecuencia, las instrucciones genéticas deben organizarse en circuitos de control que operan a distintos niveles jerárquicos, como se describió antes, de modo que una instrucción a un nivel es transportada a través de muchos canales a niveles inferiores en la jerarquía de los circuitos de control.En las últimas dos décadas, la neurobiología se ha convertido en una de las disciplinas que han avanzado más rápidamente. Una inversión mayor de recursos económicos y humanos ha provocado un índice de descubrimientos sin precedentes. Se ha aprendido mucho sobre cómo la luz, el sonido, la temperatura, la resistencia y las impresiones quími-cas que reciben nuestros órganos sensitivos ponen en funcionamien-to la emulsión de transmisores químicos y las diferencias de potencial eléctrico que transmiten las señales a través de los nervios al cerebro y a otras partes del cuerpo. Asimismo se ha aprendido mucho sobre cómo los canales neuronales encargados de la transmisión de información se refuerzan por el uso o pueden ser sustituidos tras sufrir algún daño; sobre qué neuronas o grupos de neuronas se encargan de procesar la informa-ción procedente de un órgano particular o de un lugar medioambiental; y sobre otros muchos asuntos. Pero, a pesar de todo este progreso, la

Ciencia, tecnología, arte, política... la evolución biológica se ha superado a sí

misma inaugurando un nuevo modo de evolución. Rascacielos en Malmö, Suecia.

Page 19: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

19

Divulgación - Las tres grandes fronteras de la Biología Humana

neurobiología sigue siendo una disciplina naciente, en una etapa de de-sarrollo teórico tal vez comparable a la de la genética a comienzos del siglo xx. Las cosas que más cuentan siguen envueltas en el misterio: de qué modo los fenómenos físicos se convierten en experiencias mentales (los sentimientos y las sensaciones, llamadas qualia por los filósofos, que aportan los elementos de la conciencia), y cómo a partir de la diversidad de estas experiencias aparece la mente, una realidad con propiedades unitarias, como el libre albedrío y la conciencia del yo, que persisten a lo largo de la vida de un individuo.No creo que estos misterios sean insondables; más bien, son enigmas que la mente humana puede resolver con los métodos de la ciencia e iluminar con análisis filosófico y reflexión. Y apuesto a que, a lo largo del próximo medio siglo más o menos, muchos de estos enigmas serán resueltos. Es-taremos entonces bien de camino para responder al imperativo bíblico: “conócete a ti mismo.”

De huevo a adultoLas instrucciones que guían el proceso ontogenético, o la transformación del huevo en adulto, están contenidas en el material hereditario. La teo-ría de la herencia biológica fue formulada por el monje agustino Gregor Mendel en 1866, pero fue conocida por los biólogos en general en 1900: la información genética está contenida en factores discretos, o genes, que existen en pares, uno que recibimos del padre y otro de la madre. El primer paso hacia la comprensión de la naturaleza de los genes fue com-pletado durante el primer cuarto del siglo XX. Se estableció que los genes forman parte de los cromosomas, los cuerpos filamentosos presentes en el núcleo de la célula, y que se disponían de manera lineal a lo largo de los cromosomas. Hizo falta otro cuarto de siglo para determinar la composi-ción química de los genes: el ácido desoxirribonucleico. El dna, a su vez, consiste en cuatro grupos químicos (nucleótidos) organizados en largas estructuras en doble hélice. La información genética está contenida en la secuencia lineal de los cuatro nucleótidos, de la misma manera que la información semántica de una frase en español está contenida en la secuencia particular de las letras del alfabeto.El primer paso importante hacia la comprensión de como se descodi-fica la información genética se dio en 1941 cuando Geroge W. Beadle y Edward L. Tatum demostraron que los genes determinan la síntesis de enzimas; los enzimas son catalizadores que controlan todas las reac-ciones químicas de los seres vivos. Más tarde se supo que una serie de tres nucleótidos consecutivos en un gen codifica para un aminóacido, lo cual da cuenta de la correspondencia lineal precisa entre una secuencia codificante de nucleótidos y la secuencia de aminoácidos que configura el enzima codificado.Pero las reacciones químicas deben ocurrir de una manera ordenada; los organismos deben tener formas de conectar y desconectar genes. El primer sistema de control se descubrió en 1961 por François Jacob y Jacques Monod para un gen que determina la síntesis de un enzima que digiere azúcar en la bacteria Escherichia coli. El gen se conecta y se desconecta mediante un sistema de varios interruptores consistentes en secuencias cortas de dna adyacentes a la parte codificadora del gen. Los interruptores se activan mediante circuitos de retroalimentación que implican moléculas sintetizadas por otros genes. Desde aquel tiempo, se han descubierto una variedad de mecanismos de control genético en bacterias y en otros organismos y estos dos elementos suelen estar presentes: los circuitos de retroalimentación y las secuencias cortas que

actúan como interruptores. Los circuitos de retroalimentación aseguran que la presencia de una sustancia en la célula induce la síntesis del enzima requerido para digerirla y que un exceso del enzima en la célula reprime su propia síntesis. (Por ejemplo, el enzima que digiere azúcar en E. coli se conecta o desconecta como consecuencia de la presencia o ausencia del azúcar a digerir).La investigación de los mecanismos de control genético en mamíferos (y otros organismos complejos) se hizo posible a mediados de la década de 1970 con el desarrollo de las técnicas de dna recombinante. Esta tecnolo-gía hizo factible el aislamiento de genes individuales (y otras secuencias de dna) y su multiplicación, o clonación, para obtener las cantidades necesarias para determinar su secuencia de nucleótidos. Un descubri-miento inesperado fue que la mayoría de los genes están fragmentados: la secuencia codificadora de un gen está dividida en varios fragmentos separados unos de otros por segmentos de dna no codificantes. Además de la sucesión alternante de segmentos codificantes y no codificantes, los genes de mamíferos, como los de las bacterias, contienen secuencias cortas de control que actúan como interruptores y señales de dónde em-pieza y termina la secuencia codificadora.Todavía queda mucho por descubrir acerca de los mecanismos de control de los genes de mamíferos. La extremada velocidad a la que avanza la bio-logía molecular hace razonable anticipar que los principales prototipos de los sistemas de control genético serán bien conocidos dentro de una década o dos. Pero la comprensión de los mecanismos de control de los genes individuales no es sino el primer paso principal hacia la resolución del misterio de la descodificación ontogenética. El segundo paso principal será la solución del rompecabezas de la diferenciación.Un ser humano consta de un trillón de células de unos 200 tipos diferen-tes, todas derivadas por división secuencial a partir de un óvulo fecunda-do, una célula única de 0,1 milímetros de diámetro. Las primeras pocas divisiones celulares dan lugar a una masa esférica de células amorfas. Las divisiones sucesivas se acompañan de la aparición de pliegues y hendidu-

Óvulo humano tres días después de ser fecundado.

Page 20: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

20

Divulgación - Las tres grandes fronteras de la Biología Humana

ras en la masa de células y, más tarde, de la variedad de tejidos, órganos y extremidades característicos de un individuo humano. El conjunto com-pleto de genes se duplica en cada división celular, de manera que cada célula contiene dos genomas completos. Además, los experimentos con otros animales indican que todos los genes en cualquier célula tienen el potencial de ser activados. Aún así, en células diferentes, los conjuntos de genes activos son diferentes. Esto es así para que las células se diferencien: una neurona, una célula muscular y una de la piel son muy diferentes en tamaño y configuración. Y ha de continuar así después de la diferencia-ción, porque células diferentes desempeñan funciones diferentes, que son controladas por genes diferentes.La información que controla la diferenciación celular y de los órganos está, por supuesto, contenida en al secuencia del dna, pero sólo en frag-mentos cortos. ¿Qué clase de secuencias son estos elementos de control, dónde se localizan, y cómo se descodifican? En mamíferos hay circuitos de control que operan a niveles superiores a los mecanismos de control que activan y desactivan los genes individuales. Los circuitos superiores actúan más sobre conjuntos de genes que sobre genes individuales. Lo que se necesita averiguar para elucidar la transformación del huevo en adulto son los detalles de cómo se controlan estos grupos de genes, así como muchas otras cuestiones relacionadas. La secuencia de nucleótidos de los elementos de control cortos debe de ser determinada, como ya lo ha sido en bastantes casos, pero esto supone un esfuerzo menor que apenas beneficiará nuestro recorrido a través de los tres mil millones de pares de nucleótidos que constituyen el genoma humano.La elucidación de la descodificación ontogenética reportará enormes beneficios a la humanidad. Este conocimiento permitirá comprender los modos de acción de las enfermedades genéticas complejas, incluyendo el cáncer y, por tanto, su cura. También nos puede ofrecer una comprensión del proceso de envejecimiento, la implacable enfermedad que mata a todo aquél que ha vencido al resto de las enfermedades.El cáncer es una anomalía de la descodificación ontogenética: las célu-las proliferan aunque el bienestar del organismo exige otra cosa. Se han identificado genes individuales (oncogenes) implicados en la causa de formas particulares de cáncer. Pero si una célula se tornará cancerosa o no es algo que depende de la interacción del oncogén con otros genes y con el ambiente interno y externo de la célula. El envejecimiento es también un fallo del proceso de descodificación ontogenética: las células son incapaces de realizar las funciones impresas en su perfil genético o ya no son capaces de proliferar y reemplazar las células muertas.En 2007, el gasto sanitario en los Estados Unidos ascendió a más de un millón de millones de dólares. La mayoría del gasto fue en terapias de apoyo y cuidados tecnológicos para compensar los efectos debilitadores de las enfermedades que no sabemos cómo prevenir o curar de verdad. Por el contrario, aquellas enfermedades de las que se conoce la causa (por ejemplo, la tuberculosis, sífilis, viruela y enfermedades virales infantiles) actualmente se pueden tratar con costes relativamente bajos y con resul-tados óptimos. Apenas un 3% de los gastos sanitarios estatales se dedica a investigación básica. Duplicar o triplicar este porcentaje supondría un modesto aumento de los gastos totales, pero rendiría grandes ahorros en el futuro próximo en la medida que el cáncer, las enfermedades degene-rativas y otras enfermedades debilitadoras se pudiesen prevenir o curar y, por tanto, ya no hiciese falta la actual terapia cara y, a fin de cuentas, ineficaz. España debería invertir mucho más de lo que hace actualmente en la investigación básica relacionada con la medicina.

Page 21: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

21

Las tres grandes fronteras de la Biología Humana

C08FI81_1_Magellan_A.indd 1 26-09-2008 16:32:21

Page 22: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

22

pacífico y rechazo toda aventura dudosa. Pero por entonces había estado luchando sin éxito durante seis años (desde 1894) con el problema del equilibrio entre radiación y materia y sabía que este problema tenía una importancia fundamental para la física; también conocía la fórmula que expresa la distribución de la energía en los espectros normales (ley de ra-diación de un cuerpo negro). Por consiguiente, había que encontrar, costase lo que costase, una interpretación teórica... Boltzmann había explicado cómo se establece el equilibrio termodinámico mediante un equilibrio estadístico, y si se aplica semejante método al equilibrio entre la materia y la radiación, se encuentra que se puede evitar la continua transformación de energía en radiación suponiendo que la energía está obligada, desde el comienzo, a permanecer agrupada en ciertos cuantos. Esta fue una supo-sición puramente formal y en realidad no pensé mucho en ella”.

Planck no pudo aceptar tal conclusión. De una forma u otra se pasó una buena parte del resto de su vida tratando de evitarla. Más de treinta años después, en una carta que escribió el 7 de octubre de 1931 al físico estado-unidense Robert W. Wood, recordó que, “resumido brevemente, se puede describir lo que hice como un acto de desesperación. Por naturaleza soy

José Manuel Sánchez Ron. Licenciado en Ciencias Físicas por la

Universidad Complutense de Madrid (1971) y doctor en Física por

la Universidad de Londres (1978). Desde 1994 es catedrático de

Historia de la Ciencia en el Departamento de Física Teórica de la

Universidad Autónoma de Madrid. Miembro de la Real Academia

Española de la Lengua y de la Real Academia de Ciencias Exactas,

Físicas y Naturales.

El 23 de abril de este año, 2008, se cumplieron 150 años del nacimiento de un físico, Max Planck (1858-1947), que puso en marcha una de las mayo-res grandes revoluciones de toda la historia de la ciencia, la de la física cuántica, cuyos frutos terminarían cambiando el mundo. Fue en 1900 cuando Planck obtuvo el resultado por el que le recordamos, un resultado que no encajaba bien con la continuidad que la física suponía hasta entonces para la radiación electromagnética. Estrictamente, lo que halló es que para explicar la ley –que él mismo había introducido muy poco antes, de forma se-miempírica– de la radiación de un cuerpo negro (radiación de todas las longitudes de onda en equilibrio) era necesario utilizar una expresión asocia-da de alguna manera a la radiación electromagnética: su célebre fórmula E=hv esto es, energía igual a una constante (luego denominada Constante de Planck) multiplicada por la frecuencia (el inverso de la longitud de onda) de la radiación. En principio, la lectura inmediata de este resultado es que la radiación electromagnética, y por consiguiente la luz, hasta entonces, repito, considerada una onda continua, estaba compuesta de “partícu-las” independientes, de cuantos como finalmente fueron denominados, cada uno de los cuales dotado de una energía igual a hv.

José Manuel Sánchez Ron, catedrático de Historia de la Ciencia en la Universidad Autónoma de Madrid.

Div

ulga

ción

Max Planck, revolucionario a pesar suyo

Page 23: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

23

Divulgación - Max Planck, revolucionario a pesar suyo

Recurrir a la explicación que Boltzmann había dado de la entropía, en la que se utilizaban probabilidades fue especialmente doloroso para Planck porque lo que él siempre buscó en la ciencia son absolutos; de hecho, lo que estaba intentando cuando llegó a la expresión para la radiación de un cuerpo negro, que le llevaría a los cuantos, era explicar el creci-miento de la entropía sin recurrir a las probabilidades de Boltzmann. Así es, no obstante, la investigación científica: puede conducir a lugares insospechados.Fue un joven y todavía desconocido físico empleado en la Oficina de Patentes de Berna de nombre Albert Einstein quien, cinco años más tar-de (1905), se tomó en serio la discontinuidad que Planck no aceptaba, mostrando que para explicar una serie de fenómenos (como el célebre efecto fotoeléctrico) era necesario suponer que a veces la luz se comporta como un conjunto de cuantos de luz regidos por los resultados de Planck, y otras como una onda continua. Por este trabajo, Einstein recibió el pre-mio Nobel de Física de 1921. Tres años antes, el galardón había recaído en Planck, “en reconocimiento”, como se lee en el comunicado oficial de la Academia Sueca, “a los servicios que ha prestado al avance de la Física con su descubrimiento de los cuantos de energía”.Hasta aquí lo esencial de las contribuciones científicas de Planck (nunca volvió a alcanzar alturas comparables a las de 1900), pero su biografía no se limita a esto y contiene apartados de gran interés; es preciso, por consiguiente, volver atrás.

Max PlanckMax Karl Ernst Ludwig Planck nació en 1858 en Kiel, en cuya universidad su padre, Johann Julius Wilhelm von Planck, era profesor de Derecho. Cuando llegó el momento de elegir carrera universitaria, el joven Max dudó entre música, filología antigua y física. A pesar de que cuando el físico de Múnich (a donde su familia se había trasladado al obtener su padre una cátedra allí) Philipp von Jolly le aconsejó que no estudiara física, ya que todo estaba descubierto después de que los principios de la termodinámica hubiesen sido establecidos, y que no quedaban más que algunas lagunas por completar, Planck eligió finalmente seguir la carrera de Física en la Universidad de Múnich, estudios que comenzó el semestre de invierno de 1874-75. Encontramos algunas claves que ex-plican esa decisión en una carta que Planck escribió muchos años des-pués, el 14 de diciembre de 1930, a Joseph Strasser: “Yo podría haberme convertido también en un filólogo o en un historiador. Lo que me llevó a las ciencias exactas surgió de circunstancias más bien externas: un curso de matemáticas del profesor Gustav Bauer, al que asistí, en la uni-versidad, suscitó en mi una gran satisfacción interior y me abrió nuevos horizontes. El hecho de que terminase pasándome de las matemáticas puras a la física tuvo que ver con mi pasión por las cuestiones relativas a la concepción del mundo; cuestiones que, sin duda, no podían ser resueltas por las matemáticas”.Desde 1877 y hasta 1879 continuó sus estudios en Berlín, donde pudo seguir los cursos de tres gigantes de la ciencia: el fisiólogo y físico Her-mann von Helmholtz, el matemático Karl Weierstrass y el físico Gustav Kirchhoff. Sus clases, sin embargo, dejaban que desear: Helmholtz, re-cordaría Planck en su autobiografía científica, “no preparaba sus clases; se interrumpía constantemente para buscar en un cuaderno los datos necesarios; por otra parte, cometía constantemente errores de cálculo en la pizarra, y daba la impresión de aburrirse tanto como nosotros en su curso”. Kirchhoff sí preparaba con cuidado sus lecciones: “cada

frase estaba en su lugar. No faltaba ninguna palabra, no sobraba nada. Pero daba la impresión de que todo estaba aprendido de memoria, lo que le convertía en árido y monótono. Admirábamos al orador, pero no lo que decía”. En semejantes circunstancias, “el único recurso que me permitía satisfacer mi sed de conocimientos era leer las obras que me interesaban; se trataba, bien entendido, de las que se relacionaban con el principio de energía. Fue así como descubrí los tratados de Rudolf Clausius, cuya claridad me impresionó profundamente y en los que me sumergí con entusiasmo creciente. Admiraba especialmente la formu-lación exacta que daba de los dos principios de la termodinámica (el la de la conservación de la energía y el del crecimiento de la entropía) y la relación existente entre ellos”.Clausius formó, junto a Helmholtz y Kirchhoff, no importa lo poco atractivas que le resultasen las clases de éstos, los pilares sobre los que construyó su saber físico. De hecho, siguiendo el ejemplo de Clausius, Planck hizo del estudio de la termodinámica el centro principal de su atención cuando se convirtió en un físico profesional. Comenzando con su tesis doctoral, que dedicó al tema del papel de los procesos irrever-sibles en la definición de entropía, y que presentó en Múnich el 12 de febrero de 1879.En 1880 y tras presentar la correspondiente Habilitación, pudo enseñar, como privatdozent, en Múnich. En 1885, y contando ya en su haber con publicaciones de cierta notoriedad, fue designado profesor extraordina-rio (esto es, sin cátedra) de Física en la Universidad de Kiel, sustituyendo a Heinrich Hertz, el discípulo favorito de Helmholtz (Hertz, para quien Kiel estaba preparando convertir el puesto de profesor extraordinario que ocupaba en el de catedrático, aceptó una oferta de Karlsruhe).En Kiel, la carrera científica de Planck, centrada todavía en el segundo principio de la termodinámica, continuó avanzando. Después de cuatro años allí, con su currículum ya ampliado con un libro (dedicado al prin-cipio de conservación de la energía, una de sus grandes pasiones científi-cas), le llegó una nueva oportunidad: nada menos que de la Universidad de Berlín, la universidad de la capital de Prusia, centro neurálgico del nuevo Imperio alemán, que iba camino de convertirse también en una de las capitales del mundo. Una vez más, a quien Berlín realmente quería era a Hertz, pero éste aceptó una oferta de Bonn. En su lugar, aunque como profesor extraordinario, eligieron a Planck. Tres años después, en 1892, recibió el nombramiento de catedrático. Y dos años más tarde fue elegido miembro ordinario de la Academia Prusiana de Ciencias.

Hermann von Helmholtz Karl Weierstrass Gustav Kirchhoff

Page 24: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

24

Divulgación - Max Planck, revolucionario a pesar suyo

Llegaba a la cumbre de su profesión. En Berlín pasó el resto de su vida, alcanzando gran notoriedad profesional; llegó, de hecho, a convertirse en algo así como el decano, o representante, de la ciencia germana. En lo personal, sin embargo, su vida fue muy diferente.El 31 de marzo de 1887, Planck se casó con Marie Merck. Tuvieron cua-tro hijos: dos varones y dos gemelas. El primer golpe fue la muerte de Marie, en octubre de 1909. El 26 de mayo de 1916 llegó el segundo: su hijo mayor, Karl, murió en Verdún, de heridas sufridas luchando en las filas del ejército alemán en la Primera Guerra Mundial. El 15 de mayo de 1917, su hija Grete falleció una semana después de dar a luz a su primer hijo. Emma, la hermana gemela, se ocupó entonces del niño, y terminó casándose en enero de 1919 con el viudo. Antes de que acabase el año, el 21 de noviembre, tuvo exactamente el mismo final que su hermana.La tragedia casi destruyó a Planck. El 21 de diciembre, escribía a Hendrik Lorentz, que compartía con él muchos rasgos de carácter: “ahora lloro amargamente a mis dos queridas hijas, y me siento robado y empobrecido. ¡Ha habido momentos en los que he dudado del valor de la propia vida!”Tampoco sobrevivió, aunque viviese más, su otro hijo, Erwin, con quien estaba particularmente unido. Erwin fue ejecutado el 23 de enero de 1945, acusado de haber participado en el famoso intento de acabar con la vida de Hitler. Parece que no participó en él, aunque sin duda conocía a muchos de los conspiradores y simpatizaba con su causa. Max Planck movió cielo y tierra para intentar que la pena de muerte fuera conmutada, y creyó haberlo logrado: el 18 de febrero supo que el perdón llegaría pronto. Pero cinco días después lo que llegó fue la noticia del ajusticiamiento. “Mi pena no puede expresarse en palabras”, escribió (4 de febrero) a Arnold Sommerfeld.Por si fuera poco lo que he señalado, la noche del 15 de febrero de 1944, durante un formidable ataque aéreo de los aliados, su casa de Berlín, con su espléndida biblioteca y papeles personales, fue destruida com-pletamente. Nada se salvó. Especialmente dramáticos fueron los últimos

momentos de la guerra. Para escapar de los bombardeos de Berlín, Max y su segunda esposa, Marga, se trasladaron a Rogätz, en la orilla oeste del Elba, cerca de Magdeburg. Cuando Rogätz se convirtió también en un campo de batalla, los Planck tuvieron que vagar, escondiéndose, por los bosques, durmiendo en donde podían. Allí fueron encontrados por militares estadounidenses.A la luz de tragedias como éstas, se entiende mejor lo que Planck dijo en una conferencia que pronunció en 1941 (todavía, por tanto, no había perdido a Erwin), Sentido y límites de la ciencia exacta:

“Ninguno de nosotros poseemos por nacimiento derecho a ser feli-ces, a tener éxito, a prosperar en la vida. Por ello, debemos acoger cada disposición favorable de la providencia, cada hora de feli-cidad, como un regalo inmerecido que incluso nos impone una obligación. Lo único que con seguridad podemos reclamar como propio, el mayor bien del que ningún poder del mundo nos puede privar y que a la larga nos puede contentar más que ninguna otra cosa, es la pureza del espíritu que se manifiesta en el concienzudo cumplimiento del deber personal. Y aquel a quien le fuera conce-dida la fortuna de participar en la edificación de la ciencia exacta encontrará... su placer y su felicidad en la certeza de haber explo-rado lo explorable y de venerar serenamente lo inexplorable”.

“La pureza del espíritu que se manifiesta en el concienzudo cumplimien-to del deber personal”, decía, y ciertamente él poseyó tal atributo. Planck fue un hombre de honor. Un hombre de honor que vivió en tiempos difíciles, los de las dos guerras mundiales que asolaron el mundo en la primera mitad del siglo xx, y en las que su patria, Alemania, desempeñó un papel central, siendo finalmente derrotada. Sirvió con lealtad a la monarquía del káiser Guillermo, a la República de Weimar, al régimen de Hitler y a la Alemania controlada por los aliados que surgió al término de la Segunda Guerra Mundial.

Foto tomada durante la quinta conferencia de Mecánica Cuántica en Solvay, Bruselas, en 1927. Entre ellos estan Albert Einstein, Marie Curie, Max Planck, Erwin

Schroedinger, Heisenberg, Dirac, Niels Bohr… 17 de los 29 asistentes a esta conferencia eran o se convirtieron en premios Nobel.

Page 25: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

25

Divulgación - Max Planck, revolucionario a pesar suyo

Un hombre de honor en tiempos difícilesEn tiempos difíciles es, por supuesto, muy complicado comportarse de forma que satisfaga a todos, especialmente a aquellos que juzgan lo que sucedió en el pasado en situaciones que ellos no vivieron. Planck, por ejemplo, firmó al poco de comenzar la Primera Guerra Mundial un vergonzante nacionalista Llamamiento al mundo civilizado en el que se defendían las (supuestas) razones por las que Alemania creía justificado lo que hacía, pero tengamos en cuenta que no han sido, al fin y al cabo, demasiados los que en el pasado han sabido librarse de la exaltación patriótica que acompaña a las guerras. Debemos recordar, asimismo, que durante el régimen de Hitler, Planck se esforzó por lograr que sus colegas de origen judío no fuesen perseguidos como lo fueron. Cierto: no se enfrentó directamente a Hitler y a los suyos, pero podemos recordar ocasiones en las que se comportó con una gran dignidad.Un magnífico ejemplo en este sentido tiene que ver con el químico Fritz Haber.Muy poco después de llegar al poder (enero de 1933), Hitler comenzó a implementar su ideología racial. El 7 de abril, se promulgaba la famosa ley de restauración de la carrera del funcionario, uno de cuyos puntos afirmaba que serían “apartados de sus puestos todos los funcionarios que no sean de origen ario”, aunque se añadía que no se aplicaría la ley “a aquellos funcionarios que lo fuesen el 1 de agosto de 1914, o que luchasen en el frente defendiendo al Imperio Alemán o a sus aliados durante la guerra”. Haber, el “padre de la guerra química” durante la Primera Gue-rra Mundial, era uno de los que podían acogerse a semejante excepción. Pero no lo hizo. El 30 de abril dirigía la siguiente carta al ministro para la Ciencia, Arte y Educación:

“Honorable señor:Por la presente le solicito respetuosamente mi jubilación, con fecha del 1 de octubre de 1933, de mi puesto en Prusia como director de uno de los Institutos Káiser Guillermo, así como de mi secundario puesto de catedrático en la Universidad de Berlín. De acuerdo con las previsiones de la Ley para Empleados Gubernamentales del 7 de abril de 1933, que se ordenó fuese aplicada a los Institutos de la Sociedad Káiser Guillermo, tengo derecho a conservar mi puesto a pesar de ser descendiente de abuelos y padres judíos. Sin em-bargo, no deseo aprovecharme de este permiso más allá de lo que sea necesario para abandonar de manera ordenada los deberes científicos y administrativos de mis cargos...Mi decisión de pedir la jubilación ha surgido del contraste entre la tradición investigadora en la que he vivido hasta ahora y los puntos de vista diferentes que usted, Sr. Ministro, y su Ministerio defienden como protagonistas del actual gran movimiento nacio-nal. En mi puesto científico, mi tradición exige que al escoger mis colaboradores tenga en cuenta solamente los currículos profesio-nales y personales de los solicitantes, independientemente de sus ascendientes raciales”.

Tras abandonar sus puestos en Alemania, Haber se trasladó a Inglaterra, invitado por la Universidad de Cambridge. Aparentemente, ni el ambiente ni el clima ayudaron a levantar su estado anímico y energía, falleciendo el 30 de enero de 1934 cuando se dirigía a Basilea a pasar unas vacaciones. Y en este punto aparece Planck.A instancias de Max von Laue, Planck, entonces presidente de la Sociedad Káiser Guillermo (una organización financiada en gran parte con fondos privados, aunque con conexiones con la Universidad, lo que hacía que muchos de sus miembros fuesen también funcionarios), decidió organizar

una sesión pública para honrar la memoria de Haber. El Gobierno y el partido nazi intentaron impedir tal sesión, aunque únicamente pudieron prohibir a los funcionarios públicos que asistieran a ella. La sesión se ce-lebró en una sala abarrotada, con muchas mujeres asistiendo en lugar de sus maridos, obligados a no participar. Otto Hahn pronunció el discurso principal, leyendo también el texto preparado por el químico Karl Bon-hoeffer, un estudiante de Haber, que como funcionario civil también se vio impedido de asistir. Al final de la ceremonia, Planck declaró: “Haber fue leal con nosotros; nosotros seremos leales con él”.Seamos también nosotros leales con la memoria de Max Planck, y recor-démoslo, a él un hombre de orden que puso en marcha una grandiosa revolución científica.

Fritz Haber

Page 26: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

26

Inve

stig

ació

n ho

y

Page 27: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

27

científicos siempre han conversado sin problemas ni fronteras sobre cualquier contenido, el clima y el cambio climático es un tema co-mún, más aún, es un enemigo común para cualquier miembro de la humanidad.

4 Urgen espacios creíbles de encuentro donde crear opinión científica y en los últimos 20 años hemos encontrado por lo menos una clase de espacios que están funcionando. No son las universidades, ni las es-cuelas, ni las empresas, ni las diferentes clases de administraciones, ni los clubes de opinión, ni las sedes de instituciones bienintencionadas tipo ong, ni la calle, ni los templos... Son, créanme, los museos de la ciencia. Pero no cualquier museo de ciencia, sino los buenos museos de ciencia concebidos como herramientas de cambio social para este siglo que empezamos. Este texto intenta convencer de esta idea.

Lo que sigue en este breve ensayo resulta de más de 20 años de quehacer diario en el Museu de la Ciencia de la Fundación La Caixa y de la concep-ción del nuevo Museo CosmoCaixa que sustituyó al primero en 2004. Las ideas que se exponen a continuación surgen de la voluntad de estimular un cambio en la actitud del ciudadano en favor del conocimiento y del método científico, las ideas que hemos puesto a trabajar en esta nueva institución que hoy, en 2008, ya se pueden considerar como una referencia internacional. No son dogma, sino una opción para crear un instrumento de cambio social útil a la hora de organizar la convivencia de los ciudada-

A estas alturas de la historia, principios del siglo xxi, hay unas pocas reflexiones que parecen fuera de toda duda: 1 La ciencia es la forma de conocimiento que más influye en la conviven-

cia diaria de las personas (no era así hace medio siglo, ni hace veinte años... ni siquiera hace cinco años).

2 El proceso de globalización de la humanidad se puede hacer bien o mal, pero no parece haber dudas de que será una realidad. Si se hace bien, el futuro estará bien encarrilado, si se hace mal será una tragedia de una dimensión inestimable.

3 Quizá sólo haya dos temas que siempre han estado globalizados casi por definición: la calidad de nuestro entorno físico y la ciencia. Los

Jorge Wagensberg. Profesor de Teoría de los Procesos Irreversibles

en la Facultad de Física de la Universidad de Barcelona y Director

del Área de Medio Ambiente y Ciencia de la Fundació La Caixa.

Creador y director de la serie Metatemas de Tusquets Editores.

Director del Museu de la Ciència de la Fundació La Caixa entre

1991 y 2005. En 2007 recibe La Creu Sant Jordi de la Generalitat

de Catalunya. Además, ha publicado un centenar de trabajos de

investigación en dominios tan diversos como Termodinámica,

Matemáticas, Biofísica, Microbiología, Paleontología, Entomología,

Museología Científica y Filosofía de la Ciencia.

Jorge Wagensberg, director del Área de Medio Ambiente y Ciencia de la Fundació La Caixa.

Ciencia y sociedad en el siglo XXI

Inte

rior

del

edi

ficio

Cos

moC

aixa

, Bar

celo

na. F

oto:

Llu

is R

ibes

Por

tillo

.

Page 28: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

28

Investigación hoy - Ciencia y sociedad en el siglo xxi

nos en el siglo xxi. He aquí la propuesta: una red de museos de la ciencia europeos como espacio común de encuentro de los ciudadanos. Se puede asegurar que la red ya existe. Sólo falta que los centros, los nudos de esta red se ajusten a una nueva ambición.Empezaré por relatar una anécdota de donde nace toda la política de actividades que practicamos y que proponemos:

Barcelona, martes, 21 de abril de 1992, 19.00 horas. Sala del auditorio principal. Dentro del ciclo “Las Tardes del Museo” hoy vienen tres im-portantes científicos del csic (Consejo Superior de Investigaciones Científicas) para debatir con la audiencia sobre el tema: El Mediterrá-neo aún no ha muerto. Comparece un químico ambiental, director de un centro de investigación, un oceanógrafo, también director de un centro de estudios avanzados, y un biólogo investigador del Instituto de Ciencias del Mar. Se trata, en una palabra, de la ciencia oficial. La sala con aforo para 200 personas está llena a rebosar, igual que otra auxiliar de 150 desde donde se puede seguir la sesión por un circuito cerrado de televisión. La expectación por la velada es espléndida. A mí me toca hacer las presentaciones y moderar el debate. Uno tras otro los científicos exhiben datos y exponen sus argumentos ayudándose con lujo de datos frescos, límpidos gráficos y atractivas fotografías. Un cierto optimismo se propaga por la sala. Se define por ejemplo una medida de la tasa de renovación de las aguas del mediterráneo. Al pare-cer, desde que una molécula de agua entra por el estrecho de Gibraltar desde el océano Atlántico, hasta que vuelve a salir, media un tiempo de cien años. Este es el dato. Y la interpretación de los científicos: el Mar Mediterráneo es muy grande, en muchos sentidos es como si fuera un océano. Otro ejemplo: se dan las toneladas de crudo perdidas en el mar por diferentes causas. Ése es el dato. Y la interpretación oficial: eso es muy poca cosa. Hay bacterias apropiadas que darán, sin pro-blemas, buena cuenta de ello. Y otro más: las construcciones para la prospección de petróleo no suponen ninguna tensión suplementaria a la flora y la fauna de las profundidades. Más bien al contrario: suponen protecciones artificiales que favorecerán el florecimiento de nuevos paraísos subacuáticos. El mediterráneo no sólo no ha muerto toda-vía, sino que no parece nada fácil acabar con él. Todos parecen estar de acuerdo entre sí, los científicos y la audiencia. El acto difícilmente acabará en debate. Los asistentes, en efecto, se miran los unos a los otros agradablemente sorprendidos. Pero el moderador, a pesar de su natural carácter entre ingenuo y semieufórico, escruta la audiencia un poco mosqueado. Algo huele a gato encerrado. Está claro que la sala está entregada de antemano; son de la esfera social y cultural de los ponentes: colaboradores, alumnos, familiares... ¡Salvo la última fila! Algo se agita en la última fila. El moderador reconoce a uno de ellos: nada menos que el presidente de Greenpeace en España. Esto está mu-cho mejor. De repente el moderador parece recordar, echa una ojeada al programa que tiene delante y... ¡recuerda! Para el día siguiente, día 22 de abril, y por puro capricho del azar, la celebérrima ong había alquilado el mismo auditorio para un acto muy similar. El título se parecía mucho al del acto de aquel día, aunque tenía, sin llegar a ser contradictorio, otros matices: El Mediterráneo se muere. La casualidad era notable porque, aunque la sesión era privada, también me habían pedido actuar de moderador. La cosa esta clara: los ‘oenegetistas’ se han enterado de la sesión que precede a la suya y se han presentado para tomar medidas y para presentar batalla. Para eso están. El moderador se frota las manos. Cuando eso ocurre se escucha una gran ovación y

el moderador empieza a dar las primeras palabras a la sala. Son inter-venciones de la misma onda que las ponencias, una precisión aquí, un piropo por allá, un pronóstico, una confirmación... El moderador mira hacia la última fila con impaciencia creciente. ¿Es que no van a decir nada? Al final se dirige hacia ellos con las cejas levantadas y las manos abiertas como diciendo ¡adelante, está claro que no compartís lo que se ha dicho, os doy la oportunidad ahora...! Pero los activistas de la ecología ponen los ojos en blanco y se encogen de hombros re-chazando la invitación, como diciendo ¡Éstos no tienen remedio, es el discurso de siempre, inútil intentar nada...! Antes de despedirme de la audiencia, anuncio el debate del día siguiente e invito a la audiencia a presenciar lo que puede ser la otra cara de la moneda. Identifico a los espectadores de la última fila y la gente se vuelve con curiosidad para mirarlos. A los científicos, después de agradecerles su colaboración, les explico lo sucedido (los científicos se sorprenden de mi sorpresa: ¿Qué esperabas?) y les emplazo para el día siguiente. Incluso les invito (al restaurante que ellos elijan) si acceden a volver, como público, e iniciar ¡ellos! el debate tras las ponencias de los ecologistas. Prometen hacerlo entre risas y pronósticos para el día siguiente. Barcelona, martes, 22 de abril de 1992, 19.00 horas. Sala del auditorio principal. Dentro del ciclo Las Tardes del Museo, el mismo moderador se sienta para debatir el mismo tema que la víspera. Sólo han cam-biado los ponentes... ¡y la audiencia! Ni un solo espectador de la vís-pera ha vuelto. Las dos salas están también repletas. Pero se trata de simpatizantes, curiosos e incondicionales de Greenpeace. Después de proyectar unas acrobacias temerarias de miembros de esta ong, que la audiencia aplaude a rabiar, empiezan las ponencias sobre el Medi-terráneo. Y empiezan igual que las del día anterior. Los mismos datos. El tiempo de residencia de una molécula en el mediterráneo es de cien años. De acuerdo en eso. Pero eso significa hoy que el Mediterráneo no sólo no es un océano ¡Es un charco! El mismo dato, pero diferente interpretación. También hay acuerdo respecto al volumen de las pér-didas de petróleo en el mar, pero desacuerdo respecto de lo que esa cifra significa. ¿Bacterias que digieren el petróleo? Quizás en el Golfo Pérsico, pero no en la Costa Brava o en la Costa Azul. ¿Paraísos bajo las plataformas? ¡Un sarcasmo!...

De este episodio surge una idea: la de una tercera sesión abierta a las dos corrientes y a todas las audiencias. Así se hizo algunos meses después.

Page 29: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

29

Investigación hoy - Ciencia y sociedad en el siglo xxi

Y hubo debate. Y hubo matices. Porque la esencia, como bien se sabe, es una cuestión de matices. Pero la trascendencia de este lance ha sido, pretendemos que sea, de mucho mayor alcance. La anécdota ha dividido la historia de las actividades del museo en dos partes, un antes y un después, ilustra todo un vicio de nuestra sociedad ac-tual y es la base de toda una propuesta. El análisis no es difícil de hacer:Es fácil concluir que toda ciudad, por encima de cierta masa crítica, de-bería reivindicar un museo de ciencia, de la misma manera que reivindica una orquesta de cámara o de una orquesta sinfónica. En particular, no es una mala propuesta para Europa. Europa tendrá pronto más de 40 millones de visitantes, fieles usuarios, a los museos de la ciencia.Esto nos lleva a replantear la cuestión. ¿Cuál ha de ser el papel de un museo de ciencia en la sociedad moderna? La ciudadanía, el conjunto de los ciudadanos, se divide, respecto del conocimiento científico, en cuatro grandes sectores: 1 El sector en el cual el conocimiento científico se crea. Son las univer-

sidades, los institutos de investigación, los laboratorios... Es la comu-nidad científica.

2 El sector en el cual el conocimiento científico se aplica. Es la industria, son los servicios, lo agropecuario... Es el sector productivo.

3 El sector que gestiona los dos anteriores, es decir la creación y la apli-cación del conocimiento científico. Son las autoridades académicas, los dirigentes políticos... Es la administración.

4 El sector que sufre y se beneficia de los logros de la creación y aplica-ción del conocimiento científico. Es el propio conjunto de todos los ciudadanos... Es la sociedad entera.

El lugar que debe ocupar un museo moderno de ciencia está claro en este contexto: ha de ser, sencillamente, el escenario natural común para los actores de estos cuatro sectores. Y ha llegado la hora de soñar. Imaginemos que sí, que los museos de ciencia son así algún día, por ejemplo en Europa. O en el mundo. Lo que tendremos en realidad es una red de centros dedicados al conocimiento científico para el ciudadano; todos sobre ciencia, sobre sus resultados, sus métodos, todos compartiendo debates sobre todo aquello de los resulta-dos y los métodos que puede afectar al ciudadano. Todos los museos serán diferentes, porque los museos los hacen los hombres y las mujeres y los hombres y las mujeres son siempre diferentes. Cambiará la sensibilidad estética y artística, cambiarán muchos aspectos culturales, cambiarán las creencias, pero, si son museos de la ciencia (y además conectados entre sí), todos ellos tendrán, por definición y por método, muchas cosas en común. Y tener cosas en común es algo que ayuda a vivir y a convivir. Crear este tipo de red requiere cierta homogeneidad, dentro de la diver-sidad, en la filosofía y objetivos de lo que debe ser un centro moderno de ciencia. Lo que sigue son trece puntos básicos, que incluyen lo expuesto hasta ahora, y que se recomiendan para crear una mínima atmósfera co-mún. A continuación se sugieren los principios fundamentales en los que debe descansar la filosofía de un centro para cumplir con esta función.

museología científica moderna Principios fundamentales para la museología científica moderna. El título es deliberadamente excesivo. En realidad no son más que trece hipótesis de trabajo extraídas de los aciertos y errores (mucho más de estos últimos, claro) después de veinte años de hacer museo en el Museo de la Ciencia de la Fundación La Caixa en Barcelona. Con la apertura de CosmoCaixa en el año 2004, se consagró la oportunidad impagable de volver a empezar. Las nuevas instalaciones quintuplican las del antiguo museo y su audiencia

Page 30: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

30

Investigación hoy - Ciencia y sociedad en el siglo xxi

anual no ha dejado de incrementarse desde entonces hasta las 2,458.832 visitas del 2007. Por lo tanto, las hasta entonces tácitas hipótesis de tra-bajo se convierten en explícitos y deliberados principios museológicos. Aquí están por si a alguien le pueden ser útiles.1 Un Museo de Ciencia (mc) es un espacio dedicado a crear, en el visitan-

te, estímulos a favor del conocimiento y del método científicos (lo que se consigue con sus exposiciones) y a promover la opinión científica en el ciudadano (lo que se consigue con la credibilidad y prestigio que sus exposiciones dan al resto de actividades que se realizan en el museo: conferencias, debates, seminarios, congresos...). Enseñar, formar, informar, proteger el patrimonio, divulgar son otras vocaciones del museo, aunque ninguna de ellas es prioritaria.

2 La audiencia de las exposiciones de un mc es universal sin distinción de edad a partir de los 7 años, ni de formación, ni de nivel cultural, ni de ninguna otra característica. No existen visitantes de ‘diferente clase’ en un mc. Ello es posible porque las exposiciones se basan en emociones y no en conocimientos previos. El resto de las actividades en cambio, sí dependen de la historia del ciudadano, pueden tener objetivos especiales y pueden dirigirse a sectores particulares aten-diendo a un nivel, interés o competencia. Un museo tiene la obligación de conocer su audiencia y de preocuparse por sus vacíos.

3 El elemento museológico y museográfico prioritario es la Realidad, esto es, el objeto real o el fenómeno real. El texto, la voz, la imagen, el juego, la simulación, la escenografía o los modelos de ordenador son elementos prioritarios en otros medios como las publicaciones, la tv, el cine, el parque temático, las clases, las conferencias, el teatro..., pero en museografía son sólo elementos complementarios. Un buen Museo de la Ciencia es, sobre todo, un instrumento de cambio social.

4 Los elementos museográficos se emplean, prioritariamente, para esti-mular según el máximo de las siguientes tres clases de interactividad con el visitante: 1) Interactividad manual o de emoción provocadora (Hands On) 2) Interactividad mental o de emoción inteligible (Minds On) 3) Interactividad cultural o de emoción cultural (Heart On)

La tercera muy recomendable, la primera es muy conveniente y la segunda sencillamente imprescindible. Interactividad significa con-versación. Experimentar es conversar con la naturaleza. Reflexionar es conversar con uno mismo. Un buen rincón de museo dispara también la conversación entre los visitantes.

5 Los mejores estímulos para que el ciudadano siga al científico se inspi-ran en los mismos estímulos que hacen que el científico haga ciencia. Resulta que la ciencia ya es bastante emocionante y divertida, no es necesario recurrir a alicientes de otro tipo de espectáculos.

6 El mejor método para imaginar, diseñar y producir instalaciones museo-gráficas en un mc es el propio método científico (basado en los principios de objetividad, inteligibilidad y dialéctico). Se trata de que la museología científica sea científica. Se trata de ser todo lo objetivo, todo lo inteligible y todo lo dialéctico posible. No hay que olvidar la crítica sistemática de todo lo que se expone. El humor ayuda a desdramatizar tanto la verdad vigente como su eventual crítica. No sólo hay que mostrar los resultados de la ciencia, sino el método empleado para obtenerlos.

7 El Museo es un espacio colectivo (aunque se pueda disfrutar individual-mente). Los objetos reales ilustran, los fenómenos reales demuestran y las escenografías y emblemas sitúan. Los accesorios y menudillos mu-seográficos no deben poblar el nivel B, el nivel fundamental en un mc.

8 El concepto "hilo conductor" es sólo una de las opciones posibles. En

Page 31: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

31

Investigación hoy - Ciencia y sociedad en el siglo xxi

el material de laboratorio en cuanto lo necesite

» InstrumentaciónanalíticaWATERS:UPLC,HPLC,HPLC-MS,GC-MS,MS-AltaResolución,AplicacionesClínicas,SeguridadAlimentaria,IndustriaFarmacéutica

» InstrumentaciónAuxiliar» Reactivosyproductosquímicos» Materialdevidrioyplástico» Mobiliariodelaboratorio» Reparaciones

SUMINISTRO URGENTE AL LABORATORIO

Polígono Industrial Aurrera - Módulo 36 · Ctra. Baracaldo a Trápaga- Aptdo. 11 · Tél. 94 472 17 45 · Fax 94 472 11 26 · 48510 Trapaga Vizcaya · [email protected]

94 472 17 45

ningún caso es obligatorio. Un museo se basa en la realidad y hay realidades como una selva, por ejemplo, que pueden recorrerse sin necesidad de seguir un hilo conductor.

9 Hay temas especialmente museográficos y temas que se tratan mejor con otros medios. Por ejemplo: para mostrar la Sinfonía Concertante para violín y viola de Mozart es mejor un concierto.

10 Existe un rigor museográfico y existe un rigor científico. El museo ha de ser museográficamente riguroso (no hacer pasar reproducciones por objetos reales, no sobrevalorar ni infravalorar la trascendencia, la singularidad o el valor de una pieza...) y científicamente riguroso (no emplear metáforas falsas, no presentar verdades que ya no están vigen-tes, no esconder el grado de duda respecto de lo que se expone...).

12 En un mc se trata al visitante como un adulto, en todos los sentidos, como eventualmente se trataría a un científico o a un futuro científico. Un ciudadano es museológicamente adulto en cuanto sabe leer y escribir.

13 El papel de un mc en una sociedad organizada democráticamente es el de escenario común y creíble entre cuatro sectores: 1) la sociedad misma entendida como el ciudadano de a pie que se beneficia y sufre la ciencia, 2) La comunidad científica donde se crea el conocimiento científico 3) El sector productivo y de servicios donde se usa la ciencia y 4) La administración donde se gestiona a ciencia. Y eso sólo se gana con reputación, la necesaria para tener credibilidad con el ciudadano. Es decir, sólo se gana con años. Un mc es un ser vivo que, como todos los seres vivos, se obliga a sí mismo a durar en el tiempo, pero que, además, debe luchar por su credibilidad en todo lo que hace.

La sociedad del siglo xxi necesita la idea de museo de la ciencia como un instrumento social. Acabamos de señalar ‘cómo’ han de ser tales centros, pero, ¿cuántos hacen falta, dónde deben ubicarse? Nuestro con-vencimiento es que un museo de estas características y con tal finalidad no es precisamente un museo que se visita sino un museo que se usa. Cualquier ciudad por encima de una mínima masa crítica, digamos cien mil habitantes, debería aspirar a un museo de la ciencia. ¿Hace falta algo más? La red de museos es la infraestructura que asegura los estímulos a favor del conocimiento científico, el método científico y la opinión científica Después de que CosmoCaixa se convirtiera en una referencia en todo el mundo, tenemos una oportunidad impagable para contribuir a la construcción de esta red. Colaboramos, más o menos directamente, en la concepción de nuevos museos en China, Chile, Brasil, Colombia, Argentina, Uruguay, Francia, Emiratos Árabes, España... Ojalá podamos trascender con tales proyectos para difundir esta idea.Ahora quizá sólo se necesite la infraestructura que de continuidad a tales estímulos, un espacio y unos mecanismos que den vida al de-bate, la crítica y el fuego cruzado de ideas de opiniones sin límite en cuanto a las distancias, a las identidades colectivas, a las creencias, a las presiones de intereses prefijados, a la crítica ágil y fresca, a la búsqueda innegociable de la verdad, donde se pueda llegar tan le-jos y tan profundamente como se desee... ¿una publicación? Sí, una publicación, pero una publicación internacional que aún no existe, una publicación basada en las nuevas tecnologías que aún hay que inventar. Pero eso quizá sea materia de otra entrega...

Page 32: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

32

o de la ingeniería ocupa una pequeña parte en el currículum educativo de la mayoría de los estudiantes en todos los países industrializa-dos en occidente, y hay diversos informes que apoyan la siguiente conclusión: cuanto más avanzado es un país, los jóvenes están menos interesados en el estudio de las ciencias. En este mismo sentido, se han publicado informes que indican que los medios de comunicación prestan poca atención a los temas científicos. Por ejemplo, un estudio del Research Center sobre el estado de los medios de comunicación en Estados Unidos dice que, en 2008, de cada cinco horas de televisión por cable, sólo se le dedica un minuto a la ciencia.¿Cómo creéis que se explica la paradoja que se produce en esta situación?Francisco García Olmedo: Creo que hay un fenómeno general de abandono, no sólo en la ciencia, sino también en otros ámbitos del conocimiento. Esto ocurre a escala global, con especial intensidad en los países desarrollados. Ese es el telón de fondo, pero como ocurre con la economía, este fenómeno también tiene re-

Mesa de ideas con Pedro Miguel Etxenike, Francisco García Olmedo, Rafael Pardo y Cristina Ribas. Moderador: José M Mato.

más que nunca, cada vez son más los que creen que esta brecha debe encontrar un cauce para promover un acercamiento mutuo; es decir, que la ciencia y la sociedad se necesitan y sus caminos están destinados a cruzarse. Esas re-flexiones son la base de un interesante debate suscitado en este número de CIC Network que, moderado por José M Mato, ha reunido en torno a una mesa a científicos y expertos en comuni-cación como Pedro Miguel Etxenike, Francisco García Olmedo, Cristina Ribas y Rafael Pardo.José M Mato: Me gustaría comenzar la con-versación con este argumento. Si la ciencia desempeña un papel esencial en nuestras vi-das, podría pensarse que la enseñanza de las ciencias durante el periodo educativo también debería ser una actividad prioritaria y tener la misma elevada calidad que tiene la ciencia ac-tual. Por otro lado, también podría pensarse que entre la ciencia y la sociedad se debería haber alcanzado un equilibrio de la enseñan-za de las ciencias mediante instrumentos for-males e informales. Sin embargo, los análisis indican que la enseñanza de las matemáticas

Mes

a de

idea

s

Parece evidente que existe una brecha conside-rable entre el mundo de la ciencia y la sociedad en general. Unos y otros se miran de reojo. Por un lado, la comunidad científica no ha acabado de valorar la dimensión e importancia de la di-vulgación de su trabajo, sus resultados científi-cos de una forma ‘desencriptada’, comprensible para el común de los ciudadanos. Es evidente que, como consecuencia, no dedican el tiempo que se precisa para tal efecto. La sociedad en general, por ignorancia o pereza intelectual en muchos casos, no se siente atraída ni persuadi-da por la ‘pasión’ de la ciencia; y, fruto de ello, a menudo opta por una actitud pasiva, distante; tiende a dudar, en definitiva. No obstante, hoy

El reto de la divulgación científica

José M Mato es director general de CIC bioGUNE y

CIC biomaGUNE. Pedro Miguel Etxenike es presidente del

Donostia International Physics Center (dipc). Francisco García

Olmedo es catedrático de Bioquímica y Biología Molecular

de la Universidad Politécnica de Madrid y miembro de la

Real Academia de Ingeniería. Rafael Pardo es director de

la Fundación bbva. Cristina Ribas es vicepresidenta de la

Asociación Catalana de Comunicación Científica (accc).

Page 33: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

33

Investigación hoy - Mesa de ideas

percusiones específicas a escala local. En nues-tra sociedad más inmediata, el fenómeno viene de hace ya algún tiempo y se ve agravado por factores tales como, por ejemplo, que la opción científico-técnica del bachillerato haya sido progresivamente abandonada, e institutos que antes tenían a 80 personas estudiando biología en una clase, ahora tienen 20 que, además, no necesariamente acaban estudiando una carrera relacionada con las ciencias.Es difícil saber por qué sucede esto y a mí se me ocurren varias posibles razones. Una muy clara es que el bienestar económico conduce a una cierta actitud hedonista ante la vida y eso está reñido con la excelencia. La disciplina sólo se tiene en cuenta en el caso de los deportes de élite y, por ejemplo, vemos que en España se da con frecuencia el caso de familias que todos los fines de semana llevan a sus hijos a competir a las carreras de karts o a jugar al fútbol porque quieren que sus hijos acaben siendo como Fer-nando Alonso o como Iker Casillas. En general, yo creo que la prosperidad es un factor que conduce a la vida fácil, ya que uno de los factores que está detrás de la búsqueda de la excelencia es la lucha por la vida. Por ejemplo, esto se ve en los inmigrantes que provienen de países del Este que comparativamente vienen a España con muy buena formación científica porque allí no sólo es un tema de vocación, sino que también se estudia porque hay un futuro asegurado. Yo soy ingeniero y químico, y en esa época se estudiaba ingeniería no sólo por vocación o prestigio social, sino porque el que terminaba salía con un empleo bien remune-rado. Cuando estos elementos desaparecen, la gente va a lo fácil y se dirige a carreras de nueva invención — por ejemplo, yo conozco el caso de la tecnología de los alimentos—, en las cuales, de repente, hay un claro exceso de graduados donde, hace nada, no había ninguno. Otro elemento a tener en cuenta es que la so-ciedad está tan invadida por la ciencia que des-borda la capacidad individual de asimilarla mí-nimamente. Es muy frecuente que, en cuanto te identifican como científico, la gente te pregunte sobre temas científicos acerca de los cuales no tienes ni idea y que se sorprendan cuando con-fiesas tu ignorancia. En esta sociedad se está implantando la psicología de Operación Triun-fo. Montserrat Caballé se había pasado 20 años aprendiendo canto cuando se entrevistó con un experto en Roma que le dijo que no tenía futuro. En cambio, a la juventud la estamos educando en que, si se pasan seis meses en un programa

de televisión, salen convertidos en auténticas estrellas. Se está implantando la teoría de la ciencia infusa gracias a la cual todo el mundo puede opinar sobre todo sin que haga falta es-tudiar nada. Incluso se llega a dar el caso en que nos dicen que los científicos tenemos la opinión sesgada acerca de los temas que conocemos porque hemos estudiado sobre ellos.

Cristina Ribas: Yo en este tema diferencio dos partes: la formal y la informal. Por un lado, en la parte de la educación formal, sí soy más pe-simista porque es muy difícil inculcar la cultura del esfuerzo. El estudio de las ciencias implica ‘meter muchos codos’ y tener mucha motiva-ción, y ahora estamos en un punto en el que la educación tiene ante sí planteado un problema muy grave que es cómo transmitir a los alumnos el gusto por el conocimiento. Y esto se produce en las ciencias, en la literatura, en la música o en las artes escénicas, y por aquí sí soy más pe-simista. Por el contrario, sí soy más optimista en la parte no formal. A pesar de que los datos de las encuestas nos dicen que en los medios

hay poca ciencia, hay que tener en cuenta que en estos análisis se miden cosas muy concretas. Por ejemplo, ¿se puede considerar que la serie de televisión c.s.i. es un programa de ciencia o es un programa que mezcla temas de ciencia con una trama policial de entretenimiento? Si sólo contamos los debates que hay en televi-sión, podemos darnos cuenta de que hay muy pocos que se dediquen a las ciencias pero, en cambio, si analizamos los contenidos científi-cos que se han metido de manera transversal en otros temas, creo sinceramente que hay más que antes. Yo creo que esto se debe a que ciertos profesionales de la industria y de los contenidos se han dado cuenta de que en el conocimiento científico hay un filón que a la gente le interesa. Es cierto que los suplementos de los periódicos ya no existen con los formatos que había hace unos años, pero, en cambio, la ciencia está sal-picando otras áreas de difusión en la televisión y en los demás medios audiovisuales y, sobre todo, en Internet, donde están creciendo muchísimo los contenidos científicos. Evidentemente, en Internet los contenidos no los elaboran sólo los científicos sino que los creadores se han multi-plicado y hay incluso estudiantes que los hacen. A este respecto, soy más optimista porque hay interés y los contenidos se están multiplicando por muchas otras vías; entonces, quizás lo que nos falta es conectar el sistema formal con el más informal y ver cómo los jóvenes que, por ejemplo hacen blogs, puedan también intere-sarse también por el circuito formal.Pedro Miguel Etxenike: Yo creo que hay dos as-pectos. Uno es que tal vez haya cierto desinterés en la sociedad, aunque yo no creo que lo haya, y otro es la falta de vocación. Me gustaría que se hiciera un buen estudio científico sobre este tema. No sé si se debería abordar desde el campo de la sociología, pero lo que me gustaría es que se estudiara lo más cuantitativamente posible. Creo que uno de los desafíos está en el sistema educativo y ahí lo que me sorprende es que los líderes de los países no le den importancia, por lo menos a largo plazo, a las consecuencias que esto puede tener ya que una ausencia de can-teras puede acabar matando a la gallina de los huevos de oro del progreso científico en la cual se ha basado el modelo de desarrollo económi-co en los países avanzados. También creo que es un tema que está relacionado con una excesiva valoración de los contenidos y con esa famosa discusión acerca de la diferencia entre formar e informar, pero creo que también hay que in-formar para poder formar. El reconocimien-

“Dicen de los científicos que tenemos la opinión sesgada acerca de los temas que conocemos porque hemos estudiado sobre ello”

Francisco García Olmedo

Page 34: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

34

Investigación hoy - Mesa de ideas

to social y económico también tiene que ver, pero no creo que sea algo determinante en la ausencia de vocaciones. Intuyo que parte de ese desinterés proviene de una imagen demasiado utilitarista de la ciencia en la que no se resalta la idea de aventura intelectual. La ciencia es una parte esencial de la cultura moderna y del hu-manismo clásico. Por ejemplo, en algunos casos la medicina sí que logra producir una atracción que no logran producir otros campos. La ciencia por encima de todo es creatividad, pero también es comunicación y transferen-cia de conocimiento verificable y esto es algo que quizás haya sido exacerbado por algunos sectores como, quizás, el de la biomedicina. No se cuál es la solución pero, desde luego, una contribución importante sería contar con una buena comunicación científica, y estoy de acuerdo con vosotros en la dificultad intrínseca de transmitir los contenidos de una disciplina como la ciencia, que cada vez es más amplia y que tal vez se esté convirtiendo en un gran sistema de archipiélagos distintos entre sí, en lugar de ser parte del continente que antes se llamaba de la cultura y que para muchos pro-venía solamente de las letras. Hay estudios que dicen que los ciudadanos de Japón, de Estados Unidos o de algunos países europeos, sí respe-tan la ciencia y tienen conocimientos básicos y generales de lo que es ciencia y de lo que es actitud científica. Si hoy Aristóteles estuviera en un parlamento algunas de sus ideas serían discutibles o, al me-nos, muy parecidas a las que se discuten pero si, por ejemplo, tuviese que discutir, no ya con un físico cuántico, sino con el mismo Galileo, probablemente le recomendarían asistencia psiquiátrica.La comunicación es una cosa que me preocupa mucho y el cómo se hace es una cuestión de lenguaje y, por lo tanto, yo creo que es bueno que la hagan los que tienen la pasión de estar en la frontera del conocimiento. En este sentido, me acuerdo de dos frases. Una de Einstein, que decía que “hay que explicar las cosas de la ma-nera más sencilla posible, pero no más”; y otra de Planck, que cuando le preguntaban, “¿puede usted explicar la física cuántica de una manera sencilla?”, el simplemente respondía, “no”. Cuando un científico va a una cena en la que hay gente considerada culta enseguida le pre-guntan por el Big Bang o por la materia oscura del universo, pero nadie pregunta por algo tan concreto como las propiedades de los mate-riales y la belleza de la ciencia que estudia los

objetos normales, que es la física de la materia condensada o la bioquímica. Este hecho ha de-formado aspectos de la divulgación y creo que parte de nuestra obligación es cruzar ese puen-te porque somos los propios científicos los que tenemos que explicar qué es lo que hacemos y para qué sirve. Rafael Pardo: Me parece que si vemos esta cuestión como un problema, lo primero que debemos hacer es distinguir cuál es su mag-nitud y cuáles son los indicadores del mismo. En algunas dimensiones no puede afirmarse

que haya una crisis de la cultura científica. Si vemos en términos relativos la consideración que merecen los profesionales de la ciencia, la mejor evidencia empírica disponible informa de que las dos profesiones más respetadas y admiradas de una larga lista son los médicos y los científicos. Desde los primeros estudios empíricos de los años 50 del siglo xx, se viene repitiendo ese dato. Actualmente, han bajado todos los grupos profesionales en el nivel de es-tima de la sociedad, pero la posición relativa de esas dos profesiones como las más respetadas

se sigue manteniendo. Esto no implica, sin más, que respeto y admiración vayan a traducirse necesariamente en un impulso vocacional de seguir la carrera científica. Uno puede admirar a la Madre Teresa pero no tener el impulso, la motivación o la disposición a realizar el esfuer-zo requerido para convertirse en el modelo en-carnado por ella y de optar por un modo de vida con exigencias muy fuertes. Pero volviendo al punto de la consideración de los científicos y su hacer, puede afirmarse de manera rotunda que continúan siendo el grupo mas apreciado. Ninguna otra institución característica de la modernidad cuenta, de manera universal, en todos los países avanzados, del mismo nivel de legitimación y prestigio. Pero con esto tenemos solo un componente o, mejor, un elemento del componente valorativo de lo que suele llamarse “cultura científica”. Es en la dimensión cogniti-va donde comienzan a aparecer los problemas: se valora positivamente la ciencia, pero no se entiende bien ese inmenso edificio en conti-nua ampliación, remodelación y cambio. Hay un escrito de cuatro páginas de 1934 de John Dewey, La suprema obligación intelectual, en el cual están esbozados bastantes de los térmi-nos del debate y dificultades actuales. En los años treinta, como sigue ocurriendo ahora, los científicos eran recompensados básicamente por investigar, y muchos de ellos veían como una carga las funciones docentes, administra-tivas y de gestión. Como ocurría antes y sigue ocurriendo ahora, los científicos apenas tienen incentivos para hacer posible lo que ese filosofo y educador etiquetó como su suprema obliga-ción: trasladar el núcleo de la actitud mental aplicada en el hacer científico al resto de la so-ciedad, al “público”. Los investigadores, salvo unos pocos outliers estadísticos, no quieren dedicar tiempo a hacer actividad sostenida de divulgación. En caso de hacerse, la divulgación y la educación científica están en manos de gente que tiene vocación docente o divulgadora, pero que posiblemente no tenga vocación científica en sentido estricto. Si alguien que enseña mú-sica no tiene pasión por la música, no la conoce íntimamente, no la ha creado o interpretado, tenemos un problema y lo mismo pasa con la ciencia: se trasmite información más o menos veraz, pero no la actitud mental de interrogar al mundo, de construir marcos conceptuales para entenderlo, de capturar empíricamente infor-mación o evidencia acerca del mismo. Creo que esto es algo que ocurre también en otras áreas, pero las dificultades son mucho

" Creo que la ciencia nos podría beneficiar al tomar decisiones en todos los campos, ya que nos ayuda a que las cosas sean más eficientes y racionales”

Cristina Ribas

Page 35: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

35

Investigación hoy - Mesa de ideas

mayores en el caso de la ciencia, por su pro-pia naturaleza abstracta. Tal y como afirmaba Dewey, el propio lenguaje científico es poco ac-cesible porque no es el lenguaje macroscópico, cualitativo e intuitivo de la vida cotidiana que manejan en grado distinto otras disciplinas. Se trata además de un conocimiento dotado de una organización formal que hace que, por ejemplo, no se pueda comprender un tema de matemáticas o física avanzada si no se tienen nociones de matemáticas básicas. Hay barre-ras que brotan de manera natural de la propia actividad y resultados del quehacer científico. Por eso creo que es particularmente importante que quien enseña ciencia haya hecho, de algu-na manera, ciencia. Ese es el mayor déficit que tenemos: lo más difícil de aprender y de captar es en qué consiste la mirada científica acerca de una cuestión y eso plantea dificultades tanto en la parte informal –la divulgación-como en la formal – la educación- de la cultura científica.Recuerdo que hubo un programa exitoso que puso en marcha la aaas (Sociedad Americana para el Avance de la Ciencia) en los años 80, y que se llamó ‘Proyecto 2061’. Analizaba qué componentes, ideas y conceptos centrales hay que transmitir a la gente en cada escalón educa-tivo, por debajo de toda la masa de información de los currícula educativos. Creo que esa inicia-tiva, mutatis mutandis, sería útil entre nosotros porque existen fuertes discontinuidades o rup-turas entre, por un lado, la enseñanza primaria y secundaria, y, por otro, entre la universitaria y la investigación. No es ni siquiera obvio que la docencia a través de la investigación esté presente en las últimas etapas del currículum universitario. Faltan nexos de unión entre esos niveles; programas que faciliten el contacto en-tre los profesionales (docentes e investigadores) de esos distintos niveles, cerrando el bucle entre transmisión de conocimientos y generación de los mismos.Respecto a otra cuestión importante, yo tam-bién creo que hay una visión utilitarista, y se tiende a pensar que lo que no es útil, no es inte-resante, y esto se acaba contagiando a los políti-cos y a todos los ciudadanos. Generalmente, hay cosas que, de entrada, no parecen útiles pero que pueden llegar a serlo a medio plazo. Esa apuesta por el conocimiento básico, la percep-ción de que la investigación que hace avanzar el conocimiento es algo valioso y la “fe” en que antes o después de ello se obtendrán también efectos prácticos sumamente útiles formaba ya parte de la cultura científica de hace 40 años.

Hoy, en cambio, ese modo de ver las cosas se ha erosionado mucho. Lo normal hoy es que para “vender” un proyecto, esto es, conseguir financiación, haya que mostrar o simular que contribuye a la mejora de la competitividad o que es conducente de manera más o menos in-mediata a la solución de problemas prácticos acuciantes. En el área de la biomedicina esto está bastante presente, pero el conjunto de la ciencia esta contagiada de una envolvente de pretendida utilidad directa o en el corto plazo. Pero cualquiera que este familiarizado con la li-

teratura de la innovación y, en particular, con la trayectoria histórica de innovaciones radicales sabe que el camino que hay detrás de cada avan-ce y de cada descubrimiento no es lineal, sino más bien tortuoso y plagado de interacciones poco susceptibles de planificación. Por ejemplo, para que hoy tengamos computadores hicieron falta que confluyeran una serie de avances: por un lado las aportaciones del álgebra de Boole o binaria en el siglo xix, construida sin pensar en los computadores; y, por otro, los avances en lenguajes formales, circuitos impresos y mi-

croprocesadores. Si la unión de todos estos ele-mentos hubiera dependido de la planificación de un ministerio de política científica, segura-mente, todavía no habría aparecido el primer computador. Por eso, creo que es fundamental contrapesar el utilitarismo rampante con una imagen más cultural de la ciencia: como una construcción que ayuda a entender el mundo y que, antes o después, contribuye a modificar la forma de actuar en el y de hacer frente a las demandas y a las necesidades. P. M. Etxenike: Un ejemplo maravilloso de todo esto es comparar la resonancia magnética con el cáncer. Nixon hizo un programa millonario en dólares dirigido a intentar curar el cáncer pero no era el momento adecuado puesto que las disciplinas básicas relacionadas no habían avanzado suficientemente por lo cual fue, en parte, un tiempo perdido. En cambio, la reso-nancia magnética nuclear viene de preguntas fundamentales que se hacen una serie de cien-tíficos sin ningún objetivo práctico inmediato y que se traduce en grandes avances prácticos al cabo de los años. También está el ejemplo de Anne Sullivan, una señora que, impulsada por Alexander Graham Bell, enseñó a escribir a una niña ciega y sor-domuda, Hellen Keller, en poco más de cuatro meses. La propia Sullivan decía que lo único que hizo es despertar el interés de esa chica. Este es un ejemplo de que es necesario que los docentes vivan la pasión. El hecho de que los científicos se acerquen a la sociedad no sólo es un deber social, sino que también tiene un componente pragmático: ¿cómo nos van a financiar si no nos ganamos a la sociedad? Otro aspecto que a mi me preocupa hoy en día es la falta de sosiego en las actividades científicas. Hoy en día ya no es una ventaja competitiva el hecho de tener el monopolio del dominio acerca de un campo, ya que si no hay doscientos pegándose en ese mismo campo, como por ejemplo lo tuvo en su día Kammerling Oanes en bajas temperaturas, no tienes luego unos indicadores buenos y hoy en día hay una idolatría hacia los indicadores. Hoy necesitas ser el primero pero también ne-cesitas que haya muchos en ese entorno y esa es un arma de doble filo para los que trabajan en campos en los que no trabaja mucha gente. Ya no se puede estar esperando y pensando siete años antes de publicar, como hizo Newton, y, por eso, creo que la ausencia de sosiego, paz y reflexión es un problema. R. Pardo: Creo que la ciencia se ha ampliado muchísimo y a veces se le impone a los ciuda-

“Acercarnos a la sociedad no sólo es un deber social, sino que tambien tiene un componente pragmático: ¿cómo nos van a financiar si no nos ganamos a la sociedad?”

Pedro Miguel Etxenike

Page 36: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

36

Investigación hoy - Mesa de ideas

danos cosas que ni siquiera los científicos son capaces de cumplir: un biólogo no tiene porqué entender, y generalmente no entiende, mucho de física. Como ha señalado Lévy-Leblond, la ciencia, hoy en día no es algo compacto, sino más bien un conjunto de islas -especialidades- tan separadas entre sí como lo están todas ellas en su conjunto del resto de la cultura. Hay una proliferación de lenguajes especializados propios de distintas comunidades profesiona-les. Lo que a veces no consiguen los propios científicos, se presupone que lo debe saber el ciudadano, exigiéndosele una especie de en-ciclopedismo ilustrado que abarque todas las áreas científicas. Debemos contentarnos, como decía Cristina, con que haya lo que se conoce como ‘públicos atentos’; esto es, segmentos de gente interesada e informada en algún área de la ciencia pero no en todas ellas. En general, creo que debemos contentarnos con lograr que crezcan los públicos atentos ante ciertos subconjuntos de la ciencia, y el porcentaje de gente que se integra en cada uno de ellos. Tal vez, preocupaciones más generales como las del medio ambiente o la salud, pueden servir para empaquetar o encapsular conocimientos de Fí-sica y Química dentro de esos mismos intereses, más que tratar de que el público adulto, que abandonó ya el sistema educativo, se acerque a la ciencia desde una óptica disciplinar. C. Ribas: Creo que ese es un aspecto clave por-que, en realidad, el ciudadano está interesado por todos los debates que le afectan. Entonces, tenemos que intentar que en esos debates se incluya el punto de vista científico, y en este aspecto creo que hay muchas diferencias entre países. Por ejemplo, el psiquiatra Adolf Tobeña siempre dice que, en este país, las élites son muy acientíficas e incluso en los medios también se nota: ¿en cuántas tertulias se invita a científicos a opinar? Los científicos podrían opinar casi so-bre todo en esas tertulias, ya que en ese tipo de debates los invitados, normalmente, sólo saben mucho de política y del resto de cosas no saben nada. En cambio, un científico “de frontera” a lo mejor podría aportar una visión y una forma de abordar los debates que es muy necesaria. Por ejemplo, con el tema del agua hemos acabado quedándonos un poco huérfanos de una visión científica de verdad ya que las visiones que se aportaban estaban intoxicadas por miles de intereses. El ciudadano medio también quiere saber qué es lo racional antes de tomar deci-siones y así llegamos al punto nuclear de esta cuestión que es el método científico: ¿cómo se

transmite de una manera fácil la forma de hacer de la ciencia? Creo que la ciencia nos podría be-neficiar a todos a la hora de tomar decisiones en todos los campos, ya que nos ayudaría a saber cómo hacer que las cosas sean más eficientes y racionales. El problema puede ser que esto a lo mejor es incompatible con los ciclos políticos, que son muy cortos. En definitiva, creo que el ciudadano entiende que se tienen que tomar decisiones a largo plazo basadas en datos con-cretos y que esa es la forma de actuar de la cien-

cia. En este punto sí que creo que, entre todos, lo podríamos hacer mejor: desde la educación hasta los que se dedican profesionalmente a estas cosas, pasando por los medios porque, en realidad, las áreas concretas de interés pue-den variar mucho e incluso pueden ser fruto de las modas. Por ejemplo, me han comentado que la productora de televisión americana hbo tiene un comité interno que determina qué te-mas sociales y culturales tienen que aparecer en sus series, y que estos temas prácticamente son un apéndice de lo que deberían hacer los gobiernos. En este sentido, creo que se están

mezclando los papeles de quiénes son los que tienen que divulgar el conocimiento y creo que, en lugar de lamentarnos, hay que aprovecharse de esta situación.F. García Olmedo: El contenido de la enseñan-za de la ciencia ha evolucionado mucho tanto en las vías formales como en las informales. Mi impresión es que lo formal se ha anquilosado, se ha academizado y apenas hay experiencia directa. Los programas de enseñanza primaria y secundaria están tan sobredimensionados que, si se cumpliera todo lo que está previsto, no quedaría nada por enseñar en las facultades. Está ausente el espíritu de aventura, mientras que los programas tienden a abarcarlo todo, a sabiendas de que no se van a cumplir. Esto es terrible y creo que no es un problema priva-tivo de la ciencia. La vía informal, en cambio, ha mejorado extraordinariamente y los perió-dicos se hacen enseguida eco de los trabajos que se publican en revistas importantes y los divulgan eficazmente. El público está también más interesado en este tipo de noticias. Así por ejemplo, en los dos últimos viajes que he hecho en ave, la persona que estaba sentada en frente mío, estaba leyendo una revista de divulgación científica. Las necesidades de divulgación son variadas. Respecto a que se resalte en exceso la posible utilidad de muchas investigaciones básicas, es posible que se deba al lenguaje triunfalista que se utiliza para pedir dinero para las inves-tigaciones, el cual se está empleando de forma impropia en otros ámbitos. Cuando uno pide dinero para una investigación se ve obligado a decir que lo que quiere hacer es muy intere-sante por mil razones, pero cuando se saca del contexto original, ese discurso puede resultar terrible. Por otro lado, cuando consideramos la ciencia como aventura humana, tenemos que tener en cuenta que un país nunca puede pres-cindir de la ciencia, aunque no le rinda el más mínimo crédito. Por ejemplo, yo siempre digo que España tiene que investigar mucho más, aunque sólo esté condenada a ser compradora, porque, también para ello, necesitamos tener una investigación y un sistema científico mucho más activo que el que tenemos. Cuando algo cuesta, por poner un ejemplo, 1.200 millones de euros, la sociedad necesita saber para qué sirve, pero también es cierto que el argumento utilitario degrada a la ciencia y la oculta porque la confunde con la tecnología.Creo que cuando se traen alumnos a estas se-manas de la ciencia que se organizan, descubres

“La divulgación científica está en manos de gente con vocación docente o divulgadora, pero sin vocación científica en sentido estricto”

Rafael Pardo

Page 37: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

37

Investigación hoy - Mesa de ideas

que, después de pasar un día en un laboratorio, los niños salen dando botes e, incluso con es-tudiantes de escuelas primarias, es asombroso ver qué emocionados vuelven a sus casas. En cambio, he organizado e impartido cursos para profesores de instituto y ahí se ve dónde está el fallo: la ciencia evoluciona a mucha velocidad y el que está investigando no tiene más reme-dio que permanecer atento en la frontera, pero el que tiene una plaza vitalicia, para enseñar por ejemplo Biología, sin ninguna necesidad de reciclarse, puede acabar por no entender el lenguaje biológico normal. También se puede ver a diario una necesidad de conocer de qué va el método científico entre los ministros: hay una serie de crisis que requie-ren que el que salga a dar las explicaciones en la rueda de prensa no sea el ministro, porque en otros países en las ruedas de prensa se sien-tan, junto al ministro, una serie de expertos que se encargan de contestar determinadas cuestiones. P. M. Exenike: Los países que han sabido dar respuesta a todas estas cuestiones que se plan-tean son los que han conseguido ser grandes en cultura científica. Si se enseña ciencia sin tener pasión por ella, se acaba por idolatrar los contenidos e informar más que formar, con lo cual el resultado es que se sabe mucho, pero se entiende poco.F. García Olmedo: Hoy en día, la información está al alcance de todos pero el problema es que cuando pinchas algo en Internet tienes que sa-ber discernir. En estos casos, conocer el método científico te permite navegar de otra forma por Internet porque, en caso contrario, no se puede distinguir cuáles son los meros curanderos y cuáles son los buenos médicos. J. M Mato: Creo que la situación actual que atraviesan la divulgación y la educación cien-tífica no es una cuestión exclusiva de España, sino que es un problema de todo Occidente: Reino Unido, Estados Unidos… quizás en Asia la situación sea algo diferente. Con matices, creo que la falta de vocación científica es algo universal.Ahora quería plantear el tema de la democrati-zación de la ciencia y la aparición de grupos de interés que abogan por extender la democracia en las políticas públicas de la ciencia, lo que ha llevado a que los científicos pensemos que, para nosotros, sólo lo que experimentalmente es demostrable es utilizable. En la actualidad, comienzan a llegar a Europa desde Estados Unidos, grupos de presión que sostienen que

es verdad aquello que la ciencia dice que es verdad y que es la sociedad quien decide. En-tonces, aparecen argumentos como, ¿para qué vamos a hacer un placebo si pensamos que un colectivo con una enfermedad puede decidir que se ponga en práctica un tratamiento que se financie y se plantee sin necesidad de que haya sido elaborado con rigor científico? Esto se inició en Estados Unidos con el sida y ahora está muy extendido.La democratización de la ciencia se está intro-

duciendo cada vez más y algunos reclaman que se debe decidir qué se hace y cómo se hace. Me gustaría saber vuestra opinión sobre este tema.F. García Olmedo: Ese es uno de los problemas más acuciantes que hay porque está llevando a que se tomen decisiones políticas absoluta-mente nocivas para los ciudadanos, porque se considera que, como los científicos conocen a fondo el tema, están sesgados a la hora de tomar decisiones. A ver, es cierto que estamos sesga-dos, pero, por ejemplo, ocurre que, en muchos casos, como por ejemplo el de las desaladoras,

no se hacen debates previos sobre su impacto medioambiental y se ejecutan proyectos des-carriados. Se ha construido una desaladora en Almería que estando parada conlleva el 40% de los gastos que tiene cuando funciona. Como funciona al 15% resulta inviable. Si fuera agua para beber, se puede justificar cualquier cosa, pero si se trata de agua para uso agrícola, es inviable. Las decisiones que se han tomado en Estados Unidos y en Europa sobre los biocombustibles también son un disparate porque los biocom-bustibles hacen que se encarezcan los cereales, y entonces subirá el precio de los alimentos, que en adelante valdrán lo que corresponda a su equivalente calórico respecto al petróleo, y eso es terrible. En este caso, el discurso de la Comisaria Europea sobre este asunto es acien-tífico, y se trata de decisiones que nos afectan a todos y que tienen un input científico mínimo o inexistente. La decisión democrática debe operar siempre pero también siempre se debe saber antes de decidir cuáles son los fines rea-les y cuáles son meras ficciones. Ahora mismo se está imponiendo la idea de que una opinión científica es la opinión de un ciudadano más, y no digo que no lo sea a la hora de tomar una de-cisión final, pero, desde luego, no es una opinión más de cara a decidir qué opción es viable y cual no lo es. Por ejemplo, producir alcohol a partir del maíz es un disparate desde un punto de vista científico porque se puede llegar a gastar más energía fósil de la que se produce, pero si, pese a todo y con toda la información encima de la mesa, los ciudadanos quieren que se haga, se hará; pero se deben saber las consecuencias de dicha decisión. C. Ribas: En lo que se refiere a Internet, creo que se debe transmitir un cierto sentido crítico para que la gente tenga criterio, y eso se extiende a que la gente debe saber navegar por Internet. Una página que no se sabe quien la ha escrito y en la que no figura ningún tipo de contacto, no vale para nada porque no tiene credibilidad.Respecto al tema de la democracia, yo diría que es verdad que es un poco peligroso que la gen-te que no tiene conocimientos tenga poder de decisión en determinadas cosas, pero tampoco vale el sistema que hemos tenido hasta ahora en el cual los políticos han escuchado poco a los científicos y han decidido cosas de una manera muy opaca; y ahora, cuando se trata de integrar a los ciudadanos en la ecuación es cuando se dice que los que opinen y tomen la decisión de-ben tener en cuenta el criterio más científico.

“Es muy difícil explicar un ensayo clínico a gente ajena al mundo científico: a veces se confunde democratización de la ciencia con transparencia”

José M Mato

Page 38: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

38

Investigación hoy - Mesa de ideas

Esto se debe aplicar a todos: los políticos están tomando decisiones de una manera absoluta-mente acientífica y ahora no se puede criticar el hecho de que haya ciudadanos que quieren estar implicados en eso. Creo que, en el sistema actual, sería básico promover la transparencia por parte de todo el mundo porque, si el ciuda-dano tiene todos los datos encima de la mesa, es más capaz de entender y de tomar decisio-nes correctas. Si, por ejemplo, hay estudios que dicen que las desaladoras tienen un impacto

ambiental x, esa información debe estar acce-sible para que se pueda hacer una composición de lugar y, al final, tomar una decisión en base a todos los datos disponibles. Creo que hay que trabajar en base a los datos científicos y en base a otros datos que no son tan científicos pero que son importantes para los ciudadanos a la hora de tomar decisiones. La transparencia de la información es el primer paso para hacer efectiva una democracia más participativa, y es fundamental que cuando se tome una de-cisión, se indique en qué datos científicos y en qué estudios está basada. Además estos datos deberían estar disponibles en Internet para su consulta. Es cierto que todo el mundo no puede entenderlo todo pero debe de existir la posibi-lidad de que se pueda disponer de la informa-ción. Hace falta que se haga en muchos casos hasta llegar al punto en el cual se implique a los ciudadanos en más decisiones. De momento, la transparencia en la información debería ser una obligación para los políticos y las administra-ciones que están tomando decisiones. P. M. Etxenike: Creo que nadie se puede opo-ner a la transparencia de la información pero el problema está en extender la democracia a ámbitos que no le son intrínsecamente propios. Hay casos en los que creo que la extensión de la democracia no da buenos resultados porque se puede llegar a una situación de igualitarismo demagógico. La dificultad del tema científico es dar con una fórmula que sea democrática y eficiente a la vez. Creo que la única manera de hacer esto posible es a través de las institucio-nes de reconocido prestigio científico porque

es difícil hacerse un criterio propio sobre temas que no se dominan a fondo. En cambio, creo que de lo único que nos podemos fiar todos es de la información que proviene de instituciones que, como en el caso del Informe Stern, han ido seleccionando, con imperfecciones inevitables, a la mejor gente de cada campo. Hay ámbitos en los que es difícil encontrar el equilibrio. Yo creo que en una democracia, los ciudadanos son los que deben tomar las decisiones políticas, no los tecnócratas, y ahí es donde el papel de las ins-tituciones de prestigio como, por ejemplo, la Royal Society o la National Academy of Science, es fundamental porque su prestigio es el mayor aval, la garantía de opiniones técnicas serias y responsables. Yo no veo otra solución posible.J. M Mato: Por ejemplo, a mi se hace muy di-fícil explicar un ensayo clínico a gente ajena al mundo científico y creo que a veces se con-funde la democratización de la ciencia con la transparencia. R. Pardo: Creo que es positivo que, en temas en los cuales hay una importante sensibilización más o menos latente o abierta por parte de los ciudadanos, como es el caso de la experimenta-ción animal, se pueda contar con representan-tes del público, ya que eso ayuda a anticiparse a posiciones de rechazo total y también a excesos por parte de los investigadores. Un comité de ética que, de alguna manera, dé entrada a re-presentantes del público interesado y no solo a expertos, puede acercar la sociedad a los inves-tigadores y a estos a la sensibilidad, reservas y valores de la sociedad en la que actúan. C. Ribas: Pero también hay que tener en cuenta

muy especialmente qué personas están repre-sentando a quien, porque también hemos teni-do problemas con esto últimamente.R. Pardo: Por supuesto. La clave es que las insti-tuciones científicas operen no solo con objetivi-dad —la cual se supone que es parte integral de la ciencia—, sino también con transparencia. Es decir, que comuniquen a la sociedad lo que se sabe y lo que no sobre cuestiones susceptibles de controversia y que instrumenten canales para dar “voz” al público. Instituciones como la Royal Society en el Reino Unido, academias no políticas, con las credenciales requeridas para recomendar cursos de acción determinados en temas sensibles (energía, medio ambiente, ex-perimentación con embriones humanos, trans-génicos), aportando el conocimiento propio de la ciencia, pero acogiendo también las preocu-paciones y demandas legitimas de la sociedad. Un elemento muy importante de las sociedades complejas del presente, que funcionan a base de conocimiento altamente especializado, es poder confiar en “conocimiento autentificado”, no sesgado por intereses, aunque pueda ser li-mitado, como lo es siempre el conocimiento. Que un país cuente con una arquitectura de instituciones de ciencia e investigación res-petadas y de confianza es un activo esencial. Por ejemplo, en Inglaterra todo el mundo con un nivel educativo medio-alto sabe lo que es la Royal Society, se interesa y, sobre todo, respeta un informe que provenga de ella. Se trata de lograr instituciones y procedimientos merece-dores de lo que en la literatura de capital social se ha etiquetado como trust & confidence, que

“Un país nunca puede prescindir de la ciencia: España tiene que investigar mucho más, aunque sólo esté condenada a ser compradora”

Francisco García Olmedo

Page 39: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

39

Investigación hoy - Mesa de ideas

abarca las dimensiones de orientación moral o ética (trust) y también de competencia téc-nica (confidence). Además de academias bien constituidas y representativas de lo mejor de un país en cuestión de ciencia, las oficinas par-lamentarias de ciencia y tecnología, como las que existen en el Reino Unido y en Alemania, contribuyen a generar de manera continua un valioso análisis sobre cuestiones centrales, des-cansando en el mejor conocimiento disponible y, también en los valores demandados por el público. En las webs de esas instituciones cual-quier persona puede acceder a boletines sobre temas más o menos sensibles como, por ejem-plo, las células madre, la energía nuclear, los posibles efectos sobre la salud de los teléfonos móviles, los transgénicos, u otros temas de debate público. Todo eso es importante, pero generalmente se mueve en una sola dirección que va de los expertos al público. Pero, al mismo tiempo, también hay una demanda creciente de voz por parte del público que requiere su propia participación. La marea del cambio social va en esa dirección y las sociedades o instituciones de confianza tienen que hacer más de lo que

han venido haciendo hasta ahora: tienen que abrir las áreas sensibles de la ciencia al diálogo con el público y no solo educarle o formarle. En Europa, la Royal Society es una de las institu-ciones que, junto a la Comisión Europea, más ha abogado por abrir la ciencia a la participa-ción de la sociedad, conscientes de que hay una presión creciente en el entorno. Hay científicos que incluso dicen que la conciencia debe tener precedencia sobre la competencia en todas las áreas; es decir, que la gente debe poder decidir en temas complejos aunque no tenga un cono-cimiento riguroso acerca de ellos. Lo ideal es mejorar el stock del conocimiento del público y, al mismo tiempo, abrir espacios al diálogo y a la toma en consideración de las visiones o worldviews que puedan existir en una sociedad y que afectan a ese subconjunto de áreas de la ciencia susceptibles de controversia. No hacerlo puede acabar alienando a sectores del público y deteriorar el envoltorio o la cultura en la que se inscribe el tejido institucional de la ciencia.P. M. Etxenike: Como ocurrió en el caso de la energía nuclear que, debido al desprecio inicial con el que algunos prepotentes trataron a mu-chos ciudadanos legítimamente preocupados, llevó a que no se pudiera llevar a cabo un debate racional por la ausencia total de confianza que se produjo.R. Pardo: Exacto. Ahora puede que eso pase con la modificación genética de plantas y con el uso de animales como factorías de proteínas con propósito farmacéutico, lo que se conoce como pharming (pharmaceuticals + farming). En es-tos casos se reproduce la siguiente secuencia:

hay una percepción con reservas significativas por parte del público, basadas en información, estereotipos, emociones, etc. La comunidad científica no le presta atención o las despacha como resistencia irracional o ignorante por parte del público. Las agencias públicas se ali-nean, de manera más o menos estrecha, con la comunidad científica. El público, por su par-te, desconfía de unos y de otros y, en lugar de dar origen a un debate, las fuerzas cristalizan en posiciones inamovibles a favor y en contra. La resistencia social, más o menos eficaz, está servida. La difusión y la modulación de la tec-nología de la que se trate se retrasan o incluso se llegan a congelar sine die. La flexibilidad de las instituciones y su apertura al diálogo con el público son fundamentales para una difu-sión y una implantación adecuadas de los de-sarrollos científico-tecnológicos sensibles a la controversia.F. García Olmedo: La palabra precedencia tie-ne dos significados: uno que hace referencia al tiempo y otro que hace referencia a la jerarquía de decisión. Yo abogo por la precedencia en el tiempo en el caso de los científicos y por la pre-cedencia de decisión en el caso de los políticos. En cambio, se están invirtiendo los términos y el problema es que la ciencia no es tan militan-te como determinados grupos de acción, y en Europa la opinión pública está secuestrada por siete personas en Londres, porque meterse con Greenpeace es casi como meterse con el Papa. Por ejemplo, las razones que llevan al rechazo de los transgénicos están escritas en una sola página por siete personas en Londres, y Green-

“La mayoría de los científicos en activo no tenemos tiempo para la comunicación, porque el afán por descubrir nos quita la mayor parte de nuestro tiempo, pero tenemos la obligación de hacerlo”

Pedro Miguel Etxenike

Page 40: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

40

Investigación hoy - Mesa de ideas

sión distinta de las cosas-, percibe un problema o un desarrollo de manera distinta a la que los expertos consideran adecuada, la única vía de resolución eficaz a medio plazo, es el diálogo. Hay una parte amplia de la comunidad cientí-fica que no ha sido entrenada para debatir en el terreno fuzzy y messy –comparado con el de la evidencia empírica o el de la comprobación de modelos-, pero que a su vez es fundamental e imposible de eliminar, ya que está integrado por cuestiones como valores, worldviews pre-sentes en la cultura de una sociedad o variables políticas y económicas.J. M Mato: Es muy diferente cómo se hacen las cosas aquí respecto a Estados Unidos. Allí, para que se aprueben ensayos para terapia génica, el comité se somete a debate público y obliga a tener confesiones religiosas. Por eso, creo que ahora mismo los ensayos clínicos en España se hacen de una manera muy razonable.Este asunto se une con otro tema que que-ría poner sobre la mesa. Es muy importante transmitirle a la sociedad una actitud científica

peace es una institución cuyo presupuesto es la mitad que el de la fao. En Europa, dos tercios de la población están en contra de los transgénicos, según el Eurobarómetro. Europa está dominada por una minoría muy vocal que nos está llevan-do a situaciones catastróficas. Puedo estar de acuerdo con algunas de las reivindicaciones de Greenpeace, como por ejemplo en el caso de las pruebas de Mururoa, pero, desde luego, no pue-do estar de acuerdo con ellos cuando pretenden jugar el papel de líderes científicos porque el averiguar cuáles son los hechos es algo que solo corresponde a los científicos.R. Pardo: Creo que ese es un magnífico ejem-plo porque ilustra la complejidad del tema. La comunidad científica no ha logrado ganar la batalla por la credibilidad en este caso. En primer lugar, porque aborda tarde este debate. Pero también, porque hay ciertos temas como la ingeniería genética, el átomo o la clonación, que tienen una resonancia y una expresividad simbólica muy fuerte en la sociedad. En esos debates hay que intervenir con múltiples voces: desde las asociaciones médicas hasta las acade-mias nacionales, pasando por las organizacio-nes con intereses legítimos, etc. Si el debate se abordara de manera no renuente y sin sesgos, ninguna asociación minoritaria lograría impo-ner su voz ni menos alinear a amplios sectores del público.F. García Olmedo: Creo que es una cuestión de eco porque, respecto a la tecnología transgé-

nica, 13 academias científicas que representan al 75% de la población mundial han elaborado documentos endosando esa tecnología.C. Ribas: Creo que en este tema hay dos par-tes. Por un lado, la seguridad, en lo que estoy de acuerdo con vosotros, y por otro, ¿para qué sirven los transgénicos?F. García Olmedo: Pues, por ejemplo, para bajar el precio de los alimentos.P. M. Etxenike: El gran problema que yo veo es que los políticos preguntan a varios sobre un tema concreto y cuando les dan una solución también concreta –correcta o incorrecta- la plasman en una regulación jurídica con preten-sión de eternidad; pero, incluso en el hipotético caso de que en un primer momento fuese una solución, se convierte en un corsé, en una difi-cultad más que en una ayuda.R. Pardo: En este tipo de debates la cuestión no es darle entrada al público para ver si acepta o no el contenido de un paper. Eso es algo que si-gue reservado a los mecanismos institucionales de la aceptación y el rechazo de teorías (peer review, publicación, replicación). Lo que en rea-lidad se discute es la implementación de deter-minados desarrollos científico-tecnológicos, el modo de conducir la investigación o el uso de determinados medios como, por ejemplo, el de embriones humanos de unos pocos días. Si la mayoría de la sociedad, por las razones que sea, –falta de conocimiento, prejuicios, influencia de grupos de interés o, simplemente, por una vi-

“Hay ciertos temas como la ingeniería genética, el átomo o la clonación que tienen una resonancia y una expresividad simbólica muy fuerte en la sociedad.”

Rafael Pardo

Page 41: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

41

Investigación hoy - Mesa de ideas

porque, si no se le hace comprender esa acti-tud, podemos dar lugar a que la imaginación produzca monstruos. Los experimentos y los ensayos cada vez son más complejos y puede que lo que funcione en una persona no funcio-ne en otra por cuestiones como, por ejemplo, la etnia. Entonces, ¿cómo transmitimos a la sociedad esa actitud científica para no encon-trarnos con que, por ejemplo, en Estados Uni-dos se sigue debatiendo cada cierto tiempo si se debe enseñar el creacionismo como una alternativa científica a la teoría de la evolución por selección natural? Creo que si hubiera una actitud científica, ese tema no tendría que de-batirse todos los años porque se le hubiera dado ya carpetazo. ¿Cómo transmitimos esa actitud?F. García Olmedo: Yo llevo varios años bus-cando a gente que escriba sobre determinados temas. La inmensa mayoría de los científicos no aceptan porque eso les supondría cambiar de lenguaje y es muy difícil. Creo que los mejores libros sobre ciencia no están escritos por cien-tíficos –como es el caso de Hudson-, aunque también he leído algunos muy buenos escritos por científicos. Cuesta mucho encontrar a gente que quiera hacer esa labor de interfase porque hay temas que no son triviales a la hora de ser transmitidos. Hay asuntos en los que la lucha está pérdida pero hay otros, como los biocom-bustibles, el agua o el clima, que son temas so-bre los que hay mucha demanda; pero el pro-blema es ver quién le pone el cascabel al gato. Crece el número de personas que viene de las ciencias sociales o del periodismo y son capaces de escribir sobre estos temas con propiedad. En cambio, creo que, cuando los que escribimos so-mos los propios científicos, nos damos cuenta de que nos cargamos de importancia utilizando

palabras difíciles y que los artículos se quedan en nada cuando los despoblamos de su comple-jidad léxica. Pero conviene que existan los dos estilos a la hora de escribir. P. M. Etxenike: ¿Por qué crees que te gusta es-cribir sobre ciencia? ¿Por obligación social? F. G. Olmedo: Fundamentalmente, porque, como me encuentro próximo a la jubilación, quería una nueva ocupación y empecé hacien-do un artículo al año y, sinceramente, si he decidido dedicarme a ello ha sido por razones interesadas y nada altruistas. He encontrado una manera de ser útil después de abandonar la investigación y creo que es mucho más satis-factorio que escribir papers porque a menudo conoces personalmente a algunos que te han leído. El inconveniente que tiene es que ahora no doy abasto y llevo una vida casi tan atosigada como antes. En cualquier caso, lo que sucede es que es muy difícil encontrar a gente que quiera escribir sobre estas cosas. Creo que la solución es que venga a escribir gente que, aunque esté fuera de la ciencia, esté dispuesta a empaparse del tema o, por el contrario, gente de la ciencia que esté dispuesta a aprender un oficio nuevo, que es el de escribir. Este es un gran agujero negro.C. Ribas: Agradezco mucho que digas que se necesitan muchos nuevos profesionales en este ámbito. Por ejemplo, en otros países los cientí-ficos pueden incluir sus actividades de divul-gación como parte de su currículum, cosa que

aquí es muy difícil, y creo que esto sería de gran ayuda si lo aplicamos aquí. Por otro lado, creo que, en general, la actitud de los científicos de-bería cambiar un poco.F. G. Olmedo: Mucho…C. Ribas: Cuando invitas a científicos a un pro-grama de televisión les suele dar mucha pereza porque se creen que van a ser cuestionados por gente que sabe mucho menos que ellos. En ge-neral, suelen hacer un esfuerzo pero sólo van a los programas serios. Cuando el debate no es estrictamente serio, hay pocos científicos que quieran ir.F. G. Olmedo: Yo he ido a casi todos, excepto a Crónicas Marcianas, porque, aunque me invi-taron, me negué…C. Ribas: Ya sé que cuesta, pero creo que es importante dar la cara delante de gente que, aunque sabe mucho menos e incluso, está ma-nipulando al dar datos falsos; porque si no, se puede crear una capa oscura en la ciencia. Por ejemplo, hay debates en los que puede salir gen-te diciendo cosas tales como que el virus del sida no existe. En esos casos, creo que lo mejor es que el científico baje a ese nivel básico y le rebata con argumentos científicos incuestio-nables y dé las explicaciones precisas, por muy elementales que puedan parecer. Para que un ciudadano se haga una opinión más formada y se aproxime a la realidad de la ciencia, creo que también es importante que haya diferentes puntos de vista científicos para que no se caiga en el error de dar clases magistrales bajo la ex-cusa de que tal persona es toda una autoridad porque, por ejemplo, es catedrático. En cuanto a la investigación, creo que la trans-parencia máxima –por ejemplo, por medio de información publicada en las webs de los centros de investigación- es positiva porque siempre, a la larga, es mejor y beneficia al que la publica. F. García Olmedo: Generalmente, no se suelen dar debates entre científicos y lo que se suele hace es enfrentar a ecologistas con científicos. Hubo una época en la que asistía a un montón de debates pero lo dejé al descubrir que sacaban lo peor de mí y llegaba a casa deprimido. P. M. Etxenike: En este tema, a mi me gusta más hablar de comunicación que de divulga-ción. Ahora se habla de i+d+i, pero yo estoy de acuerdo con Igor Campillo y creo que la ecua-ción debería ser i+d+i+c, sumándole la c de la Cultura. La cultura del siglo xxi va a tener un gran componente científico-tecnológico, de ahí que sea tan importante la i mplicación de la

“La transparencia de la información es el primer paso hacia una democracia más participativa”

Cristina Ribas

Page 42: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

42

Investigación hoy - Mesa de ideas

sociedad. Creo que la divulgación de la ciencia debe ir acompañada de tres elementos básicos: el conocimiento de los conceptos científicos ge-nerales, el conocimiento de las características esenciales del método científico y, por último, que la sociedad entienda las profundas implica-ciones sociales y económicas de la ciencia. La mayoría de los científicos en activo no tene-mos tiempo para la comunicación, porque el afán por descubrir nos quita la mayor parte de nuestro tiempo. A pesar de ello, creo que tene-mos la profunda obligación de divulgar por dos motivos básicos: para dar a conocer la belleza de la ciencia y por razones pragmáticas. R. Pardo: Creo que cuando se habla de método científico se debe cualificar bien porque, si no, corremos el peligro de caer en una especie de recetario, que proyecte la falsa imagen de que el seguimiento mecánico de una serie de pasos ga-rantice, sin más, los resultados o los modelos. En general, creo que la situación no es dramá-tica. La gente, salvo excepciones muy aisladas, acepta la manera en la que la ciencia explica las causas y las consecuencias de la mayoría de los fenómenos, como por ejemplo es el caso de las distintas enfermedades. En cambio, uno de los peligros de nuestro tiempo es que hay un sector de la comunidad científica que, bajo la presión de quienes toman las decisiones públicas y de los medios de comunicación, no es veraz cuan-do comunica a la sociedad, ya que tienden a magnificar las expectativas y/o los tiempos de hacerlas realidad, que luego resultan imposi-bles de cumplir. Esto ocurre a veces con temas tan importantes como los que afectan al tra-tamiento de determinadas enfermedades, con el resultado de que, en ocasiones, a la gente le cuesta distinguir entre el hype y la evidencia; es decir, entre lo que es mero marketing y lo que en realidad es ciencia.C. Ribas: Estoy de acuerdo en que es más ade-cuado hablar de comunicación científica en lu-gar de divulgación. Además, cuando hablamos de ciencia, en realidad, estamos hablando de muchas cosas. Hay una clasificación que dice que podemos hablar de ciencia como alta cul-tura, que es una ciencia que se asimilaría al arte. En segundo lugar, tendríamos una ciencia más práctica en el día a día y que es la que nos ayuda a tomar decisiones racionales; y, por último, hay una acepción de ciencia que tiene que ver más con la financiación, los resultados y los objeti-vos de lo que se investiga. Por último, en cuanto al tema de la metodología y los docentes, creo que es cierto que hace fal-

ta reciclar a nuestros profesores de primaria y secundaria, y también hace falta adaptar la pro-pia metodología de la enseñanza a los tiempos actuales. Usamos la tecnología para apoyar al método antiguo cuando, en realidad, lo que de-beríamos hacer es cambiar el propio método.

R. Pardo: Creo que sería conveniente que to-das las instituciones y agentes que hay dentro de una determinada comunidad –hospitales, centros de investigación, colegios, facultades, bibliotecas, empresas tecnológicas y biomédi-cas…-, además de hacer su función habitual, tuvieran otra función adicional y compartida: abrir una ventana de información veraz y di-námica, proyectando al entorno lo que hacen y los resultados de esa labor. Creo que esta es una asignatura pendiente en España y que sería relativamente fácil de llevar a cabo apoyándo-se en Internet. Si todas las organizaciones que, de manera directa o tangencial, tienen que ver con la generación, almacenamiento, gestión y aplicación del conocimiento, desarrollaran la función de comunicar transparentemente esos conocimientos, todos los ciudadanos tendrían

a su alcance un dominio de conocimiento de confianza, autentificado por organizaciones y personas que les son relativamente cercanas porque están arraigadas en su territorio. Una iniciativa de este tipo, que consistiría en vol-car al exterior conocimientos que generalmente quedan intramuros de cada organización o se difunden por canales muy especializados, ge-neraría una monumental explosión de conoci-miento en esa sociedad o comunidad. En mi opinión, sería conveniente, además, que este sistema fuera una red cooperativa y distribuida, en modo alguno centralizada.F. G. Olmedo: En Madrid, empiezan a obligar-nos a hacer algo similar…J. M. Mato: Aunque más depurada, lo que pro-pone Rafael Pardo, es una especie de Wikipedia de información veraz… R. Pardo: Algo así. Pero sería una Wikipedia de conocimiento autentificado por instituciones que trabajan en el ámbito del conocimiento y que son conocidas por el ciudadano. Se trataría de activar una especie de red de instituciones fa-cilitadoras de conocimiento que, sin necesidad de que nadie la centralice, sí que comparta unas guidelines de buenas y de mejores prácticas en comunicación científica, apoyándose en Inter-net. Es equivalente a pensar en una comunidad como “un parque de aprendizaje” ( John Seely Brown), apoyado en Internet y sostenido por instituciones con identidad y reputación. Es algo que, por ejemplo, se podría hacer a nivel del País Vasco.

“La situación actual que atraviesan la divulgación y la educación no es una cuestión exclusiva de España, es un problema de todo Occidente”

José M Mato

Page 43: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

43

Page 44: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

44

Page 45: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

El apartado “Entorno CIC” quiere ser una ventana abierta en la revista CIC Network para mostrar los avances y novedades más significativos que se desa-rrollan en el ámbito de la comunidad científico-tec-nológica de Euskadi, ofreciendo información sobre aquellas líneas de investigación que se llevan a cabo en sus laboratorios o los proyectos internacionales en los que participan dichos centros. Asimismo quiere ser el reflejo de aquellas informaciones relevantes que se den en el emergente mundo empresarial vasco de las “bio” o “nano” ciencias. Esta sección pretende erigirse en una plataforma para el debate y las ideas, donde la comunidad científica e investigadora pueda trasladar sus aportaciones y reflexiones acerca de los nuevos retos y oportunidades a los que debemos hacer frente en el nuevo contexto mundial en el que vivimos.

Investigadores de ceit-ik4 analizan nuevas técnicas nano/micromecánicas para asegurar la fiabilidad de los circuitos integrados.

CIC marGUNE describe sus proyectos de investigación en torno a la mejora de la precisión en el mecanizado.

gaiker -ik4 explica los últimos avances en nuevos marcadores del cáncer colorrectal.

Investigadores de la Universidad del País Vasco (upv/ehu) dan a conocer sus estudios sobre nanopartículas con interés biomédico.

46

50

54

58

en Euskadi

Page 46: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

46

Xxxx xxxx xxx xxxxx

samiento, exigen el desarrollo de métodos de evaluación de la fiabilidad, tanto eléctrica como mecánica, a escalas micro y nanométricas, fuera del alcance de las técnicas usadas hasta hace pocos años.Éste es el contexto de la colaboración del ceit-ik4 con intel, que ha fruc-tificado en el desarrollo de técnicas más rápidas y precisas de evaluación mecánica de materiales (nanocapas) para el nivel de interconexión en circuitos integrados. Las nuevas técnicas diseñadas por ceit-ik4 juegan un papel crítico en la toma de decisiones sobre combinaciones de mate-riales para disminuir las potencias consumidas y aumentar la velocidad de los procesadores. Han sido implantadas en la fase de desarrollo de materiales y procesos de la multinacional americana.

Pero la necesidad tecnológica de integrar millones de transistores en un solo chip (los procesadores Intel de la última generación de 45 nm, figu-ra 1, condensan 400 millones de transistores en 1 cm2) presenta nuevos retos para la industria. Nuevas arquitecturas, cada vez más complejas, combinadas con la introducción de nuevos materiales y rutas de proce-

Prof. Javier Gil Sevillano. Director del Departamento de Materiales

de ceit-ik4. Prof. José Manuel Martínez Esnaola. Director del

área de Mecánica y Modelización de Materiales y Procesos de

ceit-ik4(Departamento de Materiales). Dr. Ibon Ocaña Arizcorreta.

Investigador del Departamento de Materiales de ceit-ik4.

La miniaturización de los componentes actúa como una de las principales fuerzas impulsoras en la industria microelectrónica. La capacidad de la industria para poner a nuestro alcance aparatos y componentes cada vez más compactos, con prestaciones cada vez mayores, es uno de los mo-tivos fundamentales detrás del enorme crecimiento experimentado por el sector en las últimas décadas. Actualmente tenemos en nuestro bolsillo teléfonos móviles con capacidades integradas comparables a conjuntos de aparatos (ordenador con conexión a Internet, cámara de fotos y vídeo, vi-deoconsola, reproductor de música…) que, hace sólo unos pocos años, difícilmente podían acomodarse encima de una mesa de despacho. Además, los altísimos niveles de integración han permitido reducir costos, de manera que aparatos de una gran complejidad tecnológica se han convertido en bienes de consumo masivo.

Ibon Ocaña, Javier Gil-Sevillano y José Manuel Martínez-Esnaola, investigadores de ceit-ik4.

Proy

ecto

s de

inve

stig

ació

n

Nuevas técnicas nano/micromecánicas para asegurar la fiabilidad de circuitos integrados

Page 47: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

47

Entorno CIC - Proyectos de investigación

estructuras de interconexión reales, utilizando la herramienta más versátil que hoy existe para el estudio experimental nanomecánico, el ensayo de nanoindentación, combinado con el Focused Ion Beam (fib), una formida-ble herramienta que permite el micro/nanomecanizado local de las mues-tras y su posterior observación ( figura 2). La interpretación cuantitativa de los resultados se apoya en análisis avanzados de elementos finitos. El principio de la técnica, denominada indentación en sección transversal (csn, “Cross Sectional Nanoindentation”), es conceptualmente sencillo, aunque la ejecución y el análisis posterior requieren la máxima precisión y técnicas de modelización altamente especializadas. Las muestras se preparan sobre secciones transversales de los chips objeto del estudio, que dejan a la vista el nivel de interconexiones. Con el fib, utilizando un haz de iones de galio, se mecanizan las muestras con precisión nanométrica, monitorizando constantemente el avance del proceso con el microscopio electrónico de barrido −feg sem− integrado en el sistema.Una vez preparada la muestra, se monta en el nanoindentador donde se ensaya: Una punta piramidal de diamante produce una indentación de pocos nanómetros de profundidad en el material, registrándose simultá-neamente la carga necesaria y la profundidad conseguida con precisión de micronewtons y décimas de nanómetro, respectivamente. El obje-tivo del ensayo es producir agrietamiento controlado en las capas que se quieren estudiar. Esto se consigue indentando en el silicio de calidad microelectrónica que da soporte a las capas de dieléctrico con líneas de cobre. Superada una cierta carga, se produce el agrietamiento del silicio (por su condición frágil). Las grietas formadas desde los vértices de la huella de indentación se propagan hacia las capas dieléctricas deposita-

Evaluación de la fiabilidad con nuevos materiales y procesosEl objetivo de la serie de proyectos ceit-ik4-intel es la evaluación de la fiabilidad mecánica de los microprocesadores en su etapa de desarrollo, para asegurar que los nuevos materiales que se van a utilizar son capaces de resistir los esfuerzos termomecánicos durante el procesamiento y en servicio. El nivel de interconexión de los chips es un entramado tridi-mensional de líneas nanométricas de cobre (que introducen y extraen la señal de los transistores) embebidas en materiales dieléctricos de baja constante k, para reducir el retraso en la señal y el consumo adicional de potencia debido a efectos capacitivos. La tendencia de la industria microelectrónica a utilizar progresivamente materiales con valores de constante dieléctrica más reducida ha generado y genera enormes difi-cultades tecnológicas, debido a que sus propiedades mecánicas son muy inferiores a las de sus predecesores. En no pocos casos, bajo tensiones de origen térmico o mecánico, este tipo de materiales presenta proble-mas mecánicos: agrietamiento ( fallo cohesivo) o despegue de intercaras ( fallo adhesivo).Tradicionalmente, la industria microelectrónica ha utilizado técnicas macro o mesoscópicas, como la flexión en 4 puntos o el “channel cracking”, para la evaluación de la integridad mecánica de películas delgadas. Estas técnicas han resultado muy útiles para caracterizar películas continuas depositadas unas sobre otras; sirven para hacer una preselección de ma-teriales utilizando muestras bidimensionales fabricadas ad-hoc, pero no pueden aplicarse a la evaluación cuantitativa de capas delgadas en el producto, cuyo pattern de interconexiones es tridimensional. En la colaboración ceit-ik4-intel se ha optado por la medida local en

Figura 1. Microprocesadores de Intel de la última generación a tres niveles de detalle. En la primera imagen se muestra una parte de una oblea de 300 mm, de donde se

cortan los chips individuales, cuyo detalle se muestra en la foto central. La tercera imagen corresponde a un transistor pmos de la nueva generación (dieléctrico de alta k,

45 nm) en el que el crecimiento epitaxial de sige provoca tensiones locales compresivas que aumentan el rendimiento del transistor. Cortesía de intel.

Page 48: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

48

Entorno CIC - Proyectos de investigación

das, siguiendo trayectorias que dependen de las propiedades mecánicas de los materiales y de las intercaras que constituyen la estructura de interconexión ( figura 3).El paso siguiente es el análisis de las muestras ensayadas utilizando SEM: longitudes de grieta propagadas recorriendo los diferentes materiales e intercaras, así como el camino seguido por las grietas durante su pro-pagación. Un análisis numérico posterior permite extraer parámetros físicos de las observaciones y medidas experimentales, como la energía de fractura de un material (en caso de fractura cohesiva) o la energía de adhesión entre dos materiales si la grieta ha seguido una intercara ( frac-tura adhesiva). Este análisis exige conocer las propiedades elastoplásticas locales de los materiales, como por ejemplo el módulo de elasticidad, el límite elástico, etc. A la escala de la estructura interna del microchip esas propiedades están sujetas a fuertes efectos de tamaño y tienen que ser extraídas también de ensayos nanomecánicos ( figura 4).La integración de la experimentación nanomecánica con la modelización numérica confiere a esta técnica una enorme potencialidad, no sólo para seleccionar diferentes recubrimientos dieléctricos. Una vez que las pro-piedades de los materiales e intercaras son conocidas, se puede predecir el comportamiento de las grietas al atravesar los diferentes niveles de metalización de la estructura de interconexión. Esto permite al diseñador “jugar” con la disposición de los diferentes elementos en los niveles de conexión (colocación y espaciado de las líneas de cobre, por ejemplo), de manera que obtenga estructuras más robustas desde el punto de vista mecánico. Un ejemplo de la capacidad predictiva mencionada se presenta en la figura 5, donde se comparan los resultados de un experimento de indentación en sección transversal con su simulación numérica. Hay que tener en cuenta que el diseño estructural del microchip es vital para su éxito o fracaso. El nivel de interconexión puede tener hoy hasta nueve pisos de líneas con sus conexiones entre capas. Es equivalente en complejidad arquitectónica a un edificio multimaterial miniatura, pero con el agravante de que los corredores de cobre de ese edificio de pare-des frágiles (silicio, óxido de silicio, etc.) distribuyen señales eléctricas de alta intensidad (que, además, crece al progresar la miniaturización). Ello genera fuertes cargas térmicas fluctuantes, con sus correspondientes dilataciones y contracciones heterogéneas.La técnica csn ha sido implantada y se utiliza con éxito en el laboratorio de desarrollo de materiales y procesos que intel tiene en Oregón, eeuu. Desde el laboratorio de desarrollo ha sido ya exportada a las plantas de fabricación que la multinacional tiene en el mundo (por ejemplo, Irlanda e Israel), donde se fabrican los microprocesadores Intel de última generación.Como continuación natural en la evaluación de la fiabilidad de los ma-teriales durante el procesamiento microelectrónico, el grupo de inves-tigación en micro/nanomecánica del Departamento de Materiales del ceit-ik4 tiene actualmente en marcha un nuevo proyecto en el que se estudian numéricamente y se intentan reproducir controladamente en laboratorio los niveles de tensiones que se alcanzan en la estructura de conexión durante el proceso de empaquetado (packaging, la unión del chip de silicio con la cápsula polimérica o cerámica que le servirá como unión a la placa soporte). Estos niveles de tensiones pueden aumentar con la introducción de novedades en los procesos de fabricación (la sus-titución de las soldadura de aleaciones de plomo, por sus implicaciones medioambientales, es un buen ejemplo de ello). El objetivo fundamen-tal del nuevo proyecto es el diseño de técnicas que permitan asegurar,

Figura 2. Foto superior, nanoindentador, utilizado en los ensayos para la obtención

de propiedades mecánicas a escala micro/nanométrica. Imagen inferior, cámara

del fib (Focused Ion Beam) que permite el micro/nanomecanizado y observación

de muestras (fegsem, fib-ise, stem)

Figura 3. Fotografía de fegsem de una muestra ensayada en la que se observa la

grieta generada en los vértices de la indentación y su propagación a través de la

estructura de interconexión.

Page 49: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

49

Entorno CIC - Proyectos de investigación

mediante simulación, que los nuevos materiales y diseños de las obleas de los microchips van a soportar el empaquetado ( final del proceso) sin necesidad de realizar costosísimas pruebas de producción a ciegas.

Líneas de futuroLa colaboración ceit-ik4–intel sigue en marcha, en proyectos bilate-rales como los anteriormente descritos, con comunicaciones conjuntas en revistas y congresos internacionales y en colaboraciones en proyectos europeos. Intel actúa como parte del consejo de asesores de un proyecto europeo (fp vii) en el que, además del ceit-ik4, participan prestigiosas universidades europeas y el centro de sincrotrón anka (Kalsruhe). El ob-jetivo de ese proyecto es la evaluación del daño sufrido por las obleas de silicio durante su manipulación y la predicción de eventos catastróficos durante su proceso de producción. Los esfuerzos de origen termome-cánico producen en ocasiones la fractura catastrófica de las obleas que, literalmente, estallan dentro de los equipos de tratamiento. Estos fallos conllevan enormes pérdidas económicas en la industria, por el tiempo de parada necesario para la limpieza de la línea de procesado (las pér-didas estimadas para la generación de 90 nm eran de 2.5 millones de euros anuales por línea de producción). En este proyecto en el que el liderazgo industrial corresponde al fabricante de equipamiento Jordan Valley, el ceit-ik4, adjunto a la coordinación, contribuye con ensayos termomecánicos y modelización de los procesos internos que puedan desembocar en la fractura de la oblea (generación y propagación de dis-locaciones en el silicio).La colaboración con Intel en este campo de la micro/nanomecánica ha permitido al ceit-ik4 adquirir una experiencia singular tanto en el uso de técnicas experimentales (una muy buena experiencia previa de uso del fib en Intel Co., Oregón, para micromecanizado de ensayos nanomecánicos antes de disponer, desde el año pasado, de un fib en el propio ceit-ik4, por ejemplo) como en el desarrollo de técnicas de modelización mecá-nica adaptada a las microtecnologías. Los conocimientos y experiencia adquiridos son trasladables a muchas otras aplicaciones micro-electro-mecánicas y a otros campos de la ciencia/ingeniería de materiales como el desarrollo de composites, recubrimientos, fabricación de micro/nano-prototipos o aplicaciones en bioingeniería.

Figura 5. Muestra de la capacidad predictiva de los modelos numéricos

desarrollados. En la figura superior se muestra el camino seguido por una grieta

generada por indentación. En la figura inferior la predicción del camino de

propagación obtenida con la modelización.

Figura 4. Medidas locales del módulo de elasticidad (la gráfica inferior muestra los

valores a lo largo de la línea marcada en negro en la figura de arriba). La muestra es

una sección transversal con líneas de Cu embebidas en varias capas de dieléctrico.

Modulo (GPa) Fase

5 µm

Page 50: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

50

Xxxx xxxx xxx xxxxx

Una introducción, el mecanizado tecnología de futuroEl mecanizado es una tecnología básica de fabricación, presente en todos los sectores industriales. Podríamos decir que el mecanizado consiste en atacar un material por una cuchilla de corte, cuyo movimiento elimina pequeñas porciones denominadas virutas.El País Vasco y todo el norte de España posee un gran tejido industrial de automoción, aeronáutica y de producción de máquinas herramienta. Algunos hasta han denominado a nuestra zona el Silicon Valley del meca-nizado. Por otra parte numerosos clientes demandan a los fabricantes de máquina herramienta la forma de trabajar con sus máquinas, es decir, el know-how del proceso. Por tanto trabajar sobre el mecanizado es reforzar el mantenimiento de la productividad y el empleo. Así lo entiende CIC mar-gune, que surge en el 2002 como un Centro de Investigación Cooperativa para la Fabricación de Alto Rendimiento. Sus socios se comprometen a

L. Norberto López de Lacalle es catedrático de Ingeniería

Mecánica de la Universidad del País Vasco (upv-ehu), donde

lidera el grupo de fabricación de alto rendimiento.

Justino Fernández Díaz es Director del Área de Fabricación de

tecnun-Universidad de Navarra. Coordinador del Cluster de

Proyectos Europeos brite-euram en el área de Fabricación entre

1997 y 2001.

Elixabete Maidagan Ingeniera Industrial por la Escuela Superior

de Ingeniería de Bilbao (upv-ehu). Directora de Transferencia en

Fabricación de Alto Rendimiento de CIC marGUNE.

El mecanizado ha sido, es y seguirá siendo sin duda el proceso de fabricación a utilizar en el acabado de precisión de casi todos los componentes metálicos e incluso no metálicos. Casi todos los sectores de mayor incidencia en cuanto a generación de valor y empleo del País Vasco lo emplean, entre ellos el de automoción, aeronáutica, bienes de equipo y componentes médicos. Por otra parte en el País Vasco se ubica un sector tan nuestro como es el de la máquina herramienta, que es precisamente el que diseña y construye las máquinas que aplican el mecanizado. Por tanto investigar en la mejora del mecanizado es asegurar el mantener la posición de nuestro país en sectores clave como los citados. En CIC marGUNE se ha entendido este hecho desde su fundación, trabajando en la mejora radical de la tecnología de mecanizado.

L. Norberto López de Lacalle, Justino Fernández y Elixabete Maidagan, de CIC marGUNE.

Proy

ecto

s de

inve

stig

ació

n

Mejora de la precisión del mecanizado mediante un enfoque integrador de tecnologías

Page 51: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

51

Entorno CIC - Proyectos de investigación

global de reducción simultánea de todas las fuentes de incertidumbre. Por otro lado si se posee un enfoque común, mostrado en la Figura 2, se puede trabajar en paralelo por varios grupos altamente compatibles, concretamente las universidades del País Vasco y Tecnun, los centros Fatronik, Ideko y Tekniker y la unidad de i+d, Aotek.En la Figura 2 se observan las dos bases teóricas importantes, la modeli-zación (fem y mecanística) y las técnicas de machine learning (sistemas expertos, redes neuronales, lógica fuzzy, etc.). Los resultados se vierten en las aplicaciones de fresado y taladrado de casos concretos, que actúan de demostradores tecnológicos. Se busca actuar sobre procesos industriales ya en curso, desde el mes 1 de proyecto (sobre la idea de realizar “investi-gación concurrente”, es decir, aplicar a medida que se “inventa”). Quizás parezca paradójico el realizar investigación estratégica aplicable a corto plazo. Pero la investigación en ingeniería debe orientarse al mercado y a la industria, muy difícilmente se puede dejar transcurrir cinco años sin aplicar nuevas ideas e investigar esperando acertar en los resultados.

Cam

bio

mar

chas

by

wire

y o

tros

Mot

or s

in le

vas

Mot

ores

brid

os

Mot

ores

de

pila

de

com

bust

ible

Plás

ticos

com

petit

ivos

y

otro

s no

férr

eos

en m

otor

esde

exp

losi

ón

2003 2005 2007 2010

50%

100%

Machinelearning

Técnicas básicasWP 1

Reajuste y afino de modelos

WP 2 WP 3

WP 6

WP 5 WP 7 WP 8

Modelos ajustados para materiales “interesantes”

Procesosmonitorizados

Procesos con autopredizaje

Modelo FEM

Precisión en Fresado

Rugosidad en Fresado

Control sobre

modelo dinámico

Monitorización:-Fuerza en Husillo -Rugosidad on-line

Aplicación a moldes

Proyectos Proyectos Proyectos

Aplicación a austeníticos

Aplicación a Al. ligeras

Monitorización del desgaste de

diamante

Monitorización-intensidad

Precisión en Taladrado

No rebaba en Taladrado

Modelo mecanísticos -Fresado - Taladrado

Arr

anqu

e de

viru

ta

Valor añadidode los componentes producidos

2025

Cam

bio

mar

chas

by

wire

y o

tros

Mot

or s

in le

vas

Mot

ores

brid

os

Mot

ores

de

pila

de

com

bust

ible

Plás

ticos

com

petit

ivos

y

otro

s no

férr

eos

en m

otor

esde

exp

losi

ón

2003 2005 2007 2010

50%

100%

Machinelearning

Técnicas básicasWP 1

Reajuste y afino de modelos

WP 2 WP 3

WP 6

WP 5 WP 7 WP 8

Modelos ajustados para materiales “interesantes”

Procesosmonitorizados

Procesos con autopredizaje

Modelo FEM

Precisión en Fresado

Rugosidad en Fresado

Control sobre

modelo dinámico

Monitorización:-Fuerza en Husillo -Rugosidad on-line

Aplicación a moldes

Proyectos Proyectos Proyectos

Aplicación a austeníticos

Aplicación a Al. ligeras

Monitorización del desgaste de

diamante

Monitorización-intensidad

Precisión en Taladrado

No rebaba en Taladrado

Modelo mecanísticos -Fresado - Taladrado

Arr

anqu

e de

viru

ta

Valor añadidode los componentes producidos

2025

Fig. 1 Evolución de arranque de viruta con la evolución del automóvil. Mantys, 2005.

trabajar en dos ejes. En primer lugar en la mejora radical de los procesos actualmente en uso, entre ellos el mecanizado. Por otra parte las nuevas tecnologías emergentes basadas en el láser, ultrasonidos, etc.Pese a nuestra fortaleza, principalmente basada en un tejido industrial vivo, motivado e innovador, la competencia de los países de bajo coste es muy fuerte. Por otro lado las técnicas de forja, fundición y sinterizado evolucionan hacia el denominado near to net shape, es decir, van dismi-nuyendo las demasías a eliminar posteriormente por mecanizado. Si a este hecho se le añade la evolución del automóvil hacia el motor eléctrico y pila de hidrógeno, se puede pensar que el volumen total de material a eliminar por mecanizado va a disminuir paulatinamente (Figura 1). Sin embargo el valor añadido de la operación de mecanizado va a crecer, además de ejecutarse sobre una forma previa que posee un valor añadi-do muy elevado, por lo cual fabricar fuera de tolerancias o con errores irrecuperables puede conducir a pérdidas enormes.

La integración de tecnologías para obtener máxima productividad y precisiónEl propósito de la línea de CIC marGUNE denominada Integración de la cadena de valor de procesos de arranque es aumentar el valor de los productos mecanizados por la conjunción de varias técnicas básicas de la máquina herramienta o del proceso. Un proceso tan complejo como el mecanizado depende de muchos fac-tores. Actuar sobre un solo factor significa reducir una sola porción de la imprecisión total, por tanto es más provechoso trabajar con un enfoque

Fig. 2 Integración tecnológica, vía de mejora del proceso de mecanizado

Page 52: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

52

Entorno CIC - Proyectos de investigación

El Mecanizado virtualEl término de Mecanizado Virtual engloba a la simulación y modeliza-ción de operaciones de mecanizado, tratando de hacer disponible una herramienta capaz de prever los posibles contratiempos que se pueden dar en una operación teniendo en cuenta aspectos como los parámetros de operación, disposición de las piezas y utillajes en una máquina, obs-táculos que pueden existir y que dificultan el acceso, etc. La modelización profunda del proceso de mecanizado trata de predecir el comportamiento del sistema máquina-herramienta-pieza de forma completa, dando información acerca de la temperatura que se alcanza en la herramienta, las fuerzas que debe soportar la máquina, las tensiones residuales que se obtienen en la pieza, etc. Así, si se es capaz de predecir todos estos efectos, el mecanizador podría establecer las condiciones de corte óptimas y elegir la herramienta más adecuada sin necesidad de realizar costosos ensayos.CIC marGUNE se enfoca a los conocidos como modelos semi-empíricos, también denominados mecanísticos. Estos modelos parten de unos co-eficientes que caracterizan el conjunto material/herramienta/máquina. El cálculo de los coeficientes para cada material se realiza según unos ensayos sistemáticos, posteriormente los coeficientes se pueden utilizar para operaciones más complejas. La relativa sencillez y gran rapidez (mi-lisegundos) de cálculo de estos métodos los hace muy adecuados para mecanizados muy complejos.Una aplicación interesante es la selección de trayectorias de mecanizado en superficies esculpidas tipo molde o micromolde (Figura 3) publicado en la prestigiosa revista Int. J. of Machine Tools and Manufacture [1]. En la figura se plantea una simulación de fuerzas de flexión ( fila de arriba) sobre cuatro estrategias simples ( fila 4, abajo). La tercera estrategia surge como óptima a programar y utilizar, lo que se comprueba al medir ( fila 3) el resultado del mecanizado.Una vez obtenidas las fuerzas, la modelización trata de estudiar sus efec-tos en la pieza final o en la herramienta de corte. En esta línea se ha iniciado un trabajo en CIC marGUNE que se plantea a cinco años vista, cuyo primer fruto ha sido la aceptación en la Asamblea General del cirp (The International Academy for production Engineering) de un trabajo fruto

de la colaboración entre dos grupos de CIC marGUNE, concretamente el Departamento de Ingeniería Mecánica de la Universidad del País Vasco (en la etsi de Bilbao) y de la Escuela Superior de Ingenieros de San Se-bastián (Tecnun) [2,3].

Una novedad, la predicción de acabados con fresas complejasLos procesos de texturizado de superficies para mejorar sus propieda-des están teniendo una aplicación creciente. Los más conocidos son los basados en láser, chorro de iones o ataque químico selectivo, que son lentos y muy caros.Muchas piezas de los sectores industriales ‘mas populares’ podrían mejo-rar su funcionamiento si se sometiesen a texturizado, pero el extracosto de estas técnicas es prohibitivo. El fresado en 5 ejes con fresa de bola puede ser capaz de texturizar aceptablemente si se eligen adecuadamente los parámetros del proceso, que son: la estrategia de mecanizado, el diámetro de la fresa, la inclinación y la excentricidad del eje de la fresa y los avances longitudinales y transversales. El proceso es muy versátil y barato, pudién-dose conseguir texturas de alto ratio área/profundidad muy variadas.Con la idea de determinar los parámetros del proceso con los que se ge-nera una textura deseada, se está desarrollando un modelo para generar texturas por fresado de 5 ejes. De esta se reduce extraordinariamente el tiempo de definición del proceso de texturizado. El CIC marGUNE ha dado un paso más allá del estado del arte al introducir el efecto de la excentricidad de la fresa. Esta variable tiene una marcada influencia en

Fig. 3 Selección de trayectorias de mínima fuerza de corte en un molde de dureza

55 HRC. Fila 1: Fuerzas simuladas para cuatro estrategias. Fila 2: Fuerzas medidas.

Fila 3: Errores medidos. Fila 4: Trayectorias aplicadas.

Fig. 4. Texturas simuladas producidas por una fresa con dos valores de la

excentricidad (ρ=3 y 53 μm) y dos estrategias de mecanizado (ida e ida y vuelta).

Fresa 10 mm de diámetro, avance de 1 mm/vta y avance transversal de 0.5 mm.

Page 53: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

53

Entorno CIC - Proyectos de investigación

la forma de la textura como se puede apreciar en la Figura 4.A la vista de la figura, en las dos texturas de la fila superior todos los pa-rámetros son iguales salvo la excentricidad de la fresa (ρ). La diferencia en la morfología altura de las texturas indica la influencia del parámetro ρ. A la derecha de cada una de las 4 figuras aparece la escala de colores y cotas y se puede observar que, cuando la excentricidad aumenta de pequeña a muy grande (3 a 53 µm), no solo cambia la forma de la textura sino también las cotas de sus puntos. La excentricidad de la fresa puede ser artificialmente manipulada por el operario, por lo que la introducción de este parámetro otorga gran versatilidad con respecto a modelos anteriores.En la Figura 5 se muestra un ejemplo en el que se puede observar que la tex-tura real tiene una semejanza razonable con la predicha por el modelo.

La transferencia, un hecho real y efectivoDe la línea de i+d de CIC marGUNE centrada en el arranque de viruta han surgido en los últimos tres años proyectos industriales por valor de más de 15 millones de euros, lo que implica una tasa de innovación/coste de investigación de más de 20 a 1.Dentro de los proyectos de más envergadura debe citarse el proyecto Openaer, “Nuevas configuraciones de avión y motor para el transporte aéreo”, liderado por la empresa Industria de Turbo Propulsores sa (itp). Otro hecho importante a destacar es la constitución de la red aerosfin (www.aerosfin.org), centrada en desarrollar tecnologías de fabricación para el sector aeronáutico. CIC marGUNE está generando un efecto tractor tanto en la industria local como estatal, con una implicación intensa y coordinada del siste-ma universidad-centro-industria. Sin embargo, también busca que los avances en el campo del mecanizado se contrasten con la comunidad internacional, pues es una forma de obtener una medida de la calidad de lo realizado. Por este motivo debe citarse el esfuerzo realizado por los investigadores del cic en los últimos 5 años, con más de 35 trabajos sobre “machining” incluidos en revistas indexadas isi.

Referencias[1] L.N. López de Lacalle , A. Lamikiz, J.A. Sánchez and M.A. Salgado, Toolpath selection based on the

minimum deflection cutting forces in the programming of complex surfaces milling, Int. J. of Machine Tool and Manufacture, Vol. 47, pp. 388-400

[2] M. Arizmendi, J. Fernández, L.N. López de Lacalle, A. Lamikiz, A. Gil, J.A. Sánchez, F.J. Campa, F. Veiga, Model development for the prediction of surface topography generated by ball-end mills taking into account the tool parallel axis offset. Experimental validation, CIRP Annals - Manufacturing Technology, Vol.57, 2008, pp. 101-104

[3] CIRP, www.cirp.net

Fig. 5. Texturas real (a) y simulada (b) de una superficie fresada con fresa de punta

esférica con excentricidad ρ=53 μm y estrategia “en ida”. Diámetro de la fresa 10 mm,

el avance longitudinal (en X) de 1 mm/vta y el avance transversal (en Y) de 0.5 mm.

Page 54: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

54

Xxxx xxxx xxx xxxxx

conlleva la oncogénesis consisten en alterar varias propiedades fundamen-tales de las células, permitiéndoles escapar del control del crecimiento normal y confiriéndoles en último término el fenotipo completo de célula cancerosa. Las células cancerosas adquieren una capacidad proliferativa independiente de señales externas, no reconociendo aquellas señales que les obligan a detener la división celular y continúan viviendo en lugar de morir por apoptosis. Generalmente, rompen sus uniones con la matriz ex-tracelular y con las células que las rodean, de manera que pueden dividirse más rápido. Además, requieren un suministro de sangre, lo cual consiguen mediante señales que inducen el crecimiento de los vasos sanguíneos hacia el tumor. Las señales de inicio de la neoangiogénesis quedan ejemplificadas por la producción del factor de crecimiento vascular endotelial (vegf) y los factores de crecimiento de fibroblastos (fgf½).

Biología Molecular y cáncer colorrectal En los últimos años hemos asistido a un avance muy significativo en el co-nocimiento de los mecanismos que participan en el desarrollo y progresión del ccr. A nivel molecular se han identificado factores genéticos alterados durante el progreso de la enfermedad, principalmente genes involucrados en la reparación del dna y ciclo celular. Fig. 1. Los cambios genéticos que

Blanca Suárez-Merino. Jefa de Línea de Biotecnología Funcional

en la Fundación gaiker-ik4. Doctorada en Genética Molecular

por la Universidad de Oxford (Reino Unido). Su amplia labor

investigadora se ha concentrado principalmente en la caracteri-

zación molecular del cáncer y en el papel que juegan las células

madre en el desarrollo de este grupo de enfermedades.

En las últimas décadas el cáncer ha constituido una de las líneas prioritarias de investigación en el campo de la biomedicina. Los últimos avances de la investigación básica en el ámbito de las tecnologías X-ómicas (genómica, proteómica y metabolómica, entre otras) han abierto nuevas fron-teras en la investigación de esta enfermedad. Esta focalización de recursos hacia el cáncer se encuentra sustentada en su morbilidad, ya que sigue representando uno de los principales problemas de salud en nuestra sociedad tanto por la incidencia epidemiológica como por la mortalidad. En la capv, durante 2005 los procesos tumorales supusieron la segunda causa de muerte y, entre ellos, el cáncer colorrectal fue el segundo en incidencia tanto en hombres como en mujeres.

Blanca Suárez-Merino, Investigadora de la línea de Biotecnología Funcional de gaiker-ik4.

Proy

ecto

s de

inve

stig

ació

n

Nuevos marcadores no invasivos de cáncer colorrectal mediante tecnologías x-ómicas

Celu

las

de c

ance

r de

colo

n hu

man

o. F

uent

e: W

ellc

omeI

mag

es.

Page 55: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

55

Entorno CIC - Proyectos de investigación

en el crecimiento celular. Otras mutaciones adicionales se han observado en los genes k-ras, P53 y smad4 además de otros genes como el msh2, involucrados en la reparación del dna ó apoptosis (p.e bax) (Fig 2).

Diagnóstico y pronóstico del cáncer colorrectalEn la actualidad, algunos de los métodos empleados en el cribado del ccr consisten en la detección de sangre oculta en heces, sigmoidosco-pia flexible y la colonoscopia. Estos métodos son costosos pero resultan efectivos, a pesar de que los estudios realizados no han permitido de-terminar cuál de ellos es el más adecuado, ni tampoco la periodicidad con la que deberían llevarse a cabo. En general, la diagnosis se realiza una vez que el cáncer ya ha comenzado a invadir los tejidos, debido a los síntomas que ocasiona (cambios de hábitos intestinales o sangrado rectal, entre otros).Entre los aspectos epidemiológicos y fisiopatológicos que apuntan la ne-cesidad de implantar un programa de detección precoz del ccr tenemos (1) que la mortalidad del ccr depende fundamentalmente del estado avanzado en el que se diagnostica. Los casos de diagnóstico precoz su-ponen una curación a cinco años del 90%. (2) La secuencia de la lesión

En el estudio molecular del cáncer se distinguen tres tipos de genes: • Genes supresores de tumores que protegen a las células de daños

producidos en el dna y evitan que las células proliferen de manera incontrolada parando la división o conduciendo a las células dañadas a apoptosis. Los primeros genes supresores de tumores identificados fueron el gen del retinoblastoma (rb) y el factor de transcripción p53. Otros genes en este grupo son: cdk, pten, msh2 y nf-1 (pelengaris, S., et al., 2006).

• Proto-oncogenes que promueven el crecimiento y la división celular, por lo que en situaciones normales se encuentran fuertemente regu-lados. Los oncogenes son las formas mutantes de los proto-oncogenes y presentan un efecto dominante sobre la célula, aumentando su re-plicación o evadiendo la muerte por apoptosis, entre otros. Ejemplos incluyen el encogen c-abl, myc ó ras (barbacid, m., 1987).

• Genes mutadores fueron descritos en 1993 por Manuel Perucho (io-nov, y., et al., 1993), que encontró que en ciertas regiones del genoma se acumulaban cientos de miles de mutaciones somáticas y clonales, lo cual necesariamente implicaba un defecto genético. Debido a la naturaleza somática de las mutaciones, el gen defectuoso tenía que deberse a su vez a una mutación; es decir, tenía que tratarse de una mutación mutadora. Estos genes actúan de forma indirecta, ejerciendo un control que eventualmente acaba afectando tanto a oncogenes como a genes supresores. (loeb, k. r., et al., 2000).

En el caso del cáncer colorrectal esporádico, la primera mutación en un gran número de casos tiene lugar en el gen APC, lo que causa un aumento en la división de células colorrectales, debido a la pérdida de este “freno”

Señales de crecimiento propias

Potencial replicativo ilimi-tado

Evasión de apoptosis

Capacidad de angiogénesis

Insensibilidad a señales anticrecimiento

Invasión y metastasis de tejidos

Modelo propuesto por Hanahan y Weinberg

Mutación

Línea germinal

EpitelioNormal

EpitelioHiperproliferativo

AdenomaTemprano

AdenomaIntermedio

AdenomaTardío

Carcinoma

Metástasis

Cromosoma

5q

12q

16q

17q

A

B

Hipometilación de ADN

Otras alteraciones

Alteración

Pérdidao Mutación

Mutación

Pérdida

Pérdida

Gen

APC

K-ras

DCC

p53

Polimorfismo genético

Somática

Tipo CCR

PAFCCHNP

Cáncer de colon familiar(judíos askenazíes)

CCR

Genes implicados

APMMR

APC

MYCRA

SRC

ERBTP5DCC

APGenes

oncogenes

Genes supresores

Fig.1 Modelo de comportamiento. Oncogénesis celular.

Fig. 2 (A) Resumen de las alteraciones moleculares descritas en los varios tipos

de ccr. (B) Alteraciones cromosómicas descritas durante el desarrollo del ccr

esporádico.

Page 56: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

56

Entorno CIC - Proyectos de investigación

precursora-ccr es un proceso a largo plazo, con una duración media de diez años, lo cual le convierte en un buen candidato para prevención. (3) Dado el envejecimiento de la población, se prevé que en las próximas dé-cadas la magnitud del problema se incremente de forma inevitable tanto en lo que se refiere a número de pacientes como a gasto de salud pública. Entre las distintas técnicas de diagnóstico preventivo, recientemente se han incorporado los tests genéticos aplicados a individuos con historial familiar asociado a cáncer de colon. El marcador genético más utilizado está ligado al gen p53, pero tiene restricciones para su aplicación como pronóstico en estadíos avanzados. Actualmente se está investigando en otros marcadores proteicos como las glut1, antígeno de cáncer 19.9 (ca 19.9), metaloproteinasa matricial 9 (mmp-9) rna, her-2/neu oncopro-teína, y cd44. En la actualidad existen diferentes técnicas de diagnóstico no invasivo de ccr en suero, heces y tejido. Entre ellas cabe destacar los siguientes marcadores:

• Marcadores en suero sanguíneo: El Grupo Europeo de Marcadores Tumorales (European Group of Tumor Markers, egtm) recomendó la determinación de cea cada 2-3 meses en pacientes con Estadio ii y iii de ccr, durante al menos los 3 primeros años tras ser diagnosticados, convirtiéndose así en el marcador de suero más utilizado en el ccr. Así mismo, la Asociación Americana de Oncología Clínica (American Society of Clinical Oncology, asco) indica que en aquellos pacientes en los que se confirme una elevada presencia de cea, será necesario realizar una mayor exploración con el objetivo de detectar metástasis antes de proceder con un tratamiento. Una de las aplicaciones más destacadas del cea es la detección de metástasis en hígado. Además del cea, la egtm indica otros marcadores en suero, como son el ca19.9, ca242 o timp-1.

• Marcadores en heces: La determinación de sangre oculta en las heces (soh) es el método más empleado para la exploración del ccr. Los tests de detección de dna en heces determinan la presencia de dna eliminado debido a las lesiones neoplásicas. En estos casos se suele utilizar un panel de varios marcadores, siendo los más frecuentes los genes mutados de k-ras, apc, p53 y bat-26 (ahlquist, d. a., et al., 2000; dong, s. m., et al., 2001).

• Marcadores en tejido. Volgestein y Fearon mostraron que en el cán-cer colorrectal el paso de adenoma a carcinoma se producía por una acumulación de alteraciones, incluyendo anormalidades cromosómi-cas, mutaciones genéticas y cambios epigenéticos. Estas alteraciones resultan en la inactivación de genes supresores de tumores o genes

reparadores de dna (dna mismatch repair genes), o en la activación de oncogenes. Las mutaciones producidas en los genes apc (adenomatous polyposis coli), kras (Kirsten-ras) y tp53 son críticas en el desarrollo del cáncer colorrectal. (Fearon, E.R., et al 1990). La inestabilidad de micro-satélites (msi) es característica de los tumores en pacientes con cchnp, así como del 15-20% de cáncer de colon esporádico. El msi está causado por un defecto subyacente en el sistema de reparación de errores. Por otra parte, en aproximadamente el 50% de los cánceres de colon se ha encontrado pérdida de heterozigosidad en el cromosoma 18q y en pa-cientes con ccr en Estadío II se ha relacionado con un mal pronóstico, posiblemente debido a la pérdida del gen supresor de tumores dcc .

La identificación de un mayor número de marcadores específicos para cáncer colorrectal proporcionaría las bases para un diagnóstico tempra-no y detección, así como las claves para entender los mecanismos mole-culares que dirigen la progresión del cáncer. Actualmente los parámetros clínicos, combinados con las tinciones y clasificaciones histológicas, son las variables diagnósticas y pronosticas más importantes.Cuando se realiza un diagnóstico de cáncer colorrectal, se llevan a cabo exámenes a fin de determinar la extensión del cáncer y si éste es metas-tático. Este procedimiento es un paso importante hacia la planificación de un programa de tratamiento. Uno de los sistemas más utilizados para definir el estadío en el que se encuentra el tumor es la clasificación de Dukes, que establece 4 estadios básicos: a, b, c y d (el más avanzado). Adicionalmente, otro sistema de clasificación muy utilizado es el tnm (Tumor, Nódulos, Metástasis), que clasifica los carcinomas de acuerdo a la profundidad que alcanza el tumor primario, la presencia o ausencia de metástasis en nódulos linfáticos regionales y la existencia o no de metás-tasis distal (greene, f. l., et al., 2002; greene, f. l., et al., 2004; uicc, 1987). Más preciso es el American Joint Committee on Cancer (ajcc), que, utili-zando la nomenclatura del sistema tnm, estableció 5 grupos o estadíos. En el Estadío 0 (cáncer in situ) el cáncer se encuentra en el revestimiento más interno del colon. Durante el Estadío, i el cáncer se va extendiendo más allá del revestimiento interno del colon, hasta la segunda y tercera capas, y la pared interna del colon, pero no llega a extenderse a la pared exterior del colon ni a su parte externa. El Estadío ii se caracteriza por una progresión del cáncer desde la parte externa del colon hacia el tejido adyacente. Durante esta fase, sin embargo, los ganglios linfáticos no están comprometidos, lo que si ocurrirá durante la progresión del cáncer hacia el Estadío iii. Finalmente, en el Estadío iv, el tumor metastatiza llegando así a otros órganos, normalmente primero al hígado. Si el cáncer se iden-tifica en esta fase, se considera incurable.

Page 57: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

57

Entorno CIC - Proyectos de investigación

al diseño de dispositivos de diagnóstico de un solo uso para su utilización ambulatoria y hospitalaria, sin requerimientos de estructuras de labo-ratorios. Entre estos dispositivos, estamos trabajando en un diseño con una presentación tipo tarjeta en la que la preparativa de la muestra, la extracción y la amplificación mediante pcr ha sido miniaturizada. Los resultados de estos trabajos se encuentran en la actualidad, en proceso de patentado.

ColaboradoresEsta labor investigadora no hubiera sido posible sin el apoyo de nuestros colaboradores, tanto a nivel nacional como internacional, a través de pro-yectos y estancias en colaboración con laboratorios situados en Europa y ee.uu. Nuestros estudios, además, buscan un enfoque multidisciplinar en el que convergen diferentes ámbitos como el médico y el bioinformático. Así, colaboramos con la Fundación bioef, a través del Hospital de Cruces y el grupo de investigación liderado por el Dr. López Vivanco, así como con el Departamento de Inteligencia Artificial de la Universidad del País Vasco (upv/ehu) y los Centros Tecnológicos ceit-ik4 e ikerlan-ik4, quienes soportan nuestras investigaciones con equipos de investigación especializados respectivamente en análisis de datos y microfluidica.A nivel internacional, cabe destacar nuestras colaboraciones con el Dr. Deprez, del California Pacific Medical Center Research Institute, experto en caracterización de rutas metabólicas alteradas en procesos tumorales, así como con varios centros europeos como el MultiD Analises ab, de Suecia, o la Universidad de Newcastle, en el Reino Unido.

gaiker-ik4 y el cáncer colorrectal En este contexto y con el objetivo último de definir marcadores de diag-nóstico y pronóstico basados en técnicas de detección no invasivas apli-cados a la patología de cáncer colorrectal, en el año 2003 comenzamos un estudio multidisciplinar basado en herramientas de investigación de última generación como son los microarrays de dna. Durante este período, y con ayuda de nuestros colaboradores, hemos con-tribuido a la generación de sistemas de detección precoz de ccr mediante biomarcadores, actualmente en periodo de pre-evaluación para la detec-ción de su expresión en sangre periférica. Esta tecnología de detección tiene un alto valor añadido en el caso del ccr, ya que la identificación de marcadores moleculares específicos para cáncer colorrectal en san-gre proporcionaría las bases para un diagnóstico temprano de ámbito ambulatorio con una considerable reducción del gasto en comparación con otras exploraciones como la colonoscopia, y los análisis de biopsia basados en técnicas de análisis histo-químicas. Para la consecución de este objetivo, la elección de los biomarcadores fue enfocada hacia el desarrollo de dos metodologías discriminatorias, una encaminada al diagnóstico de la enfermedad, y otra de carácter pronósti-co capaz de distinguir diferentes estadíos de avance del proceso tumoral. Como resultado de este trabajo, hemos conseguido un perfil discrimina-torio de ccr por estadíos en un 95% de muestras analizadas. En este apartado contamos con la colaboración de instituciones naciona-les y europeas de alto nivel y formamos parte de los proyectos europeos de los vi y vii Programa Marco, SmartHealth y labonafoil, encaminados

Page 58: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

58

Xxxx xxxx xxx xxxxx

en nanociencia y nanotecnología comprende la síntesis, caracterización, exploración y utilización de materiales nanoestructurados, que tienen, por lo menos, una dimensión en el rango nanométrico. Los objetos na-noestructurados constituyen un puente entre las moléculas y los sistemas macroscópicos. Las nanoestructuras se pueden presentar como entes individuales: clústeres, puntos cuánticos, nanopartículas, nanohilos y nanotubos; o asociadas para constituir ordenamientos, ensamblajes y superredes. El esfuerzo interdisciplinar realizado ha permitido extender un gran número de conceptos macroscópicos al mundo nanométrico y diseñar toda una serie de dispositivos que operan mediante reagrupa-mientos electrónicos y/o nucleares. El interés despertado por los nanomateriales no solo radica en sus po-tenciales aplicaciones sino también en las nuevas propiedades físicas que presentan y que dependen de diferentes variables como tamaño de los nanocristales, distancia entre los mismos y entorno que les rodea. A

Las innovaciones tecnológicas y descubrimientos científicos de estas últimas décadas se han basado en la creación de sistemas con un grado de complejidad y sofisticación cada vez mayor, a pesar de presentar un tamaño cada vez menor. El origen de este proceso de miniaturización va unido a la aparición de los denominados nanomateriales. La investigación

*Tambien firman el articulo:

M. Insausti, Dpto. de Química Inorgánica de la Facultad de Ciencias y Tecnología de

la upv/ehu. F. Plazaola, Dpto. de Electricidad y Electrónica de la Facultad de Ciencias

y Tecnología de la upv/ehu. T. Rojo, Dpto. de Química Inorgánica de la Facultad de

Ciencias y Tecnología de la upv/ehu. J.J. Saiz-Garitaonandia, Dpto. de Física Aplicada

II de la Facultad de Ciencias y Tecnología de la upv/ehu. J. Echevarria, Servicio de

Radiodiagnóstico. Hospital de Galdakao-Usansolo. Luis Martinez-Millán, Dpto. de

Neurociencias, Facultad de Medicina de la upv/ehu.

La gran potencialidad de los nanomateriales ha conducido a que varios grupos de investigación de la Universidad del País Vasco (upv/ehu) y el Hospital de Galdakao aúnen sus esfuerzos en un proyecto interdisciplinar que tiene como objetivo la preparación de nanopartículas funcionalizadas de interés biomédico (Esquema 1). La optimización del control de propiedades tales como el tamaño y su dispersión, el estudio de sus interacciones y la funcionalización con diferentes moléculas bioactivas permitirá la utilización de las mismas en el estudio de los mecanismos que subyacen a la presentación de enfermedades que afectan a un porcentaje cada vez más elevado de la población, como por ejemplo el cáncer, la aterosclerosis o la enfermedad de Alzheimer.

A. Gómez-Muñoz*, Dpto. de Bioquímica y Biología Molecular de la Facultad de Ciencias y Tecnología de la upv/ehu

Proy

ecto

s de

inve

stig

ació

n

Nanopartículas Funcionalizadas con Interés Biomédico

Page 59: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

59

Entorno CIC - Proyectos de investigación

Uno de los referentes en la aplicación de los nanomateriales a la biome-dicina es la utilización de nanopartículas magnéticas funcionalizadas. Estas son susceptibles de ser “manipuladas” por un campo magnético externo, posibilitando el transporte y/o inmovilización de nanopartículas magnéticas o de entidades biológicas marcadas magnéticamente. Ade-más, la capacidad de dichas nanopartículas de generar una transferencia de energía, permite su aplicación en el tratamiento de tumores mediante hipertermia. Por hipertermia se entiende el calentamiento artificial de un tejido con la intención de obtener un beneficio terapéutico. La hiper-termia magnética es uno de los pocos métodos que tiene la potencial posibilidad teórica de producir un daño muy localizado en el tumor sin dañar los tejidos sanos adyacentes. La hipertermia no es nueva, ya en los años setenta se realizaron experimentos clínicos que tenían en cuenta la mayor sensibilidad de las células tumorales a la temperatura (en el

escala nanométrica dos factores importantes regulan las propiedades de un material: (a) el efecto de tamaño, debido al confinamiento de los electrones a valores comparables con la longitud de onda del electrón en el nivel de Fermi, y (b) el efecto de superficie, como consecuencia del aumento relativo de los átomos superficiales con topología química y estructural diferente.A partir de 1992, la utilización de métodos de síntesis químicos abrió un amplio abanico de posibilidades para la preparación de nanopartículas con una gran aplicabilidad tecnológica. Especial interés ha suscitado la funcionalización superficial de las nanopartículas ya que permite, ade-más de modificar sus propiedades, ser utilizadas en un medio biológico, ampliando su aplicabilidad a un entorno biomédico. Se ha observado que propiedades como la respuesta óptica, el magnetismo o la reactividad difieren significativamente de las observadas en las muestras en estado masivo y que cambios en dichas propiedades pueden ser modulados por la afinidad química del ligando funcional a la superficie de la nanopar-tícula metálica. Las nanopartículas de Au rodeadas de ligandos tiolados representan un buen ejemplo de este efecto. La gran afinidad entre los átomos superficiales de Au y los átomos de S de los tioles convierte a las nanopartículas de Au en magnéticas. El magnetismo de estas nanopar-tículas es un magnetismo permanente (como el del hierro) que incluso a temperatura ambiente es muy significativo. Si convertir en magnético al metal noble por excelencia es fascinante, las propiedades de las nano-partículas de oro magnético no lo son menos: el magnetismo macroscó-pico varía muy ligeramente al disminuir la temperatura y el magnetismo permanente se observa en tamaños para los que cualquier otro sistema sería superparamagnético. Este asombroso comportamiento no lo hemos obtenido únicamente en el oro, sino que nanopartículas de plata y cobre (cuyos átomos también son intrinsecamente no magnéticos) de 2 nm de tamaño (Figura 1) también son magnéticas a temperatura ambiente (Fi-gura 2). El magnetismo aparece al disminuir las dimensiones del material hasta dimensiones nanométricas y rodearlo de moléculas orgánicas.Sin embargo, detrás de estos resultados quedan importantes cuestiones por dilucidar, como por ejemplo establecer si el origen del magnetis-mo se encuentra en los átomos metálicos o si existen más elementos susceptibles de convertirse en magnéticos. De hecho, nuestro grupo ha demostrado inequívocamente, por primera vez, que en el caso de las na-nopartículas de oro rodeadas por dodecanotiol a temperatura ambiente, el magnetismo reside en los átomos de oro. Para este propósito se han realizado experimentos en el SPring8 de Japón y Australia utilizando dos técnicas específicas al elemento metálico: dicroísmo circular magnético de rayos x (xmcd) en el borde L del Au y espectroscopia Mössbauer de 197Au. La constancia de magnetismo permanente en estas nanopartículas demuestra que los mecanismos físicos asociados a este proceso de mag-netización pueden ser extendidos a mas elementos, abriendo una puerta no sólo a nuevas posibilidades de investigación en el área de magnetismo sino que también amplía el abanico de posibilidades de biocompatibili-dad en el organismo humano. Estas fascinantes nanopartículas metálicas no son las únicas objeto de estudio por nuestro grupo, ya que también se persigue la obtención de nanopartículas con aplicaciones biomédicas. Las tres aplicaciones en las que este proyecto se centra están relacionadas con la hipertermia mag-nética de tejido canceroso, las enfermedades asociadas al crecimiento celular, tales como la aterosclerosis, y la vehiculización mediante nano-partículas de pequeños arns inhibitorios al sistema nervioso.

Esquema 1

Figura1. Imágenes tem de nanopartículas de (izda) Au-SR y (dcha) Ag-SR

Page 60: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

60

Entorno CIC - Proyectos de investigación

intervalo de 42-45ºC) que las células de los tejidos normales (hiperter-mia ligera). Los mediadores con nanopartículas magnéticas convierten la energía electromagnética en calor cuando son expuestos a campos externos de radiofrecuencia (rf). Los mediadores macroscópicos se in-sertan en el cuerpo mediante cirugía, mientras que los mediadores de escala nanométrica se inyectan mediante una dispersión de partículas para posteriormente ser calentados mediante aplicadores inductivos.El origen del calentamiento magnético mediante mediadores de escala nanométrica depende esencialmente del tamaño y de las propiedades magnéticas de las partículas. El calentamiento magnético está basado en 3 mecanismos: 1) pérdidas por histéresis (partículas magnéticas mul-tidominio), 2) relajación de Neel (partículas superparamagnéticas) 3) rotación Browniana, (partículas en medio líquido). La tasa específica de absorción (sar) que mide el calor desprendido por gramo de material es

un parámetro clínico muy importante. El segundo mecanismo parece el más indicado para la hipertermia magnética ya que bajo condiciones clínicas tolerables produce un sar mayor; sin embargo, no hay ningún estudio sistemático donde cada parámetro significante se haya variado independientemente (tamaño del núcleo magnético, corona polimérica, espesor, frecuencia etc.). A esto hay que añadir el hecho de que el com-portamiento magnético del material masivo es diferente del nanométrico y la interacción entre estas es un campo importante de investigación del estado sólido. Hoy en día esta técnica se encuentra en sus albores, pero si se consiguiera la localización preferencial de nanopartículas magnéticas diseñadas apropiadamente para producir un calor controlado en tumores cancerigenos se abriría una gran puerta en la terapia contra el cáncer. Con este propósito nuestro grupo está trabajando en la obtención de nps magnéticas funcionalizadas, tanto por su alta biocompatibilidad, como por la superficie susceptible de interactuar con entidades biológicas. La optimización del método del poliol ha permitido obtener nanopartículas de magnetita (Fe3O4), rodeadas de ácido oleico, de tamaño controlado, en el intervalo de 3 a 8 nm, y con un grado de dispersión < 0.4 nm (Figura 3). Dichas nanopartículas se pueden rodear de Au creando entidades núcleo-corteza, también rodeadas de ácido oleico, y con un tamaño controlado. El estudio magnético macroscópico realizado sobre estas nanopartículas ha demostrado su carácter superparamagnético, de forma que se podrían utilizar como agentes de hipertermia magnética en tejido canceroso, resultando de interés en el campo de la Oncología Médica. Para ello es necesario concentrar, selectivamente, las nanopartículas en el lugar apropiado para su posterior manipulación mediante campos electromagnéticos de radiofrecuencia. Evidentemente, la monitorización de la localización de estas nanopartí-culas es un primer paso de suma importancia, para lo cual pretendemos utilizar la resonancia magnética (rm). Con este objetivo, se han reali-zado experimentos “in vivo” tales como la aplicación intravascular de nanopartículas magnéticas en ratas de experimentación para estudiar la distribución hepática de las mismas mediante un equipo de Resonancia Magnética de uso clínico. Se han utilizado diferentes tipos de nanopar-tículas magnéticas suspendidas en un contraste radiológico yodado de base grasa, el Lipiodol, para inocularlas en ratas tipo wag, a través de vena ileo-cólica. Previamente a la aplicación “in vivo”, se realizaron experimen-tos “in vitro” de las características de la señal de RM, en las suspensiones de nanopartículas magnéticas en Lipiodol, comparadas con un fantoma de hígado y suero fisiológico. De esta manera, se ha podido determinar la cantidad de nanopartículas que se pueden suministrar para obtener una óptima señal de rm, sin que resulte en daño tisular apreciable en las ratas. Algunos de los resultados obtenidos se presentan en la figura 4.La ampliación de las aplicaciones de estas nanopartículas en un me-dio fisiológico implica, sin embargo, su solubilidad en medio acuoso. En este sentido, sería necesario realizar un tratamiento posterior, bien llevando a cabo una reacción de intercambio de ligando, o bien interca-lando moléculas de un polímero anfifílico entre las cadenas hidrófobas de las nanopartículas. Este es uno de los retos que estamos afrontando, actualmente, junto con el diseño de un aplicador electromagnético de radiofrecuencia para la aplicación de hipertermia magnética mediante nanopartículas.Por otra parte, se ha proyectado desarrollar en este proyecto el recubrimien-to de las nanopartículas con moléculas esfingolipídicas para ser utilizadas con fines terapeúticos. Los esfingolípidos se han considerado tradicional-

Figura 2

Figura 3. Imágenes TEM de nanopartículas de (izda) Fe3O4 y (dcha) Fe3O4 @Au.

Page 61: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

61

Entorno CIC - Proyectos de investigación

o quimioterapia está asociada a un aumento en los niveles de cerámido, bien por formación vía síntesis de novo, por activación de esfingomielina-sas específicas o por una combinación de ambos procesos. Sin embargo, existe un problema en el tratamiento con estos fármacos y es que los cerámidos pueden ser metabolizados a formas menos tóxicas por glico-silación, acilación, fosforilación, o por catabolismo a esfingosina, la cual puede fosforilarse rápidamente a s1p y ejercer efectos contrapuestos al de los cerámidos. Concretamente, la activación de la glucosilcerámido sintasa se ha relacionado con la resistencia de las células cancerosas a fármacos citotóxicos o citostáticos y tanto el c1p como la s1p antagonizan el efecto de los propios cerámidos, estimulando la proliferación celular e inhibiendo la apoptosis. Por lo tanto, es lógico pensar que la manipulación farmacológica del metabolismo de esfingolípidos y más concretamente de los cerámidos ofrece una nueva perspectiva para el tratamiento de las afecciones cancerosas. De este forma, la activación de nanopartículas metálicas mediante cerámidos podría proporcionar nuevas alternativas para el tratamiento de este tipo de enfermedades.

mente como componentes estructurales de las membranas biológicas. Sin embargo, ahora se sabe que muchos de ellos están implicados en la regulación de diversos procesos celulares. Concretamente, los cerámidos y esfingosinas, así como sus formas fosforiladas, esfingosina-1-fosfato (s1p) y el cerámido-1-fosfato (c1p), son importantes reguladores del crecimiento y la muerte celular. Concretamente, los cerámidos son potentes inductores de la apoptosis o muerte celular programada. Precisamente, esta capacidad de control ha colocado a los esfingolípidos en una posición central como reguladores de la homeostasis celular. Por lo tanto, la manipulación de los niveles intracelulares de estos metabolitos puede ser clave en el tratamiento terapéutico de enfermedades asociadas al crecimiento celular, tales como la aterosclerosis o la formación de tumores.En este sentido, muchos agentes quimioterapéuticos utilizados en el tratamiento contra el cáncer estimulan la formación de cerámidos in-tracelulares, lo cual está relacionado con el efecto citotóxico de estos compuestos. Al igual que estos fármacos, la aplicación exógena de cerá-midos es citotóxica para las células y la exposición de células a radiación

Figura 4. A: Secuencia coronal eg (120/4,6). Contornos hepático dentro de óvalos. Rata ii, hígado hipo-intenso, por presencia de nanopartículas de Oro y Óxido de Hierro.

B: Secuencia coronal eg (120/5), hígados muy hipo-intensos, por presencia de nanopartículas de Óxido de Hierro en alta concentración (300 microgr de Fe/gr de tejido

hepático seco). C y D: Microfotografías de necropsia hepática a las 72 horas de inyección. Fenómenos de congestión sinusoidal con mínima inflamación y ausencia de

necrosis tisular o zonas de infarto.

A B C

D

Page 62: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

62

Entorno CIC - Proyectos de investigación

Finalmente, otra aplicación de interés en el área de Biomedicina que se persigue en este proyecto consiste en vehiculizar moléculas bioactivas y, más concretamente, el acceso al sistema nervioso central de nano-partículas con pequeños arns inhibitorios. Estas nanopartículas, cuyo tamaño es de unos 15 nm pueden atravesar la barrera hematoencefálica y llegar desde el torrente sanguíneo al tejido nervioso donde los arns inhibitorios se liberan de estas nanopartículas y llevan a cabo su efecto específico inhibidor del arn mensajero frente al cual están diseñados. En uno de los extremos de la doble cadena de los pequeños arn mensajeros inhibitorios hay que añadir un radical sulfhidrilo que facilita su unión al oro de las nanopartículas (Fig. 5). En un ensayo previo se han diseñado dobles cadenas para el mensajero del péptido relacionado con el gen de la calcitonina (cgrp) el cual se expresa anormalmente en el sistema nervioso de unos ratones transgénicos. Las dobles cadenas inhibitorias inyectadas directamente en el cerebro inhiben la expresión del gen del cgrp y es de esperar que lo mismo ocurra cuando estas dobles cadenas estén unidas a las nanopartículas de oro y sean inyectadas por vía intraar-terial. Existe una posibilidad técnica que facilita el acceso de las nanopar-tículas al sistema nervioso central y que consiste en la introducción de un catéter femoral que, sobrepasando el ventrículo izquierdo y la aorta llege a la arteria cerebral media (acm) (Fig. 6). Este acceso permitiría también aplicar nanopartículas unidas a dobles cadenas bloqueantes de genes que se expresan tras las obstrucciones arteriales en el sistema nervioso central y que dan lugar a muerte celular de las zonas carentes de riego sanguíneo. La obstrucción experimental de la acm durante 1 h. con un catéter introducido por vía femoral produce una falta de riego en su territorio (Fig. 7). Tras retirar ligeramente este catéter pueden admi-nistrarse, por el mismo, nanopartículas con pequeños arn inhibitorios de la expresión de genes o portadores de péptidos bloqueantes de enzimas cuya activación en las isquemias centrales es causante de la muerte de las células nerviosas de los territorios faltos de riego arterial.El objetivo final de la investigación desarrollada por los grupos de trabajo de la upv/ehu y el Hospital de Galdakao está dirigido a afianzar nuevas terapias para el tratamiento de enfermedades como la aterosclerosis o la enfermedad de Alzheimer. Estas enfermedades afectan a un sector bastante amplio de la sociedad actual y son las causantes de una gran mortalidad, de forma que la sociedad del siglo xxi está muy sensibilizada por el riesgo que las mismas conllevan. Por tanto, tratar de desarrollar terapias potencialmente más económicas que las que se utilizan actual-mente y con efectos secundarios menores, tendría un impacto de gran relevancia en el bienestar social de la población.

Figura 5. La doble cadena de arn inhibitorio porta en uno de sus extremos un

radical sulfhidrilo que facilita su unión (imagen de la izquierda) a la superficie

de la nanopartícula de oro (imagen del centro) resultando así un constructo de

nanopartículas de oro portadoras en su superficie de los arn inhibitorios (imagen

de la derecha) y dispuestas para su aplicación biológica.

Figura 6. En la imagen de la izquierda se representa una radiografía

anteroposterior de una rata a la que se le ha introducido un catéter radio-opaco

por la arteria femoral izquierda. A este catéter se le ha hecho avanzar, pasar el

corazón y a través de la carótida primitiva y después la carótida interna llegar hasta

el inicio de la arteria cerebral media. La imagen de la derecha muestra una imagen

ampliada en la que se ve con detalle el extremo del catéter ubicado en el inicio de

la arteria cerebral media.

Figura 7. En la imagen de la izquierda se ve el aspecto normal del tronco y de las ramificaciones de la arteria cerebral media (acm) en la rata. En la imagen de la derecha

se ha simulado el territorio isquémico debido a la ubicación de la punta del catéter en el inicio de la acm dando lugar a una zona pálida que es buena parte del territorio

irrigado por esta arteria.

Page 63: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Un emblema de San SebastiánEn junio de 2009 el Kursaal cumple diez años, una década en la que el edificio ha cambiado la fisono-mía urbana de San Sebastián y se ha convertido en destino preferente del turismo de reuniones.

Los espaciosDos auditorios y 20 salasCon dos auditorios con capacidad para 1.806 y 624 personas, cuenta además con 20 salas de reunio-nes con capacidades que van desde las 10 hasta las 575 personas, además de despachos, salas vip y salas de prensa. Áreas de exposiciónEquipado al más alto nivel, el edificio está prepa-rado para acoger ferias y exposiciones en sus más de 5.000 metros cuadradosDos terrazasSus amplias terrazas exteriores, de 5.000 metros cuadrados, tienen vistas panorámicas a la playa y la desembocadura del río Urumea.

El sello “Martín Berasategui”En el capítulo gastronómico, el Kursaal dispone de una variada gama de espacios para la restau-ración con capacidad hasta 1.500 comensales sentados y 1.800 personas en cóctel. Pero además de las salas de banquetes, la cocina de Martín Berasategui -el chef que dirige todos los servicios culinarios del palacio- se hace patente también en los coffe-breaks, en el bar de congresos, el res-taurante y el mb Kursaal, bistrot con estratégica terraza que representa una nueva oferta dirigida a un público más joven. Y todo con el sello Martín Berasategui.

Un referente de innovación y tecnologíaEn el Kursaal, innovador tanto en su diseño como en sus infraestructuras, tienen cabida todo tipo de eventos y reuniones: congresos, jornadas, semina-rios informativos, debates, mesas redondas, ruedas de prensa o actos sociales como cócteles, concier-tos, banquetes o almuerzos de gala.

Servicios integrados a la cartaEl Kursaal pone a disposición del cliente una aten-ción personal y un concepto de servicio integral que destaca por su flexibilidad y capacidad para controlar todos los detalles y necesidades que se planteen en el desarrollo de un evento. Un experto equipo humano participa activamente tanto en el proyecto como en la realización del evento y gestiona una amplia oferta de servicios, que van desde audiovisuales, iluminación escénica hasta personal técnico y azafatas o traducción simul-tánea. Existe, además, la contratación opcional de servicios y recursos técnicos y humanos a la carta.

Compromiso de calidadAdemás de un edificio singular, el palacio de con-gresos se ha dotado de un servicio integral para dar soporte a la organización de los eventos más exigentes y con una calidad contrastada, avalada internacionalmente por la iso-9001 o el Certificado en Gestión Ambiental. En 2007 obtuvo el Certificado de Accesibilidad Global, que concede aenor y que le ha convertido en el primer palacio de congresos español que lo acredita y uno de los seis edificios públicos en todo el estado.

Algunos de nuestros clientes Entre las entidades y empresas tecnológicas que han elegido el Kursaal para celebrar sus con-gresos, jornadas o seminarios se pueden citar inasmet –tecnalia, azti, tekniker, fatro-nik, cic nanogune, cadtech, ceit, cluster de conocimiento, dipc (Donostia International Physics Centre), ideko, ikerlan, mik o saretek. Y entre los congresos o reuniones del ámbito tec-nológico celebradas figuran tnt 2007 (Trends in Noanotechnology), Einstein 2006, aaate-Confe-rencia Europea para el Avance de las Tecnologías, visio 2007, iii Joint European Magnetic Sympo-sia, 4th International Conference on Polymer, transfac’06 o el X Congreso de Materiales que se celebró en junio de 2008.

El Kursaal, un espacio innovador para cada eventoSituado en el corazón de la ciudad, frente al Cantábrico y la playa de la Zurriola, el Kursaal, obra de Rafael Moneo –Premio Europeo de Arquitectura Mies van der Rohe al mejor edificio de Europa en 2001–, es un conjunto arquitectónico de vanguardia. El Kursaal dispone de la tecnología más avan-zada, con espacios polivalente y versátiles, que lo hacen el escenario idóneo para acoger diversos formatos de congresos, convenciones y jornadas. Una oferta diferenciadora es la restauración, a cargo del equipo del chef Martín Berasategui, cocinero “tres estrellas Michelín”.

PUBLICIDAD

Page 64: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

64

Xxxx xxxx xxx xxxxx

Eusk

adi e

n br

eve

Eusk

adi h

itz b

itan

Bilbao acoge el primer Centro de Investigación de Excelencia en Cambio Climático del Estado

El bc3 (Basque Centre on Climate Change), el primer Centro de Investigación de Ex-

celencia en Cambio Climático del Estado, con sede en Bilbao, ha comenzado con su

actividad científica en 2008. El director científico de este proyecto es Anil Markandya,

profesor de la Universidad británica de Bath y miembro del Panel Internacional de

Expertos sobre Cambio Climático (ipcc).

El Basque Centre on Climate Change (bc3) nace con la firme intención de conver-tirse desde el inicio de su actividad en una referencia para la comunidad científica internacional dedicada tanto al estudio del control de la crisis ambiental como a las implicaciones que ésta pueda tener en otras áreas de investigación.Este centro de investigación de excelencia situado en Bilbao contribuirá de forma decisiva a la creación de conocimiento sobre las causas y consecuencias del cambio climático, así como a la puesta en marcha de alternativas dirigidas a la reducción de las emisiones de gases de efecto invernadero.El bc3, cuyo director científico es Anil Markandya, es el primer Centro de Investi-gación de Excelencia en Cambio Climático del Estado. Markandya, profesor de la Universidad británica de Bath y miembro del Panel Internacional sobre Cambio Climático (ipcc), estará inicialmente acompañado en este proyecto por otros tres científicos de reconocido prestigio.El bc3, con un presupuesto anual estimado en tres millones de euros, ha firmado un acuerdo de colaboración y cooperación con el Centro teri (The Energy and Re-sources Institute) ubicado en la India y cuyo director general es el Dr. R. K. Pachauri, Presidente del Panel Internacional de Expertos sobre Cambio Climático (ipcc) y Premio Nobel de la Paz en 2007.

Bilbon dago Estatuan klima-aldaketa aztertzeko eratu den lehendabiziko bikaintasun-ikerketako zentroa

bc3 (Basque Centre on Climate Change) da estatuan klima-aldaketa aztertzeko era-

tu den lehendabiziko bikaintasun-ikerketako zentroa; Bilbon du egoitza eta 2008an

hasi du jarduera zientifikoa. Proiektu horretako zientzia-zuzendaria Anil Markandya

da, Britainia Handiko Bath unibertsitateko irakaslea eta Klima-aldaketari buruzko

Nazioarteko Aditu Taldeko partaidea.

Basque Centre on Climate Change (bc3) zentroak hasiera hasieratik erreferentzia izan nahi izan du ingurumen-krisiaren kontrola ikertzen duen eta krisi honek beste ikerketa-arloetan izan ditzaken ondorioak ikertzen dituen nazioarteko komunitate zientifikoarentzat.Bikaintasun-ikerketako zentro hau Bilbon dago, eta klima-aldaketaren kausak eta ondorioak modu erabakigarrian ezagutzen eta berotegi-efektuko gasen emisioa gu-txitzeko alternatibak martxan jartzen lagunduko du.Anil Markandya da bc3ko zientzia-zuzendaria, eta zentro hori da estatuan klima-al-daketa aztertzeko eratu den lehendabiziko bikaintasun-ikerketako zentroa. Markan-dya Britainia Handiko Bath unibertsitateko irakaslea eta Klima-aldaketari buruzko Nazioarteko Aditu Taldeko (ipcc) partaidea da; proiektu honetan ospe handiko beste hiru zientzialariren laguntza izango du.bc3ren urteko aurrekontua hiru miloi euro inguru da. Ikerketa-zentroak lankidetza-hitzarmen bat sinatu du teri zentroarekin (The Energy and Resources Institute); zentro hori Indian dago, eta R. K. Pachauri doktorea du zuzendari nagusia, Klima-aldaketari buruzko Nazioarteko Aditu Taldeko lehendakaria (ipcc) eta 2007ko Bakearen Nobel sariduna.

Page 65: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

65

Euskadi en breve - Euskadi hitz bitan

La Biorregión Vasca refuerza su proyección internacional La Biorregión Vasca ha consolidado durante 2008 su creciente proyección internacio-

nal con su participación en dos destacados eventos. En primer lugar, 15 empresas vas-

cas de biotecnología, encabezadas por la Agencia BioBasque, tomaron parte el pasado

mes de junio en bio 2008, la convención más importante del sector a nivel mundial,

que se celebró en San Diego, California (Estados Unidos). Además, la Biorregión Vasca

también contó con una nutrida representación de 17 empresas en el congreso BioSpain

08, celebrado en Granada el pasado mes de septiembre.

En su segunda participación consecutiva en la feria internacional bio, las bioempresas vascas tuvieron la oportunidad de reforzar vínculos ya establecidos y tendieron nuevos puentes hacia posibles colabora-ciones futuras con representantes de empresas euro-peas y americanas. Tal y como señaló María Aguirre, responsable de la Agencia BioBasque, “la notoriedad internacional de la Biorregión Vasca sigue aumen-tando, pero quizás lo más significativo es que las empresas presentes en San Diego han confirmado resultados de mejoría muy positivos en términos de visibilidad y relaciones con clientes, socios y distribuidores”. La Biorregión Vasca también mostró su creciente proyección con su participación entre los días 17 y 19 de septiembre en BioSpain 2008, el mayor foro dedicado a la biotecnología del sur de Europa, que se celebró en Granada y que contó con entidades pertenecientes a 35 países. Como núcleo principal de la delegación, ecabezada por la Agencia BioBasque, destacó la presencia de 17 bioempresas vascas a las cuales se sumó la asistencia de inversores públicos y privados, de la Universidad del País Vasco (upv-ehu) y de varios centros tecnológicos.BioSpain 08 fue además el marco elegido para la presentación de la Red de Biorregio-nes Españolas (rbr). Un proyecto que nace con el objetivo de crear un instrumento que aglutine a los bioclústeres españoles, que facilite la coordinación de iniciativas y la interlocución entre comunidades autónomas y Gobierno Central sobre el desa-rrollo del sector biotecnológico y de las biociencias. La rbr está integrada por las biorregiones que actualmente están constituidas en Es-paña: BioBasque, del País Vasco, la BioRegión andaluza, Biocat de Catalunya, Madrid Bioclúster de la Comunidad de Madrid, y Bioval de la Comunitat Valenciana.

Euskal Bioeskualdeak nazioarteko proiekzioa indartu duEuskal Bioeskualdeak bi ekitaldi garrantzitsutan parte hartu du, eta bere nazioar-

teko proiekzio gero eta handiagoa indartu du. Lehenik eta behin, bioteknologiako

15 euskal enpresek bio 2008n parte hartu zuten joan den ekainean, BioBasque

agentzia buru zela. bio 2008 da sektore horretako batzar garrantzitsuena mundu

mailan, eta San Diegon egin zen, Kalifornian (Estatu Batuak). Gainera, Euskal Bio-

eskualdea 17 enpresak ordezkatu zuten irailean Granadan egin zen BioSpain 08

batzarrean.

Bigarren aldia da bio nazioarteko ferian parte hart-zen duela; euskal bioenpresek jada eginda zeuden lo-turak indartzeko aukera izan zuten, eta etorkizuneko lankidetzarako zubiak eraiki zituzten Europako eta Ameriketako enpresetako ordezkariekin. BioBasque agentziako buru den María Aguirrek adierazi zuen moduan, “Euskal Bioeskualdearen nazioarteko os-pea handiagotuz doa, baina agian esanguratsuena da San Diegon egon diren enpresek berretsi egin dutela presentziari dagozkion eta bezeroekin, bazkideekin eta banatzaileekin dituzten harremanei dagozkien

emaitzak positiboki hobetu direla. Euskal Bioeskualdeak, orobat, BioSpain 2008n erakutsi zuen gero eta proiekzio han-diagoa duela, irailaren 17aren eta 19aren artean, Europako hegoaldean bioteknolo-giari eskainiriko foro handienean. Foro hori Granadan egin zen, eta 35 herrialdetako erakundek parte hartu zuten. Ordezkaritzaren buru BioBasque agentzia izan zen, eta azpimarragarria izan zen 17 euskal bioenpresaren presentzia. Enpresa horiekin inbertsore publiko eta pribatuek bat egin zuten, Euskal Herriko Unibertsitatekoek (upv-ehu) eta hainbat teknologia-zentrotakoek.BioSpain 08 izan zen, gainera, Espainiako Bioeskualdeen Sarea (rbr) aurkezteko hautatu zen esparrua. Proiektu hori Espainiako bioclusterrak biltzeko helburuarekin sortu zen, ekimenen koordinazioa errazteko eta bioteknologiaren sektorearen eta biozientzien garapenari buruzko elkarrizketa errazteko komunitate autonomoen eta Gobernu Zentralaren artean. Gaur egun Espainian osatuta dauden bioeskualdeek osatzen dute rbr: BioBasque, Eus-kal Autonomia Erkidegokoa; Andaluziako BioEskualdea; Kataluniako Biocat; Madrilgo Autonomia Erkidegoko Madrid Bioclúster; eta Valentziako Erkidegoko Bioval.

Page 66: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

66

Euskadi en breve - Euskadi hitz bitan

Vacunek entra en el mercado veterinario

La empresa biotecnológica Vacunek, spin-off del Instituto Vasco de Investigación y

Desarrollo Agrario (Neiker-Tecnalia), continúa avanzando en su plan de introducción

en el mercado de la sanidad animal con productos innovadores de biotecnología para

la detección de patógenos mediante la técnica de la pcr. Se comercializarán en forma

de kits con todos los reactivos y controles necesarios.

Vacunek presentó estos productos en la feria internacional de Biotecnología bio 2008 que celebrada el pasado mes de junio en San Diego, California (Estados Unidos). Todos los productos están basados en técnicas desarrolladas en Neiker-Tecnalia y han sido validados dentro del propio centro. Los primeros productos con destacada robustez que saldrán al mercado van enfocados a la detección de patógenos en el sector ga-nadero, cunícula y avícola. En concreto, dentro los kits basados en la técnica de pcr convencional se encuentran Aberpestiar-vk para la detección del virus de la diarrea viral bovina, virus de la enfermedad de border ó virus de la peste porcina clásica, y Myxunar-vk para el virus de la mixomatosis del conejo. La reacción en cadena de la polimerasa, conocida como pcr, es una técnica de biología molecular cuyo objetivo es obtener un gran número de copias de un fragmento de adn particular, partiendo de un mínimo.Vacunek también dispone de otra gama de productos basados en pcr a tiempo real: una técnica más sensible y rápida que simpli-fica los análisis y permite procesar un alto número de muestras simultáneamente.

Vacunek albaitaritza-merkatuan sartu da

Vacunek enpresa bioteknologikoa Nekazaritza Ikerketa eta Garapenerako Euskal

Erakundearen spin-off bat da. Animalien osasunaren merkatuan sartzeko planean

aurrera egiten ari da, pcr teknikaren bidez patogenoak detektatzen dituzten produk-

tu berritzaileei esker. Kit moduan merkaturatuko dira, behar dituzten erreaktibo eta

kontrol guztiekin.

Vacunek-ek bio 2008 Bioteknologiako nazioarteko ferian aurkeztu zituen produktu horiek. Feria ekainean egin zen San Diegon, Kalifornian (Estatu Batuak). Produktu guztiak Neiker-Tecnalian garatutako tekniketan oinarritzen dira, eta zentroan bertan balioztatu dira. Merkaturatuko diren sendotasun nabarmeneko lehen produktuak abelazkuntzan eta untxi- eta hegazti-hazkuntzan patogenoak detektatzera bideratu dira. Zehazki, pcr teknika konbentzionalean oinarritzen diren kit-en barruan daude Aberpestiar-vk eta Myxunar-vk. Lehenengoak behien beherakoaren birusa, border gaixotasunaren birusa edo txerri-izurri klasikoaren birusa detektatzen ditu; eta bi-

garrenak, untxien mixomatosiaren birusa. Polimerasak sortzen duen kate-erreakzioa, pcr izenez ezagut-zen dena, biologia molekularraren teknika bat da. Teknika horren helburua da dna-zati jakin baten kopia-kopuru handia lortzea, minimo batetik abiatuta.Vacunek-ek badu denbora errealeko pcrn oinarritzen den pro-duktu-sorta bat ere: teknika sentikorragoa eta azkarragoa da, az-terketak sinplifikatzen ditu eta lagin-kopuru handia aldi berean prozesatzeko aukera ematen du.

Bilbao acoge el xxxi Congreso de la Sociedad Española de Bioquímica y Biología Molecular

Entre los días 10 y 13 de septiembre, Bilbao acogió la xxxi edición del Congreso de

la Sociedad Española de Bioquímica y Biología Molecular (sebbm) organizado, entre

otras instituciones, por CIC bioGUNE. Este prestigioso encuentro reunió en la capital

vizcaína a un buen número de expertos nacionales e internacionales que, durante

cuatro días, analizaron los últimos avances producidos en el ámbito de la bioquímica

y la biología molecular.

Entre otros, algunos de los temas tratados fueron es-tructura, estabilidad molecular y función, diagnós-tico molecular, medicina personalizada, así como los avances tecnológicos en bioquímica / biología molecular y sus beneficios en la mejora de la calida de vida. El programa científico de este congreso, ce-lebrado en el Campus de Leioa (Bizkaia) de la Uni-versidad del País Vasco (upv-ehu), estuvo dividido en diferentes cursos, jornadas satélite, conferencias plenarias, simposios y reuniones de grupo.El comité organizador del xxxi Congreso de la Socie-dad Española de Bioquímica y Biología Molecular (se-bbm) estuvo presidido por Félix M. Goñi, Catedrático de Bioquímica de la upv-ehu, y José M Mato, Direc-tor General de CIC bioGUNE y CIC biomaGUNE.

Biokimikako eta Biologia Molekularreko Espainiako Elkarteko xxxi. batzarra Bilbon

Irailaren 10 eta 13 artean, Biokimikako eta Biologia Molekularreko Espainiako Elkarte-

ko, sebbmeko batzarraren xxxi. edizioa egin zen Bilbon; ekitaldiaren antolatzailetako

bat CICbioGUNE erakundea izan zen. Izen handiko topaketa horrek estatuko eta

nazioarteko aditu ugari bildu zituen Bizkaiko hiriburuan, eta lau egunetan zehar bio-

kimikaren eta biologia molekularraren arloetan egindako azken aurrerapenak aztertu

zituzten.

Besteak beste, gaiak hauek landu zituzten: molekulen egitura, egonkortasuna eta funtzioa; molekulen diag-nostikoa; medikuntza pertsonalizatua; biokimikako eta biologia molekularreko aurrerapen teknologikoak eta horien abantailak bizi-kalitatea hobetzeko. Bat-zarra Euskal Herriko Unibertsitateko (upv-ehu) Leioako campusean egin zen (Bizkaia), eta egitaraua hainbat zatitan banatu zen: ikastaroak, jardunaldiak, osoko hitzaldiak, sinposioak eta taldeko bilerak.Biokimikako eta Biologia Molekularreko Espainiako Elkarteko, sebbmeko, xxxi. batzarreko antolakuntza-batzordearen buru upv-ehuko Biokimikako kate-draduna den Félix M. Goñi eta CIC bioGUNE-ko eta CIC biomaGUNE-ko zuzendari nagusia den José M. Mato izan ziren.

Page 67: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

67

Euskadi en breve - Euskadi hitz bitan

CIC bioGUNE reúne en Bilbao a expertos internacionales en alcoholismo y cirrosis Bilbao acogió entre los días 17 y 18 de julio la tercera edición del Symposium Internacional

sobre los efectos del abuso del alcohol y las enfermedades del páncreas (Alcoholic Liver

and Pancreatic Diseases (alpd) and Cirrhosis) organizado por CIC bioGUNE, Ciberehd,

las universidades del Sur de California (usc) y de California-Los Ángeles (ucla).

En el congreso tomaron parte algunas de las mayores autoridades internacionales en el estudio de las enfermedades asociadas al abuso en el consumo de alcohol y se intercambiaron los más recientes avances en esta área. En el simposio, se analizaron temas tales como los mecanismos de las enfermedades alpd, la muerte celular y el cáncer, la investigación clínica, así como los biomarcadores de las enfermedades alpd y de la cirrosis.El comité científico encargado de la organización del simposio estuvo formado por José M Mato –CIC bioGUNE-, José C. Fernández-Checa –Hospital Clinic de Barce-lona y Ciberehd-, Shelly C. Lu -Centro de Investigación de alpd de Los Angeles (ee.uu.)- y Stephen Pandol –Centro de Investigación de alpd de Los Angeles y Profesor de ucla (ee.uu.)-.Bilbao también fue la ciudad elegida para acoger, entre los días 6 y 9 de septiem-bre, la 11ª edición del Workshop Europeo de Citogenética y Genética Molecular de Tumores Sólidos, organizado por el Dr. Luis Antonio Parada, Jefe de Grupo de la Unidad de Biología Celular y Células Madre de CIC bioGUNE. Este seminario contó con la participación de un buen número de científicos e investigadores de prestigio internacional que impartieron ponencias e intercambiaran resultados de los más recientes avances en la investigación sobre la genética del cáncer realizados en sus respectivos laboratorios.

CIC bioGUNEk alkoholismoa eta zirrosia gaietako nazioarteko adituak bildu ditu Bilbon

Uztailaren 17an eta 18an alkohola neurririk gabe kontsumitzearen ondorioei eta

pankreako gaixotasunei buruzko nazioarteko sinposio bat egin zen Bilbon (Alcoholic

Liver and Pancreatic Diseases (alpd) and Cirrhosis). Cic bioGUne eta Ciberehd zen-

troek eta Kaliforniako Hegoaldeko (usc) eta Kalifornia-Los Angelesko unibertsitateek

antolatu dute sinposioa.

Alkohola neurririk gabe kontsumitzearekin lotutako gaixotasunen ikerketan da-biltzan zenbait nazioarteko adituetako batzuek parte hartu zuten biltzarrean. Sin-posioan gai hauek landu ziren, besteak beste: alpd gaixotasunen mekanismoak, zelulen heriotza eta minbizia, ikerketa klinikoa eta alpd gaixotasunen eta zirrosiaren biomarkatzaileak.Sinposioa antolatzeaz arduratu zen batzorde zientifikoa kide hauek osatzen zuten: José M Mato —CIC bioGune—, José C. Fernández-Checha —Bartzelonako Hospital Clinic eta Ciberehd—, Shelly C. Lu —Los Angelesko alpd ikerketa-zentroa (aeb)— eta Stephen Pandol —Los Angelesko alpd ikerketa-zentroa eta uclako irakaslea (aeb)—.Zitogenetika eta tumore solidoen genetika molekularrari buruzko Europako tailerra-ren 11. edizioa ere Bilbon egin zen, irailaren 6 eta 9 artean, eta Luis Antonio Parada doktoreak antolatu zuen, CIC bioGUNE-ren Biologia Zelularreko eta Zelula Amen Unitateko taldeburuak. Mintegi horretan, nazioartean ospe handia duten hainbat zientzialarik eta ikertzailek parte hartu zuten, eta, txostenak banatzeaz gain, min-biziaren genetikari buruz bakoitzak bere laborategian lortutako aurrerapauso be-rrienak trukatu zituzten.

Enrique Zuazua dirigirá el Centro Vasco de Investigación en Matemáticas

El matemático vasco Enrique Zuazua liderará el futuro Basque Center for Applied Ma-

thematics (bcam) impulsado por el Gobierno Vasco y la Fundación Ikerbasque. Este

centro de excelencia en investigación matemática se ubicará en el Parque Científico

del Campus de Leioa (Bizkaia) de la upv-ehu en torno a 2012.

Durante los próximos cinco años, el Gobierno Vasco invertirá cerca de 2 millones de euros en el futuro Basque Center for Applied Mathematics (bcam), un centro de investigación de excelencia que aspira a convertirse en todo un referente mundial en el ámbito de las matemáticas. Con este objetivo, la Fundación Vasca para la Ciencia, Ikerbasque, ha fichado al prestigioso matemático guipuzcoano Enrique Zuazua para dirigir este proyecto.Zuazua, premio Nacional Julio Rey Pastor 2007, premio Euskadi de Investigación 2006, y catedrático de la Universidad Autónoma de Madrid, trabaja desde el pasado mes de septiembre en la puesta en marcha del futuro centro desde las oficinas de Ikerbasque. Las líneas de investigación de las que se ocupará el bcam dependerán de los expertos internacionales que decidan unirse al proyecto, pero el objetivo es llevar a cabo investigación en ciencia matemá-tica al más alto nivel mundial.

Enrique Zuazuak zuzenduko du Matematikako Euskal Ikerketaren Zentroa

Enrique Zuazua euskal matematikaria izango da etorkizuneko Basque Center for

Applied Mathematics (bcam) zentroko buru. Zentro hori Eusko Jaurlaritzak eta Ikerbas-

que Fundazioak sustatu dute. Matematikaren alorreko bikaintasun-ikerketako zentroa

upv-ehuko Leioako campuseko Zientzia Parkean kokatuko da 2012. urte aldera.

Datozen bost urteotan, Eusko Jaurlaritzak 2 miloi euro inguru inbertituko ditu etorkizuneko Basque Center for Applied Mathematics (bcam) zentroan. Bikaintasun-ikerketako zentro horrek matematika-ren alorrean mundu mailako erreferentzia izan nahi du. Helburu horrekin, Ikerbasque Zientziarako Euskal Erakundeak Enrique Zuazua matematikari gipuzkoar ospetsua aukeratu du proiektua zuzentzeko.Zuazuak 2007ko Julio Rey Pastor sari Nazionala eta 2006ko Ikerkuntzako Euskadi saria jaso zituen, eta Madrilgo Unibertsi-tate Autonomoko katedraduna da. Irailetik etorkizuneko zentroa martxan jartzeko lanean ari da Ikerbasque-ko bulegoetatik. Ora-indik ez dago zehaztuta zer ikerketa-ildoz arduratuko den bcam, erabaki hori proiektuarekin bat egingo duten adituen araberakoa izango baira; baina helburua matematikaren ikerketa munduko maila gorenera eramatea da.

Page 68: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

68

Euskadi en breve - Euskadi hitz bitan

NorayBio impulsa su internacionalización con dos nuevos acuerdos comerciales

NorayBio, empresa bioinformática vasca dedicada al diseño, desarrollo e implemen-

tación de software para el sector de la biotecnología, ha conseguido recientemente

dos hitos importantes en su estrategia de internacionalización: su primer contrato en

el mercado asiático y un acuerdo de distribución en Suiza e Italia.

El primero de los acuerdos suscritos consiste en la venta del software Noraymet BioEquiv al Center for Bioequivalence Studies and Bioassay Research (cbsbr) de la Uni-versidad de Karachi, uno de los centros más importantes de Pakistán. Este software permitirá al centro pakistaní ampliar las herramientas utilizadas para el análisis de los estudios de bioequivalencia para fármacos genéricos ya que Bioequiv permite realizar los cálculos farmacocinéticos y los test estadísticos necesarios para concluir si el nuevo fármaco se puede considerar como genérico.Por otro lado, NorayBio también ha firmado un acuerdo con Pharmasafe, empresa suiza espe-cializada en dar servicios de consultoría y ges-tión de proyectos al sector farmacéutico en las fases preclínica y clínica de desarrollo de fárma-cos, permitirá a NorayBio la entrada al mercado biofarmacéutico de Italia y Suiza. Desde sus inicios en 2002, NorayBio ha estado orientada al mercado biotecnológico interna-cional y cuenta con clientes en países como Reino Unido, Alemania o Italia.

dro Biosystems presenta un revolucionario sistema para el cultivo de células terapéuticas

dro Biosystems, empresa vasca especializada en el desarrollo de tecnología y pro-

cesos de producción de sustancias bioterapéuticas, presentó el pasado mes de junio

a la feria bio 2008 celebrada en San Diego, California (Estados Unidos) la nueva

tecnología ssb (Static Support Bed): una herramienta que se aplicará en las distintas

etapas del proceso de producción de biofármacos, incluida la producción de células

para terapias celulares y que está despertando gran interés.

dro Biosystems acudió a San Diego con el objetivo princi-pal de presentar sus dos líneas de negocio. Por un lado, los servicios de desarrollo de procesos de producción de sus-tancias bioterapéuticas y, por otro, la tecnología ssb (Static Support Bed). Es precisamente esta última aplicación de la tecnología para el cultivo de células la que más interés ha despertado entre empresas que operan en el mercado de la terapia celular. Empresas con una importante cuota del mercado de dispositivos orientados al cultivo de células, como Millipore Corporation, se han mostrado interesados por la posibilidad de adquirir la tecnología ssb para incor-porarla a sus productos.

NorayBio-k bi merkataritza-akordio egin ditu, eta hartara bere nazioartekotasuna sustatu du

NorayBio-k softwareen diseinuan, garapenean eta inplementazioan lan egiten du

bioteknologiaren sektorerako. Euskal bioinformatikako enpresa horrek bi helburu

nagusi lortu ditu nazioartekotasuna sustatzeko estrategian: lehen kontratua Asiako

merkatuan eta banaketa-hitzarmen bat Suitzan eta Italian.

Sinatutako lehenengo hitzarmenean, Noraymet BioEquiv softwarea saldu diote Karachi-ko unibertsitateko Center for Bioequivalence Studies and Bioassay Research (cbsbr) zentroari, Pakistango zentro garrantzitsuenetako bat denari. Medikamen-tu generikoentzako biobaliokidetasunaren analisietan erabiltzen diren tresnak handitzeko aukera emango dio software horrek Pakistango zentroari, Bioequiv-ek kalkulu farmakozinetikoak egiteko aukera ematen baitu, bai eta medikamentu

berria generikoa den ala ez erabakitzeko beharrezkoak diren estatistika-probak egiteko ere.Bestalde, NorayBio-k Pharmasafe-rekin ere hitzarmen bat sinatu du. Pharmasafe Suitzako enpresa bat da, eta medikamentuen garapeneko fase klinikoetan eta aurreko faseetan aholkularitza-zerbitzuak eta proiektuen kudeake-ta-zerbitzuak ematen dizkio sektore farmazeutikoari. Hitzarmen horrek Italiako eta Suitzako biofarmaziaren merkatuan sartzeko aukera emango dio NorayBio-ri. NorayBio 2002an sortu zen, eta hasieratik egon da na-zioarteko merkatu bioteknologikora bideratua, eta be-zeroak ditu, besteak beste, Erresuma Batuan, Alemanian eta Italian.

dro Biosystems-ek zelula terapeutikoak kultibatzeko sistema iraultzailea aurkeztu du

dro Biosystems teknologiaren garapenean eta substantzia bioterapeutikoen ekoiz-

pen-prozesuan espezializatu den euskal enpresa bat da. Ekainean San Diegon ,Kali-

fornian (Estatu Batuak), egin zen bio 2008 ferian ssb (Static Support Bed) teknologia

berria aurkeztu zuen. Biofarmakoen ekoizpen-prozesuko faseetan aplikatuko da tres-

na hori, baita terapia zelularretan ere. Tresna hori jakin-min handia sortzen ari da.

dro Biosystems bere bi negozio-lerroak aurkezteko helburu nagusiarekin joan zen San Diegora. Batetik, substantzia bioterapeutikoen ekoizpen-prozesuak garatzeko zerbitzuak eta, bestetik, ssb teknologia (Static Support Bed). Zelulak kultibatzeko teknolo-giaren azken aplikazio hori da, hain zuzen ere, tera-pia zelularraren merkatuan lan egiten duten enpre-sen artean jakin-min handiena piztu duena. Zelulak kultibatzera bideratutako gailuen merkatuan kuota handiak dituzten enpresek (Millipore Corporation enpresak, esaterako) interes handia agertu dute SSB teknologia eskuratu eta beren produktuetan txertatzeko aukeraren aurrean.

Page 69: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

69

Euskadi en breve - Euskadi hitz bitan

Pharmakine estrena nuevo comité científico

Pharmakine, empresa de biotecnología perteneciente al Grupo Dominion, celebró

el pasado 18 de junio la primera reunión de su comité científico asesor. La empresa

vasca centra su actividad en la investigación sobre el cáncer y su metástasis con el

objetivo de alcanzar una terapia personalizada para cada paciente.

El nuevo comité de esta empresa ubicada en el Parque Tecnológico de Bizkaia, cuenta con cuatro expertos de reconocido prestigio en el ámbito asistencial, científico y de la gestión sanitaria, dentro del campo de la Oncología: el Dr. Guillermo López Vivanco, Jefe del servicio de oncología del Hospital de Cruces (Bizkaia) y presidente del comité, el Dr. Carlos Camps Herrero, Jefe del servicio de oncología del Hospi-tal General Universitario de Valencia (Valencia); el Dr. Jose Luis Gonzalez Larriba, Jefe de sección del servicio de oncología del Hospital Clínico San Carlos de Madrid (Madrid); y el Dr. Jaume Bosch, director del Centro de Investigación Biomédica en Red de Enfermedades Hepáticas y Digestivas, ciberehd. Gracias a la puesta en marcha del comité científico asesor, Pharmakine contará con la opinión de expertos en el área clínica oncológica que complementará los cono-cimientos de su equipo investigador con el objetivo de acelerar la consecución de sus metas tecnológicas y proyectarlas a nivel nacional e internacional.

Pharmakine-k batzorde zientifiko berria du

Pharmakine bioteknologiako enpresa Dominion Taldearen barruan dago. Ekainaren

18an egin zen bere aholkularitza-batzorde zientifikoaren lehen bilera. Euskal enpresak

minbizia eta horren metastasia ikertzen dihardu, eta gaixo bakoitzarentzat terapia

pertsonalizatua lortzea du helburu.

Enpresa Bizkaiko Parke Teknologikoan dago, eta batzorde berrian onkologiaren arloan ospe handia duten lau aditu daude, asistentzia-, zientzia- eta osasunaren kudeaketa-mailan ezagunak direnak: Guillermo López Vivanco doktorea, Gurutze-tako Ospitaleko onkologia-zerbitzuko burua eta batzordeko lehendakaria; Carlos Campos Herrero doktorea, Valentziako Unibertsitate Ospitale Nagusiko onkologia-zerbitzuko burua; Jose Luis Gonzalez Larriba doktorea, Madrilgo San Carlos Ospitale Klinikoko onkologia-zerbitzuko burua; eta Jaume Bosch doktorea, Gibeleko eta Di-

gestioko Gaixotasunen Ikerketa Biomedikoaren Sareko Zentroko (ciberehd) zuzendaria. Aholkularitza-batzorde zienti-fiko horri esker, Pharmakine-k onkologiaren eremu klinikoko adituen iritzia izango du; hala, bere ikerketa-taldearen jakint-za osatuko du, helburu tekno-logikoak azkarrago lortu ahal izateko eta estatu mailan eta nazioartean proiektatzeko.

Page 70: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

70

del anillo de 27 kilómetros de diámetro del lhc es acelerar partículas a gran velocidad en direcciones opuestas que chocarán entre sí. Las nuevas par-tículas emergentes tras la colisión pasarán por seis detectores dispuestos en capas y diseñados por expertos del cern para recoger sus recorridos e identidades. Estas colisiones provocadas a altísima energía simularán las condiciones de calor y densidad que tuvo el universo nada más nacer. Detrás de un experimento tan ambicioso como éste hay un esfuerzo mul-tinacional en el que participan activamente miles de científicos, muchos de ellos Premios Nobel de Física. Los primeros datos científicos del experi-mento se esperan para verano de 2009 y se prevé que los descubrimientos significativos se harán esperar al menos un año. Una avería provocada por una fuga de helio a finales de septiembre ha obligado a paralizar la instalación durante unos meses.

Un Big Bang en miniatura El pasado 10 de septiembre entró en funcionamiento en Ginebra (Suiza) el más potente acelerador de partículas jamás construido. Según los físicos e ingenieros a cargo del proyecto del Gran Colisionador de Hadrones (lhc), cuando este experimento alcance sus niveles opera-tivos, será posible entender mejor el origen del universo. El objetivo de esta iniciativa sin precedentes es dar respuesta a la gran pregunta: ¿qué ocurrió segundos después del Big Bang y cómo se creó la masa de la primera materia?

El Gran Colisionador de Hadrones (lhc) pretende dar respuestas a pre-guntas fundamentales de la física actual: por qué la materia tiene masa, si han existido realmente las partículas supersimétricas, cuál es la na-turaleza de la materia oscura, por qué no somos capaces de ver la anti-materia o descifrar la composición interna de las partículas elementales que forman a su vez otras partículas como los protones y neutrones y que reciben el nombre de quarks.La colección de teorías actuales sobre estos temas se conocen como 'mo-delo estándar' y, aunque explican gran cantidad de fenómenos, tienen huecos importantes que los físicos pretenden cubrir con experimentos como las colisiones que se llevarán a cabo en el lhc.Este proyecto fue concebido en la década de los 80 por un grupo de inves-tigadores del cern (Centro Europeo de Investigación Nuclear). El objetivo

Act

ualid

ad C

ient

ífica

Page 71: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

71

Actualidad Científica

Nanopapel más fuerte que el hierro Un grupo de investigadores de Suecia y Japón se hallan inmersos en el desarrollo de un nuevo tipo de papel tan resistente a las roturas como el hierro fundido. El nuevo material, conocido como “nanopapel de celulosa” está hecho de partículas submicroscópicas de celulosa y, según los propios investigadores, podría abrir el camino para un uso generalizado del papel como material de construcción, así como en otras aplicaciones.

El investigador sueco Lars A. Berglund y su equipo señalan que la celulosa, una sustancia resistente y ampliamente disponible que se obtiene de las plantas, tiene un enorme potencial como ingrediente ligero y resistente en compuestos y otros materiales de una amplia gama de productos. Aunque los compuestos basados en celulosa poseen una elevada resistencia, los materiales existentes son frágiles y se rompen con facilidad al aplicar una fuerza sobre ellos.El estudio sobre este nuevo material presenta una solución a este pro-blema, que consiste en exponer la pulpa de madera a ciertas sustancias químicas para producir un nanopapel de celulosa. Los investigadores observaron que su resistencia a la tensión (capacidad del material para resistir una fuerza antes de partirse) superaba la del hierro fundido. Ade-más, fueron capaces de ajustar la resistencia del papel modificando su estructura interna.

Akira Endo, Premio Lasker de Investigación ClínicaEl científico japonés Akira Endo se alzó el pasado mes de septiembre con el prestigioso premio de investigación clínica concedido por la Fundación Albert y Mary Lasker, un galardón que es considerado como el equivalente americano al Nobel. Junto a Endo, también se reconoció la labor de otros investigadores como Victor Ambros, David Baulcombe, Gary Ruvkun y Stanley Falkow.

Akira Endo descubrió en la década de los setenta que las estatinas eran capaces de reducir los niveles de colesterol ‘malo’ en el organismo. Sus descubrimientos permitieron desarrollar el primer medicamento de esta familia autorizado por las autoridades sanitarias de ee.uu. Un fármaco que en la actualidad es consumido por millones de personas. Este hallazgo ha sido el principal aval de este científico japonés, de 74 años de edad, para hacerse con el Premio Lasker de Investigación Clínica 2008.Junto a Endo, estos galardones concedidos por la Fundación Albert y Mary Lasker también han reconocido la labor de tres científicos pioneros en el descubrimiento del microrna: unas pequeñas pero poderosas moléculas capaces de controlar la actividad de cientos de genes al mismo tiempo. Los investigadores en cuestión han sido Victor Ambros, de la Universidad de Massachusetts (ee.uu.); David Baulcombe, de la británica Universidad de Cambridge; y Gary Ruvkun, de Harvard (también en ee.uu.) que com-partirán los 300.000 dólares con los que está dotado este premio en cada una de las disciplinas en las que se concede.En la categoría de méritos especiales, la Fundación Albert y Mary Lasker también ha premiado en la presente edición de 2008 a Stanley Falkow: un investigador de la Universidad de Standford (ee.uu.) que lleva 51 años de carrera científica dedicados a la microbiología.

Akira Endo Stanley Falkow

Page 72: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

72

Actualidad Científica

Siete tecnologías para la medicina del futuroLa revista 'Forbes' ha publicado un artículo en el cual se recogen siete innovaciones tecnológicas que podrían estar llamadas a revolucionar el futuro de la medicina. Información clínica actualizada en el bolsillo, transplantes de órganos artificiales o secuenciaciones de genoma ex-prés son sólo algunos de estos avances sin precedentes.

La primera de estas tecnologías es el 'Patient Keeper': un programa infor-mático que facilita a los médicos el acceso a toda la información clínica desde un portátil o una pda y que permite consultar las citas del día, solicitar pruebas, recetar medicamentos o controlar la evolución de los pacientes.Por otro lado, la empresa hx Technologies trabaja en una tecnología que acelera el intercambio de información entre hospitales y facilita el envío de imágenes de alta resolución (como las de en un tac) utilizando el ciberespacio como único soporte.La propuesta de Xcellerex consiste en desarrollar y comercializar nuevas vacunas y bioterapias a partir de una "plataforma tecnológica desechable" y de una serie de productos de un sólo uso con los que podrían obtenerse resultados sin precedentes en el campo de las biomoléculas. Innocentive, por su parte, propone un concurso de investigación online en el cual se expongan una serie de retos científicos, agrupados en dis-tintas disciplinas. Quién logre solucionarlos opta a un premio valorado en un millón de dólares.Fabricar órganos artificiales a partir de células extraídas de los seres humanos susceptibles de recibir un trasplante ya es posible. El primer órgano reproducido a partir del tejido de los propios pacientes ha sido la vejiga. Después vendrán otros órganos como riñones, corazones, hígados e incluso nervios y vasos sanguíneos.Los robots diseñados por Aethon están destinados a liberar de trabajo rutinario a los trabajadores de los hospitales: recoger las bandejas de comida o repartir los medicamentos, son sólo algunas de las tareas que pueden llevar a cabo.Y, por último, una máquina capaz de identificar las cadenas de adn y se-cuenciarlas a gran velocidad podría acelerar considerablemente la carrera por conseguir poderosas curas en el futuro. El objetivo es reducir a tres horas los tres años que se tarda actualmente en desentrañar el genoma de un ser humano.

Transformar CO2 en metano contra el calentamiento globalUn equipo de investigadores británicos, dirigido por la española Merce-des Maroto-Valer, ha desarrollado una tecnología capaz de transformar el CO2 en gas metano. El dióxido de carbono (CO2) es el principal respon-sable del cambio climático. Con el crecimiento industrial y poblacional de la Tierra, los sistemas naturales que regulaban la presencia del gas en la atmósfera ya no funcionan y su eliminación es uno de los principales retos de los científicos que luchan contra el calentamiento global.

Maroto-Valer es la máxima responsable del Centro para la Innovación en Captura y Almacenamiento de Carbono (ciccs) de la Universidad de Not-tingham (Reino Unido), un laboratorio pionero en la búsqueda de solucio-nes que permitan captar y procesar este gas de efecto invernadero en la atmósfera. Con este objetivo, el ciccs ha diseñado varios procedimientos para capturar el dióxido de carbono que emiten las industrias más conta-minantes, pero esta posible solución presenta algunos inconvenientes. El principal de ellos es que se desconoce el tiempo máximo que el CO2 puede permanecer almacenado y existe el riesgo de que pudiera llegar a producir-se una fuga a gran escala con graves consecuencias medioambientales. Para solucionar este problema, el centro que ha desarrollado una tecno-logía capaz de convertir el dióxido de carbono en gas metano, el principal componente del gas natural, gracias a un proceso similar a la fotosíntesis de las plantas. Según sus responsables, la aplicación de esta tecnología a escala mundial permitiría obtener el ciclo perfecto de la energía, ya que se pasaría del CO2 al gas natural y de éste al CO2 nuevamente.

Page 73: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

73

Actualidad Científica

El Terahercio ilumina la nanoescalaUn equipo conjunto de investigadores del Laboratorio de Nanoóptica de nanoGUNE y del Grupo Nanophotonics del Instituto de Bioquímica Max Planck (mpib) ha sido capaz recientemente de obtener imágenes con resolución nanométrica por medio del uso de microscopía de campo cercano en el régimen del terahercio (THz), que corresponde a una lon-gitud de onda de entre 30 y 1000 μm. En la consecución de este hallazgo también han colaborado el Donostia International Physics Center (dipc), el Centro Mixto csic-upv/ehu e Infineon Technologies ag (Munich).

Estos investigadores han sido capaces de obtener detalles de hasta 40 nm (0,04 µm), iluminando la muestra con radiación de 118 µm (2,5 THz). Por lo tanto, este microscopio THz rompe la barrera de difracción por un factor de 1500. La microscopía de campo cercano de THz no solamente es capaz de ofrecer imágenes en la nanoescala de los materiales, sino que también puede ser usada para el reconocimiento de portadores móviles en nanodispositivos semiconductores. Este hallazgo abre la puerta a futuros estudios cuantitativos de concen-tración de portador local y de movilidad en la escala de los nanómetros. Hasta ahora, no existían instrumentos de metrología lo suficientemente poderosos como para poder trazar un mapa simultáneo y cuantitativo del material y de concentraciones de portador de carga con una resolución en nanoescala. La posibilidad de visualizar y cuantificar portadores de carga presenta un gran potencial de aplicación industrial para el microscopio de campo cercano en el THz. Los resultados de este estudio han sido publicados por la revista Nanoletters en el mes de octubre.

Hacia el almacenaje de ultra-alta densidad La estabilidad térmica de las nanopartículas magnéticas es crucial en el di-seño de dispositivos de almacenaje de datos. Un grupo de investigadores de la Universidad de Cornell, en colaboración con la división norteamerica-na de la firma Hitachi, ha descubierto que esta capacidad puede aumentar si se deposita una capa fina de aluminio en las partículas.

Esta técnica, que también reduce la humectación magnética en bajas temperaturas, podría usarse para producir nanopartículas destinadas a usos como los denominados dispositivos ‘spintronic’ o los nano-oscilado-res de rotación para el almacenaje de datos en ultra-alta densidad.Como ocurre en las tecnologías basadas en un disco duro, el almacenaje magnético implica que la información a almacenar esté dividida en pequeños dominios magnéticos o ‘bits’. Este tipo de dispositivos de almacenaje de datos requieren partículas magnéticas termicamente estables pero, como estos ‘bits’ se hacen cada vez más pequeños en un esfuerzo para aumentar la densidad de almacenaje, estas partículas magnéticas tienden a ser más susceptibles a fluctuaciones térmicas. Es precisamente este fenómeno el que origina que esas partículas sean menos eficientes a la hora de almacenar datos.

Células adultas modificadas para producir insulinaUn grupo de científicos estadounidenses ha abierto recientemente una nueva vía para combatir la diabetes en el futuro: el páncreas de los ratones es capaz de segregar insulina directamente, sin necesidad de pasar antes por la fase de célula madre. El origen de la diabetes reside precisamente en que el organismo no es capaz de producir insulina o en su defecto, no produce suficiente cantidad.

La línea de investigación que apostaba por obtener células secretoras de insulina a partir de células madre –adultas o embrionarias- para tratar la diabetes puede haberse quedado obsoleta. Según un trabajo presentado el pasado mes de agosto en la revista ‘Nature’, un grupo de investigadores del Instituto Médico Howard Hughes (hhmi) en la Universidad de Harvard (ee. uu.) ha logrado insertar tres genes específicos en células pancreáticas de ratones. Estos científicos, liderados por Douglas A. Melton, seleccio-naron a los roedores entre más de mil, sin saber cuáles funcionarían. A continuación, comprobaron que, en pocos días, esas células secretaban insulina y que eran muy parecidas en forma y tamaño a las que habitual-mente cumplen esta tarea. En el experimento se emplearon ratones con déficit de secreción de insulina. Pese a que este hallazgo abre una nueva vía para la investigación en dia-betes, la técnica está aún muy lejos de ser extrapolable a humanos, ya que para insertar los genes reprogramantes se usan virus, algo que no se considera completamente seguro.

Page 74: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

74

Actualidad Científica

Detectado en la galaxia un nuevo tipo de objeto estelarDos equipos internacionales de astrónomos, uno de ellos liderado por el español Alberto Castro Tirado -Instituto de Astrofísica de Andalucía, Centro Superior de Investigaciones Científicas (csic)- han detectado y estudiado un objeto que, por su extraño comportamiento, parece nuevo y distinto de cualquier otro magnetar conocido. Para descubrir este hallazgo, recientemente presentado en ‘Nature’ los investigadores utilizaron hasta ocho telescopios situados en la Tierra y en el espacio.

Este nuevo cuerpo está en nuestra galaxia, la Vía Láctea, a una distancia de unos 20.000 años luz de la Tierra. La primera sorpresa para los cientí-ficos fue la sucesión de fogonazos de luz muy brillantes registrados tras un estallido de rayos gamma. "Tras ese estallido y en apenas tres días, el objeto experimentó un total de 40 erupciones en el rango visible. Once días después se observó otra pequeña erupción en infrarrojos y luego desapareció", según explicó el propio Castro-Tirado.Este comportamiento no es normal en las estrellas de neutrones viejas, que emiten en rayos X con poca intensidad, ni en los magnetares jó-venes, con intensas emisiones en rayos gamma. Por eso, los científicos creen que el nuevo objeto puede ser una especie de eslabón perdido entre magnetares y estrellas de neutrones, que ha sido sorprendido en el paso de una categoría a otra.Las estrellas mucho más masivas que el Sol, cuando se agotan y dejan de lucir normalmente, sufren un complejo proceso que acaba en colapso. Lo que queda en su lugar es un objeto superdenso llamado estrella de neu-trones y, a veces, un agujero negro. Estos astros giran muy rápido y tienen un campo magnético muy potente, pero no todos son iguales. Los que tienen un campo magnético superior a la media se llaman magnetares y deben ser objetos jóvenes con potentes emisiones de rayos gamma.

Redes nanotecnológicas superficialesUn grupo de investigadores británicos ha tenido éxito en la creación de una red bien definida y fácilmente modificada por medio de la combi-nación de dos estrategias diferenciadas para organizar moléculas sobre una superficie. Este hallazgo podría derivar en usos en el campo de la nanotecnología, como por ejemplo, en el desarrollo de biosensores, catalizadores y otros dispositivos basados en la electrónica molecular.

Según Manfred Buck, jefe del grupo de investigadores de la Universidad británica de St. Andrews, durante los últimos 15 años la técnica sam (autoensamblado en una sola capa) ha abierto nuevos oportunidades en campos tan diversos como la electroquímica o la electrónica orgánica. Sin embargo, el desafío actual es dar aplicaciones a la técnica sam en el campo de la nanotecnología ya que ello implica trabajar en escalas inferiores a 10nm.En este sentido, Buck ha hecho hincapié en que la estructura híbrida de la red sam es algo crucial para el desarrollo de la nanotecnología ya que proporcionaría una plataforma de fácil acceso para los estudios a escala de fenómenos diminutos.

Estudiar el magnetismo con máxima precisiónUn grupo de investigadores de Japón ha usado una nueva técnica para medir cómo se fija por primera vez la estructura magnética y electróni-ca de la subsuperficie atómica en un material. La técnica, que ha sido bautizada como espectroscopia de difracción doblada, será crucial para entender el magnetismo a nanoescala y desarrollar materiales magnéti-cos de grabación "perpendiculares" de alta densidad.

En un futuro próximo, la densidad de almacenaje de datos tendrá que ser superior a un terabyte (1012 bytes) por pulgada cuadrada, por lo cual es necesario trabajar con fragmentos de, como máximo, 10 nm, ya que esta es la escala en la cual aparece el magnetismo superficial. En el desarrollo de esta nueva técnica, Fumihiko Matsui y su grupo de investi-gadores del Instituto Nara de Ciencia y Tecnología, en colaboración con otras instituciones japonesas, combinaron dos técnicas ya existentes: la difracción del electrón de taladro y la espectroscopia de absorción de rayos X.

Page 75: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

75

Actualidad Científica

Hallan propiedades electrónicas en algunas moléculas orgánicasUn equipo internacional de físicos ha llevado recientemente a cabo la primera conexión de alta conducción entre una molécula orgánica sencilla y un electrodo metálico. Este logro podría conducir al desarrollo de dispositivos de electrónica molecular más pequeños y rápidos que los transistores convencionales.

La mayoría de dispositivos electrónicos están hechos a base de materiales semiconductores, de los cuales el silicio suele ser el más común. Sin em-bargo, se ha descubierto que algunas moléculas orgánicas como el adn pueden tener propiedades electrónicas similares a los semiconductores tradicionales. Debido a este fenómeno, algunos investigadores creen que determinados tipos de moléculas podrían ser usados en la elaboración de dispositivos electrónicos.Una de las ventajas potenciales de estos dispositivos es que las moléculas son sumamente pequeñas comparadas con la estructura de un semi-conductor convencional y, por ello, podrían ayudar a que los fabricantes incluyesen más circuitos en un mismo chip.

puede ponerse en contacto con nuestro departamento de publicidad:

e-mail: [email protected]éfono: +34 943 32 69 66

Si desea anunciarse en

Page 76: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

76

Page 77: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

77

Actualidad Científica

Premios Nobel 2008El Premio Nobel de Medicina 2008 ha sido concedido al científico ale-mán Harald zur Hausen, por el hallazgo del papilomavirus humano que provoca el cáncer de cuello de útero; y a los investigadores franceses Luc Montagnier y Françoise Barré-Sinoussi, por el descubrimiento del virus de la inmunodeficiencia humana (VIH).

Actualmente, Harald zur Hausen trabaja en el Centro Alemán para la Inves-tigación del Cancer, en Heidelberg. Por su parte, Françoise Barré-Sinoussi (1947) desarrolla sus investigaciones en la Unidad de Regulación de las In-fecciones Retrovirales del Departamento de Virología del Instituto Pasteur (Francia), mientras que su compañero Luc Montagnier (1932) tiene un pues-to en la Fundación Mundial para la Investigación y Prevención del Sida.El Premio Nobel de Física, por su parte, ha reconocido el trabajo de tres físicos de partículas, el estadunidense Yoichiro Nambu y los japoneses Makoto Kobayashi y Toshihide Maskawa. Nambu por un lado, y Kobayashi y Maskawa por otro, han elaborado sendas teorías que explican, desde la disciplina de la física de partículas, por qué el universo no es simétrico.Por último, el Premio Nobel de Química ha galardonado a los científicos estadounidenses Osamu Shimomura, Martin Chalfie, y Roger Y. Tsien, por el descubrimiento y desarrollo de la proteína verde fluorescente (GFP), una de las principales herramientas de trabajo de la biociencia moderna.

Objetos invisibles mediante el desvío de luzUn grupo de científicos estadounidenses financiado por el Pentágono ha conseguido crear un nuevo material capaz de desviar los haces de luz. Este descubrimiento permitiría que, al esquivar la luz, los objetos tridimensionales se oculten a la vista, volviéndose invisibles.

El material creado por científicos de la Universidad de Berkeley y del Lawrence Berkeley Laboratory (California) no se obtiene de forma natural sino que se ha creado gracias a la nanoingeniería. Los metamateriales son estructuras desarrolladas artificialmente que tienen propiedades como un índice de refracción de la luz negativo de las que carecen los materiales naturales.Estos investigadores, han creado una estructura de múltiples capas en forma de red que tiene una sorprendente propiedad: dado que el material resultante no absorbe ni refleja la luz, éste se vuelve invisible permitiendo ver lo que se encuentra detrás de él.Según los investigadores, la posibilidad de crear “un manto de invisibilidad” está más cerca que nunca ya que este nuevo material permitiría doblegar la luz en el momento que se considere oportuno.

Harald zur Hausen

Yoichiro Nambu

Osamu Shimomura

Luc Montagnier

Makoto Kobayashi

Martin Chalfie

Françoise Barré-Sinoussi

Toshihide Maskawa

Roger Y. Tsien

Page 78: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

78

Leonardo Torres Quevedo nació en Santa Cruz de Iguña (Molledo), en la actual Cantabria, el 28 de diciembre de 1852, el mismo año en el que na-cía también la segunda de las figuras científicas de talla internacional de nuestra Edad Contemporánea: Santiago Ramón y Cajal. Hijo de Luis Torres Vildósola y Urquijo, ingeniero de Caminos de origen vasco, y de Valentina Quevedo de la Maza, de raigambre montañesa, vivió de niño en Bilbao con sus padres, quedando a cargo de unas parientas, las señoritas Barrenechea, mientras cursaba la primera parte de sus estudios de Bachillerato en el Instituto de la capital vizcaína. A partir de 1868 completa su formación en el Colegio de los Hermanos de la Doctrina Cristiana de París, la ciudad que recibirá, acogerá y difundirá sus creaciones años más tarde.En 1871 ingresa en la Escuela del Cuerpo de Ingenieros de Caminos de Madrid, finalizando sus estudios en 1876. Trabaja como ingeniero durante unos meses, dedicado a trabajos ferroviarios. Sin embargo, y gracias a la

Francisco A. González Redondo. Dr. en Matemáticas (upm) y

Dr. en Filosofía (ucm), desde 1989 pertenece al Departamento

de Álgebra de la ucm, donde es Profesor Titular de Historia

de la Matemática. Director de publicaciones de Amigos de

la Cultura Científica y Académico-Tesorero de la Academia

de Ciencias e Ingenierías de Lanzarote, desde 2001 es el

Secretario Académico de la Facultad de Educación de la ucm.

Es autor-editor de 20 libros y más de 90 artículos de Historia

de la Matemática, en particular, y de la Ciencia en general. Ha

coordinado más de 20 Congresos, Simposios y Seminarios en

el ámbito de la Historia de la Ciencia y ha sido comisario de nu-

merosas Exposiciones de Historia de la Ciencia y de la Técnica

en España.

Leonardo Torres Quevedo, caracterizado por Maurice D’Ocagne (Presidente de la Sociedad Matemática Francesa) como “el más prodigioso inventor de su tiempo”, ocupa un lugar de excepcional relieve en la historia universal de la ciencia y de la técnica. Patenta un sistema de dirigibles autorrígidos (1902-1906) estableciendo los fundamentos para la aerostación dirigida hasta el presente; inventa el primer aparato de mando a distancia, el telekino (1902); construye el primer funicular aéreo para pasajeros del mundo, el transbordador del Monte Ulía (1907); y, sobre todo, con su obra teórica cumbre, los Ensayos sobre Automática (1914), sus ajedrecistas (1914, 1922) y su aritmómetro electromecánico (1920), el primer ordenador en sentido actual de la historia, se adelanta en varias décadas a los pioneros de la Informática del siglo xx.

Francisco A. González Redondo, Profesor Titular de Historia de la Matemática en la ucm.

Cie

ntífi

cos

Ilust

res

Leonardo Torres Quevedo, el más prodigioso inventor de su tiempo

Imág

enes

ced

idas

por

la B

iblio

teca

del

Cen

tro

de T

ecno

logi

as F

isic

as “

Torr

es Q

ueve

do”.

C.S

.I.C

.

Page 79: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

79

Científicos ilustres - Leonardo Torres Quevedo

herencia recibida de las señoritas Barrenechea, renuncia a ingresar en el Cuerpo para dedicarse a “pensar en sus cosas”, estudiando y viajando por Europa (especialmente Francia y Suiza), con una residencia que se reparte entre Madrid, Bilbao, París… y el Valle de Iguña, donde se casa con Luz Polanco Navarro el 16 de abril de 1885.En 1889, desde su retiro en la montaña, ofrece a la comunidad científica el primer fruto de sus estudios: la patente del transbordador; un funicular aéreo suspendido de cables múltiples cuya tensión, que depende de unos contrapesos situados en uno de los extremos, se mantiene siempre cons-tante, independientemente de la carga que soporten o de la posición que ocupe a lo largo del recorrido. Ensayados unos primeros modelos en el Valle de Iguña, en 1890 D. Leonardo presenta en Suiza esta primera incursión en el mundo de la “automaticidad”… recibiendo la incomprensión (y hasta la burla) de los científicos e ingenieros helvéticos.Pero en esos mismos años, nuestro insigne inventor esta dedicado tam-bién a un segundo ámbito, las máquinas algébricas: máquinas de calcular analógicas (que utilizan variables continuas), en las que una determinada ecuación “algébrica” se resuelve mediante un modelo físico, cuya solución numérica es la solución de la ecuación matemática. Así, en 1893 presenta al Ministerio de Fomento, en solicitud de ayuda, su primer trabajo científico, la Memoria sobre las máquinas algébricas. Informada favorablemente por la Real Academia de Ciencias, y publicada en Bilbao en 1895, se convierte en el punto de partida de diferentes trabajos presentados en Francia que culminarán con la publicación de la Memoria por la Academie des Sciences de París en 1900, y la elección del inventor como Académico de Número de la Real Academia de Ciencias de Madrid en 1901.En esos momentos, agotado el ámbito de desarrollo teórico de sus máqui-nas algébricas, y a la espera de financiación para la construcción de los pri-meros modelos efectivos de demostración, Torres Quevedo está dedicado ya a otro tema, de suma actualidad entonces: la solución del problema de la navegación aérea. Efectivamente, en un contexto internacional expectante tras las pruebas infructuosas del Conde Ferdinand von Zeppelin en 1900 con su primer dirigible rígido, y después de los numerosos ensayos con rudimentarios dirigibles flexibles del millonario brasileño Alberto Santos Dumont, el inventor español revoluciona el panorama aeronáutico en 1902 con la patente Perfectionnements aux aérostats dirigeables, en la que pre-senta un nuevo tipo de dirigible que recogería las ventajas de los sistemas precedentes, eliminando todos sus inconvenientes.Puede afirmarse, sin temor a equivocarnos, que el sistema presentado ante las Academias de Ciencias de Madrid y París introduce tantas novedades, que va a establecer los fundamentos para los siguientes 100 años en el diseño de dirigibles a nivel internacional, hasta el punto de que todos los modelos que se construyen hoy a comienzos del siglo xxi, consciente o inconscientemente, utilizan soluciones que ya estaban contenidas en esta patente de 1902.El sistema ideado para obtener la estabilidad de forma y en vuelo del aeros-tato, y para suspender la barquilla, contempla una viga interior de sección triangular compuesta por una combinación de barras metálicas, tirantes de cuerda y cortinas de lona permeable; todo ello anejo a una quilla me-tálica plana en la parte inferior de la envuelta, asida desde dentro vertical-mente, mediante nuevos tirantes, a la parte superior de la envuelta. De esta compleja estructura, que se tensiona por la presión del gas en el inflado, cuelga la barquilla, situada en el exterior pero pegada a la envolvente.Mientras el Gobierno español busca la vía para financiar sus investiga-ciones, antes de que termine ese año 1902 nuestro ingeniero asombra a El dirigible, bajo él, se encuentra el inventor

Transbordador del Monte Ulía

Page 80: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

80

Científicos ilustres - Leonardo Torres Quevedo

la comunidad científica con una nueva invención: el telekino; el primer dispositivo de mando a distancia de la historia. Concebido para gobernar desde tierra, mediante ondas hertzianas, tanto los torpedos submarinos de una Armada española recién salida del “desastre del 98”, como las ma-niobras de los dirigibles sin arriesgar vidas humanas. En sus escritos D. Leonardo manifestaba su verdadera dimensión: “el telekino es, en suma, un autómata que ejecuta las órdenes que le son enviadas por medio de la telegrafía sin hilos. Además, para interpretar las órdenes y obrar en cada momento en la forma que se desea, debe tener en consideración varias circunstancias”. Efectivamente, el telekino se convertía en el primer autó-mata electromecánico de la historia.Mediante una Real Orden del 4 de enero de 1904, el Ministerio de Fomento creaba el Centro de Ensayos de Aeronáutica con dos objetos muy definidos: “el estudio técnico y experimental del problema de la navegación aérea y de la dirección de la maniobra de motores a distancia”. Este nuevo Cen-tro, junto con el Laboratorio de Investigaciones Biológicas, dotado en 1901 por el Ministerio de Gobernación para Santiago Ramón y Cajal, además de demostrar que las cosas podían empezar a cambiar en nuestro país, sirvieron de antesala a la que puede considerarse la mayor iniciativa de convergencia con Europa emprendida en España en toda su historia: la Junta para Ampliación de Estudios e Investigaciones Científicas (de la que Torres Quevedo sería nombrado Vicepresidente), creada el 11 de enero de 1907, ahora sí, por el Ministerio que debía protagonizar este encuentro, el de Instrucción Pública.En 1906, Torres Quevedo da un nuevo paso en su concepción global de la “automaticidad”: eliminando del proyecto de dirigible de 1902 todos los elementos metálicos, concibe un nuevo sistema, evolucionado de aquél, caracterizado por una viga compuesta solamente de cuerdas, con una sección triangular que determina la forma trilobulada de la envolvente cuando ésta se autorigidiza por la sobrepresión del gas en el interior. Na-cían así los dirigibles autorrígidos.Pero si en la España en regeneración de la primera década del siglo xx, las iniciativas de la Administración del Estado para el fomento de la in-vestigación científica constituían una novedad, en esos mismos años un grupo de industriales vascos se adelantaban al ideal por el que aún hoy suspira el sistema de i+d+i. Efectivamente, el 30 de noviembre de 1906, se constituía en Bilbao la Sociedad de Estudios y Obras de Ingeniería, presidida

por Valentín Gorbeña y Ayarragaray, con José Luis de Goyoaga y Ercario como Secretario, y Luis Landecho, Ricardo de Uhagón, Pedro Chalbaud y José Orbegozo como Vocales. Su objeto quedaba fijado en su primera Base: “Estudiar experimentalmente los proyectos o inventos que le sean presentados por don Leonardo Torres Quevedo y llevarlos a la práctica”.El entramado institucional torresquevediano, público y privado, se com-pletaría en 1907 con la creación, por Real Orden del Ministerio de Fomento de 22 de febrero, del Laboratorio de Mecánica Aplicada (rebautizado años más tarde como Laboratorio de Automática), dedicado “al estudio y cons-trucción de máquinas y aparatos científicos para diversas aplicaciones industriales, para la fabricación de aparatos para la enseñanza y otros”.Durante el verano de ese año, mientras el Centro de Ensayos de Aeronáutica realizaba (aún sin éxito) las pruebas de estabilidad de forma del primer dirigible autorrígido, el “Torres Quevedo nº 1”, en el Parque del Servicio de Aerostación Militar de Guadalajara, la Sociedad de Estudios y Obras de Ingeniería financiaba la construcción del que se convertiría en el primer teleférico para pasajeros del mundo: el transbordador del Monte Ulía, in-augurado el 30 de septiembre de 1907. Al año siguiente, el 14 de junio de 1908, se ensayaba, satisfactoriamente, el “Torres Quevedo nº 2”, vuelo del primer dirigible español del que se cumplen ahora cien años.Entre noviembre de 1909 y febrero de 1910 se producirá un hecho que marcará la trayectoria científica del genio español: la casa francesa Astra, adquiere, previo permiso del Gobierno español, la patente del dirigible autorrígido para su explotación comercial en todos los países del mundo (excepto España). Liberado del compromiso adquirido en 1904 al correr Astra con todos los gastos que suponía el desarrollo del sistema, D. Leonar-do ponía el Centro de Ensayos de Aeronáutica y el Laboratorio de Mecánica Aplicada, formalmente dependientes del Ministerio de Fomento, al servicio del conjunto del Estado.Así, a principios de 1910 proponía desde la Junta para Ampliación de Es-tudios (dependiente, por tanto, de Instrucción Pública) la creación, sobre la base de sus propios establecimientos, de la Asociación de Laboratorios, para coordinar todos los centos dispersos por España dependientes de los diferentes Ministerios. Por lo que a Torres Quevedo respecta, construirá un mágnetógrafo para Gonzalo Brañas, un espectrógrafo de rayos X para Blas Cabrera, varios microtomos para Santiago Ramón y Cajal, un telégra-fo sistema Dúplex-Hughes para Miguel Santano (ahorrándole al Estado

Torres-Quevedo nº1 Ajedrecista

Page 81: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

81

Científicos ilustres - Leonardo Torres Quevedo

millones de pesetas de la época), un sismógrafo para Eduardo Mier, y un largo etcétera de máquinas e instrumental de laboratorio.En mayo de 1910 viaja a Argentina llevando la representación de la ciencia y la técnica españolas en los actos de celebración del centenario de la proclamación de la independencia de la primera de las repúblicas herma-nas americanas. Allí, en el congreso científico internacional convocado para la ocasión, da otro salto adelantándose en varias décadas a la ciencia mundial: trascendiendo sus máquinas analógicas de tecnología mecánica, presenta por primera vez su concepción teórica de unas nuevas máquinas de calcular digitales de tecnología electromecánica.De vuelta a Europa, resuelto el problema de la navegación aérea mediante sus dirigibles, y disfrutando de la explotación comercial de su invención a cargo de la casa Astra (que le proporcionaría unos royalties de 3 francos por cada metro cúbico construido), la inventiva aeronáutica de Torres Quevedo no paró, presentando en 1911 dos nuevos inventos, tan revolucionarios en aquellos momentos, que siguen estando de plena actualidad. En primer lugar, el poste de amarre, un mástil con plataforma superior pivotante al que se amarra la proa del dirigible, el sistema standard hoy en día en todo el mundo. Pero también el cobertizo giratorio, un hangar de tela giratorio, auto-orientable por la propia acción del viento en la misma dirección que el dirigible que debe alojar, elástico y autorrígido, que adquiere su forma (y su rigidez) al inyectarle aire a presión en el interior de la envuelta, consti-tuyéndose, ni más ni menos, en el origen de toda la “arquitectura inflable”, habitual hoy en pabellones polideportivos, stand feriales, etc.En 1913 presenta una nueva patente, la primera en todo el mundo en el ámbito de la ingeniería aeronaval: el buque-campamento, un barco porta-dirigibles. Aunque Torres Quevedo ofreció su invención a la Armada britá-nica, ésta no fue capaz de asimilar lo que vislumbraba claramente nuestro genial inventor: la utilidad de las fuerzas aéreas para la Marina de guerra. La Armada española sí retomaría los diseños del inventor (aunque bien entrados ya los años veinte) para la construcción de nuestro primer porta-aeronaves (para dirigibles e hidroaviones): el “Dédalo”.En 1914 se publica la obra cumbre de la historia de la ciencia y de la técnica española: los Ensayos sobre Automática. Su definición. Extensión teórica de sus aplicaciones. En ella Torres Quevedo crea una nueva ciencia, la Automá-tica, “que estudia los procedimientos que pueden aplicarse á la construcción de autómatas dotados de una vida de relación más o menos complicada”.

Los autómatas, según nuestro inventor, tendrían sentidos (aparatos sensi-bles a las circunstancias externas), poseerían miembros (aparatos capaces de ejecutar operaciones), dispondrían de energía necesaria y, además, y sobre todo, tendrían capacidad de discernimiento (objeto principal de la Automática), es decir, de elección entre diferentes opciones.Pero en los Ensayos también avanza sistemas para realizar operaciones aritméticas por procesos digitales, introduciendo la idea de los circuitos de conmutación mediante relés (única posibilidad en aquella época), desa-rrolla un procedimiento original para comparar dos cantidades, diseña un autómata sencillo y se refiere a Babbage y a su célebre máquina analítica, destacando que la causa de su fracaso había sido el uso de procedimientos exclusivamente mecánicos.Aunque no se hace ninguna referencia a él en los Ensayos, ese mismo año 1914 presenta en España y Francia su primer ajedrecista, la primera mani-festación de inteligencia artificial en la historia. Ni más ni menos que un autómata con el que se puede jugar un final de partida de ajedrez: torre y rey contra rey. La máquina analiza en cada movimiento la posición del rey que maneja el humano, “piensa” y va moviendo “inteligentemente” su torre o su rey, dentro de las reglas del ajedrez y de acuerdo con el “programa” introducido en la máquina por su constructor hasta, indefectiblemente, dar el jaque mate.En ese mismo año 1914 se constituye la Sociedad “Transbordador español del Niágara” para la construcción en Canadá, sobre el río Niágara (algu-nos kilómetros aguas abajo de las cataratas) del primer teleférico para pasajeros de Norteamérica. Proyecto español, técnica española, empresa constructora española, capital español (vasco), barquilla, cables, motores y accesorios construidos en España, etc.; todo ello en plena Guerra Mun-dial. El transbordador del Niágara se inauguraría el 9 de agosto de 1916, constituyéndose para su explotación en Canadá (hasta 1960) otra empresa con capital vasco, The Niagara Spanish Aerocar Company.Si esta obra constituyó un gran éxito personal tras los sinsabores iniciales en Suiza, lo que de verdad se consagrará durante la guerra es su sistema de dirigibles autorrígidos, con la adquisición y uso, en la vigilancia de costas, escolta de navíos y lucha antisubmarina, de más de veinte unidades en Francia, más de sesenta en el Reino Unido, cuatro por Rusia, seis por los ee.uu. y hasta uno por la Armada de Japón.También en plena guerra, el 24 de noviembre de 1916, presenta una nueva

Máquina de calcularTelekino

Page 82: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

82

Científicos ilustres - Leonardo Torres Quevedo

incursión en el ámbito de la ingeniería naval: una embarcación, construi-da en Bilbao, que denomina binave; el primer bimarán (concebido como posible trimarán o polimarán) de casco metálico de la historia. Suponía una completa novedad en su época que tendría que esperar al final del siglo xx para generalizarse entre las compañías navieras.Por la índole multidisciplinar de su obra puede considerarse a Torres Que-vedo, simultáneamente, ingeniero industrial, aeronáutico, de telecomuni-caciones y naval. Pero en abril de 1918 nos recuerda que también es ingenie-ro de Caminos, cuando presenta su sistema de enclavamientos ferroviarios, “un aparato central de un sistema de enclavamientos destinados a proteger la circulación de los trenes, dentro de una zona determinada”.Finalizada la guerra, y animado por el Coronel Emilio Herrera, en 1919 pre-senta en el Congreso de Bilbao de la Asociación Española para el Progreso de las Ciencias el proyecto del “Hispania”, un nuevo sistema de dirigibles semirrígidos, desarrollado a partir de los “Astra-Torres”, especialmente concebido para resolver el problema aeronáutico pendiente tras el con-flicto: los vuelos transoceánicos. Como en otras ocasiones, España no estaba preparada para la novedad, y serán los Zeppelin alemanes los que protagonicen estas singladuras.Sin embargo, 1920 es el año, visto desde el presente, que representa la cima en la contribución científica de Torres Quevedo, y el año que España debe

reivindicar como propio en la historia mundial de la ciencia y la tecnología. Leonardo Torres Quevedo, con ocasión de la celebración del centenario del aritmómetro de Thomas de Colmar, presenta en París su aritmómetro electromecánico, materialización de las ideas teóricas sobre las máquinas analíticas avanzadas años antes en sus Ensayos. Esta nueva creación, que contiene las diferentes unidades que constituyen hoy una computadora (unidad aritmética, unidad de control, pequeña memoria y una máquina de escribir como órgano de salida y para imprimir el resultado final), de-bería consagrar internacionalmente a nuestro ingeniero como el inventor del primer ordenador en el sentido actual de la historia.En 1922, a punto de cumplir los setenta años, presenta el segundo ajedre-cista, en el que, bajo su dirección, su hijo Gonzalo introdujo diferentes mejoras, especialmente de presentación, que permiten una más clara in-telección de la dimensión que supone esta aportación. Será su última gran obra. Durante los años siguientes, mientras recibe innumerables honores y condecoraciones, y ostenta la representación de la Ciencia española en los organismos internacionales, patentará creaciones menores: mejoras en las máquinas de escribir (1923), dispositivos para la paginación marginal de libros (1926), aparatos de proyección (1930), etc.Con la llegada de la República, su antiguo Laboratorio se constituiría en el origen de la Fundación Nacional para Investigaciones Científicas y Ensayos de Reformas, la nueva institución pública que debía ocuparse de poner en relación las ciencias aplicadas con la actividad industrial y empresarial, vacío que ni la Universidad ni la Junta para Ampliación de Estudios habían logrado llenar.Para entonces nuestro ilustre ingeniero llevaba algún tiempo ya en retira-da. Aunque la “genialidad” ni se hereda ni se transfiere, y D. Leonardo no pudo dejar “escuela”, sí encontró quién le sucediera como figura máxima y representante nacional e internacional de la ciencia española. Será aquél joven Catedrático de Electricidad y Magnetismo al que había acogido en su Laboratorio de Mecánica Aplicada, en 1909, para que fuera organizan-do el Laboratorio de Investigaciones Físicas de la jae: Blas Cabrera Felipe. Efectivamente, Cabrera le acompañaría en la Academia de Ciencias de París y en la Academia Española de la Lengua; y le sucedería, entre otros, en el Comité Internacional de Pesas y Medidas, en las Comisiones de Co-operación Internacional de la Sociedad de Naciones, en la Presidencia de la Academia de Ciencias, etc.Todo ello alcanzó a verlo nuestro insigne sabio antes de fallecer, en el Madrid sitiado de la Guerra Civil, el 18 de diciembre de 1936.Gracias a las tareas de difusión realizadas en las últimas décadas, muy especialmente desde la asociación Amigos de la Cultura Científica y la de-dicación incansable de su Presidente, Francisco González de Posada, la comunidad científica ha empezado a reconocer que Leonardo Torres Que-vedo es, sin ninguna duda, una de las figuras cumbres en la historia mun-dial de la informática. Hoy ya está aceptado que a él se debe la invención del primer mando a distancia. En la actualidad, estamos especialmente dedicados a que se reconozca que sus novedosos sistemas de dirigibles, patentados entre 1902 y 1919, lo convierten en uno de los pioneros de la aeronáutica mundial y uno de los pocos que pueden presumir de que sus contribuciones siguen vigentes, después de más de cien años, constitu-yendo “presente” en la aerostación dirigida.Hacer saber a la sociedad que Leonardo Torres Quevedo es, por derecho propio, “el inventor más prodigioso de su tiempo”, constituye una labor colectiva en la que debemos colaborar todos; y así lo ha entendido cic network dedicándole estas páginas.

Page 83: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,

Xxxx xxxx xxx xxxxx

83

Page 84: Contenidos - 54.154.165.4654.154.165.46 › wp-content › uploads › 2015 › 02 › CN4.pdf · de la divulgación científica con Pedro Miguel Etxenike, Francisco García Olmedo,