Eikasía, homenaje Infiesta

213
www.eikasia.es 42

Transcript of Eikasía, homenaje Infiesta

ww

w.e

ikas

ia.e

s

42

La selección de originales para publicación, se someten de manera sistemática a un in-forme de expertos externos a la entidad editora de la revista y a su consejo de editorial. Estos informes son la base de la toma de decisiones sobre su publicación o no, que co-rresponde en última instancia al Consejo de Redacción de la revista y a la Dirección de la misma.

BIBLIOTEQUE NATIONALE DE FRANCE

BASES DE DATOS QUE RECOGEN LA REVISTA EIKASIA

número 42enero 2012

 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

7E N E R O

2 0 1 2

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate. Dr. Alberto Hidalgo Tuñón Universidad de oviedo 

       Resumen  Las prácticas docentes deben consistir en  la adquisición de capacidades  y  habilidades  operatorias  por  parte  de  los alumnos.  ¿Cómo  trasmitir  la  capacidad  crítica  en    lo  que concierne  reflexivamente  a  la  propia  institución  universitaria, al proceso mismo de la investigación científica y  a  sus  productos  cognitivos?  Se  presentan  en  este  texto introductorio las clases prácticas de la asignatura ʺsociología del  conocimientoʺ  llevadas  a  cabo  por  Pablo  Infiesta Molleda durante  el  curso  2009‐2010  como un modelo para vincular investigación, enseñanza y capacidad crítica.                             

                  Abstract   Teaching  practices should include the  acquisition of surgical skills  and  abilities  by  the students. How to convey the critical capacity regarding self‐reflexively  to  the  university  ,   the  very  process  of scientific  research and cognitive products?  Presented  in  this introductory text practical classes of the course ʺSociology of Knowledgeʺ carried  out by  Pablo Infiesta Molleda during the  2009‐2010 academic  year   as  a  model to  link research,  teaching and critical ability.    

 

 

 

 

 

 

 

 

 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

9E N E R O

2 0 1 2

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate. Dr. Alberto Hidalgo Tuñón Universidad de oviedo 

   1.‐ Contextos    El pasado 20 de noviembre de 2010 falleció de muerte súbita en la Habana durante la estancia de investigación en el Instituto de Filosofía del Ministerio de Ciencia, Tecnología y Medio Ambiente de  la República de Cuba, Pablo Infiesta Molleda. Su trabajo continuaba la labor emprendida en los cursos de nuestro  Programa  de  Doctorado  sobre  Problemas  filosóficos  del  Presente  (2006‐2008)  que  había culminado en la defensa del Trabajo de Investigación titulado «Aspectos metacientíficos en la génesis del Proyecto  Genoma  Humano».  Dicho  trabajo,  correspondiente  a  los  12  créditos  del  segundo  año  del Programa de Doctorado, fue presentado y defendido en septiembre de 2008, recibiendo la calificación de Sobresaliente.     El 31 de Mayo de 2007 había obtenido Pablo  Infiesta Molleda una Beca del “Programa Severo Ochoa”  de Ayuda  Predoctoral  para  la  Formación  y  la Docencia  del  Principado  de Asturias  bajo mi tutoría, razón por  la cual a partir del curso 2009‐2010 había comenzado a colaborar en  la docencia del Departamento  de  Filosofía,  siéndole  asignadas  clases  prácticas  en  la  materia  de  Sociología  del Conocimiento y de  la Ciencia. Este homenaje, en el que colaboran todos  los alumnos que siguieron sus prácticas en el curso 2010‐2011 pretende dar cuenta no sólo del cariño que éstos le profesaban, sino, sobre todo, proporcionar una muestra de un tipo de trabajo institucional en el que se conjugan la docencia y la investigación de manera ejemplar. Más allá de  las Reformas Didácticas  Institucionales  (marca Bolonia, por  ejemplo), de  las  terminologías pedagógico didácticas que  sombrean y, a veces,  encubren más que recubren las prácticas docentes universitarias, de la administración burocrática a la que deben someterse los flujos de información y los influjos de formación, el proceso mismo de enseñanza aprendizaje es un curso  vivo  y  continuo,  que  sólo  deja  huellas  como  heridas  en  el  alma  de  los  que  participan  en  su desarrollo  y  que  implica procesos de  comunicación de  índole diferente  a  los  realzados  en  el proceso mismo de investigación.    Aunque la vida investigadora de Pablo Infiesta pueda distinguirse teóricamente de su actividad docente  y  ambas  de  sus  compromisos  políticos  y  vitales,  todos  los  que  conocimos  a  Pablo  Infiesta Molleda, más allá de su aspecto de resistente underground y de su indumentaria black, sabemos que la profunda unidad de sus  intereses  le permitían conectar  la plétora de sus afectos en un mismo y único elán  vital  filosófico.  «No  puede  acercarse  auténticamente  a  la  filosofía  el  hombre  que  nunca  ha experimentado  irritación  ante  lo  que  todos  piensan  y  todos  dicen,  ante  lo  que  se  impone  como incuestionable. Hay  que  ver  ─  dice Adorno  ─  la  coacción,  injusticia  y mentira  que  subyacen  a  las evidencias» (p. 100). Esta resistencia a la opinión establecida, que ya se encuentra en Heráclito, es la que me llevó a recitar al viejo presocrático en su oración fúnebre. En realidad, dado su talante vitalista, Pablo Infiesta  no  pudo  elegir mejor materia  de  investigación  para  consagrar  su  vida  a  ella.  Se  trata  de  un asunto en el que filosofía y sociología se entrelazan en doble hélice, sin que la primera tenga que hacerse sospechosa de  ideología y sin que  la segunda pueda perderse en  irrelevantes estudios cuantitativos de 

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

10 E N E R O

2 0 1 2

opinión. Si  la  filosofía no puede abdicar de  sus pretensiones cognoscitivas para evitar el  triunfo de  la estolidez y la sinrazón, la sociología no puede reducirse a constatar el relativismo de los contenidos y las imposiciones  de  la  división  del  trabajo,  saltándose  la  gnoseología  por  decreto. Ni  la  filosofía  puede convertirse en una policía de objetos cognitivos guardados en carpetas o embuchados en secuencias de aminoácidos, ni las categorías sociales en que se embuten las ideas filosóficas puede dar la espalda a las cosas mismas,  salvo  haciéndose  reo  ella misma  de  cosificación.  Confrontar  ambas  disciplinas  en  el Proyecto Genoma Humano  (PGH)  implica  empujar  la  dialéctica  a  uno  de  sus  límites,  allí  donde  el materialismo  histórico  se  dirige  a  su  propia  superación,  a  la  liberación  del  espíritu  con  respecto  al primado  de  las  necesidades  materiales  en  el  estado  de  su  satisfacción.  Un  pensamiento  sobre  las virtualidades  reproductivas de  los genes  carecería de  reflexión, pero  sin  reflexión no hay  teoría, y  es difícil obviar el carácter teórico de la biología molecular misma.    Pablo  Infiesta  sufrió  lo  indecible  para  establecer  las  bases metodológicas  de  su  investigación sobre el PGH, por lo que acabó haciéndome caso en el único consejo que le di: no enfrentar in recto esta endiablada dialéctica e iniciar, por el contrario, la reconstrucción de los distintos cursos que constituyen el  contexto  histórico  determinante  del  PGH,  partiendo  del  propio  Proyecto  ya  dado,  como  figura institucional determinada. Así  logró  localizar  analíticamente  sus  componentes o partes  constituyentes principales, que le permitieron regresar a los cursos históricos en el seno de  los cuales se constituyen y relacionan de un modo característico, co‐determinadas a su vez con y por otros materiales. Tales cursos, que  convergen  en  la  cristalización  del  PGH  y  que  son  sus  partes  determinantes,  le  sirvieron  para determinar  el  núcleo  duro  de  su  trabajo  de  suficiencia  investigadora,  arriba  mencionado.  Su identificación y reconstrucción era la condición de posibilidad que permitiría estudiar la trama misma de la génesis del PGH. No voy, sin embargo, a reproducir aquí el curso de sus pensamientos, ni siquiera los avances que el lector podrá seguir en la Introducción y el Capítulo 1º de su tesis doctoral, que recogemos en este homenaje a sabiendas de que su autor consideraba esta versión como prácticamente definitiva. El objetivo de este homenaje, aunque  forzosamente modesto al mostrar una  investigación dolorosamente truncada en sus fases iniciales, ambiciona a poner en valor ciertos aspectos didácticos y pedagógicos de gran eficacia y proyección. Se  trata de apreciar    cómo, a  través del  sistema de prácticas de  la materia Sociología del conocimiento y de la ciencia del que estaba encargado Pablo Infiesta en el momento de su desaparición, supo trasmitir a sus alumnos la complejidad del trabajo en el que estaba inmerso. Del  mismo  modo  que  el  movimiento  ʺUnderground  Resistance”  pretendía  combatir  la  mediocre programación visual y sonora a la que los habitantes del planeta Tierra estamos sometidos, el programa de prácticas de Pablo Infiesta intentaba derribar el muro que las disciplinas académicas han construido en  torno al PGH para que no pueda entenderse su verdadero alcance  filosófico y social. No se  trataba solamente de plantear una cuestión gnoseológica acerca de  los  límites del conocimiento, planteando  la inconmensurabilidad insalvable entre el genoma y el hombre, pero tampoco de denunciar la conversión del PGH en una cierta Weltanschauung. Mediante el uso de una selección de textos muy bien articulada intentaba  trasmitir  toda  la  complejidad  del  proyecto  a  un  elenco  de  alumnos  que  ni  eran  biólogos moleculares, ni sociólogos, ni administradores, ni abogados, ni economistas, sino estudiantes de filosofía. La  energía  liberada  en  el  proceso  puede  calibrarla  el  lector  en  el  conjunto  de  los  diez  artículos  que aparecen  en  este  homenaje  y  que  son  la  respuesta  polifónica de  los distintos  aspectos del PGH,  que interesaron  a  las diferentes  sensibilidades  con  la que  cada  alumno  liberó  el  sonido de  su voz  ante  la iniciación  al  tema  que  les  hizo  Pablo  Infiesta.  Se  trata  de  un  sistema  de  prácticas  basado  en  la experimentación,  que  va  más  allá  de  un  recetario  estandarizado  en  el  que  se  consuman  muchos proyectos  didácticos. Mediante  la  simple  lectura  comentada  y  explicada  de  unos  textos,  a  veces  de contenido especializado y abstruso, Pablo Infiesta  logró  inducir a  los alumnos a que se entregasen a  la cosa, objeto de investigación, y no a sus necesidades ideológicas. Pero dirigirse a las cosas mismas, a las 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

11E N E R O

2 0 1 2

cuestiones mismas, sin pretender estar por encima de ellas, implica regresar a sus partes o componentes materiales. Es en este punto en el que el pensamiento filosófico alcanzaba para Pablo Infiesta la máxima seriedad: en el momento de regressus.   2.‐ Textos para practicar la reflexión    Pablo  Infiesta  presentó  a  los  alumnos  el  Proyecto  Genoma  Humano  que  iba  ser  analizado sociológicamente mediante una  selección bien  cuidada de  cuatro bloques de  textos, que  fueron  leídos parcialmente  y  comentados  en  clase.  El  orden  de  presentación  no  es  indiferente,  pues  se  trata  de  ir progresando grosso modo desde un primer «nivel  fenoménico» hasta un último «nivel esencial», en el que se plantean los problemas mismos del sentido o significado del PGH.  a).‐ El primer bloque  reproduce un  reportaje periodístico de  Javier Sampedro, publicado en El País, el domingo 9 de abril de 2000, titulado provocadoramente: «Craig Venter: Magnate del Genoma Humano». El reportaje viene acompañado de una fotografía de Craig Venter con bata blanca y sobre el fondo de un mapa genético de 1997 en la primera página, otra fotografía en la segunda página de Bill Clinton y Tony Blair  aplaudiendo  y  hablando  entre  sí  con  gesto  de  complicidad,  debajo  de  la  cual  se  lee,  «los  dos mandatarios  que  apoyaron  que  los  datos  del  genoma  humano  sean  públicos».  Se  sugiere  así  que  el argumento principal es la confrontación entre el proyecto privado (barato y eficaz) y el proyecto público (trasparente, pero mastodónticamente ineficiente), un asunto que la prensa explotó inmisericordemente. En  la  misma  página  hay  un  breve  artículo  de  Malén  Ruíz  de  Elvira,  titulado  «Inquietantes consecuencias», que comienza diciendo que se tardará todavía 100 años en poder modificar la herencia y cambiar  el  curso de  la  evolución, pero  concluye  amenazando  al  lector  con  la  fabricación  artificial de «monos  inteligentes» y «seres humanos  tontos»  (sic) y anticipando que «la  sociedad del  futuro  tendrá que  lidiar  con  planteamientos  que  ahora  parecen  fantásticos,  pero  que  derivan  directamente  del conocimiento  del  genoma  humano».  El  sesgo  de  todo  el  reportaje  transido  de  ingeniería  genética  y biotecnología, como muestran las ilustraciones: un esquema del “ADN y cómo se lee”, otro ilustrando la técnica  del  consorcio  público  en  oposición  con  la  técnica  de Celera  (Shotgun),  así  como  una  tercera fotografía  (un primer plano de  «una  investigadora  en un  laboratorio de biotecnología»,  jeringuilla  en mano  ante  una  selva  de matraces,  alambiques  y  probetas).  La  prueba  de  que  el  conocimiento  no  es contemplación, sino acción queda patente en el faldón de las páginas 2 y 3, que despliega 18 esquemas de otros tantos «genes relacionados con enfermedades y su situación en los cromosomas». Aunque tiene un papel introductorio, fenomenológico, el reportaje se acompaña de cuatro cuestiones que Pablo Infiesta plantea como aperitivo a sus alumnos: «1.‐ ¿Es Craig Venter un científico o un empresario? ¿Cuáles  son  las  consecuencias  de  su  condición  para  la  actividad  investigadora  que  desempeña?» Aparentemente el propio  texto parece responder directamente a  la cuestión, al destacar en mayúsculas que «el empresario Venter sigue siendo ante todo un investigador genético de primera  línea»  , pero no queda claro si el surfista Venter, directo, decidido y arriesgado es un científico que se ha tenido que hacer empresario  para  sacar  adelante  su  investigación,  o  más  bien  un  empresario  de  nuevo  cuño,  como corresponde a la nueva «sociedad del conocimiento» en la que vivimos y en la que ciencia y técnica son, no ya fuerzas productivas, sino directamente activos de capital más importantes que el dinero. De hecho, la cuestión no puede resolverse sin saber de qué estamos hablando: «2.‐De acuerdo con el texto, ¿qué es el Proyecto Genoma Humano?»  es  pregunta  insoslayable. Ahora  bien,  la  sociología del  conocimiento parte del supuesto de que la ciencia es una institución social, por lo que no hay nada extraño en que se pida a  los alumnos que «3.‐  identifiquen  las distintas  instituciones  implicadas  en  la  secuenciación del genoma  humano,  exponiendo  además  sus  fines  particulares  y  relaciones  mutuas». Más  allá  de  las universidades y laboratorios en el reportaje aparece mencionados, sobre todo, el Instituto Nacional de la 

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

12 E N E R O

2 0 1 2

Salud (NIH) y PE Celera Genomics, pero también Affymetrix, , Humen Genome Sciences (HGS), Incyte, PE Corporation, etc., por no hablar de los Gobiernos implicados. Por debajo del PGH asoman problemas de patentes que afectan a empresas biotecnológicas y farmacéuticas, así como  los mercados financieros que invierten en tecnología. Tocando la tecnología, queda aún una cuarta pregunta: «¿Cuál es el papel de los artefactos  tecnológicos  en  el proceso de  secuenciación del genoma humano?  ¿Puede  entenderse al margen de  lo  científico y  lo  social?». El  espectro de preguntas  abre  el  campo  interdisciplinarmente  a respuestas  que  no  pueden  contestarse  unívocamente  y  exigen  de  suyo  cruzar  informaciones heterogéneas. Estamos ya en el ámbito de la sociología del conocimiento y de la ciencia.  b).‐ Pero una información periodística tiene el recorrido del tiempo que dura la actualidad de la noticia. Rescatar de la hemeroteca una noticia del 9 de abril de 2000 sirve para fijar la atención en un periodo de tiempo  en  el que  la biología molecular alcanzó  su  cénit  con  la hazaña de Craig Venter. Saludada por muchos  como  paradigma  de  una  de  las  revoluciones  científicas más  espectaculares  del  siglo  XX,  se convirtió en la década de los sesenta en una ortodoxia sin rival (cuando define su dogma central, según el cual la información genética se transmite del ADN al ARN y, por último, a la proteína, pero nunca al revés). ¿Cómo se planteaba el problema del genoma humano a principios de  los 90 cuando arrancó el proyecto? El segundo texto elegido por Pablo Infiesta se titula «El sueño del genoma humano» y apareció como  reseña de nueve  libros  sobre  el genoma humano  en The New York Review of Books.  Su  autor Richard  Lewontin  es  un  conocido  bioquímico    izquierdista  que  ha  combatido  incesantemente  el determinismo genético por ser una mera continuación de la estrategia eugenésica de tipo racista. Su tesis inicial es que el ADN es un  fetiche  similar al Santo Grial de  los  caballeros medievales: «El evangélico entusiasmo de los modernos caballeros del Santo Grial y la ingenuidad de los acólitos de la prensa, a los que han catequizado, han hecho un fetiche del ADN. Hay también predisposiciones  ideológicas que se hacen  sentir.  La  descripción  más  exacta  de  la  función  del  ADN  es  la  que  dice  que  esta  contiene información que es  leída por  la maquinaria de  la célula en el proceso productivo. Sutilmente, el ADN como portador de información es transformado sucesivamente en ADN como copia, como plan rector y como molécula rectora. Es  la  transferencia a  la biología de  la  fe en  la superioridad del  trabajo   mental sobre el meramente físico, del planificador y el diseñador sobre el operario no cualificado que está en la línea de montaje» (p. 132). Quemando etapas, así pues, en la década de los noventa la biología molecular parece  haber  sufrido  el  típico  síndrome  de  alienación  tradicionalmente  asociado  a  las  religiones reveladas  triunfantes.  No  deja  de  ser  preocupante  que  una  comunidad  científica  con  una  alta concentración de judíos del Este de Europa y de ateos hayan elegido como metáfora central el objeto más cargado de misterio de  la cristiandad medieval. ¿Habla ello a favor de  la continuidad de  los supuestos científicos de Occidente?    Lewontin, sin embargo, no se deja engañar y aplica  la crítica  ideológica marxista  tanto al PGH estadounidense  como  a    la  HUGO  internacional,  poniendo  al  descubierto  los  intereses  materiales subyacentes de naturaleza económica: «Estos proyectos son, de hecho, organizaciones administrativas y económicas antes que proyectos de  investigación  tal como se entiende comúnmente este  término. Han sido creados durante los últimos cinco años, en respuesta a un activo esfuerzo de cabildeo, por científicos como Walter Gilbert,  James Watson, Charles Cantor y Leroy Hood,  empeñados  en  conseguir grandes cantidades de fondos públicos y en hacer que esos fondos afluyan a un inmenso programa corporativo de  investigación»  (p.  133).  Una  vez  explicadas  las  razones  económicas  por  las  que  los  biólogos moleculares se han convertido en empresarios, la primera pregunta de Pablo Infiesta sobre «¿Cuáles son las implicaciones del rótulo “grial biológico”, utilizado para referirse al Proyecto Genoma Humano?» se contesta con facilidad. Lewontin adopta la metáfora que aparece en uno de los nueve libros que reseña, The Code of Codes,  editado por Daniel Kevles y Leroy Hood  en  la Harvard University Press  (1992), 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

13E N E R O

2 0 1 2

porque el capítulo de Walter Gilbert que compara el ADN a la mística copa medieval, fuente de vida y de energía sin  fín, que guardaba  la preciosa sangre de Cristo perpetuamente auto‐renovada no sólo  tiene gracia sociológica al convertir a  la élite de  los biólogos moleculares en una nueva Orden de Caballeros Templarios a la búsqueda del Santo Grial, empeñados suscitar a finales del siglo XX una nueva Cruzada de  largo  alcance  llamado  PGH,  sino  también  chispa  gnoseológica  que  es  lo  que  le  interesa  a  Pablo Infiesta. Interesa desvelar las trampas metacientíficas que se ocultan tras la metáfora de la sangre, no ya por  el  tópico  forense  (cinematográfica y  televisivamente divulgado) de que basta una gota de  sangre para  identificar a un asesino,  sino porque  sirve de base para  responder al  resto de  las preguntas que Pablo Infiesta hace a continuación: « 2.‐ ¿Cuáles son las críticas de Lewontin al determinismo genético?. 3.‐  ¿Cómo  se  relacionan  genotipo  y  ambiente  en  la  constitución  de  un  organismo?  Y  4.‐  ¿puede  el conocimiento del genoma afectar a las relaciones entre personas e instituciones?»    Hay, en efecto, un cierto paralelismo entre el poder extraordinario atribuido al Santo Grial y el enorme poder que  se atribuye al ADN. Según  la  leyenda del grial biológico de Gilbert cada célula de nuestro  cuerpo  contiene  en  su  núcleo  dos  copias  de  una  gran  macromolécula  llamada  acido desoxirribonucleico (ADN). Una de estas copias nos viene de nuestro padre y la otra de nuestra madre, entrelazándose durante la unión del esperma y el óvulo. Esta gran macromolécula se diferencia a lo largo de su estructura en segmentos de funciones separadas llamados genes, y el conjunto de todos estos genes se llama, colectivamente, nuestro genoma.. Los genes «han creado nuestro cuerpo y nuestra mente» dice Richard Dawkins. De este modo, prometen los genetistas del PGH, cuando conozcamos exactamente el aspecto de semejantes genes, sabremos exactamente qué somos en realidad, pues el éxito o el fracaso, la salud o  la enfermedad,  la maldad o  la bondad, nuestra capacidad para progresar o para actuar  solos, todo ello está determinado o influido por nuestros genes. Este paralelismo sirve a Lewontin para evaluar el  mérito  relativo  del  resto  de  los  libros  que  reseña.  Pocos  tienen  en  cuenta  el  problema  del «polimorfismo» que limita seriamente las posibilidades de aplicación. Suzuki y Knudtson se oponen a la manipulación  de  las  células  germinales  humanas  por  sus  consecuencias  imprevisibles,  etc.  La  crítica científica de Lewontin pone  en  entredicho  tanto  el  valor  terapéutico  como  forense del PGH. Pero  su argumento principal consiste en desmontar el   comentario de Kevles y Hood  sobre  sus consecuencias sociales:  «Las  connotaciones  de  poder  y  temor  asociados  con  el  Santo Grial  acompañan  al  Proyecto Genoma,  su  contrapartida  biológica.  Indudablemente,  esto  afectará  al modo  en  que  gran  parte  de  la biología se planteará durante el siglo XXI. Cualquiera que sea la configuración de sus efectos, más pronto o más tarde, la investigación sobre el grial biológico  alcanzará su meta, y creemos que no es demasiado pronto para comenzar a pensar en cómo controlar su poder, y en cómo disminuir los legítimos temores sociales y científicos que suscita».    Pero ¿qué hay en el ADN que pueda suscitar temores sociales y científicos? ¿Por qué los biólogos moleculares  están  tan  empeñados hoy  en vender  la  especie de  su  inmenso poder,  en  lugar de  seguir recluidos en sus laboratorios? Gran parte de la leyenda asociada a la biología molecular proviene de las cualidades que se atribuyen al ADN. La leyenda asevera que se trata de una molécula autorreproductora y autoactiva, que proporciona el  fundamento de nuestro  ser. Y esto porque  los millones de células de nuestro cuerpo contienen todas ellas copias de moléculas que originalmente sólo estaban presentes una vez  en  el  esperma  y  en  el  óvulo  con  los  que  dio  comienzo  nuestra  vida. De  ahí  el  problema  de  la clonación    con  toda  la mitología  asociada. Además,  si  el ADN  de  los  genes  es  la  causa  eficiente  de nuestras propiedades  como  seres vivos, de  las  que  somos un mero producto,  entonces  el ADN debe poseer  la  capacidad  de  actuar  por  sí mismo,  en  virtud  de  su  propia  estructura  interna.  Y  de  ahí  el problema del determinismo  biológico. Como  buen  iconoclasta Lewontin pregunta,  ¿cómo  se produce este milagro? La biología molecular explica el misterio del grial biológico mediante la estructura dual y 

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

14 E N E R O

2 0 1 2

autocomplementaria del ADN. Así como la sangre de Cristo se dice que se renueva en el Grial mediante la  acción  complementaria del Espíritu  Santo,  así  también  la  cadena de  ácidos nucleicos de ADN  que traslada  el  mensaje  para  la  producción  de  proteínas  está  acompañada  por  otra  cadena  helicoidal entrelazada con ella, cuyo abrazo químico  la multiplica. Esta autoduplicación   del ADN va encajando nucleótido por nucleótido con la hebra del mensaje de una manera complementaria. Cada A(denina) del mensaje se acopla con una T(imina) de la hebra complementaria, cada C(itosina) con una G(uanina), cada A con una C y cada T con una A. Cierto que la reproducción del ADN es más bien un desacoplamiento de las hebras ensambladas, seguido de una construcción de una nueva hebra complementaria sobre cada una de las cadenas parentales. En cualquier caso, la reproducción del ADN se explica por su estructura dual, complementaria y su poder creador por su diferenciación lineal.    El problema de esta  leyenda es que, aunque es correcta en su detallada descripción molecular, Lewontin  demuestra  bioquímicamente  que  el  ADN  carece  del  místico  poder  autoreproductor  y autoregenerador que se le atribuye. Primero, porque el ADN es una molécula prácticamente muerta, una de las moléculas más carentes de reacción y químicamente más inertes en el mundo vivo. Esta es la razón de que puede recuperarse en bastante buen estado para determinar su secuencia a partir de momias y a partir de mastodontes  congelados  hace decenas de  cientos de  años,  e  incluso,  bajo  las  circunstancias apropiadas  a partir de plantas  fósiles de hace veinte millones de  años. El uso  forense del ADN para vincular supuestos criminales con sus víctimas depende de la recuperación de moléculas no degradadas a partir de raspaduras de sangre y piel, secas y muertas desde hace bastante tiempo. Así pues, el ADN no tiene capacidad para reproducirse a sí mismo. Más bien es producido a partir de materiales elementales mediante una compleja maquinaria celular de enzimas y proteínas. Por consiguiente, en contra de lo que proclaman sus modernos Caballeros Templarios y de lo que propalan los periodistas la molécula viviente de ADN no es auto‐reproductora. Necesita ayuda para copiarse. Pero, en segundo lugar, no sólo el ADN es incapaz de hacer copias de sí mismo, con ayuda  o sin ayuda, sino que es incapaz de “hacer” ninguna otra cosa. La secuencia  lineal de nucleótidos en el ADN se usa por parte de  la maquinaria de  la célula para  determinar  qué  secuencia  de  aminoácidos  debe  ser  construido  dentro  de  una  proteína,  y  para determinar cuándo y dónde se ha de construir la proteína. Pero las proteínas de la célula son fabricadas por otras proteínas y sin esta maquinaria de proteínas conformadoras no puede hacerse nada.   c)  Lo  más  interesante  de  la  lectura  de  Lewontin  es  que  el  caballero  Craig  Venter  apenas  aparece mencionado una  sola vez, pero por  ello mismo destaca  en negativo que  las  imputaciones que  se han utilizado para desprestigiarle (como la de que es un empresario o un magnate más que un científico), son tramposas, porque lejos de diferenciarle le acercan al gremio: «No conozco a ningún biólogo molecular prominente  que  no  tenga  participación  económica  en  el  negocio  de  la  biotecnología»  (p.  148).  James Watson, que tuvo que dimitir como director de los NIH del Proyecto Genoma, lo hizo no tanto por sus discrepancias con la doctora Healey sobre el problema de las patentes cuanto por el temor a que saliesen a la luz sus intereses financieros en empresas farmacéuticas y biotecnológicas. En este contexto, el texto autobiográfico, emic, de Craig Venter,   «secuenciando  lo humano» que cuenta con pelos y señales qué, cómo y  cuando hizo  lo que hizo para  conseguir  el objetivo de  secuenciar  el Genoma Humano  en un tiempo record, fue elegido por Pablo Infiesta para poder replantear con todas las versiones a la vista, las visiones contrapuestas que nos asaltaron fenoménicamente desde el principio: «¿Por qué se produce un conflicto  entre  el proyecto público y  la  iniciativa privada de Venter?  ¿Qué  tipo de organización de  la producción científica plantea Venter para el  trabajo en Celera Genomics?». Llevadas al  límite estas dos preguntas  centrales  de  Infiesta  conducen  de  forma  natural  al  núcleo mismo  de  toda  sociología  del conocimiento y de la ciencia: «¿Es la secuenciación del genoma humano una construcción social?»  

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

15E N E R O

2 0 1 2

  La lectura del Capítulo 11 del libro de Craig Venter, La vida descodificada pone en evidencia que no  es  lo mismo  «público»  que  «desinteresado»/o  altruista,  ni  «privado»  significa  lo mismo  que  «con ánimo  de  lucro».  El  regreso  desde  los  componentes  “sociales”  (sociofactos  de  acuerdo  con  la terminología del materialismo metodológico)  que  revela  el  texto  a  esta  escala  emic, nos pone  ante  la evidencia de que la incorporación de las ciencias biológicas a la Big Science es un hecho en los 90. Pero también evidencia que el factor social no está desconectado del resto, sino que tanto lo público como lo privado  forman  parte  de  un  mismo  contexto  histórico  determinante:  los  actores,  instituciones  y materiales no son ya los científicos individuales, o las dependencias universitarias en las que se fraguó la doble  hélice,  sino  los  empresarios,  organismos  gubernamentales,  redes  internacionales  de  grandes laboratorios, o  trabajadores asalariados que realizan una  labor coordinada y planificada. Pese a que el relato de Venter es  tan personal aparecen en él configuraciones, características de  la Big Science  (HGS, TIGR, PerkinElmer, Wellcome Trust británico,  Applied Biosystems, el NIH, Washington University, New England Biolabs, MIT, DOE, Sun, Silicon Graphics, IBM, HP y Compaq) que irrumpen en el ámbito de las ciencias  biológicas  cuando  se  difunden  las  rentables  aplicaciones  (médicas,  agrícolas,  etc.)  de  la ingeniería genética que estuvo en el origen de  la Biotecnología. Ahora bien, si hemos de hacer caso al relato de Venter  la  guerra  entre  el proyecto público  y privado  fue  azuzado  por  la prensa:  «Nicholas Wade, del New York Times, y Rick Weiss, del Washington Post», especialistas en el PGH.. Ya el 11 de mayo de 1998 Wade escribe en su periódico: «Un pionero en el secuenciamiento genético y una compañía privada unen esfuerzos con el objetivo de descifrar el ADN entero, o genoma, de  los humanos en  tres años, mucho más deprisa y más barato de lo que el Gobierno Federal está planeando».    Venter, quien ya había mostrado su impaciencia ante la lentitud de la estrategia internacional del «club  de  los mentirosos»  (sic)  y  no  ocultaba  sus  diferencias  de  criterio  con  Francis  Collins, Harold Varmus y Ari Patrinos del consorcio público comenta la  jugada del New York Times en estos términos: «El problema  con  los periodistas, por  supuesto,  es que  les  gusta  echar  leña  al  fuego. Wade no pudo resistirse tampoco en este caso, y señaló cómo mi proyecto podría “en cierto sentido hacer redundante el programa  de  tres  billones  de  dólares  del  Gobierno  para  secuenciar  el  genoma  en  2005”  y  cómo  el Congreso podría preguntar por qué debería seguir financiando el esfuerzo público si la nueva compañía iba a terminar primero. Aunque el adorno periodístico final era completamente accesorio, la sugerencia de  que  yo  no  fallaría  en  esta  aventura  iba  a  enfurecer  a mis poderosos  enemigos». Pero  que  en The Genome War  (que  James  Shreeve  narraría  en  términos  épicos  en  2004),  iniciada  por  el  propio Craig Venter y Mike Hunkapiller, todos los actores tenían una posición diferenciada y no coincidente con la de los demás, lo experimentó Venter cuando al día siguiente, «Wade volvió al tema con fuerza, sugiriendo que yo había “robado”  la meta del genoma humano al gobierno». Si  los Mass Media, además de crear fama  y  difamar,  son  por  lo menos  el  cuarto  poder,  no  hay  nada  extraño  que  en  el  relato  de Venter aparezcan Clinton  y Hilary  compartiendo mesa  y mantel  con  los  científicos  e  intentando  ponerse  al frente de un proyecto destinado a «salvar a la humanidad».     El  relato  autobiográfico  de  Venter,  que  viene  encabezado  intencionadamente  por  una  cita pesimista de la autobiografía de Maurice Walkins (The Third Man of the Double Helix, 2003), comenta el enredo con  la deportividad de un surfista en competición o de un capitán entrenador de un equipo de figuras  tipo BNA. Tal vez en  la naturaleza se produzcan olas perfectas, pero sin una buena  tabla no se pueden cabalgar. Convencido de que él mismo era «mejor que la mayoría ensamblando partes y sistemas complejos» en su cabeza (sic), la tabla que necesitaba era «un pequeño equipo que pudiera secuenciar el genoma humano entero en dos o tres años por el diez por ciento del programa federal». El objetivo se identifica  claramente con  la organización, de modo que es difícil  sustraerse a  la  impresión de que  los aspectos constructivos predominan sobre los meramente descriptivos y que, tal como lo cuenta Venter, la 

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

16 E N E R O

2 0 1 2

construcción social de la realidad es una filigrana que bien se puede acoger al patrocinio de Aristóteles cuando  observó  que  «una  imposibilidad  verosímil  es  siempre  preferible  a  una  posibilidad  poco convincente» (sic). En realidad, la pequeña organización de la que habla Venter sólo podía tomar cuerpo cuando  los  elegidos  para  conformarlo  podían  ser  elegidos  cuidadosamente  por  sus  extraordinarias capacidades  o por  la  excelencia de  sus  conocimientos:  «Ham  Smith  que  tenía manos de  oro  y podía manipular moléculas  de ADN mejor  que  nadie», Mark Adams,  quien  era  el  «mejor  haciendo  que  la tecnología  compleja  funcionase  y  que  lo  hiciese  rápidamente»  se  hizo  cargo  del  equipo  central  del secuenciamiento de ADN de operación Celera. Pero para resolver el puzles de manejar treinta millones de  fragmentos  con  tres mil millones  de  letras  necesitaba  también  a  Jeannine  Gocayne,  quien  podía proporcionar «más  robótica para escalar  todos  los pasos del proceso» y a Anne Deslattes May,  jefa de ingeniería  del  sotfware,  quien  con  la  ayuda  Tony  Kerlavage,  experto  en  inventar  técnicas  de computación,  fue capaz de convertir las matemáticas de  Eugene W. Myers, cuyo  inverosímil fichaje  se cuenta,  y  de Granger Sutton en software operativo.    Esta  ambigüedad  psico‐sociológica,  sin  embargo,  no  es  el  último  dato  que  nos  proporciona Venter para afianzar la tesis de que la secuenciación del  genoma es una construcción social. Es necesario vincular este tipo de organización con  los artefactos tecnológicos como pide Pablo Infiesta. Para que el proyecto se pusiera a funcionar en agosto de 1998 fue preciso no sólo  las 200 máquinas secuenciadoras de ABI, el hardware facilitado por Compaq, el software, la química y las enzimas, sino albergar todo ello en  un  mismo  espacio  físico  que  quintuplicaba  las  previsiones  iniciales.  Las  dotes  de  mando  y organización que muestra Venter  en  toda  la narración  empequeñece  la  importancia de  los problemas económicos que tuvo que resolver para satisfacer las exigencias del financiador Tony White, que aparece como un antipático genio maligno que invierte 300 millones de dólares, pero no deja de repetir: «Si vas a secuenciar  el genoma humano  con mi dinero y después  regalarlo,  entonces  será mejor que  tengas un plan para ganar dinero». Generar un plan de negocio que asegurara un beneficio sobre 300 millones de dólares de inversión es el pequeño detalle constructivista que Pablo Infiesta pedía a sus alumnos con la primera cuestión que les planteaba sobre este texto: «1.‐ Vincula el método de secuenciación por escopeta y  el  secuenciador  automático  con  la  rentabilidad  y  viabilidad  de  la  iniciativa  de  Craig  Venter  para secuenciar el genoma humano». Venter tuvo que inventar la empresa Celera Genomics para satisfacer las exigencias  de  negocio,  pero  lo  verdaderamente  difícil  era  reclutar  personal  procedente  de  un  gran número de disciplinas para hacer que el secuenciamiento por escopeta (shotgun) funcionase: «El proceso comienza extrayendo ADN de células humanas (bien sangre o esperma). Convertir ese ADN en pedazos fáciles de manejar y fáciles de secuenciar — creando  lo que se  llamauna biblioteca de secuenciamiento genómico —  es  un  paso  esencial.  En  el  secuenciamiento  del  genoma  completo,  la  biblioteca  se  hace rompiendo  el ADN  en  pedazos mediante  ondas  de  sonido  u  otros métodos  que  aplican  fuerzas  de ruptura a las moleculas de ADN y los cromosomas. Utilizando procedimientos simples de laboratorio, el ADN  fragmentado  se puede  separar de acuerdo  con el  tamaño. Podemos coger un  trozo de un  cierto tamaño — digamos dos mil pares de bases de  largo (2 kb) — e  insertarlo en un “vector de clonación”, que es un conjunto de genes bacterianos que permiten que el trozo de ADN crezca dentro de la bacteria E.  coli.  Si  se  repite  este  proceso  con  todas  las  piezas,  la  biblioteca  del  genoma  resultante  tendrá representadas todas las secciones del genoma humano en millones de trozos de dos mil bases. Dado que los  fragmentos  proceden  inicialmente  de millones  de  genomas  completos, muchas  piezas  contienen secciones solapadas de ADN debido a  la  forma aleatoria en que se rompen  los cromosomas. Después, mediante  selección  aleatoria de  clones de ADN  cogidos de  la biblioteca  completa, debería  ser posible secuenciarlos y encajar  los solapamientos utilizando un ordenador para ensamblar de nuevo una copia completa del genoma.... Necesitaba el mejor equipo del mundo para hacer ese trabajo a una escala que nunca antes se había intentado». Hacer viable de iniciativa precisó de construcciones en todos los pasos y 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

17E N E R O

2 0 1 2

niveles. Por ejemplo, para obtener clones humanos en cultivos de bacterias Ham tuvo que construir un nuevo vector de clonación que tuviera una eficiencia del cien por cien, en lugar del sistema convencional de selección azul y blanca, etc. La automatización del proceso permite reducir costes como hizo Ford con la producción en cadena, pero también se ahorra usando materiales distintos (por ejemplo un robot con disparador  automático  autolimpiable  en  lugar  de  millones  de  cánulas  desechables).  Disparar  la velocidad, disminuyendo costes llegó a constituir la esencia rutinaria de Celera.  d)  El  cuarto  bloque  de  textos  propuesto  por  Pablo  Infiesta  a  sus  alumnos  supone  ganada  ya  la perspectiva sociológica constructivista que subyace en el relato de Venter.  Dos fragmentos, extraídos de sendos capítulos del  libro de Kevin Davies, La Conquista del Genoma Humano  (Craig Venter, Francis Collins, James Watson y la historia del mayor descubrimiento científico de nuestra época, Paidós, 2001) le sirven de base para plantear cuatro preguntas cruciales, que tocan el corazón mismo del PGH. «1.‐ Desde un enfoque sociológico ¿es la actividad de los políticos externa o interna al proyecto de secuenciación del genoma  humano?  2.‐  Reconstruye  la  problemática  de  las  patentes  a  la  luz  de  la  distinción natural/artificial. 3.‐ ¿Cabe establecer “nuestra común humanidad”, como declaró Bill Clinton, a partir de las  secuencias  del  genoma  realizadas  por  los  equipos  de Venter  y Collins?. Y  4:‐  ¿Cómo  inciden  las apelaciones a Dios de Clinton y Collins en la concepción del genoma humano?» La importancia política del PGH se puso de manifiesto el 14 de marzo de 2.000, cuando  los Presidentes Bill Clinton de USA y Tony  Blair  de GB  avalaron  públicamente  a  todos  los  investigadores  del  Programa  para  garantizar  la publicación de  los  resultados. La escena que  recoge el capítulo 11 de Davies,  titulado «El  lenguaje de Dios» con Clinton entrando en el salón oriental de  la Casa Blanca, acompañado de Venter y Collins y concediendo  a  James  Watson  un  lugar  de  honor,  aunque  es  posterior,  tiene  un  significado  más doméstico:  restañar  las heridas  entre  el proyecto público y  el privado que ya  conocemos por  el  texto anterior, y en el que el “villano” Craig, que había ganado la carrera, había sido tildado por el científico estadista J. Watson como un nuevo Hitler. Es verdad que  los  logros científicos   que se celebraron aquel lunes 26 de junio del 2000 no daban para tanto, pero el acto mostraba hasta qué punto la política estaba involucrada directamente  en  la vida de  la  ciencia, y no  sólo  como un  financiador  externo más. Y  eso porque, una vez  identificados  los 31.000 genes y determinada  la secuencia de  los tres billones de bases del  ADN  humano,  hacía  falta  aún  mucho  trabajo  experto  para  desarrollar  técnicas  de  análisis  e interpretación de los resultados y, mucho más aún, para resolver las múltiples cuestiones éticas, legales, políticas, sociales y filosóficas que suscitaba y en  la que  los grupos humanos organizados estaban muy interesados.  En  este  sentido  no  es  cierto,  por  ejemplo,  que  las  ciencias  naturales  sean  neutrales,  ni ontológica,  ni  políticamente.  Poco  después  de  aquel  acto,    el  11  de  septiembre  de  2001,  se  puso  en evidencia,  por  ejemplo,  las  nefastas  consecuencias  del  tipo  de  educación  puramente  dogmática  y religiosa que propician las “madrassas” islámicas de Afganistán y Pakistán. Parte de las cuestiones socio‐políticas  suscitadas  por  el  PGH  podrían  formularse,  por  ejemplo,  preguntando  si  el  “fanatismo”,  el “terrorismo” o la “delincuencia” podría atribuirse a una alternación genética. Sin llegar a tal exageración, ¿es verdad que esta  lectura del «libro de  la vida» que hace el PGH  significa un argumento definitivo contra el racismo? ¿No se tratará de otro avance “occidental” que sólo sirve para incrementar la “brecha” entre quienes  tienen  la  tecnología para descifrar genes y quienes  sólo  tienen patrimonio genético que descifrar? De ahí el calado político e incluso geoestratégico que tiene el asunto de las patentes.    La  cuestión de  la distinción  entre natural/artificial, planteada por Pablo  Infiesta  tiene  además importancia gnoseológica, porque sobre ella parece pivotar el supuesto de que la investigación científico natural, a diferencia de  los que ocurre en  las disciplinas sociales e  ideológicas, no es el cabildeo, ni el poder político el que otorga la excelencia, sino el trabajo mismo. Al enmarcar la distinción en la cuestión de  las patentes,  sin  embargo,  el deslinde no parece  tan  claro y  ello muestra  la necesidad de  apelar  a 

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

18 E N E R O

2 0 1 2

discursos ideológicos para proporcionar la cobertura apropiada a esta investigación. El capítulo titulado «El código de Creso» nos informa de que la decisión política tan celebrada por Clinton y Blair del 14 de marzo de garantizar  la publicación de  los datos del PGH  tan pronto como estuvieran disponibles,  fue seguida por un desplome de las acciones de Celera de 290 dólares a 100, arrastrando tras de sí a todo el sector biotecnológico. «A pesar del manifiesto rechazo de Venter, Haseltine y otros a  la declaración de Clinton‐Blair,  los  mercados  permanecieron  extrañamente  inmutables.  Durante  las  dos  semanas siguientes  el  valor  de  las  principales  empresas  estadounidenses  cayó  cerca  de  50.000  millones  de dólares». El  imperativo de  que  los descubrimientos del material  genético deben  pertenecer  a  toda  la humanidad que parece garantizar  la declaración Clinton‐Blair, obligó a  las empresas biotecnológicas a clarificar su posición sobre las patentas. Bill Haseltine escribió: «No nos interesa patentar la humanidad, sino patentar  fármacos  genéticos». Craig Venter  iba un paso más  al  comprometerse  como  empresa  a proporcionar  información científica en un formato de fácil acceso y al exigir a las demás empresas que sólo patentasen información adecuadamente secuenciada y testada.     Pese a las consecuencias económicas, la polémica sobre las patentes es bastante especulativa, cosa que por lo demás no debe extrañar a los especuladores de la bolsa. ¿Realmente traen los descubrimientos de  PGH  remedio  eficaz  para  las  enfermedades  de  origen  genético  o  sólo  la  promesa  de  que  puede hacerse?  Venter  predecía  abundantes  aplicaciones  biomédicas,  incluyendo  la  esperanza  de  que  las muertes por  cáncer desaparecerían  en  esta generación  ¿Qué queda por descubrir o  inventar para que tales  predicciones  sean  fiables?  Puesto  que  todavía  tardaremos  unos  diez  años  en  obtener  “mapas genéticos  individualizados”  y  que  sólo  entonces  podrán  diseñarse  fármacos  específicos  para  cada individuo, por el bien de la ciencia misma sería deseable evitar la sobredosis de optimismo reduccionista con que  se  anuncia  la  “mera  identificación” de genes  específicos vinculados  a  enfermedades  como  la fibrosos quística, el cáncer,  la diabetes,  la epilepsia o  la sordera. Porque, de momento, el conocimiento del modo  en  que  se  estructura  el material  genético,  sólo  garantiza  el  diagnóstico  de  las  diferencias existentes,  por  ejemplo,  entre  un  gen  normal  y  otro  cancerígeno  en  términos  de  sus  respectivas secuencias de ADN. Pero nada nos dice sobre su tratamiento   y cura. Eso va mucho más en  la  línea de otro tipo de investigaciones biológicas con las Stem Cells o «células madre», por ejemplo, que, como se sabe,  están  sometidas  hoy  a  fuertes  restricciones  morales  y  políticas,  antes  que  gnoseológicas  u ontológicas.    Es  interesante a este respecto para responder a  la cuarta pregunta planteada por Pablo Infiesta observar  la diferencia  entre  los discursos más  retóricos  e  ideológicos de Clinton y Collins  respecto  al mucho más técnico y neutral de Venter. Mientras Clinton subrayaba que la ciencia moderna confirmaba la  prédica  religiosa  de  «nuestra  común  humanidad»  y  Collins  enfatizaba  que  habíamos  descifrado «nuestro propio libro de instrucciones, antes sólo conocido por Dios», Venter aclaraba que  la secuencia obtenida por Celera en nueve meses se basaba «en el análisis del genoma de cinco personas: una mujer afroamericana, una mujer  china, una mujer hispana  y dos varones  caucásicos»,  cuya  identidad no  se revelaba en virtud de  la política de privacidad de  la empresa.   Es difícil decidir   sobre  las diferencias subyacentes respecto al concepto de genoma humano que subyace en ambos discursos. Por ejemplo, el dato de que la diferencia genética entre George Bush y Osama Ben Laden sea ʺsóloʺ del 0,01%, no parece ayudar mucho a resolver el conflicto de percepción y valoración que el ataque a las Torres Gemelas y las posteriores guerras de Irak y Afganistán ahondó entre  “occidentales” y “musulmanes” durante la etapa de Bush  IIº. La conclusión científica de que  las razas no existen “genéticamente”, no está sirviendo de mucho para  conjurar  el demonio  racista, ni para  aliviar  las diferencias  “fenotípicas” que  en  época de crisis  parecen  causas  suficientes  para  provocar  las  más  crueles  agresiones  entre  quienes  “sólo”  se diferencian en la forma de vestir, de hablar o de creer. Ciertamente, Venter no hizo ninguna alusión beata 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

19E N E R O

2 0 1 2

al Dios  de  los  cristianos,  pero  si  trató  de  defender  la  ciencia  contra  la  acusación  de  reduccionismo esterilizador que suelen  lanzar  las religiones y  las  filosofías espiritualistas contra el materialismo: «Las complejidades y las maravillas del proceso por el que los componentes químicos inanimados que forman nuestro código genético dan lugar a los imponderables del espíritu humano debería inspirar a los poetas y a los filósofos durante milenios»    Pero,  mal  que  nos  pese  a  los  académicos,  a  las  instituciones  públicas,  a  las  universidades burocratizadas  y  a  las  empresas  farmacéuticas multimillonarias,  que  se  beneficiarán  del  invento,  de momento,  el PGH parece  favorecer más  el dogma de una  ciencia  confundida  ideológicamente  con  la religión a la búsqueda de un Santo Grial salvífico, que al campo decisivo de las aplicaciones prácticas en beneficio  de  la  humanidad  en  su  conjunto.  La  batalla  por  la  proteómica  resulta  cuantitativamente insignificante frente al derroche de vidas humanas que siguen cobrándose las guerras del presente    En  suma,  los  textos  seleccionados por Pablo  Infiesta permiten  abrir un  abanico de problemas gnoseológicos,  históricos,  sociológicos,  etc.    capaces  de movilizar  los  intereses    y  sensibilidades  de muchos alumnos por heterogéneos que fuesen. Sin embargo, dejan en la sombra el curso histórico de la constitución de  la Biología molecular como ciencia. Ahora bien, ese primer  factor  interno del contexto histórico  determinante  siempre  estuvo  presente,  pues  le  había  permitido  solucionar  los  importantes problemas de delimitación detectados en las obras precedentes acerca de la génesis del PGH. De hecho, si  tomamos  como  criterio  la  escala de  las partes  constituyentes, no  es necesario  remontarse hasta  las primeras prácticas  agrícolas, ni  siquiera hasta Mendel o  los genetistas de principios del  siglo pasado, para dar  cuenta del gen o del ADN; ya que,  tal y  como aparecen  configuradas en el marco del PGH, dichas realidades se conforman en el curso de la Biología molecular, iniciada con el establecimiento de la estructura del ADN en 1953 por parte de Watson y Crick. Los desarrollos anteriores quedarían recogidos en  los  teoremas  de  la  Biología  molecular,  y  por  tanto  no  serían  directamente  relevantes  para  la investigación, como  tampoco  lo eran para  las prácticas de sociología del conocimiento y de  la ciencia. Esto es: si podemos vincular los genes con las rudimentarias operaciones de selección artificial realizadas sobre  los cultivos de  los primeros grupos humanos agrícolas  (como hace Thomas F. Lee en su obra El Proyecto Genoma Humano, rompiendo el código genético de la vida), es porque éstas quedan explicadas y  fundamentadas,  precisamente,  por  los  desarrollos  contemporáneos  de  la  Biología  molecular  y  la Genética.  Las  partes  “tecnológicas”,  o  artefactos  (los  secuenciadores  y  demás  aparatos,  operadores  y relatores  necesarios  para  realizar  las  diversas  técnicas  de mapeado  y  secuenciación  del  genoma)  se configuraron en el curso de la Biotecnología, vinculado con el anterior: la Biotecnología tuvo su origen en los  años  70,  gracias  a  la  implementación  de  varios  operadores  (las  enzimas ADN  polimerasa, ADN ligasa, y las enzimas de restricción) que permitieron manipular los cuerpos y fenómenos establecidos en el campo de la Biología molecular (nucleótidos, secuencias de ADN). Me costa que Pablo Infiesta  dedicó alguna clase introductoria a explicar estos extremos antes de proceder a la lectura de los textos, como se puede notar en algunos de los trabajos conceptuales realizados por los estudiantes. Una vez reconstruidos los cursos que componen el contexto histórico determinante, se puede proceder a determinar los ortogramas, planes y programas que intervienen en la cristalización del PGH como figura institucional  determinada.  Pablo  Infiesta  manejó  una  ingente  bibliografía  relativa  al  período  de cristalización del PGH  con  el  fin de determinar  los distintos  intereses y motivaciones  ideológicas que dieron lugar a su génesis. Profundizó también, en el análisis gnoseológico del teorema de la doble hélice (siguiendo mi trabajo  del 83 que se reproduce aquí cambiando el formato original1). Sin embargo no se 

1 Hidalgo, A. (1983), «La biología molecular: ¿revolución o cierre?» Actas del IIª Congreso de Teoría y Metodología de las Ciencias, Pentalfa, Oviedo

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

20 E N E R O

2 0 1 2

ocupó de resolver definitivamente el problema del estatuto gnoseológico de la Biología molecular y, por ende,  al  propio  carácter  científico  del  Proyecto  Genoma  Humano,  más  allá  de  la  constatación  y ampliación de su carácter teoremático. En este sentido insistió  con gran penetración que en el proceso de constitución  del  teorema  se  produce  un  episodio  de  identidad  entre  las  leyes  de  Chargaff  (que establecían una proporción igual de adenina y timina, y de citosina y guanina, respectivamente, en una molécula  de ADN  por  vía  bioquímica)  y  las  consecuencias  de  los  trabajos  de Rosalind  Franklin  con difracción de rayos X (de los que se podía deducir, estructuralmente, que la adenina se ensamblaba con la timina, y la citosina con la guanina, formando pares de bases). De este modo, pudo establecer que el teorema puede caracterizarse como una  identidad sintética sistemática,  tal y como se define  la verdad científica en la Teoría del Cierre Categorial de Gustavo Bueno, que utilizó como referencia gnoseológica principal.     Si yo había desestimado polémicamente la intepretación de Kuhn, Pablo Infiesta se mostró más tolerante  al  recombinar  con  éxito  dos  metodologías  filosóficas  relevantes,  la  “Teoría  del  Cierre Categorial” con  la Actor‐Network Theory de Michel Callon y Bruno Latour,  lo que  le había permitido precisamente llevar a cabo su ya citado trabajo de investigación  «Aspectos metacientíficos en la génesis del Proyecto Genoma Humano».  3.‐  Los trabajos de los estudiantes como trazos y trazas de un hipertexto.  Aún  cuando  las  prácticas  de  la materia  Sociología  del  conocimiento  y  de  la  ciencia  podrían  haberse limitado  a  efectuar  análisis  regresivos  hasta  los  componentes  “sociales”  o  sociofactos  del  PGH atendiendo  a  su  escala,  los  trabajos  que  eligieron  los  estudiantes  de  Pablo  Infiesta  desbordan ampliamente  la perspectiva en  la que se mantienen  los cuatro  textos elegidos. En un sentido  trivial  los trabajos  de  los  estudiantes  pueden  considerarse  un  hipertexto  puesto  que  organiza  un  conjunto  de informaciones  en bloques distintos de  contenidos,  conectados  a  través de una  serie de  enlaces  con  la secuencia textual principal que les sirve de inspiración. Algunas de las preguntas guiadas realizadas por Pablo Infiesta sirvieron a nuestros estudiantes, en efecto, como elementos de activación o selección que provocó  en  ellos  la  búsqueda  y  recuperación  de  información  sobre  el  PGH,  que  no  estaban  en  el repertorio  inicial. Lo cierto es que  tomados en su conjunto constituyen un hiper‐documento orientado hacia  un  sólo  objeto  el  PGH,  que  es  nodo  obligado  en  todos  ellos.  Los  datos  que  proporciona  cada trabajo, en consecuencia, están conectados entre  si por enlaces que permiten  transitar de unos a otros como si de una red se tratase.    Algunos  de  los  trabajos  de  los  alumnos  intentan  dejar  su  impronta  filosófica  en  el  tema planteado, a veces en un nivel  fenomenológico,  como el de Aida Pulido, otras en el plano  conceptual como el de Juan Pedro Canteras o representacional como el del jienense Carlos González. Estos tres con el más  epistemológico de Marina Merino  constituyen,  en mi opinión, una  clara  reacción  al  trazo más internalista  de  lo  trabajado  por  Pablo  Infiesta  en  sus  clases.  En  efecto,  a  pesar  de  su  carácter aparentemente descriptivo, el trabajo de Aida Pulido desarrollo el argumento gnoseológico de cómo se construye el conocimiento del PGH que se ha  instalado en  la conciencia del hombre medio. La simple aparición del personaje recién citado, «el hombre medio», confiere estatuto sociológico al trabajo de Aida Pulido,  lo  que  confirma  aún más mediante  el método de  utilizar  la prensa  escrita  como  fuente. Tras analizar 200 noticias a lo largo de 20 años, se constata que las representaciones que se irán instalando en la  conciencia  colectiva  del  hombre medio  atañen  al  significado  o  sentido  que  la  prensa  confiere  al proyecto: una  obra  titánica  que  trae  grandes  beneficios  a  la humanidad. Un párrafo  que  analiza una noticia  de ABC  en  1994  ilustra  bien  el  tono  fenomenológico  del  trabajo:  «La Universidad  de Deusto 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

21E N E R O

2 0 1 2

celebra  entre  los días  24 y  26 de Mayo una  reunión  internacional  sobre  «El Derecho  ante  el Proyecto Genoma Humano». En  su  anuncio  se  afirma  que  “con  toda  seguridad  habrá dos  asuntos  que por  la controversia que ya suscitan en la actualidad centrarán gran parte de la atención en Bilbao. El primero de ellos es la patentabilidad de los descubrimientos genéticos. La pregunta de fondo es si es lícito patentar un ser vivo o algunas de sus partes para patrimonio de la Humanidad…  Esta polémica… al margen de su sustrato ético y legal amenaza con romper la necesaria colaboración internacional en este proyecto”. En  la  reunión  interviene Craig Venter2  y  deja  clara  su  postura,  a  saber,  que  no  se  trata  de  patentar materia viva pues no considera “los genes como algo vivo. Es decir, los genes se pueden reproducir en un laboratorio y no cobran vida. Son esenciales para la vida, pero el agua también lo es y a nadie se  le ocurre decir que tenga vida”.... Manifestó, asimismo, su firme convicción de que las patentes ayudan al desarrollo de la investigación. Y fundamentó esta afirmación basándose en que la patente es lo opuesto al  secreto.  Es  decir,  que  lo  que  se  patenta  se  hace  público  y  puede  ser  utilizado  por  los  demás investigadores». La naturalidad con que se salvan  los escollos más escabrosos contribuye a afianzar  la imagen positiva del PGH.     El excelente trabajo conceptual de Juan Pedro Canteras, titulado, «La evolución del concepto de gen.  Biología,  Ideología  y  Sociobiología»,  aborda  el  problema  del  estatuto  ontológico  de  esa  entidad llamada  gen,  lo  que  obliga  a  sacar  a  colación  posicionamientos  metacientíficos  alternativos.  Sin decantarse  abiertamente por un  constructivismo  sociológico  centra  su discurso  en  la Sociobiología de Wilson,  una  disciplina  que  sólo  de  soslayo  aparece  en  los  textos  seleccionados  por  Pablo  Infiesta, incluido el de Lewontin. Tras diagnosticarla como una disciplina “enigmática”, que tiene la originalidad no ya de naturalizar  las ciencias humanas, sino de “humanizar”  las ciencias naturales, acaba midiendo su rendimiento gnoseológico en función de sus pretensiones filosóficas, a propósito, en particular, con el problema  de  la  libertad.  El  sesgo  sociológico  queda  patente  al  subrayar  la  influencia  de  elementos diversos  en  el propio  concepto  científico de  gen, desde  la  evolución  instrumental  y  conceptual de  la biología hasta ideologías e intereses políticos, lo que le conduce a la conclusión de que «las ciencias, sin detrimento  de  su  especial  estatuto  gnoseológico,  son  porosas  al  entorno  en  que  crecen  y  que  las posibilita. De hecho, solo acudiendo a este entorno, cabe explicar su naturaleza, que por más lógica que se nos presente, no deja de ser material».      No podía faltar en el hipertexto de los alumnos un  análisis sobre un elemento representacional constitutivo de la ciencia como el que efectúa Carlos González en su trabajo «La fotografia 51: un ejemplo de  cooperación y  competencia  en  la  ciencia». Aunque el PGH  supone  la  incorporación de  las  ciencias biológicas a la Big Science: los actores, instituciones y materiales no son ya los científicos individuales, o las dependencias universitarias en  las que  se  fraguó  la doble hélice,  sino  los  empresarios, organismos gubernamentales, redes internacionales de grandes laboratorios, o trabajadores asalariados que realizan una labor coordinada y planificada, no está de más regresar al momento fundacional. No ya sólo porque la configuración hipertextual se muerde la cola en el caso del PGH, ya que, como hemos visto, exigió la puesta a punto de numerosos aparatos y técnicas para analizar datos o simular sistemas o mecanismo de índole biológica, sino porque el núcleo inicial de estas técnicas se encuentra en la utilización de recursos gráficos  sobre  cuya  sobre‐valoración  hace  Carlos  González  una  consideración  muy  pertinente:  «el binomio ciencia y tecnología componen una estructura difícilmente separable, y en esta ocasión se ve de nuevo que no podemos más que realizar una disociación, porque su separación real es imposible».    2 EN ESTA REUNIÓN VENTER CONOCE A HAMILTON SMITH; QUIEN SE CONVERTIRÁ EN SU COLABORADOR. PRECISAMENTE ES ÉL QUIEN PROPONE SECUENCIAR EL GENOMA COMPLETO DE UNA BACTERIA. ES ÉL, POR TANTO, EN ÚLTIMA INSTANCIA EL RESPONSABLE DE QUE VENTER ANUNCIASE EN MAYO DE 1995 LA PRIMERA SECUENCIA DE UN ORGANISMO AUTÓNOMO.

El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo

 

22 E N E R O

2 0 1 2

  El trabajo de Marina Merino Sabando escuetamente titulado «Genética de Poblaciones», explora los  vínculos  de  la  Biología molecular  y  la Genética,  al  objeto  de  establecer  el  funcionamiento  de  los mecanismos  de  evaluación  institucional  en  curso  a  través  de  la  obra  de  L. Cavalli‐Sforza,  otra  línea apenas  citada  en  los  textos  de  Pablo  Infiesta:  el  Proyecto  de Diversidad  del  Genoma Humano  y  el Proyecto de los mil genomas.  Es cierto que el PGH necesitó recursos computacionales para solucionar o investigar  problemas  sobre  escalas  de  tal  magnitud  que  sobrepasan  el  discernimiento  humano.  La investigación  en  biología  computacional  se  solapa  a  menudo  con  los  principales  esfuerzos  de investigación  en  estos  campos  tales  como  el alineamiento  de  secuencias,  la predicción  de  genes, el montaje del genoma,  el   alineamiento  estructural  de  proteínas,  la  predicción  de  estructura  de proteínas,  la  predicción  de  la expresión  génica,  las interacciones  proteína‐proteína,  y  modelado  de la evolución,  entre  otras  cosas.  Lo  que  pretende  Cavalli‐Sforza  es  más  ambicioso  aún:  Proyecto  de Diversidad  del  Genoma  Humano  (PDGH)  postula  la  colaboración  de  una  multitud  de  disciplinas (genética,  arqueología,  lingüística,  antropología,  etc.)  para  dar  cuenta  de  la  evolución  reciente  de  la humanidad, reconstruir las grandes migraciones de grupos, la distribución de las poblaciones y culturas, etc. Una de  las  líneas consiste en  la  toma de muestras de ADN de una serie de poblaciones y etnias y efectuar  un  estudio  comparativo  de  polimorfismos  moleculares.  Muestras  del  10%  de  las  5000 poblaciones lingüísticas diferenciadas que existen permitirá determinar si existen correlaciones (y cómo se han producido) entre la diseminación cultural y la genética.    Otra  serie de  trabajos  adoptan un punto de  vista  estrictamente  sociológico  como  el de Anais Fernández Criado sobre «los cultivos transgénicos», el de Mikel Rascón Muñoz «Sobre lo que no está en los genes», que sigue muy de cerca el argumentario de Richard Lewontin o el de Paloma Nido sobre «el determinismo genético». La originalidad de Anais es que utiliza directamente la teoría de Michel Callon del Actor‐Red para analizar el caso de los cultivos transgénicos. Tras determinar como actores a una serie de instituciones humanas como las empresas, los gobiernos, los agricultores, los grupos ecologistas y los consumidores, Anais Fernández Criado suelta el argumento decisivo, que, al tiempo que sorprende, abre el hipertexto a dimensiones inusitadas: « Al igual que en el caso expuesto por Callon de las vieiras de la Bahía de St. Brieuc, los alimentos transgénicos (que, en adelante, serán nuestro actor 0) pueden rebelarse contra los intereses de sus explotadores. En este caso que nos ocupa, tal rebelión tendría un significado profundo: se rebelaría la creación frente al creador, la incognoscible naturaleza frente a su iluso manejo, la verdad frente a la apariencia que los poderosos intentan establecer como indiscutible. La fuerza del en‐sí se vería a través del para‐nosotros por un segundo, inefable pero nítida, antes de que los demás actores se enfrascasen en una nueva negociación tácita de su significado».  Como hipertexto autorreferente que es la conclusión de que la red de los transgénicos no está estabilizada afecta directamente al conjunto de los trabajos de sus compañeros en la medida en que apela en términos existenciales a la distinción entre Wirklichkeit y Realität.    Aparentemente mucho más clásico el trabajo de Mikel Rascón hace un repaso  histórico de aquel antecedente  del  PGH  que,  según  Lewontin,  es  su  padre  ideológico  en  cuanto  al  supuesto  del determinismo biológico que implica: el darwinismo social y el movimiento eugenésico en Gran Bretaña. El trabajo presta especial atención a un clásico de la psicología: la teoría hereditaria de la inteligencia de Sir Francis Galton, que habría asomado ya  la oreja  ideológica, al  insistir en que Hereditary Genius de 1869 pretendía responder a la cuestión: « ¿Por qué existen las clases sociales? Él creía ser capaz de hacer una clasificación de las personas en función de su ”valor cívico”, clasificación que coincidiría con la de las  clases  sociales».  El  artículo  comienza  criticando  el  fetichismo  del ADN  que  anida  en  la  biología molecular y concluye señalando  las perversas consecuencias prácticas asociadas a  la eugenesia y a  las doctrinas sobre el carácter hereditario de la inteligencia, en particular, el nihilismo  intervencionista que 

Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.

 

23E N E R O

2 0 1 2

deja  libre  la mano  invisible  del mercado  para  sembrar  la  desigualdad  con  el  supuesto  objetivo  de optimizar  los recursos humanos. Distingue  tres  tipos de eugenesia,  la selectiva,  la  transformadora y  la biológica: «La eugenesia selectiva consiste en aplicar a la especie humana las mismas técnicas que se han venido  aplicando  a  los  animales  y  plantas. La  eugenesia  transformadora  trata de mediar  en  el ADN recombinante  de  los  seres  humanos  quitando  o  poniendo  genes  (ingeniería  genética).  La  ingeniería biológica  supone  producir  alteraciones  en  los  humanos  sin  alterar  su ADN  (operaciones  quirúrgicas, cultivo de órganos, etc.)»    Por  último,  el  trabajo  de  Paloma Nido,  «Praxis Humana»  plantea  in  recto  el  problema  de  la libertad  como  un  reto  mayor  contra  el  determinismo  biológico.  Aunque  explícitamente  pretende apoyarse  en  la  filosofía  como  disciplina  de  segundo  grado  capaz  de  dar  una  visión  global  sobre  las demás disciplinas que se dedican al estudio del comportamiento   y de  la conducta del ser humano, en realidad  al discutir  las principales  tesis  que mantienen,  su  importancia  y  los problemas  que  suscitan desarrolla  argumentos  propios  de  las  ciencias  sociales.  Tal  como  entiende  la  teoría  de  la  ciencia  del materialismo histórico, después de Kuhn y Lakatos, Paloma Nido defiende  la  libertad de praxis en el caso de los humanos, pero no en los animales, sin negar por ello predisposición heredables  en ambos. En todo caso acaba concluyendo prudentemente que «la herencia genética y el entorno ambiental en el que se desarrolla un  individuo, no  son  entidades  autónomas que  actúen de  forma  independiente  sobre  el sujeto, sino que sería  la  interacción que se produce entre ambas,  la que daría como resultado  la praxis humana, y por tanto permitiría el ejercicio de la libertad del individuo»    La hipertextualidad de  los proyectos de bioinformática y biología computacional supone el uso de poderosas herramientas matemáticas para extraer información útil de datos producidos por  técnicas biológicas  de  alta  productividad,  como  la secuenciación  del  genoma.  En  particular,  el  montaje  o ensamblado de secuencias genómicas de alta calidad desde  fragmentos obtenidos  tras  la secuenciación del ADN a gran escala es un área de alto interés práctico y permitiría interesantes trabajos centrados en la  cuestión de  la  importancia de  las  técnicas  y  tecnologías  para  la  construcción  científica misma.  Sin embargo, los trabajos de tipo práctico de los estudiantes tendieron a extender las redes hipertextuales en otras direcciones, no menos  internas que  la  cuestión de  la  técnica,  como por  ejemplo,  el muy  técnico trabajo de Sandra Sánchez Sánchez sobre la retinosis pigmentaria. Adrián Carbajales, por su parte, hizo un desarrollo  típicamente hipertextual muy original sobre  la abundante presencia de  la genética en  la ciencia‐ficción, mientras Rodrigo Cocina Díaz escribió un texto sobre «El genoma humano en el derecho de patentes». Finalmente la perspectiva trasversal está bien representada por el trabajo de Ana Álvarez‐Acevedo Martínez, quien se pregunta transparentemente «¿Juegan los genes algún papel en la guerra de género?» .     No  es  del  caso,  en  esta  introducción,  cerrar  sistemáticamente  las  líneas  abiertas  por  los estudiantes de Pablo  Infiesta, porque  tampoco  el  tuvo  tiempo para  culminar    la  tesis doctoral  con  el perfeccionismo y  la auto‐exigencia que  le caracterizaban. Sirvan  los  textos reunidos en este número de Eikasía como testimonio de un trabajo  intenso, honrado y valioso, pero destinado a olvidarse con gran rapidez, salvo en la memoria de los estudiantes que hicieron el esfuerzo de recordarlo.   

 

Pablo Infiesta Molleda | Introducción.

 

25E N E R O

2 0 1 2

Introducción. Pablo Infiesta Molleda 

   Introducción:

En el presente trabajo se estudia la génesis del Proyecto Genoma Humano1 desde un enfoque filosófico. A

la vista de la cuantiosa bibliografía sobre el tema, quizá las siguientes páginas pudieran parecer impertinentes. El

mismo director del programa público para la secuenciación del Genoma, Francis S. Collins, advierte en su última

obra que «se han escrito ya libros enteros sobre el Proyecto Genoma Humano (de hecho, probablemente

demasiados)»2. Sin entrar en conjeturas acerca de la probabilidad del exceso, lo cierto es que existen varias

publicaciones cuyos contenidos intersectan ampliamente con los que nutrirán los próximos capítulos. Ahora bien,

esta coincidencia no supone que vayamos a elaborar una mera paráfrasis, más o menos afortunada, de varios

ensayos previos: en primer lugar, porque este trabajo supone una reacción crítica frente a esos mismos ensayos,

diagnosticando sus limitaciones y ofreciendo una metodología capaz de afrontar una problemática común detectada

en todas las obras precedentes que hemos revisado. Nuestro proceder es, desde un primer momento, dialéctico, pues

supone una rectificación de las distintas exposiciones acerca de la génesis del PGH. Por ello, hemos de tomarlas en

consideración como contenidos del propio trabajo. El análisis pormenorizado sería excesivo; una breve reseña, casi

a título inventarial, de los ejemplares más destacados, permitirá ejemplificar los problemas mencionados, además

de ofrecer un primer bosquejo de los contenidos y contornos de la investigación.

1. Estado de la cuestión. Para una revisión bibliográfica.

Thomas F. Lee, en su obra El Proyecto Genoma Humano. Rompiendo el código genético de la vida, realiza

el siguiente planteamiento general: «En las páginas siguientes exploraremos los métodos y la significación de esta

notable empresa y describiremos las personalidades, instituciones y controversias involucradas. También

explicaremos los extraordinarios desarrollos que, ya desde 1970, condujeron a la posibilidad de llegar a concebir

semejante proyecto […] Para relacionar la génesis relativamente breve pero intrincada del PGH, debemos primero

definir de una forma adecuada el término genoma»3. Efectivamente, el estudio de Lee no se reduce a un solo

ámbito, sino que aborda cuestiones sociológicas, científicas, tecnológicas, políticas, económicas, etc. En el primer

capítulo, Lee comienza a exponer, al menos intencionalmente, la historia de la genética. En este caso, la elección no

carece de justificación: «La historia del descubrimiento de, primero, la organización física y, luego, la organización

química de las células, del núcleo, de los cromosomas y finalmente la de los genes, ejemplifica una transmutación

profunda del pensamiento y actitudes en la sociedad occidental. Este cambio debe ser entendido si se desea apreciar

1 En adelante, PGH 2 Francis S. Collins, ¿Cómo habla Dios? La evidencia científica de la fe, pág. 136, Temas de Hoy, Madrid, 2007. 3 Thomas F. Lee, El Proyecto Genoma Humano. Rompiendo el código genético de la vida, pág. 11, Gedisa, Barcelona, 2001.

Introducción | Pablo Infiesta Molleda

 

26 E N E R O

2 0 1 2

en forma completa las fuerzas y motivos que dirigen las actividades científicas actuales, como el Proyecto Genoma

Humano […] sus razones no pueden comprenderse completamente sin un breve análisis de cómo se desarrolló la

ciencia moderna»4. Para ello, se remonta hasta los albores de la agricultura, hace 12.000 años, cuando se habrían

producido las primeras operaciones humanas vinculadas con el conocimiento de la reproducción de las plantas,

encaminadas a obtener especies más útiles. Pronto, no obstante, llega a terreno más firme con la teoría de la

selección natural de Darwin, la genética de Mendel, y la teoría celular de Schleiden-Swann5, los grandes hitos de las

ciencias biológicas en el siglo XIX. En los siguientes capítulos, continúa la exposición en clave interna de la

historia de la genética, transitando por De Vries, Morgan, Weissman y demás genetistas de los primeros decenios

del siglo XX6. Una vez explicado, con mayor detenimiento, el descubrimiento de la doble hélice por parte de

Watson y Crick, la narración de Lee se circunscribe al campo de la Biología Molecular, para desembocar, tras pasar

por el código genético, en la biotecnología y la ingeniería genética nacida en los años 707. Si hasta ahora sólo se

habían tratado cuestiones científicas, entran ya en liza los aspectos tecnológicos. También existe una breve alusión a

su engranaje con el PGH, respecto de la reacción en cadena de la polimerasa8: «este método notablemente simple

de clonado de genes se ha convertido en un componente crítico en el cartografiado y secuenciamiento del genoma

humano»9. El siguiente capítulo, continuando con la trama tecnológica, se centra en la descripción de los distintos

artefactos utilizados en el mapeado y secuenciación del genoma10. En sus páginas finales, se alude a la

implementación de los instrumentos tecnológicos en el PGH, y a las necesidades futuras en materia informática,

exponiendo brevemente el plan para los primeros cinco años. Entramos ya en cuestiones organizativas, e

indudablemente propias del PGH, aunque el cambio no se advierta en ningún momento por parte del autor11. Tras

un capítulo dedicado a las enfermedades susceptibles de tratamiento mediante terapia génica, vinculado tanto con la

medicina como con las motivaciones sanitarias del PGH, Lee entra de lleno en la exposición del plan y su condición

de Big Science, introduciendo así aspectos sociológicos, económicos, políticos e institucionales12. Ambos capítulos

comienzan y terminan abruptamente, sin indicación alguna acerca de la pertinencia de los contenidos, de su lugar en

el conjunto de la obra, o de su engranaje con el PGH y el resto de contenidos analizados. Como el valor a los

soldados, todo ello se les supone. El último capítulo, por fin, versa sobre los problemas éticos y jurídicos suscitados

por el PGH13.

Tras este breve examen, estamos en condiciones de establecer ya varias conclusiones importantes:

En primer lugar, si en términos generales los contenidos heterogéneos compendiados en la obra de Lee son

imprescindibles para dar cuenta de la génesis del PGH, el investigador deberá enfrentarse a una pluralidad

4 Lee, Op. Cít., pág. 31. Subrayado nuestro. 5 Lee, Op. Cít., «La primera síntesis», págs. 32-54. 6 Lee, Op. Cít., «Flores, moscas, moho y microbios», págs. 55-80. 7 Lee, Op. Cít., «ADN: modelos y significado», «Extremos pegajosos y una nueva creación», «Los clones entran en escena», págs. 81-150. 8 En adelante, PCR (por sus siglas en inglés), abreviatura convencional en nuestro idioma. 9 Lee, Op. Cít., pág. 150. Subrayado nuestro. 10 Lee, Op. Cít., «Mapas y marcadores», págs. 151-180. 11 Lee, Op. Cít., págs. 180-182. 12 Lee, Op. Cít., «Enfremedad, dignóstico y terapia”, “El plan: promesas y problemas», «¿Ciencia grande, ciencia mala?», págs. 183-256. 13 Lee, «Genes y juicios», Op. Cít., págs. 257-294.

Pablo Infiesta Molleda | Introducción.

 

27E N E R O

2 0 1 2

irreductible de ámbitos de estudio. Cualquier estudio sobre el tema, por específica que sea su pretensión, parece

confirmar que la selección de Lee no es caprichosa, sino que viene impuesta por las propias características del

material analizado. Por ejemplo, Robert Cook-Degan, en The Gene Wars. Science, politics and the human genome,

afirma acerca de su obra: «I conducted interviews with the main characters in this story, beggining in 1986. This is

their story, the genesis of the Human Genome Project –a case study in the politics of modern sciences»14. Aunque el

autor pretenda circunscribir su trabajo a la condición de estudio de caso en políticas científicas, lo cierto es que los

cuatro primeros capítulos están infectados de contenidos científicos y tecnológicos15, al margen de los cuales el

argumento posterior (ya estrictamente sociológico) no se puede construir. Podría pensarse que, siendo el PGH un

proyecto tecnocientífico, son estos ámbitos los que resultan inherentes a todo intento de abordar el tema, mientras

que el resto de componentes considerados por Lee pueden obviarse. Sin embargo, en la obra Genome, de Jerry

Bishop y Michael Waldholz, se da la recíproca del caso anterior: en un trabajo de orientación internalista, donde se

privilegia la exposición de las distintas investigaciones biológicas y médicas que, en palabras de los autores,

«convergen» en el PGH, la mención de instituciones, empresas y cargos públicos es ubicua. En concreto, los

avatares políticos, económicos e institucionales que a finales de los años 80 dan lugar a la formulación del proyecto

genoma son consignados con cierto detalle a lo largo de varias páginas16. Su relato es el de la convergencia misma

de los acontecimientos científicos que se vienen explicando, y por tanto no se puede obviar. Parece que los

materiales sociológicos, que hipotéticamente podrían aparecer como externos, son, al menos en este caso,

contenidos internos. Es la propia distinción, por tanto, la que queda puesta en cuestión como herramienta funcional

en la reconstrucción de la génesis el PGH.

La segunda consecuencia está conectada con la primera: la determinación de la pluralidad de

circunstancias implicadas en la génesis del PGH, supone también la delimitación de las mismas, respecto de unas

terceras. Pues si ninguna de las obras consideradas se ciñe a un solo ámbito, tampoco considera la totalidad de lo

real. Comienzan a dibujarse de este modo, en el marco de los distintos ámbitos, ciertos materiales empíricos ligados

con el PGH, y ciertos cursos que es necesario recorrer para explicar su génesis. Necesario, como planteamos en el

párrafo anterior, y suficiente, pues existen muchas otras realidades desconectadas del proceso. No obstante, los

límites que así puedan perfilarse serán siempre borrosos. Pues, aunque existen importantes intersecciones entre las

distintas obras, también se encuentran diferencias. Confrontemos el ensayo de Lee con otras dos publicaciones

semejantes:

Renato Dulbecco17, en su obra Los genes y nuestro futuro, trata de «analizar a fondo los problemas

14 Robert Cook-Degan, The Gene Wars. Science, politics and the human genome, pág. 12, W. W. Norton & Company, Nueva York, 1994. 15 Robert Cook-Degan, Op. Cít., «Part One: The Scientific Foundation», págs. 13-56. 16 Jerry E. Bishop & Michael Waldholz, Genome. The Story of the Most Astonishing Scientific Adventure of Our Time –The Attemp to Map All

the Genes in the Human Body, págs. 217-224, Simon and Schuster, Nueva York, 1990. 17 Premio Nobel de Fisiología por su descubrimiento de la transcriptasa inversa, relacionada con el ppael de los virus en la génesis del cáncer, y

uno de los impulsores del PGH. A este respecto, Víd. Renato Dulbecco, «A Turning Point in Cancer Research: Sequencing the Human Genome», Science, nº 231, 1986, págs. 1055-56.

Introducción | Pablo Infiesta Molleda

 

28 E N E R O

2 0 1 2

planteados por los avances en el núcleo de los genes»18 tomando como centro de referencia el PGH; no en vano se

subtitula La apuesta del Proyecto Genoma. Como Lee, Dulbecco comienza con la genética, si bien en su obra la

exposición es más sistemática que histórica. Una diferencia significativa, en lo que concierne a las conclusiones que

pretendemos establecer, radica en el punto de partida: mientras que Lee evocaba las técnicas que dieron lugar al

origen de la agricultura, Dulbecco se detiene en Mendel19. Asimismo, obvia cualquier alusión a los grandes

biólogos del siglo XIX, siendo Morgan su siguiente referencia20. Así pues, para Dulbecco la exposición de la

genética puede desconectarse del resto de disciplinas biológicas. En el capítulo dedicado al PGH, Dulbecco también

tiene en cuenta el plan, y las aportaciones de la ingeniería genética. Aunque, en este caso, el sesgo viene dado por la

implicación del propio autor en los hechos narrados: llega a atribuirse el origen del proyecto21, e incluye sus

investigaciones en virus22. Aunque considera, al igual que Lee, hitos biotecnológicos como la PCR, las enzimas de

restricción, o los mapas genéticos, no existe alusión alguna a los secuenciadores ni, en general, a la tecnología

computacional23. El juego de intersecciones y diferencias se mantiene en las secciones dedicadas a las aplicaciones

médicas y las controversias éticas, morales y jurídicas; pesando aquí, por lo que parece, el decidido

posicionamiento de Dulbecco a favor del PGH: seis capítulos se dedican a desgranar las posibles repercusiones en

medicina24, mientras que las «implicaciones éticas, legales y sociales» son despachadas en apenas diez páginas25.

Veamos ahora La conquista del genoma humano, del genetista y director de la revista Nature Genetics Kevin

Davies. El propósito de la obra, en este caso, es la exposición de los distintos avatares de la secuenciación del

genoma, una vez anunciados los borradores del proyecto público y Celera Genomics. Razonablemente, el grueso

del texto versa sobre los acontecimientos que se produjeron entre 1990 (año internacionalmente admitido como

origen del PGH) y 2000 (en que Venter y Collins anunciaron conjuntamente las primeras conclusiones). Aún así, la

narración de la historia del PGH comienza con la exposición del descubrimiento de la estructura del ADN por parte

de Watson y Crick en 195326. Davies también recorre el curso de la Biología molecular y la Biotecnología en la

segunda mitad del siglo XX, pero para ello sólo necesita regresar hasta sus orígenes, sin necesidad de considerar sus

antecedentes, como ocurría en las obras anteriores. Aunque la decisión no se argumenta, la adopción de un estilo

asistemático y ágil permite al lector apreciar la continuidad de instituciones, científicos y referencias: en dos retazos

del mismo capítulo encontramos a James Watson proponiendo una estructura para el ADN, y siendo nombrado

décadas después primer director del PGH27.

18 Renato Dulbecco, Los genes y nuestro futuro. La apuesta del Proyecto Genoma, Alianza, Madrid, 1999. 19 Víd. Dulbecco, Op. Cít., pág. 14. 20 Víd. Dulbecco, Op. Cít., pág. 20. 21 «El Proyecto Genoma es todavía muy joven. Lo puso en marcha en 1986 un breve artículo mío publicado en Science, una de las revistas de

más difusión del mundo centífico. Aquel artículo era una reflexión: los muchos años transcurridos estudiando el cáncer me habían convencido, en efecto, de que, para derrotarlo, hay que conocer los genes cuyas alteraciones provocan la malignidad de las células», Dulbecco, Op. Cít., pág. 90.

22 Víd. Dulbecco, Op. Cít., págs. 98-99. 23 Víd. Dulbecco, Op. Cít., págs. 94-105. 24 Dulbecco, Op. Cít., «Efectos y significado de las alteraciones génicas», «Enfermedades hereditarias», «Los genes y los tumores»,

«Diagnóstico y prevención de las enfermedades hereditarias», «Finalidades de la intervención génica» y «La terapia génica», pags. 115-201. 25 Dulbecco, Op. Cít., «El individuo y la sociedad frente a los genes», págs. 202-214. 26 Kevin Davies, La conquista del genoma humano. Craig Venter, Francis Collins, James Watson y la historia del mayor descubrimiento

científico de nuestra época, Paidós, Barcelona, 2001, pág. 39. 27 Davies, Op. Cít., «Los caballeros de la doble helice», págs. 27-54.

Pablo Infiesta Molleda | Introducción.

 

29E N E R O

2 0 1 2

Podríamos continuar el análisis comparativo pero, con lo dicho, queda ya ilustrada la segunda conclusión.

Además, los párrafos anteriores sirven para plantear los problemas comunes, a los que aludíamos en un principio: si

las semejanzas entre las distintas obras dibujan el contorno borroso de los materiales asociados a la génesis del

PGH, las diferencias exigen una fundamentación de la selección realizada, frente a otras. Por ejemplo, parece claro,

atendiendo a las semejanzas, que no se puede afrontar el origen del PGH al margen de la historia de la Biología.

Pero, esto asumido, ¿por qué Lee se remonta hasta las técnicas agrícolas de la prehistoria, mientras que Davies

detiene el regreso en el descubrimiento de la doble hélice, y Dulbecco se contenta con una breve alusión a Mendel?

Las razones pueden ser también diversas: desde el enfoque general adoptado, hasta los intereses particulares del

autor, etc. El problema no radica tanto en la selección, siempre discutible, cuanto en la ausencia de justificación y

criterios explícitos. Del mismo modo, tampoco se argumenta la conexión de los distintos contenidos con el PGH, ni

sus relaciones mutuas, salvo en casos muy puntuales y de forma insuficiente. Recordemos que Lee se refería a la

necesidad de conocer la trama de la Biología en general y la Genética en particular, para poder comprender el PGH.

Así, la pertinencia de los contenidos vendría dada por su carácter de condiciones previas de inteligibilidad de lo que

se pretende explicar. Sin saber lo que son los genes o el ADN, el lector, al que se supone profano dada la

orientación divulgativa de la obra, no podría entender la secuenciación del genoma. Ahora bien, la reducción de la

cuestión al plano retórico y pedagógico no supone una solución: pues, si efectivamente hay que familiarizarse con

el concepto de ADN para entender el PGH, será porque existe alguna relación material, en el plano ontológico,

entre el ADN y el PGH. Siendo así, habrá que determinar cuál es la naturaleza de esa conexión; y si es la misma

que se pueda establecer, por ejemplo, entre las prácticas de selección artificial en agricultura y el mismo PGH, dado

que aquéllas también se tienen en cuenta.

En estas cuestiones intervienen un conjunto de presupuestos acerca de lo que es la ciencia, la técnica, los

descubrimientos, las realidades sociales, etc. Presupuestos que todos los autores considerados ejercitan (sean o no

conscientes del ellos) cuando seleccionan, combinan y modulan los materiales de sus obras28, pero que ninguno

representa. Todos estos supuestos desbordan el marco de cualquier disciplina científica, aunque no por ello se sitúan

al margen de la racionalidad, cayendo del lado de los prejuicios infundados. Son, en suma, principios filosóficos,

que será necesario poner en solfa para afrontar los problemas señalados.

Siendo así, debemos comenzar la rectificación de los tratamientos habituales del objeto de nuestro estudio

declarando las coordenadas filosóficas propias, que se corresponden, en gran medida, con las del materialismo

filosófico elaborado por Gustavo Bueno y sus colaboradores. La elección nada tiene de dogmática: sólo desde un

sistema filosófico se puede ejercer aquí la racionalidad crítica. Su justificación no puede ser apriorística; serán los

resultados del trabajo los que peritan dictar sentencia sobre la fertilidad de las tesis utilizadas.

28 Lo cual no implica que sean determinantes únicos, como ya señalamos anteriormente a propósito de los intereses subjetivos.

Introducción | Pablo Infiesta Molleda

 

30 E N E R O

2 0 1 2

2. Cuestiones metodológicas. Aplicando la teoría materialista, proponemos una metodología cuya estrategia principal consiste en la

identificación de las partes que intervienen en la génesis del PGH, dando razón de su configuración y conexión en

el proceso de constitución de la totalidad de referencia. Estas partes no son homogéneas, como ya hemos tenido

oportunidad de constatar. Precisamente, uno de los motivos de la oscuridad y confusión de los tratados anteriores

consiste en la indistinción entre las partes consideradas, en relación al todo. Será necesario, por tanto, realizar una

clasificación sistemática donde se determinen distintas figuras, a las que poder adscribir las realidades estudiadas.

Dicha clasificación y, en general, la metodología que se ofrece a continuación, no tienen pretensión de validez más

allá de su aplicación en el marco del presente trabajo.

Partimos de la teoría materialista acerca de las relaciones entre el «mundo precursor» y la ciencia que en él

se construye. Desde el materialismo filosófico, las ciencias se consideran «instituciones culturales, históricamente

constituidas»29. La ciencia no será un conocimiento puro de orden espiritual, sino una construcción material

resultado de las operaciones de los sujetos corpóreos sobre distintas partes del mundo, entre las cuales pueden

llegar a establecerse relaciones necesarias. Del mismo modo, los objetos sobre los cuales se llevan a cabo las

operaciones tampoco son hechos puros, sino fenómenos previamente conformados. Además, la actividad científica

exige un entramado institucional, económico y productivo para su realización. Por tanto, la ciencia supone un

mundo precursor, organizado culturalmente, a partir del cual se constituye. Pues los sujetos, las técnicas y

tecnologías implicadas en los procesos operatorios, los fenómenos, o las instituciones, están dados, configurados y

estructurados en un contexto social y cultural determinado30. Así, los sujetos operatorios responsables de las

construcciones científicas aparecen envueltos por un conjunto de realidades heterogéneas, que condicionan su

práctica. Las configuraciones del mundo precursor se clasifican tomando como criterio las relaciones que

mantienen con los sujetos humanos. De acuerdo con la teoría del Espacio Antropológico, central en la Antropología

del materialismo filosófico, podemos distinguir tres tipos de relaciones entre los sujetos humanos y las realidades

circundantes: en primer lugar, las relaciones del hombre consigo mismo, entendido «como una denotación de

realidades múltiples y heterogéneas (los individuos egipcios o los celtas, las instituciones chinas o las escitas)»31,

ordenadas en el eje circular. Los hombres se relacionan, también, con entidades pertenecientes a lo que

habitualmente se denomina «Naturaleza», entidades físicas o biológicas carentes «de todo género de inteligencia

(aunque tengan estructura, organización, e incluso, al menos desde un punto de vista descriptivo, teleología)»,

ubicadas en un eje radial. El materialismo filosófico postula, además, un eje angular que comprende las relaciones

entre los hombres y entidades no humanas dotadas de inteligencia y voluntad, los númenes32, que «pueden ser

29 Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 97. 30 Víd. Bueno, Op. Cít., págs. 98, 119-121, 215-219, 296-299. 31 Gustavo Bueno, El sentido de la vida. Lectura 2. Sobre el concepto de «Espacio Antropológico», Pentalfa, Oviedo, 1996, pág. 93. 32 La filosofía de la religión del materialismo filosófico considera que su génesis radica en la religación del hombre con ciertos animales

animales, entendida como «una relación originaria práctica (política, no metafísica)». Por ello, las configuraciones religiosas se ubican en el eje angular, aunque se produzcan intersecciones con los ejes circular y radial en su desarrollo. Víd. Gustavo Bueno, Op. Cít., pág. 97; y El Animal Divino, 2ª edición, Pentalfa, Oviedo, 1996, págs. 229-232.

Pablo Infiesta Molleda | Introducción.

 

31E N E R O

2 0 1 2

identificados con los animales, al menos con ciertos animales teriomorfos»33.

En resumen, los sujetos operatorios «sólo actúan (en sus ciencias respectivas) en cuanto están inmersos

[…] en un medio social dado, en un eje circular coordinado con un mundo (radial y angular)»34. Esta prioridad de

los otros, del contexto social para las tareas gnoseológicas, no es característica exclusiva del materialismo, sino que

ha sido reconocido por gran parte de las corrientes filosófícas actuales, y en particular por las de corte

fenomenológico a través de la caracterización del ser humano como un ser-con, un Mit-sein. Así, entre las

configuraciones del mundo precursor «hay que contar, en primer lugar, las propias configuraciones sociales, en

sentido estricto (circulares), como puedan serlo las estructuras políticas, de clase, familiares, de grupo,

ceremoniales, &c., que llamaremos «sociofactos». Pero en el «mundo precursor» hay también configuraciones

radiales; estas configuraciones, o bien son «morfologías fenoménicas» que pueden considerarse como fragmentos

individualizados del mundo cosmológico («bóveda celeste», «Luna», «mar»), que llamaremos «trazos», o bien son

configuraciones propias del mundo tecnológico, que lamamos «artefactos» (hachas, tejidos, máquinas). También en

el mundo heredado hay configuraciones angulares (religiosas, mitológicas)»35, que el materialismo filosófico

insiste en despojar de toda connotación espiritualista, por un lado, pero también de su adscripción a meras

nebulosas ideológicas asociadas a intereses circulares, por otro. Así pues, para el materialismo filosófico las

configuraciones angulares forman parte del mundo precursor de una manera esencial y constitutiva, no accidental,

ni derivada.

Aunque el esbozo36 precedente haya sido elaborado a propósito de la ciencia, tiene la potencialidad de

discriminar las configuraciones constitutivas del estado del mundo precursor a partir del cual se construye cualquier

otro resultado de la actividad humana, y por tanto resulta extrapolable al análisis de los procesos de constitución de

otras formaciones cualesquiera37. En este caso, estudiaremos la génesis del PGH en cuanto figura institucional

determinada, dada la imposibilidad de restringirse a sus componentes estrictamente científicos. La aplicación de la

teoría al objeto de nuestro estudio pide un desarrollo capaz de aumentar su grado de precisión y sistematicidad:

sociofactos, trazos, artefactos y mitos comprenden a su vez configuraciones diversas que pueden ser distinguidas

críticamente y organizadas en una clasificación más potente.

Los sociofactos, identificados con los contenidos del eje circular, constituyen un todo complejo, por decirlo

con Tylor, que no se reduce a las realidades inventariadas más arriba. Pues el eje circular «incorpora todo tipo de

relaciones que se constituyen en la inmanencia de lo humano, de las relaciones de «lo humano» -vasijas,

ceremonias, ciudades- con «lo humano», o, más en particular, de las relaciones de los hombres con los mismos

33 Bueno, Op. Cít., pág. 97. 34 Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 298. 35 Bueno, Op. Cít., pág. 299. 36 En el párrafo anterior se reproduce literalmente la formulación completa de la teoría, para que pueda observarse lo escueto del planteamiento. 37 La hipótesis no es propia: en la Historia de la Filosofía coordinada por Alberto Hidalgo y Román García, se exponen las configuraciones del

mundo precursor de la filosofía griega utilizando esta teoría. Víd. Alberto Hidalgo y Román García Fernández (Eds.), Historia de la filosofía, Eikasía, Oviedo, 2005, págs. 13-20.

Introducción | Pablo Infiesta Molleda

 

32 E N E R O

2 0 1 2

hombres»38. A un determinado nivel de análisis, resulta demasiado genérico aglutinar bajo una misma rúbrica

realidades tan diversas. Cabe solventar la cuestión acudiendo, coyunturalmente, a distinciones tomadas de otras

teorías filosóficas o científicas (sociológicas, etc.) cuando resulte necesario. Pero, en este caso, habría que

demostrar la compatibilidad de las teorías que tratan de solaparse acríticamente, incorporándolas de algún modo al

propio sistema de referencia, o asumir el riesgo de incurrir en inconsistencia o contradicción. La solución

«nominalista», consistente en considerar cada individualidad integrada en el ámbito del eje circular como

esencialmente distinta del resto, tampoco resulta satisfactoria, porque las distintas configuraciones se nos dibujan

siempre como clases (dadas a distintas escalas) que serían establecidas y agrupadas en cada caso arbitrariamente;

además, no parece razonable ignorar las estrechas semejanzas existentes entre, pongamos por caso, una vasija y un

plato, respecto de un partido de fútbol o un centro educativo. Consideramos, no obstante, que el materialismo

filosófico goza de un repertorio conceptual lo suficientemente potente como para responder al requerimiento desde

su inmanencia. Los sociofactos, atributivamente39 considerados, están dados en el marco de esferas culturales

determinadas, y se identifican con ciertos rasgos de cada esfera cultural (las ánforas atenienses, las instituciones

educativas españolas, o la liga de fútbol inglesa).

Por ello, cabe utilizar la clasificación de contenidos de la cultura morfodinámica40, elaborada por Gustavo

Bueno en El mito de la cultura, para organizar las distintas configuraciones circulares: manteniendo como criterio

de clasificación al sujeto corpóreo, los contenidos pueden referirse en primer lugar a las subjetualidades corpóreas

mismas, en tanto que realizan operaciones. Son, precisamente, las acciones y operaciones realizadas por los sujetos,

como resultado de un aprendizaje, las que se consideran contenidos de cultura subjetual o intrasomática: «La

cultura subjetual es necesariamente, por estructura, intrasomática, es decir, implica una modificación o un

moldeamiento […] que el cuerpo adquiere tras un aprendizaje. Intrasomático no significa sólo, por tanto, «interior a

la piel», sino simplemente algo que va referido al cuerpo operatorio […] La cultura intrasomática o subjetual no es,

por tanto, cultura subjetiva íntima, en el sentido de invisible y sólo experimentable (emic) por el sujeto que «la

incorpora», puesto que también un danzante, un gimnasta o un «culturista» son sujetos de cultura intrasomática,

subjetual»41. En segundo lugar, los contenidos pueden referirse a las relaciones entre distintos sujetos corpóreos,

cristalizadas en instituciones, ceremonias, costumbres, etc. en el marco de una colectividad social, dando lugar a la

cultura intersomática. Por último, la cultura extrasomática o material está constituida por los contenidos culturales

referidos a los objetos materiales exteriores a los sujetos corpóreos: carreteras, libros, o las vasijas a las que

venimos aludiendo42. De la aplicación de la clasificación de las capas de la cultura a las formaciones circulares

38 Gustavo Bueno, El sentido de la vida. Lectura 2. Sobre el concepto de «Espacio Antropológico», Pentalfa, Oviedo, 1996, pág. 98. 39 Introducimos aquí la distinción entre «totalidades atributivas» (T) y «totalidades distributivas» (T), fundamental en la teoría del los todos y las

partes del materialismo filosófico, ejercitada decisivamente en el marco del presente trabajo. Las totalidades atributivas son aquellas cuyas partes mantienen entre sí relaciones de contigüidad (sinalógicas), siendo así que dichas partes están referidas las unas a las otras. En las totalidades distributivas, las partes mantienen relaciones de semejanza (isológicas), participando en el todo de forma independiente las unas de las otras. La distinción no es absoluta, sino relativa a las partes tomadas como referencia: el círculo, respecto de los círculos empíricos, es una totalidad distributiva; mientras que, respecto de los semicírculos que se obtienen trazando su diagonal, es una totalidad atributiva.

40 Entendiendo por ello «la unidad del sistema constituido por la concatenación causal circular de un conjunto de contenidos culturales subjetuales, sociales y materiales, en tanto que una tal concatenación da lugar a un equilibrio dinámico de las formas a escala operatoria dada». Gustavo Bueno, El mito de la cultura, 2º ed., Prensa Ibérica, Barcelona, 2004, pág. 254.

41 Gustavo Bueno, El mito de la cultura, 2º ed., Prensa Ibérica, Barcelona, 2004, pág. 51. Subrayado nuestro. 42 Víd. Bueno, Op. Cít., págs. 182, 254-255.

Pablo Infiesta Molleda | Introducción.

 

33E N E R O

2 0 1 2

resultan las siguientes configuraciones del mundo precursor:

a) La cultura intrasomática remite a los sujetos corpóreos en cuanto ejecutan secuencias pautadas de

operaciones adquiridas mediante el aprendizaje. Así, el gimnasta, el empresario, o el biólogo molecular,

serán actores, configuraciones subjetuales caracterizadas en función de su capacidad de realizar acciones u

operaciones determinadas, consideradas relevantes en un contexto dado. La noción de actor es de uso

común en la Sociología de la ciencia contemporánea43, aunque aquí aparezca incorporada a las

coordenadas del propio sistema.

b) Las configuraciones propias de la capa intersomática son, como ya hemos avanzado, las instituciones.

Frente a la concepción idealista y subjetivista de las instituciones como ficciones asumidas por un grupo

social, las realidades institucionales se plantean como relaciones materiales entre sujetos a través de

normas.

c) Los contenidos de cultura extrasomática que intersectan con el eje circular son los materiales,

denominación que denota a todas aquéllas configuraciones objetuales resultantes de la producción humana.

Quedan así recogidos los términos característicos de la Sociología de la ciencia de orientación cuantitativa,

en la tradición iniciada por Derek de Solla Price.

Capas de la Cultura Eje circular

Cultura Intrasomática Actores Cultura Intersomática Instituciones Cultura Extrasomática Materiales

Antes de continuar, es necesario advertir que las configuraciones distinguidas no deben interpretarse en

sentido substancialista. Pues las capas de la cultura se relacionan entre sí diaméricamente, esto es, a través de sus

partes respectivas44. Por ejemplo, la cultura intrasomática consta de partes que se relacionan entre sí a través de

contenidos de la cultura intersomática y extrasomática. Aludiendo a las configuraciones, un actor, pongamos por

caso un violinista, sólo puede establecer los nexos entre las partes de su actividad interpretativa a través de

instituciones (una escuela de música o un conservatorio) y materiales (el violín y el arco, o las partituras, que

establecen la secuencia misma de operaciones a realizar)45.

El problema de la excesiva generalidad de los sociofactos afecta también a trazos, artefactos y mitos. No

insistiremos más en las razones ni en la estrategia de resolución, genéricas a los contenidos de todos los ejes.

43 Víd. Michel Callon, «Cuatro modelos de dinámica de la ciencia», en Andoni Ibarra y José A. López Cerezo [Eds.], Desafíos y tensiones

actuales en Ciencia, Tecnología y Sociedad, Bliblioteca Nueva, Madrid, 2001, págs. 27-69. 44 Víd. Gustavo Bueno, «Conceptos conjugados», El Basilisco, 1ª época, nº 1, Pentalfa, Oviedo, 1978, págs. 88-92. 45 Víd. Gustavo Bueno, «La Etología como ciencia de la cultura», El Basilisco, 2ª época, nº 9, Pentalfa, Oviedo, 1991, págs. 28-29.

Introducción | Pablo Infiesta Molleda

 

34 E N E R O

2 0 1 2

En el caso de las configuraciones del eje radial, no obstante, tenemos que afrontar en primer lugar una cuestión

específica. Pues, en este caso, se dibujan dos clases distintas, los artefactos y los trazos, sin exponer el motivo de la

duplicación. En el marco de la metodología que estamos construyendo, para dar cuenta de la cuestión debemos

introducir nuevos conceptos: en la teoría del espacio antropológico, los ejes están atravesados por dos estratos,

denominados φ y π (iniciales de las palabras griegas physis y pneuma, respectivamente). Las determinaciones

φ remiten a las características tradicionalmente consideradas como «naturales», mientras que las determinaciones

π hacen referencia a los caracteres «espirituales»46: tomando el ejemplo paleoantropológico ofrecido por Gustavo

Bueno, los restos óseos pertenecen al estrato φ, y las herramientas líticas al estrato π47. La distinción ente artefactos

y trazos aparece como resultado de la aplicación de los dos estratos del espacio antropológico a los contenidos del

eje radial, pues los trazos son configuraciones φ, y los artefactos configuraciones

πcomo sepuedecomprobarenelejemploanterior. Si no se introdujese el criterio de los estratos, los artefactos podrían

quedar opacados por los trazos, reducidos a su condición de realidades físicas, exclusivamente «naturales».

Además, en el contexto de la Gnoseología y la Sociología de la ciencia es necesario distinguir entre las

configuraciones radiales no operatorias, y las configuraciones dotadas de capacidad operatoria, como lo son, en

general, todos aquéllos instrumentos que transforman objetos.

Las entidades radiales se relacionan con el sujeto en cuanto objetos realmente existentes, como

materialidades efectivamente dadas y organizadas en un mundo que envuelve al sujeto. Por ello, las configuraciones

distinguidas pueden ser clasificadas mediante la teoría de los Tres Géneros de Materialidad. El materialismo

filosófico, en su vertiente ontológico-especial, distingue tres planos en los cuales se ordenan las materialidades

mundanas: el Primer Género de Materialidad (M1), en el que aparecen las entidades «que se nos ofrecen como

constitutivos del mundo físico exterior; […] todas aquellas entidades, tales como campos electromagnéticos,

explosiones nucleares, edificios o satélites artificiales que giran»48, consideradas en su condición de realidades

corpóreas. El Segundo Género de Materialidad (M2), que comprende «los procesos reales dados en el mundo como

“interioridad”»49, es decir, como realidades subjetuales, tanto propias como ajenas. Y, por último, el Tercer Género

de Materialidad (M3), que remite a objetos abstractos «tales como el espacio proyectivo reglado, las rectas paralelas

[…] conjunto infinito de números primos, sistema de los cinco poliedros regulares, “Langue” de Saussure,

relaciones morales contenidas en el imperativo categórico»50, entendidas como realidades esenciales. A efectos de

la presente clasificación, es importante tener en cuenta también la modulación de a teoría que Gustavo Bueno

realizó en su opúsculo Materia: «La materia determinada se nos dará, bien como materia determinada del primer

género (por ejemplo, como una multiplicidad de corpúsculos codeterminados), o bien como una materia de segundo

género (una multiplicidad de operaciones interconectadas), o bien como una materia de tercer género (por ejemplo,

46 El entrecomillado no es gratuito. Precisamente, la utilización de símbolos abstractos obedece a la pretensión explícita de evitar la carga

metafísica históricamente adquirida por las Ideas «Naturaleza» y «Espíritu». 47 Víd. Gustavo Bueno, El sentido de la vida. Lectura 2. Sobre el concepto de «Espacio Antropológico», Pentalfa, Oviedo, 1996, págs. 102-108. 48 Gustavo Bueno, Ensayos Materialistas, Taurus, Madrid, 1972, pág. 292. 49 Bueno, Op. Cit.. pág. 293. 50 Bueno, Op. Cit.. pág. 302.

Pablo Infiesta Molleda | Introducción.

 

35E N E R O

2 0 1 2

una multiplicidad de razones dobles constituyendo un sistema)»51 Así, distinguimos las siguientes configuraciones

del eje radial, en sus vertientes φ y π:

a) φ: Las realidades primogenéricas se corresponden con los cuerpos que constituyen el mundo precursor,

como objetos fisicalistas. Aunque en el planteamiento de partida los trazos sean caracterizados como

fenómenos, es necesario destacar su componente fisicalista, como condición de posibilidad de las

operaciones quirúrgicas inherentes a la elaboración científica (y, en general, a cualquier tipo de

construcción). Dicho de otro modo: «el mar», o «la Luna», como realidades existenciales del mundo en el

que los sujetos están inmersos, no se reducen a su condición de fenómenos dados a la percepción con los

que el sujeto establece relaciones apotéticas (a distancia), sino que tienen una dimensión corpórea,

fisicalista, que supone el establecimiento de relaciones paratéticas (por contacto).

π: En el al ámbito de los artefactos, en este primer sector se dibujan los aparatos, que denotan todas

aquéllas entidades corpóreas de carácter artefactual52.

b) φ: En el plano segundogenérico se dibujan las morfologías fenoménicas, esto es, los objetos en tanto se dan

en función de los sujetos operatorios, configurándose «como objetos apotéticos sobre los cuales las

operaciones de aproximar y separar adquieren sentido»53.

π: Los artefactos vinculados con el segundo género de materialidad son los operadores. La capacidad

operatoria no es exclusiva de los sujetos humanos, ni siquiera de los organismos vivos, pues «un

microscopio o un telescopio […] son operadores que transforman conjuntos de fenómenos dados en otros

conjuntos de fenómenos»54.

c) φ : Las configuraciones radiales terciogenéricas son las estructuras, en cuanto sistemas abstractos de

relaciones necesarias entre objetos, establecidos por las ciencias, que constituyen también contenidos

ineludibles del mundo que envuelve a los sujetos. Pues, de acuerdo con la Teoría del Cierre Categorial,

«las sucesivas conformaciones del mundo, que van teniendo lugar por obra de las ciencias en el transcurso

de los siglos –y que son por tanto […] más una invención del mundo que un descubrimiento de sus líneas

ocultas- constituyen parte de la misma variación o transformación (más o menos profunda y extensa) del

Mundo»55.

π: Correlativamente, en el ámbito de los artefactos encontraremos los relatores, configuraciones

tecnológicas capaces de dar lugar relaciones abstractas, como puedan ser la balanza o el espectrógrafo56.

51 Gustavo Bueno, Materia, Pentalfa, Oviedo, 1990, pág. 32. 52 Esta denominación se utiliza, en un sentido semejante, en la filosofía de la ciencia de Ian Hacking, que mantiene importantes conexiones con

la Teoría del Cierre Categorial. Víd. Ian Hacking, «La autojustificación de las ciencias de laboratorio», en Adelaida Ambrogi, Filosofía de la Ciencia: el Giro Naturalista. Universitat de les Illes Balears, Servei de Publicacions i Intercanvi Cientific, Palma de Mallorca, 1999.

53 Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 121. 54 Bueno, Op. Cit., pág. 119. 55 Gustavo Bueno, Teoría del Cierre Categorial, Vol. III, Pentalfa, Oviedo, 1993, pág. 133. Subrayado nuestro. 56 Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 120.

Introducción | Pablo Infiesta Molleda

 

36 E N E R O

2 0 1 2

Géneros de Materialidad

Eje radial

φ π

M1

Cuerpos Aparatos

M2

Morfologías Operadores

M3

Estructuras Relatores

Como en el caso anterior, las configuraciones radiales tampoco se consideran en sentido substancial. Los

géneros de materialidad utilizados como criterio no son compartimentos estanco cerrados, como los «mundos» de la

ontología de Karl Popper: una misma entidad existencial puede adscribirse a más de un genero de materialidad a la

vez. Por ejemplo, una silla de oficina es, evidentemente, una realidad fisicalista; pero también una morfología

fenoménica, y un sistema de relaciones geométricas57. Ello supone la adopción, de nuevo, de un enfoque diamérico:

continuando con el ejemplo, la silla, como estructura terciogenérica, es el resultado del establecimiento de

relaciones entre partes corpóreas dadas como fenómenos a los sujetos operatorios que establecen los nexos.

Antes de exponer las configuraciones del eje angular, debemos aludir a la filosofía de la religión del

materialismo filosófico. En El Animal Divino, Gustavo Bueno establece que la religión tiene su origen en la

relación (angular) de los sujetos humanos con los animales numinosos58. Dado que el numen tiene una referencia

realmente existente, a saber, el animal, y que la relación que el sujeto establece con el animal no es ilusoria, sino

también real, práctica e incluso constitutiva de su humanidad misma, la religión «originaria» es una religión

verdadera59. Así, «los númenes, y lo numinoso de los númenes, son categorías específicas de la vida religiosa. Esto

significa que todo aquello que pueda considerarse como dado dentro del marco de las relaciones entre los hombres

y los númenes […] ha de levar el sello de la religiosidad»60. Pero la religión no se reduce a su núcleo, que se

despliega en un curso en el cual se van incorporando distintos materiales a su cuerpo. Dentro del curso de la

religión se distinguen tres fases o estadios «que denominamos respectivamente: estadio de la religión primaria (o

nuclear), estadio de la religión secundaria (o mitológica) y estadio de la religión terciaria (o metafísica)»61. La

religión primaria, que se extendería aproximadamente «desde las últimas etapas del Musteriense hasta las últimas

etapas [...] del Magdaleniense»62, se caracteriza por «la relación simbólica del hombre con el animal numinoso, en

57 Víd. Gustavo Bueno, Ensayos Materialistas, Taurus, Madrid, 1972, págs. 293-294, 324; y Teoría del Cierre Categorial, Vol. V, Pentalfa,

Oviedo, 1993, pág. 139. 58 La denotación de esta rúbrica no abarca la totalidad de las especies zoológicas, sino que se circunscribe a los animales con los cuales el

hombre establece relaciones prácticas de acecho, amenaza, engaño, lucha, temor, odio, recelo, protección, adoración, etc. De este modo, «lo numinoso se presenta sólo en algunos invertebrados (sobre todo insectos […]) y, sobre todo, en vertebrados, tanto en la clase reptiles (serpientes principalmente) como en la clase de las aves o de los mamíferos «mastozoos» (osos, renos, búfalos, bueyes, chacales, mandriles, leones…)». Gustavo Bueno, El Animal Divino, 2º edición, Pentalfa, Oviedo, 1996, págs. 209-210.

59 Víd. Bueno, Op. Cit., págs. 152-154, 178-187. 60 Bueno, Op. Cit., pág. 152. 61 Bueno, Op. Cit., pág. 235. 62 Bueno, Op. Cit., pág. 236.

Pablo Infiesta Molleda | Introducción.

 

37E N E R O

2 0 1 2

cuanto referencia real del sentido del símbolo sagrado»63, presente en manifestaciones culturales como las pinturas

rupestres. La religión secundaria supone el cambio de referencias de los númenes, que se identifican ahora con

entidades imaginarias, muchas veces antropomórficas, que podemos denominar dioses, tal y como aparecen en el

contexto de las religiones animistas y politeístas64. La fase terciaria «podría entenderse como un período

esencialmente crítico de la mitología secundaria, en tanto tiende a reducir y simplificar el delirio politeísta en la

dirección del monoteísmo metafísico»65, realizando una sistematización racional de carácter metafísico mediante la

Teología de las «religiones del libro» (cristianismo, judaísmo e islamismo); con lo cual «podríamos caracterizar al

período terciario de las religiones como su período teológico –frente al período mitológico»66. Dado que los

contenidos angulares se constituyen en el curso de la religión, las fases distinguidas pueden servir de criterio para

determinar las configuraciones del mundo precursor dadas en el eje angular, suponiendo que la religiosidad

primaria y secundaria siguen existiendo, bajo ciertos aspectos, en un contexto terciario67:

a) La religiosidad primaria se dice siempre por relación a los númenes realmente existentes, entendidos como

sujetos dotados de inteligencia y voluntad distintos del hombre, e identificados con los animales68. No es

necesario destacar la importancia que los númenes, como configuraciones dadas en el mundo precursor,

tienen para ciencias como la Etología o la Antropología Cultural; y, en general, para diversas prácticas

humanas como la caza, e incluso para las relaciones interculturales.

b) Los mitos, como entramados narrativos imaginarios en los cuales se articulan dioses, genios, démones,

espíritus y otras formaciones características de la religiosidad secundaria, serían también configuraciones

del mundo precursor. En nuestro presente, los contenidos principales de los mitos, así entendidos, no son

ya tanto los dioses de las religiones politeístas, cuanto los extraterrestres y los «metahumanos» o «post-

humanos», temas recurrentes de los géneros de ciencia-ficción y fantasía, el cómic de superhéroes, o las

especulaciones pseudocientíficas. Menoscabar su importancia supondría ignorar componentes relevantes

de prácticas tecnocientíficas como los intentos de establecer contacto con vida inteligente alienígena69, o la

propia ingeniería genética, en cuanto lleva incorporada la posibilidad de rebasar las determinaciones

63 Bueno, Op. Cit., pág. 298. 64 Víd. Bueno, Op. Cit., pág. 265. 65 Bueno, Op. Cit., pág. 280. 66 Bueno, Op. Cit., pág. 278. 67 Por ejemplo, Alfonso Fernández Tresguerres caracteriza a la corrida de toros como una ceremonia angular, «la cual ha de ser vista […] como

una refluencia de antiguas formas de religiosidad primaria y secundaria que perviven (como juego) en el seno de las religiones terciarias». Alfonso Fernández Tresguerres, Los dioses olvidados. Caza, toros y filosofía de la religión, Pentalfa, Oviedo, 1993, pág. 156.

68 Y también con otros hombres «en la medida en que estos manifiestan propiedades animales», es decir, en tanto que son considerados como «bestias» o como «superanimales» por los miembros de una esfera cultural determinado. Un ejemplo del primer caso sería la posición de Ginés de Sepúlveda respecto a los indios americanos, considerados «bárbaros, incultos e inhumanos». La segunda posibilidad, aunque entreverada en este caso con aspectos de religiosidad secundaria, puede ser ilustrada con la identificación del capitán James Cook con el dios Erono Lono por parte de los nativos hawaianos; pues, aunque Cook-Lono fuera un dios, y por tanto no humano (emic), era también, desde luego, un sujeto corpóreo con el cual se podían establecer relaciones prácticas: desde la adoración y la solicitud de protección, al asesinato y el tratamiento ritual de sus restos mortales. Víd. Gustavo Bueno, Op. Cit., págs. 213-215. Juan Ginés de Sepúlveda, Demócrates segundo o de las justas causas de la guerra contra los Indios, CSIC, Instituto Francisco de Vitoria, Madrid, 1984. Marshall Sahlins, «La apoteosis del capitán Cook», en Michel Izard y Pierre Smith, La función simbólica, Júcar, Madrid, 1989, págs. 321-353.

69 Por ejemplo, el Proyecto SETI. Víd. http://seti.astroseti.org/setiathome/que.php

Introducción | Pablo Infiesta Molleda

 

38 E N E R O

2 0 1 2

biológicas del genero humano70. Asimismo, los mitos vertebran en gran medida religiones de fuerte

contenido secundario, como los neopaganismos, y sectas de gran predicamento (el Movimiento raeliano, la

Cienciología, etc.).

c) Las configuraciones de la religiosidad terciaria serán las doctrinas, en cuanto formulaciones objetivas de

las creencias propias de las religiones monoteístas, que necesitan del concurso de la Teología dogmática

para su elaboración y fundamentación, dado el carácter abstracto de sus referentes (el Dios cristiano, Alá,

etc.), y su inserción en sistemas doctrinales o «cuerpos de doctrina»71. Las doctrinas orientan y limitan la

praxis de los sujetos humanos, pudiendo incluso plasmarse en normas o leyes de una sociedad

determinada, como es bien sabido.

Dado que las formaciones de la religiosidad primaria y secundaria están integradas en la fase de la

religiosidad terciaria, y que una misma realidad existencial puede reunir aspectos característicos de cada uno de los

períodos, es necesario advertir, una vez más, contra las posibles interpretaciones substancialistas de las

configuraciones del mundo precursor distinguidas, en este caso, en el eje angular. Por ejemplo, la purísima

concepción de Jesús en el seno de la Virgen María por obra del Espíritu Santo es una doctrina de la Iglesia Católica,

pero, a su vez, adquiere el formato de un mito en el que intervienen númenes (la paloma, o el propio Jesucristo en

su doble condición de Dios y hombre).

Las configuraciones del mundo precursor, distinguidas y organizadas mediante los criterios expuestos en

las páginas anteriores, quedarían clasificadas tal y como se recoge en la siguiente tabla:

Configuraciones del Mundo Precursor Espacio Antropológico

Criterios relativos a cada eje72

Eje Circular Eje Radial Eje Angular

φ π a) Actores

Cuerpos Aparatos Númenes

b) Instituciones

Morfologías Operadores Mitos

c) Materiales Estructuras Relatores Doctrinas

70 Víd. Lee M. Silver, «Consecuencias para el futuro de las innovaciones en biotecnología», Sistema, nº 196, Fundación Sistema, Madrid, 2007,

págs. 3-16. 71 Víd. Gustavo Bueno, Cuestiones cuodlibetales sobre Dios y la religión, Mondadori, Madrid, 1989, págs. 88-104. 72 Las capas de la cultura respecto del eje circular, los géneros de materialidad respecto del eje radial, y las fases de la religión respecto del eje

angular.

Fases de la Religión Eje Angular Religiosidad Primaria Númenes

Religiosidad Secundaria Mitos Religiosidad Terciaria Doctrinas

Pablo Infiesta Molleda | Introducción.

 

39E N E R O

2 0 1 2

Concluimos esta parte analítica de la metodología propuesta haciendo referencia al carácter abstracto y

esencial de las configuraciones distinguidas, ya apuntada en las argumentaciones anteriores que sirvieron de

precaución crítica contra el substancialismo. Desde una perspectiva distributiva, un contenido del mundo precursor

puede enclasarse en más de un eje y en más de una configuración: un telescopio es un operador, capaz de generar

fenómenos nuevos a partir de objetos dados (por ejemplo, los cráteres de la Luna, como resultado de observar a

través del telescopio un fenómeno dado previamente, a saber, el «disco lunar» con trazados irregulares en la

superficie); pero también es un aparato, una realidad fisicalista de tipo π, y un cuerpo, si se le considera desde la

perspectiva φ (como entidad físico-química, haciendo abstracción de su condición tecnológica); asimismo, como

objeto apotético dado a un sujeto cualquiera, es una morfología fenoménica, y en cuanto incorpora un sistema de

relaciones geométricas, ópticas, etc. puede considerarse una estructura; incluso, rebasando los límites del eje radial,

el telescopio es un material, un contenido de la cultura extrasomática. Esto supone que las configuraciones no se

dan inmediatamente, coordinadas de modo biunívoco con entidades existenciales. Así, la propia distinción analítica

exige un desarrollo sintético, con el que mantiene conexiones circulares; pues la determinación de las

configuraciones analíticamente distinguidas dependerá de la inserción de los contenidos del mundo precursor en

marcos sintéticos de carácter procesual. Y ésto porque el mundo precursor es un mundo en marcha, en el cual las

distintas configuraciones se constituyen en cuanto que están engranadas con otras (y desconectadas de unas

terceras) en contextos histórico-culturales que las determinan: el telescopio anteriormente referido se configura

como un operador en el contexto de la constitución de la mecánica celeste, en relación a los fenómenos

astronómicos que transforma (planetas, satélites, estrellas), a las operaciones quirúrgicas de los actores que lo

utilizan (Galileo, Tycho Brahe), a las estructuras esenciales que se construyen mediante su concurso (las órbitas

elípticas de los planetas), etc. Pero un telescopio barroco, ubicado en un museo de historia de la ciencia, sería más

bien un material de la cultura extrasomática del siglo XVII en Occidente.

Por todo ello, para que nuestra metodología resulte operativa, necesitamos introducir nuevas herramientas

conceptuales adecuadas al orden sintético. Partimos aquí del concepto de contexto histórico determinante, tal y

como lo define Alberto Hidalgo: «conjunto de circunstancias y formaciones históricas heterogéneas, pero

mutuamente relacionadas de diversas formas, que confluyen en una época concreta y constituyen in medias res

ámbitos empíricos determinados, en cuyo seno cristalizan sintéticamente figuras institucionales específicas»73.

Como se puede colegir de la definición anterior, el contexto histórico determinante se dice por relación a la figura

institucional determinada «que cristaliza por «confluencia» en su seno, de modo que ésta debe aparecer como

segregada a partir de los componentes localizables analíticamente en aquél»74. Dichos componentes son los factores

o cursos diversos, de cuya convergencia resulta la figura institucional determinada de referencia, siendo así que «el

contexto histórico determinante contiene en su seno todos los factores que la figura específica requiere para su

73 Alberto Hidalgo, Gnoseología de las ciencias de la organización administrativa. La organización de la ciencia y la ciencia de la organización,

Servicio de publicaciones de la Universidad de Oviedo, Oviedo, 1991, pág. 55. 74 Hidalgo, Op. Cit., pág. 56.

Introducción | Pablo Infiesta Molleda

 

40 E N E R O

2 0 1 2

constitución»75. Ahora bien, la figura institucional determinada no es una resultancia objetiva, fruto de unas

supuestas leyes mecánicas que rigieran los procesos históricos. Semejante concepción atentaría contra los principios

ontológicos, gnoseológicos y antropológicos que venimos ejercitando, por cuanto negaría el concurso activo de los

sujetos operatorios en la producción de la realidad76. Así, el papel del contexto histórico determinante, a grandes

rasgos, «consiste precisamente en posibilitar el conjunto de «operaciones», por cuya acción cristalizan los

entramados estructurales localizados»77. El punto de partida, evidentemente, ha de ser la figura institucional

determinada, a partir de la cual, regresando hacia los factores que la constituyen, será posible reconstruir su

contexto histórico determinante, progresando así hacia la figura de la que se parte, y dando razón de su génesis en

el proceso.

El engranaje entre los conceptos planteados en el párrafo anterior, y las configuraciones distinguidas, viene

dado por la teoría de los todos y las partes: la figura institucional determinada se considera como una totalidad

atributiva cuyas partes constituyentes son las configuraciones del mundo precursor; previamente recortadas,

conformadas y relacionadas en ciertos marcos que identificamos con los cursos del contexto histórico determinante,

de cuya intersección resulta la figura de referencia, siendo así partes determinantes78 suyas. Las partes que

constituyen una figura institucional determinada no se identifican con las configuraciones del mundo precursor en

toda su extensión. Si así fuera, todo estaría relacionado con todo, y por tanto sería ininteligible. Atendiendo al

principio de symploké, ya formulado por Platón en los orígenes de la filosofía académica79, algunas partes deben

estar relacionadas entre sí, pero desconectadas de otras, para que el lógos sea posible. En este sentido, el contexto

histórico determinante aglutina las configuraciones pertinentes, y segrega las demás, delimitando así el entorno de

la figura; lo cual permite cumplir el requisito cartesiano de la distinción (respecto de otras formaciones y

configuraciones del mundo, con las que no debe confundirse). Los límites no son sólo espaciales, sino también

temporales: no cabe un regreso al infinito. Los cursos del contexto, en tanto que en su seno se conforman las

propias configuraciones que constituirán el dintorno80 de la figura, y se establecen sus relaciones mutuas, aportan

claridad a la reconstrucción. Son estas precisiones las que salvan la funcionalidad de la metodología, que, como el

lector ya habrá advertido, es circular: partimos de una totalidad compuesta de partes, que resulta ser también el

punto de llegada. Ahora bien, el círculo no es vicioso porque, en el momento inicial, la totalidad y sus partes

aparecen en estado de confusión, oscuridad y dispersión, mientras que, una vez realizada la reconstrucción, se

alcanza una situación de claridad, distinción y coordinación. Por ello, el punto de partida y la conclusión no son

esencialmente lo mismo.

75 Hidalgo, Op. Cit., pág. 56. 76 Víd. Gustavo Bueno, Ensayos Materialistas, Taurus, Madrid, 1972, pág. 469-470. 77 Hidalgo, Op. Cit., pág. 57. 78 Las partes constituyentes son fragmentos que integran la totalidad por agregación, mientras que las partes determinantes son relaciones entre

fragmentos, que conforman la totalidad por intersección. Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. III, Pentalfa, Oviedo, 1993, págs. 81-83; y Vol. V, pág. 221.

79 Víd. Platón, Sofista, 259 b-262 e, en Diálogos V, Gredos, Madrid, págs. 456-466. 80 El dintorno de una figura es el conjunto de las entidades que están comprendidas en ella. El contorno, por su parte, es el conjunto de las

entidades que mantienen con la figura relaciones constitutivas, aunque ésta no las incluya. Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. III, Pentalfa, Oviedo, 1993, págs. 77-79; y Vol. V, págs. 194-195.

Pablo Infiesta Molleda | Introducción.

 

41E N E R O

2 0 1 2

3. Planteamiento general. Una vez realizadas todas estas consideraciones, quizá un tanto farragosas dado su grado de abstracción,

estamos ya en condiciones de replantear la cuestión de la génesis del PGH rectificando los tratamientos habituales;

lo que supone, además dotar de carne al esqueleto que venimos componiendo, para completar así la exposición de

la metodología con el necesario trámite de su aplicación.

Como ya avanzamos en su momento, el PGH es una figura institucional determinada, cuyos factores

determinantes se pueden detectar siguiendo la estela de sus partes constituyentes. En una primera aproximación, es

evidente que la estructura del ADN, los aparatos de secuenciación, o las instituciones gubernamentales

norteamericanas forman parte ineludible del PGH: sin cualquiera de ellas, la secuenciación del genoma no hubiera

sido posible. Así, será necesario afrontar el análisis de las partes más significativas, si se quiere dar cuenta de la

totalidad. Ahora bien, dichas partes no surgen ex nihilo, sino que están dadas previamente a la puesta en marcha del

Proyecto, como configuraciones del mundo precursor en el que se constituye. Por ello, será necesario regresar

desde el PGH hasta los factores que permitan dar razón de la conformación del ADN, los secuenciadores, las

enzimas de restricción, y en general todas aquéllas partes que aparezcan como significativas en un principio. Un

proceder semejante se impone a cualquier investigación sobre el tema, sean cuales sean su orientación y sus

coordenadas, e independientemente de las intenciones y representaciones del investigador al respecto. Recordemos,

en este sentido, el análisis de las obras que estudiaban la génesis del PGH; pues, en este aspecto, no cabe sino

convenir con la totalidad de los trabajos que aquí se someten a crítica.

Nuestro planteamiento permite también abarcar de forma coherente la pluralidad de ámbitos inherentes al

proceso de constitución del PGH, y consecuentemente a todo intento de abordar su estudio (como ya pudimos

constatar cuando detectábamos contenidos «internos» -científicos- en obras de orientación «externalista», y

contenidos «externos» -sociales- en obras «internalistas»). Pues, como señala Alberto Hidalgo, «el concepto de

«contexto histórico determinante» y su correlativo de «figura institucional determinada» puede servir […] para

aglutinar como factores la perspectiva histórica interna de las ciencias con la perspectiva sociológica externa,

iluminando ambas desde una perspectiva estrictamente gnoseológica»81. En efecto, el contexto histórico

determinante del PGH incluye configuraciones estrictamente científicas (la estructura del ADN), pero también

tecnológicas (los secuenciadores), sociales (el Instituto Nacional de Salud), etc. Así, queda disuelta la dicotomía

interno/externo respecto del estudio de una realidad científica, que será también, siempre, una realidad

institucional82. Ahora bien, frente a las obras consideradas, la metodología propuesta muestra por qué es necesario

abordar una multiplicidad de ámbitos, y rebasar los planteamientos unilaterales: siendo el PGH una totalidad

constituida por distintas partes, pertenecientes a distintos ámbitos, cualquier reconstrucción debe afrontarlos, operar

con ellos, necesariamente. Los motivos no son ya «pedagógicos», o acaso epistemológicos, como parecía suponer

81 Hidalgo, Op. Cit., pág. 66. 82 Sin perjuicio de que, en análisis gnoseológicos de otra índole, quepa distinguir componentes internos y externos al campo de una determinada

ciencia. A éste respecto, Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, págs. 136-137, 219-225.

Introducción | Pablo Infiesta Molleda

 

42 E N E R O

2 0 1 2

Lee, sino ontológicos y gnoseológicos. De ahí su condición imperativa: lo decisivo no es que el PGH no se entienda

al margen del gen; sino que, sin el gen, no hay secuenciación posible.

Asimismo, las herramientas conceptuales propuestas permiten solucionar los problemas de oscuridad y

confusión detectados en las obras precedentes. En su revisión se hacía patente algo que, de cualquier modo, es una

exigencia lógico-material plasmada en el principio de symploké: no todos los procesos del mundo están

relacionados con el PGH, sino que cualquier examen de la cuestión distingue un repertorio limitado de tópicos

generales. Tampoco aquí pretendemos originalidad: en gran medida, los materiales empíricos recogidos en esta

investigación serán los mismos que aparecen en otros trabajos. Principalmente, porque su relación con el PGH es

indisoluble. Sin embargo, el entorno dibujado en cada caso aparecía como un conjunto borroso, dando lugar a

graves problemas de caracterización, conexión y delimitación, que aumentaban al comparar unas obras con otras y

constatar, más allá de las importantes semejanzas existentes, sus diferencias a este respecto. En nuestros términos,

el problema se reformula del siguiente modo: ¿dónde detener el regressus iniciado desde las partes identificadas en

el PGH? Partiendo del ADN, ¿debemos llegar hasta las primeras experiencias técnicas del hombre con los factores

hereditarios (como hacía Lee), basta con volver a Mendel, o acaso sólo son relevantes las teorías genéticas vigentes

en los años inmediatamente anteriores al inicio del Proyecto? Desde luego, para poder responder hace falta habilitar

algún criterio explícito. En nuestro caso, regresamos hacia los cursos en los cuales se configuran las partes del

PGH, deteniendo el proceso regresivo cuando se pierde la escala a la que aparecen dadas en un principio,

transformándose en otras configuraciones diferentes insertadas en otros contextos. Así, para dar cuenta del genoma

ya no será necesario traer a colación el origen de la agricultura, ni siquiera los trabajos de Mendel. Porque la

configuración de referencia no se identifica con las prácticas agrícolas, ni con las regularidades establecidas en la

distribución de los rasgos hereditarios de los guisantes, sino con la estructura del ADN; tallada a la escala de la

Biología molecular, que en sus teoremas incorpora todos los desarrollos anteriores que pudieran resultar pertinentes

como especificaciones suyas. De este modo, es posible delimitar con el rigor suficiente el contexto histórico

determinante del PGH.

No obstante, quedan aún por establecer los factores del contexto. ¿Habrá que recorrer, acaso, un curso por

cada configuración detectada en un principio? A la luz de la clasificación realizada, las configuraciones no

aparecerán ya como elementos aislados, o relacionados de modo confuso, sino como conjuntos de artefactos,

sociofactos y trazos83. Agrupando las configuraciones desde un principio, será posible regresar hacia tramas

constitutivas comunes a cada uno de los conjuntos, donde las partes aparecen ya recortadas y concatenadas a un

mismo nivel. De este modo, se perfilan tres cursos como factores del contexto histórico determinante:

83 Omitimos las configuraciones del eje angular, por no haber detectado ninguna parte constituyente del PGH que pueda asimilarse a númenes,

mitos o doctrinas. Esto no implica que dichas configuraciones no tengan parte alguna en la génesis del Proyecto. Los contenidos angulares aparecerán en relación con los ortogramas que orientan las acciones de los sujetos implicados en la elaboración de los planes y programas que intervienen en la cristalización del PGH.

Pablo Infiesta Molleda | Introducción.

 

43E N E R O

2 0 1 2

1. El curso de los trazos (cuerpos, morfologías y estructuras), que identificamos con la constitución de la

Biología molecular como ciencia.

2. El curso de los artefactos (aparatos, operadores y relatores), que se conforman en el marco de la

Biotecnología.

3. El curso de los sociofactos (actores, instituciones y materiales), determinados por la incorporación de la

Biología a la Big Science.

Los factores aparecen, regresivamente, definidos por su vinculación a las configuraciones de un solo eje,

en cada caso. Pero, en el progressus, será posible encontrar cualquier tipo de configuraciones en cada uno de los

cursos. Por ejemplo, James Watson, como actor, alcanza una gran importancia en el curso de la constitución de la

Biología molecular como codescubridor de la doble hélice. Pero lo que interesa, a efectos de la génesis del PGH, es

que su condición de actor como primer director del Proyecto está determinada por su inserción en un marco de

relaciones sociales e institucionales dadas a la escala de la Big Science. El ejemplo de Watson sirve, también, para

mostrar las conexiones existentes entre los factores distinguidos que, tal y como venimos exponiendo, no son

compartimentos estanco. Tendremos oportunidad de precisar esta caracterización general en los siguientes

capítulos, dedicados a la reconstrucción de cada uno de los cursos.

El formato de la metodología, en su aplicación, es el de la «anamórfosis», concepto general con el que

Gustavo Bueno designa todos aquéllos procesos en los que se constituyen nuevas realidades por recombinación o

refundición de realidades preexistentes84. La anamórfosis resulta de la negación de las metodologías reductivas.

Como hemos visto, no cabe deducir el PGH de ninguno de los cursos alcanzados regresivamente, considerados de

forma aislada. Por ejemplo, recorriendo el curso de la Biología molecular no podemos progresar hacia el PGH

porque, al margen de sus componentes tecnológicos y sociales, conformados en otros ámbitos, la reconstrucción es

imposible. Ni siquiera la yuxtaposición de los factores, una vez alcanzado un punto determinado del progressus en

cada uno de ellos, da lugar al Proyecto. Así, la reconstrucción sólo puede completarse cuando se descomponen los

marcos de referencia y, por confluencia, se recombinan ciertas partes suyas en la figura institucional determinada.

La convergencia de los cursos que da lugar al PGH no se reduce, tampoco, al propio desarrollo interno de

los mismos, sino que resulta de a aplicación de planes y programas conscientemente formulados por sujetos

operatorios. Cuyas acciones no son fruto de una «voluntad libérrima» carente de toda determinación, tesis que

descartamos por metafísica, sino que están orientadas por ortogramas, «materias formalizadas capaces de actuar

como moldes activos o programas en la conformación de materiales dados». Aplicado al sujeto, el concepto de

ortograma se entiende «como un dispositivo que controla las secuencias operatorias (preceptúales, verbales, etc.)»,

sin que se reduzca a la esfera subjetiva: «los ortogramas, aunque actúan en los sujetos individualmente, tienen

siempre un origen social e histórico […] e incluso muchas veces sólo en situaciones intersubjetivas son capaces de 84 Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. V, Pentalfa, Oviedo, 1993, págs. 159-171.

Introducción | Pablo Infiesta Molleda

 

44 E N E R O

2 0 1 2

ejercer su influjo»85. La lucha contra las enfermedades, los propósitos eugenésicos, o la obtención de beneficios

económicos, tópicos habituales que no están contemplados en los cursos establecidos, pero que son también

ineludibles, serán considerados como ortogramas que intervienen decisivamente en la cristalización del PGH.

Por último, advertimos que la reconstrucción realizada en los capítulos que siguen es filosófica, por la mediación

del entramado de Ideas que sustenta nuestra metodología, y por tanto no pretende dar lugar a conclusiones

categóricas. La complejidad de los procesos implicados en los cursos que se reconstruyen limita aún más las

pretensiones del trabajo, que de ningún modo puede ser exhaustivo, y en varios tramos tendrá que apoyarse en

supuestos e hipótesis que requerirían mayor fundamentación. Esperamos cumplir, al menos, el objetivo de mostrar

la pertinencia, y acaso la potencia del enfoque filosófico en el contexto de las investigaciones sobre la génesis del

PGH.

85 Gustavo Bueno, Cuestiones cuodlibetales sobre Dios y la religión, Mondadori, Madrid, 1989, págs. 392-393.

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

45E N E R O

2 0 1 2

     Capítulo I. La constitución de la Biología molecular como ciencia.  

Pablo Infiesta Molleda   La realización del PGH supuso la utilización de diversas técnicas de cartografiado y secuenciación del genoma, que

por su gran complejidad no podemos detallar aquí120. En términos muy generales, los mapas del genoma permiten

identificar y aislar genes individuales, esto es, fragmentos de ADN que codifican una determinada cadena

polipeptídica. Por su parte, la secuenciación consiste en la determinación del orden de las bases nitrogenadas del

ADN. Las técnicas implicadas en ambos procesos, aunque plurales y heterogéneas, tienen su origen en el ámbito de

la Biotecnología.

No resulta problemático localizar analíticamente en el seno del PGH un conjunto de elementos que aparecen como

aparatos, operadores y relatores: por ejemplo, las enzimas de restricción utilizadas para cortar el ADN,

secuenciadores automáticos como el ABI 373A, o los potentes ordenadores y programas informáticos utilizados

para procesar la información obtenida. Sin embargo, dada la heterogeneidad de los elementos distinguidos, es

necesario regresar hacia el curso en el cual se configuran y se organizan, estableciendo sus conexiones (y

desconexiones) mutuas. Los artefactos que posibilitan la secuenciación del genoma humano son aquellos que

permiten realizar operaciones quirúrgicas (de unión y separación) no sólo sobre el ADN, como se suele afirmar

frecuentemente de manera reductiva, sino, en general, sobre los trazos que se constituyen en el ámbito de la

Biología molecular y la Bioquímica, analizados en el capítulo anterior. Mediante la aplicación de este criterio,

podemos circunscribir el curso que da razón del plano tecnológico del PGH a la génesis y el desarrollo de la

Biotecnología, evitando así la confusión inherente a un regressus hacia técnicas anteriores dadas a otra escala, como

pudieran ser las técnicas de selección artificial aplicadas sobre los organismos. Además, queda establecido un

nexo fundamental entre dos de los factores del contexto histórico determinante del

PGH, que contribuye a clarificar su entramado.

Una descripción precisa puede consultarse en Peter Sudbery, Genética Molecular Humana, (Pearson Prentice Hall,

Madrid, 2004, págs. 56-142).

------------------- En un primer contacto, la dimensión científica del PGH remite a un conjunto de entidades de orden

biológico: bases nitrogenadas, genes, enzimas, SNP’s1, etc., sobre las cuales se ejercitan las operaciones

tecnológicas que dan lugar a la secuenciación del genoma. Un examen más atento muestra que todos los cuerpos,

morfologías y estructuras que forman parte constituyente del PGH pueden circunscribirse al campo de la Biología

molecular, con lo cual están dados a la misma escala (hecho que no debería resultar sorprendente, por cuanto es

condición de la continuidad operatoria exigida para poder alcanzar resultados exitosos). Esta primera suposición,

que habrá que constatar en la reconstrucción ulterior, permite regresar hacia el curso de la constitución de la

Biología molecular, como factor del contexto histórico determinante del PGH, sin tener que retrotraerse a procesos

1 Polimorfismos de un solo nucleótido, nomenclados por sus siglas en inglés.

Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda

 

46 E N E R O

2 0 1 2

anteriores de la historia de la Biología para dar razón de la conformación y conexión de los trazos que forman parte

de la figura de referencia.

Dado que tratamos acerca de la constitución de una disciplina científica, salen al paso varios problemas

gnoseológicos de gran calado, que exigirían una investigación específica para su resolución. Por nuestra parte, nos

limitaremos a aplicar el instrumental metodológico propuesto. Pero eso no implica que sea lícito ignorar cuestiones

filosóficas centrales, entretejidas con la reconstrucción que vamos a realizar: como veremos a lo largo del presente

capítulo, es el formato gnoseológico de la doble hélice el que motiva su condición de terminus ad quem del

regressus, y el estatuto gnoseológico de la Biología molecular el que sustenta su condición de factor del contexto

histórico determinante del PGH. Dado que los límites del presente trabajo impiden una fundamentación estricta,

asumimos la hipótesis planteada a este respecto por Alberto Hidalgo desde la Teoría del cierre categorial: «el

descubrimiento de la estructura helicoidal del ADN es un «teorema» (o «célula gnoseológica») de carácter

modulante, cuyo contexto determinado se mantiene dentro de la bioquímica, aun cuando el proceso de confluencia

que lo genera y posibilita desborda histórica y gnoseológicamente este marco, pues implica desarrollos teóricos y

tecnológicos en otras ciencias»2. El teorema de la doble hélice, así interpretado, constituiría el hito fundamental en

la génesis de la Biología molecular como disciplina científica3.

1. Los orígenes de la Biología molecular: la doble hélice.

A efectos de la reconstrucción del contexto histórico determinante del PGH, la tesis central que

defenderemos a lo largo de este apartado es la siguiente: la estructura helicoidal del ADN surge de la concatenación

de varios cursos operatorios, que implican una pluralidad de actores, instituciones, artefactos, etc. Además, por su

formato gnoseológico cerrado, sintetiza las líneas de investigación anteriores, configurando y articulando sus

contenidos a escala molecular. Para ilustrar estas afirmaciones, comenzaremos exponiendo de forma sucinta los

acontecimientos que condujeron a la doble hélice:

En 1944, Oswald Avery, junto con Colin McLeod y Maclyn McCarthy, había identificado el «principio

transformador» con el ADN: unos años atrás, el microbiólogo Fred Griffith había constatado que una bacteria

inofensiva podía transformarse en una variedad patógena cuando las bacterias del primer tipo estaban en presencia

de bacterias muertas del segundo tipo. Las operaciones realizadas en el laboratorio del Instituto Rockefeller por 2 Alberto Hidalgo, «La Biología molecular: ¿revolución o cierre?», en Alberto Hidalgo y Gustavo Bueno Sánchez [Eds.], Actas del I Congreso

de teoría y Metodología de las Ciencias, Pentalfa, Oviedo, 1982, pág. 300. Los conceptos filosóficos utilizados aparecen brevemente expuestos en el mismo artículo. Su desarrollo sistemático puede consultarse en Gustavo Bueno, Teoría del Cierre Categorial, Vols. I-V, pentalfa, Oviedo, 1991-1993.

3 Tesis que, por otra parte, está convencionalmente asumida, tanto en los estudios más eruditos como en la concepción popular del descubrimiento, por lo cual su adopción no debería resultar problemática (aunque sí, hasta cierto punto, acrítica).

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

47E N E R O

2 0 1 2

Avery, McLeod y McCarthy consistieron en destruir uno por uno los componentes bioquímicos de las células

muertas, hasta que, una vez eliminado el ADN, la transformación dejó de producirse. Dado que la transformación

era genética, el factor responsable debía corresponderse con el material hereditario. La mayoría de los bioquímicos

rechazó la extensión de semejante conclusión a la totalidad los seres vivos, considerando que las proteínas, por su

mayor complejidad estructural, eran mejores candidatos que los ácidos nucleicos: cuatro bases nitrogenadas

parecían muy pocas para codificar todos los rasgos de un organismo complejo. No obstante, el trabajo de Avery y

sus colaboradores tuvo una buena acogida entre los genetistas. El propio McCarthy fue invitado en 1946 a uno de

los simposios celebrados en Cold Spring Harbor por el denominado «grupo de los fagos», encabezado por Max

Delbrück y Salvador Luria4. La curiosa denominación procede del principal objeto de investigación del grupo: el

virus bacteriófago T-2 de la Escherichia coli, que inyecta su «principio transformador», su ADN, en la bacteria

hospedadora. Entre 1940 y 1950, cada vez más científicos se centraron en el estudio de los fagos, que, por su

sencillez, eran ejemplares privilegiados para intentar determinar cómo los genes actuaban sobre los rasgos

hereditarios.

James Watson, alumno de Luria, era uno de los miembros mas jóvenes del grupo, y en 1950 fue a

Copenhage a hacer una investigación posdoctoral sobre la química de los ácidos nucleicos. Sin embargo, en 1951

Watson asistió a una conferencia pronunciada en un congreso sobre macromoléculas por Maurice Wilkins, en la que

mostraba una fotografía de la molécula de ADN obtenida por difracción del rayos X. Aunque la imagen no arrojaba

ningún resultado concluyente, mostraba que los ácidos nucleicos podían cristalizarse, y por tanto abría la

posibilidad de determinar una estructura regular. A raíz de la conferencia de Wilkins, Watson comenzó a interesarse

por el enfoque estructural en el estudio del gen, y se trasladó al Laboratorio Cavendish de la Universidad de

Cambridge. Allí entró en contacto con Francis Crick, un físico de formación que compartía el interés de Watson por

el ADN. Cuando Watson llegó al Cavendish, Crick formaba parte de un grupo de investigación sobre las estructuras

tridimensionales de las proteínas. El grupo estaba dirigido por Max Perutz, que llevaba varios años estudiando la

difracción de rayos X en cristales de hemoglobina. Con él colaboraba Lawrence Bragg, uno de los fundadores de la

cristalografía, que había desarrollado la técnica de difracción cuarenta años antes, y en ese momento director de

Cavendish5.

La cristalografía de rayos X proporcionaba una manera de obtener la estructura de una molécula mediante

el análisis del patrón de difracción que se produce cuando un haz de rayos X se proyecta sobre un cristal en el que

las moléculas están organizadas regularmente en tres dimensiones. El patrón, no obstante, no se parece en absoluto

a una fotografía convencional, sino que muestra una figura compuesta por puntos de intensidad variable. De este

modo, la deducción de la estructura a partir del patrón no es inmediata: cada punto corresponde a una onda

difractada por las moléculas que están en un determinado plano del cristal. En principio, la estructura molecular del

4 Víd. Maclyn McCarthy, The Transforming Principle. Discovering that Genes Are Made of DNA, W. W. Norton & Company, Nueva York, págs.

72-81, 195-212. 5 Víd. James Watson, La doble hélice, Alianza, Madrid, 2000, págs. 29-34, 44-59.

Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda

 

48 E N E R O

2 0 1 2

cristal se podría reconstruir mediante métodos matemáticos, conociendo las amplitudes y las fases de las ondas

refractadas. Pero la fase (esto es, las posiciones de los picos y valles de la onda en relación con la placa fotográfica)

se pierde en el proceso de registro, con lo cual el patrón sólo es indicativo. Para resolver el «problema de la fase»,

es necesario elaborar un modelo y comparar los patrones de difracción calculados a partir del mismo con los

observados en la fotografía obtenida por difracción. Éste será el enfoque adoptado por Watson y Crick para

determinar la estructura del ADN6.

Pero no adelantemos acontecimientos. El mismo año en que Watson inició su fructífera relación con Crick,

la joven cristalógrafa Rosalind Franklin se incorporó al grupo de Maurice Wilkins en el King’s College de Londres

con el propósito de analizar la estructura del ADN mediante las técnicas de difracción. Franklin comenzó un estudio

sistemático de las fibras de ADN, y ya en un primer momento consiguió patrones de difracción más precisos. Su

aportación decisiva consistió en la distinción entre dos formas definidas de la molécula de ADN, dadas en función

de la humedad relativa de la cabina en la que se obtenían las fotografías: la forma «A», que Franklin denominó

«cristalina», se encuentra por debajo de un 75% de humedad relativa, mientas que por encima de dicho punto se

produce una brusca transición a la forma «B» o «húmeda». Las investigaciones anteriores habían estado trabajando

con una mezcla indistinta de las dos formas, con lo cual quedaban obsoletas7.

Franklin expuso sus conclusiones en un coloquio celebrada en el King’s College en noviembre de 1951. La

interpretación de las imágenes obtenidos en su trabajo con difracción de rayos X le condujo a formular, con la

máxima cautela, la hipótesis de que la estructura molecular de la forma A podía ser un haz helicoidal de varias

cadenas, con los grupos fosfato que forman su esqueleto en el exterior. En sus notas, editadas por Robert Olby,

puede leerse lo siguiente: «Pruebas de estructura espiral. 1) Es altamente improbable una cadena recta, sin retorcer,

debido a fuerzas descompensadas; 2) la ausencia de reflexiones sobre el meridiano de la forma cristalina sugiere

una estructura espiral, en la que la densidad de electrones proyectada sobre el eje de la fibra [de ADN] es casi

uniforme, y 3) la presencia de un marcado período de 27 Å […] debe significar que solamente aparecen nucleótidos

en posiciones equivalentes a intervalos de 27 Å. Esto sugiere que 27 Å es la longitud de una vuelta de la espiral. El

empaquetado hexagonal sugiere que sólo hay una hélice (que posiblemente contenga una cadena) por punto

reticular […] Conclusión. O bien la estructura es una gran hélice, o bien una hélice más pequeña formada por varias

cadenas»8. Entre el público asistente, se encontraba James Watson, gracias a la buena relación existente entre

Wilkins y Crick.

El planteamiento de la estructura helicoidal del ADN no era novedoso: el propio Maurice Wilkins

manejaba la hipótesis de una sola cadena en espiral, basándose en las investigaciones precedentes de William

Astbury, pionero en la aplicación de las técnicas de difracción de rayos X al ADN, y Sven Furberg, quien había

6 Víd. Aaron Klug, «El descubrimiento de la doble hélice del ADN», en Torsten Krude [Ed.], Cambios en la ciencia y en la sociedad, Akal,

Madrid, 2008, págs. 12-13. 7 Víd. Robert Olby, El camino hacia la doble hélice, Alianza, Madrid, 1991, págs. 487-488. 8 Rosalind Franklin, 1951, notas editadas por Robert Olby en Op. Cit., págs. 495-496.

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

49E N E R O

2 0 1 2

llegado a plantear un modelo en 19499. En 1950, Linus Pauling, el químico más eminente de la época, estableció

que la disposición en la que se pliegan las cadenas de aminoácidos para formar las proteínas respondía a una

estructura helicoidal que denominó «hélice-α». Las primeras conversaciones entre Watson y Crick, si hemos de

hacer caso a éste último, versaron sobre la posibilidad de aplicar el método de construcción de modelos de Pauling

para determinar la estructura del ADN10.

Seis semanas después, con los resultados estructurales que Watson había recogido de Franklin, decidieron

elaborar su propio modelo: tres cadenas helicoidales, con los fosfatos en el interior y las bases nitrogenadas

apuntando hacia fuera. El modelo se ajustaba a las imágenes obtenidas por difracción de rayos X, pero cuando fue

presentado al grupo del King’s College, se descubrió que Watson había calculado un contenido de agua diez veces

inferior al de las muestras de Franklin11. El rotundo fracaso trajo consigo el veto de Lawrence Bragg a cualquier

trabajo posterior sobre ADN en el Cavendish.

Por su parte, Franklin continuó desarrollando una aproximación experimental a la forma A de ADN

mediante cristalografía analítica, reforzada en su convicción de que los datos existentes eran insuficientes para

plantearse siquiera la construcción de un modelo. En 1952, un resultado erróneo en una muestra le hizo albergar

serias dudas sobre la forma helicoidal de la estructura del ADN en su forma A (impregnando a Wilkins con su

escepticismo) aunque no llegase a descartar la posibilidad. Pero, en enero de 1953, la aplicación del método de la

superposición de Patterson dio lugar a un hallazgo fundamental: si la estructura de la forma A es helicoidal, ésta

debe consistir en dos cadenas que van en direcciones opuestas, relacionadas por un eje de simetría doble

perpendicular al eje de la fibra. Al volver sobre la forma B de ADN, cuyo patrón de rayos X era claramente

indicativo de algún tipo de estructura en hélice, Franklin establece una correspondencia con los resultados

obtenidos sobre la forma A; concluyendo, por tanto, que el ADN en su forma B está constituido por dos cadenas

helicoidales12.

Mientras Rosalind Franklin se acercaba a la doble hélice, Watson y Crick volvían al ruedo del ADN gracias

a la intervención de Linus Pauling. El químico genial, no contento con haber establecido el modelo de las cadenas

de aminoácidos en las proteínas, anunciaba a principios de 1953 que tenía una estructura para el ADN cuya

publicación era inminente. Cuando el manuscrito llegó a Cavendish, Watson y Crick se encontraron con una

estructura de tres cadenas, con un esqueleto de azúcar-fosfato central. Curiosamente, Pauling había cometido un

gravísimo error químico, pues, en tanto que los grupos fosfato no estaban ionizados, no había nada que mantuviera

las cadenas unidas. Sin embargo, la entrada en juego de Pauling provocó que Lawrence Bragg, quien mantenía una

antigua rivalidad con el químico, liberase a Watson y Crick de su anterior prohibición, permitiéndoles volver a sus

9 Víd. Olby, Op. Cit., págs. 477-480, 482-486. 10 Víd. James Watson, ADN. El secreto de la vida, Taurus, Madrid, 2003, pág. 43. 11 Víd. Olby, Op. Cit., págs. 499-513. 12 Víd. Klug, Op. Cit., págs. 23-25.

Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda

 

50 E N E R O

2 0 1 2

investigaciones sobre el ADN13.

La brillantez de Pauling era indudable, pero, sin conocer los resultados obtenidos mediante las técnicas de

difracción en el King’s College, era imposible determinar el número de cadenas que componían la estructura, y la

posición de sus elementos. Cuando Watson fue al King’s a entregar una copia del manuscrito de Pauling, Wilkins le

mostró una imagen muy perfeccionada de la forma B de ADN que Franklin había obtenido en 1952, cuyo formato

helicoidal era inequívoco. Esta fotografía aportaba, además, los parámetros necesarios para establecer la distancia

de repetición de los núcleotidos (34 Å, indicando 10 unidades por vuelta de la hélice), el ángulo de la hélice (36º), y

el diámetro de la molécula (20 Å). Las conclusiones de Franklin acerca del eje de simetría de la molécula de ADN,

conocidas por Crick, terminaron de apuntalar las hipótesis de Watson, que venía trabajando sobre la construcción de

modelos helicoidales de dos cadenas. Watson y Crick tuvieron también en cuenta los argumentos de Franklin acerca

de la posición exterior del armazón de la molécula compuesto por grupos fosfato. Así pues, sólo restaba encajar las

bases, ubicadas unas sobre otras en el interior de la molécula. Tras rectificar la fórmula química incorrecta que

estaba utilizando para resolver el problema, por advertencia de un compañero de oficina, Watson dedujo que podía

encajar la adenina con la timina, y la guanina con la citosina, formando pares. Este apareamiento estructural

coincidía con las «reglas» establecidas unos años antes por el bioquímico Erwin Chargaff para la composición

química de las bases, según las cuales la cantidad de adenina en una molécula de ADN es igual a la de timina, y la

de guanina a la de citosina. De este modo, en marzo de 1953 la estructura del ADN quedaba resuelta14.

Un par de meses más tarde, Watson y Crick presentarían su modelo en los celebérrimos artículos de

Nature. Básicamente, la estructura del ADN, tal y como la describieron Watson y Crick, se compone de dos cadenas

helicoidales formadas por la superposición de nucleótidos enlazados. Cada nucleótido está formado por un grupo

fosfato, unido a un azúcar denominado desoxirribosa, que a su vez está unido a una base (adenina, guanina, citosina

o timina). Los grupos fosfato y los azúcares forman el esqueleto de cada cadena, y las cadenas están unidas por sus

bases mediante enlaces covalentes, de tal forma que la citosina siempre se enlaza con la guanina, y la adenina con la

timina»15. Las repercusiones del modelo descrito para las cuestiones genéticas precedentes fue inmediatamente

advertida por Watson y Crick: «El esqueleto fosfato-azúcar de nuestro modelo es completamente regular, pero

cualquier secuencia de pares de bases puede encajar en la estructura. Ello permite que en una molécula larga sean

posibles muchas permutaciones diferentes, y por tanto parece probable que la secuencia precisa de las bases sea el

código que porta la información genética. Si fuera dado el orden real de las bases de una de las cadenas del par,

podríamos anotar el orden exacto de las bases de la otra cadena, a causa de la especificidad del emparejamiento.

Así, una cadena es, como si dijéramos, el complemento de la otra, y este es el hecho que sugiere cómo puede

autoreplicarse la molécula de ácido desoxirribonucleico»16. De este modo, quedaba establecida no sólo la

13 Víd. Olby, Op. Cit., págs. 554-556. 14 Víd. Olby, Op. Cit., págs. 556-587. 15 Víd. James Watson y Francis Crick, «Molecular Structure of Nucleic Acids. A Structure for Deoxyribose Nucleic Acid», y «Genetical

Implications of the Structure of Deoxyribonucleic Acid», Nature, 171, 1953, págs. 737-738, 964-967. Reproducidos en Pedro García Barreno [Dir.], Cincuenta años de ADN. La doble hélice, Espasa, Madrid, 2003, págs. 114-115, 118-120.

16 Watson y Crick, «Genetical Implications of the Structure of Deoxyribonucleic Acid», reproducido en García Barreno [Dir.], Op. Cit., pág. 119.

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

51E N E R O

2 0 1 2

arquitectura de la macromolécula de ADN, sino también su modo de duplicación. Las conexiones con el PGH

comienzan ya a hacerse explícitas.

Desde nuestro enfoque, en el relato anterior podemos detectar una multiplicidad heterogénea de

configuraciones que, conformadas y articuladas en cursos operatorios diversos, se van codeterminando en un

proceso de gran complejidad hasta dar lugar a la estructura del ADN. Desde luego, los fenómenos estrictamente

biológicos, radiales (bases nitrogenadas, azúcares, fosfatos, moléculas de ADN, nucleótidos, etc.) quedan

establecidos y conectados de modo necesario en el modelo de Watson y Crick, como hemos visto. Pero también las

instituciones o los actores mencionados aparecen, en el contexto histórico determinante que estamos perfilando,

dados en función de su participación en la construcción del teorema de la doble hélice.

Y ello, como avanzamos, por su formato gnoseológico, esto es, por su condición de teorema en el que se

sintetizan ciertos contenidos previamente roturados en distintos campos científicos. El ADN, las bases nitrogenadas,

los elementos químicos que componen el esqueleto de azúcar fosfato, etc. son términos pertenecientes a los campos

de varias ciencias, que confluyen en el teorema de la doble hélice, de tal manera que se configuran, organizan y

resuelven a nivel molecular. Así, no es necesario remontarse hasta el origen remoto de cada una de las partes de

orden biológico que podamos identificar en el dintorno del PGH; pues, en cuanto configuraciones del mundo

precursor, reciben su formato en el marco de la Biología molecular, cuyo primer teorema es, precisamente, el

modelo helicoidal del ADN de Watson y Crick.

Ejemplificaremos nuestra tesis con las bases nitrogenadas, en cuanto morfologías fenoménicas sobre las

cuales se realizan las operaciones que dan lugar a la secuenciación del genoma humano. Las bases tienen su origen

en el campo de la Bioquímica. Ya en 1920, el químico ruso Phoebus Aaron Levene concluye que la composición

química del ADN consta de grupos fosfato, azúcares y cuatro bases nitrogenadas: adenina, guanina, citosina y

timina. Y, en 1949, Erwin Chargaff establece las mencionadas proporciones entre adenina y timina, y citosina y

guanina, en cualquier macromolécula de ADN. No pretendemos menoscabar la importancia de las aportaciones de

Levene y Chargaff (entre otras), sin las cuales la estructura del ADN nunca podría haber sido elaborada. Pero tanto

los componentes químicos de los nucleótidos, como las proporciones relativas entre las bases nitrogenadas, quedan

incorporadas al teorema de la doble hélice, integradas en un modelo donde se reformulan y desarrollan: así, en la

estructura del ADN no sólo constan los elementos de los núcleotidos, sino su composición química, la naturaleza de

los enlaces que los mantienen unidos, la distancia relativa entre cada base, el número de unidades por vuelta de la

hélice, etc. Del mismo modo, las proporciones de Chargaff aparecen incorporadas y reexpuestas como una

consecuencia específica de las conexiones necesarias entre los pares de bases. Además, en el marco del teorema de

Watson y Crick, las bases nitrogenadas se relacionan con otros términos procedentes de los campos de distintas

ciencias, como puedan ser los fenómenos de la herencia constituidos en el ámbito de la Genética (al margen de los

Subrayado nuestro.

Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda

 

52 E N E R O

2 0 1 2

cuales quedarían desconectadas del PGH); a este respecto, los propios autores afirmaban que «nuestra estructura

propuesta para el ácido desoxirribonucleico puede ayudar a resolver uno de los problemas biológicos fundamentales

–las bases moleculares del molde necesario para la replicación genética»17. Por todo ello, concluimos que, en el

marco del modelo de la doble hélice, las bases nitrogenadas se conforman, en virtud de sus determinaciones, sus

relaciones y su escala, tal y como se encuentran como partes componentes del PGH. Así, sólo a partir de su

inserción en el teorema de la doble hélice, las bases nitrogenadas quedan incorporadas al contexto histórico

determinante del Proyecto.

Lo mismo podría decirse de los antecedentes genéticos y fisiológicos, aludidos por alguno de los autores

que analizamos en la primera parte. Como señala Alberto Hidalgo, «el teorema de la doble hélice reformula a nivel

molecular el principio de la continuidad genética de la materia viva (de ahí sus importantes implicaciones

biológicas, y reconstruye empíricamente el principio fisiológico de la correlación estricta entre estructura y función.

Pero no es una mera consecuencia deductiva de tales principios, porque, aunque es lógicamente congruente con

ellos, los desarrolla de forma novedosa y consistente»18. En efecto, una vez asumido el modelo de Watson y Crick,

los problemas genéticos ya no se plantearán al nivel del organismo (fisiológico) o de la célula (citológico): el nivel

molecular, adoptado en el teorema doble hélice, se mantiene en el PGH, definiendo la escala de sus trazos.

2. La consolidación de la Biología molecular: el «Dogma Central» y el código genético.

En el apartado anterior quedó resuelto el problema de los límites del contexto histórico determinante del

PGH, una vez fundamentada la decisión de considerar a la estructura del ADN como terminus ad quem del

regressus realizado desde sus partes constituyentes. Además, el teorema de la doble hélice da cuenta de la escala a

la que se dibujan los cuerpos, morfologías y estructuras identificados en el PGH. Y, también, aporta la clave

conformativa de configuraciones tales como las bases nitrogenadas, los nucleótidos, o el propio ADN. Sin embargo,

el curso de la Biología molecular, en cuanto factor del contexto histórico determinante del PGH, no se agota en su

origen. Desde la doble hélice, cabe definir al gen, en términos abstractos, como una secuencia de bases que codifica

un carácter hereditario. Pero, ¿cómo identificar un gen en concreto, cuando se desconoce el mecanismo de

transcripción?19 Parece evidente que aún restan por recorrer episodios cruciales en el curso de la Biología

molecular, que tienen incidencia sobre las configuraciones del PGH y por tanto forman parte ineludible de su

entorno.

En los años posteriores al establecimiento de la estructura del ADN, se produjo una proliferación de

instituciones y materiales (cátedras y departamentos, revistas especializadas, congresos, manuales, etc.) en torno a

la Biología molecular, circunstancia que llevó aparejado un aumento del número de actores dedicados a realizar

17 Watson y Crick, «Genetical Implications of the Structure of Deoxyribonucleic Acid», reproducido en García Barreno [Dir.], Op. Cit., pág. 120. 18 Hidalgo, Op. Cit., pág. 304. Subrayado nuestro. 19 Víd. Francis Crick, Qué loco propósito. Una visión personal del descubrimiento científico, Tusquets, Barcelona, 1989, pág. 105.

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

53E N E R O

2 0 1 2

investigaciones en el campo recién inaugurado20. Watson y Crick habían trazado la senda por la que debían discurrir

los trabajos futuros en su artículo de 1953: «No se nos escapa que el emparejamiento específico que hemos

postulado sugiere de inmediato un posible mecanismo de copia para el material genético»21. Los autores

sospechaban que las proteínas estaban implicadas de algún modo en el proceso de transcripción, pero carecían de

los elementos necesarios para poder resolver el problema.

A comienzos de la década de 1950, las investigaciones genéticas precedentes parecían indicar que los

genes estaban involucrados en la producción de proteínas que acontecía en el citoplasma de las células. Dado que el

ADN sólo se encontraba en el núcleo, la síntesis de proteínas requería algún elemento mediador entre el ADN y las

proteínas. El candidato principal era el ácido ribonucleico, presente tanto en el núcleo como en el citoplasma. Era

conocida, también, la composición química del ARN, similar a la del ADN, aunque con azúcar ribosa en lugar de la

desoxiribosa, y la base nitrogenada uracilo en lugar de la timina. Como narra Watson, «aun antes de que

descubriéramos la doble hélice, yo pensaba que probablemente la información genética del ADN cromosómico se

utilizaba para fabricar cadenas de ADN de secuencias complementarias. Estas cadenas de ARN servían, a su vez, de

modelos que especificaban el orden de los aminoácidos en sus respectivas proteínas»22. Una vez concluido su tour

de force con el ADN en 1953, Watson comenzó a analizar mediante difracción de rayos X el ARN en Cal Tech.

Pero la táctica era errónea: el ARN no podía ser cristalizado.

El mismo año, nuevos actores y operadores enriquecían el repertorio de fenómenos y estructuras

implicados en el proceso. El microscopio electrónico permitió profundizar en el citoplasma, de modo que no se

mostraba ya como una masa informe. En continuidad con la membrana nuclear, se encontraba una red de canales

membranosos, en cuya superficie estaban dispersas miles de pequeñas partículas esferoides: los ribosomas,

compuestos de proteína y ARN. George Palade, en el Instituto Rockefeller, mostró que los ribosomas también se

encontraban en células bacterianas, más sencillas de estudiar. Por otra parte, Paul Zamecnik, investigador médico

del Hospital General de Massachussets, desarrolló una técnica mediante la cual las células en las cuales se produce

la síntesis de proteínas podían ser destruidas; de modo que se obtenía un «extracto libre» de componentes celulares,

en el cual era posible examinar la síntesis de proteínas con gran detalle, e incluso agregar aminoácidos e introducir

ácidos nucleicos. A la vez, el bioquímico inglés Fred Sanger había establecido, en el laboratorio Cavendish, la

secuencia completa de aminoácidos de una proteína, en concreto la insulina. Esta secuencia era específica y

consistente, lo cual sugería la existencia de un código en su proceso de construcción. Todo ello resultaría, a la

postre, fundamental para descifrar el código genético23.

En los años posteriores, un gran número de laboratorios comenzaron a estudiar las relaciones entre el ADN

20 Víd. Hidalgo, Op. Cit., pág. 295. 21 Víd. Watson y Crick, «Molecular Structure of Nucleic Acids. A Structure for Deoxyribose Nucleic Acid», reproducido en García Barreno

[Dir.], Op. Cit., pág. 115. 22 Víd. James Watson, ADN. El secreto de la vida, Taurus, Madrid, 2003, pág. 69. 23 Víd. Thomas F. Lee, El Proyecto Genoma Humano, Rompiendo el código genético de la vida, Gedisa, Barcelona, 2000, págs. 96-99.

Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda

 

54 E N E R O

2 0 1 2

y las proteínas, poniendo especial atención en determinar el necesario elemento mediador. El auge de la Biología

molecular dio lugar a múltiples líneas de investigación intrincadas y complejas, que no podemos reproducir aquí.

Baste mencionar que, hacia finales de 1956, el análisis sistemático de extractos libres de células y el trabajo con

organismos bacterianos arrojó un panorama general de la síntesis de proteínas donde el ARN era la molécula

intermediaria. En este primer esquema, el ARN se ensamblaba con los aminoácidos sueltos en el citoplasma,

aunque cada uno de los 20 aminoácidos parecía tener su propia molécula específica de ARN y la asociación se

producía en cada caso mediante enzimas propios. De este modo, el ARN organizaba los aminoácidos y los portaba

hasta los ribosomas, donde se producían las proteínas24.

De nuevo, fue Francis Crick quien sintetizó las abigarradas líneas de investigación existentes. En una

célebre conferencia pronunciada en 1957 en la Sociedad Británica de Biología Experimental, publicada en forma de

artículo un año después, Crick expuso los postulados básicos de la teoría conocida como «el Dogma Central de la

Biología molecular»: el ADN, en cuya secuencia de nucleótidos está cifrada la información necesaria para dar lugar

a un organismo, es capaz de replicarse. Esta capacidad permite que cada nueva célula, procedente de una anterior,

reciba una réplica exacta de su ADN, que se perpetúa a lo largo de sucesivas generaciones. La información

genética presente en el ADN se copia en forma de ARN, y se traduce mediante el código genético en cada una de

las distintas proteínas que desempeñan funciones específicas en la célula. Según la tesis principal del «Dogma

Central», el flujo de información siempre es unidireccional: del ADN al ARN, y de éste a la proteína (salvo en el

caso de la replicación del ADN)25. En 1970 Crick revisó su «dogma», pues las investigaciones independientes de

David Baltimore y Howard Tremin mostraron que la información hereditaria podía transmitirse también del ARN al

ADN: ciertos virus tumorales que contienen ARN como material genético poseen una enzima denominada

retrotranscriptasa, capaz de copiar ADN para dar lugar a ARN. Teniendo esto en cuenta, la conexión

ADN→ARN→proteína fue reformulada como ADN↔ARN→proteína. Retomando el hilo de la exposición, la

concepción expresada por Crick en 1957 acerca de los mecanismos de transmisión y expresión de la herencia marcó

el objetivo principal de las investigaciones en Biología molecular: una vez establecido el mecanismo de síntesis de

proteínas, sólo restaba determinar el código genético, esto es, la secuencia de bases nitrogenadas que codificaba

cada uno de los 20 aminoácidos de las proteínas26.

La utilización masiva de términos como «información», «código», «secuencia», etc. para describir

procesos biológicos puede parecer impropia. De hecho, ha tenido que soportar fuertes objeciones, no sólo por parte

de los propios biólogos, sino también desde la Filosofía de la ciencia. Sin menoscabo de su interés, no es lugar para

discutir la pertinencia gnoseológica de tales usos. Pero, a efectos de la reconstrucción del curso de la Biología

molecular, es importante destacar las conexiones existentes entre los conceptos procedentes de los campos de las

ciencias de la información y la computación, y la disciplina científica que nos ocupa, dadas sus importantes

24 Víd. Lee, Op. Cit., pág. 98. 25 Víd. Francis Crick, «On proteín synthesis», Symposia of the Society for Experimental Biology 12, 1958, págs. 138-163. 26 Víd. José A. Melero, «ADN↔ARN→proteína (El Dogma Central de la Biología Molecular)» en García Barreno [Ed.], Op. Cit., págs. 123-

147.

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

55E N E R O

2 0 1 2

implicaciones para el PGH: en 1944, el físico Erwin Schrödinger publicó ¿Qué es la vida?, obra que influiría

decisivamente en gran parte de los actores principales que intervinieron en la génesis de la Biología molecular. En

su breve escrito, Schrödinger caracterizaba el mecanismo de la herencia como un «mensaje cifrado» que debía

poseer alguna «clave» capaz de dar lugar al «esquema completo de todo el desarrollo futuro del individuo y de su

funcionamiento en estado maduro»27. La concepción de Schrödinger, independientemente del alcance que

pretendiera otorgarle el eminente físico, impregnó todos los desarrollos futuros de la Biología molecular. Conviene

recordar que el resultado principal del PGH consistió el la secuenciación de la dotación genética completa de varios

organismos humanos.

Ahora bien, lo que pudiera parecer una mera cuestión denotativa, retórica, como muchas veces se

caracteriza cuando se alude a la inexactitud de las «metáforas» de la genética, comienza a adquirir grosor

gnoseológico cuando constatamos que los actores más destacados de las ciencias de la computación de la época

están presentes en el origen mismo de la Biología molecular: a principios de la década de los cuarenta del pasado

siglo, Norbert Wiener, fundador de la Cibernética, comenzó a trabajar en cuestiones biológicas mientras realizaba

investigaciones computacionales en la Oficina de Investigación Científica y Desarrollo. Junto al fisiólogo Arturo

Rosenbluth y el ingeniero Julian Bigelow, elaboró sus primeras propuestas sobre servomecanismos y homeostasis

fisiológica. El también matemático John Von Neumann, cuyas contribuciones dieron lugar a la fabricación de los

primeros computadores, comenzó a tomar contacto la Genética en 1945. Dado que estaba intentando desarrollar

máquinas que se autoreproducen, la replicación de los genes podía servir de modelo para sus investigaciones. Von

Neumann, como la mayoría de los genetistas de la época, comenzó a estudiar los virus bacteriófagos, y estableció

contactos con varios miembros del «grupo de los fagos» (entre los que se contaba Max Delbrück). Partiendo de la

concepción de las proteínas como cadenas formadas por aminoácidos mediante procedimientos combinatorios,

aplicó modelos matemáticos a la reproducción de los genes y de los virus28. En 1948, Wiener publicó su obra

Cybernetics, or Control and Communication in the Animal and Machine, donde defendía una tesis de gran calado:

el control y la comunicación son problemas inseparables, y ambos se centran en la noción fundamental del mensaje,

como una secuencia continua de eventos cuantificables distribuidos en el tiempo29. El mismo año, Claude Shannon,

teórico de la comunicación, presentó un importante artículo sobre el criptoanálisis y la teoría de códigos, cuyas

conclusiones divulgó al año siguiente junto con Warren Weaver, director del programa de Biología molecular de la

Fundación Rockefeller30.

Los trabajos de Wiener, Von Neumann y Shannon alcanzaron una gran repercusión en el ámbito biológico:

el concepto de código genético comenzó a ser ampliamente utilizado, y los métodos computacionales fueron

considerados como la herramienta fundamental para su desciframiento. Desde 1949, el radiólogo Henry Quastler

27 Víd. Erwin Schrödinger, ¿Qué es la vida?, Tusquets, Barcelona, 1983, págs. 41-42. 28 Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Languaje», en Philip R Sloan [Ed.], Controlling Our Destinies. Historical,

Ethical Philosophical and Theological Perspectives on the Human Genome Project, University of Notre Dame Press, Indiana, 2000, págs. 103-104.

29 Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Languaje», en Sloan [Ed.], Op. Cit., pág. 105. 30 Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Languaje», en Sloan [Ed.], Op. Cit., pág. 106.

Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda

 

56 E N E R O

2 0 1 2

comenzó a aplicar sistemáticamente las ciencias de la información y la computación a las cuestiones genéticas,

llegando a proponer un catálogo del genoma en el que estimaba la cantidad de información genética de un

organismo humano en un millón de bits. En 1952, un año antes de que Watson y Crick establecieran la estructura

del ADN, Quastler tuvo la oportunidad de divulgar ampliamente sus ideas en un importante simposio sobre Teoría

de la Información en Biología celebrado en el Control Systems Laboratory de Brookhaven31.

Tras el descubrimiento de la doble hélice, los desarrollos de las ciencias de la información y la

computación en relación con la Biología molecular engranan directamente con los múltiples intentos de determinar

el código genético; la cuestión fundamental que, como vimos, el teorema de Watson y Crick había dejado

pendiente. Pero antes de pasar a describir los cursos operatorios en los que se vinculan las distintas configuraciones

que dan lugar al establecimiento del código, es necesario destacar otras líneas de investigación, en las que se

constituyen ciertas morfologías fenoménicas asociadas al ARN sin las cuales el problema de la transcripción

hubiera sido irresoluble.

A finales de los cincuenta, Zamecnik, que había seguido trabajando en el proceso de producción de las proteínas,

descubrió que cada uno de los ARN portadores de aminoácidos tenía la misma secuencia de núcleotidos en un

extremo de la molécula. En concreto, un triplete constituido por las bases CCA32, en el que conectaba el aminoácido

en cuestión. La molécula de ARN portador fue denominada «ARN de transferencia» o tARN, en tanto que

transfería los aminoácidos desde el citoplasma a los ribosomas. La secuencia completa del tARN sería determinada

por el bioquímico Robert Holley. En un extremo estaba la secuencia CCA para la asociación de aminoácidos, y en

el otro una secuencia de tres bases nitrogenadas complementarias de un conjunto de bases presentes en el

ribosoma33.

En 1961, los biólogos moleculares Sydney Brenner y François Jacob identificaron una segunda forma de

ARN involucrada en el proceso de transferencia, que actuaba como intermediario entre el ADN y el ribosoma. Esta

nueva morfología recibió el nombre de ARN mensajero o mARN34.

Así las cosas, una vez localizados todos los elementos que intervienen en el proceso de transcripción, y

establecido su mecanismo general, sólo restaba establecer el código que lo organizaba.

Una vez más, los artefactos resultarían determinantes, en tanto que posibilitaron la realización de un

conjunto de operaciones que condujeron a la solución del problema. El joven científico del NIH Marshall Nirenberg

implementó en 1961 un sistema de síntesis in vitro de proteínas, que permitía operar con «extractos libres»

similares a los de Zamecnik, pudiendo agregar además ARN mensajero a la solución líquida. Unos años antes,

31 Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Language», en Sloan [Ed.], Op. Cit., pág. 106. 32 Denotamos las bases nitrogenadas por su inicial en mayúscula, como es usual. 33 Víd. Lee, Op. Cít., pág. 98. 34 Víd. José A. Melero, «ADN↔ARN→proteína (El Dogma Central de la Biología Molecular)» en García Barreno [Ed.], Op. Cit., págs. 126-

127.

Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.

 

57E N E R O

2 0 1 2

Marianne Grunberg-Manago había descubierto, en el laboratorio de Severo Ochoa, la primera enzima capaz de

sintetizar ADN en el tubo de ensayo, lo que permitía construir mARN artificial con secuencias de bases definidas.

Johann Mathei, colaborador de Nirenberg, comenzó a introducir en el sistema de síntesis de proteínas moléculas de

mARN sintético de composición definida para observar sus interacciones con diferentes aminoácidos. Comenzó

con una solución de mARN que, para mayor facilidad, contenía únicamente uracilos. Mathei añadió varios

aminoácidos, uno por uno, y nada ocurrió hasta que agregó la fenilalanina, que se compuso con el mARN poli-U

para dar lugar a un polipéptido (esto es, a una cadena de aminoácidos) compuesto únicamente de fenilalanina. El

mismo año, Sydney Bernner y Leslie Barnett confirmaron lo que ya se suponía: el código genético era siempre una

secuencia de tres bases nitrogenadas, que posicionaban un aminoácido en cada proteína. Por tanto, en el laboratorio

de Nirenberg fue posible concluir que una secuencia de tres uracilos en el mARN (o tres adeninas, complementarias

del uracilo, en el ADN) se traducían en un aminoácido de fenilalanina. El código comenzaba a ser descifrado.

En la misma época, Har Gobind Khorana, en la Universidad de Wisconsin, había desarrollado una técnica

para fabricar largos trechos de ARN con secuencias repetidas, simples y conocidas. Los laboratorios de Nirenberg,

Khorana y Ochoa compitieron durante años para establecer, paso a paso, los aminoácidos que estaban codificados

por cada uno de los 64 tripletes posibles formados por las combinaciones de las cuatro bases nitrogenadas del ADN.

En 1966, el laborioso trabajo estaba prácticamente terminado. Francis Crick, que había seguido el proceso, fue otra

vez el encargado de sintetizar los resultados en una tabla que expresaba las relaciones necesarias entre cada uno de

los tripletes de bases nitrogenadas (o «codones») y los 20 aminoácidos de las cadenas polipeptídicas. Hay más de

un codón para cada aminoácido, y tres de los 64 no codifican ninguno, sino que determinan el principio y el final de

la síntesis de proteínas35.

Una vez establecida la estructura de la síntesis de proteínas, el gen adquiere su configuración actual, como

secuencia de bases nitrogenadas de la molécula de ADN que codifica la síntesis de un polipéptido. Estamos ahora

en condiciones de entender por qué el regressus desde el gen, en cuanto morfología detectada en el marco del PGH,

no conduce a Mendel, o a las primeras experiencias de los sujetos humanos con los fenómenos de la herencia, sino,

precisamente, al curso constitutivo de la Biología molecular. Otros importantes constituyentes radiales del PGH,

como los distintos tipos de ARN, los múltiples codones, etc. quedan determinados en el proceso que acabamos de

reconstruir. Evidentemente, la formulación del código genético no supuso la clausura de la Biología molecular, pero

sí su consolidación definitiva, una vez cerradas las cuestiones genéticas que se habían planteado a raíz de la

formulación de la doble hélice. Los principales avances en el campo de la Biología molecular vendrán dados, en

adelante, por mediación de la Biotecnología.

35 Víd. Lee, Op. Cít., págs. 103-107; y José A. Melero, «ADN↔ARN→proteína (El Dogma Central de la Biología Molecular)» en García

Barreno [Ed.], Op. Cit., págs. 128-130.

 

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

59E N E R O

2 0 1 2

   Capítulo IV. El desarrollo de la Biotecnología. PABLO INFIESTA MOLLEDA 

 

La realización del PGH supuso la utilización de diversas técnicas de cartografiado y

secuenciación del genoma, que por su gran complejidad no podemos detallar aquí120. En términos muy

generales, los mapas del genoma permiten identificar y aislar genes individuales, esto es, fragmentos de

ADN que codifican una determinada cadena polipeptídica. Por su parte, la secuenciación consiste en la

determinación del orden de las bases nitrogenadas del ADN. Las técnicas implicadas en ambos

procesos, aunque plurales y heterogéneas, tienen su origen en el ámbito de la Biotecnología.

No resulta problemático localizar analíticamente en el seno del PGH un conjunto de elementos

que aparecen como aparatos, operadores y relatores: por ejemplo, las enzimas de restricción utilizadas

para cortar el ADN, secuenciadores automáticos como el ABI 373A, o los potentes ordenadores y

programas informáticos utilizados para procesar la información obtenida. Sin embargo, dada la

heterogeneidad de los elementos distinguidos, es necesario regresar hacia el curso en el cual se

configuran y se organizan, estableciendo sus conexiones (y desconexiones) mutuas. Los artefactos que

posibilitan la secuenciación del genoma humano son aquellos que permiten realizar operaciones

quirúrgicas (de unión y separación) no sólo sobre el ADN, como se suele afirmar frecuentemente de

manera reductiva, sino, en general, sobre los trazos que se constituyen en el ámbito de la Biología

molecular y la Bioquímica, analizados en el capítulo anterior. Mediante la aplicación de este criterio,

podemos circunscribir el curso que da razón del plano tecnológico del PGH a la génesis y el desarrollo

de la Biotecnología, evitando así la confusión inherente a un regressus hacia técnicas anteriores dadas a

otra escala, como pudieran ser las técnicas de selección artificial aplicadas sobre los organismos.

Además, queda establecido un nexo fundamental entre dos de los factores del contexto

histórico determinante del PGH, que contribuye a clarificar su entramado.

Una descripción precisa puede consultarse en Peter Sudbery, Genética Molecular Humana, (Pearson

Prentice Hall, Madrid, 2004, págs. 56-142).

CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA

60 E N E R O

2 0 1 2

1.- De la Biología molecular a la Biotecnología: la ingeniería genética.

La Biotecnología tiene su origen en la implementación de varios operadores que

permitieron manipular directamente los cuerpos y los fenómenos establecidos en el campo de la Biología

molecular. Los antecedentes inmediatos de la Biotecnología se encuentran en las técnicas utilizadas para descifrar

el código genético. Como hemos visto, era posible fabricar mARN con una secuencia determinada, e

introducirlo en una solución líquida de componentes celulares donde interactuaba con los

aminoácidos.

Sin embargo, no ocurría lo mismo con el ADN: en la década de 1950, el bioquímico

Arthur Kornberg había identificado la ADN polimerasa, una enzima que replica el

ADN mediante la formación de una copia complementaria a partir de una cadena

desenrollada. Trabajando con ADN viral, pudo inducir la replicación artificial de su

genoma, pero el resultado era biológicamente inerte. El motivo del fracaso de los

experimentos de Kornberg no se conocería hasta 1967, cuando Martin Gellert y Bob

Lehman identificaron simultáneamente la ADN ligasa, otra enzima que unía los

extremos de la molécula de ADN formando enlaces covalentes. De este modo,

Kornberg estuvo en disposición de completar con éxito sus experimentos iniciales,

replicando el ADN del virus con el ADN polimerasa, y juntando los dos extremos

mediante la ligasa, de modo que toda la molécula formaba un bucle continuo, como

en el virus original. El ADN viral artificial presentaba las mismas propiedades que el

original, multiplicándose en el organismo de su bacteria huésped, la Escherichia

Coli1

A finales de los años sesenta, Werner Arber, bioquímico y microbiólogo suizo,

estudió el proceso en el cual, en ocasiones, los ADN virales se fragmentaban tras

insertarse en bacterias huésped. La ruptura sólo se producía en aquéllas células

bacterianas que poseían una encima que restringía el crecimiento viral separando el

ADN foráneo. El corte se produce como reacción a una secuencia específica de bases

nitrogenadas: por ejemplo, la enzima de restricción Eco R1 corta la secuencia

GAATC. Arber descubrió, también, que las enzimas de restricción no cortan el ADN de sus propias células,

porque las bacterias producen una segunda enzima que modifica las secuencias de bases susceptibles de

ser cortadas2

A comienzos de la década de los 70, los principales operadores de la futura

Biotecnología, esto es, la ADN ligasa que une fragmentos de ADN, y las enzimas de

restricción que los separan, estaban ya identificados. Sin embargo, todavía no se había

producido su implementación, y por tanto no estaban configurados como tales. Por

1 Vid. James Watson, ADN. El secreto de la vida, Tauros, Madrid, 2003, pág. 88. 2 Vid. Watson, Op. Cit., pág. 89.

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

61E N E R O

2 0 1 2

ejemplo, en el contexto de las investigaciones anteriores las enzimas de restricción

eran, más bien, cuerpos que mantenían relaciones químicas de carácter necesario con

una determinada secuencia de bases nitrogenadas; del mismo modo que tres uracilos

se enlazan químicamente con la fenilalanina en la síntesis de proteínas.

En 1971, Stanley Cohen, en la Universidad de Stanford, desarrolló un método para que las

células de la bacteria E. Coli pudieran incorporar «plásmidos» del exterior. Los plásmidos son pequeños

bucles de ADN ubicados en el interior de la bacteria, mediante los cuáles ésta puede mutar su propio

genoma. Mediante su técnica, Cohen podía transformar la bacteria con ADN ajeno, consiguiendo que

una cepa susceptible a la acción de un antibiótico se convirtiese en inmune mediante la implantación de

un plásmido tomado de una cepa resistente. Dado que la transformación era genética, la transmitía el

nuevo carácter a las generaciones siguientes: el ADN de plásmido se transmitía intacto en todas las

divisiones celulares3

Todas estas configuraciones estaban a punto de converger en el ámbito de la genética

molecular, provocando la irrupción de la Biotecnología. En un congreso sobre plásmidos celebrado en

Honolulú en 1972, Stanley Cohen trabó contacto con Herb Boyer, un joven biólogo molecular de la

Universidad de California. Boyer había identificado un año antes (junto con Robert Yoshimori ) la

enzima de restricción Eco R1, a la que antes aludíamos. Esta enzima tiene la peculiaridad de cortar la

doble hélice del ADN en un lugar específico, entre la guanina y la citosina de los lados opuestos de la

hélice. Aplicando la Ecoli Rl, el ADN se separa del tal modo que en sus dos extremos presenta

secuencias de nucleótidos complementarias, denominadas «extremos pegajosos» debido a que las

secuencias complementarias pueden unirse fácilmente mediante enlaces de hidrógeno y ADN ligasa.

Gracias a este hallazgo, desde el punto de vista bioquímico resultaba hipotéticamente posible combinar

fragmentos de ADN de distintas especies. En el congreso de Honolulú, Boyer y Cohen pusieron en

común los resultados de sus investigaciones, y comenzaron a pergeñar la tecnología del ADN

recombinante, que está en la base de la ingeniería genética4.

Unos meses después, los laboratorios de Cohen , en Palo Alto, y Boyer, en San Francisco,

comenzaron a colaborar para producir un híbrido de dos plásmidos distintos, cada uno de los cuales

otorgaba a la bacteria receptora resistencia frente a un medicamento en particular. El objetivo era lograr

una cepa bacteriana con resistencia a los dos medicamentos. En primer lugar, los plásmidos fueron

cortados mediante enzimas de restricción. A continuación, fueron mezclados en un tubo de ensayo,

utilizando ADN ligasa para unir los extremos. Así, fue posible lograr plásmido compuesto por

fragmentos de los originales, que, una vez transplantados a las bacterias mediante los métodos de

Cohen, las convirtieron en inmunes a los medicamentos. El siguiente paso consistió en insertar

fragmentos de genes de distintas especies: Boyer y Cohen introdujeron, mediante el mismo 3 Vid. Thomas F. Lee, El Proyecto Genoma Humano. Rompiendo el código genético de la vida, págs. 121-122. 4 Vid.Watson, Op. Cit, pág. 91.

CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA

62 E N E R O

2 0 1 2

procedimiento, un gen del sapo con garras africano en un plásmido de E. Coli, introduciéndolo en una

cepa bacteriana. Cada vez que se producía la división celular de las bacterias, el segmento insertado de

ADN de sapo se replicaba. De este modo, no sólo era posible fabricar ADN recombinante, sino también

clonar genes específicos de cualquier organismo. La ingeniería genética era ya una realidad5

En es este contexto donde las entidades que venimos exponiendo se configuran como

operadores. Si repasamos el párrafo anterior, podremos constatar que las enzimas de restricción no

aparecen ya como cuerpos con determinadas características bioquímicas que interactúan con otros

cuerpos de su entorno, sino como cuchillos moleculares que los actores implicados en el origen de la

ingeniería genética utilizan para separar fragmentos de ADN; del mismo modo que un minero utiliza el

pico para separar trozos de carbón, a otra escala. Lo mismo ocurre con el resto de las configuraciones

artefactuales examinadas.

Los operadores conformados en el contexto de la ingeniería genética desempeñarán un papel

fundamental en el desciframiento de la secuencia del genoma humano. Las enzimas de restricción y la

ligasa posibilitan las operaciones quirúrgicas sobre el material genético inherentes al proceso, y las

técnicas de clonación permiten obtener un amplio catálogo de fragmentos específicos de ADN para ser

estudiados.

2.- La tecnología de secuenciación.

A partir de la tecnología del ADN recombinante, comenzó a plantearse la posibilidad de

establecer la secuencia de las bases nitrogenadas. La capacidad de fragmentar, unir y clonar el ADN era

condición necesaria, pero no suficiente. No basta con realizar operaciones quirúrgicas sobre el material

genético mediante operadores bioquímicos, sino que se requiere de algún tipo de relator capaz de fijar

simbólicamente el orden de las bases nitrogenadas. Durante la década de los setenta se desarrollarían los

primeros métodos de secuenciación, que servirán de modelo a toda la tecnología posterior utilizada en

la consecución del desciframiento del genoma humano.

Fred Sanger, que ya había establecido la primera secuencia de aminoácidos de unaproteína

completa en sus experimentos con la insulina, diseño en 1975 la primera técnica de secuenciación del

ADN. El método de Sanger parte de la separación de un fragmento de ADN en cadenas simples. Los

filamentos se colocan en cuatro tubos de ensayo, en los cuales se introducen todos los elementos

necesarios para la formación de nuevas moléculas de ADN: los cuatro tipos de nucleótidos, la ADN

polimerasa y un oligonucleótido marcado radiactivamente (una cadena corta de nucleótidos con

una secuencia de bases determinada que puede fabricarse en el laboratorio). El oligo funciona como

disparador, que inicia el proceso de ensamblaje, donde los nucleótidos sueltos se van asociando uno a

uno a las nuevas cadenas formadas por la acción de la polimerasa, que reproduce la cadena original.

5 Vid. Watson, Op. Cit, págs. 92-94.

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

63E N E R O

2 0 1 2

Ahora bien: en cada uno de los tubos, Sanger introdujo uno de los cuatro tipos de «nucleótidos

disesoxi», que tienen la propiedad de interrumpir el proceso de formación de la nueva cadena a la que

se añaden. Los nucleótidos convencionales y los didesoxi se agregaban azarosamente, con lo cual en

cada uno de los tubos de ensayo se formaban una gran cantidad de cadenas de distinta longitud, con la

peculiaridad de que todas terminaban en la misma base nitrogenada (al ser detenidas por la

incorporación por el mismo nucleótido didesoxi)6.

En este punto tenemos, por tanto, cuatro grupos de cadenas de ADN de longitud variable,

diferenciados por la base en que finalizan (A, C, G, o T). Para establecer la secuencia, la mezcla de

cadenas recién sintetizadas se separa según sus respectivas longitudes mediante gel-electroforesis de

poliacrilamida: se disponen todas las cadenas en una placa impregnada con un gel bañado en una

solución de poliacrilamida, que crea un tamaño de poro uniforme. La placa se coloca entonces en un

campo eléctrico, que fuerza a las moléculas a desplazarse a través de los poros hacia el polo positivo

(debido a la carga negativa de los grupos fosfato). La distancia recorrida es inversamente proporcional

al tamaño de la cadena, de modo que, al final de proceso, los distintos fragmentos de ADN aparecen

ordenados en función de su tamaño a lo largo de una línea en el gel. Mediante una autorradiografía,

pueden observarse los rastros del ADN en la senda del gel, lo que permite leer directamente la

secuencia de las nuevas cadenas. Así, la secuencia del ADN original puede ser deducida a partir de la

secuencia complementaria obtenida mediante el examen de la longitud creciente de nucleótidos en las

cadenas ordenadas7.

En 1977, el biólogo molecular Walter Gilbert, en colaboración con Alan Maxam, desarrolló un

método alternativo para secuenciar el ADN. El punto de partida es, también, una colección de cadenas

aisladas de ADN, pero, en este caso, se marca uno de los extremos de cada una de las cadenas con una

forma radiactiva de fósforo (32P). Entonces, se aplican al ADN compuestos químicos que alteran uno de

los cuatro tipos de bases nitrogenadas. Posteriormente, otro agente químico corta la cadena en el punto

en el que el nucleótido ha sido alterado. No todas las cadenas se cortan en el mismo punto, con lo cual,

al final del proceso, se obtienen cadenas de distinta longitud, que terminan en el mismo nucleótido

(aquél que haya sido alterado con el compuesto químico inicial). Una vez se han obtenido fragmentos

terminados en cada una de las bases nitrogenadas, se realiza el proceso de electroforesis, de modo que

se obtienen los mismos resultados que en el método de Sanger. No obstante, los procedimientos

químicos mediante los cuales se divide el ADN son muy dificultosos y peligrosos, con lo cual el método

de Gilbert fue cayendo progresivamente en desuso8.

Es importante señalar aquí que, en el marco de las investigaciones de Gilbert, dos

morfologías de gran importancia para el PGH recibieron su conformación actual: a principios de la década de

1970, Richard Roberts, Ph. Sharp y otros biólogos moleculares identificaron en muchos organismos tramos de 6.Vid. Lee, Op. CU, págs. 170-171 7 Vid. Lee, Op. C it págs. 140-141-172- y Sudbery, Op. Cit pág. 94. 8 Vid Lee, Op. Cit. págs. 172-173; y Watson, Op. Cit . 107-108.

CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA

64 E N E R O

2 0 1 2

ADN que no codifican ningún aminoácido. Estos tramos se transcribe, pero ei producto de su transcripción se

elimina del mARN maduro y funcional en la síntesis de proteínas. Gilbert definió estos segmentos de ADN

aparentemente inútiles como «intrones», frente a los «exones» o genes responsables de la codificación de

cadenas polipeptídicas. En el proceso de constitución de la Biotecnología no sólo adquieren su formato los

componentes artefactuales del PGH, sino que, también, se conforman nuevos trazos; lo cual no debería resultar

extraño, en tanto que las operaciones tecnológicas transforman objetos, dando lugar eventualmente a nuevas

configuraciones. Como ya señalamos en su momento, los cursos no son puros y, aunque el regressus tenga como

terminus a quo un tipo de configuraciones específico, en el progressus pueden encontrarse configuraciones

de cualquier otro tipo.

Volviendo al plano estrictamente tecnológico, durante la década de los ochenta se produjo una

innovación crucial: la secuenciación, que hasta entonces necesitaba del concurso de los investigadores para leer y

registrar los datos, se automatizó gracias a la implementación de potentes computadores y programas

informáticos. Las nuevas tecnologías tomaron como base el método de Sanger, aunque sustituyendo los

marcadores isotópicos por cuatro colorantes fluorescentes que marcan cada uno de los nucleótidos didesoxi con un

color diferente. El producto de estas reacciones se desplaza en un único surco de un gel de electroforesis de

poliacrilamida. En el extremo inferior del gel, un láser excita los fluoróforos incorporados en las cadenas de

ADN. El orden de los picos de color es registrado por un detector, y la información generada se almacena

automáticamente como un archivo digital de secuencia de ADN. Posteriormente, el archivo de datos es

analizado con programas informáticos capaces de ensamblar las distintas secuencias obtenidas9.

Estamos, en suma, ante un relator, que realiza operaciones sobre objetos para obtener proposiciones en

las cuales quedan determinadas ciertas relaciones abstractas entre dichos objetos. En este caso, la secuencia de

las bases nitrogenadas de un genoma determinado.

Así, por ejemplo, el ABI 373 A, desarrollado en 1986 por Michael Hunkapiller en Applied

Biosystems, una división de la Perkin Elmer Corporation. El salto cuantitativo es considerable: la máquina

de Hunkapiller podía analizar veinticuatro muestras simultáneas, con un rendimiento de doce mil bases de ADN al

día10. Con el método manual, el desccifamiento del genoma humano hubiera sido una tarea

inacabable. Gracias a las tecnologías de la computación, la secuenciación del genoma se convirtió en un

proyecto plausible.

En conclusión, hemos podido constatar cómo, en el curso del desarrollo de la Biotecnología, un

conjunto de realidades heterogéneas se configuran como artefactos, operadores y relatores, en relación a otras

configuraciones circulares y radiales con las que se codeterminan.

9 Vid. Sudbery, Op. Cit., pág. 93. 10 Vid. Kevin Davies, La conquista del genoma humano. Craig Venter, Francis Collíns, James Watson y la historia del mayor descubrimiento científico de nuestra época, Paidós, Barcelona, 2001, pág. 84.

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

65E N E R O

2 0 1 2

       Capítulo V. La incorporación de las ciencias biológicas a la  Big Science. 

PABLO INFIESTA MOLLEDA 

El examen de los actores, instituciones y materiales implicados en el PGH remite,

inmediatamente, al contexto de los macroproyectos científicos que suelen caracterizarse con el

expresivo rótulo de «Big Science». Como es bien sabido, la afortunada expresión fue acuñada por el

sociólogo de la ciencia Derek de Solía Price, en su influyente obra Little Science, Big Science, para

hacer referencia a todos aquéllos proyectos científicos que, por su tamaño, repercusión y coste

económico desbordan los marcos cuantitativos de la ciencia tradicional, hasta el punto de amenazar con

erradicarla: «la ciencia de hoy desborda tan ampliamente la anterior, que resulta evidente que hemos

entrado en una nueva era que lo ha barrido todo, a excepción de las tradiciones científicas básicas»1.

Cuando elaboró su concepción, en 1936, Price estaba tomando en consideración, principalmente, a la

Física de su época. Sin embargo, las ciencias biológicas tardaron varios decenios más en adquirir las

dimensiones de la Big Science. En el contexto del descubrimiento de la doble hélice, las instituciones

implicadas eran pequeños laboratorios con escasos recursos económicos, donde grupos reducidos de

actores realizaban investigaciones dispersas, fruto en muchas ocasiones de la iniciativa personal. El

ejemplo de Watson y Crick es palmario. Sin embargo, en el caso del PGH se presenta un panorama

muy distinto: instituciones gubernamentales (el NIH o el DOE2), empresas (Celera Genomics), redes

internacionales de grandes laboratorios (el Consorcio Internacional para la Secuenciación del Genoma

Humano), etc. Los actores implicados también han sufrido una profunda transformación: empresarios y

políticos cobran una gran importancia en la toma de decisiones, y los laboratorios se llenan de

trabajadores asalariados que desempeñan una función especializada. El investigador aislado no tiene

cabida en este contexto, y los grandes científicos son ahora directores de proyectos. El caso de Watson

es, de nuevo paradigmático. Si existiese alguna duda acerca de la condición cuantitativa del PGH, los

3.000 millones de dólares presupuestados por el Gobierno de los EE.UU. se encargan de despejarla . No

parece necesario argumentar demasiado para justificar que la escala de los sociofactos en el seno del

PGH está dada por la Big Science.

Ahora bien, ¿cuándo se produjo la entrada de las ciencias biológicas en el ámbito de la «gran

ciencia»? O, dicho de otro modo, ¿cuál es el límite del regressus realizado desde los sociofactos que

forman parte constituyente del PGH? En este punto, el curso que estamos examinando intersecta con el

anterior, dado que el salto cuantitativo en las ciencias biológicas vino determinado por las aplicaciones

de los materiales producidos por la Biotecnología.

1 Derek de Solía Price, Hacia una ciencia de la ciencia, Barcelona, Ariel, 1973, pág. 34. 2 Instituto Nacional de Salud y Departamento de Energía de los EE.UU., respectivamente, por sus siglas en inglés.

CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA

66 E N E R O

2 0 1 2

1. Las aplicaciones de la ingeniería genética y el tránsito a la Big Science.

La tecnología del ADN recombinante, desarrollada por Herb Boyer y Stanley Cohen, dio lugar

a la posibilidad de fabricar productos con fines específicos que alcanzaron un gran valor comercial.

Los primeros éxitos se produjeron gracias a la síntesis de productos génicos de gran utilidad en

la terapia clínica. Mediante las técnicas de manipulación, modificación y transferencia de genes, fue

posible inducir a las bacterias a producir proteínas valiosas, de las cuales la primera fue la insulina: en

1976, un grupo de investigadores bajo la dirección de Herb Boyer aisló el mARN producido por el gen

de la insulina. Debido al proceso de corrección, el mARN carece de los intrones del ADN a partir del

cual se copia, con lo cual eliminaba todo el material genético sobrante para la síntesis de la proteína.

Mediante la ARN transcriptasa, descubierta en 1970 por Termin y Baltimore, el equipo de Boyer pudo

producir ADN a partir del mARN aislado, obteniendo así un fragmento de ADN con toda la

información necesaria para que la bacteria produjera la insulina3.

La síntesis de la insulina no se produjo en un laboratorio universitario, sino que la institución

responsable fue la empresa Genentech (acrónimo de «genetic engineering technology»), fundada por el

propio Herb Boyer y el financiero Bob Swanson para comercializar los productos de la ingeniería

genética. El papel de Boyer no era ya alcanzar resultados académicos de prestigio, o labrarse una

carrera profesional como científico, sino fabricar materiales económicamente rentables. La insulina

constituyo el primer objetivo comercial para Genentech : los ocho millones de diabéticos que se

estimaban sólo en Estados Unidos eran consumidores potenciales.

En 1978, Walter Gilbert, junto con un consorcio de empresarios, de EE.UU. y Europa, crearon

Biogen para competir con la iniciativa de Boyer y Swanson. No sólo las instituciones se estaban

transformando, convirtiéndose en fábricas de productos biológicos; los propios actores, que antes

desempeñaban el rol de investigadores, eran ahora empresarios en busca de beneficios. Como señala

Watson, «ahora, la participación en la carrera comercial es parte normal de la carrera de un pez gordo

del ADN»4. Los resultados no se hicieron esperar: una vez desarrollada la técnica para

producir insulina, en 1978 Swanson vendió la licencia exclusiva para distribuir la proteína a Ely Lilly,

la compañía que controlaba el 85% del mercado, con una facturación anual cercana a los 3.000 millones

de dólares. Dos años después, en 1980, Genentech saldría a bolsa: en unos minutos, sus acciones

subieron de 35 dólares iniciales a 85, en su momento la mayor revalorización de Wall Street. Gracias a

la síntesis de la insulina, Boyer y Swanson ganaron más de 60 millones de dólares cada uno. La

industria biotecnológica estaba ya consolidada, y la rentabilidad de las investigaciones biológicas era

una realidad5.

3 Vid. Robert Cook-Degan, The Gene Wars, W. W. Norton & Company, Nueva York, 1994, págs. 117-161, Vid. James Watson, ADN. El secreto de la vida, Taurus, Madrid, 2003, pág.118 4 Watson, Op Cit pág. 122 . 5 Vid. Watson, Op. C/í.,págs. 119-120. Vid. Renato Dulbecco, Los genes y nuestro futuro. La apuesta del Proyecto Genoma, Alianza, Madrid, págs. 168-187.

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

67E N E R O

2 0 1 2

Desde entonces, florecieron multitud de compañías biotecnológicas, y las industrias

farmacéuticas, conscientes de los resultados que se podían obtener en el desarrollo de medicamentos,

comenzaron a realizar grandes inversiones en el campo de la Biología molecular.

Las técnicas de ingeniería genética posibilitaron, además, la identificación y el aislamiento de

muchos genes implicados en enfermedades hereditarias muy extendidas: la anemia falciforme, la

hemofilia, el retinoblastoma, la hipercolesterolemia, la fibrosis quística la osteoartritis, la corea de

Huntington, etc. De este modo se pueden detectar precozmente los genes asociados a estas

enfermedades, e incluso, mediante la terapia génica, intervenir directamente sobre los genes alterados.

La Biotecnología había dado lugar a una nueva fuente de beneficios, tanto económicos como sanitarios,

que despertarían el interés de las empresas farmacéuticas y las instituciones gubernamentales.

Podríamos continuar con el relato de las instituciones, actores y materiales que se conforman en el

marco de la Big Science. Pero, con lo dicho, queda caracterizado el curso en el cual se configuran las partes

constituyentes del PGH que adscribimos al ámbito de los socio/actos, en sus relaciones mutuas con otras

configuraciones que ya han sido previamente examinadas en los cursos anteriores. El siguiente paso adelante nos

pondría, además, frente a los ortogramas, planes y programas que intervienen en la constitución del PGH, lo cual

escapa a los propósitos del presente trabajo.

Conclusiones

El examen de la bibliografía acerca de la génesis del PGH revela la existencia de un conjunto

de problemas relacionados con la delimitación de sus contenidos, y la determinación de las conexiones

que se establecen entre ellos. Tales problemas no son resolubles desde categorías científicas, dado que

implican cuestiones ontológicas y gnoseológicas centrales. Por ello, para evitar la oscuridad y

confusión derivada de los tratamientos acríticps, es necesario adoptar un conjunto de principios

filosóficos que permitan delimitar y organizar los materiales implicados en el origen del PGH.

La propuesta metodológica que hemos formulado a tales efectos desde el materialismo

filosófico está condicionada por las propias características de la cuestión estudiada. El PGH, aun siendo

un proyecto científico, incorpora también contenidos tecnológicos y sociales en su seno. De tal modo

que los aspectos sociológicos y tecnológicos no pueden ser eliminados, en tanto que forman parte

constituyente del propio Proyecto. No cabe, por tanto, establecer distinciones tajantes entre contenidos

internos y externos, ni mucho menos ignorar cualquiera de los aspectos del PGH cuando se afronta la

cuestión de su génesis. No tanto por incurrir en excesos reduccionistas, cuanto por la imposibilidad

efectiva de la reconstrucción. Así, la elaboración de una metodología adecuada a los propósitos de la

investigación supuso la necesidad de incluir desarrollos originales con el objetivo de poder abordar los

distintos contenidos del PGH, sin perjuicio de su raigambre eminentemente gnoseológica. El enfoque

CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA

68 E N E R O

2 0 1 2

adoptado permitió disociar tales contenidos para su examen particular, subrayando siempre su

interconexión mutua.

En la segunda parte del trabajo, dedicada a la reconstrucción de los cursos que conforman el

entorno del PGH, cobra mayor protagonismo la perspectiva sociohistórica, aunque las precisiones

filosóficas realizadas delimitan, orientan y organizan los materiales estudiados. Las conclusiones

parciales alcanzadas, siempre provisionales y sujetas a posteriores revisiones, dependen por completo

de los entramados argumentales y factuales en los que se engranan. Por ello, remitimos a sus lugares

naturales para su consulta y evaluación. Exponerlas aquí desconectadas de su contexto, como si se

tratase de proposiciones necesarias derivadas de un proceso deductivo, supondría la perversión de la

actividad filosófica, crítica y dialéctica, que hemos intentado ejercitar.

Más oportuna resulta la reseña de los problemas abiertos, que constituyen, al mismo tiempo,

expectativas para el futuro de nuestra investigación doctoral. En general, la reconstrucción realizada

debe entenderse como una primera aproximación, que requiere de una profundización ulterior. Queda

pendiente, también, la fundamentación de las posiciones gnoseológicas adoptadas al respecto de la

Biología molecular y la doble hélice, que sustentan en gran medida la tesis central acerca de los límites

del entorno del PGH. Por último, el presente trabajo se circunscribe al examen de los factores

determinantes del PGH. Para completar la reconstrucción anamórfica esbozada en el planteamiento

general derivado de la aplicación de la metodología propuesta a la cuestión de la génesis del Proyecto,

será necesario analizar los planes y programas que conducen a su cristalización definitiva, y volver

sobre la figura institucional determinada de origen. Dada la dificultad inherente a la formulación de los

problemas filosóficos, el bosquejo de algunas de las vías por las que discurrirá nuestra investigación

posterior no es el menos importante de los resultados alcanzados aquí.

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

69E N E R O

2 0 1 2

Bibliografía

1. Metodología:

Alvargonzález, David, «El darvinismo visto desde el materialismo filosófico», El Basilisco, 2o época,

Pentalfa, Oviedo, 1996, págs. 3-46.

Bueno, Gustavo, Teoría del cierre categorial, Vols. I-V, Pentalfa, Oviedo,1991-1993.

Bueno, Gustavo, El sentido de la vida, Pentalfa, Oviedo,1996

Bueno, Gustavo, El Animal Divino, 2a edición, Pentalfa, Oviedo, 1996

Bueno, Gustavo, El mito de la cultura, 2° ed, Prensa Ibérica, Barcelona, 2004.

Bueno, Gustavo, «Conceptos conjugados», El Basilisco,1º época, nº 1, Pentalfa, Oviedo, 1978, págs. 88-

92.

Bueno, Gustavo, «La Etología como ciencia de la cultura», El Basilisco, 2ª época, n° 9, Pentalfa,

Oviedo, 1991.

Bueno, Gustavo, Ensayos Materialistas, Taurus, Madrid, 1972.

Bueno, Gustavo, Materia, Pentalfa, Oviedo, 1990.

Bueno, Gustavo, Cuestiones cuodlibetales sobre Dios y la religión, Mondadori, Madrid, 1989.

Bueno, Gustavo, El papel de la filosofía en el conjunto del saber, Editorial Ciencia Nueva, Madrid,

1970.

Bueno, Gustavo, España frente a Europa, Alba Editorial, Barcelona, 1999.

Callon, M., «Cuatro modelos de dinámica de la ciencia», en J. A. López Cerezo y A. Ibarra [Eds.],

Desafíos y tensiones actuales en Ciencia, Tecnología y Sociedad, Biblioteca Nueva, Madrid,

2001.

Calllon, M., «Algunos elementos para una sociología de la traducción: la domesticación de las vieiras y

los pescadores de la bahía de St. Brieuc», en J. M. Iranzo [Comp ], Sociología de la ciencia y la

tecnología, Madrid, CSIC, 1995.

Fernández Tresguerres, Alfonso, Los dioses olvidados. Caza, toros y filosofía de la religión, Pentalfa,

Oviedo, 1993

Hacking, Ian, Representar e intervenir, Paidós, México, 1996.

Hacking, Ian, «La autojustificación de las ciencias de laboratorio», en A. Ambrogi [Ed.], Filosofía de la

Ciencia: el Giro Naturalista, Universitat de les Illes Balears, Servei de Publicacions i Intercanvi

Cientific, Palma de Mallorca, 1999.

Hidalgo, Alberto, Gnoseología de las ciencias de la organización administrativa. La organización de la

ciencia y la ciencia de la organización, Servicio de publicaciones de la Universidad de Oviedo,

Oviedo, 1991.

Hidalgo, Alberto, «La Biología molecular: ¿revolución o cierre?», en Alberto Hidalgo y Gustavo Bueno

Sánchez [Eds.], Actas del I Congreso de teoría y Metodología de las Ciencias, Pentalfa, Oviedo,

1982, págs. 293-308.

Huerga Melcón, Pablo, La ciencia en la encrucijada, Pentalfa, Oviedo, 1999.

CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA

70 E N E R O

2 0 1 2

Latour, B., y Woolgar, S., La vida en el laboratorio: la construcción de los hechos científicos, Alianza,

Madrid, 1995.

Latour, B., Ciencia en acción, Labor, Barcelona, 1992.

Pickering, A. [Ed.], Science as Practice and Culture, University of Chicago Press, Chicago, 1992.

Woolgar, S., Ciencia: abriendo la caja negra, Anthropos, Barcelona, 1991.

2.- Fuentes:

Bishop, Jerry, y Waldholz, Michael, Genome. The Story of the Most Astonishing Scientific Adventure of

Our Time -The Attemp to Map All the Genes in the Human Body, Simon and Schuster, Nueva

York,1990.

Cairns, John et alii [Eds.], Phage and The Origins of Molecular Biology, Cold Spring Harbor

laboratory, Nueva York, 1966.

Chambers, Donald, DNA, The Double Helix. Perspectives and Prospectives at Forty Years, The New

York Academy of Sciences, Nueva York, 1995.

Collins, Francis, ¿Cómo habla Dios? La evidencia científica de la fe, Temas de Hoy, Madrid, 2007.

Cook-Degan, Robert, The Gene Wars. Science, politics and the human genome,W. W. Norton &

Company, Nueva York, 1994.

Crirk, Francis,Qué loco propósito. Una visión personal del descubrimiento científico, Tusquets,

Barcelona, 1989.

Davies, Kevin, La conquista del genoma humano. Craig Venter, Francis Collins, James Watson y la

historia del mayor descubrimiento científico de nuestra época, Paidós, Barcelona, 2001.

Dulbecco, Renato, Los genes y nuestro futuro. La apuesta del Proyecto Genoma Alianza, Madrid, 1999.

Dulbecco, Renato, «A Turning Point in Cancer Research: Sequencing the Human Genome», Science, n°

231, 1986, págs. 1055-56.

García Barreno, Pedro, [Dir.], Cincuenta años de ADN. La doble hélice, Espasa, Madrid, 2003

Jacob, François, La lógica de lo viviente, Tusquets, Barcelona, 1999.

Judson, Horace F., The Eight Day of Creation, Cold Spring Harbor Laboratory Press, Nueva York,

1996.

Kay, Lii, «A Book of Life? How a Genetic Code Became a Languaje» en Philip R Sloan [Ed.],

Controlling Our Destinies. Historical, Ethical Philosophical and Theological Perspectives on

the Human Genome Project, University of Notre Dame Press, Indiana, 2000, págs.

Kevles, Daniel, y Hood, Leroy, [Eds.) The Code pf Codes. Scientific and Social Issues in the Human

Genome Project, Harvard University Press, Mass, 1993.

Klug, Aaron, «El descubrimiento de la doble hélice del ADN», en Torsten Krude [Ed.], Cambios en la

ciencia y en la sociedad, Akal, Madrid, 2008

Lee, Thomas F., El Proyecto Genoma Humano, Rompiendo el código genético de la vida, Gedisa,

Barcelona, 2000.

Lewontin, Richard, El sueño del genoma humano y otras ilusiones, Paidós, Barcelona, 2001.

PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.

71E N E R O

2 0 1 2

Olby, Robert, El camino hacia la doble hélice, Alianza, Madrid, 1991

Rabinow, Paul, Making PCR. A Story of Biotechnology, University of Chicago Press, Chicago, 1996.

Sánchez Ron, José Manuel, El poder de la ciencia. Historia social, política y

económica de la ciencia (siglo XIXs XX), Crítica, Barcelona, 2007.

Schrodinger, Erwin, ¿Qué es la vida?, Tusquets, Barcelona, 1983.

Watson, James, La doble hélice, Alianza, Madrid, 2000.

Watson, James, ADN. El secreto de la vida, Taurus, Madrid, 2003.

Watson, James, Pasión por el ADN. Genes, genomas y sociedad, Crítica, Barcelona, 2002.

Watson, James, y Crick, Francis, «Molecular Structure of Nucleic Acids. A Structure for Deoxyribose

Nucleic Acid», Nature, 171,1953, págs. 737-738.

Watson, James, y Crick, Francis, «Genetical Implications of the Structure of Deoxyribonucleic Acid»,

Nature, 171,1953, págs. 964-967

3. Obras de consulta:

Griffiths, Anthony et alii, Genética, McGraw Hill, Madrid, 2002.

Nelson, David, y Cox, Michael, Lehninger. Principios de Bioquímica, Omega, Barcelona, 2006.

Lodish, Harvey et alii, Biología Celular y Molecular, Editorial Médica Panamericana, Madrid, 2005.

Strachan, Tom, y Read, Andrew, Genética Humana, McGraw Hill, México, 2006.

Sudbery, Peter, Genética Molecular Humana, Pearson Prentice Hall, Madrid, 2004.

 

Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.

 

73E N E R O

2 0 1 2

El Proyecto Genoma Humano según la prensa escrita, para el “ciudadano medio”.  Aida Pulido Vigil1  

       Resumen  Desde que se pusiera oficialmente en marcha en Octubre de 1990 el Proyecto Genoma Humano ha sido objeto de numerosas noticias. Recuperándolas, el interrogante acerca de la concepción sobre él predominante entre la “ciudadanía media” haya su respuesta. Constituyendo la prensa escrita uno de los medios de acceso fundamentales al conocimiento científico para el “ciudadano medio”, reconstruir el seguimiento que ésta le ha dedicado bastará para determinar qué es el Proyecto Genoma Humano para el “ciudadano medio”.                              

1 Nacíó en Oviedo en 1988. Cursó el bachillerato de Ciencias Sociales en el IES Escultor Juan de Villanueva de Pola de Siero. Licenciada en Filosofía por la Universidad de Oviedo en 2011, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional en la misma Universidad de Oviedo..

             Abstract   Since  it  was officially put in  place in  October  1990 the Human Genome Project  has  been  the  subject of  numerous  news.   To recover  them is  to answer  the question about the prevailing  conception between  ʺ  average  citizen   ʺ. From  a sociological point of view the press was still in the twentieth century one of the fundamental means of access to scientific knowledge  for theʺ  average  citizenʺ. Hence,  to  reconstruct the track that  the  press has  devoted us  closer  to the  image that the ʺaverage citizenʺ has to determine what the Human Genome Project.   

 

 

 

 

 

 

 

 

 

Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.

 

75E N E R O

2 0 1 2

El Proyecto Genoma Humano según la prensa escrita, para el “ciudadano medio”.    Aida Pulido Vigil2  

 

 *

En 1953 James Watson y Francis Crick descubren la estructura de la doble hélice del ADN. Inician, así, una revolución en el ámbito de la genética que, progresivamente, se convierte en una de las disciplinas científicas más prometedoras para la prevención, el tratamiento y la cura de enfermedades. Sus previsibles consecuencias hacen de ella objeto de confianza. Confianza propia no sólo de aquellos que la cultivan; también el “ciudadano medio”3 ve en ella una fuente de esperanza. ¿A qué se debe esta concepción por parte de aquellos que nada tienen que ver con la ciencia? La difusión y el seguimiento que la prensa escrita hace del conocimiento científico nos parece que constituye una de las claves para la respuesta pues, creemos, es el medio que, en general (junto a la televisión y la radio) el “ciudadano medio” utiliza para mantenerse informado sobre cuestiones políticas, sociales, económicas… y científicas. En otras palabras, la prensa escrita constituye un vínculo de unión entre el conocimiento científico y el “ciudadano medio” que, tal y como lo hemos definido, de otro modo no mantendría relación con el mismo. Partiendo de esta postura, en las próximas líneas nos proponemos mostrar el seguimiento que un periódico de tirada nacional, el ABC4, ha hecho del Proyecto Genoma Humano5. De este modo pretendemos poner de manifiesto cómo se ha ido contando el curso del Proyecto, esto es, cómo ha sido definido, qué aspectos han sido enfatizados, cuáles han sido obviados, qué perspectiva se ha adoptado respecto a sus consecuencias, etc. para, de acuerdo con ello, concluir la concepción que el “ciudadano medio” tiene acerca del Proyecto. 1990: INICIO DEL PROYECTO El Proyecto Genoma Humano inicia su andadura oficialmente en Octubre de 1990 con James Watson como director. El objetivo que persigue, sin embargo, no es novedoso. De ahí que en Mayo de ese año ya se defina la secuenciación del genoma humano como el deseo de “buscar el santo grial del ser humano…, de comprender la esencia de la vida del hombre”. Los beneficios que, presumiblemente, reportará también son ya en este momento apuntados, reconociéndose que se trata de un “proyecto para el bien de la humanidad”. En los meses sucesivos las noticias sobre el Proyecto continúan destacando las predicciones sobre sus consecuencias. Se destaca, por ejemplo, el avance que supondrá en la identificación de “genes responsables de enfermedades, entre las que destaca la esquizofrenia, el síndrome de Down y el cáncer”. No obstante, empiezan también a plantearse los problemas éticos o jurídicos que puede suscitar. Se reconoce que “es enormemente importante preveer los problemas que puedan plantearse. En torno a ellos gira el II Seminario sobre “Cooperación internacional para el proyecto Genoma Humano: ética” que tiene lugar en Valencia entre el 12 y el 14 de Noviembre. A él asisten Watson y el premio Nobel Gilbert. Sus intervenciones se recogen en las noticias relativas al mismo. Del primero se destaca su reconocimiento de que «debemos elaborar normas de comportamiento en genética», del segundo se recoge su pronóstico según el cual en diez años se conocerían todos los genes relacionados con el cáncer. Algo que, según sus palabras, no proporcionará una cura para la enfermedad, pero sí una explicación científica de la naturaleza del mal. 2 Nacíó en Oviedo en 1988. Cursó el bachillerato de Ciencias Sociales en el IES Escultor Juan de Villanueva de Pola de Siero. Licenciada en Filosofía por la Universidad de Oviedo en 2011, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional en la misma Universidad de Oviedo.. 3 Cuando decimos “ciudadano medio” hacemos referencia a los individuos con formación y preocupados por la actualidad, pero sin ningún interés o relación especial con la ciencia, esto es, a los individuos que no forman parte de ningún grupo humano en el que el nexo de unión entre sus miembros es la ciencia. 4 Elegimos este periódico y no otro porque figura, según el Estudio General de Medios, entre los periódicos más leídos en España. Además en su página web ofrece la posibilidad de acceder a su hemeroteca que, evidentemente, es la fuente de información necesaria para determinar el seguimiento que ha hecho del Proyecto Genoma Humano. 5 En lo que resta también nos referiremos al Proyecto Genoma Humano como el “Proyecto” o, haciendo uso de sus siglas, como el “PGH”.

El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil

 

76 E N E R O

2 0 1 2

1991-1992: POLÉMICA POR LA PATENTE DE GENES, WATSON DIMITE COMO DIRECTOR DEL PGH “Polémica en EEUU por la patente de genes humanos”, éste es el titular que recoge el intento de Craig Venter, un trabajador de los Institutos de Salud de EEUU (INH), de patentar 337 genes humanos y que se define como el desencadenante de una “gran polémica científica”. “Entre los mayores críticos figura el premio Nobel e impulsor del proyecto Genoma Humano, James Watson”, pues considera tal intención un “abuso del sistema de patentes”. Tres meses después del anuncio de la polémica se menciona el hecho de que Watson, en un artículo de la revista Science, insistiese en su rechazo a la patente de genes, calificando la postura contraria como absoluta locura. La alusión a esta reiteración en su postura no constituye una noticia, sino que se introduce como una ejemplificación de la idoneidad y la necesidad de las jornadas que la Fundación BBV organizaría sobre los aspectos legales del Proyecto en Enero de 1993. Noticia si es, en cambio, el posicionamiento del premio Nobel Walter Gilbert a favor “de la patente de genes completos ya que, a su juicio, no plantea problemas éticos y es la única garantía que poseen las compañías farmacéuticas para recuperar su gasto en investigación”. Sus palabras respecto a la renuncia de Watson como director del Proyecto Genoma Humano también son recogidas. Gilbert mantiene que ““Watson dimitió porque pensó, al contrario que ciertas personas del Gobierno, que estas secuencias fragmentadas no tienen valor ni utilidad para la sociedad” y que, pese a su dimisión el Proyecto continuará en EEUU “aunque el mapa del Genoma no estará concluido hasta el año 2.000 o 2.005”. La opinión de Gilbert sobre la renuncia de Watson se ratifica días después. Según ABC sus “propias declaraciones han dejado entrever que el verdadero motivo de su marcha es su oposición a la política del Instituto Nacional de la Salud, que dirige Bearnandine Healy, de apoyar el registro comercial de secuencias de genes. Aunque la función de este material genético, en el futuro, puede ser la base de rentables medicamentos”. El desencadenante, por tanto, no habría sido, tal y como el propio Watson declaró, su deseo de retomar las investigaciones al frente del Laboratorio Cold Spring Harbor, sino su desacuerdo con la política del Instituto Nacional de Salud. Fue la patente de genes la gota que colmó el vaso. “Watson utilizó los calificativos más fuertes para tildar esta iniciativa que a su juicio ponía en peligro la cooperación internacional en la secuenciación y cartografía del conjunto de genes que posee el hombre, un esfuerzo que ayudará a prevenir la aparición de un gran número de enfermedades de componente génico”. 1993: COLLINS NUEVO DIRECTOR DEL PROYECTO GENOMA HUMANO EN EEUU El 30 de Abril de este año se anuncia que “Francis Collins, investigador norteamericano, se ha convertido en el nuevo director del proyecto Genoma Humano en Estados Unidos. Sustituye en este importante cargo al premio Nobel James Watson, que presentó la dimisión por sus diferencias sobre la patente de genes con la responsable de los Institutos Nacionales de la Salud de Estados Unidos, Bernadine Healy”. Este mismo día también es notica “la primera terapia génica con un joven de veintitrés años aquejado de fibrosis quística”; enfermedad cuyos mecanismo génicos consiguió determinar en 1989 “un equipo de investigadores entre los que se encontraba Francis Collins”, el recientemente nombrado director del PGH. La Universidad de Deusto celebra entre los días 24 y 26 de Mayo una reunión internacional sobre «El Derecho ante el Proyecto Genoma Humano». En su anuncio se afirma que “con toda seguridad habrá dos asuntos que por la controversia que ya suscitan en la actualidad centrarán gran parte de la atención en Bilbao. El primero de ellos es la patentabilidad de los descubrimientos genéticos. La pregunta de fondo es si es lícito patentar un ser vivo o algunas de sus partes para patrimonio de la Humanidad… Esta polémica… al margen de su sustrato ético y legal amenaza con romper la necesaria colaboración internacional en este proyecto”. En la reunión interviene Craig Venter6 y deja clara su postura, a saber, que no se trata de patentar materia viva pues no considera “los genes como algo vivo. Es decir, los genes se pueden reproducir en un laboratorio y no cobran vida. Son esenciales para la vida, pero el agua también lo es y a nadie se le ocurre decir que tenga vida”. Explica, además, “que él no ha presentado nunca ninguna solicitud de patente sino que fue el Instituto Nacional de la Salud (NIH) quien lo hizo. A pesar de 6 En esta reunión Venter conoce a Hamilton Smith; quien se convertirá en su colaborador. Precisamente es él quien propone secuenciar el genoma completo de una bacteria. Es él, por tanto, en última instancia el responsable de que Venter anunciase en Mayo de 1995 la primera secuencia de un organismo autónomo.

Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.

 

77E N E R O

2 0 1 2

ello, manifestó a ABC que es partidario de las patentes sobre los descubrimientos genéticos, aunque en su opinión sólo debería patentarse aquello que tenga utilidades terapéuticas. Manifestó, asimismo, su firme convicción de que las patentes ayudan al desarrollo de la investigación. Y fundamentó esta afirmación basándose en dos hechos concretos: «Por un lado -dijo-, gran parte de la investigación en Estados Unidos está financiada por empresas privadas que, lógicamente, quieren obtener algún beneficio de sus inversiones. Y, por otro lado, es evidente que la patente es lo opuesto al secreto. Es decir, que lo que se patenta se hace público y puede ser utilizado por los demás investigadores. Conviene no olvidar que en el Reino Unido, al no tener claro,-si iban o no a poder patentar sus descubrimientos, mantuvieron en secreto gran cantidad de secuencias genéticas. Cuando decidieron patentarlas, hicieron públicos sus trabajos”. John Collins “se pronunció también a favor de la patentabilidad de los genes, ya que, como dijo, «lo que se patenta son fórmulas aisladas y purificadas que no existen como tal en la naturaleza». Explicó que los requisitos para patentar algo son que se trate de algo nuevo, que tenga una utilidad práctica y que sea una invención y no un descubrimiento, es decir, que exista un proceso de creación”. 1994-1997: EEUU RENUNCIA A LA PATENTE DE GENES, PROBLEMAS ÉTICOS, DECLARACIÓN UNIVERSAL SOBRE EL GENOMA Y LOS DERECHOS HUMANOS… El 13 de Febrero de 1994 la renuncia de Estados Unidos a “patentar más de seis mil fragmentos de genes humanos” es noticia. Se dice que “aunque la función y la utilidad práctica de casi todas ellas es desconocida por el momento, los INH de EE.UU. pretendían reservarse durante los próximos diecisiete años los derechos de estas secuencias, que quizá serían en el futuro la base de fármacos contra distintas patologías… Numerosos acreditados investigadores se opusieron a esta práctica por entender que los genes humanos son patrimonio de la Humanidad. El propio director del proyecto Genoma en Estados Unidos, el Nobel James Watson, dejó su cargo por este motivo. Sin embargo, la solicitud del INH fue rechazada por la Oficina de Patentes y Marcas de Estados Unidos y, ayer, el nuevo director de los INH, el premio Nobel de Medicina Harold Varmus, afirmó que este organismo no presentará un recurso para conseguir la aprobación”. Seis meses más tarde, las aplicaciones de la información que se va obteniendo con el desarrollo del Proyecto hacen posible el siguiente titular: “Dieciocho enfermedades hereditarias se detectan ya con pruebas genéticas”. “El diagnóstico precoz de una gran variedad de enfermedades hereditarias es el primer paso de la medicina preventiva surgida con el proyecto Genoma Humano. Alrededor de cincuenta pruebas genéticas han sido desarrolladas por los investigadores y los expertos consideran que a finales de siglo su uso será diario para detectar, incluso antes de manifestarse, ciertos tipos de cánceres o la enfermedad de Alzheimer”. En Mayo de 1995 el genoma se presenta como una “mina de oro” para las empresas farmacéuticas. En una noticia a doble página se reconoce que “los orígenes puramente científicos del proyecto internacional sobre el Genoma Humano constituyen hoy sólo un recuerdo. Las compañías farmacéuticas de todo el mundo, desde las poderosas multinacionales hasta los más diminutos laboratorios, se han lanzado a la búsqueda de «El Dorado» del código genético: el aislamiento de genes responsables de un gran número de enfermedades letales para la Humanidad. La explotación de esta «mina de oro» oculta en la molécula de DNA proporcionará, a quien consiga los mayores tesoros científicos, multimillonarios beneficios por la venta de fármacos y pruebas de diagnóstico, así como por las patentes de futuras terapias”. En Octubre de ese mismo año se adelanta que “en EEUU los científicos parecen haber entrado en la recta final del proyecto Genoma Humano”, y se recoge que “la veloz identificación de genes ha suscitado los primeros problemas éticos” ante la posibilidad de que sean utilizados por “compañías aseguradoras para discriminar a personas, que pese a estar sanas, tienen un potencial riesgo de padecer patologías genéticas”. Un año más tarde, “Cien científicos logran por primera vez un mapa con más de dieciséis mil genes. Se trata del principal hito desde que empezó el Proyecto Genoma Humano”. Supone, asimismo, un “salto cualitativo y cuantitativo en el desarrollo del proyecto” ya que la noticia es posible gracias al “desarrollo de bases de datos específicas y la introducción de nuevas metodologías para cartografiar el DNA humano”. Por otro lado, “gracias a este avance se podrá identificar con gran rapidez los genes responsables de millares de enfermedades hereditarias”. Gracias a los mapas físicos y genéticos anteriores, “se ha conseguido identificar, entre otros, los genes «ApoE-4»

El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil

 

78 E N E R O

2 0 1 2

involucrado en la aparición dé la enfermedad de Alzheimer; el «MLH-1», que causa tumores hereditarios de colon, y el «FGFR-3», responsable de la acondroplasia”. El 12 de Noviembre de 1997 se anuncia que “la Unesco aprueba su declaración universal sobre el genoma y los derechos humanos. El documento concilia la libertad de investigación y la protección del individuo”. Se trata de un “histórico documento internacional de bioética que concilia la libertad de la investigación y la protección del patrimonio genético de la Humanidad. En 25 artículos, esta declaración establece los criterios éticos universales para la investigación sobre los genes del ser humano, a la vez que protege contra posibles abusos, como la clonación humana”. 1998-1999: CRAIG VENTER CREA UNA EMPRESA PRIVADA, CELERA GENOMICS, QUE LOGRARÁ ANTES QUE EL PGH EL MAPA DEL GENOMA HUMANO El 11 de Marzo de 1998 se afirma que “el proyecto sobre el genoma humano llega a su ecuador con considerable retraso” Cuando el proyecto está llegando a “la mitad de los quince años previstos en un principio para completar el mapa del Genoma Humano, científicos norteamericanos han empezado a cuestionar la posibilidad de terminar esta difícil misión para el año 2005” pues, hasta el momento, sólo se ha secuenciado un 3% del genoma. En palabras del “científico Craig Venter, del Instituto de Investigación Genómica de Maryland, todos los grupos involucrados en este colosal proyecto «están retrasados, incluido el nuestro»”. Si Venter hubiera pronunciado esas palabras meses más tarde su sentido habría cambiado. Habría cambiado en tanto que el 8 de Mayo comunica a Collins, director del Proyecto Genoma Humano, la creación de Celera Genomics7, y propone que ésta y el proyecto público compartan sus datos. Dos días más tarde, The New York Times recoge la noticia e insinúa los riesgos que podría suponer “la posible posesión o el control de todo el genoma humano por una empresa privada sola”. ABC, en cambio, no proporciona información al respecto. No obstante, la reacción del proyecto público al reto impuesto por Venter con la creación de su empresa sí que es motivo de noticia. Así, uno de los titulares del 16 de septiembre proclama que “El proyecto Genoma Humano se acelera para lograr el mapa completo en el 2003. Se adelanta en dos años el objetivo por la competencia de estudios privados”. Tal adelanto, supone un “desafío ambicioso, ya que hasta el momento sólo se ha acometido el 6 por ciento de los trabajos. Pero ahora todo son prisas debido a la competencia directa de dos proyectos similares impulsados desde el sector privado… Al frente de uno de estos proyectos figura el controvertido científico Craig Venter, quien en los últimos años ha conseguido secuenciar y descifrar los genomas de varios microorganismos con amplio valor comercial o médico. Venter cree que puede completar el mapa del genoma humano en sólo tres años”. 2000: 90% DEL GENOMA HUMANO SECUENCIADO En Marzo se informa de que “EEUU rompe una negociación secreta con la empresa que descifra el genoma humano”. La ruptura se debe a que Celera “que podría conseguir el mapa de todos los genes del ser humano antes que el proyecto oficial… ofrecía su colaboración a cambio de derechos exclusivos”. A cambio concretamente de tener, durante cinco años, los derechos comerciales exclusivos para distribuir la información. Pasados siete días, las “Fuertes pérdidas de las empresas de biotecnología por la exigencia de Clinton y Blair de informar públicamente sobre el Genoma Humano” son asunto de portada. En el sumario del 7 de Abril bajo el titular “Una empresa estadounidense se acerca al fin del proyecto genoma al descifrar el material genético de una persona” se adelanta la noticia: Celera, “que compite directamente con el Gobierno de Estados Unidos y sus socios internacionales por descifrar el genoma de nuestra especie” ha conseguido descifrar toda la secuencia de material genético de una persona. Se sitúa, por tanto, “muy cerca de lograr su objetivo antes que el proyecto gubernamental, pese a que los trabajos de Celera comenzaron hace sólo un año y el Gobierno estadounidense trabaja hacia el mismo objetivo desde 1990”. La noticia enfatiza ya en el titular el hecho de que haya sido una empresa privada la institución que lo haya conseguido. Este énfasis, según se dice una día después, no debe sorprender teniendo en cuenta la ausencia de “reglas sobre la publicidad o privacidad que habrá de atribuirse a estos conocimientos”, que “hay muchísimo dinero

7 Venter en este momento no dió a conocer el nombre de la empresa. Lo hizo tres meses después.

Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.

 

79E N E R O

2 0 1 2

en juego si se acaban patentando determinadas secuencias”. Ahora bien, el aprovechamiento de los resultados tardará en llegar. Así, este mismo día otra de las noticias destaca ya en su titular que “Científicos españoles afirman que se necesitarán décadas para entender y aprovechar la información del genoma”. Si bien el anuncio de Venter “despejó todas las dudas sobre quién es el vencedor y quién el derrotado en la carrera del proyecto genoma humano”, hay “mucha tela que cortar aún; y será entonces cuando puedan interpretarse y encontrar los tratamientos a los numerosos hechos de la patología humana que aguardan solución”. “Ahora nos encontramos en el principio de la recta final. Celera se enfrenta aún a las tareas más complicadas: situar en su orden correcto todas las unidades de DNA descifradas y localizar en esa secuencia dónde están los genes y qué funciones cumplen. Entonces terminará el proyecto y se habrá conseguido lo que el Premio Nobel Walter Gilbert denominó el «santo grial de la genética». Pero también será el inicio de la llamada era postgenómica, en la que habrá que aprender a leer y comprender ese gran libro de la vida, con el fin de obtener conocimientos que mejoren la salud de las personas. Probablemente transcurrirán décadas de gran esfuerzo científico y financiero antes de que los beneficios sean tangibles. La consecución de este objetivo dependerá en gran medida de la colaboración entre el sector público y el privado, que actualmente compiten ferozmente por descifrar el genoma humano. Venter y sus científicos necesitan la información recopilada por los investigadores del proyecto oficial, tanto como el Gobierno de EE.UU. precisa de la revolucionaria estrategia científica que ha aplicado este brillante y, a la vez, polémico investigador. Los esfuerzos por llegar a un acuerdo se han esfumado en los últimos dos meses, en gran parte por las discrepancias sobre el control de esta vital información biológica, pero también por rencillas y agravios acumulados desde que el sector privado se lanzó a esta aventura”. El éxito científico de la empresa de C. Venter parece indiscutible, el económico también. “Cinco grandes laboratorios pagan sumas multimillonarias por la información privilegiada del genoma humano”, éste es el titular que anuncia en portada la suscripción de cinco multinacionales farmacéuticas a las bases de datos de Celera Genomics “previo pago de sumas superiores a los 8.000 millones de pesetas, para disponer de la información más detallada y útil”. Si bien existe un compromiso “a permitir que la industria y los grupos académicos de investigación puedan acceder gratuitamente a la secuencia de 3.000 millones de pares de bases del genoma humano, el objetivo es lograr que finalmente se suscriban a las bases de datos de Celera, que contienen la información más detallada y las herramientas informáticas necesarias «para analizarla a precios razonables», como explicó Venter en la Cámara de Representantes de Estados Unidos”. Ya en el mes de Junio, concretamente el día 26, uno de los titulares del día manifiesta: “Los primeros borradores del genoma humano, hito fundacional de la nueva biomedicina. Clinton y Blair anunciaron el logro junto con los directores de los proyectos público y privado”. “Gracias a un acuerdo de contenido no desvelado, los proyectos público y privado zanjaron oficialmente ayer su enfrentamiento y se anunció la voluntad de cooperar en el futuro para interpretar toda la información conseguida de forma independiente. El anuncio oficial realizado conjuntamente en varias ciudades de Europa, Estados Unidos y Japón debe interpretarse como un hito de la ciencia aunque no constituye el final de un ambicioso proyecto, sino el principio de una revolución biomédica que puede tardar décadas en llegar… El proyecto público, en el que ha intervenido un millar de científicos durante diez años, ha llegado a este primer borrador empujado por la agresiva competencia de los investigadores de Craig Venter, que empezaron a trabajar hace sólo dos años con una estrategia diferente El investigador Francis Collins señaló que la cartografía del genoma humano abrirá una nueva era para tratar una larguísima lista de enfermedades que hoy no tienen curación. Aunque muchos de estos, avances tardarán aún años en llegar, dado que será necesario comprender este gran libro de instrucciones dé la vida humana, Collins vaticinó una rápida proliferación de descubrimientos sobre las causas de la diabetes, la esquizofrenia, la enfermedad cardiovascular y la esclerosis múltiple, entre otras dolencias graves. Craig Venter dijo que ahora se entra en «la fase de interpretación» de toda la información biológica conseguida para descubrir su significado. Tras reafirmar que su borrador supera en calidad al público, Venter se comprometió a hacer públicos sus datos en otoño”. “Sin duda, la investigación8 de toda la información que contiene está destinada a revolucionar los tratamientos

8 Al margen de ella “han quedado países como España, que durante la década de los noventa no supieron ver la trascendencia de esta ambiciosa

El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil

 

80 E N E R O

2 0 1 2

médicos, a través de fármacos adaptados al perfil genético de cada paciente, y terapias génicas que corten de raíz las enfermedades. Llegará la era de la medicina preventiva. Entonces se empezarán a tratar trastornos años antes de que aparezcan los primeros síntomas clínicos. Pero también serán años de incertidumbre y riesgo, porque la misma información que servirá para curar podrá ser utilizada para discriminar a grupos y personas a la hora de acceder a puestos de trabajo o, sencillamente, al solicitar una póliza de seguros”. 2001: PRIMERAS LECTURAS DEL “LIBRO DE LA VIDA” En Enero de este año la secuenciación del genoma humano llega a la publicidad. Un anuncio hace uso del siguiente eslogan: “Muy pronto podrá elegir la inteligencia de sus hijos. Vaya practicando con su coche… Hoy conocemos el genoma humano, mañana quién sabe lo que podremos hacer con él. Lo que sí sabemos es que…” El 12 de Febrero se anuncia en portada: “Revolución en el conocimiento científico del ser humano”. “Siete meses después de que Tony Blair y Bill Clinton anunciaran el desciframiento del genoma humano, el consorcio internacional de científicos del proyecto público y su rival privado, la empresa Celera, presentan hoy las primeras descripciones precisas de nuestra dotación genética y lo que han aprendido en sus primeras lecturas de este auténtico manual de instrucciones del cuerpo humano”. El anuncio se aprovecha para difundir los conocimientos adquiridos hasta el momento. Uno de las noticias en el día previo está dedica, en exclusiva, a lo que se considera un hallazgo clave, a saber, “que todos los miembros de nuestra especie somos casi genéticamente idénticos. La similitud entre los genomas de dos personas elegidas al azar sería del 99,99 por ciento” De hecho, “los estudios de Celera, que analizó el genoma de cinco individuos de diferentes etnias, revelan que las personas de dispares grupos raciales pueden ser genéticamente más similares que los individuos de una misma etnia”. En esta línea se recogen también tanto los beneficios que del Proyecto ya están derivándose, como los que, previsiblemente, surgirán en el futuro. Concretamente se destaca que gracias a la información obtenida hasta ahora con la secuenciación del genoma humano “la posibilidad de realizar test genéticos para detectar la factible aparición de enfermedades hereditarias es ya una realidad… Sólo en Estados Unidos se llevan a cabo unos cuatro millones de estas pruebas cada año”. Además, “cuando la información del genoma sea bien conocida también serán una realidad los medicamentos «a la carta», diseñados específicamente para cada persona. Los científicos y clínicos disponen ya de varias decenas de fármacos, basados en las investigaciones sobre el genoma humano, pero en un futuro inmediato esta cifra se multiplicará de forma exponencial.” La ocasión se aprovecha también para enfatizar la supremacía de Celera frente al proyecto público. “Craig Venter y sus colaboradores lograron en prácticamente un año lo que había estado intentado el consorcio internacional desde 1990”. Concretamente, uno de los titulares del día anuncia que “Diez grupos de investigadores españoles se unen para acceder a la valiosa información descubierta. Desarrollarán los nuevos “chips de DNA”, que revolucionarán la investigación y diagnóstico del cáncer”. “La secuencia del genoma humano se hará pública hoy y quedará accesible para toda la comunidad científica internacional. El proyecto público liderado por el Gobierno de Estados Unidos y varios europeos introducirá toda la información en una base de datos de acceso gratuito. Por el contrario, Celera obligará a empresas farmacéuticas y a las instituciones académicas a firmar un contrato de suscripción millonario”. Tras su anuncio, el desciframiento continúa siendo una de las noticias principales del momento9. “«Hemos aprendido a leer el libro de la vida», dice la televisión, la radio, los periódicos. Pero sólo hemos descifrado un alfabeto. Aún no podemos identificar palabras, conceptos, ideas; queda mucho para que podamos entender frases, párrafos, capítulos del folleto de instrucciones con el que la vida empieza a distinguirse del barro y la piedra de Rosetta del basalto garabateado. Todo un mundo de esperanzas se abre a largo plazo sin más límites que la fe ni más fronteras que las éticas”. “Llegará un día, seguramente no lejano, en que eso que se ha venido en llamar el mapa de la vida se conocerá en todos sus detalles, con lo que la revolución en la Medicina y la Bioquímica habrá estallado tarea científica y aún continúan sin un centro de investigación genómica”. 9 Se trata de “uno de esos acontecimientos que trascienden el campo informativo para entrar con todos los honores en el terreno de la historia”. Se le concede, por tato, una importancia tal que el propio periódico dedica una de las noticias a informar a sus lectores sobre la cobertura informativa permanente que le dedica en su página web. En ella ofrece la posibilidad de “conocer las últimas noticias relacionadas con el desarrollo de las investigaciones, hacerse una idea más detallada sobre este avance científico y su significado, consultar la cronología completa de la investigación y saber cuáles son sus principales objetivos para los próximos meses y años, así como las futuras aplicaciones prácticas del descubrimiento científico”.

Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.

 

81E N E R O

2 0 1 2

del todo: será posible conjurar todas las dolencias hereditarias y muchas que no lo son; la terapéutica será a la carta, individualizada y a la medida del genoma de cada cual; se conocerán las propensiones de cada individuo a contraer unos males con preferencia sobre otros, etcétera”. La noticia se define como “una buena nueva, quizás uno de los mayores logros conseguidos por la humanidad: el acceso al libro de la vida de la especie humana mediante la lectura completa de nuestro genoma. Una obra casi titánica, comparada con la llegada del hombre a la luna, pero quizás con unas repercusiones más directas para los humanos. La información obtenida es fundamental para mejorar nuestra calidad de vida, prioridad fundamental según figura en los barómetros de consultas sociológicas”. Todo no son, sin embargo, buenas noticias. Los enfrentamientos entre Celera y el proyecto público se mantienen. “La aparente concordia entre la empresa Celera y el consorcio público internacional durante las semanas previas al histórico anuncio era sólo un espejismo… La tensión entre estos dos grupos rivales resurgió finalmente en las distintas conferencias de prensa celebradas simultáneamente en París, Tokio, Washington, Berlín y Londres, para explicar el alcance del desciframiento del «libro de la vida»”. De hecho, alcanza tal intensidad que “la euforia de este momento histórico se vio empañada por la tensión existente entre ambos grupos, ya que Celera se opone a que la totalidad de la comunidad científica pueda hacer uso de tan valiosos datos”. “Los dos equipos científicos rivales llegaron a cuestionar la calidad de sus diferentes borradores” reza uno de los titulares. 2002-2010: LA INVESTIGACIÓN CONTINÚA La secuenciación y el ensamblaje del genoma humano ya han sido realizados. La anotación, en la que “los científicos deben determinar en la secuencia dónde están situados los genes y qué funciones realizan”, “es la parte más compleja” y está aún en proceso. A lo largo de estos años la información relativa al Proyecto Genoma Humano sigue siendo objeto de noticia. Es, incluso, noticia de portada en ocho ocasiones. La orientación de las mismas sigue consistiendo en destacar la importancia de la información obtenida con el Proyecto, así como los descubrimientos y avances en los que se trabaja y que se van produciendo. Se insiste, no obstante, que aún queda un largo camino por recorrer. Tal y como se reconoce en Octubre de 2006 a propósito del desarrollo por parte de un grupo de científicos (de la Universidad de Duke en EEUU) de un “test que predice con un 80% de fiabilidad cuál es la quimioterapia más adecuada, según el perfil genético del tumor”; “la información del genoma humano abrió una nueva era de fantásticas promesas para el conocimiento de la biología de nuestra especie y el tratamiento de sus enfermedades. Algunos avances tardarán décadas en llegar; otros ya han empezado a demostrar la utilidad de ese maravilloso libro de instrucciones que es el mapa del genoma humano. El diagnóstico precoz de enfermedades, gracias a las pruebas de detección genética, han sido la aplicación más inmediata. Además de detectar el riesgo de padecer una determinada enfermedad, el genoma será la base de las próximas generaciones de medicamentos que se adaptarán al perfil genético de cada enfermo, reduciendo los efectos secundarios y mejorando la eficacia. En el caso del cáncer, el poder elegir la quimioterapia más sensible a cada tumor ahorrará costes y evitará la pérdida de un tiempo que en un enfermo oncológico resulta precioso”. La imagen que la prensa escrita ha ofrecido del Proyecto Genoma Humano (a través de las aproximadamente doscientas noticias que hasta el 1 de Enero de 2011 sobre él ha publicado10) ha sido, tal y como hemos pretendido reflejar con aquellas que hemos seleccionado; la imagen de un proyecto de búsqueda del “santo grial del ser humano”, de comprensión del código de la vida “para el bien de la humanidad”…; de “obra casi titánica, comparada con la llegada del hombre a la luna, pero quizás con unas repercusiones más directas para los humanos”, etc. De un proyecto inicialmente público que una empresa privada logra desarrollar con un margen de tiempo mucho menor. De un proyecto que constituye el germen de problemas éticos y jurídicos. Polémico, además, en tanto fuente de información transformable en cuantiosos beneficios económicos. Transformable en beneficios económicos dados sus prometedores efectos en la prevención, cura y tratamiento de enfermedades. Efectos que, no obstante, si bien en un principio se presentaban como fácilmente derivables de su consecución, hoy se considera

10 La búsqueda de noticias relacionadas con el rótulo “Proyecto Genoma Humano” en la hemeroteca de ABC arroja 203 resultados. Debe tenerse en cuenta, no obstante, que este número no tiene porqué coincidir exactamente con el número de noticias en las que se hace alusión al Proyecto pues puede ocurrir que una misma noticia se desarrolle en varias páginas y de lugar, por tanto, a dos o más resultados. Además, no siempre que se tratan cuestiones relativas al Proyecto aparece éste mencionado.

El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil

 

82 E N E R O

2 0 1 2

que, aún se harán esperar. Se trata de un “hito de la ciencia principio de una revolución biomédica que puede tardar décadas en llegar”, “transcurrirán décadas de gran esfuerzo científico y financiero antes de que los beneficios sean tangibles”, “hay mucha tela que cortar aún”. Ésta es, a nuestro juicio, la imagen que del Proyecto Genoma Humano la prensa escrita ha presentado y, por consiguiente, la concepción común sobre el mismo de la “ciudadanía media” española. Éste es el Proyecto Genoma Humano para la escrita, para el “ciudadano medio”.

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

83E N E R O

2 0 1 2

La evolución del concepto de gen. Biología, ideología y sociobiología. Juan Pedro Canteras Zubieta1                    

       Resumen  En  este  ensayo,  trataré de  explicar  cómo  se ha  formado  el concepto del gen,  el  recorrido que hasta él ha  llevado y  el estatuto  ontológico que  hoy  quepa  atribuirle.  Primero  ello habrá  que  explicar,  aunque  sea  brevemente,  el  origen científico del concepto, para luego poder dar cuenta de  sus posteriores  desarrollos.  En  este  camino  encontraremos  la influencia  de  elementos  diversos,  desde  la  evolución instrumental y conceptual de  la biología hasta  ideologías e intereses políticos. Creo poder repartir ese desarrollo en tres partes:  (A)  Una  primera  referida  al  origen  científico  del concepto,  (B)una  segunda  que  caracterizaremos  de ideológica,  y  (C)una  tercera  protagonizada  por  la sociobiología.                            

1 Juan Pedro Canteras Zubieta. Nacido en Santander en 1988, donde estudió el bachillerato de ciencias sociales en el IES La Marina. Actualmente cursa 5º de Filosofía en la Universidad de Oviedo.

                  

 

 

 

 

 

 

 

 

 

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

85E N E R O

2 0 1 2

La evolución del concepto de gen. Biología, ideología y sociobiología. Juan Pedro Canteras Zubieta2                     

***

A. En un principio, el de gen es un concepto que deberíamos situar en el campo de la biología. Así, las

definiciones de manuales académicos y enciclopedias comunes son de este tipo:

“Gen: Unidad fundamental, fisica y funcional, de la herencia, que transmite información de una generación

a la siguiente; tramos de DNA compuesto de una región que se transcribe y una secuencia reguladora que

hace posible la transcripción”3

Si buscamos la entrada correspondiente en Wikipedia, encontramos la siguiente definición.

“Un gen es una secuencia lineal organizada de nucleótidos en la molécula de ADN (o ARN en el caso de

algunos virus), que contiene la información necesaria para la síntesis de una macromolécula con función

celular específica, normalmente proteínas pero también ARNm, ARNry ARNt.”

El gen aparecerá aquí en constelación con otros conceptos del tipo de nucleótido, codón, cromosoma,

secuenciación, síntesis proteica… Sin embargo, pronto descubrimos que este tipo de apariciones del concepto no es

el único, ni siquiera el más abundante. Así, por ejemplo, los genes aparecen en la actualidad en contextos no

exclusivamente biológicos, sino psicológicos (“genes egoístas”4), filosóficos (genes morales), sexuales (“genes

homosexuales”), o incluso teológicos (los genes como el “lenguaje de Dios”5). Es por ello que cabe preguntarse qué

tipo de entidad es el gen, y ello de forma diferente a la pregunta por el fémur o por el glóbulo rojo. Responder a la

pregunta por el fémur será indudablemente trabajo del biólogo o de su hermano práctico, el médico. Pero, ¿acaso el

biólogo tiene algún privilegio para hablar del egoísmo, de la homosexualidad o de Dios? Si, como se ha dicho en no

pocas ocasiones, los genes son el lenguaje de Dios, ¿acaso el teólogo no podrá reclamar esta entidad como

perteneciente a su especialidad, a la teología?

Pese a esta pluralidad de relaciones en las que los genes parecen estar hoy presentes, pese la infinidad de

2 Juan Pedro Canteras Zubieta. Nacido en Santander en 1988, donde estudió el bachillerato de ciencias sociales en el IES La Marina. Actualmente cursa 5º de Filosofía en la Universidad de Oviedo. 3 Anthony Griffiths y colaboradores, Genética moderna, Editorial McGraw Hill – Interamericana, 1999. 4 En el mismo título de la obra de Richard Dawkins “El gen egoísta”, Salvat Ciencia, Barcelona, 2000. 5 En el mismo título del libro de Francis Collins “El lenguaje de Dios” 2006, Temas de hoy, Madrid.

La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta

 

86 E N E R O

2 0 1 2

discursos que los involucran, el origen histórico del concepto pertenece a la biología. No haremos aquí este

recorrido histórico, aunque sí señalaremos algunos de sus hitos para, después, poder dar alguna explicación al

estado de dispersión en que hoy hayamos este concepto. Mencionaré únicamente momentos clave como los

“elementos” de Mendel, los genes de Johannsen o la molécula de ADN de Watson y Crick.

Aunque Mendel acuñó sus famosas leyes antes de la existencia de la misma palabra “gen”, fue él quien,

con cierta base, postuló la existencia de alguna entidad material presente en el organismo que fuera causante de sus

rasgos hereditarios. Las leyes de Mendel informan de que, dentro de una generación, la presencia de algunos rasgos

físicos está repartida entre los individuos de acuerdo a ciertas proporciones que dependen de las características de

sus progenitores. En 1865, Mendel ignoraba las causas que subyacían a estas regularidades fenoménicas, pero

imaginó una entidad responsable, un tipo de minúsculo objeto físico al que llamó “elemente”. Así, se postuló por

vez primera un ente biológico responsable de la herencia, al cual se conocía por sus efectos pero del que nada

positivo podía decirse. Estas características serán, como veremos, una constante en la posterior evolución del

concepto.

El concepto de gen fue acuñado en 1909 por Wilhelm Johannsen, en el contexto de la recuperación de los

estudios mendeliano que se produjo a principios del siglo XX. El término ya contaba con otros antecedentes

(además de los elemente de Mendel): los determinantes de Weismann, los pangenes de De Vires o las gémulas del

mismo Darwin. Precisamente fue la falta de cargas semánticas lo que llevó a Johannsen a escoger esta sencilla y

neutral palabra: “gen”. Para él, los genes seguían siendo unos entes tan hipotéticos como para Mendel lo eran los

elemente. A los genes solo se los conocía ad consequentiam.

Diversos descubrimientos de gran importancia fueron poco a poco acotando la búsqueda. Los genes fueron

denunciando su presencia: primero en el “plasma germinal”, en el núcleo de la célula, después en los cromosomas

y, finalmente, en el ADN. El gran descubrimiento de Watson y Crick, la estructural de la molécula de ADN, pareció

poner a la biología a las puertas de la ya vieja meta: La determinación de qué sean los genes. En su autobiográfica

narración del descubrimiento, Watson nos cuenta la revelación que pasaría a la historia como el “dogma central” de

la biología molecular:

“En la pared sobe mi mesa pegué una hoja de papel en la que se leía ADN→ARN→proteína. Las flechas

no representaban reacciones químicas sino que representaban la transferencia de información genética de

las secuencias de nucleótidos en las moléculas de ADN a las secuencias de aminoácidos en las proteínas.”6

Este fue, posiblemente, el momento en el que la pregunta por el gen estuvo más cerca y a la vez más lejos

de ser respondida. Más cerca, porque ahora se conocía una entidad protagonista en los fenómenos de herencia, de 6 James D. Watson, “La doble hélice”, 2009 (3ª edición), Alianza, Madrid. Pag. 138.

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

87E N E R O

2 0 1 2

estructura determinada y función biológica conocida. Más lejos, porque resultó que no había objeto tal como el gen,

no había ningún conjunto de entidades discretas que pudieran relacionarse término a término con los rasgos

externos hereditarios de un organismo. Sin embargo, el proyecto no se abandonó. Pese a que no hubiese entidades

concretas y diferenciadas, había una cadena que contenía información en un sencillo lenguaje (determinado por

Marshal Nierenberg y Heinrich Mathaei en 1961) que podía ser descifrado. Los genes, al fin, parecían haber sido

encontrados. Estaban en esa cadena de ADN, eran segmentos suyos. Pero obviamente, esta respuesta, lejos de

zanjar el problema, lo multiplicó ¿Qué secuencias contenían genes? ¿Qué secciones de esa cadena son las que

determinan la formación de los rasgos hereditarios del organismo? Lo cierto es que, como los anteriores, tal

concepto de gen ha quedado lejos de ser definitivo. No parece haber una correspondencia término a término entre

diferentes secuencias de la cadena de ADN y los diferentes rasgos hereditarios de los organismos.

En los estrictos límites de la biología molecular, los descubrimientos más recientes parecen alejarnos del

concepto de gen, más que ayudar a esclarecerlo. La investigación científica usa el de gen como un concepto parcial,

fragmentario, referido a contextos de experimentación muy concretos y que, desde luego, no siempre hace

referencia al mismo tipo de entidad. A diferencia de los cromosomas, los codones, las bases o los nucleótido, los

genes son entidades oscuras, más funciones o procesos que objetos; más una herramienta conceptual que una

entidad biológica. No se trata tanto de que el concepto de gen se vacíe de significado o que carezca de referencia; lo

que sucede más bien es que su significado es cada vez más amplio (indeterminado) y sus referencias se

multiplican.

Sin embargo, no cabe duda de que el concepto de gen, al mismo tiempo, goza de una popularidad sin

precedentes. Importado desde el campo de la biología, el gen es reclamado para la explicación de fenómenos

religiosos, éticos, políticos y de todo tipo. Parece que la indeterminación que afecta a este concepto en su campo

científico original, lejos de marginarlo, lo dota de una enorme potencia. Tampoco debemos sorprendernos: cuanto

más indeterminado se halla un concepto, más flexible lo encontramos para introducirlo en discursos que le son

extraños; cuanta mayor es su oscuridad, más misterios podremos alojar en su interior.

Antes de entrar en la naturaleza y causas de esa expansión del concepto (que obviamente hallaremos en

contextos ya no biológicos sino sociológicos…), mencionaré algunas de las investigaciones que están a la base de la

confusión que afecta hoy a este concepto dentro de la biología.

***

El dogma de la biología molecular parece altamente insuficiente. El simple esquema

ADN→ARN→proteína, cuando se observa en funcionamiento, parece retorcerse, cambiar de dirección, involucrar

a entidades imprevistas… Por tanto, por más que haya secuencias en la cadena de ADN que contengan información

La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta

 

88 E N E R O

2 0 1 2

referida a rasgos específicos de los organismos, la conexión entre esos segmentos y los rasgos en cuestión, rara vez

es directa, estable y unívoca. De hecho, predomina ampliamente una relación compleja, que se bifurca, se altera con

el tiempo y se deja influenciar por el entorno del organismo. En los mejores casos, las relaciones entre genes y

caracteres (genotipo y fenotipo) son unidireccionales, y van del fenotipo al genotipo (F(a)→G(a´) pero no

G(a´)→F(a), donde a es un rasgo fenotípico concreto y a´ es su secuencia de nucleótidos correspondiente). Es

decir, en el mejor de los casos, un rasgo fenotípico puede ser indicio seguro de la presencia de una determinada

combinación de nucleótidos, pero la presencia de la combinación no asegura que el organismo presente o vaya a

presentar ese rasgo fenotípico. Es entonces cuando la genética empieza a hablar de probabilidades, predisposiciones

y situaciones favorables. Los casos conocidos de correspondencia unívoca (F(a)↔G(a´)) son muy escasos y, de

hecho, la mayoría ni siquiera se acoge al modelo más débil que hemos descrito más arriba. Por tanto, más que este

esquema:

ADN→ARN→proteína (el dogma central)

el esquema que está funcionando es este otro:

Proteína´

ADN→ARN→ Proteína´´

Proteína´´´

E incluso este:

La falta de “elegancia” de la molécula de ADN, repleta de intrones, bloquea la posibilidad de un esquema

lineal para la genética. La cadena de ADN no prefigura las características del organismo, sencillamente porque por

sí misma no dice nada. Solo posteriores procesos de reconstrucción muy complejos pueden dar sentido biológico a

este compuesto de nucleótidos.

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

89E N E R O

2 0 1 2

Aún más. El sentido de las flechas de aquel esquema puede invertirse, de modo que el ARN que se obtuvo

a partir una secuencia de ADN puede a su vez codificar nuevas secuencias de ADN (modelo de operón de Jaques y

Mond). El dogma de la biología molecular, hoy, se complejiza hasta convertirse en un galimatías no universalizable

y que debe concretarse para cada caso particular (para diferentes secuencias del ADN, para diferentes

transcripciones, para diferentes proteínas, para diferentes momentos de la evolución del organismo…)

Pero entonces, ¿qué gen atribuiremos a cada carácter heredable? Si la acción de los genes depende de otros

múltiples factores cuya complejidad arroja esquemas de este tipo, cómo asignar a un gen, a una secuencia de

nucleótidos, un carácter fenotípico concreto. Es más, esta situación nos pone ante un problema mayor: Si el gen es,

desde los orígenes de su acuñación hasta nuestros días, el agente causal de los rasgos hereditarios, en qué entidad

física deberemos localizarlo ¿En la secuencia del ADN o en la de ARN? ¿O en la transcripción o en el ARN

maduro? ¿En las simples secuencias o en combinaciones de secuencias transcriptoras con sus correspondientes

secuencias reguladoras?¿O acaso hay que localizarlo en una pluralidad de secuencias que se codeterminan

mutuamente, que dependen de factores ambientales y cuyas relaciones no son estables en el tiempo? Pero entonces

el concepto de gen se halla hoy más indeterminado que nunca. El dogma central de la biología molecular, aquél

sencillo esquema lineal que podía recorrerse en ambos sentidos, se desvanece y se mantiene únicamente como una

simplísima idealización que apenas conserva su valor pedagógico. Junto con el dogma central, la esperanza de

encontrar entidades localizadas y discretas causantes de los rasgos hereditarios (los genes), también se desvanece.

Esta amplísima complejidad en el camino que va del genotipo al fenotipo y viceversa, se pone de manifiesto en la

investigación con patrones de polimorfismos de longitud de de fragmentos de restricción (RFLPs). Estas

investigaciones están dedicadas, generalmente, a la búsqueda de secuencias concretas de ADN que estén asociadas

a enfermedades. Con enorme frecuencia, lo que sucede es que la enfermedad en cuestión aparece como asociada, no

a una, sino a distintas secuencias de nucleótidos, dispersas en los cromosomas. Pero además, una vez localizadas

estas secuencias, es habitual que aparezcan algunos individuos con los patrones de RFLP que las contienen, pero

que no muestran la enfermedad que supuestamente tales secuencias llevaban asociada. Esto muestra que el camino

de los nucleótidos a los caracteres, de un genotipo a un fenotipo, no es simple ni directo y que no es único. La razón

es obvia: en el recorrido de ese camino hay toda una pluralidad de otros entes y relaciones igualmente

determinantes. Pero entonces ¿habrá algo a lo que estrictamente podamos llamar gen en sentido clásico? ¿Un ente

biológico al que unívocamente y en cualquier contexto de investigación podamos señalar como un objeto bien

definido? Parece que estos objetos se desvanecen. La función atribuida al gen hay que ponerla en procesos

complejos, que involucran a múltiples entes y que sencillamente no pueden reducirse a la cadena de ADN ni a

fragmentos suyos. El concepto de gen, de hacer referencia a algo, apunta no a un objeto o entidad, sino más bien a

un conjunto de relaciones entre otros objetos, estos sí, bien definidos (cromosomas, nucleótidos, encimas,

ribosomas…).

La pregunta que debemos responder ahora es la siguiente: ¿Por qué un concepto que dentro de la ciencia

La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta

 

90 E N E R O

2 0 1 2

que lo gestó es tan débil, ha cobrado en otros ámbitos semejante fuerza? Como he intentado demostrar, no hay nada

en los estrictos límites de la biología o en la bioquímica que dé razón de ello. Es más bien en el contexto

sociológico donde encontraremos alguna respuesta, lo cual pondrá en evidencia las constitutivas directrices

sociológicas del conocimiento científico.

***

B. Comenzamos diciendo que, si bien el concepto de gen se gestó en el campo de la biología, durante el

siglo XX ha ido conquistando nichos diferentes. Estos pueden ir desde la filosofía (genes morales) hasta la teología

(los genes como un “lenguaje de Dios”). No pertenece a las ciencias la propiedad de abarcar la realidad toda. Las

ciencias más bien se caracterizan por restringirse a ámbitos concretos del mundo, los cuales van descubriendo y, a

la vez, construyendo. La física construye verdades de la máxima solidez, pero poco puede decir sobre fenómenos

como, pongamos por caso, una crisis financiera. La química es una ciencia de perfecta consolidación, pero no podrá

decir nada relevante sobre las virtudes artísticas de una pintura. Pertenece más bien a otro tipo de conocimientos la

característica de ser totalizadores. Quizá pudiéramos decir, sin tiempo para mayores explicaciones, que las formas

más comunes de conocimientos totalizadores son la religión, la ideología y la filosofía. La filosofía puede ser

filosofía del conocimiento, del arte, de la ciencia; filosofía política, moral… Su ámbito abarca cualquier otro ámbito

posible. Algo semejante ocurre con la ideología: si una ideología es lo suficientemente potente, se pronunciará

sobre cualquier realidad a la que se enfrente (ciencia, arte, moral...) La religión, por su parte, pretende organizar no

solo este mundo nuestro, sino también otros mundos del más allá. La religión es la instancia totalizadora por

excelencia.

Pero entonces, porqué ciencias como la biología (especialmente en su vertiente genética) tienden a

conquistar ámbitos ajenos al suyo, mostrando una verdadera voluntad de totalización. Argumentos y conceptos de la

biología son aducidos para explicar fenómenos que van desde la genialidad de un artista hasta la violencia desatada

en la guerra. Pero entonces, ¿no sucederá que la biología esta, a partir de ese momento, abandonando su forma

científica y adoptando algunas de aquellas formas totalizadoras que he propuesto? ¿Acaso la biología este

presentándosenos, en algunos discursos, más que como ciencia, como ideología, filosofía o religión?

No hay aquí espacio para establecer como se debiera las diferencias y relaciones entre religión, filosofía e

ideología. Baste con decir que este discurso pseudobiológico protagonizado por los genes no es una filosofía (pues

carece del criticismo y sistematismo o método que a esta caracterizan). Desde luego, no es ninguna religión, pues a

una religión cabría exigirle al menos algún tipo de deidad. Son más bien las características de la ideología las que

informan a este discurso pseudocioentífico. Efectivamente, este ha sido empleado, en no pocas ocasiones, para

explicar y legitimar órdenes políticos y medidas sociales, en un ejercicio claramente ideológico. Intentaré mostrar,

en adelante, cómo los discursos en los que el concepto de gen se involucra están poblados por juicios políticos,

concepciones morales y convicciones sociales. Es decir, intentaré mostrar que la dispersión conceptual del gen

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

91E N E R O

2 0 1 2

posee directrices ideológicas.

La ideologización de la biología (ya ejercida en el darwinismo social) no es exclusiva de la genética, pero

la genética ha multiplicado y fortalecido este fenómeno. El concepto de gen posee virtudes que lo dotan de una

gran capacidad para introducirse en ciertos discursos ideológicos. La ideología concreta que acoge favorablemente

los conceptos y argumentos de la genética es el individualismo liberal, la ideología del capitalismo más primitivo,

basada en la desigualdad natural de los hombres y en las virtudes sociales de la competencia. A las nuevas formas

bajo las que este viejo discurso se presenta Richard Lewontin las llama “nueva derecha” (aunque el término

“derecha” quizá no sea el más acertado, pudiendo hablar mejor de “nuevo liberalismo” y, en el límite, de

“anarquismo liberal”). El que se describe aquí (y esto es lo importante) es un camino de ida y vuelta: El discurso

ideológico no solo toma de la biología ciertos argumentos y conceptos, sino que también opera sobre ellos, los

manipula y transforma, y los devuelve marcados con su impronta.

El mejor ejemplo de esto lo ofrecen los populares estudios que nos informan sobre ciertas determinaciones

genéticas o hereditarias de la conducta. Como vimos más arriba, los biólogos se encuentran con grandes problemas

a la hora de localizar segmentos de cromosomas que puedan ser propiamente llamados causantes de enfermedades

(o de otros rasgos estrictamente fisiológicos). Resulta paradójico que, siendo esto así, algunos investigadores no se

arredren a la hora de señalar genes causantes de realidades tan complejas como la homosexualidad o la conducta

criminal. Si la búsqueda de genes causantes de rasgos fisiológicos suele acabar en fracaso, la idea de un gen de la

violencia o de la inteligencia resulta ingenua e incluso ridícula.

Profundicemos en este discurso: Hablar de la conducta con pretensiones de cientificidad tiene, desde un

comienzo, serios problemas. Conductas hay de todo tipo, pero ¿de qué conductas hablan los genetistas? ¿De las

instintivas, de las etológicas, de las psicológicas, de las culturales…? Un breve repaso a la prensa más divulgativa

parece indicar que la selección de estas conductas responde a criterios azarosos o inexistentes. Pero a poca atención

que pongamos en ello descubrimos la presencia de constantes y recurrencias en los temas y el tratamiento. Resulta

sorprendente que las conductas que más denuncian su componente genético o hereditario aparentan ser el

alcoholismo, el tabaquismo, la homosexualidad, la criminalidad, la inteligencia... Se trata de un fiel reflejo de

nuestras obsesiones; y no de las obsesiones de la humanidad, sino de las obsesiones de nuestra sociedad occidental

moderna (especialmente la de EEUU, de donde provienen tales estudios en su mayoría). No hay probablemente

mejor ejemplo que este para mostrar la impronta con que los componentes sociales dejan marcadas a las

investigaciones científicas. Como dice Lewontin:

“Los europeos leen de izquierda a derecha, los semitas de derecha a izquierda y muchos asiáticos de arriba

abajo, y nadie ha sugerido que estas sean características raciales hereditarias. Sin embargo, caracteres

como la violencia, la deshonestidad o la inteligencia a menudo se han considerado hereditarios y asociados

La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta

 

92 E N E R O

2 0 1 2

a raza”7

Una de estas conductas a las que se buscó un determinante genético no hace muchos años fue la conducta

criminal, profusamente estudiada en la década de los 60 y hasta los 90. Uno de los supuestos descubrimientos,

descartado posteriormente por estudios más exhaustivos, fue el de la asociación entre las conductas criminales y la

anomalía cromosómica XYY. La anomalía en cuestión consiste en que un espermatozoide masculino (normalmente

XY) posee un cromosoma Y adicional (XYY), de modo que cuando fecunda a un óvulo, el embrión resultante

posee en su genoma un cromosoma Y adicional. Pues bien, las asociaciones que llevaban a considerar a la anomalía

XYY causante de la violencia criminal eran las siguientes: Puesto que la violencia es un eminente atributo

masculino y puesto que una de las especificidades masculinas más ilustres es la segregación de testosterona; la

testosterona es, de alguna manera, causante de la violencia. Puesto que las especificidades biológicas masculinas

se localizan en el cromosoma Y, la presencia de un cromosoma Y adicional produciría un aumento de testosterona

y, así, de tendencias violentas. Por su parte, la conducta criminal es conducta agresiva, por lo que un aumento

biológicamente condicionado de impulsos agresivos causa o favorece la criminalidad. No hace falta señalar la

presencia de contenidos ideológicos en esta argumentación. Probablemente, la mayor merma en la pretendida

cientificidad de la argumentación no sea la tosca caracterización de la masculinidad, sino el intento de

naturalización de un concepto histórico-cultural (jurídico): el de criminalidad o conducta criminal. Qué sea un

crimen y qué no depende de la jurisdicción desde la que se valora esa conducta. Un acto violento e incluso

homicida puede ser delictivo (si, por ejemplo, tiene el fin del robo) o puede ser heroico (como cuando el héroe de

una novela acaba con el villano) Un acto violento puede incluso convertirse en deber profesional y cívico amparado

por la ley (como en ciertas acciones policiales o militares). Por tanto, hablar desde la biología del crimen o de la

conducta criminal constituye un fundamental error de nivel o de categoría. Incluso si la testosterona fuese una

causante de actos violentos (lo cual está por demostrar), ello no nos diría nada sobre la criminalidad, pues la

testosterona estaría involucrada tanto en los actos de un militar que cumple las órdenes de un gobierno, como en los

de un criminal condenado a muerte por ese mismo gobierno. No se trata solo de que la criminalidad no tenga, de

hecho, condicionantes biológicos; se trata de que no puede tenerlos por la propia naturaleza de su concepto. Entre

las conductas histórico-culturales y los elementos biológicos en ella involucrados hay un cambio de escala que

bloquea la posibilidad del reduccionismo pangenetista. Podemos decir que ello impide, al menos para la crítica

filosófica, la expansión del concepto de gen hacia aquellos campos.

En buena medida, el éxito de estas publicaciones proviene, como dijimos, de nuestras propias obsesiones.

Sus objetos de estudio son los puntos calientes de nuestra sociedad. No resulta extraño que esta temática capte la

atención del público y, así, de los editores. Pero probablemente haya algo más. Si la criminalidad o el alcoholismo

son problemas biológicos y no sociales, las administraciones políticas cuentan con una exculpación inapelable ante

ciertas situaciones de las que, de otra manera, serían responsables. Al fin y al cabo, más allá de las políticas que las 7 R. C. Lewontin, “No está en los genes”, 1987, Crítica, Barcelona. Pag. 165.

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

93E N E R O

2 0 1 2

instituciones adopten siempre latirá una terca naturaleza humana con sus virtudes y sus defectos. La ideología que

estos estudios promueven no incomoda en absoluto al poder, y por ello no resulta extraño que la investigación en

materia genética cuente con semejantes desembolsos por parte de gobiernos como el de EEUU. El discurso del

reduccionismo genético no es contrario a la ideología más liberal y, de hecho, le brinda un fuerte asidero ideológico

en determinadas situaciones. En las argumentaciones del determinismo genético, la importancia del entorno y de los

medios a disposición de los individuos queda relegada a un segundo plano y, así, las administraciones liberadas de

responsabilidad.

***

C. Esta ideología que tan exitosamente ha arraigado en occidente y muy especialmente en EEUU, no se ha

limitado a extrapolar conceptos y argumentaciones biológicas a campos sociológicos, políticos o jurídicos, sino que

hoy se halla sumida en un gran proceso de sistematización y escolastización. Me estoy refiriendo al proyecto de la

sociobiología, autoconcebido él mismo como “la nueva síntesis”. Así, desde E.O.Wilson hasta Steven Pinker,

muchos autores han tratado de articular un concepto de naturaleza humana en claves genéticas. La expansión del

campo biológico pretende ser aquí absoluta, hasta integrar el concepto del gen en todo aspecto humano posible. Las

bases de este proyecto están claras: El hombre es un animal más y como tal ha sido moldeado por la selección

natural. Esta selección ha operado como una selección de los genes óptimos, que son los que poseían los

individuos mejor adaptados y que más se han reproducido. Los genes más adaptativos han ido aumentando su

presencia generación tras generación y los genomas del presente son el resultado de ese proceso. La historia

cultural humana es insignificante si se mide a escala biológica, por lo que el cambio de condiciones que nuestros

artificios culturales han supuesto no ha podido dar lugar a cambios genéticos significativos.

La conclusión es obvia: Los seres humanos del presente, pese a habitar un mundo completamente

intervenido por la cultura, poseen un organismo adaptado al medio de sus antepasados primitivos. La clave (y la

trampa) de esta argumentación es la de extender la acción de esa selección natural a todo lo humano, desde los

dientes caninos hasta la (supuesta) tendencia supersticiosa o religiosa de nuestra psicología; desde la posición

erguida de la especie hasta el carácter militar de nuestras formas de agrupación política. La sociobiología intenta

sistematizar ese conjunto vago de creencias de apariencia científica que formaban la ideología que hemos descrito

en el punto 2.

Hoy podemos decir que la sociobiología es un conocimiento con un alto grado de organización

institucional, hallándose presente en las universidades y con amplia representación en la oferta de publicaciones

divulgativas. Internamente, tiene también una considerable organización, contando con sus clásicos

(recurrentemente citados), con sus problemas tipo, con un acervo conceptual propio y con sus manuales de

referencia. Pero ¿de qué tipo de conocimiento estamos hablando? Autoconcebida como ciencia, traspasada por

La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta

 

94 E N E R O

2 0 1 2

problemas filosóficos y sospechosa siempre de militancia ideológica, la sociobiología es una disciplina enigmática.

En su centro: el concepto de gen que estamos rastreando.

En la dispersión del concepto de gen que he intentado describir en el punto 2 encontramos algunas

características propias de la ideología. Ahora, esta disciplina sistemática y con pretensiones totalizadoras nos

muestra algunos atributos propios de la filosofía. De hecho, muchos de los problemas a resolver que se pueden

observar en los libros de sociología pertenecen a la tradición filosófica: la libertad humana, la relación entre

hombres y animales, la naturaleza humana, los fundamentos de los códigos morales… Pero si la ideología

biologicista contenía en su seno el fundamental problema de no poder naturalizar los problemas histórico-sociales,

la sociobiología se topará con un problema análogo: el de no poder naturalizar los problemas filosóficos. Y ello

porque, al igual que los problemas sociales, los problemas filosóficos tienen su textura propia y suponen, respecto a

los problemas de la ciencia, un insalvable cambio de escala.

Ningún fragmento de cromosoma, ninguna secuencia de nucleótidos y ningún concepto científico de gen,

pueden cerrar el problema, por ejemplo, de la libertad humana. Las razones son múltiples, pero quizá la más

importante es la de que los problemas filosóficos son problemas conceptuales. Es decir, la propia discusión

filosófica refunde y vuelve a forjar los conceptos clave una y otra vez en cada solución que va ofreciendo. La

libertad humana no es lo mismo para el estoico que para el kantiano. Cuando E.O.Wilson afirma que el hombre

tiene una tendencia biológica a la libertad (razón en la que basa el fin de los modos de producción esclavista8) ¿A

qué libertad se refiere? ¿A la del estoico o a la del kantiano? Acaso Wilson tenga que refundir el concepto,

emprender un análisis de la idea de libertad antes de dar un paso; es decir, hacer filosofía. Pero ello sería tanto

como abandonar sus pretensiones de cientificidad y empirismo. Los sociobiólogos hablan de la libertad humana, e

incluso de la naturaleza humana, como si estos conceptos hicieran referencia a meros objetos del mundo y como si

no hubiese más que comenzar a describirlos. Pero lo cierto es que estos no son objetos del mundo, sino conceptos

filosóficos que solo cobran sentido en relación con otros conceptos filosóficos, en el interior de un discurso que no

es ni científico ni empírico.

Por sus pretensiones de constituirse en un saber total y por su estructura sistemática, la sociobiología se

asemeja a la filosofía. Pero para usar la distinción de Gustavo Bueno, se trataría ésta no solo de una filosofía falsa,

sino de una falsa filosofía. Y en el mismo sentido, ante el pretendido carácter científico que esgrime, podría decirse

de esta disciplina que no solo se trata de una ciencia falsa, sino de una falsa ciencia.

La sociobiología ha recibido, en cualquier caso, una acogida espléndida por parte de públicos de lo más

diverso. Es el prestigio de las ciencias naturales lo que quizá esté a la base de este fenómeno. Cada sociedad tiene

más o menos definidos sus criterios de legitimación, sus fuentes de verdad. Si bien en otro tiempo todo discurso 8 Eduard O. Wilson, “Sobre la naturaleza humana”, 1980, Fondo de cultura económica, Mexico. Pags. 120-123.

Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.

 

95E N E R O

2 0 1 2

relevante tuvo que ponerse al amparo de criterios religiosos para poder ser pronunciado, hoy es el modelo científico

el que garantiza la validez de las afirmaciones.

Algunas ciencias del espíritu o ciencias humanas (como la mayoría de la economía o algunas escuelas de

historiadores) emprendieron hace ya mucho tiempo un camino hacia la naturalización, hacia la cuantificación,

medición y matematización de sus discursos. La sociobiología parece haber escogido un atajo más abrupto. En vez

de forzar a la sociología para hacerla pasar por el aro de las ciencias naturales, ha extendido los límites de una

ciencia natural bien consolidada hasta colonizar desde ella campos humanísticos. Dicho de otro modo: La

sociobiología, en vez de naturalizar una ciencia humana ha “humanizado” una ciencia natural. La operación ha sido

un éxito y la recepción social mayor de la esperada por sus propios autores. Esta “nueva síntesis” pronto ha

conquistado las sedes sociales más importantes de producción y difusión de conocimiento, desde la universidad

hasta las editoriales. Pero por más que su cristalización institucional sea cierta, la sociobiología como proyecto

totalizador (la nueva síntesis) está presa de los viejos problemas del reduccionismo. El pangenetismo, bajo esta

nueva formulación (ciertamente más elaborada), denuncia de nuevo sus tensiones internas.

***

En estas páginas he intentado recorrer el despliegue histórico del concepto de gen, desde su origen

biológico hasta sus actuales irrupciones en discursos políticos, morales, jurídicos… Esta tarea acude tanto al

análisis sociológico (pues debe encontrar las sedes sociales donde se gestan los conceptos) como al epistemológico

y gnoseológico (para poder hacer algún análisis de esos conceptos) y entra así en el ámbito de la sociología del

conocimiento. La dimensión filosófica se hace aquí incancelable, si bien nunca se pierde de vista el arraigo

sociológico del problema.

En un primer momento, se describió el estado actual del concepto de gen dentro de la biología, donde lo

encontramos debilitado aunque no impertinente. El concepto de gen se presenta, en la ciencia que lo gestó, como

desdibujado, y parece cobrar sentido pleno solo con referencia a ámbitos de investigación muy concretos. El gen, en

las últimas investigaciones, más que hacer referencia a un objeto físico bien definido parece desplegarse en

relaciones muy complejas, que involucran a una pluralidad de objetos y que nos son, en buena medida,

desconocidas.

A continuación, se describió la aplicación de este concepto a problemas tradicionalmente no biológicos.

Desde los años 60 hallamos el concepto de gen, por ejemplo, en la explicación de las conductas sociales. A pesar de

la debilidad que el concepto adquirió en su campo original (y quizá gracias a ello), este mostró gran fecundidad en

discursos sociales, políticos y jurídicos. A este segundo momento de la historia del concepto lo caractericé como

ideológico, por su involucración en justificaciones políticas.

La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta

 

96 E N E R O

2 0 1 2

Finalmente, he creído ver en la fundación de la sociobiología un tercer movimiento del concepto,

consecuencia del anterior pero diferenciable de él. Con esta nueva disciplina, que arranca en los años 80, el

concepto de gen ha sido puesto en el centro de un gran proyecto reduccionista que pretende dar una explicación

científica a todas las dimensiones humanas (religiosas, militares, psicológicas, afectivas...). Este momento del

concepto posee características filosóficas, en tanto que la sociobiología se acoge a cierto sistematismo y quiere

configurarse como saber totalizador. Su autoconcepción cientificista la pone, no obstante, ante los problemas del

reduccionismo de los que no parece poder librarse.

Para concluir, insistiré en la naturaleza de esta evolución que he descrito: No se trata simplemente de que

un concepto científico, gen, sea secuestrado por discursos ideológicos, o por una disciplina reduccionista y

totalizadora. Puesto que el concepto mantiene, a través de sus dispersiones, alguna unidad, el empleo ideológico del

mismo no pasa inadvertido a la ciencia que lo gestó y que lo sigue empleando. Si el concepto de gen recibe un

sesgo ideológico, la biología genética no permanece inmune a esta distorsión. De hecho, si el concepto de gen

ocupa hoy un lugar central en biología, ello no se debe, probablemente, a causas endógenas a la propia ciencia,

sino a todo este proceso exógeno que he intentado organizar. Las ciencias, sin detrimento de su especial estatuto

gnoseológico, son porosas al entorno en que crecen y que las posibilita. De hecho, solo acudiendo a este entorno,

cabe explicar su naturaleza, que por más lógica que se nos presente, no deja de ser material.

BIBLIOGRAFÍA:

FOX KELLER, Evelyn: El siglo del gen, cien años de pensamiento genético (2000), Ediciones Península,

Barcelona, 2002.

LEWONTIN, Richard, ROSE, Steven y J. CAMIN, Leon: No está en los genes, racismo, genética e ideología

(1984), Editorial Crítica, Barcelona, 1987.

HUBBERD, Ruth y WALD, Elijah: El mito del gen (1997), Alianza Editorial, Madrid, 1999.

O.WILSON, Edward: Sobre la naturaleza humana (1979), Fondo de cultura económica, México, 1980.

D. WATSON, James: La doble hélice (1968), Alianza Editorial, Madrid, 2009.

La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez

 

97E N E R O

2 0 1 2

La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia Carlos González Sánchez 

Photograph 51: A case of cooperation and competition in science. This article focuses on the problems and

issues derived from the analysis of the well-known Photograph 51. This analysis will lead us to deal with several

approaches to the photograph, which could be considered the subject matter of study under the scope of varied

disciplines -sociology, gnoseology and gender studies. Taking the concept of symploké as basis for the purpose of

my essay, the multiple connections and disconnections (internally and among these disciplines) will be developed.

El presente trabajo se propone analizar las distintas circunstancias que rodearon y propiciaron el

“descubrimiento” de la doble hélice. Dicha tarea (de desarrollarse en su totalidad) desbordaría las dimensiones

propuestas y exigiría mucho más tiempo y capacidad de la requerida para el mismo; por todo ello, el objetivo del

trabajo va a ser limitado en torno a la foto 51, la célebre foto patrón B de ADN obtenida por Rosalind Franklin en

1952. Esta foto tuvo significativa relevancia (a veces exagerada desde la perspectiva pedagógica) en la consecución

del modelo de doble hélice y la imposición del mismo frente a otros modelos helicoidales, presentes en las posibles

explicaciones de la estructura molecular del ADN en aquel momento.

Como ya he señalado, la atribución de importancia a la Foto 51 resulta, a veces, desmesurada dentro del

proceso de “descubrimiento” de la estructura molecular de doble hélice del ADN, pero esto no debe hacernos perder

el interés en su estudio, sino todo lo contrario. La foto 51 es centro de problemas gnoseológicos, sociológicos e

incluso tema prominente en el análisis de la ciencia dentro del enfoque de los estudios de género: la polémica en

torno al papel de Rosalind Franklin y la marginación que sufriera en la retribución de méritos, tanto a nivel social

como académico (problema que, por cuestión de espacio y objetivos del presente trabajo, solo podremos mencionar

superficialmente, sin poder posicionarnos ante el mismo). Trataré de ejercer, en el máximo de mis posibilidades,

Carlos González Sánchez | La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia

 

98 E N E R O

2 0 1 2

una teoría gnoseológica que sea lo más cercana, dentro de mi bagaje filosófico, a una gnoseología operacionalista y

materialista, la cual se aleja de adecuacionismos, teoreticismos o descripcionismos. En una gnoseología aplicada de

tal modo al caso que nos ocupa, creo que obtendremos unos resultados muy provechosos en el análisis de la

fotografía 51.

Llegados a este punto he de someter a autocrítica, o meramente puntualizar la elección de este

acontecimiento como centro del presente trabajo; esta elección no se debe a una especial consideración de la foto

51, ya sea como un corte o una mayor significación respecto a otra serie de fotografías de la molécula de ADN de

patrón B; tan sólo he usado dicha fotografía como un punto de referencia en torno al cual pueda pivotar y

coordinarse este texto. Por un lado el valor gnoseológico de dicha fotografía ha de ser matizado, tan sólo se

encuentra dentro de una dinámica de ensayo y error, dinámica la cual pertenece a un proceso de acercamiento, de

búsqueda, de evidencia visual que pudiera seleccionar un modelo de estructura helicoidal, en el lado contrario su

valor histórico y sociológico puede ser ensalzado.

Esta fotografía es centro de toda una serie de procesos de cooperación y competencia que tuvieron lugar

alrededor del estudio y “descubrimiento” de la estructura de la doble hélice de ADN. Recelos y alianzas dentro de

una serie de nombres Gosling, Franklin, Wilkins, Watson… que no fueron baladíes en el desarrollo de sus modelos

helicoidales (y que pueden resultar para el investigador de lo más interesante, como si de una novela de espionaje y

contraespionaje se tratara, salvando las distancias, puesto que no nos encontramos ante un ejemplo análogo al de

guerra fría).

Antes de nada centrémonos en la definición y la importancia que le concede una enciclopedia virtual como

Wikipedia a la foto 51: “Foto 51 es el sobrenombre dado a una imagen del ADN obtenida por la técnica de

difracción de rayos X , tomada por Rosalind Franklin en 1952 que supuso una prueba fundamental para identificar

la estructura del ADN. La foto fue tomada por Franklin mientras trabajaba el grupo de Sir John Randall en el King’s

College de Londres.

La ‘X’ en la imagen corresponde al perfil en forma de zig-zag de la hélice. Cuando los rayos X se

proyectan a través de una muestra de ADN, se difractan obteniendo los zigs y los zags alternos de la hélice en

forma de X. El patrón de capas lineadas en la parte inferior de la X muestran la estructura de doble hélice. LA

imagen también facilita el cálculo de las dimensiones del ADN: EL radio de la hélice es de un nanometro, que a

cambio muestra que las bases están dentro de la hélice, y el esqueleto de azúcar-fosfato en el exterior” (Wikipedia

2010, http://en.wikipedia.org/wiki/Photo_51).

Debemos ser precavidos ante tal definición, no sólo por el carácter relativo que tienen los artículos y

definiciones en Wikipedia (por su política abierta y acumulativa es muy vulnerable a cualquier boicot o ataque

La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez

 

99E N E R O

2 0 1 2

vandálico), pese a ello, esta definición nos sirve como definición tipo ante cuestiones científicas, sociológicas o

gnoseológicas en cualquier enciclopedia, donde se hace más hincapié en la anécdota que una explicación interna,

bien estructurada, entre sus artículos.

Dirijamos nuestras miradas ahora hacia a un análisis más exhaustivo de las circunstancias que rodearon la

realización de la fotografía y los motivos que la dotan o no de cierta importancia: “Nos encontramos en la

primavera de 1952, Franklin y Gosling se están dedicando a tomar fotografías de prueba de ADN, el método usado

es breve exposición a 75 % de humedad relativa con la microcámara Phillips. En este periodo también probaron un

nuevo caballete inclinable especial, que les servía para detectar repeticiones de gran angular a lo largo del eje de la

fibra.

El 18 de abril, Franklin se encuentra con una fotografía de una fibra cristalina que mostraba una orientación

doble. […]” (El camino hacia la doble hélice, Pág. 522)

Esta orientación doble se convierte en un primer indicio que lleva a Franklin a cuestionar, frente a Crick y a

Watson en la Royal Society del 1 de mayo, la estructura en hélice del ADN: “sus datos decían que su ADN no era

una hélice” (La doble hélice, Pág. 122).

Resulta paradójico que en los días siguientes a la convención Franklin obtuviera una radiografía de una fibra

que antes había dado como resultado un patrón cristalino, pero que había cambiado hasta dar lugar al patrón

húmedo (patrón B). La consecución de este logro, incluso al 75 % de humedad, fue, relativamente, pasado por alto

por la propia Franklin en este momento. Posiblemente una de esas fotografías obtenidas era la famosa fotografía 51,

una excelente fotografía de patrón B, la misma que posteriormente llegaría hasta las manos de Watson.

¿Pero por qué Franklin y Gosling no abandonaron la postura antihelicoidal después de la obtención de estas

fotografías de patrón B? ¿Es entonces cierto como defendería Wilkins posteriormente (en 1972) que dichas

fotografías fueron un mero encuentro fortuito? Para resolver estas preguntas es de interés los motivos que Olby

aporta para este suceso: “Podría parecer que si la fibra de ADN consta de hélices cilíndricas empaquetadas en

paralelo al eje de la fibra, la localización de puntos en los sectores de la izquierda y la derecha de diagrama defería

confirmar esa simetría radial. Pero cuando Franklin y Gosling empezaron a describir el patrón A, encontraron

ambigüedades que en su momento les condujeron a adoptar una postura antihelicoidal. En abril, se describió un

caso de orientación doble que emplearon para comprobar la fiabilidad de su descripción. La doble orientación en sí

misma no es incompatible con la estructura helicoidal, pero cuando clasificaron los resultados éstos parecían refutar

la supuesta simetrñia radial de las intensidades” (El camino hacia la doble hélice, Pág. 523).

“La argumentación antihélice presentada por Franklin en una reunión de aquellos miembros de nuestro

Carlos González Sánchez | La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia

 

100 E N E R O

2 0 1 2

laboratorio que se ocupaban del ADN, no se basó en la doble orientación, sino en las ideas de que la reflexión hkl

poseían una marcada tendencia a ser más intensas que las reflexiones hkl. Tal como se presentaron los datos, éstos

no podían ser compatibles con una estructura helicoidal” (Wilkins, 1972).

Esto fue debido a que tanto Franklin como Gosling pasaron por alto la posibilidad de que el diagrama de

fibra de moléculas helicoidales dispuestas en paralelo pudiese dar la apariencia de asimetría radial.

Franklin trabajaba con modelos donde se consideraba la existencia de tres hélices distintas de 11 Å de

diámetro que discurrían juntas, con los centros de los grupos de las tres separados entre sí por unos 20 Å. Pero los

datos de Franklin contradecían ese modelo, en lugar de obtener los 11 Å de diámetro obtuvo 13,5 Å. Ciertos

prejuicios antihelicoidales o simplemente problemas para barajar la idea, impidieron que Franklin barajara el

modelo de doble hélice que explicaba un diámetro hipotético de 14 Å.

Todo esto resulta aún más sorprendente al saber que la propia Franklin había escrito ese mismo año: “Los

resultados sugieren una estructura helicoidal [que debe estar muy estrechamente consolidada] que probablemente

contenga 2, 3 o 4 cadenas de ácido nucleico coaxiales por unidad helicoidal y tenga situados los grupos fosfato

cerca del exterior” (Franklin, 1952, Pág. 4). Esta cuestión ya ha sido objeto de múltiples análisis y teorías al

respecto, me adscribo a las posibles razones que de nuevo Olby nos ofrece: “¿Cómo es posible que Franklin se

saliera por esta tangente antihelicoidal en mayo de 1952 cuando había escrito en febrero del mismo año? […]

Franklin era una cristalógrafa estructural profesional que desconfiaba de la conjetura intuitiva y que

pretendía resolver la estructura por métodos directos, es decir, sin introducir supuestos en forma de estructuras

hipotéticas. No estaba en contra de las hélices como tales, sino en contra de asumir hélices cuando los datos, en su

opinión, eran insuficientes. Esta actitud respondía a sus propias inquietudes como investigadora y a su admiración

por Bernal, a cuya conferencia “Consideraciones sobre el estado actual de la estructura de las proteínas”, asistió

Franklin en el marco del Congreso Internacional de Cristalografía de 1951. Las notas que tomó en estas conferencia

de muestran que el mensaje de Bernal le impresionó. Bernal dijo que la aproximación de Pauling consistía en

aplicar los conocimientos químicos a la construcción de estructuras, y después emplearlos datos radiológicos como

elemento de contraste. Este era un enfoque deductivo y especulativo. En las etapas iniciales estaba justificado,

escribía Franklin, “ha llegado el momento de examinar a fondo la evidencia y los supuestos –de ello depende hallar

la solución o una solución”. Bernal contraponía el método deductivo de Pauling al método empírico inductivo de

derivar tipos de cadenas a partir de secciones de Patterson” (El camino hacia la doble hélice, Pág. 528).

Esta escrupulosidad en su actividad investigadora podría suponer (sobre todo para un investigador,

gnoseólogo o sociólogo de corte más especulativo) un grave contratiempo en el desarrollo y posterior aceptación

del modelo de doble hélice. Pero desde una posición gnoseológica, como la que se practica en este trabajo (ni

La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez

 

101E N E R O

2 0 1 2

adecuacionista, ni descripcionista, ni teoreticista) es objeto de análisis y, por qué no decirlo, de alabanza: el

abandono por parte de Franklin de aquella fotografía de la forma B (la fotografía 51), que con tan buen resultado

había obtenido, a favor de centrarse en el estudio de la forma A. Debemos observar lo exhaustivo que podía llegar a

ser el proceso de esta investigación, sólo tras haber agotado todas las vías de investigación y posibilidades de la

forma A, se decidiría volver a la forma B. Una actitud investigadora que responde a ciertos presupuestos

gnoseológicos que funcionan tras de ella (el hecho que sea consciente o no, nos es indiferente).

Dejando a un lado la autojustificación que pudiera dar Franklin a tales acontecimientos, es posible observar

como externalizó estos presupuestos en su conducta: no hipostasió el modelo de doble hélice pese a que una serie

de muestras conseguieran cuadrar de forma óptima bajo dicho modelo; estas muestras conformaban una anomalía y

una distracción respecto al análisis inconcluso del patrón A en el que se hallaban inmersos. “Si A no era helicoidal,

no era nada razonable suponer que B pudiera serlo” (Wilkins, 1972)

Este último punto no está exento de polémica y diversidad de opiniones: que Franklin retomara la forma B

de la obtención de radiografías justo 10 meses después, es visto por muchos como una coincidencia (tan sólo una

semana después de la visita de Watson con el manuscrito de Pauling sobre su modelo helicoidal triple). El propio

Crick y Klug se inclinan por pensar lo contrario, el agotamiento del estudio de la forma A, y no la visita y la

defensa de Pauling de las hélices de ADN, le habría llevado de forma irremediable a retomar el estudio de la forma

B. En mi opinión, ambos factores favorecían una misma decisión, y mostrarlos como una contradicción solo puede

tener un valor psicológico o competitivo, fuera como fuese, el camino ya estaba marcado.

Mientras, al otro lado del Atlántico Pauling desarrollaba un modelo helicoidal de tres hélices, su decisión de

trabajar sobre el ADN en 1952, no sólo se debía al estudio que se estaba realizando en King’s por parte de Franklin,

Goslin o Wilkins entre otros. En opinión de Robert Olby, “Edward Ronwin y su extraordinario trabajo” que

apareció en el Journal of the American Chemical Society en noviembre de 1951, ayudaron en esa decisión.

Para concluir el periplo de la fotografía 51, y la importancia relativa que esta tuvo en el desarrollo del

modelo de doble hélice, acudiré al último y más célebre capítulo de su vida como curso operatorio, previo al cierre

parcial que supuso el “descubrimiento” de la doble hélice dentro de la biología (dando lugar a la bioquímica y a la

biología molecular). Este capítulo no es otro que la visita de Watson a King’s y su visualización de la fotografía 51.

Franklin no ocultaba sus recelos hacia Watson y su modelo helicoidal, celos motivados (entre otras razones)

por el interés de ambos por el trabajo de Corey, y las respuestas desiguales que obtuvieron de este. Por tanto ante la

visita de Watson a King’s fue Wilkins el que secretamente le enseño un excelente patrón de difracción de la forma B

del ADN, posiblemente no fuera otro que el de Franklin.

Carlos González Sánchez | La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia

 

102 E N E R O

2 0 1 2

“Watson ni siquiera conocía la existencia de esta forma de ADN hasta aquel último viernes de enero, aunque

Franklin había notificado su existencia y mostrado una radiografía bastante pobre de la misma en 1951 en presencia

de Watson. Esta fotografía de 1952 ofrecía el ejemplo más sencillo y notable de un patrón de difracción helicoidal

que se había visto nunca. […] No era de extrañar que Watson se quedara “con la boca abierta” y empezar a

“temblarle el pulso” ” (El camino hacia la doble hélice, Pág. 558).

Como hemos analizado, la importancia de una fotografía en concreto por encima de todo un curso de

operaciones: experimentación, cooperación, competencia… puede desviarnos de un asunto de vital importancia. La

fotografía 51, como objeto individualizado ha de verse sometido a una atención historiográfica superior al que

desde la gnoseología o la sociología podría ejercerse. Pese a ello, no podemos pasar por alto la importancia de la

técnica, y en este caso la obtención de radiografías a escalas tan diminutas, para el desarrollo de la ciencia. El

binomio ciencia y tecnología componen una estructura difícilmente separable, y en esta ocasión se ve de nuevo que

no podemos más que realizar una disociación, porque su separación real es imposible. Las circunstancias que

rodean a la obtención de pruebas, o datos en un laboratorio, son fruto de todo un desarrollo técnico que a su vez

puede depender de otras técnicas o ciencias (lo que a veces ha venido a llamarse una distinción entre técnica y

tecnología).

La foto 51, ha sido “bautizada” con nombre y apellidos por su importancia como anécdota, pero la

existencia de fotografías de ADN de patrón B, no es una anécdota, es una necesidad gnoseológica, que posibilitan la

construcción del modelo de doble hélice. La palabra “descubrimiento”, que he entrecomillado durante la totalidad

del presente trabajo, esconde una serie de connotaciones adecuacionistas y descripcionistas con las que se ha de ser

muy cauteloso (pese a todo me veo obligado a usar dicha palabra por no forzar el lenguaje, aunque no sin los

siguientes matices). El uso con el que se ha querido utilizar en el presente ensayo no es otro que el de construcción,

construcción que se obtiene por medio de la coordinación de múltiples cursos operatorios presentes en el momento

de la misma. No estamos tratando de una construcción o creación ex nihilo, los materiales de los que se parte son

producto a su vez de múltiples cursos operatorios. Una estructura red, que sin duda, posibilitó el “descubrimiento”

de la doble hélice, como esta, a su vez, dio lugar al nacimiento de la biología molecular dentro del campo de la

biología. Procesos de regresus y progresus que nos imposibilita dejar de lado estos desarrollos técnicos en el

análisis gnoseológico de los desarrollos científicos.

Por último desde una perspectiva sociológica, puede resultar muy interesante el seguimiento de la

aparición y uso de la fotografía 51. Si desde la gnoseología, el bautizo de dicha fotografía resulta una ceremonia

vacua, pues la importancia de la misma se puede disociar de su concreción, en sociología resulta casi imposible esta

operación: que la fotografía 51 fuera centro de recelos y secretos o de armonía y coordinación, en definitiva de

competencia o cooperación (ya sea entre investigadores, o entre modelos e hipótesis, aunque estos últimos sean

inseparables del investigador que los desarrolla o defiende) es un asunto a tener en cuenta.

La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez

 

103E N E R O

2 0 1 2

Las divergencias que se observan en los estudios, hipótesis y modelos de Watson y Crick, King’s o Pauling

no son casuales. Todos ellos optaron por métodos y campos experimentales distintos que respondían a distintos

propósitos y a su vez dieron lugar a distintas conjeturas respectivamente. Llegados a este punto debemos ser

tajantes, tenemos que negar la simplificación que supone ver sus correspondientes trabajos como: o bien una fuente

de discrepancias y diferencias insalvables, o bien un proceso racional armónico preestablecido. Fue la cooperación

en determinados momentos, al igual que la diversificación en otros, la que posibilitó los avances que se producían

constantemente en el desarrollo de los modelos que intentaban explicar la estructura y la composición del ADN.

Que la fotografía 51 fuera objeto de este tipo de interacciones no puede verse de otra forma. Ni siquiera

para los propios implicados en aquellos acontecimientos está clara la intención de Franklin por ejemplo. ¿Pretendía

ocultar realmente a Watson la fotografía o era consciente de que Wilkins se la iba a mostrar? Las respuesta nos es

ya indiferente, los acontecimientos mandan y el hecho de que King’s compartiese dicha foto con Watson

seguramente facilitó el desarrollo del modelo de la doble hélice.

Para otro momento hemos de posponer el introducirnos en otro tipo de cuestiones, me estoy refiriendo, en

este caso, al debate que suscita este episodio para la teoría de género. Polémicas en torno a Rosalind Franklin y la

retribución de mérito que la ciencia como institución social realiza o no, no pueden analizarse fugazmente,

principalmente porque desbordan y difieren de las pretensiones del presente trabajo. Ello no hace que susciten

menos interés acontecimientos como que no se pudiera entregar el premio Nobel a Franklin (dicho premio no se

puede recibir post-mortem). Pero como ya he apuntado, para este trabajo, eso es harina de otro costal.

Bibligrafía:

Olby, Robert, El camino hacia la doble hélice, Alianza Editorial, 1991, Madrid.

James D. Watson, La doble hélice, Plaza & Janés, 1999.

Bueno, Gustavo, Teoría del cierre categorial, Vols. I-V, Pentalfa, Oviedo, 1991-1993

 

Marina Merino Sabando | Genética de Poblaciones.

 

105E N E R O

2 0 1 2

Genética de poblaciones Marina Merino Sabando1 

             Resumen 

 Aunque  la  genética  de  poblaciones  ha  sido  acusada  de “racista”,  este  trabajo muestra que muchos genetista  como L.L. Cavalli‐Sforza plantean proyectos que van en dirección contraria. El Proyecto Genoma Humano no muestra que  la especie  humana  esté  separada  en  razas,  ni mucho menos que  de  los  datos  genéticos  se  puedan  derivar  planes políticos.  Al  contrario,  lo  único  que  se  puede  reprochar desde  la  sociología  del  conocimiento  a  la  genética  de poblaciones es que su éxito ha  restado  financiación a otros proyectos no menos interesantes.                         

1 Nació en Barcelona en 1988 pero pronto se trasladó a Miranda de Ebro (Burgos), donde además de sus estudios obligatorios, cursó el Bachillerato en la modalidad de Humanidades. Actualmente cursa 5º de Filosofía en la Universidad de Oviedo.

                   Abstract 

 Although population  genetics is  a  discipline  that has  been accused of  ʺracistʺ,    this paper  shows that many geneticists like L.L. Cavalli‐Sforza projects  that  will  arise in  the opposite  direction. The  Human  Genome  Project does  not show  that  the  human  species is  separated into  races, much less  that of  genetic  data may  derive political  plans. In contrast,  the  only  thing you  can blame the  sociology of knowledge  in population  genetics is  that  its  success has reduced funding for other projects not less interesting.                             

 

Marina Merino Sabando | Genética de Poblaciones.

 

107E N E R O

2 0 1 2

Genética de poblaciones Marina Merino Sabando2 

Introducción.

Este trabajo será de carácter informativo, el tema principal es la Genética de Poblaciones como ejemplo

de disciplina centrada en el estudio de los genes humanos, para mostrar la importancia y dificultad de dicha

disciplina veremos tres ejemplos de proyectos, unos ya pasados, aunque con un carácter muy actual, y otros futuros,

con grandes ambiciones y perspectivas. En un primer lugar situamos el Proyecto Genoma Humano, en segundo

lugar el Proyecto de Diversidad del Genoma Humano, y por último, el Proyecto mil genomas.

Genética de Poblaciones.

El estudio de la Genética de Poblaciones comienza por definir que es una población desde una perspectiva

genética. En primer lugar, una población está constituida por individuos de la misma especie, por lo que entre ellos

es posible el intercambio de genes. Podemos definir una población como un conjunto de individuos, de la mima

especie, que comparten o hayan compartido ascendientes, de forma que todos tienen un cierto parentesco, y entre

los cuales hay o pueden realizarse apareamientos. La última parte de esta definición implica que los individuos de

una población comparten un mismo territorio. Si una población se divide en dos grupos de individuos que ocupan

territorios diferentes, de forma que entre los grupos no hay posibilidad de apareamiento, podremos hablar de dos

poblaciones.

Así los miembros de una población por tener ascendientes comunes, tienen entre sí una semejanza

genética mayor que entre individuos de diferentes poblaciones; y por el hecho de aparearse entre sí, comparten

unos mismos genes, un acervo genético común. De ahí que también se pueda definir una población por el conjunto

de los genes de sus individuos.

A lo largo de las generaciones, el individuo muere, es efímero, pero la población de perpetua en sus

descendientes. En realidad, si miramos una población a lo largo del tiempo, lo que se perpetúa son sus genes, los

cuales permanecen aunque cambiando de individuos en cada generación. En definitiva, el estudio de una

población es el estudio de sus genes a lo largo del tiempo.

2 Nació en Barcelona en 1988 pero pronto se trasladó a Miranda de Ebro (Burgos), donde además de sus estudios obligatorios, cursó el Bachillerato en la modalidad de Humanidades. Actualmente cursa 5º de Filosofía en la Universidad de Oviedo.

Genética de Poblaciones | Marina Merino Sabando

 

108 E N E R O

2 0 1 2

Desde una perspectiva genética lo interesante es ver cuál es la composición genética de las poblaciones

(valorando el tipo y frecuencia de los distintos alelos de cada gen), cómo los alelos de diferentes genes se organizan

y distribuyen entre los miembros de la población, y qué cambios ocurren a lo largo del tiempo (la evolución de una

población es simplemente la modificación de su acervo genético examinado en el conjunto de sus individuos).

La experiencia y los conocimientos genéticos nos dicen que es muy improbable que una población

mantenga estables las frecuencias de sus alelos, y la distribución de éstos en los individuos, generación tras

generación. Por una parte porque ocurren mutaciones en el ADN que alteran los genes apareciendo nuevos alelos,

por otra parte, porque no todos los individuos de una población se reproducen, hay siempre una cierta mortalidad y

un elemento de azar que influye en cuántos y cuáles de los individuos llegarán a pasar sus genes a la siguiente

generación.

Si algo ha llamado la atención de los estudiosos de la vida es la amplia diversidad de formas vivientes que

pueblan nuestro planeta, y desde el antiguo hombre ha dedicado sus esfuerzos a clasificar esta diversidad en

especies, géneros, familias, etc., y a entender cómo se genera y cómo se mantiene. También la diversidad puede

observarse entre los individuos de una población, y a niveles de observación muy diferentes. Entre personas, por

ejemplo, encontramos claras diferencias en rasgos faciales, medidas antropométricas, tensión arterial, grupos

sanguíneos, huellas dactilares, tono de voz, etc., que nos permiten identificar cada individuo de entre el conjunto de

la población, incluso diferenciarlo de los individuos con los que más genes tiene en común: padres, hermanos,

hijos.

La diversidad que observamos es fenotípica, y en gran parte es un reflejo de una diversidad genética, esto

es, de la existencia de diferentes composiciones genéticas o genotipos entre los miembros de las poblaciones. La

diversidad genética también se denomina variación genética, y medirla y entender cómo se genera, cómo se

mantiene y cómo evoluciona es el fin primordial de la genética de poblaciones.

La variación genética entre los miembros de una población debe entenderse como que los individuos,

aunque llevan los mismos genes, llevan diferentes alelos en ellos. La variación genética puede estudiarse en niveles

muy diferentes. El más fácil es la diversidad visible, la fenotípica, que nos orienta acerca de la diversidad genética.

Otro tipo de variación genética no es visible, es la denominada variación escondida o criptica que puede

examinarse a nivel de genes o de ADN.

La variación fenotípica visible es la más fácil de observar: los rasgos de la cara, el color de los ojos, el tipo

de pelo, etc., son caracteres visibles que nos informas de una variación genética subyacente. La variación criptica se

utiliza porque en organismos diploides, muchos alelos son recesivos, y en heterocigosis quedan ocultos por el alelo

dominante. Para verlos, es preciso que aparezcan en doble dosis, en homocigosis, una forma de observar esta

Marina Merino Sabando | Genética de Poblaciones.

 

109E N E R O

2 0 1 2

variación oculta es forzar la aparición de homocigotos.

Proyecto Genoma Humano.

El Proyecto Genoma Humano (PGH) fue un proyecto internacional de investigación científica con el

objetivo fundamental de determinar la secuencia de pares de bases químicas que componen el ADN e

identificar y cartografiar los aproximadamente 20.000-25.000 genes del genoma humano desde un punto de

vista físico y funcional.

El genoma humano es la secuencia de ADN de un ser humano. Está dividido en 24 fragmentos, que

conforman los 23 pares de cromosomas distintos de la especie humana. El genoma humano está compuesto por

aproximadamente entre 25000 y 30000 genes distintos. Cada uno de estos genes contiene codificada la información

necesaria para la síntesis de una o varias proteínas (o ARN funcionales, en el caso de los genes ARN). El "genoma"

de cualquier persona (a excepción de los gemelos idénticos y los organismos clonados) es único.

Conocer la secuencia completa del genoma humano puede tener mucha relevancia en cuanto a los estudios

de biomedicina y genética clínica, desarrollando el conocimiento de enfermedades poco estudiadas, nuevas

medicinas y diagnósticos más fiables y rápidos. Sin embargo descubrir toda la secuencia génica de un organismo no

nos permite conocer su fenotipo. Como consecuencia, la ciencia de la genómica no podría hacerse cargo en la

actualidad de todos los problemas éticos y sociales que ya están empezando a ser debatidos. Por eso el PGH

necesita una regulación legislativa relativa al uso del conocimiento de la secuencia genómica, pero no tendría por

qué ser un impedimento en su desarrollo, ya que el saber en sí, es inofensivo.

El debate público que suscitó la idea captó la atención de los responsables políticos, no solo porque el

Proyecto Genoma Humano era un gran reto tecnocientífico, sino por las tecnologías de vanguardia que surgirían,

así como porque el conocimiento obtenido aseguraría la superioridad tecnológica y comercial del país.

En 1984 comenzaron las actividades propias del PGH, coincidiendo con la idea de fundar un instituto para

la secuenciación del genoma humano por parte de Robert Sanshheimerm, en ese momento Rector de la Universidad

de California. De forma independiente el Departamento de Energía de Estados Unidos (DOE) se interesó por el

proyecto, al haber estudiado los efectos que las actividades de sus programas nucleares producían en la genética y

en las mutaciones.

En su comienzo, el Proyecto Genoma Humano, enfrentó a dos clases de científicos: de un lado, los

biólogos moleculares universitarios y del otro, biólogos de institutos de investigación del Instituto Nacional de

Salud, organismo estatal que percibía grandes sumas económicas federales destinadas a la investigación. Si bien el

Genética de Poblaciones | Marina Merino Sabando

 

110 E N E R O

2 0 1 2

enfrentamiento se basó en la preocupación de ambos científicos por la magnitud y los costos de la empresa a llevar

a cabo, existían sobre todo discrepancias para definir las vías más adecuadas a la hora de lograr los objetivos

fijados. Solo debemos observar los 28.2 millones de dólares destinados al periodo 88-89 para ubicarnos

“materialmente”. Por su parte, los Estados Unidos se comprometieron a destinar parte de los fondos económicos del

proyecto al estudio de los aspectos éticos y sociales del PGH.

James Watson asumió en 1988 la dirección ejecutiva de la Investigación del Genoma Humano en el NIH

(Instituto Nacional de Salud). Al asumir el cargo, firmó un acuerdo de cooperación con el DOE mediante el cual

ambas instituciones se ayudarían mutuamente. De esta forma el PGH comenzó con el liderazgo del NIH en lugar

del DOE. El interés internacional por el proyecto creció de forma notable, motivado fundamentalmente por no

quedar por detrás de Estados Unidos en un tema de tanta importancia. Para evitar repeticiones y solapamientos en

los logros, se creó HUGO (Organización del Genoma Humano) encargado de coordinar los trabajos de

investigación.

En 1990 se inauguró definitivamente el Proyecto Genoma Humano calculándose quince años de trabajo.

Sus objetivos principales en una primera etapa eran la elaboración de mapas genéticos y físicos de gran resolución,

mientras se ponían a punto nuevas técnicas de secuenciación, para poder abordar todo el genoma. Se calculó que el

PGH americano necesitaría unos 3000 millones de dólares y terminaría en 2005. En 1993 los fondos públicos

aportaron 170 millones de dólares, mientras que la industria gastó aproximadamente 80 millones. Con el paso de

los años, la inversión privada cobró relevancia y amenazó con adelantar a las financiaciones públicas

En 1994 Craig Venter funda, con un financiamiento mixto, el Instituto para la Investigación Genética

(TIGR) que se dio a conocer públicamente en 1995 con el descubrimiento de la secuencia nucleotídica del primer

organismo completo publicado, la bacteria Haemophilus influenzae con cerca de 1740 genes (1.8 Mb). En mayo de

1998 surgió la primera empresa relacionada con el PGH llamada Celera Genomics. La investigación del proyecto se

convirtió en una carrera frenética en todos los laboratorios relacionados con el tema, ya que se intentaba secuenciar

trozos de cromosomas para rápidamente incorporar sus secuencias a las bases de datos y atribuirse la prioridad de

patentarlas.

El 6 de abril de 2000 se anunció públicamente la terminación del primer borrador del genoma humano

secuenciado que localizaba a los genes dentro de los cromosomas. Los días 15 y 16 de febrero de 2001, las dos

prestigiosas publicaciones científicas americanas, Nature y Science, publicaron la secuenciación definitiva del

Genoma Humano, con un 99,9% de fiabilidad y con un año de antelación a la fecha presupuesta. Sucesivas

secuenciaciones condujeron finalmente al anuncio del genoma esencialmente completo en abril de 2003, dos años

antes de lo previsto. En mayo de 2006 se alcanzó otro hito en la culminación del proyecto al publicarse la secuencia

del último cromosoma humano en la revista Nature.

Marina Merino Sabando | Genética de Poblaciones.

 

111E N E R O

2 0 1 2

Desde el principio de la investigación, se propuso desarrollar el PGH a través de dos vías independientes,

pero relacionadas y ambas esenciales:

Secuenciación: se trataba de averiguar la posición de todos los nucleótidos del genoma (cada una de las

cuatro posibles bases nitrogenadas típicas del ADN).

Cartografía o mapeo genético: consistía en localizar los genes en cada uno de los 23 pares de cromosomas

del ser humano.

El Genoma humano está compuesto por aproximadamente 30.000 genes, cifra bastante próxima a la

mencionada en el borrador del proyecto, publicado en el año 2000, ocasión en la que las genes oscilaban entre

26.000 y 38.000. Otra peculiaridad del PGH es que la cifra de genes humanos es solo dos o tres veces mayor que la

encontrada en el genoma de Drosophila, y cualitativamente hablando, existen genes comunes a los de bacterias y

que no han sido hallados en nuestros ancestros.

Los humanos poseen un número similar de bases nitrogenadas - alrededor de 3 millones y cerca de 3.000

megabases - similar al de otros vertebrados como las ratas e otros que también son afectados.

En estos momentos son una realidad las bases de datos donde se almacena toda la información surgida del

Proyecto Genoma Humano. Si accedemos a Internet podremos conocer libremente aspectos de alto interés en la

comparación entre genomas de distintas especias de animales y plantas. Gracias al uso libre de este conocimiento es

posible determinar la función de los genes, así como averiguar cómo las mutaciones influyen en la síntesis de

proteínas.

Para terminar, se puede afirmar que el objetivo relacionado con el estudio de la ética del PGH es un tema

de gran controversia actual, y ha necesitado de grandes sumas de dinero estatales así como de un importante trabajo

de laboratorios e investigadores. Todo esto ha provocado un deterioro del apoyo a otros proyectos de investigación

no menos importantes, que se han visto muy afectados o incluso cancelados.

Proyecto de Diversidad del Genoma Humano.

Cavalli-Sforza, está impulsando la idea de realizar una investigación destinada a comprender la variación

genética humana y a reconstruir la historia de las poblaciones humanas en los últimos 100.000 años de

nuestra especie. Este Proyecto de Diversidad del Genoma Humano (PDGH) implica una multitud de disciplinas

(genética, arqueología, lingüística, antropología, etc.) para dar cuenta de la evolución reciente de la humanidad,

reconstruir las grandes migraciones de grupos, la distribución de las poblaciones y culturas, etc. Una de las

Genética de Poblaciones | Marina Merino Sabando

 

112 E N E R O

2 0 1 2

estrategias consiste en la toma de muestras de ADN de una serie de poblaciones y etnias, con un posterior estudio

comparativo de polimorfismos moleculares. Se pretende estudiar muestras correspondientes al 10% de las 5000

poblaciones lingüísticas diferenciadas que existen, con el objeto de ver si existen correlaciones (y en su caso, cómo

se han producido) entre la diseminación cultural y la genética. Según sus impulsores, el PDGH dará una rica visión

de la variedad de recursos genéticos de nuestra especie, y junto con los datos del PGH convencional, facilitará la

comprensión del fundamento genético de la susceptibilidad o resistencia a distintas enfermedades, incluidas las

infecciosas, comprender mejor el papel de la selección y el de la deriva genética.

Algunos colectivos y medios de comunicación han lanzado acusaciones de "racismo" contra este Proyecto,

pero para Cavalli-Sforza nada está más lejos de sus propósitos. De hecho, piensa que con él se va a llamar la

atención de las reclamaciones de ciertas tribus para que se les ayude a sobrevivir y conservar sus culturas. Ningún

genético serio actual mantiene la idea de que la especie humana esté separada en razas, ni mucho menos que de los

datos genéticos se puedan derivar planes políticos. Además la propia trayectoria profesional de Cavalli-Sforza

demuestra su compromiso contra el racismo.

Un comité ad hoc de la UNESCO está emitiendo informes para que el PDGH se amolde a una serie de

criterios éticos y sociales. Los principales temas que se están evaluando son:

• Consentimiento informado a los individuos y poblaciones implicados. El PDGH contiene, según los

miembros del comité de la UNESCO, algunas de las medidas más detalladas y sofisticadas que se hayan

propuesto nunca para obtener ese consentimiento informado.

• Comercialización de los posibles resultados de la investigación: la UNESCO recomienda que este tema

forme parte de las cláusulas del consentimiento informado y de acuerdos de cooperación. Es decir, se

prevé que parte de los beneficios económicos reviertan en las comunidades indígenas.

• La financiación debería ser pública y de entidades sin ánimo de lucro. No se debe aceptar la financiación

de empresas, para evitar todo posible conflicto de intereses.

• Eugenesia y racismo. El racismo es una actitud mental, no una consecuencia de ningún dato biológico. Hay

que tomar medidas para evitar que nadie saque conclusiones sociales y políticas de meros datos de

polimorfismos genéticos en las poblaciones humanas.

Proyecto mil genomas.

Este proyecto es una iniciativa sin precedentes para analizar el material genético de mil individuos

anónimos de todo el mundo. El objetivo de esta inmensa base de datos, que estará disponible para la comunidad

científica de manera gratuita a través de Internet, es lograr una fotografía lo más detallada posible de la

variación genética del ser humano.

Marina Merino Sabando | Genética de Poblaciones.

 

113E N E R O

2 0 1 2

Aunque dos individuos comparten el 99% de su material genético, esa pequeña fracción que les separa esconde la

clave de la diversidad humana y podría explicar la propensión de algunas personas a ciertas enfermedades, su

respuesta a determinados fármacos o incluso la reacción de su organismo a factores medioambientales.

La iniciativa de los mil genomas, que se prolongará durante tres años en dos fases diferentes, tiene su

origen en los resultados que ya ha arrojado el trabajo del Consorcio Internacional HapMap, que ha identificado

hasta ahora cien regiones del genoma relacionadas con el riesgo a sufrir enfermedades como la diabetes, la

degeneración macular asociada a la edad, o los tumores de próstata y de mama. Ya no se trata de descifrar el

genoma humano, sino de desvelar las claves que diferencian a un individuo de otro.

Con este nuevo proyecto, anuncian los científicos participantes, se pretende obtener un mapa aún más

detallado de la variabilidad genética humana.

El proyecto, que costará alrededor de 30-50 millones de dólares (entre 20 y 35 millones de euros) consta de

dos fases. En la primera, de un año de duración, se llevarán a cabo tres proyectos piloto que permitirán a los

científicos decidir por dónde empezar a construir su mapa de las diferencias genéticas, de la manera más eficiente

posible y aprovechando al máximo los avances tecnológicos a su alcance. Sólo en la segunda fase del proyecto (ésta

de dos años de duración) se analizará el genoma completo de los 1.000 individuos, a un ritmo nunca visto antes.

El proyecto será financiado mayormente por el Instituto Wellcome Trust Sanger en Hinxton, Inglaterra, el Instituto

Genómico de Pekín, en Shenzhen, China, y el Instituto Nacional de Investigación del Genoma Humano (NHGRI),

uno de los Institutos Nacionales de la Salud (NIH), en Estados Unidos.

Bibliografía.

Genética de las poblaciones humanas, Cavalli-Sforza, Ed. Omega 1981.

Apuntes seminarios de Genética, Pablo Infiesta, 2010.

www.ugr.es

www.elmundo.es

www.solociencia.es

www.wikipedia.es

 

Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.

 

115E N E R O

2 0 1 2

Los cultivos transgénicos: una visión sociológica Anais Fernández Criado1  

             Resumen 

 Los  organismos  modificados  genéticamente  (OMG)  son aquellos  seres  vivos  cuyo  ADN  ha  sido  modificado  por voluntad humana. En este ensayo mostraremos el desarrollo de  los OMG  cultivados para  alimentación, utilizando para dar  coherencia  a  nuestro  estudio  la  Teoría  del Actor‐Red. Así,  nos  preocuparemos  por  detectar  los  actores  sociales implicados, los intereses que se van creando y  las relaciones que  los  unen,  y  veremos  cómo  estos  elementos  van conformando  una  red  cuya  estabilidad  nunca  podrá  estar asegurada.   Palabras clave: OMG, Teoría del Actor‐Red, Sociología.                    

1 Nacida en Avilés en 1988. Diplomada en Magisterio. Actualmente estudia 5º de Filosofía en la Universidad de Oviedo.

                      Abstract  Genetically Modified Organisms  (GMO)  are  beings whose DNA  has  been  alterated  because  of  human  interests.  This essay will try to show how the development of GMO grown for alimentation was by using –in order to give coherence to our study‐  the Actor‐Network Theory. Thus, we will detect the  actors  involved,  the  interests  they  are  creating  and  the relationships established between the actors, and we will see how  those  elements  create  a  network whose  stability  can never be assured.  Key worlds: GMO, Actor‐Network Theory , Sociology.                         

 

Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.

 

117E N E R O

2 0 1 2

Los cultivos transgénicos: una visión sociológica Anais Fernández Criado2  

Introducción. ¿Qué nos proponemos?

En este ensayo desarrollaremos una visión sociológica del fenómeno de los cultivos transgénicos. Para que

nuestro análisis esté mejor organizado seguiremos la teoría del actor red (que designaremos a partir de ahora con

“ANT”, sus siglas inglesas). La ANT posee dos grandes ventajas para la comprensión del tema que nos ocupa. Por

una parte, incluye en el elenco de actores de los que depende la constitución del hecho social a los actores no

humanos. Y por otra parte, enfatiza cómo los actores se esfuerzan por imponer su propia definición del problema

que se está tratando.

Intentaremos que nuestra adhesión a la ANT sea fructífera, incluso antes que rigurosa (si es que cabe

hablar de rigor dentro de una teoría tan amplia). Podría criticársenos que nuestros actores serán colectivos

exageradamente amplios. Pero lo son porque el caso de los transgénicos tiene escala mundial, y nos hemos visto

obligados a escoger entre definir actores muy grandes o definir un número muy grande de actores, y nos ha

parecido más esclarecedor lo primero. En nuestra exposición iremos introduciendo sucesivamente a los diversos

actores. Esto no debe entenderse como un ordenamiento cronológico: somos conscientes de que no se puede

entender a ningún actor al margen de las relaciones que mantiene con todos los demás. Si por el estilo de exposición

en algún momento parecen aislados, esperamos que sea un efecto subsanado al final.

Los transgénicos son seres vivos en cuyo material genético se han introducido secuencias de bases

mediante procedimientos artificiales de laboratorio. El objetivo de realizar esta labor es crear individuos que posean

características diferentes a las que son habituales en la especie a la que pertenecen (llegando incluso a crear

individuos que no pertenecen a ninguna de las especies existentes anteriormente). Las características concretas que

se “implantan” serán unas u otras según los intereses para los que se esté creando ese ser vivo concreto. En la

creación y difusión de los transgénicos entran en juego con muchísima fuerza los factores sociales, que guían el

qué, el cómo y el por qué de los organismos modificados genéticamente (en adelante, OMG).

1. La creación. Actor 1: las empresas de transgénicos.

La empresa responsable del nacimiento del negocio de los vegetales transgénicos fue Monsanto, que

acabaría siendo una de las multinacionales más importantes dedicadas a los OMG y sentando en buena medida las

2 Nacida en Avilés en 1988. Diplomada en Magisterio. Actualmente estudia 5º de Filosofía en la Universidad de Oviedo.

Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado

 

118 E N E R O

2 0 1 2

bases del juego. Monsanto ejemplifica como nadie la postura del que denominaremos “actor 1”: las empresas

creadoras de OMGs.

Monsanto no surgió como empresa biotecnológica. Ya existía anteriormente como fabricante de herbicidas

y de otros productos químicos (fue una de las empresas fabricantes del Agente Naranja utilizado durante la guerra

de Vietnam). En los años anteriores a su avance por la senda de los transgénicos, uno de sus productos estrella era el

herbicida Roundup (a partir de 1976). El Roundup, cuyo principio activo es el glifosato, es capaz de matar a las

plantas porque bloquea las vías por las cuales estas crean los aminoácidos que necesitan para seguir viviendo. Por

supuesto, el Roundup no posee la “inteligencia” necesaria para discriminar entre las plantas que el granjero desea

cultivar y aquellas que quiere aniquilar. Las mata a todas por igual, así que la pericia del cultivador será

indispensable para su éxito.

Monsanto poseía la patente del glifosato, así que ninguna otra empresa podía comercializar este herbicida,

muy utilizado por ser teóricamente menos dañino para los mamíferos que herbicidas anteriores. Las ganancias eran

grandes. Pero las patentes no se otorgan indefinidamente, sino que caducan. La patente del glifosato caducaba en

2001, y partir de entonces el Roundup sería sólo uno más en la pluralidad de glifosatos fabricados por diversas

empresas. La cada vez mayor cercanía de la fecha de caducidad de la patente pudo ser uno de los motivos que

movieron a Monsanto a buscar nuevos campos en los que expandirse. Y crearon vegetales transgénicos, empezando

sus investigaciones con petunias y plantas de tabaco.

2. La permisión. Actor 2: Los Gobiernos.

En 1987 el Gobierno Estadounidense permitió que se sembrasen campos para probar tomates modificados

genéticamente. Los Gobiernos de los diferentes países van a ser nuestro “actor 2”. Aquí vemos que la relación que

mantienen con el actor 1 es de censura y de esperanza. Poseen el poder de estorbar a los intereses del actor 1, pero

también están interesados por sus éxitos. Sus intereses son económicos, como eran los del actor 1, pero no son

únicamente económicos. Está en juego la estabilidad del país, y la mejora o empeoramiento de sus condiciones de

vida.

El actor 1 logró interesar, enrolar y movilizar al actor 2. En 1995, el Gobierno de EEUU permitió a

Monsanto comercializar sus patatas NewLeaf protegidas frente a insectos, su algodón Bollgard protegido frente a

insectos y su soja Roundup Ready protegida frente a… Roundup3.

3 El relato de cómo se logró crear semillas inmunes al glifosato tiene tintes casi novelescos. Los científicos de Monsanto encontraron en una poza de tratamientos residuales tras una planta manufacturera de Roundup un microbio que vivía entre los limos contaminados por este herbicida. Multiplicaron al microbio superviviente y transmitieron su deseado gen. Lo llamativo de este procedimiento es que exigía la previa existencia y éxito del Roundup para la creación de organismos resistentes a él. Seres que no están siendo controlados por el ser humano se

Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.

 

119E N E R O

2 0 1 2

La soja no fue el único producto creado por Monsanto para ser inmune a su herbicida estrella. También

fabricaron colza Roundup Ready, algodón Roundup Ready y maíz Roundup Ready. En ocasiones, esta resistencia al

herbicida se combinaba con resistencia a insectos y otras plagas. No resulta complicado ver hasta qué punto la

maniobra de crear productos inmunes al glifosato era una hábil estrategia. Tanto las ganancias producidas por la

venta de las semillas Roundup Ready como las producidas por la venta del Roundup (único glifosato

comercializable hasta la caducidad de la patente, en 2001) irían a parar a la misma empresa. El círculo se cerraba.

A una empresa le beneficia que el uso de sus productos repercuta en un mayor uso de sus productos. Una

vez introducidos en la mecánica del uso de semillas transgénicas, los agricultores tendrían que seguir inyectando

dinero a la empresa que se las suministró para conseguir aquellos productos claves para mantener la máquina en

funcionamiento. Hablemos ahora de los agricultores.

3. El cultivo. Actor 3: los agricultores

Los intereses de los agricultores (nuestro actor 3) en lo referente a los OMGs no están dados. El actor 1

interesa al actor 3 de una determinada manera para alistarlo y enrolarlo. Los intereses que pone como centrales para

ello son simplificar su oficio y ganar dinero. “En qué consiste ser agricultor” queda redefinido bajo estos

parámetros. Se intenta que para el actor 3 la independencia y la libertad de los granjeros para guardar semillas de

una cosecha para la siguiente y de utilizar en sus campos las técnicas que deseen no sean intereses.

Observemos que la pericia necesaria para desarrollar bien su trabajo se diluye: cuando lo que cultiva son

semillas Roundup Ready, sus conocimientos anteriores sobre la cantidad máxima de Roundup que era posible

utilizar sin dañar su cosecha y la forma adecuada de maximizar su efecto minimizando sus daños se muestran

irrelevantes. “Regar” la cosecha indiscriminadamente con Roundup pasa de ser una práctica torpe e insensata a ser

un procedimiento lícito e incluso deseable. Lo que antes era una cuestión de habilidad es redefinido por el actor 1

como un problema científico, y esto le permite erguirse casi mesiánicamente ante el actor 3. Las compañías

creadoras de alimentos transgénicos meten la siembra en el laboratorio, y luego el laboratorio en la siembra.

Tras el éxito del interesamiento del actor 3 por parte del actor 1, lo que antes dependía de los

conocimientos de los agricultores pasa a depender de productos que el actor 3 tiene que comprar al actor 1, y esto

provoca una mayor dependencia del agricultor respecto de la empresa que le suministra semillas y agroquímicos.

La relación entre el actor 1 y el actor 3 no finaliza con la compra de estos productos por parte del actor 3.

El actor 1 le somete a requerimientos legales que hacen más rentable su negocio. Por ejemplo, prohíbe al actor 3

adaptan a creaciones del ser humano, y este vuelve la vista a las adaptaciones que la naturaleza ha hecho a sus espaldas para crear a partir de ellas nuevos productos técnicos, que indudablemente darán lugar a nuevas adaptaciones, en una selección que sólo en una pequeña medida es selección natural.

Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado

 

120 E N E R O

2 0 1 2

guardar sus semillas de un año para otro (lo que le obliga a comprárselas al actor 1 año tras año, produciéndole

siempre beneficios4). Otro ejemplo claro es cuando Monsanto prohíbe tratar sus recién compradas semillas

Roundup Ready con otro glifosato que el suyo (tras la caducidad de la patente).

Jorge Riechmann (Riechmann, 2000, p. 32) ve en la estrategia utilizada por del actor 1 un intento de

convertir a los transgénicos en una teoría atrincherada, de la que ya no se podría prescindir. Incluso sin llegar a este

punto, está claro que lo que el actor 1 está intentando hacer aquí es estabilizar la red de manera que le resulte

máximamente ventajosa. La dependencia irreversible del actor 3 respecto de sus productos satisfaría plenamente

sus intereses.

4. Una fuerza enfrentada de creación de opinión. Actor 4: los grupos ecologistas

La mención a finales del apartado anterior de Jorge Riechmann nos es útil para introducir en nuestro

esquema a los grupos ecologistas, que serán nuestro actor 4. En esta red sus intereses se oponen a los del actor 1, y

en ciertas ocasiones también al actor 2, considerando que le exige demasiado poco al actor 1 para aprobar sus

productos. A pesar de que en ocasiones no rechaza de pleno los OMGs (podrían llegar a curar enfermedades, por

ejemplo), sí apela al principio de precaución a la hora de tratarlos, y considera que en la actualidad se está actuando

de forma temeraria. El actor 4 presenta estudios que muestran que los OMGs son poco eficientes, peligrosos para la

salud y, ante todo, un negocio que roba poder a la sociedad. En buena medida, este actor se mueve a un nivel

político.

Las críticas ecologistas se dirigen con fuerza contra la noción de “equivalencia sustancial”. Es un concepto

utilizado para valorar los riesgos del OMG frente a los del organismo sin modificar. Para la Administración de

Alimentos y Fármacos de EEUU (que estaría dentro del actor 2, en concreto de la sección estadounidense del actor

2, que fue la que permitió el cultivo de transgénicos en un principio) si tras hacer una comparación de sus

características químicas, si son similares y no se están generando sustancias tóxicas conocidas, se consideran

“genéticamente equivalentes” y no hay motivo para separarlos de los organismos no transgénicos (lo cual beneficia,

o al menos no perjudica, a los agricultores que siembren OMGs en vez de alimentos sin modificar)

4 Una ley se puede incumplir. Para blindarse frente a la posibilidad de que los agricultores incumplan los acuerdos, la Delta and Pine Land Company (una de las compañías de semillas de EEUU) patentó, en 1998, la “Tecnología terminator”, que hace que las semillas sean perfectamente comestibles, pero que no germinen, con lo que no se podrían guardar de una cosecha para la siguiente. La Delta and Pine Land Company fue adquirida poco después por Monsanto. El rechazo del público a la “Tecnología terminator” hizo que en 1999 Monsanto prometiese no utilizar esta tecnología. Pero ya se han registrado al menos 24 patentes de tecnologías con efectos similares a la “terminator” por parte de otras empresas de biotecnología: Astra-Zeneca patentó las “Plantas yonquis”, que sólo pueden crecer si en su medio hay una determinada combinación de elementos químicos; Novartis patentó procedimientos que hacen a las plantas especialmente vulnerables a virus y bacterias de los que normalmente estarían protegidas, y que para sobrevivir necesitan un cóctel químico que la propia Novartis comercializa. Estas tecnologías tienen ventajas claras para el actor 1, pero son poco populares porque chocan con algunos de los argumentos dados por el propio actor 1 para hacer popular y deseable su labor, con el fin de conseguir la aprobación del actor 2 y, sobre todo, del actor 5.

Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.

 

121E N E R O

2 0 1 2

Los ecologistas denuncian que no se haga un seguimiento a largo plazo de los OMGs, para tener

controlados sus riesgos. Para el actor 4, los productos transgénicos serían más similares a un aditivo que a un

producto natural. En este sentido, se oponen a la sección del actor 1 antes mencionada, pero estarían de acuerdo con

los gobiernos de los países europeos que miran con recelo a los alimentos transgénicos.5

El actor 1, que también intenta crear opinión, esgrimía como una de las grandes virtudes de los OMGs que

logran reducir el uso de pesticidas, lo cual repercute favorablemente en el medio ambiente (en una maniobra

complicada que le obliga a admitir que sus propios agroquímicos no son inocuos). Sin embargo, el actor 4 señala

que hacen que el uso de herbicidas, en vez de disminuir, aumente, ya que aumenta la tolerancia de las malas hierbas

hacia ellos por el uso excesivo que se hace de ellos. Si tu huerta tiene semillas modificadas para ser resistentes al

glifosato, puedes regarla con Roundup sin preocuparte por la salud de tu cosecha. Incluso, el actor 1 ha pedido

autorización al actor 2 para que le permitan residuos de herbicidas más altos en los alimentos transgénicos.

Hemos visto que el actor 1, el 2 y el 4 intentaban crear opinión. Al actor 3 también le conviene que la

opinión que se tenga de sus productos sea buena. Centrémonos ahora en aquellos en quienes todos quieren influir y

cuya aprobación todos desean: los consumidores.

5. La segunda compra. Actor 5: los consumidores.

Del consumidor depende el éxito del mecanismo. Si el comprador final tiene miedo al producto y no lo

compra, el actor 3 habrá fracasado y el actor 1 no volverá a venderle sus productos. Los consumidores serán

animales racionales a la par que emocionales. Conscientes de su finitud y vulnerabilidad, no ingerirán nada de lo

que se sospeche que pueda disminuir su esperanza de vida… a menos que tenga muy buen sabor.

En Europa la acogida de los alimentos transgénicos fue muy diferente a la de EEUU. La causa, además de su

acerbo cultural, era el recuerdo muy cercano de la enfermedad de las vacas locas y los pollos con dioxinas, que

habían sensibilizado a la población acerca de los peligros de las técnicas alimentarias descontroladas (en el

Reino Unido el rechazo a los OMGs fue frontal). En algunos países europeos se crearon “conferencias de

ciudadanos”: asambleas de ciudadanos escogidos al azar para mostrar su opinión sobre los alimentos

transgénicos, tras ser informados exhaustivamente sobre el asunto. En Francia, en los años ’90, se celebró una

5 No existe una visión homogénea en Europa acerca del tema de los transgénicos, e incluso dentro de un mismo país la opinión puede variar a lo largo del tiempo (por ejemplo, en Francia). España es el país europeo más favorable a los transgénicos. Sí se puede afirmar que, en términos generales, se los observa con mayor desconfianza que en su país natal (incluso, en los años 90 algunas siembras de transgénicos fueron destruídas por grupos ecologistas). El actor 3 estadounidense que ya estaba cultivando transgénicos, se encontraba con dificultades para exportarlos a Europa, y esto le hacía replantearse su uso de estas tecnologías. Un rechazo unánime y firme de Europa hacia los OMGs podría hacer que en EEUU también dejasen de cultivarse. El gobierno estadounidense presiona a los gobiernos europeos para que acepten los transgénicos. Vemos que dentro del actor 2 se observan discrepancias, y esto no es ni dañino para nuestro análisis ni una consecuencia de la amplitud de los actores. Siempre y cuando un actor sea un colectivo y no un único individuo (situación habitual en los análisis en ANT), podrán existir confrontaciones y choques en su interior, avanzando los interesamientos y enrolamientos a un ritmo distinto.

Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado

 

122 E N E R O

2 0 1 2

que comenzó con un fuerte escepticismo, pesimismo y rechazo por parte de los ciudadanos frente a los OMGs.

En las conclusiones finales, los ciudadanos cedieron en buena medida. Bill Lambrecht retransmite su visión

sobre los intereses de los ciudadanos europeos a la vez que se hace eco de las palabras de uno de estos

ciudadanos, llamado François Rey (Lambrecht, 2003, p.254):

Rey presenta una idea que considero que es crítica en el pensamiento público sobre la ingeniería genética.

- Al final, si mejora el sabor y las cualidades de los vegetales, podríamos estar a favor – dice. Su comentario me

reafirma que la resistencia que detecté en Europa puede superarse si y cuando la industria tenga éxito en la

oferta de productos que beneficien a los consumidores

En un principio, las tecnologías del actor 1 se centraban en convencer al actor 3, que era su cliente en

primer grado. Pero el actor 3 se debe a sus propios clientes, al actor 4

Además de tener en sus manos el éxito económico del producto, en los países democráticos el actor 5

posee una fuerte influencia sobre el actor 2. Las entidades gobernantes tienen que rendir cuentas de sus actos a sus

gobernados. Por supuesto, la influencia va en las dos direcciones: el actor 2 posee la capacidad de tranquilizar y

convencer al actor 5. El que un producto haya sido aprobado por los organismos pertinentes inspira confianza. Sin

embargo, también escuchará al actor 4, si este logra hacerse oír.

La ANT defiende que los intereses de cada uno de los actores implicados se crean por las interrelaciones

que mantiene con los demás actores. Creemos que esto es cierto, pero sólo hasta cierto punto. Hay unos intereses

base que los otros actores no van a querer ni tampoco van a lograr modificar. En el caso del actor 1, este interés es

ganar dinero. En el caso del actor 5, este interés es sobrevivir y disfrutar. Estos intereses se “heredan” del estado de

cosas anterior a la creación de la red y se asumen como reglas del juego, por su gran inercia histórica. Han llegado a

un punto de estabilización tal por la participación de ese mismo actor en otras redes de relaciones que no merece la

pena negociarlo.

6. Los transgénicos: actor protagonista

Hasta ahora, hemos evitado intencionadamente centrar nuestro análisis en el que quizás sea el actante

principal: los alimentos transgénicos. Lo hemos hecho para aprovechar como colofón su fuerza explicativa, que es

mucha aunque pueda parecer insulso. Como al alimento transgénico se le interesa, involucra y moviliza a la fuerza,

esto puede hacernos pensar que está bajo control humano y que el actor humano que más poder posea logrará que

los alimentos transgénicos apoyen incondicionalmente sus intereses. Pero nada más lejos de la realidad.

Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.

 

123E N E R O

2 0 1 2

Hemos visto que la noción de equivalencia sustancial, defendida por la Administración de Alimentos y

Fármacos de EEUU, se esforzaba en igualar a los alimentos transgénicos con los alimentos convencionales. Otros

grupos dudaban seriamente de tal equivalencia sustancial, especialmente los ecologistas, que eran de la opinión de

que se trataba de sustancias peligrosas que deberían ser prohibidas. Uno y otro actor intentaba definir desde su

punto de vista el asunto que se estaba tratando, imponer su visión a los demás actores.

¿Cuál de las dos visiones es la correcta? Es difícil decirlo. Poseemos una gran incertidumbre acerca de las

consecuencias sobre la salud de los alimentos transgénicos. También poseemos incertidumbre acerca de los aditivos

alimentarios, y acerca de los alimentos convencionales. Nuevos alimentos pueden suponer nuevos peligros, o puede

que no. Es muy complicado elaborar una estimación de riesgos adecuada, no hay manera de conseguir datos

suficientes.

El significado de los alimentos transgénicos está siendo constantemente negociado. Se concreta en

polémicas como el debate sobre el etiquetado: ¿se debe indicar en la composición de un producto si se han

empleado OMGs? El no-etiquetado se defiende desde la presuposición de que los transgénicos son equivalentes

sustancialmente a alimentos “naturales”, y el etiquetado desde la creencia de que tal equiparación no es oportuna, o

de que al menos el consumidor debe poder elegir productos no transgénicos.

Al igual que en el caso expuesto por Callon de las vieiras de la Bahía de St. Brieuc, los alimentos

transgénicos (que, en adelante, serán nuestro actor 0) pueden rebelarse contra los intereses de sus explotadores. En

este caso que nos ocupa, tal rebelión tendría un significado profundo: se rebelaría la creación frente al creador, la

incognoscible naturaleza frente a su iluso manejo, la verdad frente a la apariencia que los poderosos intentan

establecer como indiscutible. La fuerza del en-sí se vería a través del para-nosotros por un segundo, inefable pero

nítida, antes de que los demás actores se enfrascasen en una nueva negociación tácita de su significado.

6. Conclusiones

Hemos estado explorando a grandes rasgos las relaciones que unen a los diferentes actores implicados en

el tema de los transgénicos, y los intereses que se van creando durante estas relaciones. Las relaciones conforman

una red tupida, y dependiente de otras redes (como la establecida ante la enfermedad de las vacas locas, que influyó

profundamente en la acogida de los transgénicos en Inglaterra). Cabe preguntarse si la red generada por los cultivos

transgénicos es estable, es decir, si resultaría complicado deshacerla y cambiar el mapa actual de relaciones entre

actores. Nosotros creemos que no es estable, aunque ahora mismo se cultiven y se consuman transgénicos.

Los alimentos transgénicos son los actores que poseen una mayor fuerza para desestabilizar la red, a través

de su relación directa con uno de los intereses innegociables del actor 5: sobrevivir. Supongamos que nos

encontramos en la situación deseada por el actor 1: el actor 2 le permite comercializar sus productos al actor 1 y

Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado

 

124 E N E R O

2 0 1 2

contribuye a crear una buena opinión en el actor 5; el actor 3 ha sido eficazmente interesado y utiliza las técnicas

proporcionadas por el actor 1; el actor 5 está satisfecho ante los OMG y consume los productos que el actor 3 le

proporciona sin importarles que sean transgénicos, considerando exageradas las críticas del actor 4. Aún así, aún en

esta situación aparentemente muy estable, el actor 0 puede enfermar repentina y letalmente a cierto número de

humanos o animales. Esto desestabilizaría completamente la red, pudiendo llegar a invertir la situación hasta tal

punto de que se formase una red opuesta a esta, que chocaría con los intereses del actor 1 en lo referente a los

transgénicos (aunque, en el caso de empresas como Monsanto, podrían seguir obteniendo grandes beneficios a

través de la venta de herbicidas, plaguicidas, fertilizantes y otros agroquímicos).

La red también se puede desestabilizar por otros puntos. Los ecologistas niegan que cultivar plantas

transgénicas sea más rentable para los agricultores que cultivar plantas no modificadas. Si esto es así, o si tras cierto

tiempo esto llega a ser así, el actor 3 se desinteresará, y dejará de comprar semillas al actor 1, volviendo a la

situación en la que estábamos antes de la invención de los transgénicos. Esto podrá suceder, por supuesto, si al actor

5 tolera desapasionadamente los cultivos transgénicos, pero no si el actor 5 los prefiere a los alimentos no

transgénicos (por el “mejor sabor y cualidades de los vegetales”). En caso de que los prefiriese, el actor 3 se vería

presionado por sus clientes para cultivar OMGs.

En nuestro análisis hemos obviado el papel de los intermediarios y de las industrias que procesan los

alimentos, en aras de simplificar en la medida de lo posible un fenómeno tremendamente complejo. En un análisis

más extenso sería interesante incluirlos. Incluso con estas limitaciones, podemos ver que la desestabilización de la

red, al igual que su estabilidad, depende no de un único actor, sino del conjunto entero de las relaciones. Incluso en

el caso de la rebelión del actor 0, la red podría no desestabilizarse si el actor 2 silenciase los problemas, por

ejemplo, o si el actor 5 se hubiese acostumbrado tanto a los transgénicos que considerase que cualquier

inconveniente generado por ellos debería ser tolerado como un mal menor, un riesgo que hay que correr.

La red es capaz de amortiguar los movimientos que se producen en uno de sus nodos, pero a día de hoy, tal

como están establecidas las relaciones, parece menos probable que las rebeliones se amortigüen y más probable que

perturben la red y la modifiquen o disuelvan. Es por eso por lo que no se puede afirmar que la red de los cultivos

transgénicos sea, a día de hoy, una red estable.

Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.

 

125E N E R O

2 0 1 2

7. Bibliografía y webgrafía

ANDERSON, Luke (2001). Transgénicos. Ingeniería genética, alimentos, y nuestro medio ambiente. Gaia, Madrid.

LAMBRECHT, Bill (2003). La guerra de los alimentos transgénicos. RBA, Barcelona.

LATOUR, Bruno (1983). "Give Me a Laboratory and I will Raise the World", en: K. Knorr-Cetina y M. Mulkay

(eds.), Science Observed: Perspectives on the Social Study of Science. Sage, Londres, pp. 141-170.

Consultado desde http://www.bruno-latour.fr/articles/article/12-GIVE%20ME%20A%20LAB.pdf

RIECHMANN, Jorge (2000). Cultivos y alimentos transgénicos. Una guía crítica. Los libros de la catarata, Madrid.

http://www.monsanto.com/whoweare/Pages/monsanto-history.aspx

 

Mikel Rascón Muñóz | Sobre lo que no está en los genes.

 

127E N E R O

2 0 1 2

Sobre lo que no está en los genes                                         Mikel Rascón Muñóz Universidad de Oviedo    A Pablo, por enseñarme que la humildad ha de conservarse

sin que nos pese nuestro carácter.        Resumen  El  determinismo  biológico  de  la  inteligencia  comienza  a escala molecular  con  la  falsa atribución de dos poderes   al ADN, a saber, el poder de autorreproducirse y el poder de actuar por  si mismo. Esta caracterización del ADN  supone una hipóstasis de la célula en la que se privilegia la parte en la que reside la información respecto a la que ejecuta. Es un claro paralelismo  con el prestigio que ostentan  los  trabajos de mayor  actividad y  la  escasa  consideración  social de  los trabajos físico‐manuales. El determinismo biológico de  la  inteligencia ha encontrado su apoyo desde el nacimiento de la Genética moderna en la Teoría Hereditarista de  la  Inteligencia  (T.H.I).La THI surge con  la  intención  supuesta  de  explicar  las  clases  sociales. Posteriormente  se  ha  centrado más  en  la  pregunta  por  la diversidad  humana.  Pero  siempre  ha  tomado  como presupuesto  la  idea  de  que  la  posición  social  está íntimamente ligada con la inteligencia. Esta adoptó la forma de la “inteligencia general” que bajo la medida de los test de C.I.  pareció  ser mensurable.  La  propia metodología  de  la T.H.I.  desmiente  la  posibilidad  de  la  cosificación  de  la inteligencia y destapa su estructura circular. Aún así, hoy en día,    la T.H.I.  tiene gran empuje social y mediático. Hemos analizado dos casos concretos de actualidad tratando de dar nuestra  opinión.  La  comunidad  puede  tener  intereses distintos  a  los  de  la  sociedad  y  debe  revertir  en  esta  de manera que  la  sociedad y  la  ciencia  tengan una  idea de  la inteligencia  más  abierta  ante  los  casos  que  hemos presentado y los que en el futuro puedan presentarse            

                 Abstract  Biological  determinism of  intelligence begins at  the molecular  level with  the  false attribution of  two  branches of the  DNA,  namely,  the  power of  self‐replication and the power  to  act for  himself. This  characterization of  DNA is ahypostasis  of  the cell  in  which a  party is privileged information that  resides onthe running. It  is a clear parallel with the prestige they have more work activity and low status of physical and manual work. Biological  determinism of  intelligence has found support from  the  birth  of  modern  genetics hereditarian theory of intelligence (THI). The THI called up in order to explain the  social  classes. Later  it  has focused  more  on the  question of human  diversity. But  he  has  always   taken   for  granted the idea  that social  position is  closely  linked with intelligence.  This took the form of ʺgeneral intelligenceʺ that under the measure  of   IQ  tests appeared  to  be measurable. Methodology itself T.H.I. denies the  possibility of reification of  intelligence   and  uncover its  circular structure. Still today,  the T.H.I. has  great social  and mediapush. We analyzed  two specific cases currently trying to  give our  opinion. The  community  may  have interests different  from those  of  society and must  be  reversed so that in  this society and  science have  an  idea of intelligence more  open  to the  cases  we  have presented and which may arise in the future              

 

Mikel Rascón Muñóz | Sobre lo que no está en los genes.

 

129E N E R O

2 0 1 2

 

Sobre lo que no está en los genes                                         Mikel Rascón Muñóz Universidad de Oviedo   

A Pablo, por enseñarme que la humildad ha de conservarse sin que nos pese nuestro carácter. Introducción

Asusta pensar los caminos futuros que seguirá la ciencia. Pero en ocasiones este miedo viene propiciado

sólo por el desconocimiento mismo de la materia que estamos tratando. No es extraño, por tanto, que un filósofo

estudie de primera mano el desarrollo de las investigaciones del Proyecto Genoma Humano a fin de evitar que nos

cieguen la vista ciertos prejuicios.

Gracias a la Biología Molecular, la Biología ha sido una de las ciencias más fructíferas en la segunda mitad

del siglo XX. Por contrapartida, como efecto negativo de este éxito, la biología moderna, según el biólogo y

genetista Richard Lewontin, se ha puesto una sotana blanca de científico y ha catequizado a la opinión pública.

Según él, es del todo falsa la justificación del Proyecto Genoma Humano que nombra al ADN como el “santo grial”

de la biología. Algunos biólogos han dado a entender que a partir del ADN podríamos reconstruir a una persona y

que todos los compartimentos y rasgos propios de cada persona vienen determinados por este. Incluso aquellos

autores que no mantienen tan descarnadamente esta opinión, caen reiteradamente en el error de afirmar que el ADN

es usado por la maquinaria de la célula para determinar qué secuencia de aminoácidos ha de formarse dentro de una

proteína, y cuándo, y dónde se ha de hacer la proteína.

Las proteínas de la célula están hechas por otras proteínas y sin esa maquinaria formada de proteínas no se

puede hacer nada. Nosotros heredamos además de genes hechos de ADN, una intrincada estructura de maquinaria

celular formada por proteínas. De igual forma que no podemos entender cómo es o será una persona si no tenemos

en cuenta su educación, su ambiente o el ambiente de la madre o del feto mismo, de igual manera decimos, no

podemos entender la herencia atribuyéndole tanto poder a un sólo componente: el ADN. Esta equivocación

constituye un primer error, ya en la escala celular, que tendrá consecuencias cuando hablemos del organismo o del

ser humano. Esta fe en el ADN denota, según Lewontin, la superioridad del trabajo mental sobre el físico. Los

juicios propios del científico quedan plasmados en la interpretación y difusión mediática de los procesos biológicos,

a pesar de que, los intereses particularistas no deberían entrar en juego en el Proyecto Genoma humano; sobre todo

,si tenemos en cuenta que gran parte de los 90.000 millones de dólares de presupuesto inicial salieron del

contribuyente.

Sobre lo que no está en los genes | Mikel Rascón Muñóz

 

130 E N E R O

2 0 1 2

En la actualidad las polémicas se centran en el asunto de las patentes. La postura de Europa al respecto no

es clara. Las nuevas tecnologías van por delante del derecho y quizás la Unión Europea no quiera ponerse

cortapisas que puedan dificultar estar, en un momento dado, a la cabeza de las nuevas aplicaciones tecnológicas.

Podemos observar esta falta de coherencia o de hipocresía en la directiva 98/44/CE del parlamento europeo y del

consejo del 6 de julio de 1998 relativo a la protección jurídica de las invenciones tecnológicas. A pesar de su

antigüedad, la directiva 98/44 sobre la protección jurídica de las invenciones biotecnológicas, sigue vigente. En ella

se sostiene que no se permitirá que entidades privadas hagan la patente de los genes tal y como se encuentran en la

naturaleza. Y sí a las patentes, si los genes han sido aislados de su medio natural por procedimientos técnicos.

Habría aquí que aclarar, ¿Entendemos en esta directiva que por naturaleza se refiere al ser humano o al cromosoma?

Si entendemos el ser humano, sería muy fácil privatizar cualquier parte del cuerpo. Sólo con sacar esa parte de su

cuerpo ya valdría. Si entendemos por naturaleza el cromosoma, habría que aislar los genes construyendo una

librería genómica que contiene miles de fragmentos de ADN y después identificar cada gen. Probablemente sea la

segunda opción a la que se están refiriendo estas directivas y lo que traten de promover no sea más que el interés

del sector privado hacia este arduo trabajo. Pero la polémica sigue, día a día, alimentándose entre pleitos

internacionales y nacionales. Nosotros diferenciamos en este trabajo entre la ideología subyacente al Proyecto

Genoma Humano y los usos tecnológicos que nazcan de este proyecto que, obviamente, serán mejores cuanto más

vayan dirigidos a promover una sociedad igualitaria. Así nos centraremos en esta ideología que como tantos y

tantos autores creen (Nelkin, Tancredi, Keller, Lewontin, etc) es en donde radica el verdadero valor del Proyecto

Genoma Humano. Esta ideología no es otra que la del determinismo biológico, que se ha visto marcado desde la

aparición de la genética como ciencia moderna, por la Teoría Hereditarista de la Inteligencia .Algunos de los

mensajes lanzados en el siglo XIX siguen vivos hoy. Hagamos un recorrido histórico:

Francis Galton puede ser considerado el pionero de la Teoría Hereditarista de la Inteligencia (T.H.I.). La

pregunta que se hacía Galton en Hereditary Genius (1869) era la siguiente: ¿Por qué existen las clases sociales? Él

creía ser capaz de hacer una clasificación de las personas en función de su ”valor cívico”, clasificación que

coincidiría con la de las clases sociales. El origen de la T.H.I. nos resulta iluminador porque en el siglo posterior los

defensores de dicha teoría tratarán de explicar ya no la sociedad sino la diversidad humana y al termino de las

investigaciones se propondrán medidas tecnológicas que insistirán en la necesidad de perpetuar las clases sociales

en virtud de la “aptitud natural”(“valor cívico”) de los ciudadanos. El punto de llegada coincide con el punto de

salida. Para Galton la sociedad es el lugar donde ha cristalizado la diversidad humana de forma que los elementos

más inminentes han emergido generacionalmente como la clase poderosa y los menos inteligentes se han

precipitado al fondo por el propio peso de su “predestinación genética”. Así contemplada, la sociedad aparece como

una meritocracia pura. Es curioso que a pesar de los diagnósticos más o menos optimistas, lo que parece subsistir es

que el grado máximo de igualdad en la sociedad ya se ha cumplido y en lo restante toca solo maximizar los

beneficios del estudio de la naturaleza humana.

Mikel Rascón Muñóz | Sobre lo que no está en los genes.

 

131E N E R O

2 0 1 2

El precedente inmediato histórico de la Teoría Hereditarista es el Darwinismo Social. Piénsese que Darwin

había publicado su teoría de la evolución de las especies sólo diez años antes de que viera la luz el Hereditary

Genius de Galton. El Darwinismo social, como sabemos, proponía la supervivencia de los más fuertes aplicada al

ámbito ya no de la naturaleza sino de la “naturaleza social”.Este es el marco general que da forma a las teorías

posteriores del hereditarismo de la inteligencia. Para Darwin el motor de la Historia natural se encontraba en la

interacción de la lucha por la supervivencia y de la variabilidad de la especie. Pero esta última no era más que

reconocida ante la imposibilidad de ser explicada. Un acercamiento a esta explicación vino de la mano del

redescubrimiento de las leyes de Mendel a principios del siglo XX que supondrá el comienzo de la genética

moderna. En Inglaterra hubo una polémica entre aquellos teóricos hereditaristas que optaban por la biometría y el

movimiento eugenésico, y aquellos que optaban por el mendelismo. La escuela biométrica suponía un Darwinismo

estricto en el que la evolución era entendida como un proceso continuo, sin saltos. Para el mendelismo la evolución

se producía de forma discontinua. Los genes responsables de la inteligencia podrían estar dormitando como los

genes de los guisantes de Mendel y saltarse varias generaciones, apareciendo la genialidad de forma imprevista. No

es raro que para W. Bateson uno de los defensores del mendelismo, la eugenesia supusiese un interesado

instrumento de la clase media. Fue así como se polarizaron posturas que rebasaban el ámbito de la biología y que

conformaban dos maneras distintas de entender la sociedad. Una solución que pretendía conciliar ambos bandos fue

la que dio Fischer. La varianza genética puede descomponerse en varianza genética aditiva y varianza genética no

aditiva. Esta versión supondrá un refinamiento en la teoría hereditarista de la inteligencia. No obstante, pesarán

sobre ella los mismos errores que se habían cometido en el pasado: lo hereditario sigue viéndose como

inmodificable y la desatención hacia aquello que precisamente habría que aclarar, a saber, los efectos de la

diversidad ambiental sobre la inteligencia.

Todos estos ditirambos de la T.H.I. desembocaron finalmente en la promulgación en el Reino Unido de la

Buttler Education Act (1944).Uno de los mayores responsables de la promulgación de esta ley fue Ciryl Burt quien

por primera vez hizo uso de la teoría multifuncional de la herencia aplicada a la inteligencia. La ley de 1944

imponía un examen llamado 11+ que se pasaba a los alumnos de 11 años. Tras él, el 20% eran enviados a los

Grammar Schools donde se recibía instrucción conducente al ingreso en la universidad, y el 80% restante quedaba

destinado a los Technical Schools o a los Modern Schools donde no se les impartía una preparación para la

educación superior. Lo que afirman los factorialistas es que el factor más importante para determinar el rendimiento

escolar es la “inteligencia general” y que a los 11 años ya se puede calcular el grado de inteligencia de esta. La ley

de 1944 estaba de acuerdo con esto pero además matizaba que la selección se realizara también a partir de la

valoración de los maestros.

En la década de los setenta tras unas décadas de bonanza de las posturas ambientalistas, resurge con fuerza

la T.H.I. En 1969, Arthur Jensen publicó un artículo de 123 páginas llamado “How much can we Boost IQ and

Scholastic Achievement?” (“¿Cuánto podemos mejorar el C.I. y el rendimiento académico?”). Este artículo sin

Sobre lo que no está en los genes | Mikel Rascón Muñóz

 

132 E N E R O

2 0 1 2

proponer nada pero adaptándose al análisis de problemas vigentes resultó ser un best seller. La discriminación

racial, la educación compensatoria y las diferencias sociales estaban ahora en el punto de mira de la T.H.I. y esta

volvía a demostrar su capacidad a la hora de justificar ciertas decisiones políticas.

Hasta aquí hemos hecho un recorrido a través de los hitos de la T.H.I., remontándonos a su origen.

Posteriormente veremos cuáles son esas ”decisiones políticas”, o lo que es lo mismo, qué usos tecnológicos se han

producido gracias a la tan invocada inteligencia. Pero antes quisiéramos detenernos para mostrar cómo la

inteligencia en sí misma supone ya una tecnología, o un artefacto cuya confección está estrechamente ligada a

presupuestos metodológicos muy concretos.

Galton fue el pionero de la T.H.I. pero quien proporcionó el útil más provechoso para la valoración de la

inteligencia fue Alfred Binet. Curiosamente este último siempre se opuso a la cosificación de la inteligencia y era

plenamente consciente que lo que entendemos como tal es en gran parte un constructo cultural. En 1904, el ministro

de Instrucción Publica de Francia creó una comisión para analizar la problemática que representaban los niños

retardados que era como se les llamaba entonces. Esta comisión de la cual formaba parte Binet, decidió someter a

examen médico-pedagógico a los niños retardados. Así surgió el sistema por el que se describiría y mediría la

inteligencia según lo que ellos llamaban el “método psicológico”. La escala de Binet era un conjunto de tareas

ordenadas por su grado de dificultad de acuerdo con la edad de los niños. A partir de entonces este método irá

perfeccionándose. Wilhelm Stern fue quien introdujo el concepto de “cociente mental” como la razón aritmética

entre la edad mental y la edad cronológica. Para Binet, los usos posteriores que se hicieron de este concepto le

hubieran parecido una traición. Simon, el más estrecho colaborador de Binet, así lo manifestó. El propósito era

discriminar si un niño era normal o atrasado, fuera de este objetivo no tenía sentido hablar de cociente intelectual.

De igual forma, los test de C.I. se utilizaron a gran escala en Estados Unidos para el reclutamiento del ejercito

norteamericano durante la primera guerra mundial. El objetivo era tener un patrón que permitiera no mandar a la

guerra a una persona deficiente. Cuando la escala disminuye y deseamos saber, gracias al test, qué lugar de la

sociedad debe ocupar cada persona, nos extralimitamos porque obviamos el humilde cometido para el que se

elaboró. Pero la cosa no sería grave si el cociente intelectual pudiera mejorarse. A.J ensem en su famoso artículo de

1969 creía que podía mejorarse nada o muy poco. Reiteradamente los autores hereditaristas de la inteligencia

coinciden en las pocas esperanzas de mejora del cociente intelectual. Veamos por qué:

Analizando estructuralmente la metodología básica adoptada por la T.H.I. encontramos que responde a una

función. Como en cualquier otra función utilizada en psicología experimental, las variables pueden ser

independientes, dependientes o intervinientes. Pues bien, la variable independiente (“aquella que el experimentador

manipula o selecciona para que un cambio en la misma produzca o de lugar a otra variable, la dependiente”(Cerezo,

Lujan.1989.p.202)) queda representada por lo genético entendido como una variación continua; la variable

dependiente queda fijada como la conductual (C.I.),y por último, el ambiente supondrá sólo la variable

Mikel Rascón Muñóz | Sobre lo que no está en los genes.

 

133E N E R O

2 0 1 2

interviniente. Definimos ésta como aquella que “modula la relación causal hipotética entre variable dependiente en

el sentido de introducir condiciones que afecten dicha relación bien de un modo secundario (i.e.,para cambios

estadísticamente no significativos a lo largo de todo el recorrido de la variable dependiente) o en casos

excepcionales(…)(idem)).Esta variable interviniente es entendida además como una variable dicotómica (o todo o

nada).Esto es erróneo porque no podemos aceptar que, por ejemplo, entre miembros de una misma familia que haya

vivido en el mismo hogar, la variable interviniente permanezca en off porque sencillamente su ambiente no puede

reducirse a estar durmiendo bajo un mismo techo. Tampoco podemos dar por supuesto que, por ejemplo, dos

gemelos monocigóticos que hayan vivido separados, hayan tenido un ambiente completamente diferente,

manteniendo la variable interviniente en on. Deberíamos antes analizar qué situación familiar han tenido, qué tipo

de atención escolar, etc. Estos son el tipo de problemáticas que el hereditarismo de la inteligencia despreciaría en

virtud de sus presupuestos metodológicos. El ambiente no puede ser a priori un factor accesorio o accidental entre

herencia y conducta. Como vemos el hereditarista de la inteligencia termina afirmando aquello que supuso para

investigar la inteligencia. A menudo para la T.H.I. el factor ambiente constituye sólo un auxilio al que recurrir

cuando las cuentas no le salen. Las decisiones políticas que de estos análisis se deducen han marcado gran parte del

siglo pasado. Aunque fuera cierto que la sociedad se divide en clases sociales según la inteligencia de sus habitantes

quedaría todavía por argumentar qué nos hace no intentar paliar esas diferencias naturales y sociales de los

hombres. Las argumentaciones aquí suelen entrar en el terreno político. Siempre se puede amenazar, por ejemplo,

con que el enemigo posee una organización más fuerte de sus recursos humanos. Una crisis puede ser un buen

momento para el reajuste de las necesidades del propio sistema.

En general podemos distinguir tres tipos de propuestas que se derivan de la T.H.I.: nihilismo

intervencionista, eugenesia y optimización de los recursos humanos.

El nihilismo intervencionista se caracterizaría por la no intervención del estado sobre la sociedad. Este

intervencionismo supone un radical intervencionismo, a su vez, a favor de la libre competencia del mercado. Esta es

la postura fundamental en la que se basó el primer liberalismo económico. En la actualidad puede ir dirigido a

terminar con parte de la educación obligatoria, la gratuidad de la asistencia sanitaria, etc.

El movimiento eugenista se singulariza por una intervención más directa. Podemos distinguir tres tipos de

eugenesia: eugenesia selectiva, eugenesia transformadora, y la ingeniería biológica. La eugenesia selectiva consiste

en aplicar a la especie humana las mismas técnicas que se han venido aplicando a los animales y plantas. La

eugenesia transformadora trata de mediar en el ADN recombinante de los seres humanos quitando o poniendo genes

(ingeniería genética).La ingeniería biológica supone producir alteraciones en los humanos sin alterar su ADN

(operaciones quirúrgicas, cultivo de órganos, etc).

Por último, la optimización de los recursos humanos hace referencia a la transformación del sistema (

Sobre lo que no está en los genes | Mikel Rascón Muñóz

 

134 E N E R O

2 0 1 2

igualitarista, según los hereditaristas) de modo que se obtenga una mayor rentabilidad.

Nos gustaría, a continuación, ofrecer dos casos reales controvertidos, para reflexionar si estamos ante dos

ejemplos de eugenesia, si es positiva su aplicación y qué tratamientos de la cuestión deberíamos hacer.

El primer caso surge del presente de España. La amniocentosis es un análisis que se realiza a la

embarazada entre la semana trece de gestación y la dieciseis. Detecta sobre todo el síndrome de Down. Este análisis

se generalizó en 1983. La ley del aborto(1985)posibilita, a su vez, la interrupción del embarazo hasta la semana

veintidós en el caso de que el feto venga con malformaciones. Como resultado, en el 2006, 2875 personas

decidieron abortar. Estamos tratando entonces con una tecnología en manos del estado y que posibilita la mejora de

la especie humana en el territorio en el que tiene vigor. Presentado de esta forma nos hace recordar la política

eugenésica nazi. Sin embargo, creemos que una vez se extienda la posibilidad de evitar el sufrimiento de nuestros

hijos no podemos privar a una madre de que elija abortar. La diferencia entre estas medidas y las adoptadas por la

alemania nazi residen en la noción de “mejora” que tengamos. La mejora hitleriana pasaba por una idea metafísica

del genero humano y representaba los intereses de unos pocos, excluyendo los derechos de los demás. Por ello

entendemos que la ciencia debe ir acompañada de un principio universalista y debe tener en cuenta la mejora de las

condiciones sociales y de la calidad de vida. El síndrome de Down lleva asociado no solo la inactividad de una

parte del cerebro si no que además existe el riesgo de enfermedades cardiovasculares graves asociadas. La salud del

cuidador es también importante y es obvio que criar a una persona con síndrome de Down requiere un sacrificio

extraordinario. Esto son partes que toda filosofía de la ciencia que se precie no debería olvidar. Para nosotros este

sería un caso en el que la aplicación de la eugenesia resulta positiva. La elección de la madre, en todo caso, debe ir

acompañada de una información exhaustiva y un tiempo de reflexión.

El segundo ejemplo es si cabe más difícil de analizar. Es el caso de James Edward Whittaker-Willians. Un

hombre de 49 años afectado por la enfermedad de Humtington, acusado de besar a una chica de 30 años con

severos problemas de aprendizaje. Según la “Ley de delitos sexuales de 2003” de Inglaterra, los besos y abrazos son

considerados sexuales y afirma, dicha ley, que las personas con problemas de aprendizaje son incapaces de dar su

consentimiento independientemente de que el acto implique coacción o no. Aquí estamos tratando con una vida

inmersa en una cultura. Debemos recordar que la enfermedad de Huntington se caracteriza por un trastorno

neuropsiquiátrico que aparece entre los 30 y 50 años. Suele llevar aparejada, además de lo que podríamos llamar

degeneración de la inteligencia, movimientos espasmódicos involuntarios y puede seguir caminos muy diversos por

lo que deberíamos atender al informe pericial psicológico que de esa persona se pueda hacer. En ningún caso

debería prevalecer un concepto de la vida que impida a dos personas con raciocinio mínimo relacionarse. La línea

es muy delgada. ¿Podrían servir los test de C.I. en este caso? A nuestro entender el peritaje psicológico puede y

debe examinar a las dos personas en concreto pero aunque fuera capaz de catalogar perfectamente a estas personas

a través de los ítems de los tests de C.I., los verdaderos problemas a los que esos dos ciudadanos día a día se van a

Mikel Rascón Muñóz | Sobre lo que no está en los genes.

 

135E N E R O

2 0 1 2

enfrentar son de una índole muy distinta. El contexto más cercano a esos individuos determina la capacidad de

adaptación que estos tengan y esto es tanto como decir que determina su estado de salud y a la postre, y en

definitiva, su estado mental. La constitución de la OMS define la salud como”un estado de completo bienestar

físico, mental y social” (1).La salud social podríamos definirla de muchas formas, algunas podrían ser estas:la

aceptación por parte de los demás de la propia individualidad y dignidad humana; o la capacidad de llevar a cabo un

trabajo o una labor que provenga a la comunidad positivamente. O de una forma más sintética aún podemos

definirla como la capacidad y posibilidad de realización del ser humano.

La salud mental o el nivel de inteligencia del Señor Whittaker-Willians depende para nosotros de el ámbito

de la pequeña comunidad en la que se desenvuelva. Los ítems conectan a quien examina con patrones culturales de

la gran sociedad pero obvian la capacidad de desenvolverse en el ámbito de la pequeña comunidad. No significa

esto, que podamos solucionar o evaluar el caso teniendo en cuenta el C.I. de la comunidad en la que viva esta

pareja. No es tan sencillo. Las necesidades de afecto y sexo de esas dos personas pueden estar normalizadas y no

suponer un agravio ni hacia ellos mismos ni hacia nadie más.Una cuestión muy distinta es que esta pareja tenga la

posibilidad de reproducirse. Creemos que perfectamente podría impedírseles esta posibilidad y no nos parece que

atente contra su dignidad. Suponiendo que estos padres pudieran cuidar de sus hijos, si los hijos nacieran con las

mismas peculiaridades de sus padres nada les aseguraría que las condiciones de existencia de sus padres vayan a ser

las mismas. Podrían darse cambios en la comunidad que hagan a estos futuros hijos estar desarmados, desnudos

ante las dificultades de la nueva situación. Aquí hemos querido oponer quizás demasiado atrevidamente pero a

modo explicativo, la idea de sociedad contra la idea de comunidad. La razón o Inteligencia que deriva de los test de

C.I. tiene que ver para nosotros, con un mundo cambiante, con el mundo en el que las aptitudes son necesarias para

la supervivencia. El mundo de la inteligencia abstracta es el que trata de cuantificar dichos tests. La idea de

comunidad tiene para nosotros un carácter más fijo y espacio-temporal. Es el espacio y el tiempo en el que se

desarrolla la vida humana de un individuo concreto. El poder político se caracteriza por la previsión y requiere para

sí individuos que puedan desenvolverse y ser más fuertes en contextos múltiples. Pero esto no puede servir de

coartada para despreciar a aquellos individuos que viven dispuestos de sus propias actitudes en el mundo concreto

de su pequeña comunidad.

Con estos dos casos clínicos hemos querido expresar aquellas cuestiones más amplias filosóficas, que no

debemos dejar de un lado. Respecto al Alzheimer y a la enfermedad de Huntington ya hay investigaciones dentro

del proyecto Genoma Humano abiertas. El Alzheimer puede ser diagnosticado mediante la amniocentesis. La visión

de los médicos hacia el aborto en nuestros tiempos ha cambiado y hoy está prácticamente aceptado. Respecto a la

enfermedad de Huntington ,en 1993 se consiguió aislar el gen que provoca esta enfermedad localizada en el

cromosoma 4, y en lo que se han ido desarrollando las investigaciones posteriores ha sido fundamentalmente en

conocer las razones que hacen que la enfermedad se manifieste de forma tardía, y muchas lineas están dirigidas a

encontrar un tratamiento y una cura. Si el tratamiento que pueda aparecer se da bajo la forma de la “medicina

Sobre lo que no está en los genes | Mikel Rascón Muñóz

 

136 E N E R O

2 0 1 2

predictiva” serviría lo dicho en el primer caso(el de la amniocentosis).Si el tratamiento se diera bajo la forma de una

“terapia farmacológica” o bien una “terapia génica” en la que se introdujeran o modificaran genes del individuo,

habría que tomar en consideración lo dicho en el segundo caso.

BIBLIOGRAFÍA:

Lopez Cerezo,J.A.;Lujan Lopez,J.L.,El artefacto de la inteligencia(1989).

Varela Alvarez,Violeta.”Sociobiología”El Catoblepas nº14,abril 2003.

Enfermedad de Huntington.es.wikipwdia.org/Wiki/enfermedad_de_huntington.13nov,2003.

Síndrome de down.es.wikipedia.org/Wiki/syndrome de –Down.17nov,2010.-Lewontin,Richard.Texto,apuntes de

clase.cap.”el sueño del genoma humano”.

Directiva 98/44/CE del parlamento europeo y del consejo relativa a la protección jurídica de las invenciones

tecnológicas.www.wipo.int/edocs/mdocs/tk/es/wipo…/wipg.tkf-ic-18-main.,18 dic.,2010.

“Jail sentence for kiss and cuddle Man”. www.huntspost.co.uk/content/h… a8%3A31%3A073., Hunts post,29 sep

,2005 .

“Proyecto genoma Humano.”es.wikipedia.org.wikipryecto_genoma_humano.,14 dic 2010.

“aislamiento de un gen de un cromosoma celular”.

laguna.fmedia.unam.mx/…/aislamiento%20gen%20cromosoma.html.,17 sep,2003.

“Polémica por la patentación de genes” www.techmez.com/.../polémica_por_la_patentación_de_genes/. 28mayo

2009.

(1)OMS.salud.www.who.int/entity/peh-emf-research/agenda/…/index.html. 1dic,2010.

Paloma Nido Suárez | Praxis Humana.

 

137E N E R O

2 0 1 2

Praxis Humana Paloma Nido Suárez1             Resumen  El propósito de este escrito es hacer una revisión sobre los 

consecuentes y  las  controversias  que  la  descripción  del genoma  humano  plantea.  Para esta finalidad se  hará referencia  a tres perspectivas o disciplinas que  tienen una gran  importancia en  esta materia: la  sociobiología, la genética de  la  conducta y el  determinismo  genético en  la búsqueda de  una conclusión que determine si  la práctica humana es un producto de una herencia genética, producto de un entorno social o de una combinación de ambos.                   

1 Nacida en Trevías el 16.02.1987 y residente en Barcia, Valdés. Cursó estudios de Bachillerato de Ciencias de la Naturaleza y de la Salud en el Instituto Carmen y Severo Ochoa de Luarca. Licenciada en Filosofía por la Universidad de Oviedo, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional , y quinto curso de la Licenciatura en Antropología Social y Cultural en la U.N.E.D (centro asociado de Gijón).

                    Abstract  The purpose of this writing is to make a revision over the 

consequents  and  controversies  that  human  genome description  raised.  For  this  finality,  one will  refer  to  three perspectives or disciplines  that have a great  importance  in this matter: Genetics of the Conduct, Genetics Determinism and  Sociobiology  in  the  search  of  a  conclusion  that determines  if  human  practice  is  a  product  of  a  genetic inheritance, a product of a  social environ or   a  result  from combination of both of them.                            

 

Paloma Nido Suárez | Praxis Humana.

 

139E N E R O

2 0 1 2

 

Praxis Humana Paloma Nido Suárez2   INTRODUCCIÓN.

Desde la publicación de la secuenciación del Genoma Humano el 12 de Febrero del 20013, en los últimos

años, se ha dado una reactivación del viejo debate sobre la libertad del individuo, si es posible o no que la

constitución genética pueda determinar su comportamiento y de ser así cómo lo hace. A partir de esta cuestión, son

frecuentes las proclamaciones de haber encontrado una base genética para rasgos de conducta complejos como

puede ser el alcoholismo, la depresión o incluso la homosexualidad. Produciéndose de este modo la divulgación de

una visión simplista a cerca de la relación existente entre genes y conducta.

Casi siempre coincidiendo con crisis económicas y sociales cíclicas a gran escala, han proliferado

planteamientos de carácter ideológicos, insolidarios y antisociales, que parecen entretener a la población situando la

pertenencia a una determinada raza como causa de la pobreza, marginación, delincuencia o subdesarrollo de una

nación; como sería el caso del artículo publicado por Arthur Jensen en 1969, donde sugiere que las diferencias

entre el coeficiente intelectual medio de negros y blancos podrían ser debidas (en parte) a las diferencias genéticas

existentes entre ambas razas; u otros que analizan patrones de continuidad genética entre especies y por tanto de

Heredabilidad y determinación, como es el caso de investigaciones cuyo objeto de estudio es la comunidad de

acciones entre los chimpancés y el ser humano (por ejemplo, ambos dan besos). Estudios de este tipo, amenazaron la

continuidad de la genética de la conducta como disciplina en los 70s, aunque en los 80s se producirá una aceptación

de esta disciplina, debido a la aparición de resultados que parecían indicar una evidencia de influencia hereditaria en

la conducta humana.

Mediante este ensayo, se pretende dar una visión global a cerca de las disciplinas (al menos parte de ellas)

que se dedican al estudio del comportamiento y de la conducta del ser humano, así como también cuáles son las

principales tesis que mantienen, su importancia y problemas que suscitan. Esta tarea será desarrollada desde la

perspectiva del materialismo histórico, esto es, entendiendo que la concepción de las ciencias que surgen tras las

obras de T. Kuhn e I. Lakatos y que suponen un cambio de visión sobre este tema (tras la revolución científica), son

producto de la influencia cultural de una realidad histórica cambiante. Considerando la filosofía como la única

disciplina capaz de dar una definición completa de la idea de hombre, por ser un saber de segundo grado constituido

2 Nacida en Trevías el 16.02.1987 y residente en Barcia, Valdés. Cursó estudios de Bachillerato de Ciencias de la Naturaleza y de la Salud en el Instituto Carmen y Severo Ochoa de Luarca. Licenciada en Filosofía por la Universidad de Oviedo, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional , y quinto curso de la Licenciatura en Antropología Social y Cultural en la U.N.E.D (centro asociado de Gijón).

Praxis Humana | Paloma Nido Suárez

 

140 E N E R O

2 0 1 2

sobre otros saberes previos que trabaja con ideas (no abarcables enteramente por ninguna otra disciplina) y que

construye sistemas filosóficos, será esta disciplina la plataforma en que nos apoyamos.

1. LA GENÉTICA DE LA CONDUCTA.

A diferencia de lo que se pueda presuponer inicialmente, la genética de la conducta como disciplina se

interesa en los factores genéticos y ambientales que dan origen a las diferencias presentadas principal y casi

únicamente entre individuos, teniendo poco que decir sobre las causas de las diferencias entre grupos por tres

motivos: a)las diferencias entre grupos no son sustanciales, b) las diferencias entre individuos interesan más debido

a que los problemas relevantes de una sociedad suelen implicar diferencias individuales, y c) algunas diferencias

entre individuos pueden tener una clara influencia genética, mientras que otras serían inabarcables sin atribuir un

papel fundamental a la educación y las condiciones ambientales4. Las aportaciones de la genética de la conducta, no

deberían de ser asemejadas con los de la genética molecular sin más, se tiende a pensar que los genes influyen

directamente en nuestro comportamiento, pero el asunto es bastante más complejo.

Normalmente cuando se habla de las bases genéticas de una enfermedad, se está haciendo alusión a genes

asociados a una determinada patología, pero no existen genes específicos de un tipo de comportamiento particular;

de hecho hay estudios que sugieren la presencia de factores genéticos implicados de algún modo en el alcoholismo,

lo cual no significa que un gen induce a su portador a consumir alcohol (si puede ocurrir que estos influyan sobre la

sensibilidad individual al alcohol en el sentido de que unos han de beber más que otros individuos para llegar al

estado de ebriedad). Este tipo de efectos producidos por los genes sobre la variabilidad individual son indirectos y

representan los efectos que difieren de un individuo a otro interactuando a su vez con el entorno (luego, los genes no

serían determinantes de la conducta en este sentido); aunque sí es cierto que en determinadas afecciones alteraciones

de un solo gen determinarían la aparición de rasgos fenotípicos (enfermedades hereditarias) que aún en este caso, no

serian directos sus efectos sobre la conducta del individuo.

Una cosa son las bases genéticas de enfermedades hereditarias (deterministas en algunos casos) y otra muy

diferente las bases genéticas de la conducta, donde la relación entre genes y fenotipo sería mediada por muchas

relaciones e interacciones con otros factores.

Para R. Plomin, otro factor de gran importancia es que cuando se habla de influencia genética de la

conducta en esta disciplina, se está haciendo alusión a las diferencias genéticas individuales y las diferencias de

comportamiento de estos individuos dentro de una sociedad o población dada, produciéndose un cambio en los

resultados si la población varían; pero no reside en la persistencia de diferencias genéticas el que un individuo sea o

Paloma Nido Suárez | Praxis Humana.

 

141E N E R O

2 0 1 2

actué de una forma u otra, sino que esto tendrá que ver con acciones educativas y ambientales.

Numerosos estudiosos consideran que la genética de la conducta (o de la praxis humana), proporciona la

mejor evidencia disponible a cerca de la importancia del ambiente a la hora de explicar las diferencias individuales.

La genética, como disciplina considerada científica desde la aparición de las Leyes de la Herencia de Mendel

(publicadas en 1865 e ignoradas hasta su redescubrimiento en el 1900)5, investiga de qué manera la herencia

biológica es transmitida de generación en generación. Lo que se denomina genética molecular, que es algo diferente

a lo denominado como biología molecular, comenzará a tener éxito en 1953 gracias al descubrimiento de la doble

hélice del A.D.N. La regulación de la expresión génica se volverá un tema central en la década de los sesenta y

setenta (cuando esta ya podría ser controlada y manipulada mediante la ingeniería genética). Pero no será hasta la

aparición del Proyecto Genoma Humano, ya en puertas del siglo XXI, cuando realmente pase a convertirse en un

tema tan controvertido.

Los humanos nos distinguimos del resto de animales por el uso del comportamiento aprendido frente al

instintivo. Con la llegada de esta proeza consistente en ser capaces de secuenciar por completo el genoma de una

persona intentando explica esto, al modo como M. Harris lo hace en su obra Introducción a la Antropología general.

Esto llevará a la búsqueda dentro del genoma del individuo de la determinación de las capacidades humanas básicas,

sobre la base de las potencialidades humanas biológicamente determinadas y que permiten que la historia de los

individuos y las sociedades estén esencialmente abiertas al cambio. Intentando explicar esto al modo en que M.

Harris lo hace en su obra Introducción a la antropología general, sería cierto que la biología puede afirmar la

existencia de potencialidades en el ser humano, pero resulta imposible poder dar una explicación a la variabilidad

humana si no se tiene en cuenta que el individuo se desarrolla dentro de una sociedad y de un contexto histórico y

cultural que les hace desarrollar o ejecutar una potencialidad en lugar de otra. Esta importancia de la sociedad y el

contexto en el que se desarrolla el individuo no ha de ser confundida con una corriente ambientalista, ya que el

comportamiento del sujeto no está siendo considerado únicamente como fruto de las condiciones de su entorno a las

que ha sido sometido durante su vida; sino que se considera que la influencia recibida de estas tiene gran

importancia para su desarrollo como ser humano; así como tampoco puede ser considerada como un determinismo

estricto, aunque considere que existe alguna forma de determinismo material, que el denominará probabilístico.

“El comportamiento humano no está en general fijado por los genes, muestra un extraordinario grado de

plasticidad fenotípica, se adquiere durante el proceso de socialización, por la enseñanza recibida de otros

individuos6”.

Praxis Humana | Paloma Nido Suárez

 

142 E N E R O

2 0 1 2

2. PATRONES CONDUCTUALES, EL DETERMINISMO GENÉTICO.

El determinismo genético (innatismo), en cambio, parece tratar de la forma en la que el A.D.N determina el

comportamiento humano y como consiguiente también la dinámica de la sociedad, y se basa en un doble “préstamo

epistemológico”: a) mantiene que el comportamiento humano está genéticamente programado, y b) que la suma de

los comportamientos individuales genera la naturaleza (y por tanto la dinámica) de la sociedad7. Dentro de lo que se

entiende como tendencias deterministas de la genética, estarán disciplinas como es el caso de la Sociobiología, que

será definida como otro tipo más de determinismo por autores como R. Lewontin y S. Jay Gould, quienes en su

artículo clásico de 1979, consideran que esta es una perspectiva que anula toda posibilidad de libertad de elección

del individuo y la relacionan con el darwinismo social, las mediciones del coeficiente intelectual y otras cuestiones

que serán origen de controversias causadas por su aplicabilidad a problemas humanos con alta carga ética.

R. Herrnstein publica junto a C. Murray en 1994 una obra llamada The Bell Curve, que consigue poner de

nuevo en auge los temas de la determinación genética de las habilidades sociales (como el caso del coeficiente

intelectual), que fracasará estrepitosamente al mantener la tesis de la existencia de diferencias de base genética en la

capacidad intelectual de grupos sociales distintos, recomendando “encarrilar” ya a los individuos en función de sus

potencialidades innatas, ya desde la primera fase de escolarización (esta obra fue muy criticada ante el temor de que

ideas de este tipo pudiesen llegar a conformar decisiones políticas y sociales); y llevó incluso a que algunos autores

definan el determinismo como una clase o especie de dogmatismo, en el sentido en el que las tesis que mantienen y

defienden no han sido validadas científicamente, además de ser dudosamente apreciables. Manifestando el carácter

absurdo de basar la elaboración de políticas sociales basándose en la genética (en palabras de P. Conrad8, hay que

evitar solucionar problemas “medicalizando” las conductas que se estiman anómalas o antisociales, evitando que

problemas no-médicos pasen a ser tratados como si lo fueran. Este fenómeno parece haberse dado en la segunda

mitad del siglo pasado con bastante frecuencia, en gran medida gracias al determinismo).

Esta disciplina, se basa principalmente en tres rasgos fundamentales para apoyar la noción del

determinismo genético:

a) Universalidad de rasgos; la universalidad de un rasgo cultural, comprueba su naturaleza genética.

La refutación de este rasgo consiste en que este se trata de un argumento circular que confunde la

observación con la explicación.

b) Continuidad genética; los rasgos similares entre algunos animales y los seres humanos, son prueba

de una continuidad genética en la evolución de los unos a los otros. Este rasgo es refutado alegando que es

circular y que consiste en que se atribuyen por analogía características humanas a los animales, y luego se

descubre en ellas un vinculo genético.

Paloma Nido Suárez | Praxis Humana.

 

143E N E R O

2 0 1 2

c) Personalidad heredada; comunidad de características del tipo de temperamento, talentos y

preferencias entre parentelas. Nuevamente, la refutación consistirá en decir que es un argumento

R. Lewontin en su artículo A Story in Textbooks (1991), desarrolla estos argumentos y sus contundentes

refutaciones, consistentes en demostrar que todos los rasgos están constituidos por argumentos circulares en los que

se confunde la observación con la explicación y la atribución de categorías humanas a los animales buscando luego

en ellas descubrir mediante analogías un vínculo genético.

Lewontin concluye que no hay ninguna prueba de que el A.D.N determine el comportamiento humano, y

por tanto es inconcebible que sea el regulador de las dinámicas sociales; pero con el descubrimiento del A.D.N, la

idea de un código genético, da luz a la esperanza de encontrar en él la raíz del comportamiento del ser humano;

siendo esta inversamente proporcional al avance del mapeado del código. Considera que el determinismo genético

cobra gran popularidad por su capacidad para producir una liberación del ser humano de la necesidad de cambiar su

vida personal y las dinámicas de su sociedad, ya que si el comportamiento del individuo estuviese determinado

genéticamente, también lo estaría la configuración de nuestra estructura social, siendo por tanto inútil intentar

cambiar o transformar esta (justificando de este modo que una sociedad sea egoísta, violenta, etc).

Para I. Eibl-Eibesfeldt9 el comportamiento y las capacidades humanas, tendrían que ver con la genética(en

el sentido en que se presentarían disposiciones de comportamiento y capacidades de percepción como algo innato;

no siendo los modos de comportamiento, sino las estructuras orgánicas los que lo sustentarían) sin poder ser

reducibles a ellas. Considera como un rasgo característico de la especie humana, la amplia gama de modos

conductuales que permite la elección entre múltiples opciones.

3. LA SOCIOBIOLOGÍA.

Para disciplinas como la psicología social, la sociobiología resulta de interés debido a que postula la posible

comprensión de la actividad social humana a partir de los principios implicados en la conducta social animal y desde

una perspectiva bioevoloucionista. El presupuesto a cerca de la existencia de un gen egoísta, causante del carácter

competitivo que caracteriza la vida en sociedad desde tiempos inmemoriales, constituye una hipótesis que suscita

gran interés.

C. Darwin, supuso que el principio de la selección natural podría ser aplicable a todos los individuos,

siendo todo rasgo heredable y conservado en una especie durante generaciones, si este fuese determinante para la

supervivencia (los rasgos que no fuesen importantes desaparecerían con el tiempo). De acuerdo con esto, la

selección natural favorecería a individuos poseedores de ciertos caracteres genéticos que serían la base de la

Praxis Humana | Paloma Nido Suárez

 

144 E N E R O

2 0 1 2

constitución de las capacidades conductuales de las que dependiera su supervivencia.

La sociobiología encontrará su punto fuerte en la presuposición de que todo comportamiento es una

estrategia de carácter evolutivo que procura maximizar el éxito reproductivo y la perduración de la sociedad de la

especie10 (incluyendo todo tipo de constructo social como puede ser la presencia de creencias místicas o religiosas,

la xenofobia, la división de los roles sexuales…). Constituyéndose así la selección genética natural en la modeladora

de los rasgos en los individuos y permitiendo por tanto (según sus presupuestos) el estudio de la estructura

normativa, el comportamiento individual y el sistema de valores como órganos o extensiones de los genes que son

fruto de la adaptación al medio de estos. Según E. Wilson (en su obra Sociobiología, 1975) los sociobiólogos buscan

la identificación de comportamientos que provocan la transformación de la sociedad, de dos maneras diferentes: a)

mediante la determinación de reglas sobre el comportamiento humano, y b) comparando al hombre con otras

especies, con la finalidad de identificar genes que subyazcan del comportamiento social humano.

Podría decirse que los principales estudios en los que se centra la sociobiología son en los que hacen un

análisis del altruismo (Wilson lo considera como el problema central de la sociobiología, por considerarse que este

pudiera ser contrario a la reproducción), el sexo y la agresión haciendo referencia al comportamiento animal y

humano.

La sociobiología, como cualquier otra disciplina posee defensores y detractores. Entre los defensores

destaca el papel de M. Ruse (a parte, claro está, del de Wilson) quien considera que existen grandes evidencias

científicas a favor de la sociobiología (y justifica esta postura con la complejidad del comportamiento social de los

insectos que poseen de manera innata sin ningún tipo de interacción con el medio ambiente, lo cual ha de ser

indudablemente genético). Pero también es importante resaltar el hecho de que Wilson, admite:

“La biología es la clave de la naturaleza humana y las ciencias sociales no pueden permitirse ignorar sus

principios establecidos. Pero las ciencias sociales son potencialmente mucho más ricas en contenido11”

Entre los detractores destacarán S. Gould, R. Lewontin y M. Sahlins, quienes considerarán que los

sociobiólogos intentan demostrar la universalidad de la selección natural optimizadora como la explicación de todas

las características de todos los organismos (en palabras del propio Lewontin) y que para la sociobiología, la

organización social no es nada más que el resultado conductual de la interacción de organismos que tiene

inclinaciones biológicamente fijadas. Para diversidad de autores del mismo pensar, la sociobiología no sería más

que otra forma de determinismo genético o incluso de idealismo.

Paloma Nido Suárez | Praxis Humana.

 

145E N E R O

2 0 1 2

4. CONCLUSIONES.

De acuerdo con la perspectiva enunciada en el índice, y en términos de G. Bueno, la cultura objetiva no

puede ser explicada en términos de comportamiento etológico, ni agotada por las ciencias biológicas. No siendo

posible desarrollar la pretensión de la sociobiología de reducir el análisis de los cambios sociales a la constitución

biológica de los individuos que la conforman (no se da un vínculo demostrable científicamente entre la pertenencia a

una determinada raza y una conducta que sea común a esa raza). Así como tampoco, por tanto, puede hacerse

desaparecer la libertad del individuo bajo el postulado de que toda la praxis humana está reducida a la información

genética que reside en nosotros y se va desarrollando desde el momento de la fecundación.

Así también, otra cuestión a tener en cuenta es que, el comportamiento social humano tiene poco que ver

con el comportamiento que entre animales pueda considerarse social; principalmente porque el comportamiento de

los animales está guiado por el instinto, y en nuestro caso, la inteligencia y el raciocinio nos han llevado a otro plano

diferente (al plano del animal racional).

Los seres humanos somos conscientes de nosotros mismos, en la medida en la que a la hora de tomar una

decisión, somos conscientes de las razones por las que optamos por comportarnos de una manera y no de otra

(tenemos libertad de praxis trascendiendo los instintos animales). De esta forma, aun admitiendo el

condicionamiento biológico de nuestro comportamiento social, no pueden ser aplicadas las mismas categorías para

referirse al mundo humano y al mundo animal. Podría decirse categóricamente que no existe una predeterminación

genética en los individuos, sino más bien una predisposición heredable y que se correspondería con tener mayores

dotes para el desarrollo de unas u otras acciones que otros individuos.

La herencia genética y el entorno ambiental en el que se desarrolla un individuo, no son entidades

autónomas que actúen de forma independiente sobre el sujeto, sino que sería la interacción que se produce entre

ambas, la que daría como resultado la praxis humana, y por tanto permitiría el ejercicio de la libertad del individuo.

5. NOTAS:

1 12 de Febrero de 2001, se publica al mismo tiempo la secuenciación del genoma por parte de la empresa Celera

Genomics (a la cabeza de la cual se encuentra Craig Venter) en la revista 'Science' y por parte de la empresa pública

(que EE.UU había creado para investigar sobre esto) en la revista 'Nature'. 2 R.PLOMIN, J.C DE FRIES, G. E. McCLEARN y P.McGUFFIN, Genética de la conducta, Ariel Ciencia,

2ªedición, 2009. 3 Mendel formula sus leyes de la herencia en el marco teórico de lo que en su tiempo se entendía como estudio

botánico y zootécnico de la hibridación (mezcla de progenies, razas y castas) y pretendía mejorar el conocimiento de

Praxis Humana | Paloma Nido Suárez

 

146 E N E R O

2 0 1 2

la transmisión de los caracteres observables, tanto en los qu ese quería conservar la progenie, como en los que se

intentaba eliminar o mejorar. 4 J.A ABRISQUETA, Perspectivas Actuales de la Genética Humana (pág.8) 5 Aunque no solo existe un tipo de determinismo; existen varios y no todos sostienen el determinismo Social a nivel

individual. 6 P. CONRAD. The medicalization of society. On the transformation of human conditions into treatable disorders.

(2007). 7 I. EIBL-EIBESFELDT, El hombre preprogramado: lo hereditario como factor determinante en el

comportamiento humano (1977) versión española de Pedro Gálvez. 8 A diferencia de Darwin, cuyo interés se centraba a nivel individual, para la sociobiología el interés se encuentra en

poder explicar la evolución de la organización social, en base a la genética. 9 E. O. Wilson, Sobre la naturaleza humana, FCE, México, 1980, pág. 30.

6. BIBLIOGRAFÍA.

Abrisqueta, José Antonio. Perspectivas actuales de la genética humana (C.S.I.C, centro de investigaciones

biológicas).

Bonilla Suárez, Uriel; Gonzalez Penalva, Carlos; Infiesta Molleda, Pablo J y Pérez Bacigalupe, Diego.

Sociobiología e ideología (Colección Cortinas de Humo, 1).

Harris, Marvin. Introducción a la antropología general (2004, 7ª edición).

Infiesta Molleda, Pablo J. Apuntes curso 2010-2011 facilitados en el aula.

Lewontin, Richard, Rose, Steven y Kamin. No está en los genes (Crítica 1997).

Wilson, Edward. Sobre la naturaleza humana (1980).

Fragmentos de texto visualizados en la red:

Ginnobili y Blanco, Gould y Lewontin contra el programa evolucionista, elucidación de críticas, (2007, São

Paulo).

Lewontin. A Story in Textbooks (1991).

Soutullo. Biología, cultura y ética; “crítica de la sociobiología humana”.

Sandra Sánchez Sánchez | El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social.

 

147E N E R O

2 0 1 2

 

El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social Sandra Sánchez Sánchez1            Resumen  La Retinosis Pigmentaria  es un  conjunto de  enfermedades oculares  de  carácter  degenerativo  y  en  la mayoría  de  los casos hereditario inmersa en la sociedad cuyo grupo nuclear para un estudio sociológico es  la  familia desde el punto de vista genético. Las soluciones a este grupo de enfermedades son  aún  pocas  e  imprecisas,  siendo  necesaria  la participación  de  las  familias  en  estudios  genéticos.  Las soluciones  futuras puede que no  lleguen a  tiempo para  los enfermos  de  hoy  en  día.  La  pregunta  es:  ¿Por  qué  se someten  a  unas  pruebas  que  puede  que  no  les  den soluciones?  ¿Qué  Instituciones  están  involucradas  en  todo este proceso? ¿Cuáles son los puntos fuertes y débiles de los estudios científicos genéticos?               

1 Nació en Avilés, Asturias, el 10 de Enero de 1987. En el 2006 obtuvo el Título de Bachiller en la modalidad de Humanidades y Ciencias Sociales. En 2011 ha obtenido el título de Licenciado en Filosofía.

                     Abstract  Retinitis Pigmentosa is a set of ocular diseases. Its diagnostic is  degenerative  and  in many  cases  hereditary.  The  family from the genetic point of view is the nuclear group in order  to make  a  sociological  study. There  are  few  solutions  and solutions are  imprecise,  too. Genetic  studies are needed  to find solutions  in  the future, but nowadays, people who are affected  can’t  see  those  solutions.  The  questions  are: Why does  affected  people  do  the  genetic  studies?  What institutions  are  involved  in  this  process?  Which  are  the strengths and weaknesses of genetic studies?                        

 

Paloma Nido Suárez | Praxis Humana.

 

149E N E R O

2 0 1 2

   

El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social Sandra Sánchez Sánchez2   Introducción.

Vamos a trabajar con una enfermedad, la Retinosis Pigmentaria, por ser una enfermedad que, en la mayoría

de los casos, se adquiere por herencia genética. Cómo las asociaciones trabajan, ayudando a los afectados. Trataremos cómo son los casos en los que la enfermedad aparece genéticamente, que terapias y soluciones a largo plazo se han planteado. Lo más importante es ver si estas soluciones, a largo plazo planteadas, tienen algo de idealismo camuflado, de modo que dan esperanzas infundadas o es cierto que es un buen estudio. Si se formula esta pregunta es porque la retinosis es una enfermedad degenerativa, que no tiene vuelta atrás. Por tanto, las soluciones futuras puede que no sirvan para los enfermos de hoy en día, y, entonces, cabe preguntarse: ¿Tienen los enfermos total conciencia de que las soluciones serán para los futuros seres humanos que nazcan? ¿Los enfermos se someten a los diagnósticos genéticos, por altruismo, por falta de información o por una esperanza que proviene del idealismo de que la ciencia puede solucionarlo todo?

Todo esto es lo que plantearemos intentando señalar los puntos fuertes y débiles de los estudios científicos

genéticos, desde una explicación precisa de lo qué es esta enfermedad. 1. ¿Qué es la Retinosis Pigmentaria y cuál es la afección? ¿Cuál es el número de personas que la sufren

en España? La Retinosis Pigmentaria es una enfermedad ocular de carácter degenerativo y hereditaria que produce una

grave disminución de la capacidad visual. Dado su carácter degenerativo, en la mayoría de los casos acaba su proceso en ceguera. Es una enfermedad que se manifiesta en la adolescencia, puesto que su progreso degenerativo alcanza el grado de degeneración adecuado para detectarse en esta etapa.

La retinosis es degenerativa porque la pérdida visual progresa con el tiempo. Tanto el campo visual como la

agudeza visual van reduciéndose paulatinamente a lo largo de la vida. No se trata de un fenómeno repentino, ni lineal.

La enfermedad en cada persona tiene una evolución diferente, en algunas personas la degeneración avanza muy rápido, en otras muy lento, y otras sufren periodos de degeneración muy rápidos, pero tienen otros periodos en los que la enfermedad se estanca y avanza muy lentamente.

También es necesario decir que aunque en nuestro trabajo en la mayoría de los casos tratemos la Retinosis

Pigmentaria como una totalidad, es decir, una sola enfermedad, la Retinosis Pigmentaria en realidad son un grupo de enfermedades hereditarias cuya afección es la misma: pérdida primaria y progresiva de los fotorreceptores, que son los conos y bastones; y secundariamente de otras células retinianas. Puede afectar exclusivamente al ojo, de modo que será Retinosis Pigmentaria no sindrómica o puede que se agrupe a otros síntomas que ya no tengan que ve con el ojo y en este caso será Retinosis Pigmentaria sindrómica.

Hay varios síntomas que tienen las personas afectadas con esta enfermedad:

2 Nació en Avilés, Asturias, el 10 de Enero de 1987. En el 2006 obtuvo el Título de Bachiller en la modalidad de Humanidades y Ciencias Sociales. En 2011 ha obtenido el título de Licenciado en Filosofía.

El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez

 

150 E N E R O

2 0 1 2

− Ceguera nocturna: Es la primera manifestación de la enfermedad y durante muchos años puede ser la única. Dado que la enfermedad es de carácter genético, se puede tener el rasgo genético de modo dominante o recesivo. Si se tiene el rasgo genético de modo dominante, entonces la ceguera nocturna aparecerá a partir de los 20 años. Si el rasgo genético es recesivo, entonces la ceguera nocturna se manifestará ya en la primera década de vida. También se manifestará en la primera década de vida si la enfermedad está asociada con el cromosoma X. Este síntoma se manifiesta de dos maneras diferentes: (1) Por la disfunción de los bastones; se observa mala visión en los ambientes con poca iluminación, ya que el ojo no se acostumbra a la penumbra pasado un tiempo. (2) Por la disfunción de los conos; hay una dificultad transitoria que consiste en que no es posible que el afectado distinga objetos al pasar de un ambiente iluminado a otro de baja iluminación. El tiempo de transición que necesita el ojo para acostumbrarse al nuevo entorno poco iluminado aumenta mucho. − Reducción progresiva del campo visual: Hay una perdida de visión periférica. Es la llamada visión túnel o visión en cañón escopeta, en fases avanzadas de la enfermedad. Esto no permite ver objetos circundantes. − Disminución de la visión: Es la fase más avanzada de la enfermedad, dado que es el último síntoma que aparece. se altera la percepción de los colores, si la agudeza visual es menor de 5/10. Los signos clínicos:

Los hallazgos oftalmoscópicos más característicos son: pigmentación retiniana de tipo espículas óseas, atenuación arteriolar y palidez del disco óptico. También se observan con frecuencia lesiones en la retina central. Otras manifestaciones oculares son: miopía, cataratas subcapsulares posteriores y cambios degenerativos del vítreo. Con menos frecuencia se puede observar queratocono, glaucoma o drusas del nervio ópticoi.

El número de personas que sufren en España algún tipo de Retinosis Pigmentaria supera las 15.000 personas, además se estima que 60.000 personas son portadoras de los genes defectuosos y pueden transmitir esta enfermedad a sus hijos.

2. ¿Cuál es la causa de la Retinosis Pigmentaria? No se conocen aún cuales son los patogénicos de esta enfermedad. Sí se conocen una serie de genes

específicos que se pueden relacionar con la Retinosis Pigmentaria. Sin embargo, no hay una teoría científica aún que muestre porque genes mutados asociados con los bastones o con el epitelio pigmentario de la retina llevan a la desestructuración de los fotorreceptores (conos y bastones).

Vamos a acercarnos a la enfermedad desde la escala genética que es la específica de nuestro trabajo. Dado que la Retinosis Pigmentaria es una enfermedad hereditaria, hay que acudir a los genes para buscar

una correcta causa(s) genética(s) de la enfermedad. El problema, es que dado que la Retinosis Pigmentaria es, como decíamos, un conjunto de enfermedades, hay casos muy diferentes y los casos hereditarios también lo serán. Hay básicamente tres maneras de heredar la enfermedad:

Retinosis Pigmentaria Autosómica Dominante: En estos casos es un padre o una madre él/la afectado/a. En cada embarazo habrá un 50% de posibilidades de

que el hijo, fruto de la relación herede Retinosis Pigmentaria. Si los hijos no han heredado la enfermedad, no la transmitirán a su descendencia. Esta forma de heredar la enfermad constituye entre el 15% y el 25% de los

Paloma Nido Suárez | Praxis Humana.

 

151E N E R O

2 0 1 2

afectados por Retinosis Pigmentaria. Retinosis Pigmentaria autosómica recesiva: En este caso los padres son portadores pero no padecen la enfermedad. Esto sucede porque tienen cada uno

una única copia de gen con la mutación que causa la enfermedad. Si un hijo hereda de sus padres las dos copias de los genes mutados, entonces padecerá la enfermedad. Si los hijos sólo heredan una, no padecerán la enfermedad pero serán portadores de ella. Aunque el riesgo de transmitirla es muy débil, salvo en el caso de que su pareja sea consanguínea. El riesgo de una pareja de este tipo de tener hijos con Retinosis Pigmentaria es del 25%. Este es el modo de herencia del síndrome de Usher, desorden en el que la retinosis se asocia a un defecto de audición.

Retinosis Pigmentaria recesiva ligada al sexo: En esta forma de transmisión, serán las mujeres las únicas transmisoras, pero sin padecerla. Esto es así

porque en uno de sus cromosomas X tienen una copia de un gen mutado. Los hijos que hereden dicho cromosoma la padecerán. Las hijas, al ser XX, tendrán otra copia del gen sin la mutación. Hay un 50% de posibilidades de que los hijos varones padezcan la enfermedad y un 50% de posibilidades de que las hijas sean portadoras sanas de la enfermedad. Además, toda hija de padre con Retinosis Pigmentaria será portadora sana de la enfermedad. Si en una familia una mujer tiene un hijo con Retinosis Pigmentaria y otro familiar varón, entonces esa mujer será portadora sana de la enfermedad.

Retinosis Pigmentaria esporádica: En la mayoría de los casos, casi la mitad, la Retinosis Pigmentaria es un caso esporádico o único en la

familia. Es difícil en este tipo de casos determinar como posibilita la transmisión de la enfermedad con un único miembro que la padece. Los casos pueden ser del tipo recesivo, o bien del tipo dominante en las que no existe una clara historia familiar que determine las enfermedades de los antepasados, y en la que la Retinosis Pigmentaria de uno de sus padres no sea severa o tenga un inicio más tardío de lo normal. O se puede especular que sea una nueva mutación.

2. 1. Sobre la herencia y el problema de la heterogeneidad.

El gran problema que conlleva que la Retinosis Pigmentaria es que al ser un grupo de enfermedades hay

muchísimos genes implicados, cuyas mutaciones hacen aparecer la enfermedad. A día de hoy se conocen más de 100 genes implicados en la enfermedad, que se heredan desde las diferentes maneras que vimos antes. No todos los genes implicados conllevan la misma gravedad de la enfermedad.

La importancia de la herencia consiste exactamente en su estudio en familias particulares. Si se conoce la

historia clínica familiar en su conjunto es más fácil averiguar cuál o cuáles son aquellos genes que sufren una mutación y cuáles son las futuras probabilidades de que dichos genes mutados se transmitan y cómo será dicha herencia, es decir, cuál será el tipo de herencia que sufrirá en un futuro la posible descendencia.

Otro problema es el de la heterogeneidad genética que consiste en que un mismo gen puede causar distintos

tipos de degeneraciones y una misma degeneración se puede haber dado por una alteración en distintos genes. Esto nos muestra que es muy difícil dar con un análisis genético claro. En primer lugar porque aunque se

conozcan más de 100 genes, no se sabe exactamente cuál es su función y por tanto como una mutación en ellos puede hacer que se desarrolle la enfermedad. En segundo lugar, no se sabe cuáles son las combinaciones de genes mutados exactas que dan pie a que aparezca la enfermedad. Por último no se puede afirmar con certeza cuando nos enfrentamos a una degeneración si ésta está perpetrada por un solo gen mutado o han sido varios los que en su conjunto han dado lugar a la degeneración. Además, cuando nos enfrentamos a varias degeneraciones se hace aún más complicado dar una conclusión acertada.

El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez

 

152 E N E R O

2 0 1 2

2. 2. Terapia génica y diagnósticos genéticos. La idea de una terapia génica es algo que se baraja para curar la Retinosis Pigmentaria. Consistiría en corregir las mutaciones de las células dañadas mediante la sustitución del gen(es) alterado(s) por otro(s) sano(s). Sin embargo, dado el problema de la heterogeneidad genética y de que hablamos de un grupo de enfermedades, cuando hablamos de la Retinosis Pigmentaria es muy difícil llevar a cabo este tipo de solución para la enfermedad. No ya por la dificultad de sustitución de los genes afectados, sino por escoger adecuadamente cuales son los genes dañados para poder sustituirlos. Es por ello que la línea de investigación que hoy en día se persigue es hacer tratamiento genéticos de las familias, como veíamos en el punto anterior, para reconocer los genes que implican el desarrollo de la enfermedad en cada familia.

A través de un estudio genético familiar es posible adelantar un diagnóstico antes de los primeros síntomas

de la enfermedad. Así como saber de los miembros de una familia cuáles están sanos y no van a desarrollar la enfermedad, cuáles están sanos pero son portadores de una mutación o varias que pueden transmitir por medio de la herencia genética y hacer diagnósticos prenatales. Esto contribuirá a prevenir la enfermedad. El valor fundamental es que con los estudios de las familias se podría hacer una clasificación de las alteraciones genéticas básicas para entender el desarrollo de la enfermedad y para diagnosticar la enfermedad cada vez antes.

Razones principales por las que hacer un diagnóstico genéticoii: - Se conoce quienes son los portadores sanos de la enfermedad y quienes son las personas libres de

genes dañados. - Se verifican los diagnósticos de las personas que no se ajustan inicialmente al diagnóstico de

Retinosis Pigmentaria. - Se puede ofrecer asesoramiento genético. - Se puede desarrollar la labor investigadora

Lo importante del análisis genético familiar es establecer el patrón de herencia y saber si existe

consanguinidad familiar. La Retinosis Pigmentaria Autosómica Dominante y la Retinosis Pigmentaria autosómica recesiva ligada al sexo tienen la capacidad de transmitirse con gran éxito a lo largo de generaciones, por lo tanto es importante estudiar los árboles genealógicos completos.

Lo importante, según investigadores y afectados, es encontrar portadores de genes dañados ya que así se

previene el riesgo de transmisión. Según el modelo de herencia se puede sospechar que gen(es) son los que están implicados en una familia.

Por lo tanto, tomando muestras de sangre de cada miembro de la familia se harán las lecturas de los genes de los cuales se sospeche que tienen una mutación o están alterados. Cuando se reconoce que gen o genes están dañados se puede hacer un diagnóstico de la familia y las posibilidades de transmisión a las futuras generaciones. Sin embargo, cada gen conocido explica muy pocas familias y en cada familia el gen que causa la patología es distinto.

Para el diagnóstico genético se usan ensayos automatizados mediante el sistema APEX (arrayed primer

extensión) que inmoviliza sobre un soporte sólido inerte (chip) los fragmentos de ADN que contienen las mutaciones descritas en 13 genes arRP. Los fragmentos de ADN se comparan por hibridación con el ADN del paciente y así se determina si existe mutación. Pero mediante este proceso sólo se pueden diagnosticar mutaciones ya conocidas (que son las que contiene el chip).

Un nuevo proyecto de diagnóstico indirecto automatizado de 22 genes arRP y LCA requiere partir de una

familia, no de individuos aislados y su objetivo consiste en separar aquellos genes que no causan Retinosis Pigmentaria para después, mediante un diagnóstico ya directo, analizar aquellos genes en los que puede haber mutaciones que provoquen Retinosis Pigmentaria. Con este enfoque diferente se intentarán encontrar genes nuevos que produzcan Retinosis Pigmentaria.

Paloma Nido Suárez | Praxis Humana.

 

153E N E R O

2 0 1 2

También es posible, cuando se reconoce la mutación, hacer un diagnóstico genético preimplatacional para aquellas familias que deseen tener hijos pero tengan la dificultad de ser portadores de la enfermedad o afectados. La definición adecuada sería: un conjunto de procedimientos destinados al diagnóstico de un defecto genético, mediante la biopsia y análisis in Vitro de una célula embrionaria, con el objetivo de evitar la transmisión de una enfermedad hereditaria a la descendencia en parejas con historial de riesgoiii. Mediante fecundación in Vitro se obtienen varios embriones y en el primer estadio, cuando los embriones tienen de 4 a 8 células, se escogen aquellos que no sean portadores de la mutación. Es la mejor opción puesto que la otra alternativa era el diagnóstico prenatal. Con el análisis preimplantacional el diagnóstico se hace antes del embarazo y, además, hay una reducción de las posibilidades de que el feto sea portador de la enfermedad y, por tanto, también reduce las posibilidades de tener que interrumpir el embarazo. Las posibilidades de que la descendencia sea sana al término de un embarazo son superiores al 99%.

En el caso de la Retinosis Ligada al sexo Recesiva se escoge el sexo ya que la técnica de reconocimiento de

la presencia del cromosoma Y se puede hacer sin necesidad de buscar el gen responsable de la enfermedad. Pero en estos casos las parejas renunciarán a tener hijos varones y hay un 50& de posibilidades de que las hijas sean portadoras. Con el análisis preimplantacional se seleccionarán embriones sanos con independencia de si son de sexo masculino o femenino y, además, ya no continuaría la transferencia de la enfermedad a las siguientes generaciones. Sin embargo, el problema de esta técnica es que se tiene que conocer con exactitud la alteración genética que produce la Retinosis Pigmentaria.

La terapia génica es prácticamente imposible a día de hoy, sin embargo, se cree que cuando se pueda

manipular los genes para corregir mutaciones a nivel molecular, se podrá utilizar la información celular con fines terapéuticos a partir de los diagnósticos familiares.

3. El problema de la creación de terapias.

El problema básico que encuentran los grupos de investigación ante una posible terapia no es otro que un

obstáculo social. Los proyectos de investigación se enfrentan a la propiedad industrial. Esto ocurre porque el desarrollo de un fármaco puede tardar de 10 a 12 años de media y además necesita de una gran financiación (estamos hablando de millones de euros) antes de tratar (experimentar) con los pacientes incluso. En todo ensayo clínico se exige que haya varias fases (ensayos preclínicos, ensayos clínicos Fase I y ensayos clínicos Fase II y ensayos clínicos Fase III) y en estos se pide el mínimo riesgo posible y, posteriormente, asegurar un mínimo de eficacia.

La financiación de más coste es aportada por las farmacéuticas. Pero sólo se harán cargo las farmacéuticas

de estos grandes gastos si mediante patentes y otros títulos de propiedad industrial, les pertenecerá en exclusiva a ellas la explotación del futuro medicamento, durante algunos años.

El problema es que los grupos de investigación que hayan publicado sus observaciones, cosa que ocurre con

mucha normalidad para estabilizar la situación laboral de los investigadores y promocionarlos y conseguir aún más financiaciones para sus futuras investigaciones, es que ya no podrán utilizar terapéuticamente su trabajo. Ante los datos publicados muchos otros investigadores tendrán acceso a ellos y podrán también crear proyectos de terapias, con lo cual las farmacéuticas al no tener el monopolio de un medicamento no financiarán su investigación. Los propios investigadores reconocen que muchas terapias se pueden estar perdiendo por la falta de financiación de las farmacéuticas.

4. Implicaciones Sociológicas y Filosóficas. Conclusiones.

Vamos ahora a tratar el tema de la Retinosis Pigmentaria trascendentemente, puesto que hasta ahora hemos hablado de la enfermedad inmanentemente: causas, terapias, etc. En primer lugar, vamos a registrar algunas de las instituciones relacionadas con la Retinosis Pigmentaria según nuestros datos. Posteriormente vamos a registrar cuál es la unidad social determinante en esta enfermedad. Finalmente, vamos a desarrollar una serie de cuestiones acerca del juicio que proponemos aquí después de todos estos datos y una serie de conclusiones respecto de ellos.

El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez

 

154 E N E R O

2 0 1 2

Las instituciones principales implicadas con la Retinosis Pigmentaria y otras enfermedades asociadas con ella con las diferentes asociaciones de Retinosis Pigmentaria de ámbito local. En total son dieciocho las asociaciones cada una con sus miembros asociadosiv. A su vez, estas asociaciones están coordinadas desde FARPE que es la Federación de Asociaciones de Retinosis Pigmentaria de España, que las contiene a todas ellas. FARPE trabaja conjuntamente con FUNDALUCE que es la Fundación Lucha Contra la Ceguera. FARPE tiene entre sus propósitos promover la investigación médico-científica, favorecer la captación de recursos y la cooperación entre los grupos de asistencia, y además, impulsar la asistencia sanitaria a los afectados. La labor de las asociaciones de las comunidades autónomas tiene más un carácter de divulgación de la enfermedad para promover la toma de conciencia individual y colectiva. Ofrecen a los afectados, servicio de orientación, asesoramiento y sensibilización. Además, las asociaciones tienen personal profesional y voluntario que ayuda a las personas con Retinosis Pigmentaria y enfermedades asociadas, que es coordinado por la FARPE. Se atiende a los afectados y posibles afectados indicándoles qué deben hacer según su situación. El principal objetivo científico de la FARPE es realizar el diagnóstico genético con la realización de árbol genealógico familiar (de afectados y portadores) de todas las generaciones posibles además de dar ayudas para la investigación a diferentes grupos de investigadores. A su vez FUNDALUCE recibe donativos públicos y privados. La ONCE, Organización Nacional de Ciegos Españoles es otra de las instituciones implicadas con la Retinosis Pigmentaria. Su implicación consiste en la prestación de servicios sociales para las personas ciegas o con deficiencia visual grave. Busca la autonomía de sus afiliados en los ámbitos de la vida generales: social, laboral y familiar. La ONCE nació en España el 13 de diciembre de 1938, con el fin de poder dar un trabajo a las personas discapacitadas por ceguera total o parcial, mediante un decreto se otorgó la explotación del cupón prociegos a aquellos que estuviesen afiliados a la ONCE. Miles de personas hoy en día juegan el cupón. Mediante la ONCE, posteriormente se consiguieron nuevos puestos para los ciegos, además de centros de formación, de modo que los propios afiliados contasen con otras posibilidades aparte de la de ser vendedores. Muchos de los afectados por la Retinosis Pigmentaria trabajan en esta organización, principalmente como vendedores. El hecho de tener en España una organización como la ONCE hace que sociológicamente el tema de la ceguera se mantenga en auge siendo determinante para la aparición posterior de instituciones de enfermedades de ceguera específicas y no sólo estas, pues la ONCE, a día de hoy, también tiene entre sus afiliados personas con otras discapacidades.

La unidad social mínima relevante para un estudio sociológico de la Retinosis Pigmentaria es la familia. Por

ser una enfermedad hereditaria en la que los estudios genéticos son tan importantes, los individuos enfermos o portadores por separado no tienen un interés tan importantev. Los investigadores al enfrentarse a la investigación de la búsqueda de los genes que implican la Retinosis Pigmentaria, por ser un grupo de enfermedades y por el problema de la heterogeneidad genética, tienen que basar sus investigaciones a escala familiar. Las diversas Asociaciones de Retinosis Pigmentaria de España tienen entre sus miembros a familias completas que facilitan sus datos genéticos para las investigaciones científicas. No se conocen aún todas las mutaciones de los genes mediante los que aparece la enfermedad. Esto hace que los estudios genéticos de muchas familias no tengan una solución acertada acerca de cuál(es) gen(es) están alterados. Además, la cantidad de genes asociados a esta enfermedad hace de cada familia un caso específico de estudio, con lo cuál, en cuanto al estudio genético es muy difícil hacer de él un estudio general. Además de que en muchos casos la Retinosis Pigmentaria va asociada a un grupo de enfermedades más ampliovi, con lo que se hará más difícil el estudio genético aquí. Tampoco habrá una solución general para el grupo de enfermedades que componen la Retinosis Pigmentaria, sino que cada grupo de familias asociadas con uno o varios genes tendrán que ser tratadas de manera diferente. De ahí el interés por hacer un árbol genealógico familiar de todas las generaciones posibles. Cuantas más familias se presten a los análisis genéticos, más probabilidades hay de avanzar científicamente en la enfermedad.

Después de todo lo anteriormente dicho, podemos enfatizar que en la Retinosis Pigmentaria el todo no es la

suma de las partes, sino que cada enfermedad es demasiado específica con respecto a las demás. Además, la génesis de la enfermedad según a que gen o genes esté asociada es muy diferente en cada caso. Cuando se obtuviese la totalidad de genes asociados con este grupo de enfermedades, habría que hacer una clasificación en grupos de familias que tuviesen genes dañados compartidos y hacer funciones respecto de qué enfermedad específica de la Retinosis Pigmentaria está asociada a cada familia. De este modo tendríamos una posible clasificación en la que enclasar cada gen o grupo de genes con el tipo de enfermedad de la Retinosis Pigmentaria. Sin embargo, el problema consiste precisamente en encontrar todos los genes dañados asociados con la enfermedad. La heterogeneidad genética núcleo de la Retinosis Pigmentaria hace de esta enfermedad una de las más difíciles de

Paloma Nido Suárez | Praxis Humana.

 

155E N E R O

2 0 1 2

investigar. Del mismo problema se extrae que haya que estudiar muchas familias para poder encontrar los genes, la necesidad del gran grupo de gente que se necesita para las investigaciones científicas surge también el problema de dar cuenta con soluciones genéticas para la enfermedad.

Hay otros problemas asociados que también son importantes. La necesidad del estudio genético familiar,

hace que se reduzca el número de casos posibles para estudiar. No todos los miembros de cada familia están dispuestos a hacerse análisis genéticos y, por ello, los resultados genéticos no son tan específicos como se quisiera. También está el hecho de que hoy en día los análisis genéticos se centran en familias nucleares (padres e hijos) en donde no se tiene constancia del historial clínico de los antepasados y en donde, si los abuelos ya han fallecido los estudios genéticos tampoco son tan específicos como se desea. Esta es otra de las razones por las cuales entendemos que la familia es la unidad mínima social relevante para el estudio sociológico de esta enfermedad.

Por no mencionar un problema genérico de todo lo que tiene que ver con el tema del genoma humano que es

que a pesar de que ha secuenciado, muchos de los genes que de él se conocen aún no se sabe cuáles son sus funciones, entre ellos puede que genes relacionados la retina y sus procesos.

También tenemos el problema de las patentes que es el derecho de propiedad industrial que hace que las

farmacéuticas no quieran hacerse cargo del coste las financiaciones. Esto hace desaparecer opciones de terapias tanto de tipo génico como mediante fármacos u otras opciones y hacen que las investigaciones científicas se vayan por otros derroteros.

Otro problema es el de la metodología de la investigación. ¿Qué investigar primero la enfermedad en su

totalidad y dando cuenta de todo lo que la favorece (incluyendo el amplio estudio genético) o buscar soluciones respecto de lo que se conoce de la enfermedad; o bien una tercera opción, intentar buscar soluciones e investigar a la vez la Retinosis Pigmentaria para ir aumentando la información que tenemos sobre ella? Parece que se ha tendido hacia esta tercera opción, aunque no podemos afirmar si esto ha sido decidido o casualmente la estrategia funciona así. Me aventuraría a decir que no se ha decidido nada por la cantidad de grupos heterogéneos relacionados con la enfermedad, asociaciones, federaciones y grupos de investigación. Sin embargo, tampoco diría que ha sido tomada casualmente esta metodología porque hay muchas personas (familias enteras incluso) implicadas en las investigaciones científicas; bien porque son sujetos de estudio o han ofrecido donativos para las causas relacionadas con la Retinosis Pigmentaria. Por no hablar de las asociaciones y empresas que financian los proyectos de investigaciónvii. Por tanto, sino apareciesen investigaciones relacionadas con posibles soluciones o terapias para la Retinosis Pigmentaria, que además se pudieran comercializar, las personas estarían menos dispuestas a participar en análisis genéticos. Tampoco se recibirían tantos donativos, privados, públicos o particulares.

Por último vamos a tomar las cuestiones que nos hacíamos en la introducción. ¿Tienen los enfermos total

conciencia de que las soluciones serán para los futuros seres humanos que nazcan? ¿Los enfermos se someten a los diagnósticos genéticos, por altruismo, por falta de información o por una esperanza que proviene del idealismo de que la ciencia puede solucionarlo todo?

En primer lugar, no creo que enfermos o personas portadoras se sometan a los diagnósticos sin la

información necesaria. Los diagnósticos genéticos son para encontrar qué genes están afectados por mutaciones. En el caso de diagnósticos genéticos familiares son para buscar, además, mujeres portadoras de la enfermedad. Sin embargo, los diagnósticos genéticos no ofrecen una solución, ni inmediata ni mediata para la mayoría de los casos, sólo es un análisis para catalogar qué genes dañados están implicados y ver qué personas de la familia son portadores y cuales están enfermas y cómo.

La cuestión va encaminada a erradicar la enfermedad escogiendo nuestra herencia. Es decir, eligiendo la

carga genética de nuestros hijos. También, muchas de las personas que sean enfermas o mujeres portadoras podrán decidir no tener hijos para no traer al mundo personas enfermas o utilizar técnicas como el diagnóstico preimplantacional, en el caso de que se conozca el gen o genes asociados con la enfermedad en su familia. La familia goza de todo el peso en el caso de los estudios genéticos. Un individuo que se somete a las pruebas genéticas sabe que en muchos casos lo máximo a lo que puede aspirar es a conocer aquellos genes en los que está la mutación que hace que aparezca la enfermedad. Sin embargo el interés de los afectados respecto de las pruebas

El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez

 

156 E N E R O

2 0 1 2

tiene varias razones. En primer lugar, no hay altruismo a la hora de hacerse un estudio genético; dado que el reconocimiento de los genes que conllevan una mutación puede ayudar a erradicar la enfermedad en los hijos de los afectados, manteniendo un control, incluso, desde antes del embarazo. En el caso de familias con hijos pequeños ya afectados, la solución siendo a largo plazo se encamina a erradicar la enfermedad de los niños de la familia en un futuro. De ahí que las organizaciones mantengan unidas a todas las familias exponiendo mensajes de esperanza y de nuevos avances, que llegan con cuentagotas.

Más bien, el mensaje de FUNDALUCE y las asociaciones es un mensaje doble, por un lado, a nivel

individual estoico, la enfermedad es muy dura pero se puede sobrellevar y por otro lado a nivel global hay una esperanza casi irracional del progreso de la ciencia en crear una solución (que, en realidad, serían soluciones) para la ceguera. Algo que como hemos visto aquí es muy difícil, por la amplitud de problemas que conlleva la investigación de esta enfermedad. Además, estamos hablando siempre desde el marco nacional español. En otras partes del mundo apenas se conoce dicha enfermedad y menos aún las personas se pueden costear los gastos de análisis genéticos, ya que no hay asociaciones que las costeen y sólo personas de bastantes recursos pueden hacerlo. Con lo cual, en el mundo globalizado en el que vivimos, con familias multiculturales, será muy difícil hacer un completo análisis de la enfermedad. Son muy pocas familias las que acceden a los diagnósticos genéticos, con lo cuál la información que de ellos obtenemos no es suficiente. Por lo tanto, habría que plantearse si los estudios genéticos son tan importantes como parece o habría que intentar buscar otras soluciones alternativas, que de hecho existen y se están probando. La Retinosis Pigmentaria es degenerativa y aunque se solucionase el problema de la retina y de los fotorreceptores, no se saben aún que posibilidades hay de que las conexiones cerebrales asociadas a la vista desde la luz recibida por el nervio óptico pudiesen formatearse de nuevo en imágenes. Se cree que en algunos casos no seria posible recuperar la vista, y desde luego, no se cree que se recupere al 100%. Con lo cual parece que las soluciones que tienen que ver con la genética asociada a la Retinosis Pigmentaria no son para los hombres de hoy en día.

iArtículo extraído de “Retinosis Pigmentaria. Guía informativa”. Editada por la Asociación de Retinosis Pigmentaria de Navarra. ii Conferencia ¿Es útil detectar a los portadores de retinosis pigmentaria? Goldaracena, Begoña. Curso de Retina Organizado por la Facultad de Medicina de la Universidad de Navarra. iii GALLARDO, Dominique y VIDAL, Francisco. Diagnóstico genético preimplantacional de enfermedades hereditarias. Aplicación a la Retinosis Pigmentaria. Revista Visión nº 30 EDITA: FARPE (Federación de Asociaciones de Retinosis Pigmentaria de España). iv Las asociaciones a nivel local son: 1) A. A. R. P. Asociación Andaluza de Retinosis Pigmentaria. 2) A. A. R. P. Asociación Aragonesa de Retinosis Pigmentaria. 3) A. A. R. P. Asociación Asturiana de Retinosis Pigmentaria 4) Asociación Canaria de Retinosis Pigmentaria 5) A. C. A. R. P. Asociación Cántabra de Afectados por Retinosis Pigmentaria. 6) Asociación de Castilla-La Mancha. 7) A. C. L. A. R. P. Asociación Castellano Leonesa de Afectados por Retinosis Pigmentaria 8) A. A. R. P. C. Asociación de Afectados por Retinosis Pigmentaria de Catalunya. 9) A. E. R. P. Asociación Extremeña de Retinosis Pigmentaria 10) A. G. A. R. P. Asociación Gallega de Afectados por Retinosis Pigmentaria. 11) Asociación de Murcia. 12) A. R. P. N. Retina Navarra. 13) A. A. R. P. C. V. Asociación de Afectados por Retinosis Pigmentaria de la Comunidad Valenciana 14) Asociación de Afectados por Retinosis Pigmentaria de Alicante. 15) Asociación de Afectados de Retinosis Pigmentaria de Euskadi. 16) Asociación Retina Madrid. 17) Asociación de Afectados por Retinosis Pigmentaria de Giupúzcoa. 18) Asociación Cántabra de Afectados por Retinosis Pigmentaria. v Nuestro trabajo ha enfatizado el nivel genético de la enfermedad, aunque en otros enfoques de trabajo de la enfermedad y otras posibles terapias no génicas podría ser el individuo podría ser más importante que la familia. vi Entre estas enfermedades está el Síndrome de Bardet-Biedl y el Síndrome de Usher, las cuales sólo vamos a mencionar puesto que se salen del estudio específico de nuestro trabajo. vii En el año 2008 entre el 1 de mayo y el 31 de octubre, FUNDALUCE recibió 19. 515,07 €, de los que los donativos privados fueron 9.955,07 € y 3.560 € de entidades públicas y privadas. Datos recogidos de la Revista Visión nº 33. que edita FARPE. 

Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.

 

157E N E R O

2 0 1 2

 

La ideología en torno a la genética en la ciencia‐ficción Adrián J. Carbajales Terés      Resumen  Que  el  Proyecto  Genoma  Humano  no  está  libre  de controversia  ideológica  se  ve  bien  a  través  de  su incorporación de su temática al género de la ciencia ficción. En 1990, arranca el PGH y Michael Crichton escribe Parque Jurásico,  novela  en  la  que  un  acaudalado  empresario recupera  ADN  de  dinosaurios  a  partir  de  mosquitos conservados en ámbar   y crea un zoo en el que se exhiben. Se repite en este caso el tópico de la crítica ideológica según el cual al científico se le acaba yendo de las manos su propia creación  como  en  Frankenstein.  El  hecho  de  que  en  1993 Steven Spielberg  la  llevará al cine, produciendo  la película que por aquel entonces consiguió las mayores ganancias de la  historia,  sólo muestra  que  la  crítica  ideológica  es más rentable  literariamente  que  el  tópico  ideológico  positivista como  en  el  videojuego  de  estrategia  Civilization:  Call  to Power,  donde el Proyecto Genoma Humano juega el mismo papel  que  Chichen  Itza,  la  Academia  de  Confucio  o  el Laboratorio  de  Edison.  Sus  efectos  son  los  siguientes:  la civilización que descodifique el Genoma recibe un aumento del diez por  ciento de  la  natalidad,  y  aumenta  también  la fuerza de sus unidades.                   

              Abstract   That  the Human  Genome  Project is  not  free of  ideological controversy is either  through incorporation of  its  subject to the  genre  of science  fiction. In  1990,  started the  HGP and Michael Crichton wrote Jurassic  Park novel  in  which a wealthy  businessman   recovered   dinosaur  DNA from mosquitoes preserved  in  amber and make a zoo in which are exhibited.  Repeated in this case the topic of ideology critique according to which the scientist is  just   getting    out  of  handhis  own creation as Frankenstein. The  fact  that Steven   Spielberg    in 1993 to  film producing the  film at  that  time got the  biggest profits in  history,     only  shows  that ideological  critique   is  literally   more  profitable than  the   positivist   ideological topic in  the strategy  game Civilization :  Call to Power, where   the  Human  Genome  Project   plays   the same role as Chichen Itza, the Academy of Confucius or  the  Edison   Laboratory.   Its    effects are: the    civilization    that  decode   the genome receives a ten   percent   increase in    the birth rate  and also increases the strength of their units.                      

 

Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.

 

159E N E R O

2 0 1 2

 

La ideología en torno a la genética en la ciencia‐ficción Adrián J. Carbajales Terés 

INTRODUCCIÓN:

El tema a tratar en este pequeño ensayo, aunque sobre una cuestión aparentemente de poca importancia

respecto a otras cuestiones relacionadas con el Proyecto Genoma Humano, pudiendo ser acusado de superficial o

superestructural, no es ni mucho menos sencillo o irrelevante.

Trataremos, a continuación, de analizar cómo el desarrollo de la biología ha conformado ideas que han

influído directamente en obras de ciencia-ficción, y cómo éstas influyen a su vez en la visión que la sociedad,

incluídos los propios científicos, poseen sobre los temas a tratar. Para ello, haremos un breve recorrido por la

historia de este género y su relación con la biología desde sus inicios en la literatura, para luego esbozar también

su papel en la cultura de masas y la prolífica explotación de la temática durante el desarrollo del Proyecto

Genoma Humano.

¿QUÉ ES LA CIENCIA FICCIÓN?:

En un primer lugar debemos definir qué es la ciencia ficción. Hay múltiples definiciones, siendo una de

las más comunes la que podríamos resumir como “rama de la literatura fantástica que relata viajes extraordinarios

o historias ambientadas en el futuro”. Esta definición altamente confusa (¿qué tienen que ver los viajes

extraordinarios con las historias ambientadas en el futuro?) no permite distinguir la ciencia ficción de otros

géneros anteriores, como el fantástico, u otros posteriores, como el steampunk, que al menos intuitivamente

concebimos como esencialmente diferentes. Tampoco atenderemos únicamente a una cuestión de nomenclatura,

pues cuando se acuña el término ciencia-ficción (en los años 20 por el escritor Hugo Gernsback) ya es para aludir

a un género literario antes existente. Para encontrar la nota diferencial del género debemos recorrer, al menos

brevemente, su historia, atendiendo a lo que desde múltiples interpretaciones está incluído en ella.

Es común atribuir la fundación del género a Luciano de Samósata (125-192 d.C.), que en Relatos

verídicos presenta un viaje en barco a la luna, catapultado por una tromba de agua al espacio exterior. Sin

embargo este relato es en realidad una parodia de los relatos de marinos, llevando al absurdo las fantásticas

historias que se presentaban como verdaderas. ¿Acaso la ciencia ficción es una comedia de ambientación

fantástica? No podemos considerar esta obra como la fundadora de la ciencia ficción, pues lo único que se

encuentra en ella es ficción, no estando la ciencia por ningún lado. La confusión puede deberse a que,

groseramente, puede considerarse la obra de Luciano precedente de De la Tierra a la Luna de Julio Verne (1865),

La ideología en torno a la genética en la ciencia-ficción | Adrián J. Carbajales Terés

 

160 E N E R O

2 0 1 2

pero la diferencia entre ambas es esencial. En su obra, Verne estudia y explicita cuestiones físicas como qué

tamaño debe tener el cañón con el que enviar al espacio la nave-bala, cuanto explosivo debe colocarse en él y

dónde debe fabricarse (acertando al situar el mejor lugar para el despegue de suelo americano en Florida). Así

vemos que la rigurosidad científica de la obra de Verne es notable (aunque no tiene en cuenta el efecto producido

por la fuerza de la aceleración en los tripulantes), mientras que Luciano de Samósata no podía apelar a tales

cuestiones, simplemente porque en su época no había ciencias empíricas en sentido estricto.

Por lo tanto la ciencia ficción, como tal, no puede existir hasta finales del siglo XVII y es, como veremos

a continuación, a primeros del siglo XIX cuando los importantes cambios sociales producidos por la Revolución

Industrial llevan a literatos a preguntarse por las consecuencias de los futuros avances científicos.

Cuando a finales del siglo XVIII el médico, fisiólogo y físico italiano, Luigi Galvani, mostró las

contracciones producidas por la electricidad en cadáveres de animales, mediante máquinas eléctricas y botellas de

Leyden, se estableció un puente entre la física y el mundo orgánico por el que la vida empieza a perder la

naturaleza misteriosa que se le atribuía. Este descubrimiento pronto cala en todos los estratos de la sociedad,

llegando a correr el rumor de que Erasmus Darwin había conseguido dar vida a unos fideos mediante descargas

eléctricas.

Cuando Mary Shelley (1797-1851), hija de acomodados filósofos, oye a Lord Byron plantear estas

cuestiones, no tarda en escribir Frankenstein o el moderno Prometeo (publicada en 1818), obra en la que plantea

los problemas que podría conllevar el desarrollo de las ciencias si éstas permiten manipular la vida. Su modo de

plantearlo no es, ciertamente, muy original, ya que lo hace desde una perspectiva teológica, muy similar a la del

mito hebreo del Gólem: Si creamos vida, tal como lo hizo Dios (Victor Frankenstein no “crea” la vida, pero

tampoco reanima un cuerpo cualquiera, sino que produce uno con sus propias manos), ésta puede volverse contra

nosotros como nosotros podemos volvernos contra Dios. Pero a pesar de que la filosofía desde la que Shelley

escribe el libro no es nueva, si lo es el problema a tratar literariamente: las consecuencias de los posibles

desarrollos de las ciencias.

Así tenemos la obra de Shelley como fundadora de la ciencia ficción, pues posee una característica nunca

antes dada en la literatura, y que podemos considerar como parámetro para juzgar si posteriores obras son ciencia

ficción o no. Así no consideraremos ciencia ficción subgéneros de la fantasía nacidos precisamente bajo influencia

de la ciencia ficción, como la space opera (aventuras de ambientación futurista, pero cuyo argumento no

cambiaría sustancialmente si sustituyéramos las naves espaciales por dragones) o el steampunk (que trata

consecuencias de los ya imposibles desarrollos de las ciencias y las técnicas, como la existencia del éter o la

posibilidad de fabricar avanzados autómatas a vapor).

Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.

 

161E N E R O

2 0 1 2

DOS PUNTOS DE VISTA SOBRE LA MANIPULACIÓN DE LA VIDA ANTES DEL

DESCUBRIMIENTO DEL ADN:

En 1896 el escritor y socialista utópico Herbert G. Wells publica La isla del Doctor Moreau, obra en la

que un científico, desacreditado por sus crueles experimentos con animales, se exilia a una isla donde puede

actuar con libertad. Allí, mediante cirugía consigue dar forma humanoide a múltiples animales, y mediante

hipnotismo los dota de una inteligencia matemática y lingüística rudimentarias, sustituyendo los instintos por

condicionamientos. De nuevo tenemos aquí el mito del Gólem, pues Moreau se autoproclama dios de la isla

(incluso dicta unos mandamientos) y las criaturas a las que manipula acaban volviéndose contra él y asesinándolo.

Excepto por su crítica a las instituciones religiosas (aunque las muestra como necesarias para mantener el control

social, debiendo seguir con la pantomima el protagonista tras la muerte de Moreau, para así sobrevivir), parece

que no supone gran novedad respecto a Frankenstein, cayendo en la defensa de los mismos valores. Pero en su

relato alude a nuevos desarrollos de las ciencias, abandonando el galvanismo por teorías más refinadas. Durante el

siglo XIX la cirugía aparece como victoriosa, pues su integración en la medicina con las teorías microbianas y el

desarrollo de anestésicos abre un nuevo mundo de posibilidades. El hipnotismo, aunque ahora sea muy

cuestionable su cientificidad, fue también estudiado por numerosos médicos en el siglo XIX, influídos por las

teorías mesmeristas del magnetismo animal (el cirujano escocés James Braid, el terapeuta francés Liébeault

Ambroise Auguste o el también francés y considerado como uno de los fundadores de la neurología Jean-Martin

Charcot). Además, en la sustitución de los instintos por condicionamientos podemos ver el germen del

conductismo (en la misma década en la que Pavlov formuló la ley del reflejo condicionado) y en la ruptura de la

frontera entre humanos y animales una anticipación de la psicología comparada de principios del siglo XX,

antecedente directo de la etología.

Más de treinta años después, el escritor anarquista Aldous Huxley publica Un Mundo Feliz (1932), obra

crítica con la nueva sociedad industrial fordista. En ella presenta una distopía futura, en la que el Estado Mundial

formado en el siglo XXI produce en cadena incluso a los seres humanos. Como si la sociedad fuera una colonia de

insectos, los individuos son cultivados en enormes fábricas, especializándolos para el trabajo que desempeñarán

en el futuro, con métodos como cortar al feto el suministro de oxígeno para que desarrolle una menor inteligencia.

Aquí tenemos un nuevo punto de vista, en el que es el propio Estado, y no el científico individual, el que utiliza la

ciencia para conformar el mundo a su voluntad. No criticando la ciencia, sino el uso técnico que se le da en los

sistemas de producción capitalista y socialista, no podemos negar la semejanza de esta distopía con la crítica de la

primera generación de la Escuela de Frankfurt a la razón instrumental, la cual comienza ese mismo año a

desarrollar su programa de investigación bajo la dirección de Max Horkheimer.

La ideología en torno a la genética en la ciencia-ficción | Adrián J. Carbajales Terés

 

162 E N E R O

2 0 1 2

LA GENÉTICA Y LA CULTURA DE MASAS. UN CASO PARADIGMÁTICO:

Para sobrevivir a la dura competencia, las grandes compañías productoras de la cultura de masas siempre

están ávidas de nuevas ideas para sus relatos, y por ello es común que tomen como referencia los nuevos

desarrollos científicos. Un caso que merece un exhaustivo análisis, pero del que sólo estableceremos unas líneas

generales, el caso de los cómics de X-Men y sus incontables spin-offs, pues durante sus casi cincuenta años de

existencia (con publicación ininterrumpida todos los meses excepto entre los años 1970 y 1975) sus historias han

estado ligadas a la visión que en cada momento histórico se tenía de la genética.

En los años sesenta, con la nueva oleada de cómics de superhéroes (tras la crisis producida por la férrea

censura llevada a cabo desde 1954, tras la publicación de La seducción del inocente del psicoanalista Fredric

Wertham) los autores trataban de encontrar nuevas ideas para contar historias originales. Tradicionalmente los

superhéroes resultaban de una mezcla de géneros, siendo sus extraordinarias capacidades oríginadas bien por

medios tecnológicos (Batman), químicos (Capitán América) o numinosos (Superman), pero, tras la Segunda

Guerra Mundial y la aparición del miedo a la energía nuclear, el orígen radiactivo comienza a dominar la escena

(Hulk, Spider-Man… sin explicitar que la radiactividad produce una transformación genética). Entonces es

cuando Stan Lee, autor intelectual de estos últimos, plantea la publicación de una colección sobre un grupo de

jóvenes mutantes, cuya genética única les dota de increíbles poderes. Mientras que los X-Men eran guiados por

Charles Xavier, que les enseñaba a utilizar sus dones “para defender un mundo que les odia y les teme”, un

antiguo amigo de Xavier, Erik Magnus, trataba de tomar el lugar que creía le correspondía en la jerarquía social

como el homo superior que era.

Así, se publica el primer número de la colección en 1963, un año después de que James Watson reciba el

premio Nobel por sus investigaciones sobre el ADN. En un malentendido evolucionismo, Lee presenta un salto en

la evolución que produce una nueva especie, según algunos destinada a sustituir a la humanidad. Tomando como

ejemplo el modelo de la lucha por los derechos de los afroamericanos, Lee establece analogías implícitas entre el

Profesor X y Martin Luther King y entre Magneto y Malcolm X, siendo la posición de éste último demasiado

aterradora para el americano medio de raza blanca.

Con el paso de los años esta analogía mutante/afroamericano se va perdiendo, pero aparece otra aún más

influída por presupuestos biologicistas. Cuando en 1983 se comienza a insinuar la existencia de un superhéroe

homosexual, Estrella del Norte, no es ni mucho menos coincidencia que se esté hablando de un mutante. John

Byrne, responsable de la idea, confiesa haber leído en la revista Scientific American que se estaban encontrando

pruebas de que la homosexualidad tenía un origen genético y no social, y que por tanto le pareció lógico que

quien portara el gen X también pudiera portar el “gen gay”. Esta nueva analogía entre mutantes y homosexuales

continuaría a lo largo de los años noventa, apareciendo en las historias una nueva enfermedad, el “virus del

Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.

 

163E N E R O

2 0 1 2

legado”, similar al sida. Cuando en un primer momento afecta únicamente a los mutantes es ignorado por los

medios de comunicación, pero tras empezar a afectar a humanos se produce una gran alarma social.

Pero lo más curioso y significativo para encontrar relaciones entre el desarrollo de la genética y el auge

de esta temática en la ficción es que, en 1991, a la vez que se inicia el proyecto de secuenciación del genoma

humano, X-Men consigue el récord Guiness al cómic más vendido de la historia, llegando un ejemplar de octubre

de ese año nada menos que a los ocho millones de ventas en menos de tres meses, lo que es más increíble aún si

tenemos en cuenta que ese mismo mes se publicaron otra media docena de títulos relacionados con el tema. No

podemos atribuir tal récord únicamente a la influencia de los avances científicos, pero sin duda existe alguna

relación.

CIENCIA FICCIÓN DURANTE EL PROCESO DE SECUENCIACIÓN:

Durante la década de los noventa, paralelo a la secuenciación del genoma, el auge de la temática genética

en la ciencia ficción es obviamente indiscutible, llegando además mediante el cine a conformar ideas al respecto

en una inmensa parte de la población. Esto puede ser ejemplificado con el siguiente listado de obras sobre la

cuestión:

En 1990 Michael Crichton escribe Parque Jurásico, novela en la que un acaudalado empresario recupera

ADN de dinosaurios a partir de mosquitos conservados en ámbar (en el cual realmente no se conserva) y crea un

zoo en el que se exhiben. Cómo no, se repite aquí el tópico según el cual al científico se le acaba yendo de las

manos su propia creación. En 1993 Steven Spielberg la llevará al cine, produciendo la película que por aquel

entonces consiguió las mayores ganacias de la historia (siéndole arrebatado el puesto en 1997 por Titanic) y de la

que nacen dos secuelas.

En 1996 se lleva de nuevo La isla del Doctor Moreau al cine, modificando la historia para que concuerde

con las nuevas teorías biológicas. Así se mantienen las pretensiones de la novela de basarse en la ciencia, pues si

un siglo después de ser escrita se elaborara una versión en la que se sigue hablando de cirugía e hipnotismo

estaríamos en un género más cercano al steampunk.

Pero la visión teológica clásica, repetida en la ciencia ficción desde Frankenstein o el moderno

Prometeo, no es la única. En 1997 se estrena Gattaca, la mayor crítica hecha hasta ahora al Proyecto Genoma

Humano mediante el lenguaje cinematográfico. En esta película se presenta un futuro cercano en el que la

humanidad está dividida en válidos (aquellos cuyos genes han sido artificialmente seleccionados) e inválidos

(hijos naturales), estando los trabajos de relevancia disponibles únicamente para los válidos. Además de esta

crítica a las posibles consecuencias sociales del control de los caracteres, se muestra escéptica acerca de la

La ideología en torno a la genética en la ciencia-ficción | Adrián J. Carbajales Terés

 

164 E N E R O

2 0 1 2

posibilidad de ejercer realmente este control: Vincent, el protagonista “inválido”, apuesta con su hermano válido

quién consigue nadar más lejos, lo que lleva a que su hermano se fatigue en exceso y muera ahogado. Aunque tal

sistema de selección se implantara no sería absolutamente determinable, pues hay factores que se escapan del

control del biólogo (no todo en el hombre es biología).

También nos encontramos con otras perspectivas, como el optimismo cientificista del positivismo. En el

videojuego de estrategia Civilization: Call to Power, una de las Maravillas que se puede producir es,

precisamente, el Proyecto Genoma Humano, al mismo nivel que Chichen Itza, la Academia de Confucio o el

Laboratorio de Edison. Sus efectos son los siguientes: la civilización que descodifique el Genoma recibe un

aumento del diez por ciento de la natalidad, y aumenta también la fuerza de sus unidades. A pesar del simplismo

necesario para formalizar en unas reglas básicas el efecto de las distintas Maravillas, la ingenuidad con la que se

plantea la cuestión es inexcusable.

Una cuestión reseñable aquí es la versión fílmica de X-Men (2000), que no cambia ni un ápice el

planteamiento de los cómics escritos cuarenta años antes, mostrando que su historia está más vigente que nunca,

mientras que Spider-Man (estrenada en el 2002, debido al retraso ocasionado por la decisión de sustituir las

escenas en las que apareciera el World Trade Center) cambia la picadura de una araña radiactiva, más propia de

los tiempos de la Guerra Fría, por la de una araña diseñada mediante ingeniería genética.

DESENCANTO Y ORIENTACIONES FUTURAS:

Con la llegada del final del Proyecto Genoma Humano y la falta de los resultados prácticos inmediatos

que se prometían, la ciencia ficción tiende a buscar inspiración en otros temas, centrándose en cuestiones que

comienzan a preocupar más al público, producto del Nuevo Orden Mundial existente tras el 11-S. Así se centran

en la tecnología aplicada a la detención preventiva (Minority Report, 2002), en las grandes catástrofes producidas

por enemigos externos, prestando atención a sus efectos en la población civil (la nueva versión de La guerra de

los mundos, 2005) o en el ecologismo (Wall-E, 2008, y Avatar, 2009). A su vez los nuevos juegos de la saga

Civilization olvidan el Proyecto Genoma Humano y se centran en la tecnología militar y la investigación espacial

(puede que por estar los autores desencantados ante la falta de aumento de la fuerza y la natalidad que creían

consecuencia de la secuenciación del ADN humano). Michael Crichton, autor que ya mencionamos por su obra

Parque Jurásico, escribe en 2006 la novela Next, mucho más crítica con los laboratorios de investigación genética

y las grandes corporaciones farmacéuticas, a las que se acusa de utilizar contínuamente argucias y vacíos legales

para imponer sus intereses, principalmente sus derechos de propiedad intelectual sobre los genes descubiertos.

Entonces ¿qué esperar en un futuro próximo de esta explotación de la biología en la ficción? Tal vez su

influencia vaya disipándose, como la de la radiactividad tras el fin de la Guerra Fría, y pronto la ciencia-ficción de

Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.

 

165E N E R O

2 0 1 2

los años noventa resulte ingenua, o tal vez nuevos descubrimientos provoquen una nueva oleada de biología-

ficción. Aunque en las artes siempre existan excepciones a la regla, podemos ver un fuerte vínculo entre el

desarrollo de éstas y de la sociedad, y como esperamos haya quedado claro en este breve ensayo, especialmente

entre la ciencia-ficción y el desarrollo de las ciencias.

BIBLIOGRAFÍA:

Crichton, M. (1990): Parque jurásico, Barcelona, Debolsillo, 2003.

Crichton, M. (2006): Next, Barcelona, Debolsillo, 2008.

Daniels, L. (1991): Marvel. Cinco fabulosas décadas de comics, Barcelona, Planeta-DeAgostini, 1996.

Huxley, A. (1932): Un mundo feliz, Barcelona, Plaza & Janés, 1999.

Luciano de Samósata: Relatos verídicos, en la recopilación Relatos fantásticos, Madrid, Alianza Editorial, 1998.

Shelley, M. (1818): Frankenstein o el moderno Prometeo, Madrid, Siruela, 2000.

Verne, J. (1865): De la Tierra a la Luna, Madrid, Edimat Libros, 2003.

Wells, H. G. (1896): La isla del doctor Moreau, Madrid, Anaya, 1990.

Wertham, Fredric (1954): Seduction of the Innocent, Main Road Books Inc, 1996.

FILMOGRAFÍA:

Avatar de James Cameron (2009), Twentieth Century Fox Film Corporation.

Gattaca de Andrew Niccol (1997), Columbia Pictures Corporation.

La guerra de los mundos de Steven Spielberg (2005), Paramount Pictures.

Minority Report de Steven Spielberg (2002), Twentieth Century Fox Film Corporation.

Parque Jurásico de Steven Spielberg (1993), Universal Pictures.

Spider-Man de Sam Raimi (2002), Columbia Pictures Corporation.

Wall-E de Andrew Stanton (2008), Pixar Animation Studios.

X-Men de Bryan Singer (2000), Twentieth Century Fox Film Corporation.

 

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

167E N E R O

2 0 1 2

 

El genoma humano en el derecho de patentes. Rodrigo Cocina Díaz1           Resumen  En este artículo se analiza brevemente el concepto  legal de patente  y  su  relación  con  los  desarrollos  tecnológicos derivados  del  estudio  del  genoma  humano,  tratando  de examinar  críticamente  los  fundamentos  de  la  legislación vigente al respecto. Se concluye que las disposiciones legales sobre la patentabilidad de este tipo de desarrollos son muy problemáticas debido a la ambigüedad de los conceptos que manejan,  el particular  los  relacionados  con  las  condiciones de patentabilidad de las invenciones.                       

1 Nació en Luarca, Asturias, en 1984. Obtuvo el título de Bachillerato en el I.E.S. Alfonso II de Oviedo en 2006 y desde 2011 es Licenciado en Filosofía por la Universidad de Oviedo.

                   Abstract   This paper  is a brief analysis of  the  legal concept of patent and  its  relationship with  the  technologies  that  the study of human genome makes possible, trying to do a critical exam of  the basis of current  laws about  it. The conclusion  is  that legislation on the patentability of this technologies is highly problematic, due to the ambiguity of the concepts involved, in particular those related with the necessary conditions that a new invention must accomplish to be patentable.                            

 

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

169E N E R O

2 0 1 2

 

El genoma humano en el derecho de patentes. Rodrigo Cocina Díaz2   

Una de las problemáticas más recurrentes cuando se trata el tema del genoma humano es la relativa a las

condiciones bajo las cuales se puede considerar el conocimiento y las tecnologías derivadas de los estudios

genéticos como algo susceptible de ser patentado y de generar por tanto derechos de propiedad industrial. Para

abordar este tema trataremos brevemente los dos conceptos del título y sus posibles implicaciones, para luego

acercarnos a la problemática que puede generar su interacción.

El genoma humano.

El uso del término de origen griego “genoma” como concepto de la biología no es nuevo. Fue adoptado

por primera vez en 1920 por el botánico Hans Winkler. Hace referencia a la totalidad de la información hereditaria

de un organismo, incluyendo tanto los genes que contienen información necesaria para la síntesis de

macromoléculas, como el llamado ADN no codificante, cuyas funciones no han sido determinadas claramente.

Aunque el conocimiento del funcionamiento de los genes y las técnicas de manipulación genética basadas en él se

desarrollaron a lo largo del siglo XX (principalmente en la modificación de especies animales y vegetales

destinadas al consumo), es a finales del siglo cuando el concepto de genoma comienza a popularizarse entre el

público no especializado, debido al impacto mediático que supuso el llamado Proyecto Genoma Humano (en

adelante PGH), que trataba de elaborar un mapa prácticamente completo de la estructura genética de unos sujetos

de estudio. Sobre todo a partir de la publicación de los resultados del proyecto en las revistas Nature y Science, en

febrero de 2001, comenzó una oleada de especulaciones y expectativas más o menos realistas acerca de lo que

supondría el conocimiento de la secuencia genética humana y su posible manipulación. Desde posiciones

ingenuamente fisicalistas o simplemente propagandísticas, se insinuaba o incluso se afirmaba con rotundidad que la

ciencia había desvelado con el PGH la esencia de lo humano. También se afirmaba que con éste conocimiento la

humanidad podría trascender las arbitrariedades naturales de su herencia genética y se libraría de las enfermedades

y males asociados a ella. A su vez, surgieron desde diversos ámbitos temores y críticas a un conocimiento que se

presentaba como la última panacea científica. Éstas críticas normalmente iban referidas a las consecuencias

socialmente indeseables de la eugenesia a escala global, la clonación etc. En suma, el debate especulativo derivó en

algunos casos en problemas que, sin negarles su interés, podríamos llamar “de ciencia ficción”, ya que los

resultados del PGH por si mismos no dan pie a tales expectativas, que probablemente fueron en parte alimentadas

por los propios científicos interesados en que se diera a los proyectos derivados del PGH una importancia prioritaria

2 Nació en Luarca, Asturias, en 1984. Obtuvo el título de Bachillerato en el I.E.S. Alfonso II de Oviedo en 2006 y desde 2011 es Licenciado en Filosofía por la Universidad de Oviedo.

El genoma humano en el derecho de patentes | Rodrigo Cocina Díaz

 

170 E N E R O

2 0 1 2

en la asignación de fondos públicos o inversiones privadas. Las aplicaciones prácticas del conocimiento derivado

del PGH no son, al menos por el momento, ni tantas ni de tanta importancia como se pretendía. Esto es debido tanto

a la falta de conocimiento específico sobre muchos de los factores que intervienen en el funcionamiento de la

codificación genética, como al poco desarrollo de instrumental técnico eficaz para la manipulación del genoma.

Tener una representación o un mapa de algo no implica conocer todos los entresijos del funcionamiento de aquello

que en él se representa, ni la libertad absoluta para su manipulación. Además, la genética no es el único factor que

afecta al desarrollo de un organismo, ya que los factores llamados ambientales en sentido amplio tienen gran

importancia.

Pese a éstas limitaciones, han ido surgiendo aplicaciones basadas en la información del genoma humano,

sobre todo en medicina preventiva, aunque también en otros ámbitos (“niños a la carta” etc.), aunque las terapias

génicas, basadas en lo introducción o extirpación de determinados genes en el paciente aún no están muy

desarrolladas. Son éste tipo de aplicaciones biotecnológicas las que se considera que pueden ser susceptibles de ser

patentadas, y no la secuenciación o mapa del genoma en bruto, que por sí sólo no tiene ninguna utilidad y fue

declarado por la UNESCO patrimonio de la humanidad. Ésto permitiría en principio que cualquier laboratorio

pueda utilizar la información del PGH para desarrollar y patentar conocimiento y tecnologías derivadas de ella.

También permite la utilización de la información del PGH por parte de empresas dedicadas a recopilar y ordenar

esta información para venderla una vez procesada. A continuación trataremos el concepto legal de patente para ver

cómo se han encajado las aplicaciones biotecnológicas en él.

El concepto legal de patente.

La patente es un derecho otorgado por el Estado o por una institución internacional a un inventor o un

titular secundario. Este derecho impide que terceros hagan uso de la invención patentada sin el consentimiento del

titular, que es libre de cederlo o comerciar con él. Una patente supone por tanto el monopolio en el uso de una

invención concedido por un tiempo limitado, que actualmente es de veinte años según las normas de la OMC. La

función socioeconómica que se atribuye al derecho de patente es la estimulación del desarrollo tecnológico por la

vía de la inversión privada con fines comerciales, haciendo que ésta resulte rentable para el inversor mediante la

concesión de un monopolio. Aunque también existe la opinión de que los monopolios de patentes lo que consiguen

es ralentizar el desarrollo tecnológico, ya que los inversores se limitarían a explotar sus patentes a veinte años y no

favorecerían nuevas vías de investigación que podrían entrar en competencia con las anteriores tecnologías.

Probablemente haya algo de cierto en ambas posturas.

En la generalidad de las legislaciones sobre patentes se establecen tres requisitos básicos para la

patentabilidad de un desarrollo tecnológico: la actividad inventiva, la novedad y la aplicabilidad industrial. Son tres

conceptos problemáticos que habrá que examinar críticamente si se pretende una perspectiva sobre el asunto que no

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

171E N E R O

2 0 1 2

sea meramente legalista.

El criterio de patentabilidad que se maneja por lo general en las oficinas de patentes es similar. Aquí

examinaremos la legislación española al respecto, que por lo demás es bastante uniforme con la de otros países.

Según el artículo 4 de la ley 11/1986 de Patentes de Invención y Modelos de utilidad, que sigue vigente, “son

patentables las invenciones nuevas, que impliquen actividad inventiva y sean susceptibles de aplicación industrial,

aun cuando tengan por objeto un producto que esté compuesto o que contenga materia biológica, o un

procedimiento mediante el cual se produzca, transforme o utilice materia biológica.”

El concepto de actividad inventiva no está claramente especificado, y decir que es un requisito para la

invención patentable parece tautológico (la invención requiere de actividad inventiva). Si consultamos la web de la

Oficina Española de Patentes y Marcas (OEPM), parece que este requisito se asimila al de “novedad no obvia”:

“Para que una idea sea considerada una invención, al menos una parte significativa de su tecnología debe ser

completamente novedosa (es decir, nueva). No deben existir pruebas de que este aspecto novedoso de su idea se

haya descrito con anterioridad, ni se haya usado para el mismo fin. Una idea puede ser una invención si las

tecnologías existentes se combinan de forma novedosa, o se usan de una forma novedosa. Para ser considerada

una invención, una idea debe suponer una actividad inventiva. […] La actividad inventiva debe ser no-obvia, esto

es, que no se le ocurriría fácilmente a un experto en la tecnología correspondiente.”

Según esta oficina, el criterio de discernimiento de la invención novedosa requiere un examen del “estado

de la técnica”, es decir, comprobar que el desarrollo tecnológico aspirante a ser patentado no se haya utilizado con

anterioridad para el mismo fin, haya sido o no patentado o comercializado con anterioridad. También se requiere

que dicho desarrollo no sea obvio y que sirva a algún fin, que tenga alguna utilidad.

Se considera entonces que para que algo sea patentable, debe suponer una novedad respecto a lo anterior.

Pero el concepto de invención novedosa es oscuro, ya que parece remitir al concepto teológico de “creatio ex

nihilo”. En sentido absoluto, ninguna invención es novedosa, ya que todas ellas dependen de cursos históricos y

desarrollos precedentes, los cuales pueden ser ajenos al inventor. La novedad es por tanto un concepto relativo y

discutible. Añadir la condición de “no obvio” aclara poco la cuestión, máxime cuando se define según el criterio de

“que no se le ocurriría fácilmente a un experto en la tecnología correspondiente”. La facilidad es un criterio

subjetivo, que depende del conocimiento y las destrezas de que se disponga. Esto suscita varias cuestiones: ¿se

supone aquí un “experto” ideal que tenga el máximo de destrezas y conocimiento disponibles? ¿O se está hablando

más bien de un experto tipo, o mediocre? ¿A quién acudiremos para saber si algo es o no obvio? Si lo que se patenta

es una tecnología que antes no se conocía, ¿quién puede ser experto en ella? La mayoría de las invenciones resultan

obvias una vez que se conoce su funcionamiento, no hay en ellas un principio inefable que las haga

incomprensibles. Al examinar un desarrollo tecnológico novedoso y comprender su funcionamiento lo más

El genoma humano en el derecho de patentes | Rodrigo Cocina Díaz

 

172 E N E R O

2 0 1 2

probable es que resulte obvio, por lo que este criterio es de dudosa utilidad.

Detrás de estas ambigüedades lo que parece encontrarse es una idea metafísica del desarrollo tecnológico,

que pende de la suposición de un intelecto individual creativo que se manifiesta en algunas mentes, las cuales

adquieren el poder de crear novedades no obvias. Da la impresión que existe una arbitrariedad inherente en la

atribución personal e individual de la patente de un desarrollo tecnológico, que es entendido como un acto de

creación individual aislado, independiente de las condiciones sociales e históricas.

Otro aspecto problemático del concepto legal de invención es el requisito de que el desarrollo tecnológico

en cuestión sirva a algún fin, es decir, que tenga alguna utilidad o que satisfaga alguna necesidad. Pero la utilidad

no es algo unívoco, ya que las necesidades humanas no son invariables ni se pueden enumerar fácilmente, con la

excepción quizá de unas cuantas necesidades básicas. Es más, las invenciones no sólo producen la satisfacción de

necesidades, sino también a veces las necesidades mismas, que son un producto histórico y cultural. Por ejemplo, la

necesidad de ver televisión, reconocida en el momento en que el aparato se considera patentable, no precede a la

invención del mismo, sino que surge con él.

El requisito de aplicabilidad industrial no es en principio tan problemático como los anteriores, aunque en

relación con los desarrollos médicos tiene un estatuto legal que resulta llamativo por su aparente abitrariedad, ya

que según la ley 11/1986 de patentes, “no se considerarán como invenciones susceptibles de aplicación industrial

los métodos de tratamiento quirúrgico o terapéutico del cuerpo humano o animal ni los métodos de diagnóstico

aplicados al cuerpo humano o animal. Esta disposición no será aplicable a los productos, especialmente a las

sustancias o composiciones ni a las invenciones de aparatos o instrumentos para la puesta en práctica de tales

métodos”. Al parecer la ley española no contempla la patente de métodos de tratamiento médico, ya que no los

considera susceptibles de aplicación industrial. Considerar los métodos cómo previos y separables de los productos

no tiene mucho sentido. Parece que se considera el método como una entidad abstracta y formal, que no requiere de

condiciones materiales para su diseño y ejecución. No sólo las técnicas y el conocimiento teórico sistemático son

elementos conformadores de los métodos de tratamiento médico, también lo son los instrumentos y las sustancias

(entre otros factores), por lo que bien podrían considerarse no patentables. Pero esto neutralizaría el posible efecto

estimulador de las patentes en la investigación médica, que es en principio el campo más relevante al que pueden

contribuir las investigaciones derivadas del PGH.

Recapitulando lo anterior, podemos concluir que el concepto de invención patentable, pese a tener estatuto

legal efectivo, no es ni mucho menos un concepto claro y distinto. Por ello no es de extrañar que las disposiciones

legales relacionadas con las patentes puedan parecer en muchos casos arbitrarias, dado lo complejo del asunto.

Complejidad que es aún mayor en el caso de las patentes relacionadas con el genoma humano, que es lo que

trataremos a continuación.

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

173E N E R O

2 0 1 2

La patentabilidad de los desarrollos del PGH.

Cómo hemos señalado, la condición de patentabilidad de una invención depende de los requisitos de

novedoso, útil y aplicable industrialmente. Teniendo en cuenta esto, patentables serían en principio todos aquellos

desarrollos biotecnológicos basados en el genoma humano que supongan una novedad y que se consideren de

utilidad, excluyendo los métodos con aplicaciones médicas que no se considerarían aplicaciones industriales.

Además, se excluyen en la ley citada “las invenciones cuya explotación comercial sea contraria al orden público o

a las buenas costumbres”. En relación a las biotecnologías humanas, se considera que están fuera de la ley y de la

ética, y por tanto no son patentebles, los siguientes usos (en el Artículo 5):

1) Los procedimientos de clonación de seres humanos.

2) Los procedimientos de modificación de la identidad genética germinal del ser humano.

3) Las utilizaciones de embriones humanos con fines industriales o comerciales.

4) El cuerpo humano, en los diferentes estadios de su constitución y desarrollo, así como el simple descubrimiento

de uno de sus elementos, incluida la secuencia o la secuencia parcial de un gen.

Sin embargo, en el mismo artículo, se señala que sí es patentable “un elemento aislado del cuerpo humano

u obtenido de otro modo mediante un procedimiento técnico, incluida la secuencia total o parcial de un gen aún en

el caso de que la estructura de dicho elemento sea idéntica a la de un elemento natural.”

Examinemos ahora estas precisiones legales y sus posibles razones.

La clonación de seres humanos es uno de los temas que más preocupación parece despertar en la sociedad,

como muestra la legislación vigente en España desde el año 1986, que excluye esta práctica cuando ni siquiera

estaba clara su posibilidad técnica. Esto no deja de ser curioso si consideramos que existen clones naturales (los

gemelos univitelinos) y que normalmente esto no se considera moralmente problemático. Recientemente se ha

legalizado explícitamente en España y otros países la llamada “clonación terapeútica”, es decir, aquella que no está

destinada a la producción de un organismo completo, sino a la de partes que funcionarían a modo trasplantes

diseñados a medida para el paciente. Aunque esta aplicación, al ser de tipo terapeútico, podría quedar excluida

como patentable. En cuanto a la clonación reproductiva de organismos humanos completos, está prohibida en la

mayoría de los países, aunque en algunos no existe legislación específica al respecto.

Las razones de esta prohibición explícita de la clonación reproductiva no están muy claras, aunque una de

ellas puede ser que el estatuto legal y moral de un clon artificial humano se considera problemático. Esto no puede

tener que ver con la artificialidad de su concepción, ya que a los niños fecundados “in vitro” no se les cuestionan su

El genoma humano en el derecho de patentes | Rodrigo Cocina Díaz

 

174 E N E R O

2 0 1 2

identidad y sus derechos. Puede que la razón tenga que ver con la consideración del genoma como lo esencial del

ser humano individual, o su principio constitutivo inalienable. Esta concepción conduce a la idea de que clonar a un

ser humano es acabar con su individualidad esencial, al duplicar su especificidad. Aquí se hace patente un

reduccionismo fisicalista, que no tiene en cuenta que en la constitución de un individuo intervienen muchos más

factores que su código genético, y que es imposible que dos individuos sean exactamente iguales sólo por que

compartan en mismo genoma. Están funcionando una naturalización y también una sacralización de la idea de

individuo. Desde un punto de vista práctico, y teniendo en cuenta que la falta de legislación en muchos países

posibilitaría legalmente la clonación reproductiva, parece que lo más sensato sería especificar legalmente que los

derechos de una persona concebida de forma natural son idénticos a los de una persona clonada, para tratar de

garantizar su dignidad en el caso de que la clonación sea llevada a cabo, ya sea por ausencia de legislación o

directamente de manera ilegal.

También es posible que la razón de la prohibición sea la posibilidad de usos de la clonación peligrosos para

el orden público. Pero según ese razonamiento se deberían prohibir gran parte de los desarrollos tecnológicos, ya

que muchos de ellos pueden utilizarse de esta manera, algunos de una forma mucho más clara que la clonación,

como por ejemplo las armas en general, que no por ello dejan de ser desarrolladas legalmente en muchos países que

prohíben la clonación. Parece que se estuviera pensando en la creación de un ejercito de clones o cuestiones

semejantes, que rozan el delirio.

La prohibición de los procedimientos de modificación de la identidad genética germinal del ser humano

implica que las terapias génicas se han de limitar a modificaciones que no sean transmisibles de una generación a

otra. La razón de esto también es difícil de comprender. Posiblemente esté relacionada con una sacralización del

“orden natural”, que el ser humano no debe alterar por las terribles consecuencias que supondría. Pero no hay

razones objetivas para pensar que una modificación transmisible a la siguiente generación va a desencadenar la ira

de la naturaleza. Una modificación limitada a un sólo individuo también es una alteración de un orden preexistente

y no se prohíbe. Esta ley institucionaliza la idea de separación entre naturaleza y cultura, prohibiendo que la técnica

se inmiscuya en los asuntos que pertenecen a la supuesta esencia de lo natural, al menos en lo tocante a la

naturaleza humana.

Como hemos visto, es legal patentar procedimientos para generar elementos aislados del cuerpo, que

pueden incluso ser idénticos a los naturales. Pero por otra parte podrían excluirse como patentables los desarrollos

terapeúticos si los consideramos inseparables de los métodos que los posibilitan. Además, es condición para la

concesión de una patente que la tecnología en cuestión tenga aplicación industrial. Según este razonamiento, los

desarrollos biotecnológicos humanos legales y patentables serían los que involucran la fabricación de partes del

cuerpo humanas que se utilicen en algún tipo de industria no médica. Es difícil imaginar que tipo de desarrollos

pueden cumplir estas condiciones.

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

175E N E R O

2 0 1 2

En conclusión, parece que la legalidad y la patentabilidad de las tecnologías derivadas del conocimiento

del PGH es muy restringida. La ambigüedad y arbitrariedad del concepto de invención patentable propicia que se

legisle sobre el tema desde criterios poco consistentes, y las disposiciones vigentes parecen obedecer más a

prejuicios metafísicos y concepciones esencialistas sobre el ser humano que a criterios realistas o prácticos. Con

esto no queremos decir que deba ser legalizado por sistema todo desarrollo tecnológico a partir del PGH, pero sí

que quizá deban revisarse los criterios empleados a la hora de definir su estatuto legal.

Fuentes:

Horacio Rangel Ortiz, artículo El genoma humano y el derecho de patentes en Jurídica. Anuario del Departamento

de Derecho de la Universidad Iberoamericana, nº 31, 2001. Disponible en

http://www.juridicas.unam.mx/publica/librev/rev/jurid/cont/31/pr/pr0.pdf

Ingrid Brena Sesma y Carlos María Romeo Casabona, Código de Leyes sobre Genética (Tomo I), Comares, Bilbao,

1997. Disponible en http://www.bibliojuridica.org/libros/libro.htm?l=2292

Ley 11/1986, de 20 de marzo, de Patentes en Boletín Oficial del Estado

http://www.boe.es/aeboe/consultas/bases_datos/doc.php?id=BOE-A-1986-7900

Oficina Española de Patentes y Marcas

http://www.oepm.es

 

Ana Álvarez- Acevedo Martínez | ¿Juegan los genes algún papel en la guerra de género?

 

177E N E R O

2 0 1 2

 

¿Juegan los genes algún papel en la guerra de género? Ana Álvarez‐ Acevedo Martínez1          Resumen  El asunto de las diferencias entre los hombres y las mujeres tiene  una  gran  importancia  en  nuestras  sociedades.  Las nuevas  teorías  sociológicas  apuestan  por  una  explicación naturalista  de  dichas  diferencias  y  ello  va  a  traer  consigo una  serie  de  consecuencias  prácticas,  como  algunas controversias  con  autoras  feministas  o  ciertos posicionamientos  ante  determinadas  medidas  como,  por ejemplo, las leyes de paridad dentro del mundo laboral. Este breve artículo será una exposición meramente descriptiva de estos puntos de vista.                 

1 Nacida en León en mayo de 1988. Estudió el Bachillerato de Ciencias de la Salud en el IES Padre Isla de la misma ciudad. Licenciada en Filosofía por la Universidad de Oviedo en 2011, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional en la misma Universidad de Oviedo.

                    Abstract   The matter of the differences between man and women is of great importance in our societies. New sociological theories take a naturalist stance of the said differences which brings with  it  a  series  of  practical  consequences  such  as  some controversies  concerning  feminist  writers  or  certain attitudes in the face of certain measures such as the laws of equality  in  the  labour market.  This  brief  article will  be  a mere descriptive account of these points of views.                          

 

Ana Álvarez- Acevedo Martínez | ¿Juegan los genes algún papel en la guerra de género?

179E N E R O

2 0 1 2

¿Juegan los genes algún papel en la guerra de género? Ana Álvarez‐ Acevedo Martínez2   

I.- Introducción

Hace unos meses iba caminando por el Fnac echando un vistazo a los diferentes libros distribuidos por las

estanterías. Al pasar por la sección de psicología una serie de libritos llamaron mi atención. Se trataba de pequeños

escritos de Allan y Barbara Pease. En ellos, el matrimonio australiano parece recurrir a investigaciones científicas

para recalcar la diferencia entre los hombres y las mujeres. Sin embargo, no fue el contenido lo que llamó mi

atención, sino los títulos de los libros, tales como: Por qué los hombres no escuchan y las mujeres no entienden los

mapas, Por qué los hombres no se enteran y las mujeres necesitan siempre más zapatos o Por qué los hombres

quieren sexo y las mujeres necesitan amor.

Estos títulos no son más que una muestra de la generalidad con la que se tratan estos temas. Ambos sexos

son vistos como radicalmente opuestos y hay una tendencia a atribuir ciertos adjetivos a uno y a otro. Por ejemplo,

cuando hablamos de agresividad, fuerza, dominación, competitividad, promiscuidad, descaro, valor o temeridad

tendemos a atribuir estas características a los hombres y, en cambio, la belleza, la intuición, la delicadeza, el recato,

la vulnerabilidad, el sentimentalismo o la debilidad parece que cuadran mejor con el prototipo femenino.

Son numerosos los tópicos que abarcan la diferenciación de género, y no se reducen al ámbito del carácter,

sino que también se pueden asociar a otros ámbitos de la vida cotidiana: oficios, hobbies, vestimenta, conductas

sexuales… Estamos cansados de ver la típica imagen del hombre celebrando un gol frente a la mujer celebrando las

rebajas, el niño jugando con un camión y la niña con una muñeca. Parece que oficios como minero, mecánico pero

también científico o empresario son asociados más a los hombres y empleos como secretaria, enfermera o maestra

se asocian al género femenino. Tendemos a pensar que las mujeres trabajan mejor con personas y los hombres con

cosas. Al hombre le asociamos el gusto por el deporte, los coches, la electrónica…y a la mujer el gusto por la moda,

los encuentros sociales, la decoración…

En nuestra cultura están incrustados numerosos tópicos en torno al asunto de los hombres y las mujeres y

sus diferencias, ahora bien, ¿son meros tópicos o tienen una base real? Nadie puede negar que algunas diferencias

estén presentes, pero ¿son naturales o son una construcción social? ¿Dónde debemos buscar a la hora de

preguntarnos por su génesis, en la naturaleza o en la cultura?

A lo largo del siglo pasado, y sobre todo con la influencia de los puntos de vista feministas, parece que

quedaba superada la idea religiosa de que la diferenciación entre los dos sexos era una cosa natural y que el rol

2 Nacida en León en mayo de 1988. Estudió el Bachillerato de Ciencias de la Salud en el IES Padre Isla de la misma ciudad. Licenciada en Filosofía por la Universidad de Oviedo en 2011, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional en la misma Universidad de Oviedo.

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

180 E N E R O

2 0 1 2

social de ambos era el que les correspondía dadas sus características innatas. Los tópicos que he señalado en los

párrafos anteriores son explicados desde un punto de vista cultural. A lo largo de los siglos nuestra cultura y

nuestras costumbres han determinado nuestra manera de actuar y nuestra manera de vernos a nosotros mismos. Las

mujeres no nacen con una tendencia hacia la moda o los hombres hacia la electrónica, dichos clichés no son más

que una construcción social arraigada en nuestra cultura.

Sin embargo, hace unos años han surgido una serie de teorías que apuestan por una interpretación

naturalista. Agotada ya la explicación religiosa de la naturaleza humana, sostienen que las diferencias biológicas

entre ambos sexos determinan las diferencias de pensamiento y acción. Estas diferentes teorías se engloban bajo

una nueva disciplina que está dando mucho que hablar: la sociobiología.

Numerosos autores ven en la sociobiología una nueva ciencia capaz de dar explicación empírica a las

diferencias entre hombres y mujeres mientras que otros piensan que más que un avance se trata de una regresión,

una excusa para que los roles de género permanezcan siempre presentes en nuestras sociedades.

Mi propósito en este escrito, lejos de cualquier tipo de posicionamiento por mi parte, es hacer una breve

exposición de la teoría sociobiológica enfocada hacia el asunto del género y afrontar un caso práctico desde esta

visión. Para ello, tendré que comenzar haciendo una descripción biológica básica de la diferenciación sexual.

II.- Biología.

El sustrato material que asegura la continuidad de los ciclos vitales está formado por las células

germinales. La línea germinal es la que conecta los ciclos vitales y lo hace a través de la reproducción. La

reproducción puede ser sexual o asexual. En el caso del ser humano la reproducción es sexual.

Hay tres tipos de reproducción sexual: la bisexual (entre dos individuos, cada uno con un tipo diferente de

gametos), el hermafroditismo (un individuo produce dos tipos diferentes de gametos, y la reproducción puede darse

mediante la autofecundación o mediante el cruce, que requiere dos individuos) y la partenogénesis (es

monogamética). El ser humano y el resto de mamíferos se reproducen bisexualmente, lo cuál requiere dos

parentales con dos tipos de gametos diferenciados que requieren a su vez órganos genitales diferenciales.

Estamos pues, trazando las líneas generales de lo que empieza a ser una diferenciación sexual entre

individuos de la misma especie. Existen dos vías de diferenciación sexual: la dependiente de factores ambientales y

la cromosómica.

Un ejemplo del primer caso serían los reptiles en los que la diferenciación sexual va a depender de la

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

181E N E R O

2 0 1 2

temperatura. En las tortugas, los huevos desarrollados por debajo de los 28ºC van a dar lugar a machos y

prácticamente todos los desarrollados por encima de esta temperatura van a dar lugar a hembras. Esto implica que

los factores ambientales (por ejemplo los cambios climáticos) van a afectar mucho a este tipo de especies.

La diferenciación sexual cromosómica va a darse debido a que la fecundación se produce por la

combinación de cromosomas sexuales. En el caso de los mamíferos, como bien sabemos, los cromosomas sexuales

de las hembras son: XX y los de los machos son: XY.

Esta pasa por tres fases: la determinación (que es la decisión de cómo se pone en marcha un macho o una

hembra, ocurre en el momento de la fecundación cuando se combinan los elementos X e Y), la diferenciación

sexual primaria o gonadal (en la que hay una gónada primitiva no diferenciada que va a formar los conductos del

testículo o las células del óvulo) y por último la diferenciación sexual secundaria o fenotípica, que es dependiente

de las hormonas. Puede ocurrir, por tanto, que la determinación sexual fenotípica no se corresponda con la

genotípica. Esto ocurre en los denominados intersexos. Hay individuos cuya composición genética es una (por

ejemplo, un individuo con los cromosomas XX) pero en ella se han entrecruzado ciertos genes que hacen que se

segreguen hormonas responsables de que el individuo se desarrolle por la vía contraria (en este caso, que desarrolle

testículos, barba…).

Por lo tanto, la diferenciación de sexos es más compleja de lo que cabe esperar. Las hormonas juegan un

gran papel, y estas no solo influyen en la fisiología de un organismo sino que también influyen en su

comportamiento.

Podemos decir, por tanto, que la biología establece unos límites claros entre el sexo masculino y el

femenino (salvo en casos fronterizos, como los intersexos, que son muy poco frecuentes). Las hembras cuentan con

dos cromosomas X, mientras que el genotipo masculino es: XY.

El aparato reproductor de ambos es radicalmente diferente. Las gónadas femeninas (ovarios) producen los

óvulos. Los óvulos son las células más voluminosas del cuerpo humano y son las portadoras de la información

genética. Se forman de manera periódica en un proceso llamado ovulación, que es una de las fases del ciclo

menstrual. En el ser humano este ciclo dura aproximadamente veintiocho días y la ovulación tiene lugar hacia el día

catorce. Los pocos días próximos a la ovulación constituyen la fase fértil de la mujer. En cada ovulación solamente

se libera un óvulo. Una mujer puede esperar producir aproximadamente unos 400 óvulos a lo largo de su vida, de

los cuáles un máximo de 20 pueden convertirse en vida.

Sin embargo, las gónadas masculinas (los testículos) producen espermatozoides, que también son

portadores de información genética. Su tamaño es ínfimo en comparación con el de los óvulos (el óvulo humano es

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

182 E N E R O

2 0 1 2

ochenta y cinco mil veces más grande que el espermatozoide humano), En el caso de los seres hombres, el volumen

promedio de semen de una eyaculación es de 1,5 a 5 ml y la densidad normal de los espermatozoides en el semen

varía de 50 a 150 millones por ml, por lo que cada eyaculación contiene entre 75 y 750 millones de

espermatozoides. Son los espermatozoides los que fecundan al óvulo para dar lugar al zigoto, y es la mujer la que

gesta en su interior al embrión hasta que da a luz y la que ha de amamantarlo posteriormente, lo cuál trae consigo

infinidad de consecuencias, su cuerpo dispone de mecanismos para llevar a cabo estas funciones, mecanismos que

con los que el hombre no cuenta.

Como hemos visto, anatómica y fisiológicamente el cuerpo del hombre es muy diferente al de la mujer.

Pero, ¿estas diferencias biológicas afectan a las conductas psicológicas y sociales de los individuos? ¿La forma del

cuerpo humano determina su pensamiento y su acción? Según la sociobiología las respuestas son afirmativas.

III.- Sociobiología.

La sociobiología es una disciplina que da una explicación natural al comportamiento humano. Para

entender este punto de vista hay que tener en cuenta ciertos presupuestos. Desde la sociobiología, los seres

humanos somos seres moldeados por la selección natural. Durante 90% de nuestra historia evolutiva, hemos vivido

organizados en bandas de cazadores-recolectores, luego, la selección natural ha actuado sobre la especie

favoreciendo la supervivencia de sus individuos bajo estas condiciones. Lo que podríamos denominar “historia

cultural” del ser humano ha trastocado de manera radical el medio bajo el cual este habita, pero dados los propios

mecanismos de la evolución no se puede hablar de “evolución cultural”. Nuestras disposiciones genéticas

responden a la adaptación a un medio distinto del que vivimos, pero ello no hace que estas disposiciones genéticas

desaparezcan. Estos principios son aplicables y aplicados al tema de este artículo.

Pues bien, en todas las sociedades hay una fuerte diferenciación entre lo masculino y lo femenino y esto es

innegable. Ignorar el género sería ignorar una parte de la condición humana (Steven Pinker, 2003), las diferencias

entre hombres y mujeres afectan a todos los aspectos de nuestra vida. Pero, ¿por qué se dan estas diferencias? Por lo

general, la respuesta a esta pregunta no proviene de ninguna instancia cultural, aunque lo que sí que es cultural son

las manifestaciones de estas diferencias en las distintas sociedades y las distintas épocas (por ejemplo, la forma de

peinarse o la forma de vestir). Sin embargo, en la base de estas manifestaciones culturales, hay diferencias

biológicas que la genética y la teoría de la evolución sí pueden explicar.

La especialización sexual es el fundamento biológico de la diferencia. Las consecuencias del diformismo

gamético se extienden a toda la biología y a toda la psicología. Como hemos visto en el apartado anterior, un óvulo

es grande y costoso, es algo preciado, una inversión a proteger por parte de la mujer. Sin embargo los

espermatozoides son pequeños y baratos, la inversión es mínima. Esto trae consigo consecuencias inmediatas.

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

183E N E R O

2 0 1 2

El macho puede permitirse derrochar sus espermatozoides. El macho puede inseminar a varias hembras

solamente si impide que otros machos lo hagan. Por tanto, los machos compiten entre ellos. La estrategia es

diferente en el caso de las hembras. Estas protegen celosamente su gran inversión. Dado que cada óvulo puede ser

inseminado solo una vez, va a ser un solo macho el que lo consiga, por lo que la hembra no compite sino que elige.

Este conflicto de intereses entre los sexos es una propiedad de la mayoría de las especies animales. Debido a que las

presiones adaptativas en ambos casos son diferentes, su evolución es diferente.

Estas diferencias biológicas tienen otras consecuencias. En casi todos los mamíferos en general y

sobretodo en casi todos los primates, la gestación y la cría son casi exclusivas de las hembras, hecho que es

totalmente comprensible si tenemos en cuenta que un macho nunca puede estar seguro de que la cría sea

descendiente suyo y dado que el desarrollo del feto se produce en el interior de la madre y a costa de su organismo.

El macho poco puede hacer al respecto. Además, un macho siempre puede abandonar a la cría o a la hembra

mientras que esta no puede abandonar al feto mientras está en su interior.

Sin embargo, en los casos en los que la prole sea vulnerable sin la presencia del padre y que exista la

posibilidad de aprovisionar a la prole con alimentos concentrados se produce un cambio de las reglas, puesto que

las hembras no se limitarán a elegir al macho sino que también competirán por el que esté dispuesto a una mayor

cooperación o a suministrarle mayores recursos.

El cambio de reglas afecta también al macho, cuyos celos no se dirigen solo a los otros machos sino

también a las hembras. Este tiene que asegurarse de no invertir en una progenie que no sea la suya, por lo que

estrategias como la actividad sexual constante, el acoso, la persecución, la vigilancia… se convierten en efectivas.

Cualquier gen que predispusiera a un macho a ser burlado o a una hembra a recibir menos ayuda por su parte

hubiera sido eliminado rápidamente, sin embargo, cualquier gen que hubiera permitido dejar a más hembras

embarazadas por parte del macho sería dominante.

En el caso de los seres humanos ocurre lo mismo. Somos mamíferos y la inversión de la mujer (óvulo)

siempre es mucho mayor que la del hombre (espermatozoide), además las crías humanas requieren numerosos

cuidados por lo que es latente la importancia de la ayuda del padre a la hora de la cría de sus hijos.

Una vez desarrollada esta teoría, volvamos a los tópicos mencionados en la introducción. Desde este nuevo

punto de vista, podemos cuestionarnos lo siguiente: ¿se puede dar una explicación natural a dichas características

atribuibles a los diferentes sexos o por el contrario son solo clichés culturales? Como ejemplo ilustrativo mentaré

alguno de ellos:

- La agresividad masculina: Un macho puede aparearse con muchas hembras evitando que otros lo hagan,

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

184 E N E R O

2 0 1 2

por ello los machos tienen que competir. Los más fuertes y agresivos se reproducirán más, transmitiendo

sus genes rápidamente. Las hembras son las portadoras de la mayor inversión, estas no han de competir en

tal medida. Las más agresivas no se aparearán más que las menos agresivas. La agresividad no pertenecerá

privilegiadamente al género femenino.

- La promiscuidad: La estrategia de un macho para aumentar su descendencia es procrear tanto como

pueda al tiempo que cuida al menos de parte de su prole aumentando sus posibilidades de sobrevivir. La

promiscuidad masculina es favorecida por la selección natural. Las hembras no aumentan su prole por

aumentar su número de relaciones sexuales. Una hembra siempre contará con pretendientes, de los que

solo uno inseminará su óvulo, luego la selección natural no favorecerá la promiscuidad de las hembras,

sino su selectividad, la justa valoración de sus pretendientes.

- La dominación: Los machos humanos participan del cuidado de los hijos. Por tanto, genéticamente han

desarrollado mecanismos para no ser burlados, para no invertir en otra progenie que la suya: preocupación

por las actividades de la hembra, por su localización, por su actitud frente a otros machos. Puesto que los

machos invierten, las hembras compiten por los mejores machos (pero en mucha menor medida). Por ello

las hembras serán también celosas, pero de otro modo: la razón no es evitar la procreación del macho con

otras hembras, sino que este dedique sus esfuerzos a proteger otra prole diferente.

Esta visión de las diferencias de género incomoda a mucha gente dado que vuelve a apelar a la naturaleza

para explicar las diferencias de género. El género femenino ha sufrido a lo largo de los años cierta dominación que

ha sido justificada precisamente por la disposición natural de cada uno. Los hombres son más aptos por naturaleza

para realizar ciertas actividades (por ejemplo las deportivas) mientras que las mujeres por naturaleza son más aptas

para otro tipo de tareas (por ejemplo las domésticas). Sin embargo, los datos aportados por la sociología son

meramente informativos. En un principio, esta disciplina no entra en las implicaciones morales que dichos datos

puedan tener. El que alguien tenga cierta tendencia agresiva no justifica las conductas agresivas.

Además, hay que decir, llegados a este punto, que la posibilidad de que los hombres y las mujeres sean

psicológicamente distintos no implica que unos u otros deban ser discriminados por ello. Diferencia no implica

desigualdad.

La neurocienca, la genética, la psicología y la etnografía documentan unas diferencias de sexo que casi con

toda seguridad tienen su origen en la biología humana, pero estas diferencias no tienen por qué desembocar en

diferencias ético-políticas. Es más, la igualdad ético-política no solo no está reñida con lo dicho sino que puede

hallar su sustento en ello (como veremos en el ejemplo práctico).

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

185E N E R O

2 0 1 2

IV.- ¿Sociobiología versus feminismo?

Es de saber, que hasta aproximadamente los años sesenta3, el estatus de la mujer en nuestras sociedades

dejaba mucho que desear. Sus disposiciones sociales eran limitadas puesto que se las consideraba como

subordinadas a los hombres. Las mujeres eran vistas como madres y amas de casa y estaban sometidas a la

discriminación por parte del sexo opuesto. Su liberación ha sido uno de los mayores logros del siglo pasado. Dicho

logro puede atribuirse a la ideología que se respiraba a principios de siglo, ideología que condujo a la abolición de

la esclavitud, las luchas en contra del racismo… Las minorías sociales empezaban a tener voz, y una de estas eran

las mujeres. Además, los avances tecnológicos permitieron que la cría de los hijos no fuera de dedicación exclusiva

para sus madres, estas empezaron a contar con ciertas comodidades las cuáles permitieron que la división de

trabajos entre el hombre y la mujer a la hora de cuidar y educar a los hijos no fuera tan tajante. Pero, sin lugar a

dudas, el feminismo es la principal causa de la liberación y progreso de las mujeres.

La primera ola de feminismo surgió a mediados del siglo XIX y duró hasta los años veinte del siglo

pasado, cuando las mujeres consiguieron en EEUU el derecho a voto. Sin embargo, fue la segunda ola, la que

floreció en los años sesenta, la que desveló la discriminación sexista en las empresas, el trabajo y otras

instituciones. Uno de sus mayores méritos, fue sacar a la luz problemas que parecían de ámbito privado (como la

división del trabajo del hogar o la violencia de género) y convertirlos en problemas de carácter público.

Parece que las visiones feministas son radicalmente opuestas a los principios de la sociobiología. ¿Por qué

todos los hombres nacen libres y todas las mujeres nacen esclavas? La explicación de la mayoría de las feministas

es de corte marxista o posmoderno. La superioridad masculina es solo una adquisición cultural que hemos de

desechar, y solo así la mujer podrá emanciparse. Hasta que no dejemos de dar a nuestras niñas muñecas o cocinitas

para que jueguen, estas no se darán cuenta de que son igual de capaces que los hombres para realizar cualquier

actividad y no tienen por qué dedicarse exclusivamente a las labores domésticas.

Se cree que el feminismo se opone a las ciencias de la naturaleza humana. Hay quien sostiene que las

creencias que sostienen numerosos científicos acerca de que el cerebro de los hombres y las mujeres difieren desde

el momento en el que nacen, se han utilizado durante mucho tiempo para justificar el trato desigual hacia las

mujeres. Esta idea está muy extendida, sin embargo, hay que hacer un par de aclaraciones al respecto.

En primer lugar, el feminismo es un movimiento que, lejos de ser una ideología homogénea, engloba un

conjunto de corrientes muy diversas, por lo que es más correcto hablar de “feminismos” que de “feminismo”.

3 Por supuesto la época varía mucho dependiendo de las diferentes sociedades. Los sesenta son remarcables por el surgimiento de los

movimientos feministas en EEUU que se extendieron al resto de Occidente.

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

186 E N E R O

2 0 1 2

La filósofa Christina Hoff Sommers hace una distinción entre dos escuelas de feminismo que en el caso

que nos compete resulta muy útil, y que Peter Singer no duda en reseñar para ilustrar contra qué tipo de feminismo

irían las teorías sociobiológicas.

Pues bien, se puede hablar de feminismo de la igualdad que es el que combate las injusticias ligadas a la

discriminación entre sexos. Dicho feminismo fue el que guió la primera ola y lanzó la segunda. Este tipo de

feminismo se situaría en el ámbito de la moral y, sin meterse en cuestiones empíricas relacionadas con la psicología

o con la biología, defiende una igualdad de trato y de derechos para los hombres y las mujeres.

En cambio, es el llamado feminismo de género el que es más notorio y conocido, Aboga por las

explicaciones de corte cultural para criticar la dominación que ejercen los hombres sobre el género femenino, los

bebés se transforman después de su nacimiento en las personalidades de género de macho y hembra, una de las

cuales va a esclavizar a la otra. Las diferencias entre hombres y mujeres, desde este punto de vista, no tienen nada

que ver con la biología sino que son construcciones sociales. Además, la única motivación social del ser humano es

el poder y la sociedad solo puede ser entendida en estos términos. Este juego de poder no se da a escala individual

sino que se da entre grupos sociales, así, en este caso, es el grupo masculino el que ejerce el poder sobre el grupo

femenino,

Claramente se puede ver a qué tipo de autoras irritan las nuevas teorías naturalistas como las de Pinker.

Ello no implica que la sociobiología sea contradictoria con el feminismo o apoye la discriminación entre sexos

puesto que, ni el feminismo de género representa a toda la corriente feminista, ni mucho menos representa a todas

las mujeres.

Donna J. Haraway es un claro ejemplo de feminismo de género. La autora sostiene que la ciencia se ocupa

del conocimiento y del poder. Para ella, hoy en día, la ciencia natural define el lugar del ser humano en la

naturaleza. Las ciencias naturales, al construir una idea de naturaleza, ponen límites a la historia y a la formación

personal. La sociobiología, en este caso, es la ciencia de la reproducción capitalista por excelencia. Con E. O.

Wilson (autor al que se considera padre de la sociobiología), la biología ha pasado de ser una ciencia de organismos

sexuales a ser una ciencia de ensamblajes genéticos reproductores según Haraway. Antes de la Segunda Guerra

Mundial, la psicología evolutiva se centraba en la idea de evolución ignorando la idea de las poblaciones, se

utilizaba la genética para dar cuenta de las capacidades individuales. Sin embargo, la revolución de las

comunicaciones posteriores cambió la estrategia del control desde el organismo al sistema, del individuo al grupo

social. Y la mejor manera de ejercer esa dominación es mediante el concepto de selección natural, El grupo no actúa

como un superorganismo, análogo a un individuo, sino que el cálculo genético de la sociobiología se refiere a la

estrategia de maximización de genes y las combinaciones de estos. El gen se convierte en una suerte de noúmeno

para estos autores. Los genes son máquinas de conducta. El sexismo aparece en la racionalización de los papeles

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

187E N E R O

2 0 1 2

sexuales, que es algo que está predispuesto genéticamente.

Hay una clara colisión entre este feminismo y la ciencia. Hay autores afines a la sociobiología que

sostienen que precisamente este tipo de conclusiones hacen que un gran número de mujeres no se consideren

feministas. Pero, ¿por qué se tiene tanto miedo a afirmar que las mentes de los hombres y de las mujeres no son

iguales? El temor apunta realmente a que la diferencia implique desigualdad. Pero esto desde una perspectiva

genética es insostenible porque, en realidad, estar en el cuerpo del macho o estar en el de la hembra son ambas

buenas estrategias, ambos cuerpos son diseños biológicos igualmente aptos y con la misma eficacia para la

supervivencia. El macho tiene las mejores adaptaciones para tratar los problemas del macho y la hembra para tratar

los de la hembra. Además, muchos de los rasgos psicológicos que con relevantes para el ámbito público (como

pueden ser la inteligencia) son iguales en términos medios para los hombres y para las mujeres. Ideas como las de

“papel adecuado” o “lugar natural” dentro de la sociedad no tienen sentido científico, como muchas feministas de la

diferencia creen, y no pueden servir como razón para restringir la libertad de ninguno de los sexos.

Como ya he señalado anteriormente, esta visión no implica que no haya diferencias de sexo que no tengan

que ver con la biología, pero no todas estas diferencias son atribuibles a construcciones sociales. Los sociobiólogos

dan una serie de argumentos basados en observaciones empíricas que refutan la idea de que la diferenciación sexual

es una característica arbitraria de nuestra cultura. Enumeraré algunos de ellos:

- En primer lugar, en todas las culturas (y no solo en la occidental) se considera que hombres y mujeres

tienen naturalezas distintas, y en todas hay una división del trabajo en función del sexo.

- Además, las diferencias psicológicas entre ambos sexos son las que supondría un psicólogo evolutivo si

solo conociera la anatomía y la fisiología. Las diferencias físicas, en el reino animal, en mayor o menor

medida, marcan una serie de diferencias en el modo de actuación (como he señalado en el punto III.).

Muchas de estas diferencias se encuentran en otros primates y mamíferos, no son exclusivas del ser

humano.

- Genetistas han descubierto que la diversidad del ADN en la mitocondria de las diferentes personas (que

ambos sexos heredan de la madre) es mucho mayor que la diversidad de ADN en los cromosomas Y (que

los hombres heredan del padre) lo cuál indica que durante muchos años los hombres tuvieron una mayor

variación en su éxito reproductor que las mujeres. Algunos hombres tenían muchos descendientes y otros

ninguno. Estas son las condiciones que causan la selección sexual, en la que los hombres compiten por

oportunidades para aparearse mientras las hembras eligen a los de mejor calidad.

- Uno de los mecanismos del cuerpo humano causa que los cerebros de los niños y de las niñas se separen

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

188 E N E R O

2 0 1 2

durante el desarrollo. Las hormonas son los catalizadores que dan el pistoletazo de salida a las diferencias

de género dinámicas (Susan Pinker, 2008). El cromosoma Y va a segregar una serie de hormonas

característicamente masculinas (andrógenos) que influirán a lo largo de la vida del chico al igual que van a

influir las femeninas (estrógenos) en la vida de las chicas. Las hormonas son muy importantes, la variación

del nivel de testosterona en los hombres guarda relación con la libido, la autoconfianza y el sentimiento de

dominación. El estado psicológico de la persona puede afectar a los niveles de testosterona y viceversa y

parece que esta relación es causal (por ejemplo, a las mujeres que quieren realizarse un cambio de sexo,

cuando se les suministra testosterona, mejoran en tests de rotación mental y empeoran en los de fluidez

mental). Los andrógenos tienen efectos permanentes en el cerebro en desarrollo, pero solo pasajeros en el

cerebro del adulto. En el caso femenino, la fuerza y la debilidad cognitivas de las mujeres varían según la

fase de su ciclo menstrual.

- Si tomáramos un bebé varón y le hiciéramos un cambio de sexo haciendo que sus padres le educaran

como si fuera una chica, la balanza favorecería a la explicación social si el niño tuviera la mente de una

niña normal y se decantaría por la explicación biológica si el niño se sintiera atrapado en un cuerpo que no

le corresponde. Pues bien, este experimento se ha realizado en la vida real con niños que nacieron sin pene

y recibieron una educación orientada al género femenino. Todos los niños mostraron tener actitudes e

intereses típicamente masculinos.

- Las personas afectadas por el síndrome de Turner (un caso de intersexo) tienen solo un cromosoma X.

Estas personas actúan como mujeres y parecen mujeres dado que el plano corporal por defecto entre los

mamíferos es el femenino. Las mujeres con este síndrome difieren psicológicamente en función de si

recibieron el cromosoma X de la madre o del padre.

- Por último, cabe decir que hoy en día en numerosas sociedades avanzadas, la educación y el trato que

reciben los niños y las niñas por parte de sus padres no es diferente y sin embargo las diferencias entre los

sexos existen. Tampoco se puede pensar que estas diferencias provienen de que observen la

“masculinidad” en las conductas de los padres y la “feminidad” en la de las madres (existen parejas de

homosexuales criando a niños que actúan como el resto).

Debido a este tipo de observaciones, parece ilícito pensar que la única diferencia entre chicos y chicas se

encuentra en sus genitales y que, por lo demás, son idénticos. Muchas diferencias de sexo pueden tener raíz

biológica, pero esto no implica la superioridad de un sexo sobre otro, o que las diferencias se produzcan en todas las

personas y en todas las circunstancias, puesto que existen grandes disparidades entre los sujetos individuales. No

está justificada la discriminación de una persona basada en el sexo ni que esta se vea obligada a hacer las cosas

típicas de su sexo.

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

189E N E R O

2 0 1 2

Sin embargo, sería muy ingenuo que estos desajustes no tengan consecuencias. En el siguiente apartado se

verá como este asunto está inmiscuido en nuestras prácticas sociales. El ejemplo práctico es el de las políticas de

paridad de género relacionadas con la diferenciación sexual en el terreno laboral.

V.- El mundo laboral y el género.

Unas de las principales injusticias a las que se enfrentan las mujeres hoy en día es a la brecha de género en

los salarios y a lo que se denomina “techo de cristal” que impide que las mujeres asciendan a puestos de poder en

sus trabajos. Un hecho destacable es que, pese a que las chicas conforman más de la mitad de los alumnos

universitarios (y más o menos la mitad de los alumnos especializados en ciencia), es difícil ver a una mujer en un

alto cargo y estas son menos del 20% de la población activa en el campo de la ciencia. Se puede decir que la

diversidad en el mundo laboral no es un hecho dentro de nuestras sociedades. La visión general acerca del asunto

apunta a que todo desajuste estadístico del número de hombres y de mujeres en el trabajo o en sus ingresos apunta a

un prejuicio de género.

Numerosas medidas políticas y económicas se han desarrollado en esta dirección, bajo el supuesto de que

la única manera de paliar este desequilibrio es mediante la garantía de que en todo trabajo y en todo campo la

división entre hombres y mujeres sea “mitad y mitad”. Así se justificaría paridad de género como medida de justicia

social.

Sin embargo, hay un problema en este tipo de análisis y es que la desigualdad en el resultado no se puede

aducir como prueba de la desigualdad de oportunidades, al menos que los grupos que se comparen sean idénticos en

todos sus aspectos psicológicos, pero ya hemos visto que esto no es así. Hay una interpretación acerca de por qué

se produce la brecha de género que es más acorde a la verdadera naturaleza humana y que defiende en todo

momento el trato justo hacia las mujeres y la igualdad de oportunidades proponiendo remedios más efectivos para

la desigualdad de género en el trabajo.

La cuestión a tratar en este punto no es si las mujeres están más o menos cualificadas para ser científicas o

ocupar grandes cargos en empresas, puesto que la respuesta va a ser que unas sí y otras no, La cuestión a tratar es si

las proporciones de hombres y mujeres cualificados han de ser o no idénticas.

Dadas las pruebas (algunas biológicas, otras culturales y otras mixtas) de las diferencias de género no es de

extrañar que la distribución de virtudes y defectos (dominio del lenguaje, ansia de superación, competitividad,

estrés…) entre hombres y mujeres no sea idéntico. Así, si asociamos la distribución de rasgos de cada persona con

la distribución de demandas de empleo, es casi imposible que el porcentaje de hombres y de mujeres en cada

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

190 E N E R O

2 0 1 2

profesión sea idéntico. Si una sociedad, como las sociedades en las que vivimos, ofrece más trabajos de alta

remuneración que requieren virtudes típicamente masculinas, es posible que los hombres se vean beneficiados por

ello. Hoy en día la brecha favorece a los hombres. Esto no implica que no haya ambos sexos en todos los tipos de

trabajo pero las cantidades serán diferentes. No todas las diferencias de sexo en las profesiones están causadas por

barreras discriminatorias.

En muchas profesiones, las diferencias de habilidad pueden desempeñar cierto papel. Las mujeres tienen

más habilidades sociales y comunicativas que los hombres y también saben calcular mejor el impacto que tienen

sus palabras y sus acciones sobre los demás. Los hombres, en cambio, tienen mayores habilidades a la hora de

manipular mentalmente objetos tridimensionales. Esto basta para dar cuenta de que no haya un 50% de

representantes de ambos sexos en cada tipo de trabajo.

Otro factor que puede situar a los sexos en trayectorias laborales distintas es sin duda las preferencias de

cada uno. Susan Pinker, psicóloga evolutiva, analizó a pacientes con problemas en su infancia que luego resultaron

ser personas con una carrera exitosa. La autora destaca las diferencias de género en su estudio. A través de historias

de mujeres y hombres reales, llegó a la conclusión de que en la infancia hay una diferencia entre las capacidades de

los niños y de las niñas, académicamente hablando, y esta diferencia es favorable para el género femenino, No

obstante, la diferencia se invierte si nos fijamos en los resultados posteriores a la hora de ocupar puestos de trabajo

de alta remuneración y de alto poder. Se dio cuenta de que muchas mujeres escogen profesiones en las que la

experiencia (la interacción, la enseñanza, el apoyo psicológico) es un fin en sí misma. Acaban ganando menos que

los hombres y escogen trabajos que les permiten combinar la carrera profesional con la vida familiar. Al tomar estas

decisiones, las mujeres parecen otorgar menos peso al valor de mercado de sus elecciones y más a otros factores,

como la flexibilidad, la satisfacción laboral o la diversión. Como promedio, los hombres dan más importancia a su

estatus, su salario y su riqueza y están dispuestos a trabajar más horas y sacrificar otras partes de su vida.

Las madres, por ejemplo, están más unidas a sus hijos que los padres. Así ocurre en todas las sociedades

del mundo y así puede decirse que ha ocurrido desde que se desarrollaron los primeros mamíferos. De este modo,

aunque los dos sexos valoran el trabajo y valoran a los hijos, el diferente peso que le dan al valor puede llevar a las

mujeres, más a menudo que a los hombres, a tomar decisiones profesionales que les permitan estar más tiempo con

sus hijos.

Por tanto, la igualdad de oportunidades para los hombres y las mujeres no tiene por qué conducir a un

resultado matemáticamente idéntico a la hora de desempañar ciertos trabajos. La proporción de géneros al 50% no

existe en ningún sitio. En general, las economías más ricas suelen presentar mayores diferencias entre las

disciplinas que escogen las mujeres y las que escogen los hombres. Las políticas que garantizan la igualdad de

oportunidades, uno de los principios básicos de la democracia, no garantizan la igualdad de resultados.

Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.

 

191E N E R O

2 0 1 2

Esto no implica que la discriminación sexual haya desaparecido ni mucho menos que esta esté justificada,

lo que ocurre es que las brechas de género en sí mismas nada dicen acerca de ella.

Las políticas de paridad cuyo objetivo es la igualdad de resultados tienen ciertas ventajas, como que

pueden ser capaces de neutralizar la discriminación que aún existe contra las mujeres, pero tienen también ciertos

costes. Uno de los costes más importantes es la ineficacia, puesto que esta se puede derivar del hecho de que las

decisiones de empleo no se basan en el ajuste entre las exigencias de un trabajo y los rasgos de la persona sino que

se basan en otros factores (el sexo). Lo paradójico del asunto es que ciertos de estos costes son perjudiciales para

las mujeres, por ejemplo, el hecho de que se de una oportunidad a una mujer solo porque es una mujer hace que

todo el mundo se cuestione el que esta esté donde esté.

Si los niños y las niñas son, en general, distintos biológica y evolutivamente ya desde el principio, ¿no es

lógico pensar que estas diferencias afectarán más adelante a la hora de escoger? El hombre y la mujer no son

simétricos o iguales, no son intercambiables, y el reconocer que existan diferencias de género no implica la

discriminación por parte de uno hacia el otro.

Este reconocimiento no implica que las mujeres tengan que carecer de oportunidades que se les ofrecen a

los hombres dentro del mercado laboral. Es más, nos puede servir para justificar ciertas políticas de protección de la

mujer. Por ejemplo, si somos conscientes del hecho biológico de que las mujeres son las que tienen que dar a luz y

amamantar a sus hijos, somos conscientes de la necesidad de medidas como las bajas por maternidad, las

subvenciones para el cuidado de los hijos…

Además, son los hombres y las mujeres, y no el sexo masculino ni el femenino, quienes

prosperan o sufren, y son estos los que están dotados de unos cerebros que les dan valores y una

capacidad para tomar decisiones. Estas decisiones han de ser respetadas. La paridad de género como

medida de justicia social impide en muchos casos que mujeres y hombres realicen el trabajo que

más les guste, si las mujeres deciden ser maestras y no ingenieras, ¿por qué hemos de obligarlas a

que realicen ambos trabajos?

Desde el punto de vista de la sociobiología, existen diferencias de sexo innegables y estas tienen un

correlato biológico y no solo cultural. Estas no pueden ser utilizadas para justificar políticas discriminatorias pero

tampoco se puede intimidar a las mujeres y hombres para que hagan algo que no quieren hacer. La igualdad de

derechos y oportunidades es innegable, pero esta igualdad no implica igualdad de resultados. Hombres y mujeres,

para bien o para mal, no son intercambiables.

¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez

 

192 E N E R O

2 0 1 2

VI.- Bibliografía

HARAWAY, Donna J., Ciencia, cyborgs y mujeres. La reinvención de la naturaleza, Madrid, Ediciones Cátedra SA,

1995.

MOYES, Cristopher D., SCHULTE, Patricia M., Principios de Fisiología Animal, Madrid, Pearson Educación SA,

2007.

PINKER, Steven, Cómo funciona la mente, Barcelona, Ediciones Destino SA, 2001.

PINKER, Steven, La tabla rasa. La negación moderna de la naturaleza humana, Barcelona, Ediciones Paidós

Ibérica SA, 2003.

PINKER, Susan, La paradoja sexual. De mujeres, hombres y la verdadera frontera de género, Barcelona, Ediciones

Paidós Ibérica SA, 2009.

WILSON, Edward O., Sobre la naturaleza humana, México, Fondo de Cultura Económica, 1980.

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

193E N E R O

2 0 1 2

La  biología  molecular:  ¿revolución  o cierre? Alberto Hidalgo Tuñón Universidad de Oviedo  

  Resumen  El  surgimiento de  la biología molecular  en  la  frontera que separa la teoría genética y la bioquímica constituye un buen banco de pruebas para distintas estrategias metacientíficas. El teoreticismo de las revoluciones científicas de Thomas S. Kuhn propende hacia un constructivismo social que no sirve para  dar  cuenta  de  la  posible  verdad  y  corrección  del teorema  de  la  doble  hélice.  El  enfoque  semántico (desarrollado por  J. Sneed, W. Stegmüller, U Moulines, etc.), aunque  pretende    adecuar  sus  análisis  a  los  contenidos estructurales  y  al  significado  de  los  teoremas  científicos, acaba  disolviendo  éstos  en  meras  correspondencias formales.  La  teoría  del  cierre  categorial,  en  cambio,  se adscribe  a  un  constructivismo  circularista  que  permite entender  los dogmas  sobre  la estructura del ADN  como  si fueran  identidades  sintéticas  materiales  sin  desdeñar  por ello  los  aspectos  pragmáticos,  históricos  y  sociales,  que valoran en su justa medida las aportaciones del grupo Fago, de  Watson  y  Crick,  de  Pauling  o  de  las  universidades implicadas.                     

                 Abstract   The  emergence  of molecular biology at  the  border that separates the genetic and biochemical theory provides a good testbed  for various  strategies  meta‐scientific. The theoretism of  Scientific  Revolutions by Thomas S. Kuhn  tends towards social constructivism does not serve to account for the possible truth and correctness of the  double  helix’s  theorem.  The semantic approach (developed  by  J.   Sneed,  W.  Stegmüller,  U.  Moulines,  etc.),  although seeks  to  adapt  its analysis  to the structural content and  meaning  of scientific  theorems, they eventually  dissolve  them into  formal correspondences. The  theory  of  categorical closure, however, is  attached to  a circular constructivism for understanding the  dogmas  of the  structure  of  DNA as identical synthetic  materials  without thereby neglecting the pragmatic  aspects,  historical  and  social, that  value into perspective the contributions  of  Phage group,  Watson and Crick, Pauling or the universities involved.                      

 

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

La biología molecular: ¿revolución o cierre? Alberto Hidalgo Tuñón Universidad de Oviedo    

«El mirífico orto» de la biología molecular —como diría un orteguiano—, acaecido según parece hace

poco más de treinta años, constituye un buen banco de pruebas para toda teoría postpopperiana de la ciencia con

pretensiones de explicar la génesis o el contexto de descubrimiento de una nueva ciencia o especialidad académica.

Abundantes documentos y testimonios tanto sobre los aspectos teóricos y epistemológicos como sobre los

acontecimientos institucionales, sociológicos e incluso psicológicos permiten arrojar sobre los datos una luz no por

intensa menos deslumbrante. Puesto que el descubrimiento de la estructura del ADN, plasmada en el modelo de la

doble hélice de James Watson y Francis Crick, se considera habitualmente el acontecimiento decisivo que vino a

«revolucionar» la biología moderna, pues proporciona una explicación convincente de la forma en que está

organizada y la manera en que funciona y se automultiplica la materia viva, no es extraño que sociólogos e

historiadores hayan focalizado sus instrumentos analíticos en la dirección apuntada por estos dos personajes. En

particular, el fascinante relato de James Watson en The double helix (1968) alienta una interpretación contingentista

y socio-histórica sobre los orígenes y constitución de la biología molecular que no se compadece para nada con las

metodologías justificacionistas que pretenden desvelar la lógica subyacente de los descubrimientos científicos.

«Como espero que este libro muestre —asegura Watson en el «prefacio»— la Ciencia rara vez avanza en

el sentido recto y lógico que imaginan los profanos. En lugar de ello, sus pasos hacia delante (y, a veces, hacia

atrás), suelen ser sucesos muy humanos en los que las personalidades y las tradiciones culturales desempeñan un

importante papel» (ib).

Incluso el criterio epistemológico más profundo que parece guiar su relato, «que la verdad, una vez

hallada, ha de ser sencilla además de bella», es decir, el clásico criterio de simplicidad, queda reducido al papel de

una mera «convicción» personal fruto exclusivo de una «arrogancia juvenil».

1. La interpretación kuhnniana: ¿matriz disciplinar o ejemplar?

Aunque Thomas Kuhn en su calidad de riguroso historiador de la ciencia, que lo es, no se ha ocupado

directamente de la constitución de la biología molecular ni se ha pronunciado sobre su carácter revolucionario, en la

nota 5 de sus Second Troughts on Paradigms (1974) ha concedido sus bendiciones a la interpretación de la misma

realizada por M. C. Mullins tanto en su tesis doctoral (1966), como, sobre todo, en su artículo de Minerva (1972),

en el que reorganiza en términos de «revolución científica», «éxito del paradigma» y «ciencia normal los detallados

estudios histórico-sistemáticos de G. S. Stent (1968, 1971). Lo que Kuhn aprecia en Mullins es la utilización de

complejas técnicas empíricas de carácter sociológico que le permiten localizar fehacientemente la comunidad

científica o «colegio invisible» de los biólogos moleculares. Al segundo Kuhn esta premisa empírica le parece

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

196 E N E R O

2 0 1 2

imprescindible para establecer el significado del propio concepto de paradigma. Cabe incluso sospechar que los

Second Thoughts se inspiran en los trabajos sociológicos de Mullins, D. J. S. Price y otros como única alternativa

viable para conservar lo que de valioso pudiera quedar en su primitiva noción de paradigma tras las encarnizadas

críticas de que fue objeto La estructura de las revoluciones científicas (1962).

Como es bien sabido —aunque muchos siguen utilizando alegremente la gratificante terminología de

«paradigmas» y «revoluciones»— Kuhn ha reconocido en 1974 la esencial ambigüedad que vicia su utilización del

término «paradigma». Tras los desapasionados análisis de Dudley Shapere (1964,1966) y Margaret Master (1970)

se ha visto obligado a proponer dos conceptos nuevos, menos confusos para sustituirlo adecuadamente: matrices

disciplinares y ejemplares. Una «matriz disciplinar» viene a ser el conjunto de presupuestos compartidos que

explican el carácter relativamente aproblemático de la comunicación profesional y la relativa unanimidad de juicio

dentro de una comunidad científica. Entre los componentes de la matriz Kuhn destaca tres que considera esenciales

para el funcionamiento cognoscitivo del grupo: generalizaciones simbólicas (componentes formales o

formalizables, cuasitautológicos), modelos (o conjunto de analogías preferidas de carácter ontológico y heurístico)

y ejemplares (o soluciones «paradigmáticas» de problemas tipo concretos aceptadas por el grupo). En sentido

estricto el término paradigma debe asimilarse exclusivamente a esta última noción de ejemplar. De ahí que ahora la

«ciencia normal» consista básicamente en la adquisición de ejemplares estandarizados en el seno de la comunidad

científica, proceso al que Kuhn dedica extensos análisis de lo que muy bien podría catalogarse como psicología

genética del pensamiento científico.

De acuerdo con esta nueva conceptualización puede inquirirse legítimamente en qué se cifra ahora un

cambio revolucionario. Kuhn parece emitir dos respuestas diferentes. Por un lado se nos dice que «las alteraciones

que se producen en cualquiera de los componentes de una matriz disciplinar pueden dar lugar a cambios del

comportamiento científico que afectan tanto a la materia particular de las investigaciones de un grupo como a sus

patrones de verificación» (1974). Pero, acto seguido, renuncia a defender una tesis tan general, tal vez porque

muchos de esos cambios pueden catalogarse como desarrollos científicos normales. Más específicamente en la nota

14 del mismo trabajo aventura la sospecha de que «las revoluciones científicas pueden distinguirse de los

desarrollos científicos normales en que las primeras requieren, cosa que no sucede con los segundos, la

modificación de las generalizaciones que habían sido consideradas anteriormente como cuasi-analíticas» (ib), es

decir, de las generalizaciones simbólicas1.

1 Omito en el texto cualquier referencia a las distintas reconstrucciones formales de que han sido objeto en la última década las ideas de Kuhn. Las ejecutadas por los teóricos de la ciencia adscritos al llamado enfoque semántico (Sneed, 1971; Stegmüller, 1973), partidarios de la autodenominada concepción estructuralista no-enunciativa de las teorías, no obstante, han sido valoradas elogiosamente por el propio Kuhn (1977): «Stegmüller... ha entendido (mis trabajos) mejor que cualquier otro filósofo que se haya detenido en sus análisis». En la medida en que tales reconstrucciones han influido en las posiciones epistemológicas de Kuhn antes de 1975 y han contribuido a elucidar y racionalizar sus planteamientos, parece obligado justificar esta omisión. Aunque para los propósitos de este trabajo bastaría aducir su irrelevancia defacto para la biología molecular, voy a explicitar las razones de fondo que me inducen a pensar que tal irrelevancia no es coyuntural. En primer lugar, recuérdese que el aparato conceptual estructuralista exige como precondición para su aplicabilidad la axiomatización de una teoría por parte de los propios científicos. Este no es el caso de la biología molecular. No es casual que hasta ahora los estructuralistas semánticos se hayan limitado al estudio de teorías físico-matemáticas altamente desarrolladas, en especial la mecánica de partículas y la

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

197E N E R O

2 0 1 2

Pues bien, al margen del poco éxito que los últimos desarrollos de Kuhn han tenido para zafarse de las

objeciones de sus críticos —y no por falta de conmensurabilidad (F. Suppe, 1974) — está claro que la pregunta de

si la biología molecular constituye o no una auténtica «revolución» debe plantearse en términos de si ha habido o

no un cambio de matriz disciplinar de las ciencias biológicas o un simple cambio de ejemplares. La tesis que

mantengo en esta primera parte es que la biología molecular no ha implicado cambios relevantes en la matriz

disciplinar de las ciencias biológicas ni por lo que respecta a las generalizaciones simbólicas desde que Shleiden y

Schwann establecen en 1838 la teoría celular (presencia de células en todos los organismos vivos, continuidad

genética de la materia viva, explicación de las funciones a partir de las estructuras subyacentes, etc.), ni por lo que

respecta a los modelos ontológicos de la bioquímica, en particular (que siguen siendo de carácter básicamente

mecanicista y reduccionista). Quizá el único cambio destacable concierne al nivel de resolución en el que se estudia

la materia viva, es decir, el nivel molecular2. Pero tal cambio parece atribuible también a la bioquímica,

termodinámica (cfer. Moulines, 1982). No conozco aplicación alguna de este enfoque a teorías biológicas, pese a que algunos desarrollos de la teoría de sistemas y, sobre todo, la axiomatización de la genética efectuada por J.H. Woodger habrían allanado el camino suficientemente para tal aplicación. Tan estricta exigencia formal no es una objeción de principio, pero supone un hándicap respecto a teorías de la ciencia, como el cierre categorial, cuyo aparato conceptual más flexible le permite analizar teorías científicas más «blandas», i. e., no axiomatizadas. Es posible que, en breve, los semánticos aborden teorías biológicas. Pero este hecho no modificaría la validez de las opiniones vertidas en el texto respecto a Kuhn, porque, en segundo lugar, su concepción es independiente del enfoque de Sneed. Es cierto que ambos han entrado en contacto y que tal contacto parece armónico por el momento. Pero me parece que los estructuralistas salvan los conceptos kuhnianos de interpretaciones sociológicas a lo Mullins en base a un reduccionismo metacientífico. El propio Stegmüller no se cansa de repetir en sus últimos escritos (1979, 1982) que «no hay conexión obligatoria y lógica alguna» entre la nueva corriente semántica y la interpretación de Kuhn. La reconstrucción de sus ideas sólo es un «resultado secundario», no perseguido ni previsto apriori en su teoría de la ciencia. Por tanto, arguye frente a los críticos, lejos de ser la mera aplicación ad hoc de un aparato formalista destinado a salvar la filosofía de la ciencia de Kuhn, se trata de una nueva teoría de la ciencia que goza de una amplitud y una potencia superiores, pues además de explicar la estructura lógica de las teorías científicas recoge los elementos dinamicistas y pragmáticos subrayados en sus estudios históricos. Esta extraña mamalgama de independencia (verbal) y reduccionismo (efectivo) deberá aclararse metacientíficamente algún día. Entre tanto, a despecho de sus versallescos intercambios, la independencia parece convertirse en conflicto. Kuhn no acepta la central distinción entre términos teóricos y no-teóricos y discrepa profundamente del análisis semántico sobre su concepto de «inconmensurabilidad». Y no se trata de un conflicto menor, pues la inconmensurabilidad resulta el criterio central para detectar «revoluciones». La mecánica clásica sigue pareciéndole a Kuhn irreducible a la teoría de la relatividad y los procedimientos semánticos habilitados para la reducción puramente circulares (1977). En tercer lugar, la discrepancia se acentúa cuando se pasa al análisis de ejemplos históricos concretos. El caso de la biología molecular podría resultar «paradigmático». Si he captado correctamente el sentido de la concepción estructuralista me parece que el descubrimiento de la estructura del ADN, a la luz de la información proporcionada en el texto, podría interpretarse intuitivamente como un caso prototípico de transformación de un modelo parcial potencial (perteneciente al conjunto Mpp, si se pudiera formalizar eventualmente) en un modelo parcial de carácter empírico (perteneciente a Mp) más dos condiciones de ligadura nuevas con términos bioquímicos y genéticos. Esto significa una nueva especialización de la biología y el cambio operado podría entenderse como una ampliación de la red teórica, a lo sumo, pero sin modificación del núcleo teórico (N). Por tanto, según el enfoque semántico, no habría aquí cambio revolucionario alguno en contra de la opinión de Mullins. Sería interesante que los estructuralistas se decidieran a definir el predicado «teoría biológica», porque obligarían a Kuhn a salir de la nebulosa indeterminación a que conduce la doble definición citada en el texto de «revolución científica». Por añadidura, ayudarían a los biólogos a resolver sus propias perplejidades de demarcación con sus poderosas herramientas conjuntistas. En cualquier caso, no es mi propósito polemizar aquí con el enfoque semántico. Mientras no se pronuncien sobre la biología molecular, me parece que procede omitir prudentemente sus desarrollos kuhnianos. Para una visión crítica del concepto de «revolución» en términos también semánticos y conjuntó las que llega a resultados similares en el caso de la biología molecular vide Bunge (1982, 1983). 2 El concepto «nivel de resolución» ha de entenderse aquí en un sentido gnoseológico y analítico. Debe distinguirse de su inverso (nivel de organización o de integración) frecuentemente utilizado en la biología sistémica con fuertes connotaciones ontológicas. Técnicamente el concepto guarda estrechas analogías con la capacidad de resolución de los aparatos o instrumentos científicos: microscopios electrónicos, centrifugadoras, etc. El aparato teórico de la biología molecular permite analizar estructuras más finas (primarias: la secuencia de los ácidos aminados) que cualquier otra disciplina biológica, incluyendo la genética. La concepción instrumentalista de las teorías vería, sin duda, un cambio en el nivel de resolución como un cambio teórico significativo. Pero para Kuhn (1977) un mero cambio de nivel no implicaría por sí solo una «revolución» científica, salvo que fuera acompañado de cambios semánticos en los términos: la inconmensurabilidad semántica (y no la reducción) induciría entonces un desalojo teórico revolucionario. La pregunta pertinente en este caso parece ser: ¿qué cambios semánticos ha operado la biología molecular? Sugiero que la cuestión debería explorarse en una dirección doble: (a) La primera viene exigida por la introducción de un lenguaje informativista en biología a través de la genética molecular hacia los sesenta. Se había, en efecto, de «replicación», «transcripción» y «traducción» de la información genética, así como de «código» y «expresión» genéticas. ¿Implica esta terminología informativista una nueva teoría genética pivotada sobre el dogma central con una semántica distinta de la acoplada a la bioquímica y a la genética mendeliana o se trata de una metáfora prescindible? El problema gnoseológico no reside en la homologación o no del concepto de información, sino en su capacidad explicativa de los fenómenos biológicos. Aun reconociendo con Lwoff (1962, 1965) que la información en biología se refiere a «la secuencia específica de los ácidos nucleicos en el material genético» y que, por tanto, «el cálculo de la negentropía

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

198 E N E R O

2 0 1 2

denominación utilizada por primera vez en 1903 por Neuberg, un año después de que Fischer y Hofmeister

demuestran que las proteínas son polipéptidos y 34 años después de que Miescher descubriera el ADN en 18693. En

este sentido, Mario Bunge (1982) ha observado correctamente que «si aceptamos las ideas de Kuhn... Crick y

Watson, que trabajaban dentro de un determinado paradigma construido por otros y sobre un problema propuesto

por otros» estaban ocupados en modestos proyectos de ciencia normal, es decir, estaban rellenando agujeros4 .

Puede admitirse, sin embargo, que la biología molecular implica cambios de ejemplares o soluciones

paradigmáticas para problemas tipo. Pero estos cambios son tan débiles que difícilmente podrían considerarse

utilizando las fórmulas de Shannon no se aplica en absoluto al ser vivo», queda por aclarar el estatuto gnoseológico de estos términos informativistas supuestamente específicos en el seno de las ciencias biológicas. Esta cuestión puede parecer demasiado especulativa y cae fuera de los propósitos de esta comunicación; pero biólogos hay que se sienten incómodos con la terminología e intentan ignorarla, (b) La segunda dirección que sugiero es más sustantiva y conecta de lleno con el tema abordado en el texto. Podría formularse brevemente así: ¿qué significa epistemológicamente la afirmación, por ejemplo, de que la biología molecular ha logrado integrar la bioquímica con la genética? El problema semántico consiste ahora en determinar a qué cuerpo teórico pertenecen los términos, leyes, principios y demás constructos aportados por la biología molecular. Ello nos remite directamente al tema de la unidad interna de la bioquímica y al de sus relaciones con el resto de las disciplinas biológicas (cfer. nota 3). 3 . Si la biología molecular quedase confinada a ser un mero desarrollo de la bioquímica, como pretenden muchos bioquímicos, no estaría justificada la parafernalia «revolucionaria» de que se acompaña habitualmente su advenimiento. Este es el sentido polémico de la afirmación del texto. Pero, acto seguido, debo advertir que en la medida en que los avances de nuestro conocimiento sobre las bases moleculares de la genética «han afectado profundamente a todos los campos de la Biología» (Lehninger, 1981), tal desarrollo, aunque no pueda describirse adecuadamente como una «revolución kuhniana», parece desbordar los parámetros de la bioquímica clásica. Aun cuando el «nivel de resolución» de la biología molecular (las macromoléculas) sea abordable desde la bioquímica, algunos miembros de esta comunidad abrigan temores no del todo injustificados. Del mismo modo que el surgimiento de la bioquímica arrinconó a los antiguos especialistas en química orgánica en el estrecho campo tecnológico de la polimeración de plásticos, la biología molecular podría convertir a la bioquímica clásica en una ciencia auxiliar reducida a estudiar fenómenos bioenergéticos (el ciclo de ATP), vitaminas y enlaces de fosfato. Pues bien, aunque así fuera, me parece que los conceptos kuhníanos de «revolución» y «paradigma» no servirían para dar cuenta de esta situación ni desde un punto de vista genético, ni desde un punto de vista estructural. Más adelante discuto en el texto la inadecuación genética de la reconstrucción de Mullins. Permítaseme discutir aquí la inadecuación estructural del esquema de Kuhn. Estructuralmente sólo habría «revolución» en el sentido de Kuhn si, además de constituirse en un nuevo campo, la biología molecular vaciase de significados algunas teorías biológicas vigentes (eminentemente la genética) al proponer alternativamente un sustituto teórico, cuyos términos fueran inconmensurables respecto a las teorías estándar. Este esquema de sustitución no es, sin embargo, el único concebible estructuralmente para articular la noción de integración mencionada atrás (nota 2). Moulines (1982), por ejemplo, distingue cinco esquemas de lo que él llama «relaciones inter-teóricas» diádicas y señala acertadamente que toda discusión epistemológica parece concentrarse «en la dicotomía: incompatibilidad versas reducción». Utilizando su nomenclatura vale decir que nadie ha presentado para el caso que nos ocupa esquemas estructurales de incompatibilidad, ni en el sentido (1) T∩ T’ = ø, ni en el (2) ╣eεT, ╣e’εT 3e's T’:e—>-e\ únicas capaces de otorgar sentido estructural a una «revolución kuhniana» (ya he indicado que la reconstrucción de Mullins sólo tiene significado genético y sociológico, pero no estructural). En cambio, Ruse (1973), siguiendo a Benzer (1962) y otros sostiene que la reducción de la genética mendeliana a la genética molecular (esquema (4) T ╞ T’ de Moulines) «ha sido rigurosamente realizada», pese a la falta de formalización completa de ambas disciplinas. Entre los biólogos, sin embargo, lo más frecuente parece ser el esquema (3) T= T’, que Moulines considera poco interesante por tratarse de una «identidad camuflada». Propongo llamar a este esquema «esquema de yuxtaposición» y valorarlo metateóricamente en su justa medida. Si biólogos como Dobzhansky (1970), Ayala y otros (1977), etc. parecen no tener reparos en mezclar segmentos de ADN en el curso de investigaciones sobre genes y en las discusiones esencialmente biológicas, no es tanto porque consideren idénticos los conceptos moleculares y los biológicos, cuanto porque les resulta empíricamente ventajoso trabajar con ambos sin plantearse engorrosos problemas epistemológicos: «Hay que distinguir entre los instrumentos y las preguntas o hipótesis» nos decía hace poco Ayala (1983) para justificar esta yuxtaposición. Pero la misión del epistemólogo me parece que no reside en recriminar al científico su ingenuidad gnoseológica cuanto en analizar sus prácticas habituales. Tal vez el esquema de yuxtaposición resulte ser una mera apariencia que recubre una práctica más compleja y que se origina cuando se postula apriori que la relación inter-teórica debe ser diádica. y los únicos elementos interesantes gnoseológicamente en la ciencia, las teorías. En el caso de la biología molecular ensayaré un esquema de relación poliádico de confluencia (genética y estructural a un tiempo), en el que se articulan no sólo teorías, ni sólo aplicaciones con sus correspondientes condiciones de ligadura (o «reglas de correspondencia»), sino también aparatos, técnicas y otras configuraciones, cuyo resultado es un conjunto de elementos heterogéneos entre los que destaca un «teorema» o «célula gnoseológica», que tiene implicaciones relevantes para el marco teórico completo de las ciencias biológicas. No creo que esta formulación intuitiva gane mucho si la formalizo en términos conjuntistas así: T¡ ∩ A¡ ∩ R„ ∩ /,„ ∩ Chh ≠ ø, ╣e ε E & E c MTCB. En cambio, confío en que las declaraciones y críticas del texto ayuden a entender mi argumentación. 4 Bunge (1983) aclara sus diferencias con Kuhn, cuando niega la existencia de dos tipos de períodos en la historia de la ciencia: «la investigación normal y la extraordinaria se dan al mismo tiempo». La investigación extraordinaria, a su vez, puede dar lugar a un avance decisivo {breakthrough) o a una revolución epistémica. La genética molecular es un breakthrough, que supone el marco conceptual previo de la genética clásica. Aunque coincidamos en considerar la biología molecular como un avance decisivo esta recategorización puramente formal y denotativa no resuelve los problemas que estamos debatiendo. Por lo demás, Bunge muestra una radical intolerancia hacia las ideas de Kuhn. Lo curioso de la cita del texto es que coincide en el diagnóstico con los demás semánticos aliados de Kuhn, en contra precisamente de las apreciaciones sociológicas de Mullins. Hay en Kuhn una ambigüedad esencial.

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

199E N E R O

2 0 1 2

revolucionarios, ni rupturistas. De hecho, habría que admitir que toda ciencia se ve continuamente convulsionada

por micro-revoluciones de esta índole5 . Tan revolucionaria puede considerarse la doble hélice como la estructura en

hélice-a propuesta por Pauling y Corey en 1950 para las a-queratinas, que en cierto sentido parecen pertenecer al

mismo tipo de soluciones estandarizadas, máxime si tenemos en cuenta la obvia conexión que Watson admite entre

ambos descubrimientos. En suma, los nuevos conceptos de Kuhn parecen tan incapaces de explicar la génesis de

una nueva ciencia o especialidad académica, como su antiguo concepto de paradigma6. Pero antes de proponer un

esquema alternativo, exploremos la vigorosa interpretación de Mullins.

2. El grupo «fago» y la polémica sobre los orígenes de la biología molecular.

Es tan grande la evidencia sociológica a favor de que ha nacido una nueva disciplina (creación de cátedras

y departamentos, fundación de revistas especializadas, celebración de Congresos, confección de manuales, etc.) en

torno al descubrimiento de la estructura del ADN que esta premisa empírica puramente institucional parece exigir

una justificación metateórica. Mullins, que así lo constata, se acoge al exitoso expediente de Kuhn. Pero percibe

inmediatamente que no puede atribuir carácter revolucionario a un descubrimiento como el Watson y Crick, toda

vez que, apenas conseguido, es publicado en Nature con la recomendación de Sir Lawrence Bragg, los plácemes de

sus jefes inmediatos en el Cavendish (Max Perutz y John Kendrew) y el apoyo adicional del grupo de

investigadores del King's College de Londres (Maurice Wilkins y Rosalind Franklin), cuyas fotografías obtenidas

con las técnicas de difracción por rayos X aportaron la evidencia empírica necesaria. Tan rápida aceptación obliga a

Mullins a reconstruir la génesis del supuesto paradigma triunfante para el que el descubrimiento de la estructura

helicoidal del ADN suponía sólo el espaldarazo confirmatorio. Hacía falta encontrar un período revolucionario

previo con cambios de envergadura, disidencias respecto a los patrones tradicionales de investigación y novedades

de enfoque.

Esquemáticamente Mullins distingue 4 períodos sucesivos, en los que trata de descubrir características

intelectuales y sociales específicas:

(a) Entre 1935 y 1945 se habría producido, según Mullins, la definición del nuevo paradigma a través de

la creación de un grupo de trabajo centrado en torno a la figura de Max Delbrück, un físico proclive a la biología

cuantitativa, quien en 1935 había escrito en colaboración con los biólogos Timofieff y Zimmer un artículo

interdisciplinar sobre la estructura y mutación de los genes. Después de emigrar en 1937 al CalTech de California,

este alemán antirreduccionista y negativamente predispuesto hacia la bioquímica, que juzgaba inútil, se pone en

5 Para una crítica del concepto de «microrrevolución» vide Toulmin (1970, 1972), quien reconduce su significado como «unidades de innovación científica» a un marco evolucionista. 6 También aquí la afirmación del texto tiene sentido polémico. No prejuzga que la biología molecular constituya la génesis de una nueva ciencia o disciplina académica. Pero los kuhnianos que así lo mantienen, como Mullins, no lograrán mucha más ayuda en los segundos pensamientos de Kuhn que en los primeros.

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

200 E N E R O

2 0 1 2

contacto con el bacteriólogo de origen italiano Salvador Luria para crear un grupo de investigación disperso y sin

existencia oficial dedicado a estudiar bacteriófagos.

Aunque hombres como Anderson, Lwoff, Adams, Hershey, Doermann, Monod y otros formaron parte

del grupo inicial carecían de orientaciones metodológicas unitarias e, incluso, diferían respecto a sus creencias

epistemológicas. Pero lograron una coordinación parcial cuando un grupo de ellos decidió en 1944 concentrar sus

esfuerzos en un solo grupo de fagos (la serie T) y en una sola bacteria (la Escherichia colí).

(b) Según Mullins entre 1945 y 1953 se habría producido una fuerte red de comunicaciones (network),

cuya cristalización sociológica en las escuelas de verano de Cold Spring Harbor es analizada minuciosamente,

tanto por lo que respecta a los asistentes y reclutas (Watson, Delbucco, Evans, Weigle, etc.) como a la formación de

núcleos de investigación conectados con la red en diversos países (v.g.el Instituto Pasteur con André Lwoff, Elie

Wollman, Francois Jacob, etc., o el Instituto de Física en Ginebra de Kellenberger). Desde el punto de vista

intelectual se prima la investigación de las funciones genéticas, se afinan los procedimientos experimentales y se

obtienen resultados espectaculares, que incrementan la solidaridad del grupos. En particular, Alfred D. Hershey y

Martha Chase demuestran en 1952 que no es el envoltorio proteico del bacteriófago T2, sino su ADN quien tiene

funciones genéticas y reproductivas; al año siguiente Watson, el «niño prodigio» del grupo, sugiere que el ADN se

dispone estructuralmente en una doble hélice, en la que la purina de una cadena está ligada a la piramidina de la

cadena gemela.

c) A partir de 1954 la solidaridad del grupo se fortalece, formando una especie de «capilla» cerrada, que

Mullins denomina cluster. Estadísticamente este enjambre consta de 111 miembros, de los que 15 constituyen un

núcleo fijo con una permanencia superior a 10 años, mientras en la periferia se localizan 59 colaboradores

ocasionales que sólo aportan una comunicación puntual. Esta fluida estructura favorece una fuerte actividad,

sociológicamente centralizada por el servicio de información Phage, que filtra la información pertinente. Decrece el

reclutamiento, pero se incrementa el grado de conciencia colectiva acerca de la especificidad de sus investigaciones

y del estilo peculiar del grupo. La formulación del dogma central en 1956 por parte de Crick de que la información

genética transita en la dirección ADN-ARN-Proteína, y nunca en el sentido inverso, centró las investigaciones del

grupo tendentes a precisarlo y confirmarlo. Según Mullins, esta fase dogmática es la más fecunda en contribuciones

precisas y culmina en 1962.

d) Cuando en 1962 John Kendrew y Max Perutz reciben el Premio Nobel de química, al tiempo que

Watson, Crick y Wilkins son laureados con el de Fisiología y Medicina, se inicia, según Mullins, el período

«académico»: la biología molecular se convierte en una especialidad reconocida, organizada e institucionalizada. El

éxito obtenido cierra el ciclo del grupo fago, cuya imagen distintiva se disuelve definitivamente en 1966 tras el

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

201E N E R O

2 0 1 2

galardón concedido al núcleo del Instituto Pasteur. Constituido el paradigma triunfante sólo queda el trabajo

rutinario, el lento encaje de las piezas del puzzle, cuyas líneas maestras habían sido trazadas por Delbruck mucho

antes.

No cabe duda de que la reconstrucción de Mullins es ingeniosa, pero sumamente objetable tanto por

razones generales como por cuestiones de detalle. Aunque pueda valorarse positivamente en tanto que ejercicio

empírico de localización de una línea de investigación7 , esta justificación de los orígenes de la biología molecular

resulta históricamente arbitraria, analíticamente confusa y filosóficamente insuficiente (amén de

metacientíficamente irrelevante).

Es históricamente arbitraria porque la misma historia puede contarse y ha sido contada de manera distinta,

con personajes y orientaciones diferentes, de modo que el grupo fago no sólo pierde protagonismo, sino que deja de

ser interesante por sí mismo. El cristalógrafo e historiador social de la ciencia John D. Bernal (1964), por ejemplo,

atribuye a W. T. Astbury el origen de la biología molecular, quien en 1932 había iniciado el estudio estructural de

los ácidos nucleicos mostrando que los cuatro nucleóticos A, G, C, T (U en el RNA) se apilan como monedas en

ángulos rectos al eje de la hebra. Por añadidura, Atsbury habría recibido el primer reconocimiento oficial al ser

designado profesor de Estructura Biomolecular en 1945, detalle nada deleznable sociológicamente. Desde esta

perspectiva estructuralista, los protagonistas son cristalógrafos y químicos antes que físico y bacteriólogos; y más

que los acuerdos tácitos o explícitos de un grupo interesa historiar los descubrimientos y técnicas que hicieron

posible dilucidar la estructura de los ácidos nucléicos. Entre las técnicas destaca Bernal la «ultracentrifugadora»

(10.000 r. p. seg.) diseñada por el químico sueco Theodor Svedverg en la década de los veinte, por cuanto sirvió

para determinar los pesos moleculares de una serie de proteínas a partir de la velocidad de sedimentación de sus

componentes; los análisis espectográficos por difracción de rayos X ejecutadas por Kendrew desde 1946 sobre

proteínas cristalizadas; y los análisis cromatográficos sobre el papel desarrollados por Archer Martin y Richard

Synge a partir de 1941.

La hipótesis química de Emil Fischer sobre las cadenas de aminoácidos que constituyen las proteínas se

engarza ahora sin solución de continuidad con los trabajos de Frederick Sanger sobre el orden de los aminoácidos

de 1946 y 1952, así como con el análisis químico de Erwin Chargaff, «uno de los padres de la criatura», cuyas

reglas sobre la equilibración del número de purinas y piramidinas (A = T; G = C) constituyen el precedente

inmediato de la hipótesis de Watson-Crick.

Pero no se trata sólo de contraponer polémicamente estas dos versiones sobre los orígenes de la biología

molecular. La ceremonia de la confusión continua y en ella han oficiado, entre otros, el propio Chargaff (1971),

Mirsky (1968), Asimov (1969), Wyatt (1972), Thuillier (1972), Hess (1970), etc. Chargaff y Mirsky, por ejemplo,

7 En el sentido de Bunge (1982).

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

202 E N E R O

2 0 1 2

coinciden en subrayar el papel de hilo conductor que las hipótesis e investigaciones en torno a las funciones

genéticas del ADN tienen para la constitución de la disciplina denominada «genética molecular». Desde los

descubrimientos de Miescher en el siglo XIX hasta los dogmas de Francis Crick en 1956 una misma línea de

trabajo tendente a desvelar «el secreto de la vida» pondría en conexión la obra de químicos y bioquímicos como

Albrecht Kossel, Phoebus Levene, AlexanderTodd, Robert Feulgen, Torbjórn Caspersson, el propio Alfred Mirsky,

Oswald Avery, Severo Ochoa, etc. El enciclopédico divulgador Isaac Asimov, que lo abarca todo, adopta, por su

parte, una visión «acumulativista» similar cuando ubica lógicamente la exposición de los ácidos nucleicos dentro

del capítulo sobre la célula justo tras el estudio que dedica a la investigación sobre los cromosomas y los genes8. En

cambio Wyatt interesado también en destacar el valor de la biología molecular para la reproducción genética, pero

no menos inclinado a observar los fenómenos sociológicos de trasmisión y diseminación científica, coloca el

«cambio decisivo de paradigma» en 1944, fecha en que Avery y sus colaboradores (Colin MacLeod y Maclyn

McCarty) publican su trabajo sobre neumococos demostrando que la transmisión de caracteres hereditarios se

efectúa a través del ADN. Ignorado por los genéticos y ante la ceguera de los bacteriólogos como Luria, el

descubrimiento de Avery sólo cobrará carta de naturaleza e importancia en 1956 simultáneamente a la admisión del

dogma central de la biología molecular.

No dispongo de espacio para análisis comparativos más extensos. Pero parece claro que a las distintas

versiones históricas esbozadas subyacen diferentes concepciones sobre la ciencia y su historia. Con todo, mi

argumento para tildar de históricamente arbitraria la reconstrucción de Mullins se basa no sólo en que ha sido

contestada por historiadores «materialistas» como Bernal que colocan consecuentemente las innovaciones teóricas

(superestructurales) al amparo de innovaciones tecnológicas (estructurales) previas, o por historiadores

«acumulativistas» como Asimov (y eventualmente Chargaff y Mirsky), para quienes no existen problemas

gnoseológicos de demarcación, bien sea porque la ciencia es una, bien sea porque no les importa tanto la existencia

de fronteras administrativas cuanto la presencia de problemas o enigmas científicos a resolver. La arbitrariedad

reside, sobre todo, en el hecho de que los propios «rupturistas» como Wyatt, que hipotéticamente debieran mantener

una concepción sociológica similar sobre los orígenes de una disciplina científica, no aceptan la versión de Mullins

y Stent. El argumento abunda, por lo demás, en la laxitud epistemológica de los esquemas de Kuhn, incluso para

dar cuenta de la historia de la ciencia.

Quizá no debiera extrañar la polémica en torno a los orígenes de la biología molecular —siempre hubo

disputas de prioridad en la ciencia—, sino que se suscite justo en el momento en que se produce su consagración

definitiva. He aquí un tema sustantivo para los sociólogos de la ciencia como Mullins, quien más que intervenir

militantemente en la polémica debiera haber intentado determinar las conexiones institucionales subyacentes en

8 No es irrelevante recordar las repetidas confesiones tanto de Watson (1968) como de Crick en el sentido de que su interés por el ADN estaba alimentado por el deseo de descubrir qué eran y cómo actuaban los genes, i. e., por descubrir «el secreto de la vida».

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

203E N E R O

2 0 1 2

cada una de las reconstrucciones históricas, obviamente interesadas9. Lo que sí resulta epistemológicamente

sorprendente es la unanimidad con que se acoge la hipótesis de Watson-Crick y la rapidez con que prende en la

comunidad de biólogos (en especial los bioquímicos), pese al papel marginal y la peculiar personalidad de sus

autores en la misma. ¿No está pesando más la verdad y fecundidad de la hipótesis, captada inmediatamente por los

especialistas, que los merecimientos académicos de sus autores o que su adscripción a una determinada escuela a

línea? La profundidad, coherencia, elegancia, sencillez, evidencia, fecundidad y corrección que diversos autores

atribuyen al modelo de replicación genética no se explica recurriendo a su génesis histórica, sociológica o

psicológica, porque son valores que transcienden esas categorías externas. Creo que la pregunta

gnoseológicamente relevante, que la reconstrucción que Mullins es incapaz de responder en términos kuhnianos,

concierne al estatuto de las hipótesis de Watson-Crick puedan tener dentro del campo de las ciencias biológicas.

Por lo demás, estas consideraciones obscurecen por sí solas la supuesta claridad analítica de la

reconstrucción de Mullins. La confusión de Mullins reside en que no explica la constitución de la «biología

molecular» como paradigma o diciplina autónoma, sino a lo sumo la disolución de un grupo de trabajo en el seno

de una ciencia ya institucionalizada: la bioquímica. En particular, no rinde cuentas sobre cuál sea el campo de la

biología molecular y es incapaz de explicar la dualidad teórica que aún hoy parece subsistir en su seno, como

sagazmente acierta a formular el propio Kendrew (1967,1970): «los biólogos moleculares no tienen entre ellos

mismos unanimidad sobre la naturaleza del tema». Como se sabe, en la biología molecular confluyen dos tendencias

o escuelas, cuyos intereses divergentes parecen desgajarla internamente: la tendencia estructuralista, interesada por

el aspecto geométrico tridimensional de la doble hélice del ADN y propensa a disolver los estudios sobre la

configuración estereométrica de las moléculas biológicas en la rama clásica de la bioquímica que se ocupa de ellas

desde una perspectiva reduccionista; y la tendencia informativista que atiende a los aspectos topológicos y al papel

de los pares de bases azoadas en el mecanismo genético de la replicación desde una perspectiva unidimensional, pues

para entender cómo se almacena y se trasmite la información basta determinar la ordenación de las secuencias. De

nuevo, el problema gnoseológico parece residir en comprender la naturaleza de esa confluencia. La definición ad

hoc (Asimov, 1972) de la biología molecular como el campo en que confluyen dos ciencias anteriores (la

bioquímica, entendida como el estudio de las reacciones químicas que tienen lugar en el tejido vivo, y la biofísica,

reducida al estudio de las fuerzas y fenómenos físicos implicados en los procesos vivos) no resuelve el problema.

En realidad, la literatura molecular oferta más de una docena de definiciones alternativas y a nadie se le oculta que

los biólogos manejan el concepto de información de manera muy diferente a como lo manejan los físicos. Como ha

señalado Jacob (1970), aunque la biología ha demostrado que no existe ninguna entidad metafísica que se esconda

detrás de la palabra «vida», no puede reducirse a física a causa de su carácter integrador (el integron) y organizado.

9 Una de las mayores ambigüedades que han contribuido a desprestigiar los concepos metacientíficos de Kuhn es el curioso fenómeno de explotación ideológica de que han sido objeto. Con mucha frecuencia «paradigma» y «revolución» se utilizan en un sentido apologético y justificatorio, más que en un sentido analítico y crítico.

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

204 E N E R O

2 0 1 2

Por último, no haría falta insistir en que la reconstrucción de Mullins es filosóficamente insuficiente

(además de gnoseológicamente irrelevante, como hemos mostrado reiteradamente), sino fuese por el carácter

parodójico que atribuye al papel desempeñado por Delbrück. Resulta que «el alma del grupo fago» mantiene una

posición semi-vitalista que los resultados bioquímicos del grupo vienen a desconfirmar palmariamente. Thuillier

(1972), quien ha analizado este extremo con cierto detalle, termina resolviendo la paradoja providencialmente en

base a que «la ciencia escribe derecho, pero con renglones torcidos». Tal solución, filosóficamente insatisfactoria,

no repara en el «insignificante» detalle de que Watson era discípulo de Luria y fue orientado por éste hacia la

bioquímica cuando le envía a Copenghague a estudiar con Hermán Kalckar. Lo mínimo que cabe exigir a un

«paradigma emergente» es una cierta coherencia interna entre sus cabezas de serie por lo que se refiere a los

supuestos filosóficos últimos y orientaciones metodológicas básicas.

3. Un esquema alternativo desde «el cierre categorial».

En la teoría del cierre categorial de Gustavo Bueno (1976) se han elaborado algunos conceptos que me

parece pueden rendir cuenta de la situación creada por la llamada biología molecular. Los conceptos clave que voy

a usar son los de «contexto determinante», «teorema» o «célula gnoseológica» y «proceso de confluencia». Me

consta que en la elaboración de estas nociones, G. Bueno no estabainteresado en problemas biológicos, ni mucho

menos de biología molecular, sino trabajando con problemas gnoseológicos de geometría y física.

Pues bien, la hipótesis de trabajo que mantengo (y que en los límites de esta comunicación no puedo

defender en profundidad) es que el descubrimiento de la estructura helicoidal del ADN es un «teorema» (o «célula

gnoseológica») de carácter modulante, cuyo contexto determinado se mantiene dentro de los márgenes de la

bioquímica, aun cuando el proceso de confluencia que lo genera y posibilita desborda histórica y

gnoseológicamente este marco, pues implica desarrollos teóricos y tecnológicos en otras ciencias, cuya incidencia

en el campo de las ciencias biológicas, aunque espectacular, es sólo oblicua10

Esta tesis es sólo una consideración parcial del «hito revolucionario» que convulsionó este campo de

investigación. Pero teóricamente la hipótesis del operon de Jacob-Monod, el descifrado del código genético (Crick,

Niremberg, Ochoa) y otros muchos desarrollos que ni siquiera se mencionan en este breve texto polémico tienen

tanta o más importancia. El significado de la tesis tan condensadamente formulada sólo puede entenderse en el

marco de la teoría del cierre categorial, pues presupone toda su gnoseología general sintética. No obstante, quizá

10 Al tratarse de una comunicación a un Congreso se condensaba en este párrafo una interpretación que se prometía explicar en un artículo posterior más amplio que nunca apareció. Se decía allí que «Próximamente aparecerá en El Basilisco una argumentación más completa sobre el estatuto gnoseológico de la Biología molecular». En su defecto, no obstante, explicaba en una larga nota «la tesis formulada en el texto», que en esta ocasión merece ser trasladada literalmente al texto principal.. La hipótesis de la doble hélice es sólo una consideración parcial del «hito revolucionario» que convulsionó este campo de investigación. Pero teóricamente la hipótesis del operon de Jacob-Monod, el descifrado del código genético (Crick, Niremberg, Ochoa) y otros muchos desarrollos que ni siquiera se mencionan en este breve texto polémico tienen tanta o más importancia. El significado de la tesis que formulo en cursivas en el texto condensadamente sólo puede entenderse en el marco de la teoría del cierre categorial, pues presupone toda la gnoseología general sintética.

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

205E N E R O

2 0 1 2

ayude a su comprensión una breve exégesis de sus tres aserciones fundamentales:

(a) Que el descubrimiento de la estructura helicoidal del ADN es un teorema modulante de las ciencias

biológicas significa desde la perspectiva del cierre categorial que nos hallamos ante un fragmento unitario,

complejo e internamente consistente de ciencia, susceptible de conectarse con cuerpos de conocimiento cerrados

más amplios, pero cuya estructura gnoseológica reproduce ella misma a escala elemental un cierre operatorio. La

teoría del cierre categorial acepta definir una ciencia como «un conjunto o sistema de teoremas», pero siempre que

se corrijan inmediatamente las connotaciones formalistas o hipotético-deductivas que el término lleva aparejado en

la literatura metacientífica estándar. Un teorema no es principalmente una consecuencia o conclusión derivada

formalmente de algún conjunto de axiomas primitivos, aun cuando esta componente proposicionalista, abstracta,

lógico-formal desempeñe en ocasiones un papel preponderante (señaladamente en las llamadas ciencias formales).

En su sentido gnoseológico o lógico-material un teorema es una «configuración» compleja que se construye (no se

deduce simplemente) a partir de un conjunto de figuras más elementales o lineales que se sintetizan formando una

pieza autónoma. Todo teorema es el resultado de un proceso de confluencia material y específico, en el que está

implicado un contexto determinante (cfer. infra) por respecto al cual se constituye como contexto determinado. En

este sentido decir que «una ciencia es un conjunto de teoremas no significa que sea un discurso de deducciones en

cascada, sino una confluencia de remolinos que se interfieren, pero que mantienen su autonomía formal» (Bueno,

1976). Los teoremas son ciencia ya organizada y su enorme grado de complejidad aconsejaría quizá utilizar otra

terminología metafórica menos ligada a las ciencias formales. G. Bueno (ib.) propone denominarlos «células

gnoseológicas», pero esta metáfora auto-referente quizá pueda resultar gödelianamente paradójica en este contexto.

En todo caso, el rasgo más característico de los teoremas consistente en que necesariamente incorporan modi

sciendi (definiciones, clasificaciones, demostraciones y modelos) en proporciones variables, variabilidad que sirve

de criterio distintivo para una tipología. Entre los teoremas materiales destacan dos tipos: los clasificatorios (v. g. el

teorema de los poliedros regulares) y los modulantes (v. g. teorema de la gravitación de Newton). Estos últimos se

caracterizan porque su contenido fundamental consiste en un modelo exportable homológícamente a otras «células»

del mismo organismo categoría!, vale decir, a otros sistemas del mismo sistema científico.

Creo que estas, aunque prolijas, necesarias puntualizaciones permiten aclarar de modo intuitivo el sentido

de nuestra tesis. El teorema de la doble hélice reformula a nivel molecular el principio de la continuidad genética de

la materia viva (de ahí sus importantes implicaciones biológicas) y reconstruye empíricamente el principio

fisiológico de la correlación estricta entre estructura y función. Pero no es una mera consecuencia deductiva de tales

principios, porque, aunque es lógicamente congruente con ellos, los desarrolla de forma novedosa y consistente.

Baste recordar para aclarar este extremo la discusión genética suscitada en la prueba del teorema sobre los posibles

mecanismos de duplicación de ADN compatibles lógicamente con el principio de continuidad: el conservativo, el

semiconservativo y el dispersivo (Lehninger, 1981; Lwoff, 1962; etc.). El razonamiento que conduce a declarar

probada la replicación semiconservadora postulada por Watson y Crick (1953b) de las dos hebras complementarias

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

206 E N E R O

2 0 1 2

de ADN no se agota en la mera deducción formal de posibilidades lógicas, que constituye un primer tramo

completamente esencial y gnoseológicamente ininteligible desde la metodología científica estándar. El peso de la

demostración reposa ciertamente en el tramo empírico aportado por los experimentos de Cyrus Levinthal en 1956

sobre bacteriófagos y, más concluyentemente aún, por la serie de resultados obtenidos al año siguiente por

Meseíson y Sthal sobre cepas de E. coli marcadas con nitrógeno «pesado». Pero quienes interpretan estos

desarrollos como un «experimento crucial» para una hipótesis más o menos audaz olvidan, entre otras cosas, el

tramo deductivo del argumento que otorga sentido gnoseológico a las alternativas y simplifican arbitrariamente la

cuestión. Es cierto que a veces se catagoriza pragmáticamente el teorema de la doble hélice como la «hipótesis» de

Watson-Crick, pero no menos frecuentemente se habla del «modelo» helicoidal, de la «ley» de la replicación, de la

«explicación» o del «descubrimiento». El concepto de «teorema» antes explicado permite aclarar este galimatías

terminológico gracias a su complejidad tridimensional. Una reubicación exacta de los múltiples componentes que la

compleja construcción de Watson-Crick conlleva excedería obviamente las dimensiones de este trabajo. Por eso voy

a limitarme a esbozar por qué considero modulante al teorema Watson-Crick, en el supuesto de que lo sea. Me

parece que los componentes modélicos son decisivos en este teorema, no sólo porque sobre su plantilla se han

confeccionado las explicaciones más convincentes sobre la estructura nuclear a las procariotas, así como las

referidas a los genomas de las eucariotas. Por añadidura, la estructura helicoidal ha permitido descifrar el código

genético, su transcripción en el ARN mensajero y la traducción biosintética en los ríbosomas; en particular, los

codones de los ARNt se asocian sucesiva y antiparalelamente con la cinta del ARNm de acuerdo con el modelo

purína-piramidina del ADN para generar toda clase de proteínas. Los parámetros estructurales de muchos de los

mecanismos bioquímicos implicados en la actividad celular obedecen al mismo modelo de enlaces covalentes

fosfodiéster 3'-5' postulados por Watson y Crick (1953a) para explicar la estabilidad de cada una de las hebras o al

de los débiles puentes intercatenarios de hidrógeno utilizados para explicar su flexibilidad duplicativa. Asociaciones

hidrofóbicas y enlaces de hidrógeno no covalentes constituyen también el modelo básico para explicar la

morfogénesis tridimensional de la mayoría de las grandes bioestructuras, macro y supramoleculares. Por si fuera

poco, ha proporcionado, en palabras de Monod (1970) «una teoría física de la herencia» que dota de significado y

certidumbre a la teoría de la evolución selectiva, cuya validez hasta entonces era puramente fenomenológica, no

esencial. A través de esta simbiosis ha comenzado a señorear todas las ramas de la biología. Aunque «la teoría del

código genético» es más amplia que el teorema que estamos considerando, no parece exagerado afirmar que si

aquella constituye «la base fundamental de la biología» éste aparece como el modelo más exportado a todas las

ramas de esta ciencia. No cabe duda de que el problema crucial de la biología moderna consiste en explicar el

tránsito de la materia inorgánica a la materia viva. Pues bien, la hipótesis génica sobre el origen de la vida

enunciada por H. Muller en 1929 sin demasiado éxito, ha encontrado en este teorema el modelo preciso que permite

su revitalización, hasta el punto de constituir la alternativa teórica más fuerte a las hipótesis proteicas de Oparin

(coacervatos) y Fox (microesferas protenoides). Si la doble hélice es un teorema como pienso, la exportación

masiva de sus modelos constituyentes hace inevitable su adscripción a la clase de los teoremas modulantes11.

11 El propio Proyecto del Genoma Humano, que estaba analizando Pablo Infiesta, puede considerarse en cuanto a su objetivo de descifrar la

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

207E N E R O

2 0 1 2

(b) Que el contexto determinado de este teorema consiste en una organización de elementos analíticamente

servidos por la bioquímica es, quizá, la afirmación más audaz que contiene nuestra tesis desde nla perspectiva del

cierre categorial. Remite a la sutil y central cuestión de la relación (dialéctica) entre contextos determinantes y

contextos determinados, que juega un papel decisivo tanto para la demarcación de la ciencia respecto a otros

procesos operatorios constructivos no científicos, como, sobre todo, para la determinación de los principios de las

ciencias como métodos internos de su cierre categorial. Según G. Bueno (1976) toda ciencia se nos presenta in

medias res como campos empíricos organizados sintéticamente en formaciones y figuras características. Así, por

ejemplo, el campo de la biología, antes del advenimiento de la biología molecular, se nos ofrece sintéticamente

como un conjunto de formaciones heterogéneas, pero mutuamente relacionadas de diversas formas, en particular

por las relaciones postuladas en la teoría de la evolución: especies, organismos, sistemas funcionales, células,

mitocondrias, genomas, genes, etc. Estas clases heterogéneas de figuras que mantienen entre sí regularidades en

proporciones más o menos definidas constituyen grosso modo el contexto determinante de una ciencia globalmente

considerada, en la medida en que son el punto de arranque sintético de toda investigación. Por supuesto, una línea

de investigación concreta selecciona algunas de estas clases como contexto determinante específico. En cualquier

caso, ¿cuál es entonces el contexto determinado? El que resulta del análisis regresivo de esas figuras sintéticas en

sus constituyentes. El contexto determinado define un campo operatorio abstracto, cuva estructura analítica filtra o

segrega aquellos términos, relaciones y operaciones características con las cuales resulta posible reconstruir

esencialmente las figuras de partida. No se vea en esta grosera simplificación una mera descripción alambicada de

los procesos inversos de análisis y síntesis estándar. El quid diferencial reside en que cuando se toma la estructura

analítica del contexto determinado como punto de arranque, convirtiéndolo así en determinante, la cosa no funciona

y las figuras básicas aparecen como «gratuitas», porque a partir del campo abstracto en que se resuelven

necesariamente no se llega a reconstruirlas sin ciertas claves que reconduzcan la construcción ¿Qué claves están

presentes en los contextos determinantes para que filtradas analíticamente se reproduzcan o reconstruyan como

contextos determinados? No se trata de una clave metafísica, ni psicológica, sino estrictamente gnoseológica:

consiste en los principios de identidad que están presentes objetivamente en las figuras básicas de partida y que.

aunque en el análisis quedan al descubierto, poseen una irrenunciable estructura sintética12.

Pero veamos ya cómo se aplica este entramado conceptual, cuyas ramificaciones principales ni siquiera

han sido sugeridas, al caso que nos ocupa. Me parece que el contexto determinante específico de la doble hélice

viene dado por las preocupaciones genéticas de sus autores y en este sentido no es casual que la biología molecular

haya encontrado su campo específico de aplicación en la genética. Muchos prefieren hablar de «genética

molecular» simplemente y antes (notas 2 y 3) hemos discutido el significado de la fórmula usual que atribuye a la

biología molecular el logro de haber integrado la bioquímica con la genética. La pregunta por la «naturaleza de los

secuenciación como la mejor demostración del carácter modulante del teorema que se defiende en este texto 12 En este punto se hacía un inciso del que puede prescindirse aquí : « Creo que el actual callejón sin salida en que parecen hallarse las investigaciones bioquímicas sobre el origen de la vida, que han provocado el espectacular éxito de la hipótesis de la panspermia remozada por Fred Hoyle como «vía de escape» aceptada por el propio Crick, ilustra claramente, como veremos, la situación gnoseológica descrita.»

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

208 E N E R O

2 0 1 2

genes» que guiaba al joven Watson le conduce en compañía de Crick, convencido tempranamente por Schrodinger

«de que los genes eran los componentes clave de las células vivas», hacia la bioquímica, materia que el primero no

dominaba en absoluto incluso después de la formulación del teorema, si hemos de hacer caso al testimonio de

Chargaff y al suyo propio. ¿Cuál es la clave entonces que les conduce tan certeramente a filtrar analíticamente los

términos, relaciones y operaciones básicas que precisan para su reconstrucción del material genético? Naturalmente

este proceso operatorio de los sujetos gnoseológicos, tal como contempla y predice la teoría del cierre categorial, ha

quedado eliminado, borrado en la construcción científica misma del contexto determinado. En efecto, un análisis

detallado del artículo en los que se expone el teorema de Watson-Crick (1953a y b) pone de manifiesto que los

términos utilizados en la construcción (ácidos fosfóricos, bases nitrogenadas, azúcares pentosa, etc.), las relaciones

postuladas (leyes estereoquímicas de enlace, reglas de Chargaff, etc.) y las operaciones (ángulos de rotación de las

bases, neutralización de los grupos fosfato con carga negativa por iones de carga positiva como argumento contra el

modelo tricatenario de Pauling, etc.) forman parte de la estructura analítica servida abstractamente por la

bioquímica. En cambio, el modelo mismo de la doble hélice, aun cuando formalmente halle un precedente

inmediato en las a-queratinas, actúa como una especie de «esquema sintético a priori» que guía la búsqueda y

selección de los elementos analíticos mpertinentes. La estructura helicoidal que en el ordo doctrinae aparece como

resultado, en el ordo inventionis está dado necesariamente de antemano y ha sido generado en parte al margen del

campo operatorio abstracto del contexto determinado. Recuérdese a este respecto que la idea germinal de Watson

(1968), que a la sazón había confeccionado una hipótesis genética sobre el emparejamiento y reproducción de las

bacterias, consistió en una estructura bicatenaria con idénticas secuencias de bases, unidas internamente por enlaces

de hidrógeno entre pares de bases idénticas. Lo más sugestivo de esta hipótesis errónea —error ontológico

imperdonable para un bioquímico, pues indica un desconocimiento de la estructura analítica y de sus posibilidades

operatorias casi absoluto, pero error genéticamente disculpable y fenomenológicamente necesario en la propia

construcción científica—reside en que anticipa todas las profundas implicaciones biológicas que más tarde

emergerán de la formulación correcta: en particular, el mecanismo de multiplicación de los genes por separación de

las dos cadenas idénticas y el de biosíntesis. pues a partir de una cadena que sirve de plantilla se induce fácilmente

la producción de una cadena idéntica. Desde la teoría del cierre categorial este desarrollo previo no es ni un

producto del azar, ni una mera contingencia histórica, sino la irreprimible manifestación del molde genético que

preside la construcción y filtra los elementos pertinentes. (Entre el contexto de justificación y el contexto de

descubrimiento no existe el abismo intransitable que la gnoseología analítica postula). Este molde, trasunto del

principio de continuidad genética (omnis célula ex célula), postula significativamente una identidad absoluta (toda

cadena procede de una cadena secuencialmente idéntica de ADN) en el material que supuestamente debe ser el

núcleo esencial de la vida. No se comprende el verdadero significado de ese error más que si se ve en el juego entre

el contexto determinante, que guía la investigación, y el contexto determinado, cuando aquél ejecuta un filtrado

erróneo de componentes analíticos que éste se encarga de falsar. Pero no se trata de una falsación en sentido

popperiano. sino de un ensayo mediante el cual el contexto determinante, al tiempo que impone sus condiciones

paramétricas, filtra elementos analíticos pertinentes: los enlaces de hidrógeno. Quizá la falta de contexto

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

209E N E R O

2 0 1 2

determinante genético, más que la carencia de diagramas adecuados de rayos X expliquen también el rotundo

fracaso de Pauling y el bloqueo de Rosalind Franklin. En todo caso, no cabe duda de la relevancia gnoseológica de

la clave genética para la formulación correcta del teorema.

No obstante, nuestra interpretación plantea una paradoja desde el punto de vista de la teoría del cierre

categorial. No resuelve el problema del carácter categoría] o no, autónomo o heterónomo de la bioquímica. En

resumen, pueden ocurrir dos cosas: o bien el principio determinante se identifica categorialmente con el contexto

determinado y entonces la bioquímica aparece como una disciplina biológica tout court, o bien no se identifica y

entonces la bioquímica es externa a la biología y sus construcciones adquieren respecto a ésta un cariz tecnológico e

ingenieril. La imposibilidad de reconstruir materia viva a partir del campo abstracto tendría en cada caso un

significado gnoseológico diferente.

(c) Por último, que el proceso de confluencia que genera y posibilita la formulación del teorema de la

doble hélice implica desarrollos teóricos y tecnológicos en otras ciencias que desbordan al ámbito de interacción

entre contexto determinante y determinado, ha sido intuitivamente reconocido por muchos autores, al margen de su

propia polición epistemológica al respecto. Mencionaré dos casos paradigmáticos claramente contrapuestos: André

Lwoff (1962) y Albert Lehninger (1981). Por efecto de esta confluencia el primero postula la emergencia de un

nuevo campo científico anclado en la biología fundamental, mientras el segundo augura un inusitado desarrollo de

la bioquímica. La diferencia estriba en la selección ad hoc dt las disciplinas confluyentes. Aunque desde ei punto de

vista del cierre categorial interesan los procesos de confluencia en cuanto remiten a la construcción de identidades

sintéticas, a los efectos de esta nota bastará citar argumentos de autoridad sin entrar en el proceso constructivo

mismo.

Lwoff argumenta biológicamente: «La identificación química del material genético, por Avery, MacLeod y

McCarthy, ha sido el gran descubrimiento de la biología moderna. Pronto le siguió otro gran descubrimiento, el de

la estructura molecular del ácido desoxirribonucleico, la doble hélice de Watson-Crick. Ambos descubrimientos

catalizaron el extraordinario desarrollo de la genética, la fisiología celular, la bioquímica de la célula y la virología,

que ahora emergen en una nueva disciplina que las integra: la biología molecular» (1962).

Lehninger, en cambio, que propende a identificar bioquímica con biología molecular, pues ambas

conciernen a los componentes moleculares de las células y comparten una misma empresa teórica (establecer la

lógica molecular de los organismos vivos) resume así sus puntos de vista: «El conocimiento actual de la base

molecular de la genética surgió como consecuencia de los avances teóricos y experimentales realizados en tres

distintos campos científicos: la genética clásica, la bioquímica y la estructura molecular» (1981). Cada uno de

ellos, a su vez, se apoya en el desarrollo de alguna técnica específica: el empleo de los rayos X como agentes

mutágenos, los métodos cromatográficos y el análisis por difracción de rayos X, respectivamente.

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

210 E N E R O

2 0 1 2

Pese a las diferencias de perspectiva cronológica y de enfoque epistemológico, ambos coinciden en

destacar el papel de la bioquímica y la genética, i. e., del contexto determinado y determinante en nuestra

terminología. Ambos perciben también que el proceso de confluencia implica otros desarrollos, que a falta de un

análisis gnoseológico en profundidad, no aciertan a precisar.

Las consecuencias que se derivan de esta hipótesis no pecan de sensacionalismo, pero son clarificadoras en

la medida en que resuelven algunas perplejidades legítimas. En particular, de nuestro análisis se desprende que la

polémica sobre los orígenes de la biología molecular resulta epistemológicamente estéril, porque argumenta ex post

jacto. Al reconocer el estatuto peculiar que el teorema de la doble hélice posee como descubrimiento singular en el

seno de las ciencias biológicas, no sólo se le confiere valor biológico a resguardo de cualquier reduccionismo, sino

que se le otorga un significado autónomo sin necesidad de recurrir a dudosas justificaciones paradigmáticas para

destacar su novedad radical. (En general, no parece razonable una epistemología que tiene que inventarse una nueva

ciencia cada vez que se produce un descubrimiento científico de envergadura).

Por lo demás, que la biología molecular no acota un nuevo campo de estudios con un cierre categorial

específico puede parecer una conclusión fuerte para quienes privilegian ciertas evidencias sociológicas, pero en

realidad está en consonancia con la autorizada opinión de la mayor parte de los bioquímicos, que han integrado sin

mayor dificultad en su disciplina los nuevos descubrimientos sin necesidad de romper el marco teórico previo, ni lo

que significativamente Albert L .Lehninger (1981) denomina «la lógica molecular de los organismos vivos»13. El

citado manual, auténtica «biblia» del pensamiento bioquímico estándar, puede considerarse «ejemplar» —dicho sea

con perdón de Kuhn— de evidencias sociológicas contrarias a las de Mullins. Permítaseme citar en este contexto a

Raúl Ondarza, fundador de la cátedra de biología molecular de la UNAM (México), quien titula Biología moderna

(1968) el manual que incorpora los nuevos descubrimientos específicos de su cátedra e incluye la biosíntesis de

ácidos nucleicos en la segunda parte dedicada a «conceptos de bioquímica». Claro que también los químicos

estructurales y deductivistas (línea Pauling) consideran estos avances de la biología molecular como una extensión

natural de sus propios dominios, al mismo tiempo que genéticos y evolucionistas (Dobzhansky-Ayala) hallan en

ellos un confortable sostén. Parece, en consecuencia, que este y otros teoremas adyacentes vienen a construir

puentes de enlace o «integración» entre dos disciplinas clásicas: la química y la biología quedan así mutuamente

involucradas. En este sentido no es extraño que los bioquímicos, llamados a cumplir justamente ese cometido de

contacto, consideren estos desarrollos como avances en su propio campo. Lo que ocurre es que estas pregnantes e

intuitivas relaciones de interconexión no se dejan analizar fácilmente en términos gnoseológicos. En cualquier caso,

el esquema «revolucionario» de Kuhn no encaja con los datos. En cambio, la teoría del cierre categorial oferta un

13 Ni que decir tiene que apelar polémicamente a las evidencias sociológicas de los bioquímicos, no significa suscribir sus puntos de vista reduccionistas. En particular, la afirmación gnoseológica de Lehninger (1981) de que «las líneas divisorias entre la bioquímica y la biología celular son cada vez más difíciles de identificar, ya que estos campos de la ciencia celular forman, verdaderamente, un conjunto lógico», no parece estar justificada a la luz de la información experimental disponible. Lehninger parece confundir la no-contradicción con la derivabilidad lógica. Aun cuando las once proposiciones que selecciona bajo la rúbrica de «lógica molecular de los organismos vivos» sean correctas, queda por demostrar que constituyan un sistema axiomático completo capaz de dar cuenta de todos los conocimientos que constituyen la biología celular.

Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?

 

211E N E R O

2 0 1 2

conjunto de instrumentos conceptuales capaces, en principio, de resolver satisfactoriamente la mayor parte de las

perplejidades tan profusamente comentadas en la literatura sobre el tema14 .

BIBLIOGRAFÍA

Asimov's Cuide to Science (1972), Basic Bocks, Inc. New York (1973, ed. castellana)

AYALA, F. j. y otros (1977) Evolution, Freeman: San Francisco.

AYALA, F. J. «Entrevista con Francisco J. Avala», El Basilisco, 15, 78-93, Oviedo (1983).

BENZER, S. (1962) «The fine structure of the gene», Scientific American, 206, 70-84.

BERNAL, J. D. (1964) Science in History, Watts, and Co. Ltd., Londres.

BERTALANFFY, L. von (1968) General System Theory, George Braziller, New York.

BUENO, G. (1976) Estatuto gneosológico de las ciencias huamanas, Fotocopia, 4 vol.

BUNGE, M. A. (1982) «¿Cómo desenmascarar falsos científicos?» Los Cuadernos del Norte, 15 52-69, Oviedo

BUNGE, M. A. (1983) «Paradigmas y revoluciones», El Basilisco, 15, 2-9, Oviedo.

CHARGAFF, E. (1971) «Preface to a Grammar of Biology: A hundred years óf Nucleic Acid research», Science,

172, 637-642.

DOBZHANSKY, Th. (1970) Genetics ofthe Evolutionary Procees, Columbia Univ. Press, N. Y.

ELSASSER, W. M. (1966) Atom and Organism, Princeton Univ. Press, New Jersey.

HESS, E. L. (1970) «Origins of Molecular Biology», Science, 1868, 664-669.

JACOB, F. (1970) La logique vivant, Gallimard, París.

KENDREW, J. C. (1970) «Some remarks on the History of Molecular Biology», en T. W. GOODWIN (ed): British

Biochemistry Past and Present, Academic Press.

KUHN, Th. (1962), La estructura de las revoluciones científicas, F. C. E., México, 1971.

KUHN, Th. (1974), Second Thoughts on Paradigms, en F. SUPPE (ed) y en The University of Illinois Press,

Urbana (ambos en castellano: editora nacional y tecnos).

KUHN, Th. (1977), «El cambio de teoría como cambio de estructura: comentarios sobre el formalismo de Sneed»,

Teorema, VII-2,141-165.

LEHNINGER, A. (1981) Bioquímica, Omega, Barcelona

LWOFF, A. (1962) Biológica! Order, The M.I.T. Press, Cambridge, Massachusetts.

LWOFF, A. (1965) «El concepto de información en la biología molecular» en Coloquios de Royaumont, s. XXI,

México, 1966.

14 En general, no parecen quedar ya biólogos que no admitan la relevancia teórica de los procesos moleculares para la explicación de los fenómenos vivos, como tampoco parecen quedar físicos o químicos tan mecanicistas que no admitan una relativa autonomía, no reducible, de los procesos específicos catalogados como biológicos. Y en los últimos años se han sucedido los intentos de perfilar el peculiar campo de estudio de las ciencias biológicas más allá de las propuestas mecanicistas de reducción y más acá de la insensata apelación a entelequias vitales. Elsasser (1966), por ejemplo, ha intentado diseñar una lógica de clases inhomogéneas para fundamentar la propuesta «organicista». Bertalanffy (1968), por su parte, ha intentado con los mismos supuestos dar la vuelta a la tortilla con su «revolución organísmica». Creo que sólo si se adopta una perspectiva gnoseológica similar a la insinuada en el texto (no ontológica exclusivamente ni tampoco tecnológica) pueden resolverse estas difíciles cuestiones. El teorema de la doble hélice se halla justamente en el corazón del asunto.

La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón

 

212 E N E R O

2 0 1 2

MASTERMAN, M. (1970) «The Nature of a Paradigm» en LAKATOS y MUSGRAVE (eds) Criticism and the

Growth ofKnowledge, Carnbrige Univ. Press (vers. castellana en Griialbo, 1975).

MIRSKY, A. E. (1968) «The discovery of DNA» Scientific American, 218: 78-88.

MONOD, J. (1970) Le hasard et la nécessité, Editions de Seuil, París (vers. cast. en Barral, 1970).

MOULINES, U. (1962) Exploraciones Metacientífieos, Alianza Universidad, Madrid.

MULLINS, M. C. (1966) «Social Networks among Biológica! Scientists», Harvard Ph. D.th.

MULLINS, M. C. (1962) «The development of a scientific speciality», the Phage Group and the origins of

Molecular Biology», Minerva, X, 51-82.

ONDARZA, R. N. (1968) Biología Moderna, s. XXI, México: 1979.

RUSE, M. (1973) La filosofía déla Biología, Alianza, Madrid, 1979.

SHAPERE, D. (1964) «The Structure of Scientific Revolutions», Phil. Review, 73, 383-94.

SHAPERE, D. (1966) «Meaning and Scientific Change» en COLODNY (ed): Mir.dand Cosmos Univ. of Pittsburgh

Press.

SNEED, J. (1971) 77ie Logical Structure of Mathematical Physic, D. Reidel, Dordrecht.

STEGMULLER, W. (1973) Theorie und Erfahrung. Vol II. Springer-Verlag. Berlín.

STEGMULLER. W. (1979) The Struauraiist View of Theories, (ibid.). vers. cast. 1981