Ecipe Rue Special 2010

106

Transcript of Ecipe Rue Special 2010

Page 1: Ecipe Rue Special 2010
Page 2: Ecipe Rue Special 2010
Page 3: Ecipe Rue Special 2010
Page 4: Ecipe Rue Special 2010

ENCUENTRO CIENTÍFICO INTERNACIONAL

ECIPERÚ

Centro Nacional de Planeamiento Estratégico

Page 5: Ecipe Rue Special 2010

PRESIDENTE DE LA REPÚBLICA

Alan García Pérez

PRESIDENTE DEL CONSEJO DE MINISTROS

José Antonio Chang Escobedo

CONSEJO DIRECTIVO DEL CENTRO NACIONAL DE PLANEAMIENTO ESTRATÉGICO

Agustín Haya de la Torre de la Rosa, Presidente

José Antonio Arévalo Tuesta, Elena Aída Conterno Martinelli, Vladimiro Huaroc Portocarrero, Grover Germán Pango Vildoso, Víctor Javier Tantaleán Arbulú, José Fernando Valdéz Calle

DIRECTOR EJECUTIVO Julio Cavero Jara

DIRECTOR NACIONAL DE PROSPECTIVA Y ESTUDIOS ESTRATÉGICOS

Joel Jurado Nájera

DIRECTOR NACIONAL DE COORDINACIÓN Y PLANEAMIENTO ESTRATÉGICO

Ramón Pérez Prieto (e)

DIRECTOR NACIONAL DE SEGUIMIENTO Y EVALUACIÓN Elías Ruiz Chávez

JEFE DE LA OFICINA DE PLANEAMIENTO Y PRESUPUESTO

Carlos Loaiza Selim

JEFE DE LA OFICINA GENERAL DE ADMINISTRACIÓN

Patricia Espichán Cuadros

JEFE DE LA OFICINA DE ASESORÍA JURÍDICA

Jacqueline Calderón Vigo

CIENCIA Y TECNOLOGÍA Modesto Montoya Zavaleta

ASESORAS Jacqueline Mori Chávez y Mariella Pinto Rocha

ASISTENTE DE LA PRESIDENCIA DEL CONSEJO DIRECTIVO Cynthia Argumedo Hernández

EQUIPO TÉCNICO Paola Alfaro Mori, Reynaldo Aponte Fretel, Luis Ávila Ágreda, Carlos Cabrera Soto, Rosa de Fátima Díaz Díaz, Alejandro Gómez Arias, Hernán Mansilla Astete, Julio Pérez Coaguila, José Rospigliosi Ferro, Mónica Talledo Jiménez, Álvaro Velezmoro Ormeño, César Zapata Pardo

© CENTRO NACIONAL DE PLANEAMIENTO ESTRATÉGICO Av. Canaval y Moreyra 150, Edificio Petroperú, piso 10, San Isidro, Lima, PerúTeléfono: 711-7300 Correo electrónico: [email protected]ón URL: www.ceplan.gob.pe

DERECHOS RESERVADOS Primera edición, diciembre de 2010 Hecho el Depósito Legal en la Biblioteca Nacional del Perú N° 2011-00021

CORRECCIÓN Y CUIDADO DE EDICIÓN: Jessica Mc Lauchlan JiménezDISEÑO DE CARÁTULA E INTERIORES: Luis Valera PINTURA DE PORTADA: Anna SadowskaIMPRESIÓN: Tarea Asociación Gráfica Educativa

Page 6: Ecipe Rue Special 2010

Contenido

DEFINIR UNA CURVA IDEALISTA O CONJUNTISTAMENTEMarcel Morales

Institut Fourier, Université de Grenoble, Francia y IUFM de Lyon, Université de Lyon I, Francia

9

LOS LÁSERES SEMICONDUCTORES Y SU IMPACTO EN LAS TELECOMUNICACIONES ÓPTICASCarmen González Izquierdo

France Telecom, Francia13

SENSORES DE FIBRAS ÓPTICAS MODULADOS EN INTENSIDADMauro Lomer

Universidad de Cantabria, Santander, España21

TECNOLOGÍAS DE COMUNICACIÓN BASADA EN LA ACTIVIDAD CEREBRALAvid Román González

TELECOM ParisTech, Francia30

MECANISMOS MOLECULARES DE LA SENSIBILIDAD AL FRÍO EN LAS VÍSCERASOtto Fajardo Benavides

Friedrich Miescher Institute for Biomedical Research, Basilea, Suiza38

LA INVESTIGACIÓN DE OPERACIONES: UN CAMPO MULTIDISCIPLINARIORené Víctor Valqui Vidal

Departamento de Informática y Modelamiento Matemático, Universidad Técnica de Dinamarca

47

EFECTO DE LOS ÁCIDOS GRASOS ESENCIALES DE CADENA LARGA COMO AGENTES PARA EL TRATAMIENTO DEL TRASTORNO DE DÉFICIT DE ATENCIÓN E HIPERACTIVIDAD (TDAH)

Sandra Jarrín Motte y Jaime A. Yáñez53

REFLEXIONES EN TORNO AL PAPEL DE LA EMPRESA COMO AGENTE DE DESARROLLO LOCALPablo Manuel Chauca Malásquez

Universidad Michoacana de San Nicolás de Hidalgo, Facultad de Economía, Michoacán, México

61

ENTREVISTAS

Mercedes AmesUniversidad de Wisconsin, Estados Unidos

70

Page 7: Ecipe Rue Special 2010

José Carlos AponteUniversidad de Louisville, Estados Unidos

72

Carlos BustamanteUniversidad de Berkeley, Estados Unidos

74

Cristhian GálvezUniversidad de Berkeley, Estados Unidos

77

Julio César GuerreroInstituto Tecnológico de Massachussets, Estados Unidos

79

Edward Málaga-TrilloUniversidad de Constanza, Alemania

81

Marcos MillaLaboratorio Roche, Estados Unidos

85

Piermaría OddoneFermilab, Estados Unidos

88

François PiuzziAsociación “Puya de Raimondi”

Comisión de Energía Atómica, Francia91

Fernando PonceUniversidad Estatal de Arizona, Estados Unidos

93

Javier TakahashiSinanen Zeomica Co., Ltd., Japón

97

Jorge SeminarioUniversidad de Texas A&M, Estados Unidos

99

Page 8: Ecipe Rue Special 2010

PRESENTACIÓN

El tercer sábado de 1993, un grupo de científicos e ingenieros que visitaron “La Fiesta de la Ciencia 1993” realizada en el Parque Central de Miraflores –en la que científicos residentes en Lima presentaron al público parte de sus equipos de laboratorio que usaban en sus investigaciones– decidió llevar a cabo una reunión para intercambiar experiencia y, eventualmente, realizar trabajos en colaboración. A esa reunión se le llamó “Encuentro Científico Internacional (ECI)”.

A partir de ese año, luego de la Fiesta de Ciencia, los primeros días de enero, se organiza el Encuentro Científico Internacional. Desde el 2003, ante el éxito del evento, se decidió tener una versión de invierno del Encuentro que tiene los siguientes objetivos:

* Establecer lazos de cooperación entre centros mundiales de investigación y las instituciones peruanas para llevar a cabo proyectos de interés para el Perú;

* Establecer lazos de colaboración entre los investigadores peruanos y amigos del Perú residentes en el Perú y en el extranjero, en torno a dichos proyectos;

* Promover la recuperación de talentos residentes en el extranjero, para participar en el desarrollo nacional, a través de las instituciones nacionales; y

* Promover en la opinión pública la importancia de la ciencia y la tecnología para el desarrollo y el mejoramiento de la calidad de vida.

En el ECI, los investigadores presentan ante sus colegas los resultados de sus trabajos de investigación, algunos de los cuales son publicados en la Revista ECIPERÚ.

Con el propósito de que el trabajo de los científicos e ingenieros peruanos y amigos del Perú residentes en el extranjero sea conocido también por el público no especializado, gracias al Centro Nacional de Planeamiento Estratégico del Perú, se publica un número especial de la Revista ECIPERÚ, con una colección de entrevistas y artículos de divulgación de expositores o miembros del Consejo Científico Tecnológico Internacional del ECI residentes en el extranjero.

Modesto Montoya

Compilador

Page 9: Ecipe Rue Special 2010
Page 10: Ecipe Rue Special 2010

9ECIPERÚ

Definir una curva idealista o conjuntistamente Marcel Morales

Institut Fourier, Université de Grenoble, Francia y IUFM de Lyon, Université de Lyon I, Francia

RESUMEN

Dibujar una curva parece algo trivial; en realidad, es muy complejo. Primero tenemos que ponernos de acuerdo sobre la palabra dibujar, lo que se hace rápidamente. Enseguida lo más difícil: qué es lo que entendemos por curva. Hay las curvas trazadas a mano, entre ellas las curvas continuas que se trazan sin levantar el lápiz, pero aquí aparecen las curvas fractales que en el periodo de construcción parecen curvas pero al acabar parecen rectángulos llenos. Para evitar estos casos y estar más cerca de la intuición debemos poner condiciones: tenemos las curvas algebraicas, las curvas diferenciales, las analíticas, etc. La mayoría de las curvas tienen una presentación teórica que no permite dibujarlas; en realidad, para dibujarlas se necesitan representaciones paramétricas o ecuaciones explícitas. El hecho de buscar estas representaciones explícitas nos puede llevar a considerar otros problemas como el conocido problema del cambio de moneda de Frobenius. También nos lleva a considerar problemas teóricos más importantes: ¿qué quiere decir definir idealista o conjustistamente una curva? se exponen algunos problemas.

Page 11: Ecipe Rue Special 2010

Número especial 2010

10ECIPERÚ

¿Qué puedes responder a la pregunta “dibújame una curva”?

Primero, ¿qué se entiende por dibujar?; enseguida ¿qué es una curva?

La palabra dibujar tiene un sentido muy concreto y es sinónimo de trazar con un lápiz en un papel.

¿Qué cosa es una curva? Se puede tratar simplemente de algo vago, impreciso, una curva simplemente; pero si se trata de una curva particular, habría que precisar qué tipo de curva, de qué manera va a presentar la curva que quiero que sea dibujada. Si doy un dibujo de la curva, entonces la frase no tiene ningún sentido. Mi curva que quiero que la dibujes no la tengo en la forma de una representación gráfica, así que mi curva se presenta bajo otros datos.

¿Qué datos tengo sobre la curva y estos datos que tengo sobre la curva me pueden permitir dibujarla?

Tal vez la manera más bruta y más fácil sería tener los datos de mi curva consignados en un fichero,

curvaX(0)=100 & curvaY(0)=150; curvaX(1)=104 & curvaY(1)=139; curvaX(2)=107 & curvaY(2)=135

curvaX(3) =113 & curvaY(3) =135; curvaX(4) =118 & curvaY(4) =137; curvaX(5)=136 & curvaY(5)=140?

donde los puntos de la curva son consignados sobre la forma (curvaX(i), curvaY(i)), y así pueden ser representados sobre una hoja en un sistema de coordenadas cartesianas. El problema es que la curva no se presenta de esta manera; más bien este es el objeto final que permite dibujar la curva.

¿Cómo se presenta una curva?

Tenemos que ser muy precisos. Una curva puede presentarse, como en un curso de análisis en la universidad; por ejemplo, la curva presentada por X=t , y= t2 representa una parábola en el plano; la curva presentada por x = cost,y = sint representa un circulo, como también x = t,y = exp (t) es el grafo de la función exponencial.

Aquí se habla de presentaciones por coordenadas paramétricas de la curva. Pero los ejemplos dados anteriormente pueden ser presentados por ecuaciones, es decir la curva es el conjunto de soluciones de algunas ecuaciones.

La parábola está dada como las soluciones de la ecuación y-x2 =0; el círculo está dado como las soluciones de la ecuación x2 +y2 =1 y el grafo de la exponencial como soluciones de la ecuación y-exp(x)=0. Las dos primeras ecuaciones se llaman algebraicas y la tercera y-exp(x)=0 se llama analítica o podría también llamarse diferencial. En los cursos de análisis de la universidad, se aprende a dibujar el grafo de una función y también a dibujar una curva que tiene presentación con coordenadas paramétricas.

ABSTRACT

To draw a curve seems to be something trivial; in fact it is very complex. First we must agree what we mean by the word draw, this can be done quickly, then comes the most difficult part, which is what we understand by curve. Some curves can be drawn by hand, among them are the continuous curves, drawn without lifting up the pencil, but here appears the fractal curves which during construction appear like curves but upon finishing appear as filled in rectangles. In order to avoid this kind of curves and being closer to the intuition we need to impose conditions: we have algebraic curves, differential curves, analytic curves, etc. Most curves are presented theoretically and this information is not sufficient to draw them. In reality to draw a curve you need either a parametric representation or explicit equations. In order to look for these representations we need to consider other problems like the famous Change Money problem of Frobenius. We also need to consider more theoretic problems, what does it mean to define idealistically a curve, or a theoretical set? Some open problems are stated.

Page 12: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

11ECIPERÚ

Señalo aquí otro problema: existen curvas continuas (es decir trazadas sin discontinuación) que no tienen la apariencia de una curva, y que en realidad tienen la apariencia de un rectángulo lleno; esas curvas son las llamadas fractales y tienen muchas aplicaciones en los dibujos por computadora. Pero este no es el objetivo de mi charla, así que no hablaré más de esto.

Curvas monomiales: Se trata de curvas en el espacio de dimensión d, presentadas paramétricamente de la manera siguiente:

x1 = tn1, x2 = tn2, ... , xd = tnd

donde t es un parámetro que cambia y n1, n2, ..., nd son números enteros estrictamente positivos que no tienen un factor común. Por ejemplo x1 = t2, x2 = t3, se puede representar con el dibujo

Primer problema: Aparentemente no tiene ningún vínculo con la charla, pero sí lo hay.

Problema del cambio de monedas de Frobenius: Suponga que en un país se dispone solo de los billetes de 5, 8 y 12 soles (en cualquier cantidad); se puede ver que todo número superior a 20 se

puede cambiar utilizando ese tipo de billetes, por ejemplo:

20=4x5, 21=5+2x8, 22=2x5+12, 23=3x5+8, 24=2x12,…

pero los números 1, 2, 3, 4, 6, 7, 9, 11, 14, 19 no se pueden cambiar utilizando ese tipo de billetes.

Frobenius ha planteado el problema siguiente: dados tres números enteros positivos sin factor común a, b, c, determinar en función de a, b, c el número más grande g(a,b,c) que no se puede escribir como suma de números utilizando solamente a, b o c. Este problema que parece muy simple tiene una respuesta por el matemático Solberg, pero el número g(a,b,c) no se escribe tan fácilmente como uno hubiera pensado. Ahora, si nos planteamos el mismo problema para cuatro números enteros sin factor común a, b, c, d, entonces no se conoce la respuesta; es más, mucha gente trabaja en este problema y solo se conoce respuestas parciales. Mi contribución ha sido demostrar que el número g(a,b,c) se puede calcular en tiempo polinomial (en realidad más rápido, en tiempo logarítmico) y también he establecido la relación entre este problema y el problema de la charla. Un ejercicio simple pero no tan fácil es determinar el número g(a,b) para dos números a, b.

Segundo problema: Determinar las ecuaciones de una curva monomial, es decir determinar todas las ecuaciones; por ejemplo, sea la curva dada paramétricamente:

x1 = t5, x2 = t8, x3 = t12

Sea u el múltiplo de 5 más pequeño que se escriba utilizando sumas de los números 8 y 12, es decir u=20, nos da una ecuación x1

4 – x2x3 = 0; de la misma manera sea v el múltiplo de 8 más pequeño que se escriba utilizando sumas de los números 5 y 12, es decir v=24, nos da una ecuación x2

3 – x32 = 0;

y finalmente, sea w el múltiplo de 12 más pequeño que se escriba utilizando sumas de los números 5 y 8, es decir v=24, nos da la misma ecuación de antes: x2

3 – x32 = 0.

Se puede demostrar que estas dos ecuaciones son suficientes para describir la curva y que el método empleado aquí funciona casi generalmente, lo que nos da que toda curva monomial de la forma

3

2

1

0

-1 0 1 2

-1

-2

-3

Page 13: Ecipe Rue Special 2010

Número especial 2010

12ECIPERÚ

x1 = ta, x2 = tb, x3 = tc

está definida por dos o tres ecuaciones. El caso de dos ecuaciones es más simple pero al mismo tiempo muy importante, porque 2=3-1 (el 3 es la dimensión del espacio y el 1 significa curva); según un lenguaje muy antiguo, se dice que es una intersección completa (en el sentido de que no faltan ecuaciones).

Si pasamos ahora al espacio de dimensión cuatro y nos hacemos la pregunta de cuántas ecuaciones se necesita para definir una curva

x1 = ta, x2 = tb, x3 = tc, x4 = td,

entonces, por algunos ejemplos se puede mostrar que el número de ecuaciones no está limitado. Claro, siempre se tiene un número finito, pero hay ejemplos con un número de ecuaciones tan grande como uno quiera; entonces estamos llegando al siguiente problema: cómo definir un sistema de ecuaciones en función de a, b, c, d. Este problema es muy difícil.

Tercer problema: ¿Cuál es la relación entre el problema de la charla y el problema precedente? Esto está dado por el teorema de los ceros de Hilbert: (sobre un cuerpo algebraicamente cerrado, por ejemplo sobre los números complejos) sea un conjunto X en el espacio complejo de dimensión d dado como el conjunto de soluciones de un conjunto de ecuaciones I, entonces X también está dado por el conjunto de ecuaciones conocido como el radical de I (notación rad(I)). Se dice que X está definida idealistamente por I y se dice que X está definida conjuntistamente por rad(I). Una ecuación f está en rad(I) si alguna potencia de f pertenece a I.

¿Cuál es la ventaja de utilizar rad(I) en lugar de I? Simplemente que heurísticamente se ve que para definir rad(I) se necesita menos ecuaciones que para definir I. En realidad, hay un teorema que dice que el número de ecuaciones que se necesita para definir rad(I) es a lo máximo d, la dimensión del espacio.

Problema: ¿Las d ecuaciones a las cuales se hace referencia en el teorema son constructibles?

Mi contribución en el caso de las curvas monomiales es que toda curva monomial

x1 = tn1, x2 = tn2, ..., xd = tnd

puede ser definida por d+1 ecuaciones que sean constructibles, es decir doy las ecuaciones explícitamente.

Curvas tóricas: Más generalmente, consideremos las curvas parametradas por

x1 = tn1, x2 = tn2, ..., xd = tnd, donde (n1,1, n1,2, ..., n1,s), ..., nd = (nd,1, nd,2, ..., nd,s)

son vectores y, por ejemplo, t(nd,1, nd,2, ..., nd,s), ..., t1 nd,1 t2

nd,2 ... t2nd,s

Aún tenemos los mismos problemas: describir un sistema completo de ecuaciones I y dar un sistema de ecuaciones que defina la curva conjuntistamente. Es un problema que es muy difícil y en el que actualmente mucha gente trabaja en el mundo. El problema más famoso en esta área es el de la cuádrica x1 = s4, x2 = s3t, x3 = st3, x4 = t4, por la cual se pregunta si esta cuádrica puede ser definida conjuntistamente por tres ecuaciones.

Page 14: Ecipe Rue Special 2010

13ECIPERÚ

Los láseres semiconductores y su impacto en las telecomunicaciones ópticas

Semiconductor lasers and their impact on optical telecommunicationsCarmen González Izquierdo

France Telecom, Francia, 1983-2001, Alcatel Lucent – Thales III-V Lab, Francia, 2002-2009

RESUMEN

Los láseres semiconductores hoy en día tienen una importancia considerable en nuestras sociedades. Estos láseres se encuentran en las telecomunicaciones con fibra óptica (internet, teléfono, televisión…), en el almacenamiento de la información en los discos ópticos (CD y DVD), en las fotocopias o impresoras láser, en las aplicaciones médicas e industriales. Todas estas aplicaciones representan actualmente 70% del mercado mundial de láseres y correspondió a un volumen de venta de 6 mil millones de dólares en 2009. El crecimiento fulgurante de este mercado en los últimos treinta años, ha sido acompañado de un esfuerzo fenomenal de investigación, tanto fundamental como aplicada, para comprender y mejorar el funcionamiento de los láseres, así como para inventar nuevas arquitecturas con características muy particulares. En este artículo, presentamos algunos de los más recientes avances obtenidos en los láseres semiconductores principalmente para aplicaciones en las telecomunicaciones ópticas.

ABSTRACT

Semiconductor lasers now have considerable importance in our societies. These lasers are used in optical fiber telecommunications (internet, telephone, TV ...), in storing information on optical discs (CDs and DVDs), on photocopies or laser printers, in medical and industrial applications. All these applications now account for 70% of the laser’s market and corresponded to a sales volume of $ 6 billions in 2009. The explosive growth of this market over the past thirty years has been accompanied by a great effort of research, both fundamental and applied, to understand and improve the operation of lasers, and to invent new architectures with very specific characteristics. In this paper, we present some of the most recent advances made in semiconductor lasers primarily for applications in optical telecommunications.

INTRODUCIÓN

Este artículo tiene la ambición de describir de una manera simple los láseres semiconductores (llamados también láseres diodos), que hoy en día tienen una importancia considerable en nuestras sociedades. Estos láseres se encuentran en las telecomunicaciones con fibra óptica (Internet, teléfono, televisión…), en el almacenamiento de la información en los discos ópticos (CD y DVD

para la música y la informática), en las fotocopias o impresoras láser y en las aplicaciones médicas e industriales. Todas estas aplicaciones representan actualmente el 70% del mercado mundial de láseres (todos los tipos confundidos) y corresponden a un volumen de venta de 6 mil millones de dólares en 2009. El crecimiento fulgurante de este mercado en los últimos treinta años ha venido acompañado de un esfuerzo fenomenal de investigación, tanto fundamental como aplicada, para comprender y

Page 15: Ecipe Rue Special 2010

Número especial 2010

14ECIPERÚ

mejorar el funcionamiento de los dispositivos, así como para inventar nuevas arquitecturas de láseres diodos con características muy particulares. Hoy en día, los láseres semiconductores están lejos de haber agotado todo su potencial de innovación y de haber demostrado todas sus posibilidades. Sostenidos por un mercado en telecomunicaciones en expansión continua, los láseres diodos siguen siendo estudiados y desarrollados para responder a las nuevos requerimientos de los sistemas de transmisión de las futuras generaciones. En este artículo, presentaremos los recientes avances obtenidos en los láseres semiconductores en un laboratorio de investigación industrial, principalmente para aplicaciones en las telecomunicaciones ópticas.

Las telecomunicaciones ópticas

La introducción de la óptica en los sistemas de telecomunicaciones comenzó en la década de 1970. Esta revolución técnica ha sido el resultado fructuoso de trabajos de investigación y desarrollo realizados sobre las fibras ópticas y

los componentes optoelectrónicos en laboratorios académicos e industriales de Europa, América del Norte y Asia. Hoy en día, es posible conectarse con una computadora hacia cualquiera otra parte del mundo gracias a las autopistas ópticas. La óptica ha invadido las redes de trasmisión de larga distancia, terrestre y submarinas en su totalidad y deviene preponderante progresivamente en las redes de acceso.

Desde el comienzo de las telecomunicaciones con fibras ópticas, las fuentes de luz elegidas han sido, y siguen siendo, los láseres semiconductores, principalmente por los siguientes motivos: pequeñas dimensiones con respecto a otras tecnologías, relativa facilidad para modular la luz emitida mediante el control de la corriente eléctrica aplicada, espectro óptico relativamente estrecho, longitudes de onda de emisión disponibles compatibles con las ventanas espectrales de las fibras ópticas de poca atenuación (1,3μm et 1,55 μm) [1], y poco consumo energético. Todo ello permitió la industrialización masiva de este tipo de láseres.

Figura 1: Las dos “ventanas” de trasmisión, con poca atenuación, de cada lado del pico de absorción del agua (pico OH) están alrededor de 1,3 micras y de 1,55 micras. Se muestran también las bandas de trasmisión XS, S, C, L utilizadas en telecomunicaciones.

Las ventajas de la fibra óptica para la trasmisión de señales

micras;

(TeraHertz);

trasmisión.

* Un micrómetro (o micra) es 10-6 metros

* Un nanómetro es 10-9 metros* Un TeraHertz es1012 Hertz

Page 16: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

15ECIPERÚ

los primeros láseres sólidos o gaseosos. Estos láseres están constituidos de una junción entre dos tipos de semiconductores, llamados n y p. El primero presenta un exceso de cargas negativas o electrones, y el segundo un exceso de cargas positivas o huecos. Cuando se hace pasar una corriente eléctrica a través de la junción, algunos electrones van a encontrarse por encima de un nivel de energía a partir del cual podrán desexcitarse vía la recombinación con los huecos, emitiendo fotones. Así, la inversión de población, necesaria para producir el efecto láser, se obtiene directamente por aplicación de una corriente eléctrica [fig. 4]. Este bombeado eléctrico tiene un alto rendimiento, pudiendo ser superior al 60%. La cavidad óptica utiliza las caras reflectantes del semiconductor y no mide más de 1 mm de longitud. Estos láseres son los más compactos y los más eficaces que existen. Finalmente, según los materiales elegidos, las longitudes de onda de emisiones luminosas pueden ir del próximo ultravioleta al cercano infrarrojo.

El primer láser semiconductor, que funciona a la temperatura ambiente de una manera continua, fue obtenido en 1970 por dos equipos distintos [4, 5] en una estructura que comportaba una doble junción, o doble heteroestructura, que permite un mejor confinamiento de los electrones y fotones en la zona activa del dispositivo.

Figura 4: Estructura de base de un láser diodo. La cavidad óptica, o capa activa, está confinada por las capas de tipo n y p. La reflexión de la luz se produce entre las extremidades reflectantes de la cavidad. La luz láser sale a través de una de ellas que es semitransparente.

En la década de 1980, un hecho mayor se produjo con la introducción de los pozos cuánticos en la zona activa [6], aumentando significativamente la eficiencia de conversión electrón/fotón y disminuyendo

Los láseres semiconductores

LASER es el acrónimo, en inglés, de “Light Amplification by Stimulated Emission of Radiation”. El principio físico de un láser está basado en el efecto de emisión de la luz estimulada [fig. 2], predicho por A. Einstein en 1917 [1]. La emisión láser se observó experimentalmente por primera vez en 1960 por T. Maiman [2] en un cristal de rubí. Poco después, en 1961, el mismo efecto fue obtenido por A. Javan et al., en un sistema gaseoso [3]. Un láser necesita de átomos (o moléculas) que constituyen el medio láser –en estado sólido, líquido o gaseoso–, y de una fuente de energía que pueda excitarlos. La emisión estimulada puede comenzar cuando un fotón de frecuencia apropiada impacta el medio láser. Este fotón provoca la emisión de uno o más otros fotones, todos con las mismas características del fotón incidente, produciendo así la amplificación de la luz. Pero para hacer funcionar un láser, se necesita además un oscilador óptico o cavidad resonante que permite seleccionar la o las frecuencias amplificadas (fig. 3).

La emisión estimulada

Figura 2: Al encuentro de un fotón, un átomo excitado emite otro fotón con características idénticas al fotón incidente, volviendo luego a su estado fundamental.

El principio del oscilador óptico

Figura 3: Los fotones emitidos según el eje de la cavidad, realizan idas y vueltas entre los espejos paralelos provocando emisiones estimuladas. Al ser uno de los espejos semitransparente, la porción de luz así creada lo atraviesa.

En la década de 1970, se desarrolló un nuevo tipo de láser: los “láseres semiconductores” o “láseres diodos”, diferentes por su modo de excitación de

Page 17: Ecipe Rue Special 2010

Número especial 2010

16ECIPERÚ

fuertemente la densidad de corriente umbral. Ello fue el factor clave para el rápido desarrollo y utilización de los láseres semiconductores.

Un láser semiconductor moderno está constituido de una sucesión de capas delgadas de composición diferente y de espesor inferior al micrómetro. Estas capas definen los pozos cuánticos y las barreras que confinan el movimiento de los electrones o huecos en una dirección y permiten la propagación libre en el plano ortogonal.

Los materiales utilizados en este tipo de láseres son los compuestos GaAs, InP, GaN y sus respectivos derivados ternarios InGaAs y cuaternarios InGaAsAl, InGaAsP. Todos ellos son elementos III y V de la tabla química de Mendeleïev. Estos compuestos son semiconductores con una banda prohibida directa. En ellos, la recombinación del par electrón-hueco es radiativa, con emisión de un fotón cuya energía es igual al ancho de la banda prohibida (o gap). La frecuencia (o la longitud de onda) del fotón emitido puede ser variada, variando el ancho del gap del compuesto considerado. Así, con el compuesto cuaternario Ga1-XInxAsyP1-y, variando la composición según x e y, se logra obtener emisiones láser con longitudes de onda que cubren la gama de 1200nm–1600nm, compatibles con las ventanas de trasmisión de la fibra óptica. Los materiales que derivan del compuesto GaAs (arseniuro de galio) emiten alrededor de 1,3 micras y aquellos que derivan de InP (fosfato de indio) emiten alrededor de 1,55 micras. El estudio de materiales es un esfuerzo continuo en la búsqueda de los compuestos más adaptados a las longitudes de onda de emisión que interesan en telecomunicaciones. Por otro

lado, como en todas las estructuras actuales, la capa de confinamiento electrónico está separada de las capas de confinamiento óptico; ello ha dado lugar a una verdadera ingeniería de estructura de banda con los materiales semiconductores III-V y moviliza muchos investigadores alrededor de este tema.

Las técnicas de fabricación: Para fabricar las capas delgadas de espesor del orden de la decena de nanómetros que componen el dispositivo, se utilizan técnicas de crecimiento monocristalino muy sofisticadas de epitaxia con flujos moleculares (Molecular Beam Epitaxy, MBE, en inglés) (fig. 5) o de epitaxia en fase vapor. Estas técnicas fueron desarrolladas desde los comienzos de la década de 1970 para producir capas delgadas de alta calidad cristalina con interfaces abruptas y con un buen control del espesor y de la composición de la capa. Debido a este alto grado del control del crecimiento, estas técnicas se han convertido en los útiles básicos para el desarrollo de los dispositivos sofisticados opto-electrónicos que son los láseres diodos (fig. 6).

Tipos de láseres semiconductores

Los pozos cuánticos, o confinamiento cuántico de los electrones en una dirección, son hoy en día corrientemente utilizados en el diseño de los láseres semiconductores. La región activa de estos láseres consiste de capas muy finas (espesor de unos 10 nm) que permiten el confinamiento cuántico de los electrones en la dirección perpendicular al plano del dispositivo. Este confinamiento cuántico modifica fuertemente la densidad de los estados de energía y mejora las cualidades del láser, permitiendo una fuerte reducción de la densidad de corriente umbral (fig. 6).

Figura 5: Equipo de epitaxia con flujos moleculares (Gaz Source-MBE) utilizado para la fabricación de los puntos cuánticos en material InAs/InP. La imagen de los puntos cuánticos ha sido obtenida con un microscopio de fuerza atómica (AFM), (Laboratorio Alcatel Lucent-Thales III-V Lab, Marcoussis, Francia).

Page 18: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

17ECIPERÚ

Figura 6: Esquema de un diodo láser mostrando las diferentes capas delgadas que lo componen, después de haber realizado las diferentes etapas tecnológicas de crecimiento (V. Berger, Thales Research and Technology, Orsay, Francia, 2002).

Láser con realimentación distribuida (Distributed Feedback, DFB): Para las aplicaciones en telecomunicaciones de larga distancia, es capital disponer de fuentes luminosas con gran pureza espectral (una sola frecuencia, un solo color). Sin embargo, la dispersión en las fibras ópticas es responsable de una diferencia entre las velocidades de propagación de frecuencias diferentes, dando lugar a un desfase sensible para las grandes distancias, incluso si las frecuencias son muy próximas entre ellas. Este fenómeno de dispersión es el que limita la banda pasante de trasmisión con fibras ópticas. El láser semiconductor no es monocromático a priori y presenta una multitud de modos longitudinales en el espectro de salida. Efectivamente, en la cavidad óptica, la resonancia se produce para múltiples longitudes de onda y el haz de luz que emite el láser es multicolor, constituido de múltiples longitudes de onda. El láser con realimentación distribuida (DFB) permite obtener un espectro de salida (casi) monocromática. Para ello, una red periódica (red de difracción de Bragg) es grabada sobre la región activa, con un periodo igual a una media-longitud de onda de emisión del láser DFB. La red de Bragg

Figura 6: Esquema lateral de un láser DBR mostrando la sección activa de 600 micras, la sección de Bragg de 250 micras y una sección de fase de 60 micras con la misma estructura que la sección de Bragg, pero sin la red. Las tres secciones son controladas con corrientes diferentes (Iactivo,…). La cavidad láser está delimitada entre la red de Bragg y la cara delantera con reflectividad de 3%. (H. Debrégeas-Sillard, Alcatel Lucent-Thales, III-V Lab, Palaiseau, France, 2008).

selecciona la longitud de onda emitida cuyo ancho espectral típico es, para los mejores láseres, inferior a 0,1 nm, la tasa de extinción de modos laterales superior a 30 dB y un corriente umbral inferior a 10 mA. Los láseres DFB son utilizados en las trasmisiones ópticas de gran distancia en las bandas de longitud de onda de 1530 nm a 157 nm (banda C) y de 1570 nm a 1610 nm (banda L).

Láser con reflector de Bragg distribuido (Distributed Bragg Reflector, DBR): La caracteristica principal de los láseres DBR es su acordabilidad en longitud de onda y han sido desarrollados principalmente para las redes de transmisión con multiplexaje en longitud de onda (Wavelenght Division Multiplexing, WDM). El láser DBR es una estructura monolíticamente integrada con multisecciones perfectamente alineadas, en la que cada sección cumple una funcion especifica; así la sección de ganancia controla la potencia de emisión, la sección de Bragg selecciona la longitud de onda de la emisión y entre las dos se encuentra la sección de fase que realiza el acuerdo de fase entre los rayos reflejados en las extremidades de la capa activa (fig. 6). La variacion de la corriente aplicada en la sección de ganancia permite sintonizar la luz emitida en un rango de 16 nm cubriendo parte de la banda C+ (40 nm) de la fibra óptica. La cubertura completa de las bandas de trasmisión de la fibra optica, C+ y L, de un ancho espectral de 40 nm cada una, es un objetivo mayor para las nuevas generaciones de redes WDM. A partir de la estructura DBR, se han propuesto nuevas arquitecturas y siguen siendo estudiadas en diversos laboratorios para alcanzar este objetivo. Por ejemplo, dispositivos que integran, monolíticamente, estructuras DBR con dos redes de Bragg periódicas (sampled grating-DBR, SG-DBR) [7] o/y con amplificadores ópticos semiconductores (SOA) [8, 9].

Page 19: Ecipe Rue Special 2010

Número especial 2010

18ECIPERÚ

Láser DBR con modos sincronizados en fase (Mode-Locked Laser, MLL): Lograr realizar un procesamiento “todo óptico” de las señales ultra rápidas, sin pasar por la clásica conversión óptica-eléctrica-óptica, es uno de los objetivos mayores para mejorar la transparencia, la capacidad y la velocidad de las redes de transmisión ópticas de larga distancia. Entre los diversos enfoques estudiados hasta hoy en día, se investiga el láser con modos sincronizados (MLL), en particular usando una estructura de tipo DBR. Con estos láseres se prevén diversas aplicaciones como la recuperación de reloj en la trasmisión de altos flujos de datos, 40, 100 y 160 Gbps o la generación de pulsos ultra cortos. También, en un sistema de trasmisión WDM, el láser MLL podría ser utilizado para generar una fuente de luz tipo peine cubriendo un espectro de frecuencia de 40 a 100 GHz. Este tipo de láser también puede ser utilizado para la generación óptica de ondas milimétricas en el rango de 30 a 100 GHz en un sistema de trasmisión de señales analógicas [10].

Láseres con puntos cuánticos: Al mismo tiempo que los pozos cuánticos eran introducidos en los láseres diodos, varios estudios teóricos [11, 12] subrayaron que una estructura con un confinamiento de electrones en las tres direcciones podría dar lugar a láseres con propiedades independientes de la temperatura y con un corriente umbral aún inferior a aquella obtenida con los pozos cuánticos. Pero tomó un poco más de una década mejorar la calidad del crecimiento epitaxial de los puntos cuánticos y lograr obtener un dispositivo láser fiable. Ello fue posible gracias a la técnica de crecimiento llamada “crecimiento de auto-ensamblaje” [13].

Se han previsto varias consecuencias notables gracias al confinamiento de los electrones en las tres direcciones: la insensibilidad a la temperatura de la estructura que elimina la necesidad de utilizar el sistema de enfriamiento que siempre es añadido a los dispositivos actuales; la disminución adicional de la corriente umbral que se traduce por una disminución de la potencia consumida; la insensibilidad al retorno de la luz después de la emisión de la luz, que hace innecesario el uso de un aislador óptico; y finalmente una disminución del “Chirp” que permitiría la trasmisión de señales con gran capacidad de trasmisión (> 40Gbps) sobre

grandes distancias (> 40 km) sin necesidad de regeneración.

Muchos laboratorios trabajan actualmente con láseres a base de puntos cuánticos, principalmente porque esta tecnología abre la posibilidad de fabricación de módulos compactos, insensibles a la temperatura y sin aislador óptico, lo que proporciona importantes ventajas de costo en un mercado internacional muy competitivo. La reciente restructuración en el sector de los componentes fotónicos en la industria de telecomunicaciones ha aumentado fuertemente la presión para desarrollar dispositivos y módulos de alto rendimiento y bajo costo para los sistemas de comunicación óptica de banda ancha.

El costo de los módulos de láseres semiconductores para las aplicaciones en telecomunicaciones está principalmente definido por los componentes no semiconductores, tales como el aislador óptico y el refrigerador Peltier presentes en los módulos [fig. 7]. Estos componentes adicionales son necesarios para compensar las deficiencias actuales encontradas en los materiales y características del dispositivo láser, es decir, la gran sensibilidad de los láseres monomodos a la retrorreflexión óptica y la fuerte dependencia a la temperatura del rendimiento de los dispositivos. Por lo tanto, muchos esfuerzos de investigación y desarrollo están orientados hacia la búsqueda de nuevos materiales que presenten mejores propiedades intrínsecas según la temperatura y la retrorreflexión óptica, lo que evitaría la necesidad de utilizar los costosos componentes no semiconductores y disminuir así el costo de los módulos láser.

Figura 7: Típico módulo de láser semiconductor con el refrigerador termoeléctrico (TE cooler) y el aislador óptico (optical isolator). El costo de cada uno de estos componentes adicionales suele ser más alto al costo de fabricación del láser mismo.

Page 20: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

19ECIPERÚ

Varios resultados muy prometedores comienzan a obtenerse. Así por ejemplo, dentro del programa europeo IST/ZODIAC [14], se han obtenido láseres de tipo DFB a base de puntos cuánticos en materiales GaAs (emisión a 1.3 micras) e InP (emisión a 1,55 micras) con rendimientos independiente de la temperatura en el rango de 20 a 85 °C y con una gran tolerancia a la retrorreflexión óptica [15, 16].

También, se ha demostrado que el láser con modos sincronizados (Mode-locked laser), en material InP, a base de puntos cuánticos, muestra una fuerte correlación entre los modos ópticos, superior a aquella observada en un láser MLL a base de pozos cuánticos. El ruido de fase también es muy pequeño [17]. Estas son características ideales para realizar las funciones de recuperación de reloj en un sistema de trasmisión de alta velocidad (40 Gbps, 80 Gbps, 160 Gbps,…). Recientemente, se ha utilizado un láser MLL a base de puntos cuánticos para generar una señal milimétrica de 60 GHz para trasmitir una señal de 3 Gbps en un sistema de tipo radio sobre fibra óptica (Radio over Fibre) [18,19].

Figura 8: Módulo de un láser MLL, en material InP, a base de puntos cuánticos fabricado en los laboratorios de ALT III-V Lab, Marcoussis, Francia [10].

CONCLUSIONES

Las grandes direcciones de investigación que han permitido a los láseres semiconductores ser los dispositivos excepcionales que conocemos hoy en día son: la optimización de las estructuras electrónica y óptica del dispositivo para obtener de un lado la mayor ganancia óptica posible y del otro una mejor guía óptica para la emisión láser; el mejoramiento continuo de la calidad de los materiales utilizados,

para minimizar las recombinaciones no radiativas o para identificar propiedades específicas como por ejemplo, una mejor resistencia a los procesos de degradación del dispositivo; las técnicas de crecimiento epitaxial y la tecnología de elaboración del dispositivo completo que incluye los contactos óhmicos, la calidad de los diferentes niveles de gravado y todas las otras etapas del proceso de fabricación. La fabricación colectiva de los dispositivos en la industria de semiconductores conduce a costos de producción bajos, lo que favorece a su vez el desarrollo del mercado a gran escala. El 70% de los láseres semiconductores fabricados en el mundo están destinados a las aplicaciones en telecomunicaciones.

Estas direcciones de investigación y desarrollo continúan vigentes y movilizan a una comunidad grande de investigadores en laboratorios académicos e industriales. Las necesidades considerables de las telecomunicaciones ópticas, debidas principalmente al tráfico de Internet que crece con un ritmo del 300% por año, imponen un crecimiento importante y durable del mercado de láseres semiconductores.

Perspectivas

Nuevas aplicaciones con nuevas exigencias aparecen continuamente. Así por ejemplo, la frecuencia que emite un láser semiconductor queda fijada una vez por todas al momento de su fabricación porque ella depende del material utilizado. Esta restricción es una fuerte desventaja cuando las aplicaciones incluyen el uso de rangos espectrales más amplios, superiores a 40 nm o emisiones más allá de las dos micras. Poder ajustar las frecuencias de emisión en esos rangos espectrales exige principalmente la búsqueda de nuevos materiales; por ejemplo, para cubrir el rango espectral mediano-infrarrojo, se comienza a utilizar los compuestos a base de antimonio: InSb. Esto es un desafío mayor para los investigadores.

Los puntos cuánticos se asemejan a átomos grandes porque en ellos el movimiento de los electrones está limitado en las tres direcciones del espacio. Sin embargo, a diferencia de los electrones de los átomos libres, en los puntos cuánticos, los electrones están acoplados a las vibraciones de la red cristalina subyacente y las redes de emisión luminosas son

Page 21: Ecipe Rue Special 2010

Número especial 2010

20ECIPERÚ

relativamente anchas. La analogía con los átomos encuentra allí su límite y estos nuevos objetos físicos exigen ser mejor comprendidos. Ello es particularmente importante si se quiere, en un futuro próximo, utilizarlos para efectuar cálculos cuánticos.

El lector interesado en los últimos avances en el campo de los láseres semiconductores puede consultar las actas de las conferencias Photonic West, CLEO, LEOS, ECOC y MWP.

REFERENCIAS

[1] A. Einstein, Phys. Z (1917).[2] T. H. Maiman, Nature, 187(1960a).[3] A. Javan, W. R. Bennet, J. and D. R. Herriot,

Physical Review Letters, 6 (1961).[4] Zh. I. Alferov, V. M. Andreev, D. Z. Garbusov, Yu.

V. Zhilyaev, E. P. Morosov, E. L. Portnoi and V. G. Trofim, Sov. Phys. Semicond. 4 (1970).

[5] I. Hayashi, M. B. Panish, P. W. Foy and S. Sumski, Appl. Phys. Lett. 17 (1970).

[6] N. Holonyak, Jr., R. M. Kolbas, R. D. Dupuis, and P. D. Dapkus, IEEE J. Quantum Electron., Vol. QE-16 (1980).

[7] V.Jayaraman, Z-M.Chuang and L.A.Coldren, IEEE Journal of Quantum Electronics, Vol. 29, No.6 (1993).

[8] H. Debrégeas-Sillard, M. Goix, J-G. Provost, D. Carpentier, J. Landreau and R. Brenot, “European

Conference on Optical Communications”, We4, (2005).

[9] http://www.3-5lab.fr , Data sheet “Widely tunable laser” (2008).

[10] http://www.3-5lab.fr , Data sheet “1550 Mode-Locked Laser Diode” (2008).

[11] Y. Arakawa and H. Sakaki, Appl. Phys. Lett. 40 (1982).

[12] M. Asada, M. Miyamoto and Y. Suematsu, IEEE J. Quantum Electron. QE-22, (1986).

[13] L. Goldstein, F. Glas, J. Y. Marzin, M. N. Charasse and G. Le Roux, App. Phys. Lett. 47 (1985).

[14] IST/ZODIAC European project N°017140, “Zero Order Dimension based Industrial components Applied to teleCommunications”, coordinator C. Gonzalez, (2005-2008).

[15] F. Gerschutz et al., Optics Express, 16 (2008).[16] B. Dagens et al., IEEE Photon. Tech. Lett. 22

(2008).[17] F. Lelarge, B. Dagens, J. Renaudier, R. Brenot,

A. Accard, F. Van DIJK. D. Make and G. H. Duan, IEEE J. Selected Topics Quantum Elec., 13 (2007).

[18] M. Huchard, P. Chanclou, B. Charbonnier, F. van Dijk, G.-H. Duan, C. Gonzalez, F. Lelarge, M. Thual, M. Weiß and A. Stöhr, MWP2008, 1-3 October, Gold Coast, Australia.

[19] M. Huchard, B. Charbonnier, P. Chanclu, F. Van Dijk, F. Lelarge, G. H. Duan, C. Gonzalez and M. Thual, ECOC2008, Tu.4.F.1, 21-25 September, Brussels, Belgium.

http://www.3-5lab.fr

Page 22: Ecipe Rue Special 2010

21ECIPERÚ

Sensores de fibra óptica modulados en intensidad

Optical fiber sensors based on intensity modulation Mauro LomerUniversidad de Cantabria, Av. de los Castros s.n., 39005, Santander, España

RESUMEN

Este documento presenta dos sensores de fibra óptica basados en la modulación de intensidad óptica capaces de medir, respectivamente, el nivel de líquidos y el desplazamiento. El primer sensor utiliza las pérdidas por curvaturas y logra una mejor sensibilidad eliminando parte del núcleo de la fibra mediante el pulido lateral. Los cambios de índice de refracción con el medio que lo rodea inducen a una variación de la transmitancia generando una señal. Reproduciendo este mismo efecto sobre una fibra de N espiras se obtiene una medida distribuida del líquido. En el segundo sensor se utiliza una red de difracción en la salida de la fibra multimodo para separar espacialmente dos órdenes de difracción y realizar una medida autocompensada, insensible a las variaciones de potencia óptica de la fuente o perturbaciones en la fibra. Se incrementa el rendimiento de difracción cortando en ángulo el extremo de salida de la fibra, logrando reducir los modos propagados y aumentando la cantidad de periodos disponibles en la superficie. La técnica de modulación de intensidad permite simplificar el sistema sensor, es fácil de fabricar y reduce los costos de fabricación usando fibras ópticas de plástico de 1 mm y componentes optoelectrónicos comerciales.Descriptores: sensores de fibra óptica, modulación de intensidad, fibra en espira, redes de difracción

ABSTRACT

This document presents two optical fiber sensors, based on optical intensity modulation, capable of measuring liquid levels and displacement respectively. The first sensor is a flexible quasi-distributed liquid level based on the changes in the light transmittance in a plastic optical fiber (POF) cable is proposed. The measurement points are formed by small areas created by side-polishing on a curved fiber and the removal of a portion of the core. These points are distributed on each full-turn of a coil fiber built on a cylindrical tube vertically positioned in a tank. The changes between the refractive indices of air and liquid generate a signal power proportional to the position and level of the liquid. The sensor system has been successfully demonstrated in the laboratory. In the second sensor a self-compensated displacement sensor has been developed by placing a diffraction lattice at the end of a plastic optical fiber, the method serving for any highly multimode optical fiber. By measuring the output powers of the diffraction angles corresponding to two different diffraction orders, a simple way to cancel out the fluctuations of the light source and other disturbances have been achieved. The intensity modulation technique simplifies the sensor system and makes it easy to manufacture, as well as it reduces costs by using POF of 1 mm and commercial optoelectronic components. Keywords: fiber optics sensor, intensity modulation, coil fiber probe, diffraction grating

Page 23: Ecipe Rue Special 2010

Número especial 2010

22ECIPERÚ

INTRODUCCIÓN

En 1966, Kao propuso el uso de fibras de vidrio como medio de comunicación de datos utilizando la luz en lugar de los electrones, pero a condición de que las pérdidas de transmisión producidas por el material de base (sílice (SiO2)) sean reducidas drásticamente [1]. Entonces las pérdidas eran superiores a 100 dB/km. Algunos años después, las pérdidas se redujeron a 20 dB/km, que con las mejoras introducidas en el proceso de fabricación, lograron reducirlas casi a su mínimo valor actual de 0.15 dB/km a la longitud de onda de 1550 nm. Simultáneamente a estos avances, se fabricaron las primeras fuentes de luz semiconductoras a base de arseniuro de galio (GaAs). En los años 80, se inicia el desarrollo e implantación industrial de los sistemas de comunicaciones ópticas y el remplazo de los cables de cobre de los sistemas convencionales por fibras ópticas obteniéndose un mayor rendimiento, enlaces más fiables, aumento del ancho de banda y reducción permanente de costos.

Paralelamente, gracias a la investigación y mejoras en fibras ópticas y en dispositivos optoelectrónicos surge la tecnología de sensores de fibra óptica. En efecto, el uso de las fibras en metrología tiene ventajas significativas con relación a los sistemas convencionales basados en principios eléctricos: inmunidad a las interferencias electromagnéticas, poco peso, flexibilidad, aislamiento eléctrico, pequeñas dimensiones, alta sensibilidad, gran ancho de banda, seguridad intrínseca y posibilidad de medir a distancia y en lugares explosivos o contaminantes. Estos pueden ser realizados con fibras de vidrio, plásticos u otro material transparente, de tipo monomodo o multimodo. Desde los años 80, numerosos trabajos han sido reportados en conferencias internacionales, en revistas científicas y se han editado varios libros [2-4]. Estos sensores pueden ser modulados en fase, intensidad, polarización, longitud de onda, frecuencia, tiempo de vuelo, etc. Los sensores basados en la modulación de intensidad óptica son los más populares, fáciles de construir y de bajo costo.

En este artículo se presentan dos sensores de fibra óptica modulados en intensidad utilizando fibras ópticas de plástico (POF) de tipo multimodo y de 1 mm de diámetro. Una porción de las fibras ópticas

es modificada y preparada con el objetivo de que sea más sensible a los parámetros a medir (nivel de líquido o distancia) y haga de transductor o cabeza sensora. La modulación de intensidad es obtenida ya sea por variación del índice de refracción del medio que lo rodea o por reflexión de la luz por un objetivo que se desplaza. Se presentan los principios de funcionamiento, los métodos de realización y los resultados obtenidos. Las soluciones propuestas son de bajo costo y pueden ser muy competitivas en aplicaciones industriales.

Sensores de fibra óptica

Una fibra óptica es una estructura cilíndrica sólida compuesta de un núcleo de índice de refracción n1 y rodeada de otro medio de índice n2, llamada cubierta. Estos medios están protegidos del medio exterior por una capa y no tiene ninguna función óptica (fig. 1(a)). En una fibra óptica multimodo y de índice de refracción homogéneo, la luz se propaga por reflexiones totales internas (RTI) por lo que es necesario que n1>n2. En estas condiciones cada fibra óptica estará definida por su apertura numérica (A.N.), dado por AN=(n1

2-n2

2)1/2=SenΘ, donde Θ es el semi-ángulo del cono de aceptancia de la fibra. Así, cuando se trata de inyectar luz en una fibra óptica no todos los rayos serán guiados por la fibra. De los rayos presentes en la entrada de la fibra, aquellos rayos cuyos ángulos de incidencia sean igual o menor que Θ serán guiados (fig. 1 (b)). Los otros rayos serán radiados por la cubierta (2) o por el aire (1). Los rayos guiados por el núcleo pueden seguir diferentes caminos ópticos; se llaman modos de orden alto (3), aquellos que se propagan cerca del ángulo crítico θc, dado por θc=sen-1(n2/n1); modos de orden bajo (4), aquellos que hacen un ángulo de inclinación débil con el eje de la fibra, y modo de orden cero los rayos paralelos al eje de la fibra, es decir un solo camino óptico (5). La fibra óptica de plástico utilizada en el presente trabajo es de material polimetilmetacrilato (PMMA) de 1 mm de diámetro, donde n1=1.492 y n2=1.402 y de AN=0.5. El diámetro del núcleo es de 0.98 mm y la cubierta tiene un espesor de 10 micrones.

Aplicados en sensores, la fibra óptica puede ser utilizada como elemento pasivo (extrínseco) o como elemento activo (intrínseco) (fig. 2). En

Page 24: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

23ECIPERÚ

el primer caso, la fibra es simplemente un canal de luz que transmite la variación de uno o varios parámetros que lo afectan. Tiene la ventaja que puede hacer estas medidas a distancia, en lugares inaccesibles, contaminantes o explosivos. En el segundo caso, los parámetros de propagación de la luz son afectados dentro de la fibra óptica, y las posibilidades son múltiples. Por ejemplo, deformación, curvaturas, torsión, inmersión en líquidos, realizar modificaciones de la estructura geométrica mediante deposición de películas finas, aplicar una fuerza mecánica, doparla con partículas fluorescentes, utilizar el campo evanescente o grabar una red de difracción. De esta forma se pueden diseñar sensores de fibra óptica que sean sensibles a la temperatura, vibración, presión, humedad o a parámetros biológicos.

Las condiciones ideales de propagación de la luz en la fibra óptica son: una fibra recta, sumergida en el aire, estable; interfaces de núcleo/cubierta perfectas; cortes rectos de las interfaces de entrada y salida de la fibra; índice de refracción homogéneo y sin perturbación mecánica exterior. Cualquier modificación a estas condiciones ideales convierte a la fibra óptica en un posible sensor; por supuesto, a condición de caracterizar correctamente la causa que le dio origen. Nosotros mostraremos aquí algunas de estas posibilidades y sus posibles aplicaciones.

Figura 1: (a) Estructura de una fibra óptica. (b) Diferentes tipos de rayos propagados en el núcleo de una fibra multimodo, (1) rayos no guiados, (2) rayos radiados por la cubierta, (3) modos de orden alto, (4) modos de orden bajo, y (5) modo de orden cero.

Figura 2: Diferentes posibilidades de utilizar las fibras ópticas como elemento sensor.

Sensores modulados en intensidad

A. Sensor cuasi-distribuido de nivel de líquido

Los sensores de nivel de líquidos se dividen en dos grupos: sensores para medida puntual y sensores para medidas continuas. En el primer grupo, la fibra es utilizada como dispositivo transductor o como canal de transmisión de la señal óptica. En estos casos, una sección de la fibra es preparada (con curvaturas, pulido lateral o deposición de películas) para detectar las variaciones de intensidad óptica de acuerdo a los cambios en el índice de refracción que rodea el medio, o utilizando fibras con dispositivo adicional (lente o prisma) unido en la extremidad con el objetivo de modificar las condiciones de propagación de la luz ante la presencia o ausencia de líquido. Todos estos métodos necesitan sofisticados montajes ópticos y componentes adicionales, así como un tratamiento específico de la señal para deducir el nivel de líquido. Un sensor de nivel de líquido basado en los cambios de transmitancia de la luz en la fibra multimodo con varios puntos de medida creados por pulidos lateral ha sido presentado en la referencia [5]. La ventaja de esta solución propuesta reside en su fácil fabricación. El pulido lateral genera una superficie elíptica sobre una fibra curvada donde parte del núcleo es eliminada. La medida puntual es distribuida a lo largo de una fibra en forma de espira de N vueltas. Un cambio en el índice de refracción con el medio en contacto

Page 25: Ecipe Rue Special 2010

Número especial 2010

24ECIPERÚ

produce variaciones de la transmitancia. Estos cambios son detectados en la extremidad de salida de la fibra en forma de variaciones de intensidad. El pulido lateral produce pérdidas moderadas, por lo que se pueden crear varios puntos de medida con una única fibra. A continuación presentamos el funcionamiento, la construcción y los resultados experimentales.

El principio de funcionamiento sobre una vuelta completa se muestra en la figura 3. El pulido lateral es realizado con la finalidad de eliminar parte de la protección mecánica, la cubierta y el núcleo de la fibra, y hacer más sensible a los cambios de índice de refracción. Esta región pulida del núcleo de la fibra, de superficie elíptica, está en contacto con el medio exterior de índice no. La superficie elíptica, de varios milímetros cuadrados, es suficiente para generar una señal cuando el índice de refracción de este medio cambia. Así, cuando los rayos propagados en la fibra recta encuentran la región curvada, cambian sus condiciones de propagación, por lo que algunos rayos se refractarán por la cubierta en la zona de transición, lugar donde se producen las pérdidas más importantes, pero los rayos que continúan propagándose en la curvatura encuentran la interface núcleo-medio exterior (n1/no), que es muy sensible, por lo que puede producirse unas pérdidas suplementarias si el índice inicialmente del aire (no=1) es remplazado por el agua (no=1,33).

La medida cuasi-distribuida de nivel de líquido es obtenida puntualmente en cada vuelta de la fibra en forma de espiral dispuesta alrededor de un tubo cilíndrico emplazado verticalmente en un tanque. El esquema del montaje es mostrado en la figura 4. La espira de fibra óptica es construida sobre un tubo cilíndrico de sección constante y el radio de curvatura es de R=5 mm, por lo que el radio de curvatura de la espira es 5,02 mm y la longitud de una vuelta completa de 31,5 mm. En la primera vuelta y sin pulido, las pérdidas de curvatura de la fibra son de 4,4 decibelios (dB), y cuando se realiza el pulido y se elimina un espesor de ε=0,1 mm se produce unas pérdidas adicionales de 3,1 dB. Con una espira de N=15, se obtienen igual puntos experimentales con unas pérdidas totales de 45,3 dB. La medida experimental se inicia llenando el tanque, afectando el primer punto de medida.

Figura 3: Principio de funcionamiento del transductor de una fibra POF pulida lateralmente para una vuelta completa.

Figura 4: Esquema del sensor de nivel de líquido cuasi distribuido con una fibra en forma de espira de N vueltas.

Los resultados experimentales obtenidos son mostrados en la figura 5. Se puede observar que los cambios en las pérdidas por cada punto de medida son de 0,16 dB. Esta variación es detectada por el fotodiodo ubicado en el extremo de la fibra de salida. La precisión de la medida es dada por el diámetro menor de la elipse formada por el pulido de aproximadamente 0,08 mm. Notamos también que las pérdidas disminuyen a medida que aumentan los puntos sumergidos en agua. Aparentemente, este resultado podría ser contradictorio con la teoría. Esto es, si un rayo proveniente de un medio n1

Page 26: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

25ECIPERÚ

incide en la interface n1/no, y si n1>no (aire, no=1), el coeficiente de reflexión de Fresnel disminuye cuando el medio no es reemplazado por el agua (no=1,33), por lo que más rayos son radiados hacia fuera de la fibra y, por tanto, aumentan las pérdidas.

Figura 5: Medida experimental de la atenuación cuando la espira de fibra pulida con 15 puntos de medida es sumergida en un tanque de agua.

La explicación a este efecto es que la cubierta de protección de la fibra tiene un espacio de aire, y que en la zona curvada los rayos radiados por la cubierta y en este espacio de aire llegan a la región pulida y encuentran agua, por lo que los rayos perdidos reingresan dentro del núcleo, produciendo un efecto contrario. Esto ha sido explicado y demostrado en Lomer et al. [6]. El prototipo de sensor demostrado aquí puede ser voluminoso para el rango de medidas realizadas, pero el sistema puede ser construido para tanques de mayor capacidad, donde el tamaño del sensor no es una característica limitante. Para tales aplicaciones, el sensor de bajo costo constituye una solución con una alta resolución. Una solución alternativa puede ser la propuesta en Lomer et al. [6], donde los puntos de medida pueden adaptarse a distancias mucho más grandes.

En el presente sensor se han utilizado las pérdidas por curvatura en la fibra óptica con la finalidad de hacer más sensible a la región de la fibra que actúa como transductor. Las pérdidas dependen del radio de curvatura (R) y aumentan cuando R disminuye. En el caso de un cable de fibra POF de 1 mm de diámetro, las pérdidas son más importantes cuando R<10 mm. Nosotros hemos elegido R=5 mm, que genera 4 dB de pérdidas, pero la sensibilidad ante cambios del medio exterior que lo rodea aumentan. En una fibra recta, los cambios del índice de refracción del medio exterior son débiles e imprecisos si se trata de medir esta influencia comparada con una fibra curvada.

Las pérdidas por curvatura en la fibra se producen por cambios en las condiciones de propagación de la luz cuando pasan de la región recta a la región curvada. Los rayos de luz que se propagan en la región recta de la fibra cumplen las condiciones de RTI. Todos los rayos incidentes en la interface núcleo/cubierta tienen ángulos de incidencia (θ) superiores al ángulo crítico (θc), condición que cambia al pasar a la región curvada. Algunos rayos tendrán un θ≤θc, por lo que dejarán de propagarse por el núcleo y se refractarán hacia la cubierta n2 o en el aire (no), produciéndose las pérdidas. Estas pérdidas son de dos tipos: i) pérdidas de transición, donde se producen las pérdidas más importantes, y ii) pérdidas puras de curvatura, debido al material y la estructura de guiado. Cuándo la curvatura es periódica, tal como la espira de fibra del presente trabajo, con un radio de curvatura constante, las pérdidas más importantes se encuentran en las primeras vueltas, incrementándose lentamente en las siguientes vueltas de la espira de fibra.

El ángulo crítico en la fibra POF utilizada es de θc=70 º. Para hacerla más sensible al medio exterior, además de la curvatura, se elimina parte del núcleo, obteniendo de esta manera una interface de interacción n1/no, donde el ángulo crítico en esta región es de 42 º cuando es el aire, y 63.3 º cuando es el agua. Son estos cambios los que generan la señal del sensor.

Como en una fibra POF de 1 mm se puede propagar entre 2 y 4 millones de modos, los cálculos teóricos se simplifican utilizando los argumentos de la óptica geométrica [7]. Los rayos que pasan de la región recta hacia la región curvada pueden ser calculados utilizando los rayos meridianos, es decir los rayos que al propagarse por RTI pasan por el eje de la fibra. Por lo que cada rayo tendrá una posición en la entrada de la zona curvada, y el nuevo ángulo de incidencia, en la interface superior como inferior de la curvatura, dependerá del radio R y los índices de refracción n1 y n2. Los rayos que llegan a la zona de interacción lo pueden hacer con una o más reflexiones. El cálculo para los rayos no meridianos muestra que su influencia es débil en las pérdidas por curvatura.

Existen otras posibilidades de utilizar las curvaturas de las fibras en sensores. Por ejemplo, se puede

Page 27: Ecipe Rue Special 2010

Número especial 2010

26ECIPERÚ

construir una espira de fibra donde el periodo de las espiras puede ser modulable por efecto de la presión o por la aplicación de una fuerza en posición normal a la sección, similar a un muelle mecánico. Si la sección se mantiene constante, el radio de la espira cambia, por lo tanto cambia también las pérdidas de curvatura por efecto de la fuerza aplicada. Asociando la fuerza aplicada a las pérdidas de curvaturas, se tiene un sensor de este parámetro. Este concepto puede ser aplicado a los sistemas de medida de masa de grandes dimensiones, camiones o vagones de trenes.

B. Sensor de desplazamiento autocompensado utilizando redes de difracción

Desde los años 60 se han reportado numerosos montajes y esquemas de sensores de desplazamiento utilizando fibras ópticas [4]. El desplazamiento es un parámetro de interés básico en la industria. Generalmente, se utilizan dos métodos para medir el desplazamiento: el sensor interferométrico con fibras monomodo o el sensor basado en la modulación de intensidad. En el primer caso, se obtienen medidas con una alta precisión y resolución, pero el proceso de demodulación requiere un tratamiento y acondicionamiento de la señal muy complejo. En el segundo caso, se requiere únicamente la variación de intensidad óptica asociada con el desplazamiento, por lo que el procesado de señal es más simple. Además, el sensor de intensidad puede utilizar fibras ópticas multimodo. Sin embargo, cuando la medida es obtenida directamente de la intensidad, la señal de salida del sensor puede ser afectada por las fluctuaciones de potencia óptica de la fuente de luz, temperatura, curvaturas en la fibra, mezcla de modos y otros factores indeseables. Para resolver estos problemas, se han propuesto varios métodos para compensar la incertidumbre de las medidas experimentales. Por ejemplo, Lagakos propuso un sensor de desplazamiento con dos fibras ópticas, donde una sirve de referencia para compensar las variaciones de la fuente del luz [8]. Con este mismo propósito, Spillman utilizó una red de difracción como componente dispersivo en el sensor de desplazamiento con fibras ópticas [9].

Estudios más recientes se han dedicado a eliminar éste problema. En efecto, Wang y Das reportan el uso de varias longitudes de onda propagadas por la misma fibra [10,11]. En este caso, la luz reflejada

por la superficie reflejante contiene las longitudes de onda que son reinyectadas en la misma fibra y separadas al final por un demultiplexor en longitudes de onda, que luego realiza el cociente entre señales, por lo que la resultante siempre es constante.

Con el objetivo de hacer más simple el sistema de medida y eliminar el demultiplexor, se presenta aquí un sensor de desplazamiento modulado en intensidad utilizando una red de difracción ubicada en un extremo de salida de una fibra multimodo terminada en ángulo inclinado con relación al eje de la fibra [12]. Así, se obtienen dos haces de luz difractados: uno sirve de referencia y otro realiza la medida. El cociente de estas dos señales siempre será constante si se producen variaciones de potencia en la fuente de luz por curvaturas en la fibra o por variación de temperatura en el ambiente. En la figura 6 se muestra el principio de funcionamiento del sensor propuesto. El ángulo de inclinación α y el periodo de la red de difracción son adaptados con la finalidad de obtener únicamente dos órdenes de difracción y con suficiente separación espacial. En esta situación, los rayos transmitidos fuera de la fibra y la red de difracción serán aquellos cuyos ángulos sean inferiores que sen-1(no/n1). Estos rayos tienen un ángulo incidente θi y provienen del lado inferior del eje de la fibra, mientras que los rayos incidentes del lado superior (ángulo γ) son refractados fuera de la fibra y no participan en la difracción. Cuando la fibra termina en ángulo oblicuo, se modifica la apertura numérica, la cantidad de modos transmitidos y se aumenta la superficie de salida. Esto favorece la eficiencia de difracción porque se dispone de menor cantidad de modos y mayor cantidad de periodos sobre la superficie. El ángulo ε es el ángulo del cono de los rayos incidentes que participan en difracción y dependen de α y γ.

En la figura 7 se muestra las curvas de las medidas experimentales realizadas con dos fuentes láseres HeNe, que emiten respectivamente en el rojo (λ=632,8 nm) y el verde (λ=543,5 nm), λ es la longitud de onda. El periodo de la red es de Λ=1,8 μm y el ángulo de inclinado es de α=55º. La potencia óptica de los haces difractados es medida con relación al plano de salida de la red, entre 0 º y 180 º. Se observa bien el efecto de la red y se pueden ver dos órdenes de difracción bien definidos (“0” y “-1”) y un débil tercer orden (“-2”). Estos

Page 28: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

27ECIPERÚ

resultados demuestran que es posible obtener la separación espacial de dos órdenes de difracción en unas dimensiones bastante reducidas como son las fibras POF de 1 mm.

Figura 6: Difracción causada por una red de difracción ubicada en el extremo de salida de una fibra inclinada en orden “-1” y orden “0”.

Figura 7: Medida experimental con una red de 1,8 μm de periodo de red de difracción y una fibra POF inclinada con �=55º para dos fuentes láseres de HeNe.

Los resultados coinciden bastante bien con las previsiones teóricas, en cantidad de órdenes, dirección y separación angular. Además, se observa el efecto físico de la red; esto es, que cuando disminuye la longitud de onda aumenta la eficiencia de difracción, como en el caso del orden “-1”.

Una vez demostrada la separación espacial de los órdenes de difracción, utilizamos este principio de funcionamiento en el sensor de desplazamiento, es decir, utilizamos los dos órdenes de difracción. Para el diseño del sensor, se elige adecuadamente el periodo Λ, el ángulo del corte del extremo de la fibra α y la longitud de onda de la fuente λ. El esquema del sensor es mostrado en la figura 8. Está compuesto de tres fibras: una emisora (1) y dos receptoras (2) y (3). La fibra (2) recibe la señal de referencia y la fibra (3) realiza la medida del desplazamiento, ya sea en transmisión o reflexión.

Así, cada orden de difracción es medida por fibras separadas, luego detectadas y tratadas por una unidad optoelectrónica. Por ejemplo, el cociente de ambas señales siempre será constante si existen variaciones en la potencia óptica de la fuente o por efectos de curvaturas de la fibra, ya que el efecto será el mismo en ambas fibras receptoras. Es decir, la señal de salida final se autocompensa y proporciona una medida fiable.

El sensor se ha implementado utilizando una fuente de luz con diodo LED (λ=660 nm). Se han realizado curvaturas en la fibra (1), variado la potencia óptica del LED de hasta el 90%, pero el cociente no ha cambiado [12]. En la figura 9 se muestran estos resultados.

Los datos experimentales son representados en asterisco y corresponden a la dependencia de la potencia relativa con la distancia, P(m=-1)/P(m=0). Este comportamiento puede expresarse como una dependencia de la inversa de la distancia al cuadrado, donde se incluye un término lineal para permitir un origen arbitrario, que a través del ajuste por mínimos cuadrados representa el ajuste teórico. Esta es representada por la línea continua en la figura 9. Las dos curvas, teórica y experimental, se confunden sobre el rango de medida.

Si el sensor trabaja en transmisión, el rango de distancia es de 4 a 14 mm. Distancias inferiores a 4 mm no pueden ser medidas debido a la imposibilidad de resolver espacialmente los órdenes de difracción. Pero esto no es un problema porque se puede fijar arbitrariamente la posición cero del desplazamiento.

Las medidas experimentales de cada orden de difracción son realizadas a través de las fibras (2) y (3) y luego trazadas en la curva. Pero esta operación puede realizarse íntegramente mediante una unidad optoelectrónica que hace el tratamiento de señal y la acondiciona para la lectura en una pantalla. Otra posibilidad demostrada en Lomer et al (2004) [12], es que las fuentes de luz a base de diodos LEDs, rojo (λ=660 nm) y azul (λ=470 nm), inyectados en la misma fibra son separados con una buena resolución angular y espacial. En este caso se utilizaría el orden cero de ambos haces de luz difractados por el dispositivo para realizar la función de autocompensación.

Page 29: Ecipe Rue Special 2010

Número especial 2010

28ECIPERÚ

El corte en ángulo oblicuo de la fibra POF ha sido por pulido mecánico y las redes de difracción utilizadas han sido en película fina y adherida a la superficie de la fibra. Actualmente, tanto el corte como las redes de difracción pueden realizarse simultáneamente con tecnología del láser femto-segundo [13], donde el ángulo del corte y el periodo de la red pueden ser de alta precisión.

Figura 8: Esquema del sensor de desplazamiento. La fibra (1) es la fibra emisora, y dos fibras receptoras, la fibra (2) es de referencia y la fibra (3) de medida.

Figura 9: Potencia relativa del orden -1 con relación al orden 0. La curva en asterisco corresponde a los datos experimentales y la línea sólida al ajuste.

Perspectiva de los sensores de fibra

Hemos presentado aquí dos ejemplos de sensores de fibra óptica modulados en intensidad, pero esto no es más que una pequeña parte de todas las posibilidades que nos ofrece esta técnica. También están las otras técnicas de modulación, muy interesantes de acuerdo al dominio de aplicación, donde el tema económico no es una limitación sino la función a realizar. En los últimos 30 años se han

realizado importantes esfuerzos de investigación, las demostraciones de laboratorio han pasado a la producción industrial, y se puede decir que es una tecnología emergente con mucho futuro, con posibilidades de resolver nuevos problemas. Por ejemplo, las cifras de negocios de sensores de fibra óptica han pasado de menos de 100 millones de dólares en el año 2000, a ser en la actualidad más de 1000 millones de dólares en el año 2010. Los dominios de aplicación se han multiplicado, y se proponen soluciones en bio-medicina, ingeniería civil, agricultura, o sistemas embarcados.

Los sensores modulados en intensidad son más simples y versátiles para adaptarse a las cadenas de producción industrial, lugares donde se trata de controlar la posición, presión, distancia, o desplazamiento. Los rangos dinámicos van desde los milímetros hasta los metros y la precisión y la resolución son del orden del mm. En cambio, cuando se trata de detectar y controlar los mismos parámetros de dimensiones micrométricas, es necesario recurrir a la modulación de fase de la onda luminosa utilizando montajes interferométricos y fibras ópticas monomodo. En este caso predomina la precisión, exactitud y resolución de la medida, y la importancia del sistema a medir, como es el caso de realizar un sensado en las turbinas de una central hidroeléctrica para detectar desgaste de las palas. Otra posibilidad que ofrecen las fibras ópticas es que se pueden grabar redes de Bragg en el núcleo, en tramos separados y a lo largo de la fibra. Estos son muy sensibles a la temperatura, vibración, presión, etc., y por tanto muy útiles para detectar vibraciones y desplazamientos en puentes, edificios o túneles.

Como esta tecnología de sensores utiliza la misma plataforma que las comunicaciones sobre fibras ópticas, es posible diseñar redes de sensores capaces de realizar mediciones, en diferentes puntos y de diferentes parámetros, en un proceso de producción industrial. Además, monitoreados a distancia dentro de una red área local. Para estos casos existen soluciones de sensado distribuido o multiplexados en longitud de onda. Ejemplo de implementación se pueden ver en la industria automotor. Los automóviles modernos tienen una red local de comunicación con fibras ópticas donde integran sensores de presencia, temperatura, nivel,

Page 30: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

29ECIPERÚ

control de iluminación y sistema multimedia. Esto ha permitido mejorar la seguridad y el confort.

La tecnología de sensores de fibra óptica puede ser muy útil en la concepción de instrumentación de uso específico para la industria, que es un sector poco explotado. Pueden pasar de prototipos de laboratorio a diseños más robustos.

CONCLUSIONES

Se han presentado los sensores de fibra óptica modulados en intensidad. La intensidad óptica es un parámetro que puede medirse fácilmente cuando la luz transmitida por una fibra óptica es transformada en señal eléctrica mediante el fotodetector. Se han mostrado dos sensores basados en esta técnica. Los principios de funcionamiento utilizando fibras ópticas multimodo han sido pérdidas suplementarias por pulido lateral y la eliminación de una porción del núcleo de una fibra curvada, distribuida en forma de espiral sobre un tubo sólido; y la separación espacial de un haz de luz mediante una red de difracción ubicada en el extremo de salida de una fibra para medir desplazamiento. Las ventajas excepcionales de las fibras ópticas plásticas (flexibilidad, fácil manipulación, gran diámetro,…) y una unidad optoelectrónica simple de tratamiento de señal, hacen que los sensores propuestos sean soluciones de bajo costo, de gran fiabilidad y muy competitivos. Pueden asociarse, además de la modulación de intensidad, otros efectos y fenómenos ópticos (Moiré, speakle, interferencia, etc.) y/o deposiciones de películas ultrafinas sobre las fibras ópticas para obtener la resonancia plasmón de superficie (SPR), para explotar otras posibilidades de sensado óptico de parámetros químicos o biológicos. Pueden ser empotrados y muy útiles en la ingeniería civil (edificios y puentes), en los sistemas embarcados (barcos, aviones, automóviles), o en los sistemas industriales.

Se ha presentado someramente las perspectivas que ofrece esta nueva tecnología que puede beneficiar a diferentes campos de la investigación y de la industria. En fin, el futuro de los sensores de fibra

óptica en muy prometedor y de largo alcance, por lo que se debe introducir dentro de los programas curriculares de la formación del futuro profesional universitario de ciencias e ingeniería.

REFERENCIAS

[1] C. K. Kao et al., Dielectric fiber surface waveguides for optical frequencies,” Proc. Inst. Elect. Eng., 113 (1966) 1151.

[2] E. Udd, “Fiber Optic Sensors” ,Wiley, New York, 1991.

[3] B. Culshaw and J.P. Dakin, Eds. “Optical Fiber Sensor”, Vol. 1-4 , Artech House, London, 1997.

[4] J. M. Lopez Higuera, Ed. “Handbook of optical fibre sensing technology”, Wiley, New York, 2002.

[5] M. Lomer et al., A quasi-distributed level sensor based on a bent side-polished plastic optical fibre cable, Meas. Sci. Technol, 18 (2007) 2261–2267.

[6] M. Lomer et al., Lateral polishing of bends in plastic optical fibres applied to a multipoint liquid-level measurement sensor, Sensors and Actuators A 137 (2007) 68–73.

[7] A. W. Snyder and J.D. Love, “Optical Waveguide Theory”, Chapman & Hall, London, 1996 (Reprinted).

[8] N. Lagakos et al., Multimode optical fiber displacement sensor, Applied Optics, 20 (1981) 167-168.

[9] W. J. Spillman, Multimode fiber-optic hydrophone based on a schlieren technique, Applied Optics, 20 (1981) 465-470.

[10] A. Wang et al., Self-referenced fibre optic sensor for microdisplacement measurement, Opt. Eng. 34 (1995) 240–242.

[11] K. Das et al., Fibre-optic microdisplacement sensor based on diffraction grating, Microwave Opt. Technol. Lett. 32 (2002) 446–9.

[12] M. Lomer et al., Principle of functioning of a self-compensated fibre-optical displacement sensor based on diffraction-grating-ended POF, Meas. Sci. Technol. 15 (2004) 1474–1478.

[13] J. Ye and S.T. Cundiff, “Femtosecond optical frequency comb technology” (Springer, Boston 2005).

E-mail: [email protected]

Page 31: Ecipe Rue Special 2010

30ECIPERÚ

Tecnologías de comunicación basadas en la actividad cerebral

Communication technologies based on brain activity Avid Román GonzálezTELECOM ParisTech, 46 rue Barrault, 75013, París, Francia

RESUMEN

En este artículo presentamos una descripción de los sistemas de comunicación basados en la actividad cerebral, específicamente las interfaces cerebro-computador, sus principios, aplicaciones y los últimos avances en este campo. Las interfaces cerebro-computador están orientadas a brindar un medio de comunicación y control a las personas que sufren de una pérdida severa de su función motora como resultado de diferentes accidentes y/o enfermedades, para que puedan controlar e interactuar mejor con su entorno. Actualmente también se ve la posibilidad de que personas sanas puedan utilizar este tipo de interfaces. Para implementar una interfaz cerebro-computador es necesario adquirir señales electroencefalográficas de la actividad cerebral, procesarlas e interpretarlas para tomar las medidas correspondientes.Descriptores: interfaz cerebro-computador, EEG, ICC, control por pensamiento, rehabilitación

ABSTRACT

In this article we present a description of communication systems based on brain activity, specifically the brain computer interfaces, principles, applications and recent advances in this field. The brain computer interfaces are designed to provide a communication and control system to people who suffer a severe loss of motor function resulting from various accidents and / or diseases, so they can control and interact better with their environment. Currently, there is the possibility that healthy people can use this interfaces. To implement a brain computer interface is necessary to acquire electroencephalogram signals of brain activity, process them and interpret them to take appropriate actions.Keywords: brain computer interface, EEG, ICC, thought control, rehabilitation

INTRODUCCIÓN

Existe un número significativo de personas que sufren discapacidades motoras severas debido a diversas causas, como lesiones cervicales altas, parálisis cerebrales, esclerosis múltiple o distrofias musculares. En estos casos, los sistemas de comunicación basados en la actividad cerebral juegan un papel importante y proveen una nueva

forma de comunicación y control, ya sea para incrementar la integración en la sociedad o para proveer de medios que permitan a estas personas desenvolverse dentro de su entorno sin la necesidad de una asistencia permanente.

Existen diversas técnicas y paradigmas en la implementación de interfaces cerebro-computador (ICC) o BCI (por sus siglas en inglés; Brain

Page 32: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

31ECIPERÚ

Computer Interface). Una interfaz cerebro-computador es un sistema de comunicación que permite generar una señal de control a partir de señales cerebrales, tales como el electroencefalograma y los potenciales evocados. La comunicación entre las dos partes esenciales que forman la BCI (cerebro y computador) está regida por el hecho de que el cerebro genera el comando y la computadora debe interpretarlo [1].

La esclerosis lateral amiotrófica (ELA) o ALS (por sus siglas en inglés; amyotrophic lateral sclerosis) es una enfermedad neurodegenerativa progresiva y se caracteriza por la muerte de las neuronas motoras, lo cual se convierte en una pérdida del control sobre los músculos voluntarios [2, 3, 6]. Un golpe u otro accidente cerebro-vascular puede conducir a la degeneración de partes del cerebro, lo cual hace que las personas no puedan comunicarse más con su entorno, a pesar de disponer de sus facultades cognitivas. Esto es lo que se conoce como síndrome de “Locked-In”. En Francia, existe aproximadamente 500 pacientes que padecen este síndrome y entre 8000 y 9000 pacientes que padecen ALS, según datos publicados en 2008 [4, 7].

Para poder medir y estudiar la actividad cerebral se cuenta con distintas señales y métodos tales como: la imagen por resonancia magnética (MRI), la tomografía computarizada (CT), la escala ECOG, la tomografía por emisión de fotones individuales (SPECT), la tomografía por emisión de positrones (PET), la magnetoencefalografía (MEG), el MRI funcional (fMRI); pero estas señales no son prácticas para poder implementar una interfaz hombre-máquina, ya sea porque solo dan información anatómica, o son técnicas muy invasivas, o es mucha exposición a la radiación, o son muy caras [5, 7]. Por ello, trabajar con señales electroencefalográficas (EEG) es la alternativa más conveniente, y las BCI se basan en la detección de las señales EEG asociadas a ciertos estados mentales.

El objetivo de este artículo es brindar una introducción y las bases en el campo de la investigación de las BCI. En la primera parte de este artículo, se hace una revisión teórica sobre las señales EEG y cómo posicionar los electrodos para poder medirlas. En la segunda parte, mostramos a la interfaz cerebro-computador propiamente dicha,

los diferentes modelos y sus varias aplicaciones. Finalmente, presentamos una aplicación específica de BCI, el control de una silla de ruedas, y las conclusiones respectivas.

El electroencefalograma EEG

El electroencefalograma (EEG) es un estudio de la función cerebral que recoge la actividad eléctrica del cerebro. Para recoger la señal eléctrica cerebral se utilizan electrodos colocados en el cuero cabelludo, a los que se añade una pasta conductora para posibilitar que la señal eléctrica cerebral, que es de una magnitud de microvoltios, se pueda registrar y analizar.

Las señales electroencefalográficas tienen diferentes ritmos dentro de la banda de frecuencia, con las características [1] [7] que presentamos a continuación.

Ritmo alfa o mu. Es propio del estado de vigilia y de reposo físico y mental con los ojos cerrados:

variable;

visuales (reactividad); y En la infancia no es diferenciable; después de

los ocho años, 10 Hz; plenamente establecido después de los 12 años.

Ritmo beta. Es propio del estado de vigilia en estados de activación cortical (reemplazo de α):

morfología variable;

predominante en sujetos ansiosos, inquietos e inestables; y

Ritmo tetha. Es propio del estado de sueño profundo y normal en la infancia (10 años); anormal durante la vigilia:

emocionales);

(hiperventilación y estados de sueño profundo);

Page 33: Ecipe Rue Special 2010

Número especial 2010

32ECIPERÚ

parietotemporal.

Ritmo delta. Es propio de estados patológicos indicativos de sufrimiento neuronal (coma), y ocasional durante estados de sueño profundo:

morfología variable;

Figura 1: Ritmos del EEG en dominio del tiempo y frecuencia [6, 7].

En las señales EEG, se pueden observar los denominados potenciales evocados, que consisten en exploraciones neurofisiológicas que evalúan la función del sistema sensorial acústico, visual, somatosensorial y sus vías por medio de respuestas provocadas frente a un estímulo conocido y normalizado. Existen diversos tipos de potenciales evocados relacionados a eventos

(ERP), como los potenciales evocados visuales (VEP), los potenciales evocados acústicos (PEA), los potenciales evocados motores (MRP), los potenciales evocados visuales de bajo nivel (SSVEP), etc. [2, 3, 4, 8 y 9]

Sistema internacional de posicionamiento de electrodos 10/20

Aunque hay varios sistemas diferentes (Illinois, Montreal, Aird, Cohn, Lennox, Merlis, Oastaut, Schwab, Marshall, etc.), el sistema internacional 10/20 es el más utilizado en la actualidad. Según este sistema, para situar los electrodos se procede de la forma siguiente: El electrodo inactivo o común se coloca alejado del cráneo (lóbulo de la oreja, nariz o mentón). Se cuenta con puntos de referencia tales como el nasión y el inión. Desde el diez por ciento por encima de los puntos de referencia se encuentran los planos prefrontal y occipital. El resto esta dividido en cuatro partes iguales de 20% cada una.

Existen cinco planos transversales:

izquierda.

Figura 2: Posicionamiento de los electrodos.

El número de electrodos a utilizar y la posición de los mismos dependen del tipo de señal en particular que deseamos analizar. Las oscilaciones de la corteza sensoriomotora cambian de forma dinámica con la ejecución del movimiento de algún miembro:

SpectialFower

Page 34: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

33ECIPERÚ

Figura 3: Homúnculo sensorial y motor [10].

Las interfaces cerebro-computador

Una interfaz cerebro-computador es un sistema de comunicación que permite generar señales de control a partir de señales cerebrales; es decir, un BCI es un sistema que traduce la actividad cerebral en comandos para una computadora u otro dispositivo. Un BCI permite al usuario interactuar con su entorno usando simplemente la actividad cerebral, sin usar nervios ni músculos.

Un diagrama de bloques general para una interfaz cerebro-computador se muestra a continuación:

Figura 4: Diagrama de bloques general para un BCI.

Adquisición de datos. Para la adquisición de datos se utiliza electrodos, amplificadores de señal y filtros analógicos. Por ejemplo, en [1] se utilizó electrodos de 8 mm de Ag/AgCl y la señal se amplificó con un amplificador EEG de ocho canales modelo Procomp Infinity. Para la fijación de electrodos se necesita utilizar pasta y/o gel conductor, y medir la impedancia de los electrodos para estar seguros de que están bien fijados, pues dicha impedancia debe ser menor a 5 K ohmios [1].

Figura 5: Electrodos.

Figura 6. Gel y pasta conductora.

Figura 7: Fotografía con los electrodos fijados.

Extracción de características. La etapa de extracción de características es probablemente el paso más crítico en el procesamiento de señales EEG. El objetivo de este paso es crear una representación manejable y significativa de la señal original EEG, con vista a maximi zar el éxito potencial de la etapa de clasificación y, a su vez, el rendimiento global del sistema. Un segundo objetivo de la etapa de extracción de características es comprimir los datos sin pérdida de información relevante, con objeto de reducir el número de variables de entrada en la fase de clasificación para que pueda operar en tiempo real. Para la extracción de características, existen muchos métodos como: los parámetros autorregresivos utilizados en [1 y 15], el promedio de la transformada rápida de Fourier (FFT) utilizado en [11], el promedio de la señal en el dominio del tiempo por ventanas utilizado en [12], el análisis de componentes independientes en [13, 14], etc.

Page 35: Ecipe Rue Special 2010

Número especial 2010

34ECIPERÚ

Clasificación. La fase de clasificación es la tarea final del proceso. La entrada al algoritmo de clasificación es el conjunto de características extraídas en la etapa anterior, y la salida es una indicación del estado mental del usuario. Al igual que en el paso anterior, existen varios métodos para clasificar los datos, los cuales son explicados en cada uno de los artículos mencionados en las referencias, en especial en [16].

A continuación veremos algunos tipos de BCI:

A. Interfaces asíncronas: Este tipo de interfaces analiza la actividad voluntaria del usuario, conservando en todo momento un enlace de comunicación con el sistema. En este caso, el sistema analiza de manera continua las señales provenientes de la actividad cerebral del usuario y clasifica periódicamente su estado mental. En otros casos, la interface puede medir las variaciones temporales en los ritmos ligados a la actividad motriz del usuario. Estas variaciones de amplitud pueden ser detectadas para luego transformarlas en comandos. El análisis de la actividad motora necesita de un largo entrenamiento.

La actividad cerebral espontánea produce los siguientes tipos de señales utilizados en las interfaces [4]:

1) Variación de potenciales corticales lentos (SCPS: Slow Cortical Potential Shifts);

2) Actividad oscilatoria sensoriomotriz; y3) Señales EEG espontáneas.

B. Interfaces síncronas: Este tipo de interfaces analizan las señales EEG de potenciales evocados por los estímulos recibidos por el usuario desde el sistema (pueden ser estímulos visuales, auditivos o táctiles). En este caso, el sistema es el que realiza la tarea de comunicación y el usuario simplemente reacciona o no a una serie de estímulos, y no se trabaja con la actividad espontánea del cerebro, si no con la respuesta del cerebro a estímulos para luego transformar esta respuesta en comandos. Para este tipo de interfaces se necesita un aprendizaje limitado.

Los principales tipos de señales que se utilizan en estas interfaces síncronas son [4]:

1) Potenciales evocados visuales de bajo nivel (SSVERs: Steady State Visual Evoked Responses) y

2) Potenciales evocados por un evento (ERPs: Event Related Potentials).

C. Interfaces invasivas o no invasivas: Las señales de la actividad cerebral mensurables pueden ser a nivel del cuero cabelludo, como el electroencefalograma (EEG); a nivel de la corteza, como el electrocorticograma (ECoG); o hay la necesidad de implantar electrodos en el cerebro. Por lo tanto, podemos distinguir los métodos invasivos, como aquellos que necesitan la instalación de electrodos en el interior del cráneo, y los métodos no invasivos, como aquellos que pueden medir las señales solo por la superficie del cuero cabelludo [4, 17].

En los métodos invasivos, el electrodo conectado directamente a una neurona mide su actividad eléctrica postsináptica y/o los potenciales emitidos sobre su axón [4]. La técnica no invasiva más utilizada es la de trabajar con las señales EEG recogidas de los electrodos situados sobre el cuero cabelludo.

Figura 8: Método invasivo para medir la actividad cerebral [18].

D. BCI Deletreador P300: Este tipo de BCI fue inicialmente propuesto por Farwell y Donchin [19] y también fue estudiado en [4] y [20]. Es una interface de comunicación no invasiva basada en los potenciales evocados relacionados a eventos ERP de tipo P300. Esta interfaz permite al usuario escribir un texto en el computador. Es una matriz de 6 x 6 que se muestra en la pantalla y esta constituida de 26 letras del alfabeto, 9 cifras y de un símbolo que permite la anulación de la selección precedente.

Page 36: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

35ECIPERÚ

El deletreador P300 está basado en un paradigma que consiste en presentar estímulos en forma de iluminaciones de cada renglón o columna. La tarea del usuario consiste en prestar atención al caracter que desea seleccionar y contar las veces que es afectado por una iluminación. Las iluminaciones se realizan de una manera aleatoria y repitiéndose varias veces por cada caracter.

Figura 9: Matriz del deletreador P300.

Las aplicaciones de las interfaces cerebro-computador pueden ser diversas, empezando por el control de desplazamiento de un cursor sobre una pantalla [1], los videojuegos en multimedia, en robótica y control de procesos, aplicaciones aeroespaciales para ayudar a los astronautas a manipular robots como se explica en [21], el control de una silla de ruedas, que veremos en la siguiente sección, etc.

Figura 10: Control de un cursor sobre la pantalla de un computador [1]

Control de una silla de ruedas con BCI

En la actualidad son varios los equipos de investigación que trabajan en el desarrollo y mejora

del sistema de control de una silla de ruedas basado en las medidas de las señales electroencefalográficas de la actividad cerebral de los pacientes que sufren pérdida severa de la actividad motora. En este ámbito, uno de los primeros en presentar un prototipo de silla de ruedas controlada por señales EEG fue Tanaka [24], y también fue estudiado en [4]. Tanaka utiliza un BCI no invasivo asíncrono analizando señales EEG entre 0,5 y 30 Hz. En la fase de entrenamiento del sistema, el usuario debe imaginar los desplazamientos hacia la izquierda y derecha durante 20 segundos para cada movimiento. La adquisición se realiza a 1024 Hz y en base a estas señales el sistema aprende a discriminar entre ambos tipos de movimiento.

Uno de los últimos trabajos sobre control de silla de ruedas con señales EEG fue presentado por Toyota en junio del 2009 [22]. Este sistema tiene la capacidad de analizar las ondas de la señal EEG cada 125 milisegundos y tomar una decisión, ya sea de voltear a la izquierda, voltear a la derecha o avanzar. El análisis de las ondas son mostradas en tiempo real en la pantalla de la computadora para poder dar una retroalimentación visual. Este sistema utiliza un movimiento en la mejilla para poder frenar o parar la silla de rueda, y este movimiento puede ser efectuado por una acumulación de aire en dicha zona.

Figura 11: Silla de ruedas controlada por BCI de Toyota [22].

Otro trabajo con control de silla de ruedas basado en EEG, se realiza mediante el proyecto OpenViBE

Page 37: Ecipe Rue Special 2010

Número especial 2010

36ECIPERÚ

[18] y [23] presentado en el 2009 OpenViBE, plataforma libre para poder desarrollar aplicaciones con BCI. Dentro de estas distintas aplicaciones, una fue la del control de una silla de ruedas, para la cual se utiliza electrodos en las posiciones C3 y C4 de la posición internacional de electrodos 10/20 para poder captar las señales de intención de movimiento de la mano derecha o izquierda y con ello representar el giro de la silla hacia la derecha o izquierda, respectivamente. Para señales EEG que representen el movimiento de pies, se coloca un electrodo en la parte frontal, y con ello se representa el avance de la silla de ruedas. En un primer instante se percibe que es muy difícil de manejar la silla de ruedas con estas premisas, por lo que en un segundo experimento se usa la señal de los pies para seleccionar entre varios destinos objetivo. Así, una vez seleccionado el destino, la silla de ruedas utiliza otros algoritmos para poder llegar al destino seleccionado y logra avanzar por tramos.

CONCLUSIONES

En el presente artículo hemos tratado de presentar el trabajo que realizan los distintos grupos de investigación que estudian las interfaces cerebro-computador o BCI. Cada uno de estos equipos tiene diferentes técnicas, métodos, enfoques, pero todos apuntan a desarrollar una herramienta que pueda ayudar a las personas que sufren de una pérdida severa de su capacidad motriz a poder interactuar de mejor manera con su medio ambiente. Hoy en día también están involucradas las personas que gozan de buena salud y pueden utilizar este tipo de interfaces para realizar tareas complicadas o en entornos peligrosos.

Por medio del presente artículo, queremos brindar las bases y fundamentos para el desarrollo de una interfaz cerebro-computador y mostrar los diferentes pasos para implementar un BCI, así como las diferentes etapas de procesamiento y análisis con las diferentes técnicas empleadas actualmente.

Los aspectos mas importantes que se deben tener en cuenta para obtener buenos resultados son: Una buena fijación de los electrodos en el cuero cabelludo, para lo cual es necesario realizar una medida de la impedancia del electrodo situado en el cuero cabelludo, que debe ser menor a 5 K ohmios;

y una etapa de entrenamiento previo, aunque existen investigaciones que tratan de realizar la discriminación de tareas sin entrenamiento, sumado a que cada persona tiene una manera distinta de manejar su actividad cerebral [1].

Los resultados obtenidos hasta el momento son muy alentadores, llegando en algunos casos a porcentajes del 93% de efectividad. Pero aún es necesario seguir trabajando al respecto, para aumentar el grado de libertad, una mejor definición de estados y rapidez en la interpretación para poder llegar a tener aplicaciones más complejas.

REFERENCIAS

[1] A. Román González, “System of Communication and Control based on the Thought”, IEEE International Conference on Human System Interaction – I’10, Poland, May, 2010.

[2] U. Hoffmann, J. Vesin, T. Ebrahimi, “Recent Advances in Brain-Computer Interfaces”, Ecole Polytechnique Federale de Laussanne (EPFL), Switzerland.

[3] J. R. Wolpaw, N. Birbaumer, D. J. McFarland, G. Pfurtscheller, T. M. Vaughan, “Brain-Computer Interfaces for Communication and Control”, Clinical Neurophysiology 113 (2002) – ELSEIVER, 767-791.

[4] C. Lecocq, F. Cabestaing, “Les Interfaces Cerveau-Machine pour la Palliation du Handicap Motor Severe”, LAGIS – Laboratoire d’Automatique, Génie Informatique & Signal, Université des Sciences et Technologie de Lille, 2008.

[5] J. C. Lee, D. S. Tan, “Using a Low-Cost Electroencephalograph for Task Classification in HCI Research”, UIST 2006, Montreux Switzerland.

[6] S. Kuo-Kai, L. Po-Lei, L. Ming-Huan, L. Ming-Hong, L. Ren-Jie, Ch. Yun-Jen, “Development of a Low-Cost FPGA-Based SSVEP BCI Multimedia Control System”, IEEE Transaction on Biomedical Circuits and Systems, vol. 4, N° 2, April 2010, 125-132.

[7] M. Kirby, “Some Mathematical Ideas for Attacking the Brain Computer Interface Problem”, Departement of Mathematics, Colorado State University.

[8] H. Gollee, I. Volosyak, A. J. McLachlan, K. J. Hunt, A. Graser, “An SSVEP Based Brain-Computer Interface for the Control of Functional Electrical Stimulation”, IEEE Transaction on Biomedical Engineering, 2010.

[9] L. J. Trejo, R. Rosipal, B. Matthews, “Brain-Computer Interfaces for 1-D and 2-D Cursor

Page 38: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

37ECIPERÚ

Control: Design Using Volitional Control of the EEG Spectrum or Steady-State Visual Evoked Potentials”, IEEE Transaction on Neural Systems and Rehabilitation Engineering, vol. 14, N° 2, pp. 225-229, June 2006.

[10] T. Solis Escalante, G. Pfurtscheller, “Brain Switch Asincrónico Basado en Ritmos Sensorimotores”, Seminario de Bioingeniería Elche, junio 2009.

[11] F. Alarid-Escudero, T. Solis-Escalante, E. Melgar, R. Valdes-Cristerna, O. Yañez-Suarez, “Registro de Señales de EEG para Aplicaciones de Interfaz Cerebro Computadora (ICC) Basado en Potenciales Evocados Visuales de Estado Estacionario (PEVEE)”, Universidad Autónoma Metropolitana, México.

[12] G. Pfurtscheller, F. H. Lopes da Silva, “Event-related EEG/MEG Synchronization and Desynchronization: Basic Principles”, Clinical Neurophysiology 110 (1999) 1842-1857, ELSEIVER.

[13] B. Kamousi, Z. Liu, B. He, “Classification of Motor Imagery Tasks for Brain-Computer Interface Applications by Means of Two Equivalent Dipoles Analysis”, IEEE Transaction on Neural Systems and Rehabilitation Engineering, vol. 13, N° 2, pp. 166-171, June 2005.

[14] A. Kachenoura, L. Albera, L. Senhadji, P. Comon, “ICA: A Potential Tool for BCI System”, IEEE Signal Processing Magazine 2008, 25(1): 57-88.

[15] F. Faradji, R. K. Ward, G. E. Birch, “A Brain-Computer Interface Based on Mental Task with Zero False Activation Rate”, IEEE EMBS Conference on Neural Engineering, April 2009, Turkey.

[16] K. Tavakolian, F. Vasefi, K. Naziripour, S. Rezaei, “Mental Task Classification for Brain Computer

Interface Applications”, Canadian Student Conference on Biomedical Computing.

[17] J. Milan, J. M. Carmena, “Invasive or noninvasive: understanding brain–machine interface technology”, IEEE Engineering in Medicine and Biology Magazine, January 2010, pp. 16-22.

[18] A. Lecuyer, “Interfaces Cerveau-Machine: Avancees Recentes et Perspectives a travers le Projet Open-ViBE”, Journée IRISATECH, 2007.

[19] L. A. Farwell and E. Donchin, “Talking off the top of your head: A mental prosthesis utilizing event-related brain potentials”, Electroencephalography and Clinical Neurophysiology, vol. 70, pp. 510-513, 1988.

[20] E. García Cossio, G. Gabriel Gentiletti, “Interfaz Cerebro Computadora (ICC) Basada en el Potencial Relacionado con Eventos P300: Analisis del Efecto de la Dimension de la Matriz de Estimulacion sobre su Desempeño”, Revista Ingenieria Biomedica, vol. 2, N° 4, pp. 26-33, julio 2008.

[21] Z. Ma, R. Millar, R. Hiromoto, A. Krings, “Logics in Animal Cognition: Are They Important to Brain Computer Interfaces (BCI) And Aerospace Mission”, IEEE AC, 2010.

[22] Toyota Motor Corporation, “Real-time control of wheelchairs with brain waves”, RIKEN, 2009.

[23] Y. Renard, V. Delannoy, “OpenViBE Platform Development Training Course”, INRIA, January 2009.

[24] K. Tanaka, K. Matsunaga, H. Wang, “Electroencephalogram-based control of an electric wheelchair”, IEEE Transaction on Robotics, vol. 21, N° 4, 762-766, 2005.

E-mail: [email protected]

Page 39: Ecipe Rue Special 2010

38ECIPERÚ

Mecanismos moleculares de la sensibilidad al frío en las vísceras

Molecular mechanisms of visceral cold sensitivityOtto Fajardo BenavidesFriedrich Miescher Institute for Biomedical Research, Basilea, Suiza

RESUMEN

La capacidad que poseemos para sentir la temperatura de los objetos al tocarlos con la piel se debe a terminales nerviosas sensibles a los cambios térmicos. Estas terminales nerviosas transforman el estímulo físico térmico en impulsos eléctricos que el sistema nervioso puede comprender y procesar. En el caso de la sensibilidad al frío moderado en la piel, se ha demostrado recientemente que la presencia de la proteína TRPM8 en las terminales nerviosas explica la capacidad de las mismas de sentir el frío. Por otra parte, los mamíferos poseemos terminales nerviosas sensibles al frío no sólo en la piel, sino además en los órganos internos. Sin embargo se conoce mucho menos acerca de las características y función de estas terminales nerviosas termosensibles viscerales. Nosotros nos preguntamos cuáles serían los mecanismos moleculares de la sensibilidad al frío en las terminales nerviosas viscerales termosensibles. Nuestros resultados demuestran que la proteína que brinda sensibilidad a esas terminales nerviosas viscerales es una proteína llamada TRPA1, en contraste con lo que sucede en la piel. Durante el desarrollo del trabajo antes descrito, descubrimos también que el nifedipino y otras dihidropiridinas, fármacos usados en el tratamiento de la hipertensión, activan la proteína TRPA1. Descriptores: neurofisiología, frío, vísceras, TRPA1

ABSTRACT

We can sense the temperature of the objects we touch, thanks to thermosensible nerve terminals in the skin. These nerve terminals transform the thermal stimuli in electric impulses, which the nervous system can process. Regarding mild cold sensitivity in the skin, it has been recently demonstrated that the presence of the protein TRPM8 in nerve terminals can explain the sensitivity of these terminals to decreases in temperature. At the same time, mammals have thermosensible nerve terminals not only in the skin, but also in the internal organs. However, much less is known about the characteristics and function of these. Therefore, we decided to study the molecular mechanisms of the cold sensitivity of these thermosensible visceral nerve terminals. Our results demonstrate that the main protein mediating cold sensitivity on visceral nerve terminals is TRPA1 in high contrast with the skin, where it is TRPM8. While working in this project, we also found that nifedipine and other dihydropiridines, drugs used on arterial hypertension treatment, can activate the protein TRPA1. Keywords: neurophysiology, cold, viscerae, TRPA1

Page 40: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

39ECIPERÚ

INTRODUCCIÓN

El presente artículo explica en forma general parte del trabajo que realicé para la obtención del título de Doctor en Neurociencias, en el Instituto de Neurociencias de Alicante en España, en el Laboratorio de Transducción Sensorial y Nocicepción, bajo la dirección de los doctores Carlos Belmonte Martínez, Félix Viana de la Iglesia y Roberto Gallego Fernández. Este trabajo generó dos artículos publicados en sendas revistas internacionales [1, 2]. Actualmente realizo mi labor investigadora en Basilea, Suiza, como investigador postdoctoral, en el campo de la neurofisiología y optogenética.

Los órganos de los sentidos nos permiten a los humanos y a los seres vivos en general relacionarnos con el mundo exterior: ver una escultura, oír nuestra pieza musical preferida, saborear los alimentos, percibir el perfume de las flores, conocer la forma, textura y temperatura de los objetos que tocamos y evitar los estímulos dañinos al percibirlos como dolorosos. Los órganos de los sentidos captan lo que sucede en el medio que nos rodea y envían esta información al sistema nervioso central (que está compuesto por el cerebro y la médula espinal), el cual elaborará una respuesta adecuada, como por ejemplo alejarnos de un estímulo que nos causó dolor, o llevarnos un oloroso y apetitoso pastel a la boca.

El laboratorio en el cual realicé la tesis doctoral está interesado en ahondar el conocimiento en el sentido del tacto, en particular en las sensaciones de temperatura y dolor, ya que ambas pueden estar alteradas en pacientes con dolor crónico.

Las sensaciones de temperatura y dolor se originan en terminales nerviosas en la piel, en las cuales se lleva a cabo la transformación del estímulo físico (presión, calor, frío) o químico (sustancias irritantes) en impulsos eléctricos (llamados potenciales de acción), los cuales constituyen las “palabras” del código con el cual las diversas partes del sistema nervioso se comunican entre sí, al igual que los puntos y rayas en un telégrafo o los 0 y 1 en un ordenador. A este fenómeno de transformación de un estímulo externo se denomina “transducción sensorial”. Luego, los impulsos eléctricos viajan

a través de los nervios, como si fuese a través de cables, hasta neuronas en la médula espinal, y de allí la información es llevada al cerebro, en donde nacerá la sensación consciente de dolor, calor o frío (fig. 1).

Figura 1: Esquema de una neurona sensorial primaria. Los somas de varias neuronas de este tipo se agrupan en estructuras llamadas ganglios sensoriales.

En los últimos años, ha habido un gran avance en el campo de la transducción sensorial de la temperatura, al descubrirse que muchos de los miembros de una familia de proteínas llamadas TRP (las siglas vienen del acrónimo inglés Transient Receptor Potential, o potencial de receptor transitorio) se activan por cambios de temperatura y se encuentran en las terminales nerviosas de la piel (para una revisión se puede consultar [3]).

El trabajo de diversos grupos en el mundo entero durante los últimos siete años ha demostrado que la molécula responsable de la detección de descensos de temperatura moderados en la piel (cambios de hasta 20 ºC en el interior de la piel, donde residen las terminales nerviosas) es una proteína llamada TRPM8, la cual es sensible además al compuesto activo de la menta, el mentol (por ello si comemos un chicle con menta sentimos una sensación refrescante en la boca) [4-8]. Descensos de temperatura más pronunciados (de más de 20 ºC, frío nocivo) evocan una sensación dolorosa y en este caso no se sabe aún si la molécula responsable es TRPM8 u otras diferentes, existiendo varias candidatas. Una de estas candidatas es la proteína TRPA1, la cual media la sensibilidad a una gran variedad de irritantes químicos como el gas lacrimógeno [9], hipoclorito de sodio (lejía) [10], humo de cigarrillo [11], aceite de mostaza [12] y de canela [13], etc., y cuyo papel en la sensibilidad al frío nocivo es sin embargo muy discutido, habiendo evidencia tanto

Page 41: Ecipe Rue Special 2010

Número especial 2010

40ECIPERÚ

a favor de que media la sensibilidad al frío nocivo [13-15], como a favor de que no juega ningún papel en el fenómeno [9,12,16] .

Además de poseer terminales nerviosas en la piel, las tenemos en las vísceras, ya que también necesitamos información sobre el estado de nuestro interior. Curiosamente se ha reportado que algunas terminales del nervio vago (una de las principales fuentes de inervación visceral) en órganos como la laringe, el esófago o el estómago son sensibles al frío [17-20]. Sin embargo se sabe muy poco con respecto a estas terminales. Nosotros nos preguntamos si estos nervios sensibles al frío viscerales usan la misma molécula que las terminales cutáneas, TRPM8, para transformar los descensos de temperatura en impulsos nerviosos.

MÉTODO EXPERIMENTAL

Para responder a la pregunta de cuál es la proteína responsable de la sensibilidad al frío en las terminales nerviosas viscerales, medimos la actividad eléctrica de dichas neuronas en cultivo mediante los métodos de patch clamp e imagen de calcio, los cuales describiremos a continuación.

Cultivo de neuronas sensoriales viscerales

Las terminales nerviosas de la piel o las vísceras, son en realidad prolongaciones de neuronas, cuyos somas (es decir cuerpo) residen agrupados en un “ganglio sensorial” (fig.1). El nervio vago posee dos ganglios, el yugular y el nodoso, de los cuales el segundo es el más grande. Se considera clásicamente que el ganglio yugular es similar a los ganglios que inervan la piel (de hecho, inerva parte de la piel del oído), mientras que el nodoso inerva solamente las vísceras y posee características diferentes [21]. Por ello decidimos estudiar el ganglio nodoso. Decidimos hacer cultivos de las neuronas del ganglio nodoso, es decir extraer las neuronas y mantenerlas con vida in vitro. Para ello, se anestesia al animal (usamos ratas y ratones), se le eutanasia, y se disecan los ganglios nodosos. Una vez aislados, se cortan, se limpian y se transfieren a una solución enzimática que disgrega el tejido conjuntivo, es decir el cemento que mantiene unidas las células y por ello ayuda a separarlas. Luego de una hora se termina de separar las células haciéndolas pasar por

la punta de una pipeta pulida al fuego. Se añade un medio de cultivo para neuronas (una solución que posee todos los nutrientes necesarios para que las neuronas vivan y crezcan in vitro) y se depositan sobre cristales previamente preparados con un sustrato para que las neuronas se peguen. Tras un día en esta situación, las neuronas se recuperan, extienden nuevamente sus prolongaciones y es posible estudiar sus características.

Registro de patch clamp

Esta técnica permite medir directamente la actividad eléctrica de las neuronas. Para ello se fabrican, a partir de capilares de vidrio, pipetas cuyas puntas tienen unas pocas micras de diámetro. Las pipetas se rellenan con una solución de composición similar al fluido que lleva la neurona en el interior. Se coloca un electrodo de tierra o referencia en el fluido que rodea las neuronas. Luego se conecta la pipeta a una serie de amplificadores eléctricos y bajo un microscopio se pone la punta de la pipeta en contacto estrecho con la superficie de la célula a estudiar y se gana acceso a su interior. Gracias a este sistema se puede medir la diferencia de potencial entre el interior de la célula y el medio circundante y registrar directamente la actividad eléctrica de la neurona.

Imagen de calcio

Esta técnica permite medir la actividad eléctrica neuronal en una forma indirecta. Para ello se pone las neuronas en contacto con una sustancia que puede entrar al interior de dichas neuronas y que tiene la propiedad de emitir fluorescencia en longitudes de onda distintas según esté unida o no a calcio. El calcio es un ión abundante en el medio extracelular, pero escaso dentro de las neuronas. Cuando una neurona genera un impulso eléctrico, muchas veces los iones de calcio pueden pasar al interior de la neurona y unirse a la sustancia que hemos introducido, por lo cual podremos ver un cambio en la emisión de fluorescencia. Medimos, pues, cambios en los niveles intraneuronales de calcio, los cuales están relacionados con la actividad eléctrica neuronal. Esta técnica, si bien es indirecta, tiene la ventaja frente al patch clamp, que permite estudiar muchas neuronas al mismo tiempo, mientras que con el patch clamp sólo se puede

Page 42: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

41ECIPERÚ

estudiar una neurona a la vez, lo cual desde luego, consume mucho tiempo.

Estimulación de las neuronas en cultivo

Mientras realizábamos los registros en imagen de calcio, patch clamp, o ambos al mismo tiempo, estimulábamos las neuronas en cultivo con descensos o ascensos de la temperatura, o la administración de diversos fármacos, con la finalidad de estudiar la respuesta de las neuronas a dichos estímulos. Los fármacos se eligieron según su capacidad para excitar o inhibir proteínas de la familia TRP y, por lo tanto, se usaron como herramienta para discernir la presencia y función de dichas proteínas en las neuronas del ganglio nodoso.

Expresión de proteínas en células CHO

Las neuronas tienen además de la proteína que uno pretende estudiar, muchas otras, las cuales pueden interferir con nuestro estudio. Para conocer más acerca de las propiedades de una proteína aislada, se puede expresar dicha proteína en una célula huésped, que normalmente no la exprese. Nosotros usamos células CHO (células provenientes de ovario de hámster chino) a las cuales se les había introducido el ADN de la proteína TRPA1, procedimiento que logra que las células CHO expresen dicha proteína, lo cual permite estudiarla en forma aislada.

RESULTADOS Y DISCUSIÓN

La primera pregunta que nos planteamos fue si las neuronas del ganglio nodoso de rata en cultivo respondían al frío. Para ello usamos la técnica de imagen de calcio, ya que permite el estudio de múltiples neuronas al mismo tiempo. Administramos descensos de temperatura, desde una temperatura basal de 35 ºC a una temperatura de 12 ºC, a un total de 857 neuronas, de las cuales 419 (49%), respondieron al frío con aumentos en la concentración de calcio intracelular (fig. 2A y 2B). Estas respuestas fueron altamente reproducibles, ya que se administró tres rampas consecutivas a 14 neuronas y todas ellas respondieron en cada una de las rampas administradas (fig. 2C).

Los incrementos del calcio intracelular son, como ya he explicado en el apartado de metodología,

un reportero indirecto de la actividad eléctrica neuronal. Esto quiere decir que el calcio intracelular puede también incrementarse debido a otras razones. Para averiguar si ese incremento en el calcio intracelular se debía realmente a la generación de impulsos eléctricos (lo cual indica que la función de esa neurona es realmente sentir el frío), registramos directamente la actividad eléctrica mediante la técnica de patch clamp. De esta manera corroboramos que el descenso en la temperatura provoca tanto un incremento en los niveles intracelulares de calcio como la generación de impulsos eléctricos (potenciales de acción) (fig. 3A y 3B).

Estos resultados demuestran que efectivamente existen neuronas sensibles a frío en el ganglio nodoso. La proporción de neuronas que respondieron con aumentos en el calcio intracelular en respuesta al frío en el ganglio nodos fue muy alta (49%), en comparación a lo reportado para las neuronas que inervan la piel, ya que se ha descrito alrededor del 10% de neuronas sensibles a frío en dicho tejido [22, 23].

Una vez establecido que una proporción de neuronas del ganglio nodoso era sensible al frío, nos propusimos establecer cuál o cuáles eran las proteínas implicadas en dicha sensibilidad. Razonamos que si en las neuronas que inervan la piel, la principal proteína implicada en la sensibilidad al frío es el TRPM8, quizás en las neuronas del ganglio nodoso también fuera el TRPM8. Para ello administramos el compuesto mentol (que se extrae de la menta), el cual en aquel momento se pensaba activaba únicamente a la proteína TRPM8 [4, 5]. Vimos que una alta proporción de neuronas sensibles al frío (alrededor del 70%) respondieron al compuesto mentol incrementando los niveles intracelulares de calcio (fig. 4A). Este resultado se podía interpretar como que las neuronas del ganglio nodoso respondían a frío mediante la proteína TRPM8, al igual que aquellas que inervan la piel. ¡Parecía que el proyecto se había resuelto rápida y fácilmente!

En neuronas que inervan la piel, la proteína TRPA1 no se expresa en las mismas neuronas que expresan TRPM8 [14]. Se sabía que en el ganglio nodoso había gran cantidad de la proteína TRPA1 [24] y, ya que es otro candidato a mediar la sensibilidad al frío [14], decidimos corroborar que dicha proteína no se

Page 43: Ecipe Rue Special 2010

Número especial 2010

42ECIPERÚ

encontraba en las neuronas sensibles a frío y mentol. Para ello aplicamos el fármaco cinamaldehído (que se extrae de la canela) y que activa específicamente la proteína TRPA1 [13]. Nos dimos con la sorpresa de que el 80% de las neuronas que respondían a frío, lo hacían también a cinamaldehido y al mentol (fig. 4A). Esta situación nos llamó mucho la atención, pues como ya he dicho, en la piel ambas proteínas TRPA1 y TRPM8 no se encuentran juntas en una misma neurona.

Este último experimento abrió la pregunta de si la TRPA1 estaría también implicada en la sensibilidad al frío. Para intentar resolver esto, usamos un fármaco llamado BCTC, que tiene la extraña propiedad de inhibir TRPM8 pero excitar TRPA1 [25]. Nosotros esperábamos que al aplicar este fármaco a la vez

Figura 2: Caracterización de la respuesta a frío de las neuronas del ganglio nodoso. A. Registro simultáneo de calcio intracelular (trazos superiores) y temperatura (trazo inferior) durante la aplicación de rampas de frío en una neurona sensible (SF, trazo azul) y en otra insensible (IF, trazo rojo) al frío. B. Fotografías de luz transmitida y de fluorescencia en una escala de color, de las dos neuronas cuyos registros aparecen en A (la neurona SF, a la izquierda) y tomadas en los momentos indicados por las líneas con igual rotulación. C. Respuesta de una neurona sensible al frío a tres rampas sucesivas de frío.

Figura 3: Cambios de voltaje y de calcio intracelular en respuesta al frío. A. Registros simultáneos del potencial de membrana, temperatura e imagen de calcio en una neurona sensible al frío (SF). Nótese la despolarización, generación de impulsos eléctricos (flecha) y elevación del calcio intracelular en respuesta al frío. B. Falta de respuesta en una neurona insensible al frío (IF).

que el frío, tuviéramos una inhibición total de la respuesta a frío, lo cual indicaría que sólo TRPM8 mediaba dicha respuesta o quizás una inhibición parcial, lo cual indicaría que TRPM8 y TRPA1 mediaban ambos la respuesta. ¡Sin embargo en lugar de obtener una inhibición obtuvimos una excitación o potenciación de la mayoría de respuestas a frío! (fig. 4B).

Para aclarar esta paradójica situación, usamos dos fármacos que inhiben TRPA1, el alcanfor (proveniente de la planta del mismo nombre) [26] y el HC-03001 (un compuesto sintético desarrollado recientemente para inhibir la TRPA1) [27], a la vez que las rampas de frío. En estos dos casos, vimos una inhibición completa de las respuestas a frío (figs. 4C y 4D). Estos resultados indicarían que

Page 44: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

43ECIPERÚ

solo la TRPA1 mediaba las respuestas a frío. Sin embargo, ¿qué pasaba con la TRPM8 y las respuestas a mentol? La paradoja se aclaró al ser publicado un trabajo en el cual se describía que el mentol también puede activar el TRPA1, dependiendo de la dosis [28]. A la dosis que nosotros habíamos usado es posible explicar el efecto excitador del mentol sobre las respuestas a frío mediante TRPA1.

Para comprobar la hipótesis de que TRPA1 era la mediadora de la respuesta a frío en el 70% de las neuronas sensibles al descenso a temperatura, usamos ratones “Knock Out” de TRPA1, es decir, ratones a los cuales se les ha inhabilitado el gen que codifica la proteína TRPA1 y por ello carecen de dicha proteína [29]. En estos ratones vimos que todas aquellas neuronas sensibles a frío, mentol y cinamaldehído

estaban ausentes. Esto comprobó finalmente que TRPA1 es el principal mediador de la respuesta a frío en las neuronas del ganglio nodoso. Había sin embargo una pequeña población de neuronas cuya respuesta no estaba mediada por TRPA1 y cuya naturaleza podría ser desentrañada en estudios posteriores.

Estos resultados se publicaron en la revista internacional The Journal of Neuroscience [1] y ayudarán a aclarar el papel de la TRPA1 en la transducción del frío en la piel y además a comprender el rol fisiológico de las fibras vagales sensibles a frío. Se pueden proponer varias funciones fisiológicas para estas fibras nerviosas. En las vías aéreas humanas se producen importantes descensos de temperatura (de hasta 20 °C) cuando se respira aire frío [30]. El aire frío es un irritante de las vías aéreas y puede provocar

Figura 4: Registros simultáneos de imagen de calcio y temperatura de neuronas del ganglio nodoso mostrando el efecto de varios fármacos. A. Efecto excitador del mentol y cinamaldehído (CM). B. Efecto excitador del BCTC. C. Efecto inhibidor de HC03001. D. Efecto inhibidor del alcanfor.

Tabla 1: Efecto de agonistas y antagonistas de las proteínas TRPM8 y TRPA1 sobre la actividad de éstas y sobre las respuestas al frío registradas en neuronas cultivadas del ganglio nodoso.

Mentol Cinamal-dehído BCTC Alcanfor HC03001

TRPM8 + - - 0 0

TRPA1 +/- + + - -

Nodoso + + + - -

Nota: Los signos significan: activación (+), inhibición (-) o ninguna acción (0). Obsérvese que el patrón de respuesta de las neuronas del ganglio nodoso es similar a la de la TRPA1 aislado.

Page 45: Ecipe Rue Special 2010

Número especial 2010

44ECIPERÚ

crisis en pacientes asmáticos [31, 32]. Justamente en el asma inducido por ejercicio, se ha propuesto que al respirar más hondo y más rápido hay menos tiempo de calentar el aire, y este aire frío está desencadenando la respuesta asmática. Si las fibras vagales sensibles a frío estuvieran implicadas en el origen del asma, serían una diana farmacológica para el tratamiento de esta enfermedad. Otras posibles funciones fisiológicas pueden ser el control de la respiración (el aire que inspiramos es más frío que el que espiramos), el control de la motilidad gastrointestinal (el frío reduce dicha motilidad) o la termorregulación (los fármacos agonistas de TRPA1 inducen hipertermia). Hará falta más trabajo de investigación para determinar cuáles de estas posibilidades son válidas y cuáles pueden tener utilidad en la clínica médica.

Durante el transcurso de la investigación antes descrita, también observamos que un fármaco usado para el tratamiento de la hipertensión arterial, la nifedipina, de la familia de las dihidropiridinas, producía incrementos

del calcio intracelular en neuronas del ganglio nodoso sensibles a frío y cinamaldehído (fig. 5A). Elaboramos la hipótesis de que la respuesta a la nifedipina podría estar mediada por la proteína TRPA1. Para comprobar esta hipótesis, aplicamos nifedipina y otras dihidropiridinas a células CHO (células de ovario de hámster chino) que tenían el gen de la TRPA1 y por lo tanto expresaban esta proteína en grandes cantidades. Vimos una notable respuesta en estas células (figs. 5B y 5C). Así comprobamos que la nifedipina y otras dihidropiridinas usadas en la práctica médica para combatir la hipertensión activan la proteína TRPA1. Este descubrimiento se publicó en la revista Channels [2] y podría ayudar a comprender mejor las acciones antihipertensivas de las dihidropiridinas (la TRPA1 también se expresa en las terminales que inervan los vasos sanguíneos, las cuales, cuando se excitan pueden liberar sustancias llamadas neuropéptidos, que a su vez pueden inducir vasodilatación y esto a su vez causar un descenso en la presión arterial [33]) y algunos efectos secundarios de estos fármacos.

CONCLUSIONES

Con estos resultados demostramos que la proteína TRPA1 es la principal mediadora de la sensibilidad al frío en las neuronas del ganglio nodoso en cultivo. También demostramos que las dihidropiridinas, fármacos usados como antihipertensivos, tienen una acción excitadora sobre la proteína TRPA1, acción que no había sido descrita con anterioridad.

AGRADECIMIENTOS

Agradezco a las personas que participaron en el trabajo experimental: mis directores de tesis, los

Figura 5: Efecto activador de la nifedipina sobre la TRPA1. A. Respuesta de una neurona del ganglio nodoso a nifedipina, frío y cinamaldehído (CM). B. Respuesta a la nifedipina en células CHO que expresan TRPA1. C. Falta de respuesta en células CHO control.

doctores Carlos Belmonte Martínez, Félix Viana de la Iglesia y Roberto Gallego Fernández, así como en aquel entonces compañero de estudios de doctorado, y ahora ya doctor, Víctor Meseguer Vigueras. El trabajo experimental fue realizado en el Instituto de Neurociencias de Alicante, España, en el laboratorio de Transducción Sensorial y Nocicepción. Agradezco también al resto de integrantes de dicho laboratorio, los cuales me ayudaron en diversas etapas del trabajo. Por último, agradezco a Ángela Vivó Aguado su ayuda con la corrección del presente manuscrito y su apoyo a lo largo de la realización del trabajo y en el presente.

Page 46: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

45ECIPERÚ

REFERENCIAS

[1] O. Fajardo, V. Meseguer, C. Belmonte, and F. Viana, TRPA1 channels mediate cold temperature sensing in mammalian vagal sensory neurons: pharmacological and genetic evidence, J. Neurosci. 28 (2008) 7863-7875.

[2] O. Fajardo, V. Meseguer, C. Belmonte, and F. Viana, TRPA1 channels: Novel targets of 1,4-dihydropyridines, Channels (Austin.) 2 (2008).

[3] C. Belmonte and F. Viana, Molecular and cellular limits to somatosensory specificity, Mol.Pain 4 (2008) 14.

[4] A. M. Peier, A. Moqrich, A. C. Hergarden, A. J. Reeve, D. A. Andersson, G. M. Story, T. J. Earley, I. Dragoni, P. McIntyre, S. Bevan, and A. Patapoutian, A TRP channel that senses cold stimuli and menthol, Cell 108 (2002) 705-715.

[5] D. D. McKemy, W. M. Neuhausser, and D. Julius, Identification of a cold receptor reveals a general role for TRP channels in thermosensation, Nature 416 (2002) 52-58.

[6] D. M.Bautista, J. Siemens, J. M.Glazer, P. R. Tsuruda, A.I.Basbaum, C. L.Stucky, S. E. Jordt, and D. Julius, The menthol receptor TRPM8 is the principal detector of environmental cold, Nature 448 (2007) 204-208.

[7] A. Dhaka, A. N. Murray, J. Mathur, T. J. Earley, M. J. Petrus, and A. Patapoutian, TRPM8 is required for cold sensation in mice, Neuron 54 (2007) 371-378.

[8] R. W. Colburn, M. L. Lubin, D. J. Stone, Jr., Y. Wang, D. Lawrence, M. R. D’Andrea, M. R. Brandt, Y. Liu, C. M. Flores, and N. Qin, Attenuated cold sensitivity in TRPM8 null mice, Neuron 54 (2007) 379-386.

[9] D. M. Bautista, S. E. Jordt, T. Nikai, P. R. Tsuruda, A. J. Read, J. Poblete, E. N. Yamoah, A. I. Basbaum, and D. Julius, TRPA1 mediates the inflammatory actions of environmental irritants and proalgesic agents, Cell 124 (2006) 1269-1282.

[10] B. F. Bessac, M. Sivula, C. A. von Hehn, J. Escalera, L. Cohn, and S. E. Jordt, TRPA1 is a major oxidant sensor in murine airway sensory neurons, J. Clin.Invest 118 (2008) 1899-1910.

[11] E. Andre, B. Campi, S. Materazzi, M. Trevisani, S. Amadesi, D. Massi, C. Creminon, N. Vaksman, R. Nassini, M. Civelli, P.G. Baraldi, D. P. Poole, N. W. Bunnett, P. Geppetti, and R. Patacchini, Cigarette smoke-induced neurogenic inflammation is mediated by alpha,beta-unsaturated aldehydes and the TRPA1 receptor in rodents, J.Clin.Invest 118 (2008) 2574-2582.

[12] S. E. Jordt, D. M. Bautista, H. H. Chuang, D. D. McKemy, P. M. Zygmunt, E. D. Hogestatt, I. D. Meng, and D. Julius, Mustard oils and cannabinoids excite sensory nerve fibres through the TRP channel ANKTM1, Nature 427 (2004) 260-265.

[13] M. Bandell, G. M. Story, S. W. Hwang, V. Viswanath, S. R. Eid, M.J. Petrus, T. J. Earley, and A. Patapoutian, Noxious cold ion channel TRPA1 is activated by pungent compounds and bradykinin, Neuron 41 (2004) 849-857.

[14] G. M. Story, A. M. Peier, A. J. Reeve, S. R. Eid, J. Mosbacher, T. R. Hricik, T. J. Earley, A. C. Hergarden, D. A. Andersson, S. W. Hwang, P. McIntyre, T. Jegla, S. Bevan, and A. Patapoutian, ANKTM1, a TRP-like channel expressed in nociceptive neurons, is activated by cold temperatures, Cell 112 (2003) 819-829.

[15] Y. Karashima, K. Talavera, W. Everaerts, A. Janssens, K. Y. Kwan, R. Vennekens, B. Nilius, and T. Voets, TRPA1 acts as a cold sensor in vitro and in vivo, Proc.Natl.Acad.Sci.U.S.A (2009).

[16] S. Zurborg, B. Yurgionas, J.A. Jira, O. Caspani, and P.A. Heppenstall, Direct activation of the ion channel TRPA1 by Ca2+, Nat.Neurosci. 10 (2007) 277-279.

[17] El Ouazzani T. and N. Mei, Electrophysiologic properties and role of the vagal thermoreceptors of lower esophagus and stomach of cat, Gastroenterology 83 (1982) 995-1001.

[18] J. K. Lennerz, C. Dentsch, N. Bernardini, T. Hummel, W. L. Neuhuber, and P. W. Reeh, Electrophysiological characterization of vagal afferents relevant to mucosal nociception in the rat upper oesophagus, J. Physiol 582 (2007) 229-242.

[19] G. Sant’Ambrogio, O. P. Mathew, F. B. Sant’Ambrogio, and J. T. Fisher, Laryngeal cold receptors, Respir. Physiol 59 (1985) 35-44.

[20] Y. Jammes, B. Nail, N. Mei, and C. Grimaud, Laryngeal afferents activated by phenyldiguanide and their response to cold air or helium-oxygen, Respir.Physiol 67 (1987) 379-389.

[21] H. R. Berthoud and W. L. Neuhuber, Functional and chemical anatomy of the afferent vagal system, Auton.Neurosci. 85 (2000) 1-17.

[22] F. Viana, E.de la Peña, and C. Belmonte, Specificity of cold thermotransduction is determined by differential ionic channel expression, Nat.Neurosci. 5 (2002) 254-260.

[23] G. Reid, A. Babes, and F. Pluteanu, A cold- and menthol-activated current in rat dorsal root ganglion neurones: properties and role in cold transduction, J.Physiol 545 (2002) 595-614.

Page 47: Ecipe Rue Special 2010

Número especial 2010

46ECIPERÚ

[24] K. Nagata, A. Duggan, G. Kumar, and J. Garcia-Anoveros, Nociceptor and hair cell transducer properties of TRPA1, a channel for pain and hearing, J.Neurosci. 25 (2005) 4052-4061.

[25] R. Madrid, T. Donovan-Rodriguez, V. Meseguer, M.C. Acosta, C. Belmonte, and F. Viana, Contribution of TRPM8 channels to cold transduction in primary sensory neurons and peripheral nerve terminals, J.Neurosci. 26 (2006) 12512-12525.

[26] L. J. Macpherson, S. W. Hwang, T. Miyamoto, A.E. Dubin, A. Patapoutian, and G. M. Story, More than cool: promiscuous relationships of menthol and other sensory compounds, Mol. Cell Neurosci. 32 (2006) 335-343.

[27] C. R. McNamara, J. Mandel-Brehm, D. M. Bautista, J. Siemens, K. L. Deranian, M. Zhao, N. J. Hayward, J. A. Chong, D.J ulius, M. M. Moran, and C. M. Fanger, TRPA1 mediates formalin-induced pain, Proc.Natl.Acad.Sci.U.S.A 104 (2007) 13525-13530.

[28] Y. Karashima, N. Damann, J. Prenen, K. Talavera, A. Segal, T. Voets, and B. Nilius, Bimodal action of menthol on the transient receptor potential channel TRPA1, J. Neurosci. 27 (2007) 9874-9884.

[29] K. Y. Kwan, A. J. Allchorne, M. A. Vollrath, A. P. Christensen, D. S. Zhang, C. J. Woolf, and D. P. Corey, TRPA1 contributes to cold, mechanical, and chemical nociception but is not essential for hair-cell transduction, Neuron 50 (2006) 277-289.

[30] E. R. McFadden, Jr., B. M. Pichurko, H. F. Bowman, E. Ingenito, S. Burns, N. Dowling, and J. Solway, Thermal mapping of the airways in humans, J. Appl.Physiol 58 (1985) 564-570.

[31] Y. S. Cho, S.Y. Park, C. K. Lee, E. Y. Lee, J. H. Shin, B. Yoo, and H. B. Moon, Enhanced cough response to hyperpnea with cold air challenge in chronic cough patients showing increased cough sensitivity to inhaled capsaicin, Allergy 58 (2003) 486-491.

[32] K. Larsson, G. Tornling, D. Gavhed, C. Muller-Suur, and L. Palmberg, Inhalation of cold air increases the number of inflammatory cells in the lungs in healthy subjects, Eur. Respir.J. 12 (1998) 825-830.

[33] D. M. Bautista, P. Movahed, A. Hinman, H. E. Axelsson, O. Sterner, E. D. Hogestatt, D. Julius, S. E. Jordt, and P. M. Zygmunt, Pungent products from garlic activate the sensory ion channel TRPA1, Proc.Natl.Acad.Sci.U.S.A 102 (2005) 12248-12252.

E-mail: [email protected]

Page 48: Ecipe Rue Special 2010

47ECIPERÚ

La investigación de operaciones: Un campo multidisciplinario

Operational research: a multidisciplinary fieldRené Víctor Valqui Vidal*

Departamento de Informática y Modelamiento Matemático, Universidad Técnica de Dinamarca

RESUMEN

Hemos identificado tres escuelas de Investigación de Operaciones (IO): La IO técnica o dura, la IO práctica o blanda y la IO crítica. Siguiendo una perspectiva histórica vamos a presentar estas tres escuelas y sus aplicaciones. La teoría de Habermas sobre los “intereses cognitivos” nos dará un marco para comprender este desarrollo. Finalmente, algunos comentarios sobre el futuro de la IO serán esbozados.Descriptores: situaciones problemáticas, IO dura, IO blanda, IO crítica, creatividad

ABSTRACT

We have identified three schools of Operational Research (OR): The technical or hard OR, the practical or soft OR, and the critical OR. Following a historical perspective we will present these three schools and their applications. Habermas’ theory about the three cognitive interests will provide a framework to understand this development. Finally, some final remarks about the future of OR will be outlined.Keywords: Problematic situations, Hard OR, Soft OR, Critical OR, creativity

INTRODUCCIÓN

Es difícil dar una definición precisa de muchas disciplinas modernas. ¿Qué es la IO? Es una pregunta que no se puede responder de manera breve. La IO nace durante la Segunda Guerra Mundial, donde se usaron métodos científicos para tomar decisiones tácticas y estratégicas. Después de décadas de turbulencia, la comunidad de investigadores operacionales ha finalmente aceptado que hay varias maneras de investigar, trabajar, practicar, aprender y enseñar la IO. Tres escuelas principales han sido identificadas: la IO dura, la IO blanda y la IO crítica. El objetivo principal de este artículo es introducir las características principales de estas escuelas y ver

el desarrollo de la IO en el futuro como un campo multidisciplinario. En Vidal [1] se presenta una versión más extensa de este trabajo que se publicó en la revista brasileña de IO y que incluye una lista de referencias bibliográficas completa.

Comenzaremos presentando la escena de un proyecto real de aplicación de la IO, incluyendo sus elementos y sus interrelaciones.

La escena

Nuestro punto de partida es el concepto de organización. Una organización puede ser una familia, una comunidad o una institución. Lo que

* Dr. Tech., Ph.D., ingeniero, sociólogo y artista visual; profesor en la Universidad Técnica de Dinamarca, Departamento de Informática y Modelamiento Matemático.

Page 49: Ecipe Rue Special 2010

Número especial 2010

48ECIPERÚ

caracteriza una organización es que tiene un propósito y está especialmente diseñada para obtener un objetivo; en otras palabras, una organización es teleológica. El desarrollo de organizaciones esta condicionado por factores externos e internos, y muchas veces la organización confronta situaciones problemáticas, es decir, situaciones complejas donde se tiene que tomar decisiones para llegar a algunos objetivos. Las situaciones problemáticas están generalmente relacionadas a la introducción de nueva tecnología, el rediseño de la organización, el desarrollo de nuevas estrategias, la formulación de nuevas visiones o la solución de problemas en general.

Confrontados con situaciones problemáticas, la organización crea un grupo de trabajo para resolver la situación. El objetivo del grupo es estudiar la situación problemática y dar respuesta a la siguiente

pregunta: ¿Qué se debe hacer? En otras palabras, debe proponer un plan de acción a ser aprobado por los tomadores de decisiones de la organización. Relacionados a estos grupos están los llamados actores, quienes son las personas afectadas directa ó indirectamente por las decisiones tomadas.

Es recomendable que el grupo de trabajo reciba apoyo de un grupo de investigadores operacionales (facilitadores) durante el proceso de resolución de la situación problemática, de tal manera que se llegue a un plan de acción. El facilitador es el experto en métodos y herramientas para el análisis y la resolución de problemas. El facilitador usará métodos cuantitativos, cualitativos, participativos, innovadores o una combinación de ellos (metodología múltiple), dependiendo de la situación problemática que se desea resolver.

La figura 1 muestra los diferentes elementos de un proyecto de IO y sus interrelaciones. De manera muy general, podemos ahora dar una primera definición de la IO como:

Una disciplina de consulta basada en la investigación de una situación problemática real usando métodos que dan soporte al grupo de trabajo en la elaboración de un plan de acción para la solución de los problemas.

Las características esenciales del método de la IO son dos:

Plan de acción

Proceso de resolución

Investigador de operaciones

Tomadores de decisiones

Agentes

Métodos

Herramientas Expertos técnicos

Grupo de Trabajo

Figura 1: La IO en trabajo.

Estructuración de la situación problemática, yModelamiento como una herramienta para resolver problemas.

Un tercer aspecto en la caracterización de la IO está relacionada a la pregunta: ¿Para quién se trabaja?

La práctica de la IO muestra diferentes alternativas, así se puede trabajar para:

trabajador de la IO será un consultor;

Page 50: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

49ECIPERÚ

linear llamado la Programación Lineal (PL) es una herramienta esencial;

simulación en computadoras.

Los fundamentos epistemológicos de la IO dura son los siguientes:

maquinista, todo se debe modelar como máquinas que trabajan perfectamente;

naturales: objetivización, modelamiento matemático y empirismo; y

jerarquía donde las decisiones se toman al nivel de gerencia.

En el decenio de 1970, hubo en Inglaterra una crítica académica de la IO dura basada en los puntos siguientes:

matemática y fetichismo de los modelos;

Bien definidos, tácticos, mansos, y la mayoría técnicos; y

problemáticas y esas no se pueden resolver solamente con la IO dura.

Esta crítica dio lugar al nacimiento de la IO blanda que presentaremos en la sección siguiente.

La IO blanda

Las características de esta escuela son las siguientes:

información cualitativa, entrevistas, diálogo, sistémico y holístico;

SWOT, talleres, escenarios, métodos estratégicos, mapas cognitivos, y métodos sistémicos; y

procesos de grupo.

consensos, en donde el trabajador de la IO será un mediador; o

IO será un facilitador.

Según cómo se determinen estas características, se da origen a diferentes tipos de la IO en la práctica. Veremos tres escuelas a continuación.

La IO dura o técnica

El origen de la IO tradicional, llamada dura o técnica, se ubica generalmente en la Segunda Guerra Mundial. En Inglaterra y los Estados Unidos, hubieron científicos que dieron soporte para la solución de problemas de planeamiento y operaciones durante la guerra. Se usó la teoría de las probabilidades y la optimización de problemas lineales en el modelamiento de diferentes tipos de problemas logísticos. Anteriormente, ya se habían usado métodos racionales para la solución de problemas prácticos. Por ejemplo, en Dinamarca en 1907, Erlang desarrollaba y aplicaba la teoría de colas para resolver problemas de espera en las redes telefónicas, y en los Estados Unidos en 1895, Taylor usaba métodos racionales en el planeamiento de la producción.

Las características de esta escuela son las siguientes:

información empírica (data), hechos medibles, cuantificación, optimización y simulación;

tratando de encontrar la solución óptima o simular el sistema usando computadoras; y

actores (reduccionismo).

Ejemplo: Planeamiento de la producción

Una aplicación clásica de la IO es en el planeamiento de la producción de plantas para satisfacer de forma más económica una demanda mensual en un horizonte de seis meses. El modelo matemático tiene la estructura siguiente:

producir;

Page 51: Ecipe Rue Special 2010

Número especial 2010

50ECIPERÚ

Ejemplo: un aeropuerto nuevo

La localización de nuevos aeropuertos es un problema clásico que incluye aspectos económicos, sociales y políticos. Además, el problema está lleno de conflictos, y en muchos países se ha usado la IO blanda para solucionar esta situación problemática.

El problema tiene la estructura siguiente:

de un aeropuerto nuevo;

cualitativos;

diálogo tratando de encontrar consenso; y

Los fundamentos epistemológicos de la IO blanda son los siguientes:

conceptuales, intersubjetividad; y

Las críticas de la IO blanda son:

• Consensos (ignora conflictos);• Participación (ignora relaciones de poder);• Trabajando para los poderosos; y• La comunicación no es libre.

Estas críticas dieron origen a la IO crítica.

La IO crítica

Las características de esta escuela son:

falta de reflexión de la IO dura y blanda;

entendimiento y poder (el saber es el poder); y

Ejemplo: LEADER +

Este proyecto de la Comunidad Europea (UE) ha existido por más de 20 años y tiene las características siguientes:

se tienen que organizar localmente en ONG;

apoyan el diseño de proyectos innovadores.

En la IO crítica, el aspecto esencial es la participación y no los métodos usados. En la práctica, el investigador operacional crítico usa métodos duros y blandos o los combina dependiendo de la situación actual.

Los tres intereses cognitivos

De acuerdo con Habermas, el ser humano tiene dos intereses cognitivos fundamentales y generales que guían sus intentos de adquirir conocimiento: uno técnico y otro práctico. Estos intereses son casi-trascendentales, esto quiere decir que se derivan de la forma sociocultural de la vida humana, la cual es dependiente del trabajo y la interacción. La importancia del trabajo para el ser humano dirige el conocimiento hacia un interés técnico en la predicción y control de sistemas naturales y sociales. La interacción impone al ser humano el asegurar y expandir las posibilidades del entendimiento sujetivo entre las personas involucradas en el sistema social. La importancia de la interacción lleva al ser humano a tener un interés práctico en el progreso de un entendimiento común.

La necesidad de supervivencia física y manipulación del medio ambiente ha dado origen al desarrollo del conocimiento técnico, con el propósito de la predicción y el control. Esto ha sido suplementado con las ciencias naturales o ciencias empírico-analíticas, que son fundamentalmente instrumentales. El objetivo de estas ciencias es producir conocimiento teorético sobre la relación de eventos observables de donde se pueden derivar leyes como hipótesis ó teoremas. El desarrollo del lenguaje en los seres humanos ha permitido la comunicación y la cooperación coordinada en la acción práctica. En este dominio de actividades practicas, la necesidad fundamental es entender –dar sentido a los pensamientos de los otros– y a través de

Page 52: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

51ECIPERÚ

discusiones, negociaciones y argumentos, alcanzar acuerdos y consensos. Esto da el fundamento para el desarrollo de ciencias interpretativas y culturales como la hermenéutica. Estas ciencias tratan de acceder al entendimiento y ganar una comprensión de la creación del mundo de la vida intersubjetiva. Estas ciencias tratan de mantener y mejorar el entendimiento común entre los seres humanos. Esta son las ciencias que se dedican a la comunicación entre individuos.

En el mundo ideal, estos dos tipos de conocimiento son suficientes. Sin embargo, Habermas argumenta que en el ambiente sociopolítico, en donde estas dos formas de conocimientos se han desarrollado, se han distorsionado las dos. La racionalidad instrumental de las ciencias naturales se han aplicado ilegítimamente a la esfera de lo social, y nuestro lenguaje y comunicación son constantemente saboteados por la estructura de poder de la sociedad y la falta de discusiones abiertas y libres.

Esto explica la necesidad de un tercer tipo de conocimiento –la ciencia y la filosofía crítica– que trata de revelar estas ilusiones y distorsiones. Los seres humanos tienen un interés emancipador en liberarse ellos mismos de las limitaciones impuestas por las relaciones de poder y aprender a través de un proceso genuinamente participativo y democrático, para controlar sus propios destinos y desarrollarse ellos mismos a fin de liberarse de ideologías y creencias falsas. Las ciencias críticas se acoplan a dichos intereses emancipatorios. Estas reconocen las limitaciones de otros tipos de conocimiento y los peligros de su aplicación inapropiada, y tratan de sintetizar y van detrás de ellas para producir conocimiento que permita a la gente reflexionar sobre su situación y liberarse de las fuerzas de dominación en las que ellos participan pero que no pueden comprender ó controlar.

La tabla 1 resume los tres tipos de intereses cognitivos.

Tabla 1: Intereses cognitivos.

Tipo de ciencia Interés cognitivo Dominio social Propósito

Ciencias Naturales Técnico Trabajo Predicción/Control

Ciencias Culturales Práctico Lenguaje/Cultura Entender/Consensos

Ciencias Críticas Emancipar Poder/ Autoridad Elucidar

Las perspectivas

En el futuro, cuatro áreas de desarrollo e investigación serán de importancia primordial para la IO. Estas son:

1. Combinación de métodos: Situaciones problemáticas en el mundo real tienen elementos duros, blandos y críticos, esto significa que se deben desarrollar métodos multidisciplinarios en donde se combinan diferentes herramientas científicas de las ciencias naturales, ciencias culturales y ciencias críticas para diseñar metodologías especiales para situaciones específicas. Una intervención social no es un simple evento de aquí y ahora, sino generalmente un proceso de un número de etapas que plantean diferentes tipos de problemas que tienen que resolverse con herramientas diferentes. La práctica ha mostrado que combinando métodos se obtienen mejores resultados.

2. La IO participativa: En organizaciones modernas, los tomadores de decisiones o clientes quieren tomar parte activa en el proceso de resolución de situaciones problemáticas; esto significa que los trabajadores de la IO, además de constructores de modelos, tienen que ser hábiles en la facilitación de grupos durante el proceso de elaboración de un plan de acción. En las ONG y comunidades, la participación es una demanda necesaria para llegar a acciones que pueden usarse.

3. Pensamiento sistémico: Situaciones problemáticas complejas se tienen que resolver con métodos globales, participativos y dinámicos. Son los métodos sistémicos que caracteriza a la mayoría de métodos blandos y críticos. En la esfera teorética, todavía hay mucho trabajo por hacer para llevar las diversas teorías de sistemas a la implementación de la IO. La aplicación muy reciente de la IO a problemas ecológicos muestra el camino de la investigación en este campo.

Page 53: Ecipe Rue Special 2010

Número especial 2010

52ECIPERÚ

4. La IO creativa: El facilitador del proceso de resolución de situaciones problemáticas usa métodos y herramientas para dar soporte a este proceso. Estos instrumentos de ayuda se seleccionan de acuerdo al tipo de situación problemática que se está enfrentando, la experiencia y conocimientos del grupo de trabajo, y la experiencia práctica del facilitador. La IO dura, la IO blanda y la IO crítica son métodos racionales. Los métodos racionales tratan de encontrar soluciones óptimas dentro del límite del sistema en estudio. Los métodos creativos tratan de crear soluciones rompiendo los límites del sistema en estudio. Existe una

gran cantidad de herramientas creativas. La IO creativa es un nuevo campo esperando su desarrollo.

REFERENCIAS

1. R. V. V. Vidal, “OR: A multidisciplinary discipline” en Pesquisa Operacional, Vol. 26 (2006), n.1, 69-90, Brasil, http://www.scielo.br/pdf/pope/v26n1/29475.pdf.

E-mail: [email protected] page: http://www2.imm.dtu.dk/~vvv

Page 54: Ecipe Rue Special 2010

53ECIPERÚ

Efecto de los ácidos grasos esenciales de cadena larga como agentes para el tratamiento del Trastorno de Déficit de Atención e Hiperactividad (TDAH)

Effect of the Essential Long Chain Fatty Acids as Treatment Agents for the Attention Deficit Hyperactivity Disorder (ADHD)Sandra Jarrín Motte1 y Jaime A. Yáñez2

1 Área de Salud y Nutrición, Fundación Universitaria Iberoamericana (FUNIBER), Lima, Perú2 Biodisposition Division, Department of Pharmacokinetics and Drug Metabolism, Alcon Research Ltd., Fort Worth, TX 76134-2099, USA

RESUMEN

El Trastorno de Déficit de Atención e Hiperactividad (TDAH) es una condición presente en niños y adultos caracterizada generalmente por problemas de aprendizaje y conducta. La prevalencia de este trastorno es cada vez mayor, sobre todo entre los niños de edad escolar, mientras que en algunos países ya es considerado un problema de salud pública. La causa es desconocida, pero se sugieren causas biológicas y multifactoriales, dentro de las cuales se encuentra la deficiencia de ácidos grasos esenciales de cadena larga, como el ácido eicosapentaenoico (EPA) y ácido docosahexaenoico (DHA). Estos ácidos grasos son considerados indispensables para el organismo, principalmente debido a la acción bioquímica que realizan a nivel cerebral. El objetivo de esta publicación es discutir y revisar la información disponible, a través de una revisión bibliográfica y de estudios desarrollados mediante diversas metodologías que muestran la eficacia de estos ácidos grasos esenciales como agentes para el tratamiento de TDAH.Descriptores: Trastorno de Déficit de Atención e Hiperactividad (TDAH), ácidos grasos, EPA, DHA, ácidos grasos esenciales

ABSTRACT

The Attention Deficit Hyperactivity Disorder (ADHD) is a condition that occurs in children and adults that is generally characterized by learning and behavioral problems. The prevalence of this ailment is increasing specially in school-age children, while in some countries it is already considered a public health issue. The cause is unknown, but biological and multi-factorial causes have been reported, including the deficiency of essential long chain fatty acids such as eicosapentaenoic acid (EPA) and docosahexaenoic acid (DHA). These fatty acids are considered essential for the body, mainly due to the biochemical role that plays in the brain. The aim of this publication is to discuss and review the available data and studies performed using various methodologies, demonstrating the efficacy of essential fatty acids as treatment agents for the treatment of ADHD.Keywords: Attention Deficit Hyperactivity Disorder, ADHD, fatty acids, EPA, DHA, essential fatty acids

Page 55: Ecipe Rue Special 2010

Número especial 2010

54ECIPERÚ

INTRODUCCIÓN

El Trastorno de Déficit de Atención e Hiperactividad (TDAH) es un diagnóstico para describir a niños o adultos [1, 2] que son desatentos, impulsivos e hiperactivos [3-5]. Otras características clásicas son la dificultad de prestar atención y de seguir instrucciones y completar tareas, así como la interrupción a otros y el contestar preguntas antes de que estas sean terminadas [4, 5].

El TDAH entre los niños en edad escolar está teniendo cada vez una mayor prevalencia y en Estados Unidos ya es una condición de preocupación para la salud pública [4] con estimaciones que varían entre el 2 y el 18% de la población [6]. Estos niños que tienen problemas de atención, de seguir instrucciones y completar tareas manifiestan un comportamiento que puede afectar el trabajo escolar, las relaciones familiares y las interacciones sociales [4].

Recientes estudios anatómicos han determinado que las personas que sufren de TDAH presentan una reducción en el volumen del cerebro y cerebelo, y cierto déficit en las conexiones nerviosas de la parte estradio-frontal del cerebro [7, 8]. Sin embargo, estos cambios anatómicos parecen ser compensados por un aumento en la actividad cerebral en diferentes áreas del cerebro al momento de realizar actividades cognitivas [7], lo cual ha sido sustentado con técnicas como resonancia magnética nuclear (MRI) y tomografía de emisión de protones (PET) [9]. Algunas de estas áreas incluyen las córtices posteriores del cerebro, regiones límbicas, el cerebelo, pero también sistemas de neurotransmisores dopaminérgicos y noradrenérgicos [10].

Signos y síntomas

Entre los signos y síntomas encontrados, están los pertenecientes al sistema nervioso y los sistemáticos [3, 4].

Del sistema nervioso: dolores de cabeza, migraña, fatiga, cansancio, incapacidad para concentrarse, irritabilidad, hiperactividad, problemas en la coordinación motora, trastornos del sueño, depresión, cambios de ánimo, problemas en el comportamiento, hostilidad, agresión, impulsividad y problemas visuales y auditivos.

Sistemáticos: palidez, círculos oscuros debajo de los ojos, asma, sed excesiva, dolores de estómago, dolores musculares, orina frecuente, alergias, piel y cabellos secos, eczema y retardo en el crecimiento.

Causas

En la mayoría de las personas con TDAH, la causa es desconocida, pero se sugiere que puede haber causas biológicas y multifactoriales [4]. Una de estas causas podría ser la deficiencia de ácidos grasos esenciales, encontrada en una gran parte de los niños con TDAH. Se ha llegado a esta conclusión, al observarse que una gran proporción de niños con este trastorno tiene un incremento anormal en la sed, mayor incidencia de piel seca y cabello seco, eczemas, orina frecuente y alergias, signos característicos de una deficiencia en ácidos grasos esenciales [4, 11]. Además, a través de diversos estudios se ha determinado que los niños con TDAH presentan bajos niveles de ácidos grasos esenciales de cadena larga, como el ácido araquidónico (AA), el ácido eicosapentaenoico (EPA) y el ácido docosahexaenoico (DHA) en plasma [4, 12, 13]. En otro estudio, se observó que las personas que tienen bajos niveles de ácidos grasos esenciales en el organismo tienen más problemas relacionados con el comportamiento, temperamento y aprendizaje [4]. Más aún, en un estudio en animales experimentales (gallinas y pollos) se identificó que una deficiencia en ácido alfa-linolénico (Omega-3) causa cambios en el comportamiento de aprendizaje, deterioro de la agudeza visual (electroretinograma anormal) y aumento de la ingesta de fluidos [14].

Es importante destacar que se ha demostrado que las dietas deficientes en ácidos grasos esenciales, especialmente el Omega-3, en animales modifican la composición de lípidos y funciones neuroquímicas en áreas específicas del cerebro [15], además de dañar las habilidades y funciones cognitivas [16] [17], mostrando deterioro en el comportamiento de aprendizaje [17]. En el caso de estudios en humanos, se ha visto que cuando los niños son deficientes en DHA, estos tienen un deterioro en el desarrollo cortical y presentan déficit de atención e hiperactividad [16].

Esta deficiencia se puede dar ya sea porque no hay una adecuada ingesta de ácidos grasos esenciales, un adecuado metabolismo, una adecuada absorción

Page 56: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

55ECIPERÚ

a nivel intestinal o porque los requerimientos de ácidos grasos esenciales son más altos que lo normal [4]. Más aún, cuando ocurre una ineficiencia en los procesos de elongación de la cadena de los ácidos grasos esenciales, específicamente en los procesos donde intervienen las enzimas desaturasas y el malonil CoA, se observa un mal funcionamiento metabólico de este tipo de grasas [4]. Esta ineficiencia puede darse por causa genética [11], pero también ha sido reportado que factores medioambientales pueden jugar un rol, o por embarazos prematuros o que la madre fumara durante el embarazo [6].

Además, se debe de tomar en cuenta que el proceso de conversión del ácido alfa-linolénico (Omega-3) en EPA y DHA no produce cantidades significativas de estos ácidos grasos. Varios estudios han demostrado que los adultos convierten muy pocas cantidades de ácido alfa-linolénico en EPA y DHA [18]. En hombres, sólo del 3% al 8% de 1,3 g de ácido alfa-linolénico es convertido en EPA y del 0% al 4% del EPA es convertido en DHA. Sin embargo, en mujeres el 21% del ácido alfa-linolénico es convertido en EPA y el 9% es elongado a DHA [19]. Tal vez, esta es una de las razones por las cuales el Trastorno de Déficit de Atención e Hiperactividad (TDAH) es diagnosticado en mayor proporción en niños que en niñas, en una proporción de 2-3:1 [20, 21]. Así también, investigaciones indican que los estrógenos causan una mayor concentración de DHA en mujeres, probablemente al regular la síntesis de DHA de fuentes vegetales [22]. También las diferencias en la velocidad de desarrollo y madurez cerebral entre niños y niñas parece que juega un rol importante en la diferencia género-específica de incidencia de TDAH [23].

Más aún, se ha visto que la mayoría de los alimentos, como el trigo, la leche y las grasas trans, que consumen los niños con TDAH, son alimentos que inhiben la conversión de ácidos grasos esenciales en cadenas más largas como el EPA y DHA [24]. Tanto el gluten presente en el trigo como la caseína presente en la leche son proteínas que aumentan la producción de exorfinas (péptidos opioides) en el intestino, las cuales pueden bloquear la conversión de ácidos grasos esenciales a prostaglandinas E1 [24]. Además, muchos de estos niños presentan una deficiencia en zinc, el cual también es necesario para esta conversión [24].

Se ha visto también que el ácido alfa-linolénico (Omega-3) y el ácido linoleico (Omega-6) compiten por las mismas enzimas que inducen la formación de DHA y AA [25]. Actualmente, en la dieta promedio, la proporción de Omega-6:Omega-3 es de 10:1 a 20-25:1 [26]. Sin embargo, se ha observado que una proporción de Omega-6:Omega-3 entre 5:1 y 10:1 no afecta los niveles de las enzimas que inducen la formación de DHA y AA [27, 28]. Por lo tanto, una dieta muy alta en ácido linoleico (Omega-6) o muy baja en ácido alfa-linolénico (Omega-3) puede conllevar a una deficiencia en DHA y AA y a un desequilibrio entre ambos ácidos grasos y su metabolismo.

Por último, se ha reportado también el hallazgo de un gen anormal (DAT 1) asociado con el TDAH, el cual controla los receptores de transporte del cerebro del neurotransmisor dopamina [29]. Los niños con una forma más severa de TDAH tienen una anormalidad de este gen, el cual causa que la persona sea más sensible a la dopamina [11]. Además, se ha visto que una deficiencia de ácidos grasos Omega-3 a largo plazo induce a una reducción significativa en la cantidad de dopamina y receptores de dopamina D2, especialmente en la corteza frontal del cerebro [30].

Ácidos grasos esenciales y el cerebro

El cerebro está formado por casi un 60% de lípidos [31], los cuales cumplen dos funciones generales muy importantes en el sistema nervioso central. La primera es de carácter estructural; por ejemplo, como estructura de las membranas neuronales. La segunda es de carácter funcional; por ejemplo, asociados con el funcionamiento de neurotransmisores. Estas y otras funciones como el desarrollo cerebral (sensitivo, perceptivo y cognitivo), el crecimiento de los axones y las dendritas de las neuronas, la creación y remodelación de conexiones sinápticas y la migración neuronal están influenciadas por los ácidos grasos esenciales, como el ácido linoleico (Omega-6) y el ácido alfa-linolénico (Omega-3) [32]. Más aún, el DHA, proveniente del Omega-3, constituye aproximadamente una cuarta parte del peso en seco del cerebro [31]. Así, se puede observar que los ácidos grasos son esenciales para el desarrollo y funcionamiento cerebral y cualquier deficiencia presente podría causar diversos desórdenes del desarrollo, incluido el TDAH [33].

Page 57: Ecipe Rue Special 2010

Número especial 2010

56ECIPERÚ

Como el organismo no puede sintetizar estos ácidos grasos esenciales, deben de consumirse a través de la dieta. Estos ácidos grasos de 18 carbonos son convertidos a otros ácidos grasos de cadena más larga (20-22 carbonos), para que puedan cumplir con las funciones vitales que tienen en el organismo. La conversión se realiza a través de la adición de enlaces insaturados. Es así que en el grupo de los Omega-6, el ácido linoleico que contiene dos dobles enlaces

se convierte en AA y ácido adrénico, los cuales tienen cuatro dobles enlaces y son eventualmente convertidos en ácido docosapentaenoico (DPA) que contiene cinco dobles enlaces. En el grupo de los Omega-3, el ácido alfa-linolénico que contiene tres dobles enlaces es convertido en EPA que contiene cinco dobles enlaces y luego es convertido en DHA con seis dobles enlaces [11] (fig. 1).

Como se ha mencionado, estos ácidos grasos esenciales de cadena larga constituyen una gran parte del sistema nervioso central, donde uno de cada tres ácidos grasos es poliinsaturado, lo que corresponde al 20% del peso en seco del cerebro [15] y al 45% de los ácidos grasos presentes en las membranas sinápticas [17]. Funcionan haciendo más permeable las membranas de las células nerviosas, permitiendo que la transmisión de los impulsos nerviosos de una célula a otra sea más adecuada. El DHA, siendo uno de los más abundantes ácidos grasos en las membranas neuronales [16], es también uno de los más importantes y es incorporado, retenido y concentrado selectivamente en la bicapa fosfolipídica de las membranas cerebral y retinal [32, 34, 35], en donde es esencial en el desarrollo neurológico y visual [16]. Asimismo, este ácido graso permite el crecimiento de las neuritas de neuronas de la región cerebral denominada hipocampo. Es así que, cuando se presenta un inadecuado crecimiento de las neuritas, debido a deficiencia

Figura 1: Metabolismo de ácidos grasos esenciales. (Figura modificada y basada en OMS (1997)) [27].

de DHA, esto puede contribuir al deterioro de funciones cognitivas como el aprendizaje y la memoria [17]. Por otro lado, el EPA desempeña un papel importante en la neurotransmisión dentro del cerebro, pudiendo influenciar en el estado de humor de los individuos, ya que ayuda a la producción de los neurotransmisores serotonina y dopamina.

Una persona puede obtener ácidos grasos esenciales de cadena larga directamente a través de los alimentos o de los ácidos grasos de cadena corta, encontrados en los aceites vegetales. La eficiencia de la habilidad del cuerpo para producir ácidos grasos esenciales de cadena larga utilizando los de cadena corta está determinada por los genes. Si un individuo tiene alguna alteración genética que hace difícil la conversión de ácidos grasos de cadena corta en los de cadena larga, este sufrirá de una deficiencia en ácidos grasos esenciales de cadena larga, a menos que la dieta sea rica en alimentos con alto contenido de estas grasas. En los niños con

Page 58: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

57ECIPERÚ

TDAH, el problema no se encuentra solamente en la deficiencia alimentaria de ácidos grasos esenciales, sino que estos individuos no pueden convertir el ácido linoleico (Omega-6) y el ácido alfa-linolénico (Omega-3) en ácidos grasos esenciales de cadena larga como el AA, EPA, DHA y el ácido adrénico.

TRATAMIENTO DEL TDAH

A.Tratamiento convencional

El tratamiento para el TDAH incluye la terapia de comportamiento y la medicación con fármacos psicoestimulantes o con antidepresivos (también llamados no-estimulantes).

i) Psicoestimulantes

Esta clase de fármacos son agentes simpatomiméticos que tienen una estructura similar a las catecolaminas y que funcionan mejorando la transmisión de dopamina y norepinefrina en el cerebro [36]. Algunos de estos fármacos son: metilfenidato (Ritalin) [37-39], d-metilfenidato (Focalin) [37-39], d-anfetamina (Dexedrine) y una mezcla de sales de anfetamina (Adderall) [4, 36].

Las ventajas de utilizar este tipo de medicación son la rápida respuesta, la fácil utilización y la efectividad (aproximadamente del 75%) [4]. Las desventajas incluyen los posibles efectos secundarios, como la disminución en el apetito, disminución en el crecimiento, insomnio, dolor abdominal, aumento de la irritabilidad, aumento de la tensión arterial, aumento del ritmo cardiaco y respiratorio, aumento de la temperatura, pérdida de peso, tics faciales, nerviosismo, euforia, agitación, comportamiento violento, alucinaciones, dependencia psicológica [3, 31] y el efecto de rebote al ir disminuyendo su efecto [4]. Otra desventaja en el uso de estos fármacos es que cuando son administrados como píldoras pueden ocasionar dificultades en el niño al momento de tragarlas; es por eso que también se encuentran presentaciones líquidas y tabletas comestibles, pero recientemente, como en el caso de Ritalin, se han desarrollado sistemas transdermales y estudios con eficacia farmacológica [40].

A pesar de que el tratamiento con fármacos puede ser efectivo, se encuentra una serie de problemas

asociados a estos. En primera instancia, no todos los niños responden a los medicamentos estimulantes; y algunos de ellos experimentan los efectos secundarios de la medicación. Más aún, no hay estudios en donde se compruebe la seguridad de estos medicamentos a largo plazo [3], no hay pruebas de una mejoría a largo plazo en el rendimiento escolar [31] y por último, estos no tratan las causas del TDAH, sino solo los síntomas [41]. Además, se debe de mencionar que este tipo de fármacos son drogas estimulantes, relacionadas químicamente con las anfetaminas, las cuales tienen el peligro potencial de crear hábito o favorecer el desarrollo de otras adicciones [42], como fumar o el abuso del alcohol y drogas [6].

Se ha estimado que aproximadamente el 80% de pacientes responde al primer agente psicoestimulante recetado, pero hay hasta un 30% de pacientes que no tolera o responde adecuadamente a ninguno de estos psicoestimulantes, y es en estos pacientes en los cuales usualmente se les receta antidepresivos [36].

ii) Antidepresivos o no-estimulantes

Aparte de la falta de efectividad en aproximadamente el 30% de pacientes, se observa también una limitación en la duración del efecto, lo cual puede conllevar a múltiples dosis durante el día y causar farmacodependencia.

Algunos antidepresivos incluyen imipramina y desipramina, que son antidepresivos tricíclicos que, a pesar de ser agentes efectivos para el tratamiento de comportamiento comórbido, ansiedad y tics musculares en pacientes con TDAH, su riesgo cardiotóxico (a dosis altas) ha limitado su uso [36]. Otro antidepresivo es bupropión (Wellbutrin) [4] que tiene un mecanismo no bien caracterizado, pero que se presume es un efecto mixto agonista indirecto sobre la dopamina y norepinefrina. A pesar de su eficacia y de sus efectos secundarios comunes (irritabilidad, insomnio, pérdida de apetito), su vinculación con un aumento de ataques epilépticos hace que se limite la dosis a recetar [36].

El único agente no-estimulante aprobado por la FDA para tratar TDAH en niños de seis años o más, es la atomoxetina (Strattera), un inhibidor

Page 59: Ecipe Rue Special 2010

Número especial 2010

58ECIPERÚ

específico de la reabsorción noradrenérgica [36]. Los efectos secundarios son generalmente suaves, pero dos casos de daño hepático que mejoraron después de parar de tomar atomoxetina indican que no es efectivo en algunos pacientes [36].

Existen casos de fármacos usados para tratar otras dolencias que han demostrado cierta eficacia para tratar algunos de los síntomas de TDAH. Un ejemplo es modafinil (Provigil), que es recetado para tratar narcolepsia y que, a pesar de ser efectivo en estimular la corteza cerebral, no fue aprobado por la FDA para tratar TDAH debido a la aparición de un sarpullido potencialmente serio que es característico del síndrome Stevens-Johnson [ref. J]. Otro ejemplo incluye clonidina, que es un agonista alfa-adrenérgico usado primordialmente para tratar hipertensión y que, contrariamente a modafinil, recibió la aprobación de la FDA (clonidina en una formulación de entrega extendida) para tratar tics musculares causados por TDAH [36].

Se ha estudiado la venlafaxina (Effexor), pero su efecto serotonérgico y noradrenérgico mixto no ha sido demostrado como completamente efectivo en pacientes con TDAH, pero puede ser usado como agente secundario siempre que sea utilizado con otro agente primario (psicoestimulante o no-estimulante) [36]. En el caso de risperidona y aripiprazol, que son agentes neurolépticos, han habido reportes anecdóticos sin soporte científico que pueden ser utilizados para tratar el síntoma de agresividad en pacientes con TDAH, pero no han sido aprobados por la FDA para ser usados como agentes de tratamiento de TDAH [36].

En un estudio se reportó la fluoxetina (Prozac) como un agente farmacológicamente activo en niños con TDAH, pero la experiencia clínica no ha corroborado esta observación [4, 36].

B. Tratamiento complementario y medicina alternativa

Debido a los problemas que pueden presentar el tratamiento convencional, el uso de otras alternativas o el también llamado tratamiento complementario y medicina alternativa ha sido adoptado por muchos pacientes e inclusive recomendado por varios médicos.

Aunque a veces controversiales, algunos de estos tratamientos incluyen: la eliminación de aditivos alimenticios (colorantes y/o preservantes) de la dieta, la reducción de la cantidad de azúcar, la práctica de yoga, los masajes, la homeopatía, vivir cerca de áreas verdes, e inclusive el monitoreo continuo utilizando electroencefalogramas (EEG) [43].

C. Tratamiento con ácidos grasos esenciales

Los problemas que se pueden presentar con la medicación con psicoestimulantes y la hipótesis del deficiente funcionamiento metabólico de ácidos grasos esenciales han originado el incremento del interés por la suplementación con ácidos grasos esenciales de cadena larga como un tratamiento alternativo para los niños con TDAH [44]. Se han llevado a cabo estudios controlados a doble ciego, en donde la suplementación con ácidos grasos esenciales de cadena larga mostró resultados significativos en la reducción de los síntomas y en el incremento de los niveles totales en plasma de EPA y DHA [13]. En un estudio se concluyó que la evidencia de diversas investigaciones, sobre todo en animales, sugiere que los cambios en las concentraciones cerebrales de DHA están positivamente asociados con cambios en el funcionamiento cognitivo y del comportamiento [35]. Además, se ha visto que la suplementación es un tratamiento seguro que no presenta efectos adversos y tiene una buena aceptabilidad [45].

Se debe de tomar en cuenta que la saturación en plasma de fosfolípidos ocurre a las cuatro semanas después de la suplementación con 2 g de DHA por día, con un periodo de duración mayor a 24 semanas [19]. Respecto al EPA, toma aproximadamente dos semanas en alcanzar el mismo estado de DHA en el plasma, mientras que su periodo de duración es más corto, de alrededor de cuatro semanas [19].

Las recomendaciones pueden variar dependiendo de la enfermedad: rangos diarios de EPA y DHA empiezan en 180 mg para la prevención de la demencia, 500 mg para la disminución de las enfermedades coronarias y 1000 mg para la disminución de las enfermedades mentales [19]. También se ha reportado que la suplementación de aceite de alga alto en DHA (aproximadamente 200 mg DHA por día) hace aumentar significativamente los niveles de DHA en el plasma del infante lo que conlleva a un

Page 60: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

59ECIPERÚ

mayor Índice de Desarrollo Psicomotor de Bayley, pero no afecta el Índice de Desarrollo Mental medido en los infantes lactantes a los 12 y 30 meses de edad [46]. Pero es necesario mencionar que cuando se compara las diferencias del desarrollo neuronal (a nivel cerebral y de retina) de infantes alimentados con leche materna frente a los con fórmula, se puede observar que los primeros tienen un significativo mayor desarrollo neuronal que ha sido claramente correlacionado con los niveles de DHA presentes en la leche materna [25]. Otra potencial aplicación de la suplementación de ácidos grasos poliinsaturados es el efecto que puede tener en la depresión y demencia. Sin embargo, diversos estudios han determinado que hay muy poca correlación entre la suplementación con ácidos grasos poliinsaturados provenientes de aceite de pescado y la depresión postparto [47] o la demencia [48, 49].

El suplemento que se recomienda utilizar es el de aceite de pescado. Lo ideal sería consumir una cápsula de aceite de pescado de 1000 mg dos a tres veces al día con cada comida. Este es el suplemento más utilizado en los estudios clínicos, ya que contiene DHA y EPA que no requieren de elongación y desaturación para ser efectivos [19, 50]. Además, se sugiere que para incrementar los niveles de EPA y DHA en personas con TDAH, es preferible utilizar una fuente proveniente de los aceites de pescado, en lugar del aceite de linaza o fuentes vegetales [13, 18]. Es por eso que en Estados Unidos se ha reportado que sería necesario fomentar el mayor consumo de pescado (un aumento de aproximadamente cuatro veces más el consumo actual) o bien ver la forma de manipular biotecnológicamente los niveles de EPA y DHA en la cadena alimenticia [51] para en cierta forma tratar de equilibrar la dieta americana con la europea, en la que se ha visto un progresivo aumento de consumo de EPA y DHA en los últimos 30 años [52]. Más aún, algunos de estos suplementos contienen antioxidantes, los cuales protegen la oxidación de estos ácidos grasos en el organismo.

CONCLUSIONES

Si bien es cierto que muchas personas con Trastorno de Déficit de Atención e Hiperactividad (TDAH) han recibido tratamientos psicológicos y farmacológicos con buenos resultados, se puede

observar también un gran incremento en la incidencia de este trastorno, lo cual lleva a pensar que tiene que haber factores tanto ambientales como fisiológicos que estén afectando a esta parte de la población y sobretodo afectando el sistema bioquímico de sus sistemas nerviosos y cerebrales.

Se observa que hay un aumento en la cantidad de profesionales que inciden en la importancia de la alimentación y nutrición, no solamente para mantener un buen estado de salud sino también para optimizar la labor que cumple en el cuerpo cada célula, tejido u órgano. Cabe destacar también, que el organismo funciona adecuadamente si tiene los nutrientes en cantidad y calidad necesaria, ya que la mayoría de procesos en el cuerpo ocurren a través de reacciones químicas entre nutrientes, enzimas y hormonas. Debido a esto es que se han planteado diversos tratamientos alimentarios y dietas para tratar diversos trastornos, incluido el TDAH, y ciertamente se han visto buenos resultados. Dentro de estos tratamientos, se destaca la utilización de ácidos grasos esenciales de cadena larga, conocidos como el EPA y DHA, debido a su importante papel dentro de las funciones cerebrales. Se han podido identificar diversos estudios que apoyan este tratamiento, observándose buenos resultados a partir de la suplementación con cápsulas de aceite de pescado después de seis meses de tratamiento continuo.

Dicho tratamiento ha mostrado ser efectivo a largo plazo, sin introducir efectos adversos en los organismos de los individuos, además de ser moléculas que cumplen diversos roles positivos en el organismo, como potenciar el sistema inmunológico, controlar los niveles de colesterol en la sangre, reducir los niveles de inflamación, etc. Por otro lado, cabe destacar que dicho suplemento puede obtenerse fácilmente en el mercado, a un precio accesible para la población, y es de fácil utilización.

REFERENCIAS

[1] L. A. Adler, J. Clin. Psychiatry. 70(2009) e12.[2] W. W. Dodson, J. Clin. Psychology. 61(2005) 589-

606.[3] G. Merenstein, Manual de pediatría. (Manuel

Moderno, México DF, 2000).[4] J. R. Burgess, L. Stevens, W. Zhang, L. Peck, Am. J.

Clin. Nutr. 71(2000) 327S-330S.

Page 61: Ecipe Rue Special 2010

Número especial 2010

60ECIPERÚ

[5] S. Mrug, B. Hoza, A. C. Gerdes, New Dir. Child Adolesc. Dev. 91(2001) 51-77.

[6] A. S. Rowland, C. A. Lesesne, A. J. Abramowitz, Ment. Retard. Dev. Disabil. Res. Rev. 8(2002) 162-170.

[7] S. Durston, Ment. Retard. Dev. Disabil. Res. Rev. 9(2003) 184-195.

[8] M. Mercugliano, Ment. Retard. Dev. Disabil. Res. Rev. 1(1995) 220-226.

[9] T. S. Hale, A. R. Hariri, J. T. McCracken, Ment. Retard. Dev. Disabil. Res. Rev. 6(2000) 214-219.

[10] C. J. Vaidya, M. Stollstorff, Dev. Disabil. Res. Rev. 14(2008) 261-267.

[11] J. Stordy, The LCP solution, the remarkable nutritional treatment for ADHD, dislexia and dispraxia,Ballantine Books, New York, 2000.

[12] R. Schnoll, D. Burshteyn, J. Cea-Aravena, Appl. Psychophysiol. Biofeedback. 28(2003) 63-75.

[13] G. S. Young, J. A. Conquer, R. Thomas, Reprod. Nutr. Dev. 45(2005) 549-558.

[14] G. J. Anderson, W. E. Connor, Am. J. Clin. Nutr. 59(1994) 1338-1346.

[15] A. Tapia A. Rev. Chilena Obst. Ginec. 69(2004) 399-403.

[16] R. E. Martin, J. Q. Wickham, A. S. Om, J. Sanders, N. Ceballos, Neurochem. Res. 25(2000) 715-723.

[17] A. Tapia, Rev. Chilena Nutr. 32(2005) 95-101.[18] C. A. Francois, S. L. Connor, L. C. Bolewicz, W. E.

Connor. Am. J. Clin. Nutr. 77(2003) 226-233.[19] H. Hutchins, Medscape Gen. Med. 7(2005) 18.[20] L. J. Stevens, S. S. Zentall, J. L. Deck, M. L. Abate,

B. A. Watkins, S. R. Lipp, J. R. Burgess, Am. J. Clin. Nutr. 62(1995) 761-768.

[21] M. Jacobson, Diet, ADHD & Behavior. A Quarter-Century Review. (Center for Science in the Public Interest, Washington DC, 1999).

[22] E. J. Giltay, L. J. Gooren, A. W. Toorians, M. B. Katan, P. L. Zock, Am. J. Clin. Nutr. 80(2004) 1167-1174.

[23] E. M. Mahone, E. L. Wodka, Dev. Disabil. Res. Rev. 14(2008) 276-284.

[24] I. Colquhoun, S. Bunday, Med. Hypotheses. 7(1981) 673-679.

[25] M. Makrides, M. A. Neumann, R. W. Byard, K. Simmer, R. A. Gibson, Am. J. Clin. Nutr. 60(1994) 189-194.

[26] A. P. Simopoulos, Am. J. Clin. Nutr. 54(1991) 438-463.

[27] Grasas y Aceites en la Nutrición Humana. (Organización Mundial de la Salud, Roma, 1997).

[28] M. Makrides, M. A. Neumann, B. Jeffrey, E. L. Lien, R. A. Gibson, Am. J. Clin. Nutr. 71 (2000) 120-129.

[29] L. A. Rohde, C. Zeni, G. Polanczyk, M. H. Hutz, Drug Dev. Res. 62(2004) 172-179.

[30] L. Zimmer, S. Vancassel, S. Cantagrel, P. Breton, S. Delamanche, D. Guilloteau, G. Durand y S.

Chalon, Am. J. Clin. Nutr. 75(2002) 662-667.[31] P. Holford, Nutrición óptima para la mente,

Editorial Robin Book, Barcelona, 2005.

[32] J. P. SanGiovanni, S. Parra-Cabrera, G. A. Colditz, C. S. Berkey, J. T. Dwyer, Pediatrics. 105(2000) 1292-1298.

[33] K. Joshi, S. Lad, M. Kale, B. Patwardhan, S. P. Mahadik, B. Patni, A. Chaudhary, S. Bhave, A. Pandit, Prostagland. Leukot. Essent. Fatty Acids. 74(2006) 17-21.

[34] W. E. Connor, Am. J. Clin. Nutr. 71(2000) 171S-175S.

[35] J. C. McCann, B. N. Ames, Am. J. Clin. Nutr. 82(2005) 281-295.

[36] B. S. Vaughan, H. J. Roberts, H. Needelman, Psychol. in the Schools. 46(2009) 846-856.

[37] K. S. Patrick, J. S. Markowitz, Hum. Psychopharmacol. 12(1997) 527-546.

[38] B. E. Leonard, D. McCartan, J. White, D. J. King, Hum. Psychopharmacol. 19(2004) 151-180.

[39] Y. Kim, M. S. Shin, J. W. Kim, H. J. Yoo, S. C. Cho, B. N. Kim, Hum Psychopharmacol. 24(2009) 95-102.

[40] K. S. Patrick, A. B. Straughn, J. S. Perkins, M. A. Gonzalez, Hum Psychopharmacol. 24(2009) 1-17.

[41] R. Hoffman, The natural approach to Attention Deficit Disorder. (Keats Publishing, Inc., Connecticut, 1997).

[42] M. E. Avila, Rev. Fac. Med. UNAM. 47(2004) 31.[43] N. L. Rojas, E. Chan, Ment. Retard. Dev. Disabil.

Res. Rev. 11(2005) 116-130.[44] M. Lyon, C. Laurell, Is your child’s brain starving?

(Mind Publishing, Canada, 2002).[45] A. J. Richardson, P. Montgomery, Pediatrics.

115(2005) 1360-1366.[46] C. L. Jensen, R. G. Voigt, T. C. Prager, Y. L. Zou,

J. K. Fraley, J. C. Rozelle, M. R. Turcich, A. M. Llorente, R. E. Anderson, W. C. Heird, Am. J. Clin. Nutr. 82(2005) 125-132.

[47] M. Strom, E. L. Mortensen, T. I. Halldorsson, I. Thorsdottir, S. F. Olsen, Am. J. Clin. Nutr. 90(2009) 149-155.

[48] E. E. Devore, F. Grodstein, F. J. van Rooij, A. Hofman, B. Rosner, M. J. Stampfer, J. C. Witteman, M. M. Breteler, Am. J. Clin. Nutr. 90(2009) 170-176.

[49] E. Kroger, R. Verreault, P. H. Carmichael, J. Lindsay, P. Julien, E. Dewailly, P. Ayotte, D. Laurin, Am. J. Clin. Nutr. 90(2009) 184-192.

[50] R. H. de Groot, G. Hornstra, A. C. van Houwelingen, F. Roumen, Am. J. Clin. Nutr. 79(2004) 251-260.

[51] P. M. Kris-Etherton, D. S. Taylor, S. Yu-Poth, P. Huth, K. Moriarty, V. Fishell, R. L. Hargrove, G. Zhao, T. D. Etherton, Am. J. Clin. Nutr. 71(2000) 179S-188S.

[52] T. A. Sanders, Am. J. Clin. Nutr. 71(2000) 176S-178S.

S. Jarrín Motte: [email protected]; [email protected]

J. Yáñez: [email protected]; [email protected]

Page 62: Ecipe Rue Special 2010

61ECIPERÚ

Reflexiones en torno al papel de la empresa como agente de desarrollo local

Reflections around the paper of the company like agent of local developmentPablo Manuel Chauca MalásquezUniversidad Michoacana de San Nicolás de Hidalgo, Facultad de Economía, Michoacán, México

RESUMEN

El trabajo reflexiona acerca de la responsabilidad social empresarial en el mundo actual y propone ideas y conceptos sobre las actividades socialmente deseables que deben realizar las empresas como agentes de desarrollo local. Se discuten algunos referentes conceptuales como fundamentos de los compromisos de las empresas con el desarrollo. Se explican los valores empresariales, las nuevas acciones de las empresas, la nueva gestión pública municipal y los factores institucionales que dan sentido y contenido al papel de las empresas en el desarrollo local. Descriptores: responsabilidad social empresarial, desarrollo local, institucionalidad

ABSTRACT

This report reflects about the enterprise social responsibility in the present world, and offers ideas and concepts on the socially desirable activities that must carry out companies as agents of the local development. We discuss conceptual references like foundations of the commitments of companies with the development. The enterprise values, the new actions of companies, the new municipal public management and the institutional factors are explained, which give sense and fundament to the role of the companies in the local development.Keywords: enterprise social responsibility, local development, institutionality

INTRODUCCIÓN

El tema de la Responsabilidad Social Empresarial (RSE) ha cobrado relevancia en los últimos años. De manera general, la RSE puede entenderse como la adopción voluntaria por parte de las empresas de compromisos sociales, laborales y medioambientales con el fin de impactar positivamente en el desarrollo de las comunidades donde se encuentran insertas. Debe reconocerse que hay diferencias en cuanto a cómo y el grado en que las empresas participan en actividades socialmente deseables, y también

en las respuestas de las pequeñas empresas a estas obligaciones o convicciones.

En ese orden de ideas, el presente trabajo reflexiona acerca de los compromisos de las empresas (sobre todo pequeñas y medianas, que son las que proliferan en los espacios locales de los países latinoamericanos y caribeños) con el desarrollo de su entorno inmediato. Se delimita la concepción de RSE y de desarrollo local que se adopta en el trabajo y se discuten los referentes conceptuales principales para comprender el papel de las empresas como agentes de desarrollo

Page 63: Ecipe Rue Special 2010

Número especial 2010

62ECIPERÚ

RESULTADOS Y DISCUSIÓN

La responsabilidad social de las empresas

La experiencia empresarial es mucho más satisfactoria cuando el empresario comprende que el propósito clave del negocio es crear valor para los clientes. Desde esta óptica, las relaciones con los clientes, propietarios, empleados, proveedores, competidores, gobiernos y la comunidad (grupos de interés o stakeholders) [5] son fundamentales y la integridad es esencial para el éxito empresarial. La noción de integridad está estrechamente vinculada con las situaciones éticas, que se refieren a cuestiones de lo correcto e incorrecto, y un actuar en el que un individuo debe tomar en cuenta el bienestar de los demás. Estas cuestiones van mucho más allá de lo legal o ilegal.

Los empresarios a menudo deben tomar decisiones respecto de lo que es honesto, justo y respetuoso, y deben obtener ganancias de manera honesta. Es decir, no sólo debe haber un compromiso con el desempeño financiero sino también con el cuidado del prestigio y reputación de la empresa. Es cierto, realizar negocios de manera honorable tiene costos; pero a largo plazo tiene más beneficios. Los beneficios de la integridad son reales y pueden ofrecer a las empresas una ventaja distintiva en el mercado.

Los propietarios de las empresas deben obtener ganancias de manera honesta. Tienen el legítimo y claro derecho de beneficiarse de los rendimientos financieros del negocio, pero este derecho debe enmarcarse dentro de sus amplias responsabilidades sociales; esto es, deben tener un compromiso con el desempeño financiero y con el cuidado del prestigio de la empresa dentro de la comunidad.

Los clientes son uno de los grupos de interés más importantes a los que debe complacer una empresa. Los empresarios deben tomar a los clientes con mucha seriedad, deben cuidarlos como individuos y construir fuertes relaciones con ellos. Esto hará que tengan más clientes y probablemente hará que regresen una y otra vez gracias a esa actitud (lograrán clientes leales).

La respuesta de un empresario a sus clientes está determinada en gran medida por sus empleados. El nivel de integridad de una empresa se ve reflejado en el respeto que brinda a sus empleados. Los aspectos de justicia, honestidad e imparcialidad

local. Se trata de un trabajo ubicado en el plano de lo normativo, del deber ser, que busca estimular investigaciones futuras sobre el tema.

METODOLOGÍA

El trabajo se basa en el análisis e interpretación del material bibliográfico y documental acerca del tema en estudio; en ese sentido se trata de una investigación monográfica. Las reflexiones tienen como referencia la discusión teórica acerca de la responsabilidad social de las empresas, en particular, sus compromisos con el desarrollo de las comunidades donde se encuentran insertas.

Tres ideas básicas orientan el trabajo:

(i) Toda empresa es a la vez una organización y un acervo de recursos productivos, humanos y materiales. En tal sentido, su desarrollo proviene tanto de fuentes internas (potencial endógeno basado en esos recursos) como externas (oportunidades y necesidades creadas por el crecimiento de la población, los ingresos y los cambios tecnológicos) [1, 2], de ahí que el desarrollo empresarial sea una adaptación e interacción con su entorno y sus transformaciones internas.

(ii) La RSE es un componente importante de la ventaja competitiva de las empresas.

(iii) El desarrollo local es la construcción colectiva de una agenda de desarrollo mediante la interacción y concertación estratégica de los actores locales con el propósito común de mejorar el nivel y la calidad de vida de los pobladores de un territorio [3, 4]. En este contexto, la RSE es crucial y debe acompañarse y reforzarse con los compromisos sociales de los otros actores (públicos, privados y sociales).

Se desarrollan tres referentes conceptuales para la comprensión del papel de las empresas como agentes de desarrollo local: (a) competitividad sistémica, (bi) nueva gestión pública municipal y (c) institucionalidad local. No son los únicos; pero se considera que son los más importantes. Las reflexiones no tienen una referencia específica empírica; sin embargo, se asume que tienen mayor pertinencia para los ámbitos locales urbanos de los países de América Latina y el Caribe.

Page 64: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

63ECIPERÚ

deben ser inherentes a las decisiones y prácticas de contratación, promociones, incrementos salariales, asignación de tareas, suspensiones y despidos. A los empleados les interesan también las cuestiones relacionadas con la privacidad, la seguridad y la salud, y estas no se deben pasar por alto.

Al comunicarse con los empleados, un propietario puede ser veraz, justo, vago, engañoso o totalmente deshonesto. Algunos empresarios tratan a las personas de fuera con gran cortesía, pero menosprecian a sus subordinados, a los que consideran simples peones en el juego del negocio. En este contexto, se advierte que “el considerar a los subordinados como seres humanos y miembros valiosos del equipo es un ingrediente esencial de la integridad en la administración. También es sabio, puesto que los empleados son el recurso más importante de una empresa” [5].

Una empresa de alto desempeño ético no sólo trata a los clientes y empleados con honestidad, sino también actúa con responsabilidad social, es decir, como un buen ciudadano en la comunidad. Las empresas deben comportarse no solo basándose en los requerimientos de la ley, sino deben realizar gastos de responsabilidad social, aunque resulten costosos. Sus contribuciones comienzan con la creación de empleos y el pago de impuestos. Hay empresarios que, además, sienten el deber de devolver más a las comunidades en compensación por el apoyo local de que gozan, lo que por lo general da como resultado que obtengan mayor buena voluntad.

Ciertamente, no hay consenso en cuanto al grado en que las empresas están obligadas a participar en actividades socialmente deseables. Algunos destacan la ecología, la contratación de minorías o el desarrollo económico de la región; mientras otros enfocan su atención en el trabajo voluntario, la filantropía y hasta en la atención diurna para los miembros de la familia de los empleados que dependen de ellos.

También son importantes las relaciones de la empresa con los niveles de gobierno (federal, estatal, regional y municipal). Los gobiernos intervienen directamente en la economía cuando establecen leyes para asegurar una competencia sana. Pero su alcance se extiende a otros asuntos de negocios como la seguridad en el lugar de trabajo, la igualdad de oportunidades, sueldos justos, ambiente limpio y productos seguros [6]. Los empresarios preocupados

por su integridad deben respetar las leyes y cumplir con las disposiciones gubernamentales.

En definitiva, el desempeño ético y las prácticas socialmente responsables de las empresas mantienen su buena reputación en la comunidad, además de tener efecto positivo sobre sus utilidades y su posicionamiento competitivo a largo plazo.

Debe aclararse que el tratamiento de la responsabilidad social corporativa (denominación para todo tipo de organización, mientras RSE se aplica a las empresas) ha ido evolucionando. En 1984, Milton Friedman visualiza a la empresa como una vía de maximización de utilidades de los accionistas con el objetivo único de asegurar una tasa interna de retorno creciente de manera honesta. A partir de 1990, los países de Europa y los Estados Unidos de América (EE.UU.) comienzan a implantar su modelo de empresa socialmente responsable. Posteriormente, en América Latina y el Caribe se observan algunas corporaciones en condiciones de poder invertir en campos como el cuidado ambiental y social. Son más bien las crisis económicas en el continente las que llevan a las empresas conscientes de su impacto social a impulsar proyectos en conjunto con la sociedad [5, 6, 7]. La empresa competitiva con enfoque sistémico

Es importante entender a las empresas en interacción con su entorno, y para ello debemos contemplar no sólo la competitividad en su nivel microeconómico sino con un enfoque sistémico. En ese sentido, las empresas que son las que finalmente enfrentan la competencia, deben desarrollar una ventaja competitiva sostenible a largo plazo que les permita, ya no solamente competir en los mercados internacionales, sino sobre todo enfrentar una competencia de origen global en su mercado local. Para ello se requiere, además de competitividad a nivel de empresas (nivel microeconómico), un entorno de competitividad mesoeconómica, macroeconómica y metaeconómica [8]. La competitividad sistémica implica no solo empresas competitivas, sino también organizaciones industriales (por ejemplo, los llamados clusters), gobierno y país competitivos.

La tesis inicial de la teoría de la competitividad sistémica señala que el desarrollo industrial exitoso y, desde luego, la competitividad empresarial, no se genera solamente por el desempeño de la

Page 65: Ecipe Rue Special 2010

Número especial 2010

64ECIPERÚ

llamada mano invisible del mercado, sino a través de esfuerzos específicos de los diferentes actores sociales. No solo la permanente lucha individual de empresarios dinámicos es la que determina el desarrollo industrial y empresarial, sino también, y especialmente, la actuación colectiva con objetivos determinados. Por consiguiente, resulta insuficiente considerar únicamente el nivel micro en las empresas, los consumidores y las transacciones del mercado, y el nivel macro en las tasas de interés y de cambio, la política presupuestaria y de comercio exterior. Naturalmente, esto no significa que esos niveles sean menos significativos. Al contrario, el descuido de los aspectos macroeconómicos ha sido un rasgo importante de los conceptos de desarrollo tradicionales, en especial de la industrialización sustitutiva de importaciones, que finalmente desembocó en obstáculos para el desarrollo [8].

Aparte del nivel micro y macroeconómico, resulta esencial interrogarse ¿por qué el Estado crea condiciones marco más o menos favorables para el desarrollo industrial, empresarial y económico en general?, ¿qué papel juegan en ello los diferentes actores sociales?, ¿cómo interactúan los actores públicos, privados y sociales? y ¿qué puntos angulares del desarrollo social y económico se definen en esa interacción? Este sería el nivel meta de la competitividad sistémica.

El nivel meso es el de las políticas e instituciones específicas, y se ubica entre el nivel macro (es decir las condiciones marco generales e iguales para todos) y el nivel micro de las empresas e industrias. En el nivel meso es donde es importante la actuación colectiva –concretamente a través del Estado, asociaciones empresariales, así como asociaciones público-social -privadas–, todo ello con el propósito de mejorar las capacidades competitivas de las empresas y de los territorios [9].

Por tanto, la competitividad sistémica siempre significa, finalmente, la competitividad de las empresas. Pero, esta depende de la interacción entre elementos del nivel micro y el nivel meso, macro y meta. Las interacciones entre los niveles de la competitividad sistémica se pueden resumir así [8, 9, 7]:

1. Las determinantes principales de un desarrollo industrial y empresarial exitoso se encuentran en el nivel meta, porque sin un claro compromiso con el desarrollo por parte de los actores sociales

importantes (de la política, economía empresarial, sindicatos y otras asociaciones y organizaciones de la sociedad civil), y sin un consenso básico sobre la necesidad de la industrialización y del desarrollo empresarial, difícilmente se logrará crear las condiciones necesarias para un proceso de desarrollo económico y social fructífero.

En el nivel meta, los cambios generalmente ocurren en forma lenta debido a que los factores de este plano determinan los patrones de conducta y las posibilidades de actuación en los demás niveles; pero existe también una relación de efectos invertida. Por ejemplo, si las empresas se ven sometidas a una presión competitiva en rápido ascenso e imponen mayores exigencias a las instituciones del nivel meso, inclusive a las asociaciones, y eso ocurre en un entorno caracterizado antes por un bajo encadenamiento, podrían producirse cambios en el nivel meta (desde la desarticulación y el aislamiento, hasta la articulación, el encadenamiento y la capacidad comunicacional).

2. Una política orientada a la estabilidad en el nivel macro, que no obstaculice el proceso de industrialización y desarrollo empresarial mediante una predisposición antiexportaciones o una liberalización comercial no diferenciada, presupone una orientación al desarrollo y a la industrialización en el nivel meta.

3. En el nivel micro, sólo surgirán empresas competitivas si se conjugan dos factores en el nivel macro: una presión competitiva que obligue a las empresas a incrementar permanentemente su capacidad de competencia y condiciones marco lo suficientemente estables, requisito para que las empresas puedan actuar estratégicamente.

4. En el nivel meso, confluyen factores de los otros tres niveles. Por el lado de la oferta, solamente se despliegan actividades cuando existen los factores correspondientes en el nivel meta y macro. Específicamente, sin la presencia de actores capaces de desarrollar estrategias, no habrá políticas específicas, y con una política macro inestable o reacia a la competencia, las del nivel meso quedarán mayormente sin efecto. Por el lado de la demanda, sólo sucederá algo si las empresas se ven obligadas a recurrir al apoyo de instituciones eficientes del nivel meso, para sobrevivir en mercados competitivos.

Page 66: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

65ECIPERÚ

En definitiva, la competitividad sistémica considera a la empresa, a su entorno y la interacción entre ambos. En esa interrelación hay que distinguir niveles que interactúan para favorecer o desfavorecer la competitividad empresarial. La existencia de empresas competitivas exige la interacción de una visión estratégica del desarrollo consensuada y que favorezca los factores culturales que benefician al empresariado (nivel meta) con condiciones marco estables y previsibles en el plano nacional y local/regional (nivel macro); pero, a la vez, una institucionalidad y asociaciones de diversa índole y tipo que se ajusten al perfil de especialización de la economía y favorezcan el desarrollo de esas empresas competitivas (nivel meso). Asimismo, se requiere que las empresas alcancen un alto nivel en materia de productividad, calidad, flexibilidad y agilidad, que les permita sostener una ventaja competitiva estratégica y generar redes empresariales para acelerar los procesos de aprendizaje colectivo (nivel micro).

Estas reflexiones nos llevan a sostener que es importante que la empresa y los empresarios de cualquier país de América Latina y el Caribe entiendan que el logro de la productividad y la competitividad empresarial es una función sistémica de todo un conjunto de actividades que soporta la sociedad: educativas y de capacitación de recursos humanos; de salud, higiene y vivienda; de resolución adecuada de conflictos en el sistema judicial; y sobre todo, las destinadas a garantizar la existencia de recursos y servicios estratégicos avanzados de la producción en las tres áreas claves de información, capacitación y acceso al financiamiento [10].

Empresarios comprometidos con el desarrollo

Se sostiene que desde la perspectiva del desarrollo local es más significativo el papel de las organizaciones privadas, en especial los propios empresarios, que la actuación pública en sus distintos niveles. Esto se debe a que su función económica es condición necesaria para alcanzar los objetivos propuestos en la esfera pública, además que los instrumentos para el desarrollo local serán eficaces si son asumidos por ellos mismos.

Ha de tenerse en cuenta que es en el sector privado empresarial donde se encuentra la mayor parte de los capitales disponibles, de suerte que la comunidad local, a través de las autoridades municipales, debe intentar influir sobre la utilización de esos capitales

para fortalecer la capacidad de crecimiento económico y de creación de empresas a nivel local [11].

En esta línea de argumentación, las empresas, y especialmente las pequeñas y medianas, son decisivas para el desarrollo local. Ellas estimulan una localidad o región; le dan densidad, estructura y dinámica en base a su capacidad para crear empleo, innovar, diversificar y modernizar la economía local y adaptarse de forma flexible y creativa a los cambios [12]. Sin la iniciativa y la inversión privada, el sector público local, estatal o federal difícilmente puede convertirse en motor de nuevos proyectos porque la puesta en marcha de los programas de desarrollo para un sector o área concretos sólo en parte puede ser realizada por la administración pública. De ahí que frecuentemente se piense en proyectos conjuntos a través de empresas mixtas o esquemas de co-inversiones. Entonces, los esquemas de colaboración entre el sector público y la comunidad empresarial deben ser la pauta para el logro del desarrollo local [13].

En esta perspectiva, la mayoría de los empresarios no debe pensar sólo en su propio beneficio sino en su capacidad de crear empleos y en asumir una responsabilidad social en la comunidad local. Este mayor interés por el ámbito local debe basarse en el hecho de que las decisiones tomadas a nivel municipal tienen un apreciable y más cercano impacto en la propia actividad empresarial, y, por tanto, deben sentir una mayor necesidad de participar en el proceso.

La responsabilidad social de una organización privada consiste en evaluar todos sus procesos de decisión y sus implicaciones o efectos sobre los demás. La responsabilidad social se aplica primero al universo inmediato del sector privado: trabajadores, accionistas, clientes, distribuidores y proveedores, dado que mantienen una estrecha relación con él.

Adicionalmente, la empresa privada tiene obligaciones con la comunidad: ciudadanos, gobierno, empresas competidoras, etc. La empresa debe, con sus decisiones, proteger la comunidad, promover su desarrollo y acrecentar su bienestar. Son ejemplos de responsabilidad para con la comunidad: no provocar daños al ambiente y colaborar con organismos, clubes o asociaciones sociales, educativas, científicas o asistenciales. Es decir, las empresas deben desempeñar el papel de motores de un desarrollo social y ambientalmente

Page 67: Ecipe Rue Special 2010

Número especial 2010

66ECIPERÚ

más compatible, de manera más transparente y con objetivos específicos.

De otro lado, frecuentemente se observa en los países latinoamericanos y caribeños que las pequeñas y medianas empresas tienden a instalarse allí donde viven los empresarios, favoreciendo con ello un mayor desarrollo de su zona. Este hecho ha facilitado la expansión y la diversificación de las economías locales, y se potencia más si existe el apoyo de instituciones públicas u organismos no gubernamentales destinados a ayudar a los empresarios, por lo menos durante los primeros años de existencia de su empresa. En este mismo sentido, muchas autoridades locales han contribuido al asentamiento de este tipo de iniciativas a través de políticas dirigidas a la formación de las personas interesadas o mediante medidas de apoyo (económicas, de asistencia técnica y de infraestructura) a la creación de nuevas empresas.

Además de un promotor, “toda aventura empresarial necesita una idea que se materializará en un nuevo producto o servicio, unos medios humanos y técnicos imprescindibles para el desarrollo de la idea y, finalmente, un entorno que no sólo no dificulte la realización del proyecto, sino que tenga unas características tales que favorezcan su desarrollo” [12].

En este sentido, debe recordarse que la empresa es un sistema abierto que ha de estar en interacción continua con su medio social, económico, político y cultural. Y esto es así, por lo menos, por tres motivos: ese es el entorno al que va a dirigir su producto (sobre todo las pequeñas empresas), es de ese mercado del cual debe extraer la información necesaria para adecuarse permanentemente a sus requerimientos, y es en ese entorno donde se sitúan los agentes, entidades e individuos con los que la empresa se interrelacionará cotidianamente.

Al nivel local, también resulta sumamente interesante contar con un sector empresarial que se distinga por su capacidad de dar respuesta ante las nuevas oportunidades, que favorezca la introducción de nuevas tecnologías y su aplicación en las empresas existentes.

De ahí que el entorno empresarial de la zona es uno de los factores que influye notablemente en el desarrollo de procesos innovadores y en la creación de nuevas empresas. Por ello, la existencia de este tipo de empresario responde en parte a la tradición

empresarial que haya existido anteriormente; pero aún en el caso de que no se contara con los antecedentes previos, una de las posibilidades para obtenerlo es procurar la proximidad de un entorno de formación relacionado con la empresa y la disponibilidad de una mano de obra calificada.

En este orden de ideas, es necesario recordar que el desarrollo local es fruto de la dinámica de diversos actores sociales y de la implantación de estructuras adaptadas a las necesidades de la zona, correspondiendo a las instituciones públicas y privadas el papel de promover la relación entre los actores y los instrumentos de apoyo precisos [4]. Además de las autoridades públicas y las empresas privadas, son también actores significativos para el desarrollo local: las universidades, las agencias de desarrollo, los sindicatos, el sistema financiero, las cámaras empresariales o las asociaciones de diverso tipo con una amplia base local [12].

Nueva gestión pública municipal

Si el gobierno nacional debe cumplir un papel promotor de la economía de todo el país, el gobierno municipal lo debe hacer en la economía local. Específicamente, los gobiernos municipales deben constituirse en el mecanismo de fomento y apoyo de cadenas productivas y de redes empresariales que eleven la productividad y competitividad de la región, de modo que se generen más ingresos públicos y privados, se organice una lucha focalizada contra la pobreza y se mejore efectivamente la vida cotidiana de la mayoría de los pobladores.

En esta lógica, el gobierno municipal, en lugar de convertirse en empresario o productor de bienes, debe revalorar la iniciativa privada y los esfuerzos por crear micro y pequeñas empresas, que es lo que más abunda en el espacio local. Así, debe aceptar el desafío de potenciar los recursos humanos y productivos de su entorno, para facilitar mayores oportunidades de generación de riqueza y empleo en el espacio local y promover un desarrollo económico local sustentable.

Lo anterior iría creando lo que se puede denominar como municipio productivo [9, 12], ideal para reactivar al municipio y superar el marco del clásico gobierno municipal dedicado a la limpieza y a los servicios básicos del entorno. Debe canalizar créditos, asistencia técnica y capacitación productiva, financiera y empresarial. Debe proveer flujos de

Page 68: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

67ECIPERÚ

información, sistemas de mercadeo y procesos de extensión tecnológica. Debe contribuir a identificar proyectos productivos locales, fuentes de crédito e inversión y estrategias para fortalecer capacidades y oportunidades y podría convertirse en sujeto de crédito internacional.

En suma, el municipio productivo debe convertir al espacio local en un entorno de oportunidades para los ciudadanos, que conjugue la preservación del medio ambiente, la seguridad alimentaria y el acceso a servicios básicos con fondos de inversión para proyectos, espacios de concertación interlocal e infraestructura para la comercialización de productos, caminos, puentes, ferias, etcétera.

Por otro lado, las posibilidades de acción que pueden desarrollar los gobiernos municipales para fomentar la actividad empresarial y el empleo local, pueden dividirse en tres grandes categorías [12]:

1. Actividades que afectan a la oferta de los factores necesarios o favorables al establecimiento y expansión de las nuevas empresas: promoción inmobiliaria, ayuda financiera, estímulo de las capacidades locales mediante una oferta formativa y educativa orientada principalmente a los grupos más desfavorecidos en el mercado de trabajo, formación para la gestión empresarial, asistencia técnica e información actualizada y profunda sobre mercados, proveedores, disponibilidad de capital y otros recursos;

2. Actividades que ayudan a la creación o identificación de oportunidades de mercado para las empresas: compras y contrataciones públicas, desarrollo de empresas locales donde se hayan detectado recursos ociosos y promoción de nuevas instituciones o empresas privadas; y

3. Actividades que ayudan a la creación del ambiente necesario para el buen desarrollo de las empresas: promoción de una cultura empresarial favorable al autoempleo, animación sociocultural para transformar las ideas en realizaciones concretas, y mejoramiento de la flexibilidad y la accesibilidad administrativa de las organizaciones públicas locales ante las empresas de la zona.

En definitiva, las tareas a realizar por los gobiernos locales son: el diseño de los programas y actuaciones necesarias para potenciar un desarrollo lo más

armónico posible de la comunidad local; la identificación de las potencialidades de desarrollo endógeno y su integración en los programas regionales y nacionales de desarrollo; el apoyo a los proyectos e iniciativas locales para la puesta en marcha de los servicios públicos apropiados; la estructuración de los intercambios entre los empresarios locales, las instituciones educativas, científicas o financieras y las otras administraciones y autoridades públicas; la identificación y formación de los empresarios potenciales; y la organización de lo local mediante la creación de servicios de comercialización y exportación de los productos locales. Todo ello, además de las acciones tradicionales de carácter asistencial y de planificación urbana.

Por otra parte, estas tareas del municipio productivo requieren [12]:

1. Planificación a mediano y largo plazos;

2. Coordinación de las medidas que se hayan puesto en marcha no solo entre las áreas internas de los gobiernos municipales, sino también con las del resto de las instituciones que actúan a otros niveles, de manera que el esfuerzo que se realice sea coherente, no haya duplicidades y puedan coordinarse todos los recursos existentes aprovechándolos al máximo en beneficio de cada localidad;

3. Descentralización también a nivel municipal para encontrar la escala más conveniente a la hora de detectar y dar respuesta a los problemas de los ciudadanos;

4. Concertación, pues para conseguir un desarrollo local armónico es necesario que el proyecto sea asumido por el conjunto de la comunidad y no sólo por el gobierno municipal, y exista así una participación efectiva de los diferentes agentes económicos, actitud que es, en última instancia, responsabilidad de la autoridad municipal; y

5. Programación del gasto público en la que se incluyan criterios de eficacia y rentabilización del gasto.

En este marco de reflexiones, se debe afirmar que el desarrollo local debe llevarse a cabo con un enfoque integral, lo que exige la participación de diversos actores sociales. Es necesario recalcar que aunque los gobiernos municipales u

Page 69: Ecipe Rue Special 2010

Número especial 2010

68ECIPERÚ

otros niveles de la administración pública son elementos condicionantes del desarrollo local, las organizaciones privadas –en especial las pequeñas y medianas empresas– son los elementos decisivos y determinantes para lograr un desarrollo local armónico y pluridimensional que potencie las ventajas competitivas locales. Para ello es necesario empresarios preocupados por la competitividad y los beneficios económicos a la vez que asuman apropiadamente su responsabilidad social, así como un entorno que propicie la innovación y creatividad empresariales.

Si bien es cierto que los caminos hacia el desarrollo local son múltiples, es importante reconocer que es resultado de las interacciones dinámicas, en un tiempo y un lugar determinados, entre organizaciones (redes de empresas y sus correspondientes mercados), conocimientos (específicos del lugar y codificados) e instituciones (internas y externas que inciden en la formación y el desarrollo de las capacidades humanas y del sistema de valores).

Importancia de la institucionalidad local

A nivel individual y societal, la relación entre capacidades humanas e industria no es necesariamente virtuosa, en el sentido de que la evolución de la industria no conduce automáticamente al desarrollo de las capacidades humanas. Asimismo, el hecho de que se constituyan redes empresariales no conduce mecánicamente a la conformación del sistema productivo local y a procesos de aprendizaje colectivos. Esto es así porque no siempre se presentan condiciones favorables para llevar a la práctica esas capacidades, redes y procesos, especialmente si en el territorio (en particular en el ambiente de trabajo) no se fomenta la innovación creativa y la capacidad de iniciativa, o no se las valoriza.

Para una eficaz relación entre capacidades humanas e industria y la conformación robusta de sistemas productivos locales que incentiven innovaciones y su difusión, se requieren organizaciones, instituciones y capital social (factores institucionales) que las favorezcan. Las organizaciones están más definidas en términos de estructuras de funciones reconocidas y aceptadas, mientras que las instituciones están más definidas en términos de creencias, normas, reglas, aspectos reguladores y cognoscitivos que permiten el desarrollo de esas funciones y estructuras. El capital social está compuesto de tres elementos: el grado de confianza existente entre los actores sociales, las normas

de comportamiento cívico practicadas y el nivel de asociatividad que caracteriza a la sociedad [4, 14, 15].

Desde la óptica del desarrollo local adoptada en este trabajo, se trata de consolidar la cooperación interinstitucional, porque los asuntos económicos, políticos, sociales y ambientales de un territorio no deberían ser indiferentes para las instituciones y organizaciones que tienen la responsabilidad de la economía y del bienestar social de la nación y en los gobiernos subnacionales. En consecuencia, cada oposición o separación entre las articulaciones locales y centrales del Estado –así como de las demás instituciones económicas, sociales, etc.– se considera equivocada y, por esa razón, se cuestiona tanto en la teoría como en la práctica.

Por tanto, el desarrollo local se produce en sociedades cuyas formas de organización, condiciones sociales, cultura y códigos de conducta de la población condicionan los procesos de cambio estructural. Las empresas locales son el vehículo que facilita la inserción de los sistemas productivos en el sistema de relaciones socioculturales del territorio.

Los mecanismos de funcionamiento de las economías locales sólo pueden explicarse por la fuerte relación que se establece entre empresa, cultura y territorio. Por ello se advierte que “históricamente la familia ha contribuido de forma singular al surgimiento y desarrollo de las empresas y al funcionamiento del distrito, canalizando recursos humanos, recursos empresariales y recursos financieros a buena parte de los proyectos empresariales” [4].

En los procesos de desarrollo local, los valores sociales juegan un papel clave en el funcionamiento del sistema productivo. “El sentimiento de pertenecer a una comunidad local diferenciada está tan fuertemente arraigado que se sobrepone al sentimiento de clase, lo que altera las relaciones industriales e interfiere y limita los conflictos sociales locales” [4]. A su vez, la fuerte identidad local unida al reconocimiento social de la actividad empresarial explica el surgimiento y el mantenimiento de la actividad productiva en situaciones de necesidad y en circunstancias de riesgo. La confianza entre empresarios favorece la cooperación y asegura las transacciones entre las empresas locales. Además, la ética del trabajo induce a la mejora de la cualificación de los recursos humanos y reduce la conflictividad social. En definitiva, estos mecanismos favorecen el proceso de acumulación de capital y el desarrollo local.

Page 70: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

69ECIPERÚ

CONCLUSIONES

Una empresa con buenos principios éticos no sólo trata a los clientes y empleados con honestidad, sino que también actúa como un buen ciudadano en la comunidad. Estas obligaciones más amplias se conocen como responsabilidad social empresarial. En los últimos años, las empresas han estado aceptando, en diversos grados, cada vez más la responsabilidad hacia la comunidad donde desarrollan sus negocios. Ciertamente, no hay consenso acerca de cómo y en qué grado las empresas están obligadas a participar en actividades socialmente deseables. En este trabajo hemos privilegiado sus compromisos con el desarrollo económico y social de la región donde se insertan. Para entender mejor y llevar a la práctica exitosamente este componente de la responsabilidad social empresarial, es importante visualizar a la empresa desde la perspectiva de la competitividad sistémica y comprender que la competitividad es consecuencia de una serie de factores que interactúan en los niveles micro, meso, macro y metaeconómicos. En esta lógica, es importante renovar las acciones de las administraciones públicas, precisar los nuevos atributos de los empresarios, conformar una nueva institucionalidad local y lograr que todo ello confluya en la construcción de un nuevo enfoque y práctica del desarrollo local en los países de América y el Caribe. No hay una sola teoría del desarrollo local y es un objeto de estudio complejo y en proceso de construcción. El desarrollo local debe llevarse a cabo con un enfoque integral, lo que exige la participación de diversos actores sociales. Es necesario recalcar que aunque los gobiernos locales u otros niveles de la administración pública son elementos condicionantes del desarrollo local, las organizaciones privadas –en especial las pequeñas y medianas empresas– son los elementos decisivos y determinantes para lograr un desarrollo local armónico y pluridimensional que potencie las ventajas competitivas locales. Para ello es necesario empresarios preocupados por la competitividad y los beneficios económicos, a la vez que asumen apropiadamente su responsabilidad social, así como un entorno que propicie la innovación y creatividad empresariales.

REFERENCIAS

[1] E. T. Penrose, The Theory of the Growth of the Firm, Basil Blackwell, Oxford, 1972.

[2] A. Chandler, “Strategy and Structure”, en N. Foss (editor), Resources Firms and Strategies, Oxford University Press, Inglaterra, 1962.

[3] J. Arocena, El desarrollo local: un desafío contemporáneo, Centro Latinoamericano de Economía Humana (CLAEH), Uruguay, 1995.

[4] A. Vázquez Barquero, “Desarrollo económico local y descentralización”, en A. Solari y J. Martínez (compiladores), Desarrollo local, textos cardinales, Universidad Michoacana de San Nicolás de Hidalgo (UMSNH), Facultad de Economía, México, 2005, 33-68.

[5] J. Longenecker, C. Moore, W. Petty, L. Palich, Administración de pequeñas empresas: enfoque emprendedor, Cengage Learning Editores, 13º Ed., México, 2008.

[6] T. Perdiguero, La responsabilidad social de las empresas en un mundo global, Editorial Anagrama, Barcelona, España, 2003.

[7] B. Kliksberg, Más ética, más desarrollo, Temas Grupo Editorial SRL, Sexta edición, Buenos Aires, Argentina, 2006.

[8] J. Meyer-Stamer, “La competitividad sistémica: de un concepto casual a una herramienta del benchmarking”, en T. Altenburg – D. Messner (editores), América Latina competitiva: desafíos para la economía, la sociedad y el Estado, Instituto Alemán de Desarrollo–GTZ, Nueva Sociedad, Venezuela, 2002, 241-257.

[9] I. Silva Lira, “Desarrollo económico local y competitividad territorial en América Latina”, en Revista de la CEPAL, No.85, abril de 2005, 81-100.

[10] T. Altenburg, D. Messner, “Introducción”, en T. Altenburg – D. Messner (editores), América Latina competitiva: desafíos para la economía, la sociedad y el Estado, Instituto Alemán de Desarrollo–GTZ – Nueva Sociedad, Venezuela, 2002, 7-13.

[11] A. Vázquez Barquero, Desarrollo local: una estrategia de creación de empleo, Pirámide, Madrid, España, 1988.

[12] Instituto Latinoamericano y del Caribe de Planificación Económica y Social (ILPES), Manual de desarrollo local, ILPES-CEPAL, LCP/IP/L.55, Santiago de Chile, 1998.

[13] I. Silva Lira, Metodología para la elaboración de estrategias del desarrollo local y regional, ILPES-CEPAL, Santiago de Chile, 2002.

[14] K. Appendini, M. Nuijten, “El papel de las instituciones en contextos locales”, en A. Solari y J. Martínez (compiladores), Desarrollo local, textos cardinales, Universidad Michoacana de San Nicolás de Hidalgo (UMSNH), Facultad de Economía, México, 2005, 253-274.

[15] R. Rosales Ortega, “Introducción: Desarrollo local: un camino para la investigación en la relación territorio y actores sociales”, en R. Rosales Ortega (coordinadora), Desarrollo local: Teorías y prácticas socioterritoriales”, Miguel Ángel Porrúa Librero-editor, Universidad Autónoma Metropolitana (Iztapalapa), México, 2007.

E-mail: [email protected]

Page 71: Ecipe Rue Special 2010

70ECIPERÚ

¿Dónde estudiaste la secundaria y qué te gustó en ese periodo?Estudié en el Colegio Estatal 2 de Mayo en Caraz. Era buena en matemáticas, pero me encantaba observar las células de cortes citológicos de cebollas. Me parecía increíble ver la pared celular. Teníamos microscopio, gracias a que, después del terremoto, los colegios eran apadrinados por instituciones extranjeras. Mi colegio fue amadrinado por la Embajada Británica, por lo que teníamos muchas cositas donadas, incluso una computadora Apple. Me gustaba salir al campo y creo que allí nació mi gusto por la biología.

¿Y la universidad…?Vine a Lima porque mi selección estaba entre Medicina, Biología, Química o Literatura y ninguna de estas carreras había en Huaraz. Me preparé tres meses en la Pre Cayetano, con el único apoyo que recibí de mi padre. Postulé e ingresé a la Villarreal.

Sólo tres meses de apoyo…Lo que pasa es que mi madre es soltera y mi padre no vivió con nosotras. Mi madre fue profesora de secundaria y de adultos. La parte económica no fue fácil. Ingresé en el 93, en el 94 trabajé en una ferretería, luego regresé a la universidad con una cartera de alumnos particulares para pagar mis estudios.

¿Cómo fueron tus estudios universitarios?Ingresé a Biología, lo que preocupó a mi familia: ¿y de qué vas a vivir?, me preguntaban. Mi mamá me apoyó y yo seguí lo que me gustaba. En la Universidad, primero me interesé en la Zoología, pero luego me gustó la Biología molecular, aunque no teníamos un laboratorio sofisticado. Hicimos práctica de extracción de ADN y también de clonación, con el profesor Celso Romero.

Hice prácticas en el laboratorio farmacéutico Colichón; también hice prácticas con camélidos, con el profesor Santiago Pastor.

Pero él no es biólogo molecular… No… Luego, él me recomendó ir al Centro Internacional de la Papa (CIP), donde trabajé en la Solanum tuberosum subsp. andigena, es decir la papa más difundida en los Andes. Son casi tres mil genotipos diferentes que tiene el CIP. Lo que se propuso es crear colecciones núcleo, aproximadamente el 10% en especies clonales, que sean como el resumen de esa diversidad genética: el menor número de individuos con la mayor diversidad genética. Previamente a mi trabajo, se hizo análisis morfológicos y bioquímicos para seleccionar un núcleo de diversidad genética. Yo tenía que hacer el trabajo genético. Comparaba una muestra aleatoria con los miembros del núcleo. Trabajé con microsatélites. Se mostró que había mucha similitud, de modo que había coincidencia entre la selección morfológica y bioquímica con la selección genética.

Eso muestra el buen trabajo de nuestros antepasados…Y es que hasta ahora, los campesinos, los que siguen siendo mejoradores genéticos, son muy detallistas.

Seguro que tu tesis fue calificada como excelente por el Jurado… ¿y luego?Sí. Luego fui contratada por el CIP para hacer verificación de identidad, a manera de control de calidad, para descartar los errores humanos en la selección.

Después trabajé sobre conocimiento tradicional y genética, diversidad genética, que es lo que más me interesó, porque nos permite conocer lo que se tiene, usando marcadores. El objetivo es conocer para conservar. El trabajo lo hice con el Dr. William Roca, quien regresaba de Colombia.

Y partiste a Wisconsin, ¿cómo fue tu selección?Hice trabajos comparando muestras in situ con muestras ex situ, tratando de ver cómo la clasificación de los campesinos influía en la diversidad genética.

Mercedes Ames Universidad de Wisconsin, Estados Unidos

Page 72: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

71ECIPERÚ

A los dos años fui becada por Japón para estudiar diversidad genética en papa. En un viaje al Cusco, para extraer ADN, tomé fotos de una papa silvestre. Se la mostré al doctor Spooner, de la Universidad de Wisconsin –quien viene todos los años al CIP–. El doctor Spooner me dijo haber visto en mí el interés por el tema y me invitó a trabajar con él en taxonomía de una serie de papas silvestres. Así es como dejé la beca de Japón y me fui a Estados Unidos.

¿Qué otro país estudia la papa?En Europa, Holanda. Hay un gran centro de estudios de la papa. Lo mismo en Inglaterra. Lo que pasa es que la papa atrae mucho a los investigadores; está en todos lados.

¿Cómo hiciste para ser aceptada y qué haces en la Universidad de Wisconsin?Pasé el TOEFL y tuve algunas cartas de recomendación. Estudio la serie evolutiva de la serie piurana de papas. Esto se debe a que es muy discutida la forma en la que fueron clasificadas.

¿Regresarás al Perú?La mayoría de los amigos que van a Estados Unidos tiene el objetivo de quedarse. A mí, me gustaría regresar. Primero, depende si el área que deseo desarrollar tenga opción aquí. Creo que sí la tiene. Lo segundo es que haya posibilidades de vivir bien…, no pasar aprietos, poder tener familia.

¿Cómo vives en Wisconsin?Allá vivo en la casa de una familia norteamericana, lo que me ha permitido mejorar mucho mi inglés. Me llevo muy bien con la familia. En Estados Unidos valoran mucho a la gente que estudia.

Estar lejos del Perú, sin los amigos de antes, puede ser un problema; ¿eras muy social en la secundaria y en la universidad?Mi mamá era estricta, y no iba a fiestas. Aunque a mí me gusta más un concierto de rock que ir a las discotecas. Allí terminas con olor a cigarro.

¿Cómo defines a un amigo?Es aquel con quien se conoce tanto que por más alejado que se esté, cuando se encuentre con uno es como si siempre hubieran estado juntos.

¿Cómo conociste a tu enamorado?A Israel Barrantes lo conocí en la Universidad, cuando regresé de mi experiencia en la ferretería. El enseñaba en la Universidad, cuando ganó una beca de un mes para estudiar en Madrid Genómica y Proteómica e Informática y luego ganó una beca de la Fundación Carolina para hacer una maestría en Bioquímica. La separación es difícil, pero tenemos un “plan de visitas”. Pronto tendré su visita en Wisconsin. Creo que la estabilidad emocional es muy importante para el desempeño científico.

¿Qué deporte prácticas?Bicicleta, para ir al trabajo y para pasear por los lagos de Wisconsin.

¿Qué aconsejarías a los jóvenes?Que los jóvenes pierdan el miedo a las carreras científicas, y, en general, encontrar el gusto a lo que uno hace. Y pensar que en cada etapa de la vida hay motivos para ser feliz.

¿Qué piensas de la fidelidad, el feminismo…?La fidelidad es importante, aunque esté devaluada; es vital para ser feliz. Ni feminismo ni machismo, viva la complementariedad…

Page 73: Ecipe Rue Special 2010

72ECIPERÚ

¿Dónde estudiaste primaria, secundaria y pregrado? El primer y segundo grado de primaria los hice en Pucallpa, luego hice el resto de la primaria y la secundaria completa en el colegio público “Teniente Coronel Alfredo Bonifaz”, que está ubicado en el Cuartel de la División Blindada del Ejército, en el Rímac. Mis estudios de pregrado los hice en la Universidad Peruana Cayetano Heredia (UPCH), en la Facultad de Ciencias y Filosofía.

¿Cómo empezó tu vocación científica?Aunque suene tonto decirlo, me inspiró mucho la serie de televisión: “El Mundo de Beakman”. Además, recuerdo que un día en mi casa me mandaron a lavar una olla que tenía arroz quemado pegado en el fondo, entonces a mis 12 años de edad se me ocurrió echarle ácido muriático que había en el baño de mi casa y luego lejía encima; fue la primera reacción química que hice en mi vida, donde produje al irritante y tóxico cloro (en gas), que casi asfixia a la mitad de mi familia. Esa anécdota me hizo pensar “¿por qué sucedió eso?”, y esa pregunta me sigue acompañando cada día en el laboratorio…

¿Cómo lograste ingresar a tu actual universidad?Luego de graduarme de Bachiller en Química, hice mi tesis de Licenciatura bajo la asesoría de la Dra. Rosario Rojas en la UPCH. Fue ella quien me recomendó, con mi actual asesor de tesis doctoral, Dr. Gerald Hammond de la Universidad de Louisville, Departamento de Química, en Kentucky, Estados Unidos. Para entrar al programa de doctorado hay que dar un examen de inglés (TOEFL) y el examen para alumnos graduados (GRE). También hay que demostrar que puedes dictar clases de pregrado ante un pequeño jurado de la universidad. Pero siendo honesto, creo que tener la carta de recomendación de Rosario, habiéndole demostrado que era capaz de estudiar fuera y no hacerla quedar mal, fue tan importante como cumplir bien con el resto de requisitos.

¿Cuáles son las mayores satisfacciones y recompensas que has tenido?La mayor satisfacción que he tenido como profesional es el haberme ganado la confianza y respeto de mis respectivos asesores de tesis. Primero de la Dra. Rojas en Cayetano y, luego, del Dr. Hammond, en Louisville. Es una persona muy exigente, pero eso me llevó a ganarme también el respeto del resto de mis colegas en el laboratorio y el Departamento de Química. El proceso me hizo trabajar muy fuerte, ser muy productivo, publicar varios artículos en revistas indexadas, ganar premios para viajar pagado a congresos, un grant para hacer síntesis orgánica, pero, por sobre todo, me hizo madurar y crecer como hombre y profesional.

¿A qué se debe tus deseos de trabajar en el Perú?Tengo un compromiso muy personal pendiente en Perú. Aparte de esto, es muy simple: creo que como científico sería más útil en Perú que en Estados Unidos. Tengo valiosas experiencias y conocimientos para compartir. Gastón Acurio dijo algo como que “el Perú es donde todo está por hacer y eso representa muchas oportunidades”; pero se hace complicado, no sólo debido a las limitaciones económicas y de infraestructura para hacer investigación en Química, sino principalmente a la limitada visión y mentalidad con que se enfoca a las ciencias en el Perú. A veces pienso que en el Perú las cosas se hacen como con la selección de fútbol: las decisiones se toman para solucionar problemas del momento, y luego se espera que todo se solucione con un poco de suerte, sin planear a largo plazo, invirtiendo en lo básico y con una visión más responsable y global. A alguien como yo, eso puede desanimar o motivar; quiero quedarme con lo segundo, si quiero ver cambios alguna vez.

¿Cómo ves las perspectivas de las plantas curativas en el mercado mundial? Las plantas medicinales tienen mucho potencial. A nivel mundial, más del 75% de personas en países en vías de desarrollo utiliza plantas como su fuente

José Carlos Aponte Universidad de Louisville, Kentucky, EE.UU.

Page 74: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

73ECIPERÚ

principal de cura a sus problemas de salud. En los Estados Unidos, por ejemplo, el mercado de nutritional supplements es cada vez más grande.

Lo mismo sucede en Europa y en países donde hay una alta población de inmigrantes, los que de cierta forma difunden y hacen que el mercado de la medicina natural o alternativa se expanda. Basta ver la gran cantidad de plantas medicinales mexicanas que se publicitan en Estados Unidos. Creo que lo que se necesita es crear un vínculo sólido entre la medicina con medicamentos y la medicina con plantas. Hay que desmitificar a las plantas y empezar a tener certezas. Para eso se requiere crear protocolos de estandarización y cuantificación, así

como identificar los componentes activos en ellas. Por ejemplo, no queremos que tomar la infusión de una planta reduzca el colesterol pero que al mismo tiempo destruya tu hígado, o que tomar una cápsula de un extracto de planta fabricado en febrero tenga una composición distinta a una fabricada en setiembre. Si se quiere que más gente consuma productos naturales, hay que crear conciencia en que ese producto es confiable, basándose en resultados científicos que lo avalen como tal. Creo que el éxito de este mercado (u oportunidad) va a depender de cuán eficientes seamos en estas tareas.

Lima, junio de 2009

Page 75: Ecipe Rue Special 2010

74ECIPERÚ

Para nosotros es bueno que vengas regularmente al Perú y dirijas el Instituto Internacional de Investigaciones para el Perú (IIIPerú), ¿cómo marcha el trabajo en ese sentido? Tú me propusiste crear el IIIPerú, y ahora estamos en eso. Los dos primeros años hemos hecho un curso sobre Biología Celular Avanzada, otro sobre Biofísica Molecular, otro sobre Camélidos Sudamericanos y un curso sobre Ciencia de Materiales. Ahora se trata de empezar con proyectos que impulsen la colaboración de peruanos ubicados en universidades del primer mundo en proyectos de desarrollo de investigación y ciencia en el Perú.

Esa es la idea originaria para la creación del IIIPerú. En cuanto a camélidos, se tiene proyectos en marcha. En el IPEN, tenemos ya, por ejemplo, un secuenciador genético, y un científico ha partido a Brasil para entrenarse en las técnicas. ¡Qué bueno!, ahora se trata de lograr un compromiso de instituciones extranjeras y peruanas para desarrollar proyectos conjuntos. El proyecto que estamos desarrollando con la UPCH para hacer un laboratorio gemelo al mío en el Perú, se ha puesto en marcha. Un científico, Daniel Guerra, va ir a Berkeley para entrenarse en la técnica. Postularemos a una subvención de la National Science Foundation para construir el aparato en el Perú y tener la conexión entre los dos laboratorios gemelos.

Supongo que habrá proyectos similares en otros campos…Efectivamente, trataremos de hacer lo mismo con Javier Navarro que está en la Universidad de Texas, Tom Kirchhausen de la Universidad de Harvard, Marcos Milla de Laboratorios Roche, Guillermo Romero de la Universidad de Pittsburgh. Todos ellos son científicos confirmados, bien establecidos y con renombre. Debemos buscar gente en Física y Química. En Física tenemos a Fernando Ponce en Texas, Jaime Fernández-Baca en Oak Ridge, Jorge

Seminario en Texas y a Jorge Linares en París, entre otros.Sí, y además necesitaríamos algunos químicos. Debemos recuperar a la gente que se fue, aunque sólo sea a través de su participación en proyectos conjuntos.

La India hace eso a gran escala y en China el caso es similar; China recupera científicos y los tratan muy bien…Claro, de eso se trata.

Hablemos un poco de cómo decidiste radicar en Estados Unidos…Yo regresé a Lima en diciembre del 80, después de terminar mi tesis en Berkeley. Tenía la intención de quedarme en San Marcos, en San Fernando, pero me ofrecieron el mismo puesto que tenía cuando me fui, es decir profesor asistente no nombrado, con un sueldo de cien dólares, que no alcanzaba para mantener a la familia. Eso ha ocurrido con muchos. Volviste a Estados Unidos…Entonces regresé a Berkeley, y mi profesor me ofreció hacer un postdoctorado. Aquí cambié de giro. Mi tesis fue teórica. Para mi postdoctorado tenía que hacer un instrumento físico que midiera los efectos de moléculas helicoidales sobre la dispersión de la luz circularmente polarizada derecha o polarizada derecha. Se demostró que la dispersión angular depende de la polarización de la luz para moléculas helicoidales. Era la parte experimental de tu tesis…Habíamos hecho el tratamiento clásico y luego cuántico del problema. Se trataba entonces de medir el fenómeno experimentalmente.

Pero tú tenías experiencia de laboratorio…Sí, en Lima yo había construido aparatos. Pero en Berkeley estuve cinco años haciendo teoría y de repente me veo de cabeza en un trabajo experimental. Conseguimos una muestra apropiada para tratar de

Carlos Bustamante

Page 76: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

75ECIPERÚ

probar la teoría. Nuestro trabajo fue publicado en Nature. Eso es consagratorio, las puertas se te abrieron en Estados Unidos.Bueno, después de ello decidí no regresar al Perú, debido a que no había posibilidades; además la guerra con Sendero había ya empezado. Entonces, conseguí un trabajo en la Universidad de New Mexico, donde fui profesor desde agosto del 82 hasta diciembre del 90. Enseñabas e investigabas…Era profesor de Química, enseñaba Físico Química y Biofísica. Me promovieron tempranamente, a los tres años era profesor asociado y al año siguiente a profesor principal.

¿Qué tipo de experimentos hacías allí?Allí empezó el tema de las moléculas individuales. Hacíamos microscopía de fluorescencia, en la que mirábamos moléculas de ADN, intercalando un colorante que fluoresce cuando se une entre las bases del ADN. Mezclábamos el ADN con un gel de agarosa entre un portaobjetos y cubreobjetos, lo dejábamos enfriar y las moléculas del ADN quedaban atrapadas en el gel, que se había endurecido. Esta pequeña microcámara la sellábamos con esmalte de uñas y le colocábamos dos electrodos para transformarla en una cámara de micro-electroforesis. Luego lo mirábamos bajo el microscopio usando epifluorescencia, que nos permitía ver cómo se movían las moléculas por el gel bajo la influencia del campo eléctrico, tratando de entrar por los poros del gel. Viendo los procesos de separación de moléculas de ADN por el gel de agarosa, noté que las moléculas de ADN se contraían mucho y luego se estiraban como si fueran realmente bandas elásticas moleculares. Ahí me nace la pregunta ¿qué pasaría si tomáramos a una molécula de ADN y la extendiéramos? Se trataba de calcular la elasticidad de la molécula de ADN. Empezó como una pregunta retórica, casi como un juego, pero luego empezaron a surgir las ideas. Pegamos un extremo del ADN a un vidrio y al otro extremo pegamos otra bolita que era más densa que el agua. Luego vimos que si acercábamos otra bolita, esta se pegaba a la primera. De modo que empezamos a pegar varias bolitas y a ver cuánto se extendía la molécula en función del peso de las bolitas microscópicas que colgaban de

ella. Calculamos la constante de elasticidad de la molécula del ADN, tomando en cuenta la densidad del agua, el peso de las bolitas, etc.

Era el experimento con un resorte microscópico…En efecto, era el experimento del resorte en una sola molécula de ADN, usando fuerza gravitacional. Lo publicamos en una revista de una sociedad internacional de Ingeniería Óptica en 1991, en las memorias de una conferencia donde presenté el trabajo.

Ya no estabas en Nuevo México…En 1991 yo me había mudado a Oregon, pero todo el trabajo se había hecho en Nuevo México. En la Universidad de Oregon era miembro del Instituto de Biología Molecular y profesor de Química. Seguiste con las moléculas de ADN…Pero ya para entonces usábamos bolitas magnéticas, y con un imán estirábamos las moléculas. Para fines del 91 teníamos todos los datos, después de un año de estar en Oregon. En el 92, este trabajo salió publicado en la revista Science. Este artículo fue el que empezó el campo de moléculas individuales.

¿Y como entró la técnica de las pinzas ópticas? En el año 94, pensamos que las pinzas ópticas debían tener más versatilidad. Había gente que ya había empezado a usar pinzas ópticas para manipular moléculas. Ahora usamos pinzas ópticas y pinzas magnéticas. Funciona bastante bien.

¿Cuándo regresaste a Berkeley?En el año 98. Tuve la suerte de regresar, porque a mí me gusta mucho Berkeley. Ahora estoy de profesor en tres Departamentos, el de Física, el de Química y el de Biología Molecular y Celular. Estuve en Berkeley en el 88, en el Laboratorio Nacional Lawrence de Berkeley (LBNL), con un equipo de físicos nucleares haciendo colisiones nucleares. Tú tienes relaciones con el Lawrence…Soy director del Laboratorio de Microscopía Avanzada del LBNL. Tenemos un proyecto importante con el Departamento de Energía (DOE); ellos nos dan dinero para hacer microscopías avanzadas, incluyendo, microscopía de fuerza

Page 77: Ecipe Rue Special 2010

Número especial 2010

76ECIPERÚ

atómica, microscopía de fluorescencia de moléculas individuales y crío-microscopía electrónica. Veo que las tres cuartas partes de tu equipo están conformadas por extranjeros. ¿Es eso común en Estados Unidos?En otros sitios es mucho más. Hoy es imposible entender la ciencia en Estados Unidos sin la contribución de los extranjeros. Así era en los años 30, cuando los grandes laboratorios estaban dirigidos por europeos que se escapaban de la persecución en Europa. Europeos y centroeuropeos vinieron en grandes oleadas huyendo del nazismo. En la mitad de los cincuenta se inicia lo que yo llamo la Sputnik Science, impulsada por el temor de que los soviéticos tomasen el liderazgo científico. Luego en los años 60 se produce el baby boom.

Todo esto contribuye al crecimiento de la ciencia en EE.UU. y las plazas de las universidades americanas se llenan con científicos que habían nacido en EE.UU. Ahora todos esos procesos que dieron lugar al florecimiento de la ciencia en EE.UU. ya no están operativos. El resultado es que cada vez más y más las universidades americanas están contratando

a científicos extranjeros para suplir su propia demanda. El país necesita ingenieros y científicos, y se trae profesionales del extranjero.

Un poco de preguntas sobre tus hijos, ¿son científicos también?Carlos de 22 años está terminando su bachillerato en Sociología. Es un chico excelente, quiere estudiar la Sociología de la Pobreza. Ha hecho trabajo de campo, en Huancavelica, en Ica, en la Selva. Va a regresar en julio y agosto. Fernanda Cecilia ha terminado un bachillerato en Psicología y ahora estudia Derecho. ¿No los llevabas a tu laboratorio…? Sí, Fernanda hizo un trabajo bonito en mi laboratorio, pero finalmente dijo que no quería estar metida en un laboratorio. A ellos les gusta comunicarse con la gente y no ver sólo moléculas. ¿Pasa por tu mente regresar a Lima? Por ahora no, estoy metido en la investigación de las moléculas individuales de AND, proteínas, motores moleculares. Pero, sabes, he comprado una casa en Lima, de modo que más tarde tal vez…

Page 78: Ecipe Rue Special 2010

77ECIPERÚ

En la secundaria estuviste en varios colegios, ¿por qué tanto cambio? Cambios de residencia dentro y fuera de la ciudad principalmente. También un poco por la adolescencia, la rebeldía. Me cansaba de un colegio, entonces pedía a mis padres que me trasladaran.

Y de ahí te fuiste a Estados Unidos…En 2001, mi padre vio por conveniente ese cambio, por una diversidad de razones, las cuales creo que fueron acertadas. Allá, el cambió de profesión.

¿Entonces, tú estudiaste en qué universidades?Empecé por la Universidad Estatal de Washington (WSU), donde estudié por dos años.

¿Qué estudiaste allí?Empecé estudiando la carrera de Ingeniería Mecánica. Siempre supe que quería trabajar en el tema de la generación de energía, porque yo crecí en ese ambiente. Cuando mi papá trabajaba en la planta de transformación, vivimos muy cerca de la planta. Era una residencia donde tenían que estar los operadores todo el tiempo, 24 horas. Entonces este ambiente se convirtió rápidamente en mi terreno de juego, pues era muy niño. Me encantaba observar y aprender acerca de la generación de energía, los transformadores, las torres de transmisión, todas esas cosas.

Ya tenías una formación técnica ahí…De hecho la tenía, claro que sí, porque yo acompañaba a mi papá en sus asignaciones de trabajo y aprendía ahí. Si bien es cierto que mi papá no tiene título de ingeniero, era referido como tal, por sus cargos, y en esas asignaciones yo aprendía mucho acerca de la generación y transmisión de energía eléctrica en alta tensión y acerca de la carrera de la Ingeniería.

¿Y qué es lo que más te impactó, tu contacto juvenil con la técnica, viendo a tu padre, a las máquinas?Era él definitivamente en su quehacer diario. Como niño, todo lo que era grande, imponente, era

interesante. Por ejemplo, yo jugaba en el almacén de aquellos carretes de cable de transmisión con unos cables de aluminio con un diámetro de 30 cm y con la ayuda de otros materiales afines me pasaba días enteros jugando al electricista o al constructor. Mi papá pasaba la noche en la planta en su rol de operador, y a veces yo lo acompañaba y observaba la sala de control y los cientos de instrumentos presentes. Era una cosa que imponía respeto.

Pero había lugares a los que no podías entrar...Claro, había lugares que no podía entrar, y eso es parte del misticismo. También quería aprender y entender eso, y porqué no podía entrar como niño.

¿Entonces, terminaste en Washington?No, solo estudie ahí por dos años. En el segundo año, tomé esta clase de Física Cuántica, Física Moderna.

¿Y cómo se te ocurrió tomar esos cursos?No era un requisito, pero me gustaba mucho la Física. Entonces se tocó la física fundamental, el tema de la física moderna y la relatividad. Me gustó mucho; justo en aquel tiempo yo ya estaba muy consciente de las lejanas plantas nucleares. No entendía muy bien cómo funcionaban, me interesé en ese tema, y a la vez me enteré que en la Universidad de Oregón había la Facultad de Ingeniería Nuclear. Entonces postulé a esa universidad. Ya en este tiempo había tenido la oportunidad de levantar mis notas en la universidad. Así que postulé a esta otra universidad, a la que me admitieron con muchas becas. Entonces era doble triunfo: la Facultad de mi elección y un paquete financiero generoso. Entonces decidí tomarlo así. Fue una cosa maravillosa.

¿Ahí hiciste el bachillerato?Ahí obtuve el título de Bachiller en Ingeniería Nuclear.

Después postulaste a Berkeley…Dos veranos trabajé, primero en un proyecto no relacionado a mi carrera. El siguiente sí fue

Cristhian Gálvez Velit Universidad de Berkeley, Estados Unidos

Page 79: Ecipe Rue Special 2010

Número especial 2010

78ECIPERÚ

relacionado, y se extendió por ocho meses. En este, participé en una conferencia internacional del IAEA que fue recibida por mi universidad, organizado por mi profesor, uno de mis grandes maestros, José Reyes, de origen latino. Básicamente, ahí es donde conocí a muchos científicos del mundo e ingenieros nucleares, todos con Ph.D. Me di cuenta que para hacer un impacto real y tener esas posibilidades reales hace falta un Ph.D. Entonces decidí perseguir la maestría en Berkeley. La Universidad de Berkeley tiene un programa muy competitivo. Está, dependiendo del año, entre cualquiera de las cuatro mejores universidades de Estados Unidos. En Ingeniería Nuclear, tiene un prestigio tremendo. Uno de nuestros ex directores era el mismo Glenn T. Seaborg, que fue el director del departamento. Varios científicos y varios ingenieros ahí que son fenomenales en sus respectivas áreas.

¿Qué profesor te impactó más?Mi asesor actual, el profesor Per Peterson, porque estaba involucrado en una variedad de proyectos. Él es el hombre cuyo tema es el diseño de plantas nucleares, que es mi tema de investigación también. Yo no soy un científico, no soy físico, soy ingeniero. Me gusta el funcionamiento de las plantas de generaciones en su operación puntual y práctica, no tanto la teoría sino su análisis integral y su optimización. Por ello decidí seguir una carrera bajo su guía.

¿Cuál fue el tema de tu tesis?Simulación y análisis del reactor de fisión basado en la fusión inercial (ICF). Es el reactor LIFE. Yo hice el análisis usando códigos que desarrollé y, a la vez, un código comercial. Se comprobó que se puede enfriar efectivamente este reactor pasivamente.

Y luego te quedaste haciendo un doctorado…Si, participé en unas prácticas de verano en Oak Ridge, donde conocí a muchos otros grandes científicos e ingenieros. Confirmé, una vez más, que hace falta un Ph.D. para lograr un impacto real, y que había mucho más que comprender. Así que fue claro y decidí continuar para un Ph.D. habiendo culminado la maestría.

¿Cuántos años llevas haciendo la tesis?Llevo ya dos años. Mi plan inicial fue de finalizar en cuatro años. Esto depende de cómo va el progreso, pero yo calculo que para diciembre del 2010 debo de tener el doctorado.

Había mucha esperanza en este foro de cuarta generación para reactores nucleares...Claro, pero no se pusieron de acuerdo. Yo pienso que cada uno quiere imponer su tecnología.

EE.UU. requiere muchos técnicos nucleares; hay un déficit de nucleares, ¿cómo se nota eso?En el reclutamiento agresivo de compañías a técnicos nucleares y el reclutamiento no es suficiente, se nota. Ellos promueven becas, pero aún así no pegan demasiado en la juventud de entrenarse.

Y no logran impactar…No lo hacen porque no tienen esa constancia. No apelan a los jóvenes con los argumentos que ellos promueven, como una estabilidad laboral, educación, salarios, etc., es una cosa cultural.

¿Cómo son tratados los estudiantes árabes en las universidades?El recelo está contra ciudadanos cubanos y contra ciudadanos de Siria y de Corea de Norte; no tanto hacia los árabes. Hay bastantes estudiantes árabes. Inclusive hay un doctor de Irán, que ahora está de profesor un una universidad de allá. Lo que pasa es que el talento se queda en EE.UU., y no regresa a su país. Por lo tanto, no es una preocupación, yo creo.

Ahora, se dice también que en los grupos de investigación más del 50% proviene de fuera de EE.UU.Es cierto. En mi laboratorio somos cinco estudiantes de postgrado, de los cuales tres somos extranjeros. Aparte de mí, hay una rumana y un mexicano. Los restantes son americanos.

Lima, junio de 2009

Page 80: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

79ECIPERÚ

¿Cuál es tu formación académica?Terminé Ingeniería Mecánica en la UNI. En el 1992, me contrataron para trabajar en IVECO- FIAT, en Torino-Italia. Trabajé en la Oficina de Cálculo Estructural de la Compañía IVECO-FIAT. Luego ingresé a la Universidad de Texas en Austin (UT Austin), donde el presidente Fernando Belaúnde enseñó Arquitectura. En 1995, obtuve mi maestría en el Departamento de Mecánica en el grupo de Investigación Robótica de UT-Austin. Las tres más grandes universidades en Robótica son la Carnegie Mellon de Pittsburg, la Universidad de Texas en Austin y el MIT en Massachussets.

¿Cuál fue tu trabajo para el doctorado?En el 1998 obtuve mi doctorado en Robótica. Mi investigación fue la aplicación de la experiencia que adquirí en Italia en el área de cálculo estructural con elementos finitos. En el 1992 y 1993, las computadoras no tenían tanta capacidad, de modo que el modelaje lo hacíamos con los primeros software de CAD, con modelos de tres dimensiones. Los cálculos numéricos lo hacíamos en Fortran, y corríamos los programas en CPU de IBM. Pagábamos por el tiempo de cómputo. Para mi doctorado estudié cómo las tolerancias mecánicas en las conexiones de los brazos robóticos influenciaban en la exactitud de la punta del manipulador. Hay software para lo que se llama Cinemática hacia Delante (Forward Kinematics) y Cinemática hacia Atrás (Inverse Kinematics). Mi trabajo era expresar de una manera muy sucinta las tolerancias en las conexiones como matrices de 6x6, que después se pueden incluir en los códigos que ya existen. Me gradué en mayo de 1998, y el primero de junio de 1998 ya estaba trabajando para Schlumberger, una compañía petrolera.

¿Cuál es tu trabajo actual?Trabajé en Houston, en el área que lleva los equipos de medición a los pozos laterales, que son aquellos que se desvían del vertical. Ahora soy un investigador principal de la Unidad de Investigación de Schlumberger y profesor (lecturer) en el MIT.

Julio César Guerrero Investigador Principal en el área de investigación de la empresa Schlumberger y profesor en el Instituto Tecnológico de Massachussets (MIT), Estados Unidos

¿Cuál es el aspecto más importante del desarrollo de la empresa Schlumberger?El conocimiento. En el centro de investigación hay 120 doctores. Se les valora por el conocimiento que generan, por su capacidad de trabajar en equipo y en forma multidisciplinaria. En la rama del desarrollo, se producen los equipos que se van a usar en los pozos petroleros para exploración. En la rama de investigación, se busca la aplicación del conocimiento de la naturaleza para inventar nuevos equipos, los que serán producidos en el área de desarrollo.

¿Cómo el generador de conocimiento siente que se le valora?Sólo por dedicarse a investigar, sin carga administrativa, los investigadores pueden llegar a ganar lo mismo que los presidentes de la rama de desarrollo.

En tiempo de crisis económica, ¿siguen en esa situación?En caso de crisis, cuando se crea la necesidad de reducir personal, los investigadores son intocables. La razón es que el conocimiento es el que servirá para el crecimiento de la empresa después de la crisis.

¿Cómo se asciende en la escala, por ejemplo, para ocupar el cargo de presidente en el área de desarrollo?Entre los ingenieros que hacen desarrollo, se escoge aquellos que quieren desempeñar cargos administrativos, se les da una preparación ad hoc para las funciones que van a desempeñar. Lo importante es que salen de las filas de la empresa.

¿Cómo escogieron el lugar en el que se encuentra la empresa?Nuestro centro de investigación y desarrollo está a una cuadra del MIT y a 15 cuadras de la Universidad de Harvard. La razón es muy simple. En esa región está la mayor densidad de intelectuales de Estados

Page 81: Ecipe Rue Special 2010

Número especial 2010

80ECIPERÚ

Ciencia e Ingeniería son en un 80% del extranjero. Se busca lo mejor, donde se encuentre.

¿Y cómo se evalúa a la gente?Por su conocimiento y por su capacidad de trabajar en equipo, en networking. Puede haber alguien con mucho conocimiento, pero si no sabe trabajar en equipo será mal calificado. Además se le valora por el valor que genera para la empresa. Si un joven está flojeando, en broma se le dice que su empleo irá a la India.

¿Cuáles son los retos actuales?Muy simple, se busca formas sustentables de producir energía. El otro reto es la globalización, con la que se borran las fronteras en la competencia.

¿Y cuáles son los recursos con los que se va enfrentar esos retos?Con tres recursos insustituibles: conocimiento, conocimiento y conocimiento; eso significa gente, gente y gente.

31 de agosto de 2009

Unidos. Se busca estar cerca de los generadores de conocimiento. Somos incentivados para enseñar en las universidades más productivas.

¿Es tu caso?Así es, yo enseño Sistemas Mecánicos y Robótica en el MIT.

¿Viajas a otros países?Nuestros laboratorios están en varios países del mundo, siempre cerca de las mejores universidades. Nosotros tomamos contacto con los universitarios y los invitamos a trabajar en nuestros proyectos. Tenemos personas que hacen sus tesis que investigan con nosotros, los que luego pueden trabajar en la empresa.

Los investigadores son de diversos orígenes…Entre los 120 doctores en nuestro centro de investigación en Boston-MA, hay de 52 nacionalidades distintas. Alrededor de un 20% está compuesto por norteamericanos en el área de desarrollo de proyectos en EE.UU. En las diez mejores universidades de Estados Unidos, los investigadores en los programas de Doctorado en

Page 82: Ecipe Rue Special 2010

81ECIPERÚ

¿Desde cuándo sentiste inclinación por la ciencia?Desde que tengo memoria. Recuerdo que ya desde el jardín de infancia tuve mucha curiosidad por comprender mi entorno. En particular, sentía una gran fascinación por el agua y el fuego, luego por artefactos como relojes, televisores o tocadiscos, los cuales desarmaba y volvía a armar con muchísimo placer, aunque no siempre con todo éxito. Con el correr de los años y la educación del colegio, me fui interesando por cosas más complejas, como los astros y los seres vivos. Entre tantos recuerdos de infancia, uno muy especial y algo extraño fue ver “Frankenstein”, que además de lograr la cuota esperada de horror, despertó en mí el deseo irresistible de manipular organismos...

¿Tus padres influyeron en ello?Definitivamente. Al ser ambos médicos, era normal oír historias de quirófano y era muy fácil toparse en mi casa con textos científicos y equipos médicos. Estos objetos se convertirían en una enigmática y hechizante presencia, fuentes de conocimiento a las que muchos de mis compañeros de colegio no tenían acceso.

¿Donde estudiaste la primaria, secundaria, universidad en Perú?En Lima. Parte de la primaria (1975-78) la hice en el Colegio Americano de Miraflores; el resto y la secundaria (1979-85) en el María Reina de San Isidro. Luego entré a la Universidad Cayetano Heredia, primero a Biología y luego a Medicina.

¿Alguna anécdota en esos lugares...?Muchísimas. Uno de mis recuerdos de primaria es que en mi promoción fuimos los conejillos de indias de la Reforma Educativa de Juan Velasco Alvarado: el “alegre” y plomo uniforme único, la currícula de estudios que aún ni los profesores conocían, los textos que no salían a tiempo, o que salían en distintas versiones. En fin, si por lo menos de verdad hubiéramos aprendido el himno nacional en quechua, algo bonito hubiera quedado.

De la secundaria recuerdo con mucho cariño a mis profesores de Ciencias Naturales, entre otros a Domingo Lam y Ángel Paredes, quienes me enseñaron por primera vez acerca de temas como la célula o la fotosíntesis. También por esos años brotó mi pasión por la música, junto a Pedro Suárez Vértiz y otros entrañables amigos, con quienes descubríamos a los Rolling Stones y aprendíamos a tocar guitarra de oído. Luego vinieron las bandas y los conciertos, pero eso es otra historia... tiempos complejos los 80, trajeron la democracia y la libertad de expresión al Perú, pero también el terrorismo y el narcotráfico a gran escala.

La universidad marcó una época de muchas vivencias. Si bien pensé dedicarme a la música, se afianzó mi interés por la ciencia porque tuve la suerte de poder aprovechar una excelente educación en una universidad de buen nivel, con buenos maestros y que no estaba politizada. En particular, la genética, las matemáticas y la física me ofrecieron nuevas maneras de ver el mundo.

Al mismo tiempo, la experiencia de ver a mi madre haciendo salud reproductiva en los pueblos jóvenes, así como el compromiso social de la Universidad Cayetano Heredia, desarrollaron en mí una fuerte conciencia cívica. Bueno, por aquellos años del “gobierno de la estrella”, era prácticamente imposible no experimentar esta conciencia. La hiperinflación y el mega-terrorismo urbano generaron una incertidumbre hacia el futuro nunca antes vista. Recuerdo la genial frase de un humorista de la tele: “El gobierno de Belaúnde nos dejó al borde del precipicio; con Alan García ¡dimos un gran paso adelante!”.

¿Cómo decidiste partir al extranjero?Por una serie de razones diversas. Las alusiones políticas que acabo de hacer no son sólo recuerdos que me marcaron, son también buena parte de la razón de mi salida al extranjero. A partir de 1990, con el país arruinado y ahora en manos de un advenedizo sin plan de gobierno (pero con tractorcito), era muy difícil imaginarse un futuro de sueños académicos

Edward Málaga-Trillo Universidad de Constanza, Alemania

Page 83: Ecipe Rue Special 2010

Número especial 2010

82ECIPERÚ

realizados y oportunidades laborales justas. Imagínate esto: tienes 21 años y vives en el país que te he descrito; te has esforzado estudiando una carrera científica poco comprendida, por supuesto a costa del apoyo de tus padres; lograste sobrevivir a las exigencias de una universidad que sólo formaba élites de investigadores, para convertirte en uno de los contados con los dedos de una mano que terminaron la carrera de tu promoción. También te quedó claro que no puedes llegar a ser un investigador científico de nivel con sólo un Bachillerato en Ciencias. Es necesario un Doctorado, pues en estas carreras las maestrías no sirven de mucho. Entonces te preguntas: “Y ahora, ¿qué?” El Perú de entonces no ofrecía ni posibilidades de posgrado ni de trabajo acordes con estas aspiraciones. La única salida era emigrar. Tengo el orgullo de decir que lo hice por cuenta propia, a mí nadie me “mandó” al extranjero, tampoco tuve “profes padrinos” peruanos con vara en laboratorios del extranjero. Postulé a las universidades americanas que me interesaban, solicité becas directamente, di mis exámenes y fui seleccionado. Si algo tengo que decirle a los jóvenes que leen esto es que lo hice con determinación y sin hacer caso a aquellos que me decían: “No tiene sentido, vas a tener que competir con los gringos en su idioma, ellos tienen la mejor preparación y las mejores opciones”. Y lo logré, como lo han hecho también otros, con mayores o menores desventajas de idioma, preparación, experiencia y medios económicos. O sea, sí se puede.

¿Cuál es la gran diferencia en el ambiente de trabajo?Hay varias grandes diferencias. Lo primero que salta a la vista, es la disponibilidad de recursos para financiar salarios, programas de postgrado, viajes a cursos y congresos, adquisición y equipamiento de laboratorios con tecnologías de punta, acceso irrestricto a literatura científica. Obviamente, esto es reflejo de una actitud muy madura y bien informada de gobiernos y pueblos para promover el desarrollo de la ciencia en un país. También está la competitividad; allá uno no se puede dar el lujo de hacer las cosas a medias porque si no se queda en el camino; no es costumbre regalar doctorados, ni tampoco mantener en planilla a profesores que no son capaces de manejar proyectos de investigación propios, de ganar grants y de publicar artículos como primeros o principales autores.

¿Cuál fue el primer lugar al que llegaste?La Escuela de Medicina de la Universidad de Miami, departamento de Microbiología e Inmunología.

¿Cómo llegaste a la especialidad que cultivas, alguna anécdota al respecto?Cómo no... Resulta que el jefe del laboratorio donde hacía mi doctorado en Miami también era director del Instituto Max Planck para Biología en Tübingen, Alemania. Por ese entonces, yo investigaba la evolución de genes del sistema inmune de peces cíclidos africanos, con el fin de comprender cómo es que estos organismos pudieron adaptarse y sobrevivir en condiciones ecológicas tan diversas. Al conocer a mi mentor, Jan Klein, este se mostró entusiasmado con mi trabajo y me propuso hacer el doctorado entre la Universidad de Miami y el Max Planck. Yo no lo pensé dos veces y acepté. Trabajar en Max Planck fue una de las experiencias más impresionantes de mi carrera científica, era un lugar donde se respiraba conocimiento y donde el avance de la ciencia no lo frenaba nadie, porque –a diferencia de nuestro Perú– estaba garantizado por el Estado y la industria privada. De este modo pasé varias temporadas en Alemania, donde al terminar la tesis, me fue ofrecida un puesto de postdoctorado en la Universidad de Konstanz, estudiando la conexión entre evolución y desarrollo en los mismos y otros peces. Tenía ofertas en EE.UU. y Japón, pero decidí quedarme en Alemania básicamente por el tema. Así, mientras trabajaba en el Departamento de Biología Evolutiva, también tuve la suerte de iniciar colaboraciones con el Departamento de Neurobiología del Desarrollo, donde finalmente acepté el puesto de profesor asistente. Así, poco a poco, se fueron definiendo mis proyectos e intereses propios. Fueron cambiando las preguntas y las moléculas a estudiar, pero siempre desde la misma perspectiva de genética, evolución, genómica y desarrollo, y utilizando peces como modelos de investigación. Fue muy importante para mí dar rienda suelta a mis inquietudes científicas para llegar al tema actual de mi especialidad. No es común experimentar esa libertad, porque generalmente tus jefes quieren que trabajes para ellos y no con ellos. Entonces es necesario demostrarles que puedes hacer ambas cosas. Todo depende de uno. En realidad, yo nunca pensé trabajar con el agente que causa el mal de las vacas locas (priones), pero el tema llegó a mis manos y se me dio la oportunidad de abordarlo con

Page 84: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

83ECIPERÚ

mi perspectiva propia. Como dice Rubén Blades, “la vida te da sorpresas”.

¿En tu institución, cuántos científicos trabajan en tu especialidad?Bueno, nuestro grupo es el único que trabaja en esto. Entre colaboradores y asociados, yo diría que unas cinco o seis personas.

¿Tuviste alguna dificultad al respecto?Muchas, a lo largo de mi carrera. Te cuento algunas, con riesgo de convertir esto en anecdotario, para quien lea esto vea que nada de esto llegó servido en bandeja de plata.

Cuando fui aceptado para hacer el doctorado en la U de Miami, el consulado americano me negó la visa, ¡con todos los papeles en la mano! ¿Por qué? Pues porque por esos días de crisis, los Estados Unidos se llenaban de jóvenes peruanos y sólo se otorgaban poquísimas visas, al azar. Hubo que apelar a muchas instancias para solucionar el problema. Irónicamente, una vez en los Estados Unidos, a nadie le importaba si eras legal o no. En Alemania era al revés, la visa fue un trámite sencillo, pero una vez allí, las autoridades te tenían monitoreado en todo momento y estaban al tanto de tu contrato, tu visa, etc. Y cuando tratabas –al igual que tus colegas de otras nacionalidades– de asistir a congresos y cursos en el extranjero, te dabas cuenta que el pasaporte peruano sólo estorbaba, es como un pecado original.

Luego, al presentar proyectos de investigación para financiar mi posición de postdoctorado en Konstanz, me dí con que casi todos los programas de becas para extranjeros estaban dirigidos a europeos, americanos, o japoneses. El “resto” las podía obtener de la Fundación von Humboldt, pero no yo, porque ya había estado en Alemania... Al final, la solución fue la Fundación Alemana para la Ciencia, pero tuve que presentar el proyecto como si hubiese sido escrito por mi jefe, porque a mí no se me permitía postular por mi cuenta.

El salto de postdoctorado a profesor tampoco llegó libre de contrariedades. Mi jefe en el Departamento de Evolución resultó ser alguien muy poderoso con la muy mala costumbre de abusar científica, laboral y psicológicamente de su personal. Yo renuncié por

no estar de acuerdo con ello y dejé constancia escrita del problema. Esto me ganó advertencias y amenazas acerca del final de mi carrera científica. Felizmente prevaleció la calidad de mi trabajo y pude acceder a una mejor posición. A los dos años, hubo una rebelión de científicos que habían sido abusados en ese mismo laboratorio, que fue cubierta por los medios alemanes, así como por Nature y Science. Todo una vergüenza para el sistema académico alemán. Yo los apoyé y llevamos esto a las instancias más altas; al final, luego de largos procesos, ganamos y, aunque sólo hubo sanciones simbólicas, de alguna manera se hizo justicia y mejoraron en algo las cosas. Felizmente mi situación actual es bastante cómoda.

¿Cómo ves las perspectivas de la ciencia y la tecnología en el Perú?Esta es una pregunta con muchos aspectos. Por un lado, si me preguntas por el potencial de los científicos peruanos, te diré que es excelente, que hay muchos científicos jóvenes de gran capacidad y que necesitan seguir doctorados y postdoctorados de buen nivel, para aprender a manejar proyectos, a crear e investigar con independencia, a publicar trabajos de calidad internacional. Este debe ser el nivel mínimo de los científicos que hacen docencia e investigación en las universidades e institutos del Perú y pienso que hay que ser estrictos con esto, de lo contrario, nunca podremos competir ni siquiera dentro de América del Sur. Aún se está lejos de ese nivel, pero confío en que la masa crítica se va a ir formando; esto ya está ocurriendo, buenos científicos están intentando el retorno al Perú y hay que apoyarlos.

Si me preguntas por la situación institucional, considero que los esfuerzos son aún muy aislados, y que en general son pocas las instituciones que ofrecen condiciones de trabajo acordes con la preparación y perspectivas de los científicos de primer nivel. En ese sentido, es muy loable lo que hacen el IPEN y el CONCYTEC, entre otros. Claro, siendo un país pobre, se entiende que el Perú aún no se quiere dar el lujo de hacer ciencia básica, sino, más bien, investigación aplicada a las necesidades nacionales más urgentes. Esto es bastante sensato y acorde con nuestra realidad, pero no nos va a sacar de nuestra dependencia tecnológica. Hay que reconocer, por fin, que si queremos dejar de comprar tecnología, debemos generar la propia, y para ello se necesita

Page 85: Ecipe Rue Special 2010

Número especial 2010

84ECIPERÚ

un manejo político y económico decidido del problema.

Sin ir más lejos, escribo esto en momentos muy inciertos para el Perú, luego de la primera vuelta de elecciones generales. En mi opinión, y a juzgar por las opciones actuales, el panorama para la ciencia se muestra muy difícil. Ojalá me equivoque, pero no en vano el mundo mira ahora con cierta desconfianza a nuestro país. Sea como fuere, yo creo que hay que seguir haciendo causa por la educación y la ciencia/tecnología. De tanto insistir, algún día calará el mensaje y se le dará a esto la prioridad que se merece. Hay que crear conciencia, y esfuerzos como el tuyo son realmente necesarios, ahora más que nunca.

¿Estás casado?Hmmm... Aún no ha llegado mi hora. Pero aclaro que soy ‘hetero’, no vaya a ser que me quieran fusilar... Bueno, fuera de bromas, el tema de la compatibilidad entre la vida familiar y la científica es un asunto bastante complejo. A muchos se les (nos) hace difícil conciliar ambos aspectos. Esta carrera es muy intensa y demanda de por sí mucha energía, tiempo y dedicación. La vida familiar no es del todo incompatible, pero no se trata de casarse porque sí, yo creo que hay que estar completamente seguro de poder llevarlo de manera responsable. Ya es una verdadera suerte encontrar una pareja lo suficientemente comprensiva. Todo esto es parte de los problemas que sufren los individuos en las

sociedades modernas, la presión por el éxito en la carrera produce desequilibrios en la vida privada. Las mujeres científicas tienen el reto aún más grande de verse tarde o temprano confrontadas con el dilema de la maternidad versus la carrera. Estoy seguro que todo esto no era así hace 20 años.

¿Tuviste o tienes idea de regresar al Perú?Sí, la tuve desde antes de partir y la sigo teniendo. Es un deseo profundo, un compromiso interno, y vengo haciendo todo lo que puedo para preparar mi retorno. Como científicos, creo que es importante no renunciar a nuestra dimensión humana. Si bien es cierto, se nos reconoce por nuestros logros profesionales, no hay que olvidar que hay mucho más en la vida que hacer experimentos, publicar artículos y ganarse un Nobel o una medalla del Congreso. En mi opinión, el científico tiene un deber para con la sociedad, y su labor debe generar directa o indirectamente beneficios para las sociedades en las que vive. Ya sea resolviendo problemas concretos, generando conocimiento útil, educando a su pueblo, creando conciencia en los medios, o expresando opiniones y valores basadas en su experiencia, ¡hay muchas maneras! De vuelta a la pregunta, sí, pienso volver al Perú porque está bien ser un “peruano que triunfa en el exterior” pero eso es sólo el principio, es un bautismo que te prepara para el verdadero reto, que es hacer patria en tu patria. Si la democracia lo permite.

Lima, abril de 2006

Page 86: Ecipe Rue Special 2010

85ECIPERÚ

Marcos Milla es un ejemplo de cómo los padres pueden influir en el futuro de sus hijos. El esfuerzo económico de ellos para que a los once años tuviera un microscopio profesional fue crucial para ello. Biólogo egresado de la Universidad Peruana Cayetano Heredia, hizo su doctorado en la Universidad de Saint Louis (EE.UU.), fue profesor en la Universidad de Pennsylvania y actualmente trabaja en los laboratorios Johnson & Johnson en California.

¿Desde cuando sentiste inclinación por la ciencia?Creo que desde los cinco años. A esa edad mi papá me llevo a visitar a un amigo suyo a la Universidad Nacional de Ingeniería, César Cánepa. Él me hizo ver una muestra de un mineral bajo el microscopio: en ese momento cambió mi vida. Darme cuenta que allí dentro había un mundo, que cada cosa que vemos tiene un mundo compuesto por subestructuras, partículas, moléculas, átomos, eso fue un descubrimiento que me marcó tremendamente. Desde entonces, he tenido una curiosidad fuerte por todo aquello que compone la materia que nos rodea y nosotros mismos, y cómo la interacción entre moléculas define la física, la química, y por último la vida. Desde entonces me dediqué a leer vorazmente libros de biología, y especialmente de microscopía. Juntando mis propinas, a los siete años compré mi primer microscopio en una tienda del jirón de La Unión; uno de esos modelos mayormente plásticos hechos en Japón (en esa época las cosas todavía no eran masivamente producidas en China). Su calidad óptica dejaba mucho que desear, pero aún así, ¡puse absolutamente todo bajo sus lentes!

¿Tus padres influyeron en ello? En muchas formas. Dándose cuenta de mis frustraciones técnicas con mi primer instrumento, mis papás me regalaron un microscopio excelente, de los que tenemos en laboratorios de investigación avanzada, cuando cumplí los once años. Hoy soy más consciente que en ese entonces del sacrificio económico que esto les significó. Recuerdo las palabras del señor Kessel, dueño de la tienda, al

darle la mano a mi papá en señal de felicitación y admiración: “tantos padres les regalan a sus hijos tablas hawaianas o viajes a Disneylandia, no puedo si no mostrarle mi aprecio por su fe en la educación de su hijo y fomentarle el amor por la ciencia”. Ellos siempre me apoyaron, aún en los años (cuando estaba en la Universidad Cayetano Heredia) en que se preguntaban qué iba a ser de mí con una carrera en Biología, algo que en el Perú no es visto como una gran promesa de éxito.

¿Dónde estudiaste la primaria, secundaria, universidad en Perú? Comencé la primaria en el Colegio San Marcos Apóstol, que en esa época era de hombres; el de mujeres fue fundado años después. El San Marcos finalmente cerró cuando estaba por empezar cuarto de primaria, por problemas financieros. Entonces, con la ayuda del Padre Rubén Vargas Ugarte, mis padres consiguieron transferirnos al Colegio La Inmaculada, donde completé mis estudios. Después ingresé a la Universidad Peruana Cayetano Heredia, en 1980, donde hice el Bachillerato en Ciencias, con mención en Biología.

Alguna anécdota en esos lugares… Mi intención original, al entrar a la Cayetano, fue tratar de obtener la formación más sólida en Biología que fuera posible en el Perú, para después salir a hacer el postgrado en Biología Marina. Mi sueño en ese entonces era hacer el Ph.D. en Woods Hole o en Scripps, los dos institutos de más prestigio en Oceanografía. Curiosamente, me encuentro organizando una colaboración que incluye académicos de la Universidad de California–San Diego y del Instituto de Oceanografía Scripps, frecuento las instalaciones del Instituto para reuniones; la vida tiene esta forma tan increíble de llevarnos en círculos. En el camino, gracias a Abraham Vaisberg, me encontré con el mundo de la investigación biomédica, y esto definió mi orientación hacia la Bioquímica y Biología Celular/Molecular en forma tan fuerte que a esto dediqué el resto de mi vida. Abraham es la siguiente persona de más influencia en mi formación y carrera.

Marcos Milla

Page 87: Ecipe Rue Special 2010

Número especial 2010

86ECIPERÚ

¿Cómo decidiste partir al extranjero? En Biomedicina, el paso siguiente obvio en la carrera son los estudios de Ph.D. En ese entonces, la posibilidad de hacer un doctorado en Perú en esta área no estaba dada, de manera que la decisión de salir fue bastante automática. Igual, los consejos y guía de Abraham para preparar el proceso fueron importantísimos.

¿Cuál es la gran diferencia en el ambiente de trabajo? Primero, el ambiente de trabajo en EE.UU. es muy horizontal; en los laboratorios que yo mantengo como ejemplos, las ideas del profesor valen tanto como las del estudiante de bachillerato. Esta es una de las cualidades más hermosas de la ciencia: el miembro “más chiquito” del laboratorio puede generar una idea que ocasione la revisión de todos los conceptos logrados hasta el momento. Siempre he pensado que la formalidad y verticalidad de la actividad académica en Perú es un óbice para el desarrollo de un debate más vigoroso en ciencia.

Segundo, los recursos materiales y financieros son muy fuertes, si bien eso ha cambiado bastante bajo el anterior gobierno de George Bush: por primera vez en la historia moderna de la ciencia en EE.UU., desde la Física de Partículas hasta la Biomedicina, el gobierno no sólo disminuyó mucho el apoyo financiero a los institutos más importantes (NIH y NSF), sino además asumió posiciones hostiles contra sectores de ciencia e investigación.

Tercero, la masa crítica es muy importante. EE.UU. creó un establishment científico ahora convertido en un imán para atraer a muchos profesionales de diversas partes del mundo, propiciando un ambiente de alta calidad y gran diversidad de ideas, dos cosas fundamentales para establecer un debate intenso y de alta calidad en ciencias.

¿Cuál fue el primer lugar al que llegaste? St. Louis University, en St. Louis, Missouri. Ingresé al programa de graduados en Biología Celular y Molecular.

¿Cómo llegaste a la especialidad que cultivas, alguna anécdota al respecto? Como dije antes, el cambio ocurrió en la Cayetano Heredia, cuando tuve oportunidad de trabajar con

Abraham Vaisberg en la elucidación de la acción del compuesto activo de la sangre de grado, taspina, a nivel celular. Con Abraham, encontramos que la taspina estimula la migración de fibroblastos in vitro, lo cual probablemente resulta en una aceleración del proceso de contracción de heridas, un componente importante en cicatrización. ¿Como empecé a trabajar con Abraham? Por coincidencia, como muchas cosas en mi vida: un día estaba esperando un “aventón” hacia el área en que vivía, en la puerta de la Universidad. Carlos Monge me recogió y pronto me estuvo preguntando cuáles eran mis planes para el futuro. Le conté que me interesaba la Biología marina, pero que también tenía interés en la Biología celular. Me preguntó si conocía a Abraham, a lo que respondí que no. Me ofreció presentármelo cuando comenzase el segundo semestre (era cachimbo en ese entonces). Dicho y hecho, lo fui a buscar regresando de vacaciones y él me llevó donde Abraham, entró a su oficina y le dijo “Abraham: he encontrado a este muchacho que quiere hacer Biología celular; me pareció algo tan raro que aquí te lo traigo”.

¿En tu institución, cuántos científicos trabajan en tu especialidad? Es difícil decir. En mi actual departamento somos alrededor de 36, pero en otros departamentos hay científicos a los que podría contar dentro de la disciplina. Con el advenimiento de la química y física dentro de la biología, es prácticamente imposible separar bioquímica de biología celular, molecular, biofísica, fisiología, farmacología, etc. ¡Somos una gran familia!

¿Tuviste alguna dificultad al respecto? No. Siempre he encontrado el ambiente científico muy horizontal y abierto a nuevas ideas, incluso culturas y maneras de pensar. Los estadounidenses natos son una minoría donde trabajo.

¿Cómo ves las perspectivas de la ciencia y la tecnología en el Perú? El Perú necesita desarrollar una escuela basada en lo que es propio y donde tenemos la posibilidad de contribuir con impacto y originalidad. Hay muchos esfuerzos muy meritorios en este sentido. Algunos que me vienen a la cabeza son Abraham Vaisberg por productos naturales y virología, Jorge Arévalo por leishmaniasis, José Espinoza por genética de

Page 88: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

87ECIPERÚ

alpaca. Mi impresión es que se va creciendo y los sitios en los que se hace investigación muy buena van progresando: está Cayetano Heredia, que tradicionalmente ha sido muy fuerte en Biomédicas; el Centro Internacional de La Papa ha tenido un rol protagónico incluso antes que Cayetano Heredia; Modesto Montoya ha logrado generar diversificación de líneas de investigación dentro del IPEN. Recientemente, la Universidad Peruana de Ciencias, principalmente por el empuje de Graciela Domínguez, ha levantado de la nada su Centro de Investigación en Ciencias Biomédicas, un esfuerzo al que me complace haber contribuido en alguna medida. Carlos Bustamante ha echado a andar su “laboratorio gemelo” de moléculas individuales en Cayetano Heredia, dirigido por Daniel Guerra; esto establece un nuevo modelo, un ejemplo que espero otros académicos peruanos de prestigio en EE.UU. sigan. El proceso debe continuar. Ojalá los gobiernos comprometan en forma continua y creciente su apoyo tanto político como financiero para la ciencia y tecnología. Me preocupa mucho ver un actual retroceso en el CONCYTEC en esa dirección, ojalá sea algo pasajero. Lo que más se necesita es un compromiso estatal, que el gobierno tenga como visión, como misión, llegar a un nivel más alto de desarrollo haciendo como parte de esto la promoción de ciencia y tecnología. Esto está pasando en Chile y Brasil, por ejemplo, donde hay grupos muy buenos. En Argentina me parece que

pasa más por la excelente tradición que hay en varios campos, que por compromiso fuerte del gobierno.

¿Cómo conociste a tu esposa, es científica? Mi esposa empezó como estudiante de Medicina en la Cayetano Heredia, pero luego se trasladó a Biología. Hizo su MSc en la Universidad de Massachusetts, en Ciencias Biomédicas.

¿Y tus hijos, siguen el interés por la ciencia? ¡No! Ellos están completamente casados con las humanidades, las letras. Mi papá fue Doctor en Literatura. Dicen que las profesiones van saltando generaciones…

¿Tu dedicación a la investigación no afectó la relación con tu familia? No. Mi familia siempre ha sido mi prioridad uno. Tengo una pasión muy intensa por la ciencia y la investigación, pero siempre he tenido mis prioridades en orden.

¿Tuviste o tienes idea de regresar al Perú? Yo creo que nunca he renunciado a la idea de volver y estoy seguro de que en algún momento lo haremos. Simplemente, estoy esperando la oportunidad más propicia.

Junio de 2010

Page 89: Ecipe Rue Special 2010

88ECIPERÚ

¿Cómo descubrió su vocación por la ciencia? ¿Tuvo usted un familiar, un profesor que generó esa vocación?No tuve ningún pariente que fuera científico. Pero sí me ayudaron dos de mis profesores en el colegio. En realidad, yo era muy serio en esos tiempos. Estudiaba mucho y lo hacía bien en diferentes cursos. Pero me gustaba más la Matemática y la Física, donde yo no tenía que memorizar mucho, pero sí entender los principios de los cuales uno podía derivar todo. El profesor de Física del colegio Pestalozzi, el Dr. Tomasini, fue un pedagogo buenísimo y fue el que despertó mi interés en la Física. El profesor de Matemática, el profesor Borsos, siempre me sacaba a la pizarra mientras él controlaba la disciplina desde el fondo de la clase, ya que habían muchos traviesos, y por eso yo tenía que prepararme bien.

¿En su colegio realizaba algún tipo de experimentos?En esa época más se aprendía por libros que por experimentos en el laboratorio. Yo creo que hoy es diferente y hay más recursos. Es muy importante aprender haciendo experimentos para entender los límites de las mediciones, tanto por los errores que vienen de la estadística como por los errores sistemáticos.

¿Cómo es que decidió partir a Estados Unidos?Cuando comuniqué a mis padres mi deseo de ser físico, se sorprendieron: ¿Qué es eso?, dijeron. Mi padre me dijo, ve a la UNI, estudia Ingeniería primero y luego te vas a Estados Unidos, para quizás estudiar Física. Mi madre, más decidida, dijo que mejor era ir a Estados Unidos para estudiar Física desde el comienzo. Así, luego de dar los exámenes y haber sido aceptado por varias universidades, me fui al Instituto Tecnológico de Massachusetts (MIT). Imagínate un muchacho de 17 años, viajando solo a los Estados Unidos.

¿Sabemos que su madre influyó mucho en ti?Bueno, ella leía muchísimo, en varios idiomas.

Se dedicó a muchas obras sociales. Aprendió el lenguaje Braille para los ciegos. Traducía libros para los ciegos. Trabajó para la Agencia de Beneficencia Italiana. Era muy intelectual, muy estudiosa, muy al corriente con los nuevos libros y la literatura.

¿Y su padre?Él también sabía varios idiomas, muy serio. Su origen es modesto, agricultor. Trabajó para la banca italiana y fue enviado a Lima al Banco Italiano (luego, Banco de Crédito), que buscaba gente joven. Ya estaba en amores con mi madre que se quedó en Europa y le enviaba cartas todos los días. Ella recibía paquetes de 30 cartas al mes, cuando llegaba el buque a vapor. Luego la convenció para venir al Perú. Mi padre la esperó con el cura al pie del buque.

¿Y en qué momento se decidió por la Física?Fue en dos etapas. Primero decidí por la Física, algo que hice cuando estaba todavía en el Pestalozzi, y luego decidí por la especialidad de Partículas cuando estaba de estudiante universitario en MIT. Cuando estaba en el Pestalozzi, yo leía revistas y periódicos y estaba atento a los descubrimientos que se hacían en ese entonces, principalmente en los Estados Unidos. Leía el diario El Comercio, que tenía un interés particular en la ciencia con la influencia del Dr. Francisco Miró Quesada. Me interesaba mucho la Física Nuclear que prometía muchísimas aplicaciones.

¿Y por la Física de Partículas?El interés sobre las Partículas Elementales me surgió durante los estudios universitarios, con los profesores de MIT. Después de mi primer año en MIT, durante el primer verano libre, fui con uno de mis profesores al laboratorio de Chacaltaya en Bolivia, que queda a más de 5000 metros de altura. Allí instalamos detectores y computadoras, equipos muy primitivos comparados con los de hoy. Estudiábamos los rayos cósmicos; en particular, lo que se llaman “extensive air showers” provenientes de un rayo cósmico de alta energía que colisiona con la

Piermaría Oddone Fermilab, Estados Unidos

Page 90: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

89ECIPERÚ

atmósfera y produce miles de partículas secundarias. Ese verano en Chacaltaya, cementó mi interés en la Física de Partículas.

En esa época la producción de tantas partículas generaba confusión…y no se sabía de qué estaba hecho lo que existe en el universo…Efectivamente, había muchas partículas y no se entendía mucho. En los años 60 y 70, se llegó a elaborar un esquema en la que todas estas partículas aparecían como conformadas por tres familias de quarks y leptones. Un modelo muy simple que explicaba todo lo que pasaba. Estábamos muy entretenidos porque cada día se descubría una nueva partícula, y uno le ponía el nombre que quería. En cambio ahora ya todo está sistematizado, cada partícula depende de qué quark tiene adentro y ya el nombre está fichado.

Pero siguen buscando partículas…Nos faltan algunas cruciales para el entendimiento de todo lo que está sucediendo. Son partículas fundamentales, muy masivas, que no están hechas ni de quarks ni de leptones.

Se busca la famosa partícula de Higgs, la que según la teoría da lugar a la masa…En realidad es solo un modelo, muy elegante, según el cual un campo daría masa a las partículas que no tienen estructura interna. La masa de las otras viene del movimiento de las partículas que las componen.

¿Qué es un mesón B, tema al que te has dedicado a producir e investigar? Hay varios mesones B. Los mesones B se distinguen porque tienen un “bottom” quark o quark de fondo. Los mesones B que estudiamos tienen dos quarks adentro, uno de los quarks pertenece a la tercera generación, el quark de fondo o “bottom” quark, y el otro a la primera o segunda generación. La teoría de partículas, que llamamos el Standard Model, nos indicó que era el lugar más propicio para estudiar la asimetría entre la materia y la antimateria. Si bien descubrimos la asimetría en la transformación de los mesones B y sus anti mesones, esta asimetría no es suficiente para explicar que el mundo está hecho de materia solamente y no de una mezcla de materia y antimateria. Esos estudios, sin embargo, llevaron a mediciones muy precisas que completaron el

modelo de los quarks, y el año pasado llevaron al premio Nobel a Kobayashi y Maskawa por haberlo propuesto teóricamente, en los años setenta, cuando sólo se conocía una generación y media, que debería haber tres generaciones de quarks.

¿Qué habría pasado con el universo si no hubiera habido esa asimetría materia-antimateria?No estaríamos aquí. Después del Big Bang hubiéramos tenido tanto materia como antimateria y se hubieran aniquilado. En este momento no existiríamos: el universo sería solamente una mezcla de fotones, neutrinos y materia oscura.

Usted dirige el Fermilab, ¿cuál es el mayor desafío que tiene este gran laboratorio? En este momento, es el descubrimiento de la partícula Higgs. Está postulada como la partícula que genera las masas de las partículas elementales, aquellas que no tienen estructura interna. Esas son partículas como, por ejemplo, los quarks. El Modelo Standard les daría a esas partículas elementales cero masa. Es una parte incompleta del Standard Model y estamos en carrera con el laboratorio nuevo en Ginebra, Suiza, para descubrir al bosón de Higgs y completar el modelo. La máquina en Suiza tendrá mucha más energía que nuestro Tevatron, así que tenemos tiempo muy limitado.

¿Cómo se está llevando a cabo la colaboración del Fermilab con el Perú en el campo de la Física de Partículas?Nuestro campo es muy internacional. La UNI tiene un grupo que participa en un experimento importante con neutrinos en Fermilab. En el mismo experimento, colabora también un grupo de la Universidad Católica. Fermilab da la bienvenida a muchos institutos que vienen de todo el mundo. No sólo participan, sino que contribuyen con sus recursos físicos e intelectuales a los descubrimientos de Física. Es un campo muy lindo desde el punto de vista internacional. Físicos de países que no se llevan bien en el mundo trabajan juntos y resuelven problemas juntos. Nosotros en Fermilab colaboramos en los aceleradores y detectores en Europa, como los europeos lo han hecho desde hace ya muchos años en Fermilab. Nada es más importante para el desarrollo, sea de los Estados Unidos o del Perú, que el desarrollo de la ciencia y de una población hábil en ciencia y tecnología. El

Page 91: Ecipe Rue Special 2010

Número especial 2010

90ECIPERÚ

énfasis en el estudio y desarrollo de la ciencia no sólo permite descubrimientos que amplían nuestros horizontes, sino también crea aplicaciones prácticas y, aún en forma más importante, prepara a la juventud a resolver grandes problemas técnicos en su futuro en grandes equipos de colaboración.

Muchos piensan que las ciencias básicas requieren de inversiones gigantescas sin mucha consecuencia práctica. ¿Qué reflexión le genera esa idea? La historia nos dice lo contrario. Conforme se empujan adelante los límites del conocimiento, los países que participan en ello desarrollan aplicaciones prácticas y el personal capacitado para resolver problemas técnicos en cualquier campo. Conforme se atacan problemas complejos, se desarrolla tecnología para resolver los problemas científicos y técnicos, que luego

halla aplicaciones en la industria y economía. Estas aplicaciones son en aceleradores, detectores, computación y el desarrollo de otras ciencias. Recuerden que los físicos, tratando de unir colaboraciones gigantescas, fueron los que establecieron la Word-Wide-Web. Sin los físicos de partículas no estaríamos usando WWW todo el tiempo. Así también se hicieron las aplicaciones médicas de los aceleradores, y muchísimos tratamientos en el mundo que salvan vidas. Hay miles de aceleradores en la industria que se utilizan para tratamiento y manufactura de materiales. Las máquinas que los físicos desarrollaron para estudiar partículas, hoy se utilizan como fuentes intensísimas de rayos X y de neutrones para los estudios aplicados de la biología, de la química y la ciencia de materias.

Lima, diciembre de 2010

Page 92: Ecipe Rue Special 2010

91ECIPERÚ

¿Qué es SPECTRA?El SPECTRA es una plataforma de comunicación entre jóvenes investigadores... Sí, ese es uno de los retos de SPECTRA: impulsar contactos entre jóvenes estudiantes y profesores de diferentes países de Latinoamérica. La otra cosa importante es introducir métodos o técnicas que no son conocidos en el Perú; por ejemplo, este año hacemos un esfuerzo muy grande en Nanotecnología y también elipsometría: hemos tenido el préstamo de un Elipsómetro que sirve para caracterizar a las capas delgadas, que creo que no existe en Perú.

¿Cómo empezó la idea de SPECTRA?La idea empezó cuando vine al Encuentro Científico Internacional del 2003.

Ese mismo año vino Bernard Bigot (Administrador General de la Comisión de Energía Atómica de Francia)…Sí, pero no fuimos al mismo Encuentro. Él vino para el Encuentro de verano y yo estaba en el de invierno.

En el 2005, en el primer SPECTRA, ¿cuántos fueron los participantes?Fueron 40 científicos que vinieron de afuera de Perú, ya sea de América Latina o de Europa, siendo la mayoría de Europa, y había más o menos entre 80 y 100 estudiantes. Ahora son 82 científicos que vienen de afuera de Perú y hay más de 100 estudiantes inscritos; también hay becarios de la Comunidad Andina de las Naciones, la cual ofreció entre 10 y 20 becas, y eso es un reconocimiento de su parte.

El SPECTRA es una plataforma de comunicación entre jóvenes investigadores…Sí, eso es; hacer los contactos, también introducir métodos o técnicas que no son conocidas en el Perú. También aprovechamos estos eventos para tener donaciones de equipos y llevar equipo a Perú.

¿Qué equipo ha venido?Por Spectra 2005, hemos podido enviar un espectrómetro de masa que está funcionando en la UNI en el laboratorio de la profesora Susana Petrick, y también traje un láser NdYAG con el cual se pudieron empezar experimentos de Espectroscopia de Plasma Inducido por Láser (LIBS, en inglés) en la PUCP. También otros equipos más pequeños, como osciloscopios.

¿Ha nacido algún programa de investigación a partir de eso?La otra meta de Spectra es que los contactos con los científicos visitantes puedan. a medio plazo, impulsar actividades de investigación que son muy importantes para el desarrollo de la universidad. Con la técnica de espectroscopia de plasma inducido por láser, que no era conocida en el Perú, se han desarrollado dos experimentos de investigación aplicada en la Universidad Católica (arqueometría) y en la Universidad de Ingeniería (detección de plomo en el agua). Estas son dos actividades de investigación aplicada. También se ha desarrollado investigaciones en espectrometría de masa y con el efecto Kerr magneto-óptico de espectroscopia de plasma inducido por láser. En estos eventos, hemos puesto más peso en la investigación aplicada porque pensamos que es el nivel donde se tiene que empezar en la ciencia experimental. La investigación básica también se podrá desarrollar, pero en una segunda etapa, cuando haya una masa crítica de científicos capacitados en el Perú.

¿Y en tu laboratorio en Francia?Yo estoy haciendo investigación básica en Espectroscopia de Moléculas de interés biológico con la meta de caracterizar y entender la importancia de los enlaces de hidrógeno en la estructura de proteínas. Este tipo de investigación no me parecía adecuado como para desarrollarlo en el Perú. Pienso que en un país como el Perú hay que mostrar que la ciencia puede servir para el país y ayudar a resolver algunos problemas y ayudar al desarrollo. Por

François Piuzzi Comisión de Energía Atómica, Francia

Page 93: Ecipe Rue Special 2010

Número especial 2010

92ECIPERÚ

ejemplo, los métodos que estamos introduciendo aquí son métodos que pueden ser usados en diversos países andinos. El método LIBS para analizar superficies de muestras se adapta para caracterizar minerales, metales y varios tipos de materiales, lo cual es muy interesante para Perú, Ecuador, Bolivia y Colombia.

¿Cómo se financia el SPECTRA?Es una buena pregunta, porque esta vez no hemos tenido como la primera vez el soporte del CONCYTEC. Entonces, hemos tenido que buscar plata en diversas instituciones. Pienso que la institución que financia más es la IPUPAP, que financia con 15 mil dólares este evento, y después la Comunidad Andina de las Naciones. También la Organización de Estados Iberoamericanos, la Oficina de Cooperación Regional para los Países Andinos de la Embajada de Francia en Perú, el CEA –que financia bastante mi instituto–, también la Sociedad Europea de Física, la Organización de Cooperación Sueca y otros que aportan pequeñas sumas. La UNESCO también, que financia con 5 mil dólares, y Carlos Bustamante que consiguió unos 4 mil dólares de una fundación.

Así, juntando todas las pequeñas contribuciones llegamos a financiar más o menos el evento y, también pedimos a todos los europeos el esfuerzo de que se paguen su viaje personalmente o mediante su institución. El Perú, se hace cargo del alojamiento y la estadía. Así se puede organizar; de otra manera se tenía que pagar también el pasaje para todos los

participantes, lo que no era posible. Parte de esa plata también sirve para pagar pasajes a gente que viene de diferentes países de América Latina.

El CEA con Bernard Bigot ¿apoyó SPECTRA?El CEA nos dio 7500 euros, y Bigot, como presidente de una fundación para la Química, La Maison Internationale de la Chimie, dio también 4000 euros. Lo que cuesta también bastante caro es el equipo que hemos recibido por donación o comprado: para llevarlo a Perú cuesta bastante; además, aún si no hay derecho de aduana, al ser una donación, nos hacen pagar el almacenaje que son más o menos 5000 soles. Tenemos que encontrar la plata para pagar eso. Para cubrir esos gastos son 7000 euros; solo para traer el equipo acá, el transporte, la puesta en caja y los problemas de aduana.

¿Cómo te nace este cariño por el Perú?Porque yo cuando era joven, es decir hace mucho tiempo, fui cooperante, haciendo mi servicio militar acá en Perú, enseñando en la UNI, Fisicoquímica. Y después, siempre he tenido contacto con profesores de Física y de Química de la UNI y también con estudiantes, a los que hemos ayudado a llegar a Francia para que hagan su tesis. También tratando de conseguir equipos y muestras, a lo largo de los años.

¿Sé que aquí conociste a tu esposa?Sí también conseguí esposa, quien no es peruana ni francesa: es de la India, media peruana porque ella ha vivido 10 años acá en Perú.

Page 94: Ecipe Rue Special 2010

93ECIPERÚ

¿Con que ideas viajaste a Estados Unidos? Como muchos estudiantes universitarios a principios de la década de 1970, sentí la responsabilidad de hacer algo por el desarrollo científico y tecnológico de nuestro Perú. En la UNI, tuvimos profesores de origen extranjero que compartieron con nosotros sus ideas y experiencias vividas en otros países hermanos latinoamericanos. Al terminar mis estudios en la UNI, viajé para estudiar en la Universidad de Maryland, que está estratégicamente localizada en la zona metropolitana de Washington D.C. Su departamento de Física es quizás el más grande en EE.UU., debido en gran parte a la presencia de muchos institutos científicos gubernamentales, tanto civiles como militares, en la vecindad de la capital de ese país. Inicialmente, no tenía idea de cómo podría llegar a ser útil en el Perú. Traté varios campos de moda, eventualmente llegué al área de Física de la Materia Condensada.

En muchas ocasiones, volví al Perú para buscar orientación para mis estudios. Fue evidente que la minería y metalurgia jugaban entonces (y en la actualidad) un rol importante en la economía nacional, pero la industria era sumamente dependiente de tecnología proveniente del exterior y no se pensaba en invertir en desarrollo tecnológico en el Perú. Una posibilidad para mí fue de estudiar Ingeniería Nuclear para regresar a trabajar en el IPEN. Y ese fue un sueño muy atractivo que no se hizo realidad.

Cambiaste de rumbo… En esa época, ocurrió la primera crisis petrolera y el mundo se dio cuenta de la importancia de métodos renovables de producción energética. En la Universidad de Stanford, se hacía investigación en el área de celdas solares que me pareció interesante. Empecé allí, haciendo mis propias celdas, que básicamente consisten de un diodo producido al juntar dos materiales, que cuando se le expone al sol, la luz es absorbida produciendo portadores de carga positiva y negativa y la juntura los separa para establecer una diferencia de potencial. Ese es el principio del efecto fotovoltaico.

¿Cuál era la naturaleza de estas junturas? Resulta que poco se sabía sobre eso. En esa época no se conocía la forma en que los átomos se arreglaban en el plano de juntura de dos materiales distintos. En el año 77 salió en Physics Today un artículo sobre el trabajo del profesor John Cowley, de la Arizona State University, que describía cómo producir imágenes de la estructura cristalina de materiales con una resolución de casi al nivel atómico. Ese artículo dejó una impresión profunda en mí y hasta me hizo pensar que se podría ver el arreglo atómico de manera casi rutinaria.

Entonces propuse a mi profesor en Stanford estudiar las celdas solares con microscopía electrónica con una resolución a nivel atómico, sin haber yo tenido entrenamiento en ese campo. Lo que yo no sabía es que nadie había tenido éxito en preparar una muestra de una juntura en la cual los dos materiales eran distintos.

Preparar una muestra es un paso crítico para la microscopia electrónica de transmisión. Uno debe adelgazar el material hasta un espesor de menos de 10 nm, es decir la lámina debe tener un espesor de unas cuantas decenas de capas atómicas. Y para ver el plano de la juntura, se debe producir una sección transversal.

Una lámina en la cual están los dos semiconductores… Así es. Se hace una tajada transversal para ver con los electrones cómo los átomos de un material se enlazan a otros de un material diferente.

¿Cuán delgada es? Para poder lograr resolución atómica, la muestra debe de ser de unos 50 átomos de espesor. Después se tiene que alinear los átomos, en la dirección en la cual se los pueda ver.

Un gran desafío. Me pasé un año tratando de preparar mi primera muestra y me sentí la persona más frustrada del

Fernando Ponce Universidad Estatal de Arizona, Estados Unidos

Page 95: Ecipe Rue Special 2010

Número especial 2010

94ECIPERÚ

mundo. Primero, hice algo así como la máquina del dentista para perforar los dientes. Con esa máquina traté de hacer un agujerito en el material, pero no funcionó. Al adelgazarse, se destruía toda la muestra. Después traté de hacer algo similar a una celda electroquímica. Los adelgazaba mecánicamente y luego les echaba chorros electrolíticos. El problema era que la diferencia de materiales hacía que uno de ellos sea más atacado que el otro. Esto se llama protección catódica, como lo que se hace en los puentes, donde se le conecta a un material diferente en contacto con el agua: la corrosión de este protege la estructura del puente. En un año y medio logré una buena muestra. La hice con una ruedita en contacto con pasta de diamante. Primero removía parte del material y el resto lo hacía con bombardeo iónico.

En tanto intento, seguro que hacías algunos descubrimientos… En el año 79 empiezo a publicar los resultados. Al principio no se veía la interface, pero sí con mucha claridad las dislocaciones y otras fallas cristalinas. Llegamos a ver la superficie del material con mucha claridad, y hasta a notar cómo los átomos migran y se arreglan en tiempo real. Los átomos expuestos a los electrones en el microscopio eran excitados, y se les veía saltar.

Todo eso está muy relacionado con la microelectrónica… En esa época se aprendía a hacer dispositivos electrónicos cada más pequeños. A un kilómetro de mi laboratorio de Stanford, estaban los laboratorios de Hewlett Packard, donde se producían los primeros circuitos integrados. Hewlett Packard empezó con las calculadoras de bolsillo, basadas en semiconductores. Se usaba la litografía y la impresión de los circuitos en forma fotográfica, para poner muchos transistores en un mismo chip. En 1980, se llegó a un millón de dispositivos en un chip. Se tuvo que controlar los procesos de oxidación a escalas cada vez más pequeñas, llegándose a escalas atómicas, de unas 10 distancias interatómicas.

Todo eso hacía necesario ver la estructura atómica. En Stanford se desarrollaban las técnicas para producir esos materiales, y en Japón, la construcción de microscopios para ver a esa escala. Conforme se hacían nuevos materiales, se publicaba lo que se observaba.

¿En qué año fue la famosa publicación de fotos de átomos? En el año 80, publicamos en Nature las imágenes que demostraban la primera observación de átomos que se movían, basadas en varias fotos estáticas. Un profesor de Cambridge desarrollaba entonces un sistema de televisión incorporada al microscopio. Fuimos con nuestras muestras a Cambridge e hicimos la primera película que mostraba los movimientos de los átomos en las estructuras, cómo se forman los defectos, cómo se genera las transiciones cristalinas. Esto llegó en 1981 a la carátula de esa revista, y atrajo mucho interés hacia el comportamiento dinámico de átomos en materiales.

Todo eso cuando muy rápido avanzaba la microelectrónica… Pero también la optoelectrónica. De modo que los ingenieros que desarrollaban estas tecnologías nos consultaban mucho sobre lo que pasaba con sus materiales a nivel atómico.

¿Por qué te pasaste a Hewlett Packard? En 1980, mientras las universidades trataban de comprar tan costosos microscopios, Hewlett Packard me compró el más avanzado. Tomamos el liderazgo en el mundo en semiconductores, en las interfaces para diodos emisores de luz, láseres para comunicación óptica (Internet) y transistores para circuitos integrados.

Estabas entonces concentradísimo en tu laboratorio, sin ver el mundo… Uno no ve el resto del mundo. En perspectiva, me asombro saber que estuve en medio de un torbellino tecnológico de gran envergadura.

Me acuerdo de discutir con la gente que trabajaba con la naciente Intel, de cómo podríamos controlar la micro-estructura del silicio de modo que sea altamente eficaz para los circuitos integrados.

Con la gente de Hewlett Packard, se discutía cómo producir láseres a semiconductores para ser usados en la transferencia de la información a través de las fibras ópticas (Internet). Yo me encontraba metido en su desarrollo con unos 200 ingenieros, explicándoles lo que pasaba a nivel atómico en los materiales que ellos manejaban.

Page 96: Ecipe Rue Special 2010

Revista del Encuentro Científico Internacional

95ECIPERÚ

Luego te pasaste a la Xerox… En 1984, la Xerox me ofreció un puesto en su plantel científico. Me ofreció un microscopio más avanzado y la posibilidad de realizar investigación independiente. La empresa estaba interesada en construir una impresora láser pequeña. Xerox PARC inventó en la década de los setenta el sistema de ventanas, el mouse, la ethernet, lo que sería la computadora personal, entre otros; eso es historia. Yo ya había trabajado allí por tres años para fines de los setenta.

Xerox decidió a juntar a los mejores ingenieros y científicos. Estuve con algo así como ciento cincuenta investigadores seleccionados. Estuve en un grupo cuya labor era miniaturizar la impresora láser de manera que pueda ir sobre una mesa. La impresora láser fue inventada en el año 73, en Xerox, y llenaba un cuarto y hacía ruido. También la primera computadora personal, llamada El Alto. Sus discos tenían un metro de diámetro, en el que entraba un megabyte. Se produjo unas 2000 primeras computadoras personales que costaban como 50 000 dólares cada una.

A mí me tocó estar ahí para optimizar las impresoras láser. En esa época, ya se hablaba de los pozos cuánticos en semiconductores, donde se podían juntar en forma eficiente los huecos y los electrones, que luego se recombinaban y se convertían en luz. Para poder comprender los pozos cuánticos era necesario poder “verlos” a nivel atómico.

En la segunda mitad de la década 70, yo trabajaba en el desarrollo de los primeros láseres basados en materiales semiconductores. Mis primeros artículos científicos fueron sobre cómo producir láseres infrarrojos de alta intensidad óptica. En paralelo, era estudiante en Stanford, donde trabajaba en las celdas fotovoltaicas y aprendía microscopía electrónica. Todo ocurría por accidente. Uno pensaba que se debía hacer algo, lo hacía, y avanzaba muy intuitivamente. Es difícil planear lo desconocido.

¿Cuánto tiempo estuviste en la Xerox? Pasé 17 años en la Xerox. En los años 70, trabajé en los materiales infrarrojos de los primeros láseres, éstos que registran y leen los CD, y son usados en las comunicaciones por fibra óptica de Internet. En los años 80, trabajé en los láseres rojos, que permiten

mayor densidad de información. Con infrarrojos se obtiene 700 megabytes, con láseres rojos se llega a 6 gigabytes. En los años 90, tuvimos que ir más allá, con láseres azules, que son los nuevos DVD que están entrando al mercado, los Blu-Ray producidos por SONY, con los que se obtiene hasta 50 gigabytes en el mismo diámetro de disco. En esta década, estamos desarrollando láseres ultravioletas.

Ahora estás en la Arizona State UniversityYa llevo siete años en la Arizona State University. Mi grupo de investigación se enfoca a materiales productores de luz. Estudiamos la Física de Iluminación por Estado Sólido, es decir usando semiconductores. Estamos colaborando con colegas en otras partes del mundo en el desarrollo de láseres semiconductores emitiendo en verde y ultravioleta. Este es un campo de frontera de mucha importancia tecnológica hoy.

¿Y esta carrera hacia lo pequeño tiene un límite? Existen siempre los límites, pero encontramos formas de burlarnos de ellos. Desde el punto de vista de registro óptico, depende de la longitud de onda de la luz que produzcamos, y también del método de registro (como por ejemplo, podemos ir de dos a tres dimensiones).

Desde el punto de vista de número de transistores, ahora estamos pensando en circuitos integrados en tres dimensiones. También se habla de usar el espín, que tiene numerosas orientaciones, surgiendo la “espintrónica”. Así, en lugar de tener sólo un uno o un cero, se puede tener un número infinito de posibilidades intermedias.

¿Cuál es la diferencia entre la UNI y las universidades de Estados Unidos?La UNI es una universidad muy especial, con muy buenos profesores y un ambiente intelectual fantástico. El desafío más grande que encontré fue poder escribir rápida y efectivamente. Mi educación anterior no me había preparado para eso. La palabra escrita es una herramienta muy poderosa. Y son pocos los que llegan a un alto nivel de expresión. Todo viene con la práctica. En Lima, no nos obligaban a poner por escrito nuestros conceptos e ideas. Esa ha sido la parte más desafiante en mi carrera. Y también la que me dio más satisfacciones: Es un gran logro conseguir expresar pensamientos

Page 97: Ecipe Rue Special 2010

Número especial 2010

96ECIPERÚ

en un artículo que salga publicado en una buena revista profesional.

Hablando de cosas personales… ¿cómo conociste a tu esposa?Con Sharon nos conocimos jugando tenis, en Maryland. ¡De eso hace sólo 33 años!

¿Tus hijos te siguieron en la carrera? Los padres siempre influyen en las actividades de los hijos. Y generalmente enfatizamos lo que nos gusta. Nuestro énfasis estuvo en utilizar eficientemente el tiempo en el desarrollo de las capacidades intelectual, humana y ética.

Francisco, nuestro hijo mayor, estudió Física en Harvard, luego Ciencia de Materiales en Oxford, para finalizar con Medicina en la Universidad de Chicago. Ahora es neurocirujano en Phoenix, Arizona, a unos kilómetros de sus papás.

Daniel, nuestro segundo hijo, estudió Bioquímica, en Harvard, y luego Odontología en Columbia. Está terminando su residencia con especialidad en Odontología Pediátrica.

Tomás, el menor, estudió Ingeniería Mecánica en Berkeley, y postgrado en Stanford. Y ahora trabaja en los laboratorios de Apple Computer en Cupertino, California.

Tu les enseñabas… Sharon y yo nos ocupamos en casa en enseñar a los chicos a pensar y a utilizar bien su tiempo. Las matemáticas fueron una base importante de su educación. La física vino como aplicación de las matemáticas para comprender el mundo real.

¿Y tu esposa no se quejó por tu concentración en la física? Es que siempre trabajamos juntos. La familia estuvo siempre primero. Todo se puede abandonar, menos la familia.

¿Tus padres? Mi padre falleció en 1980, fue un hombre muy honesto y ético. Mi madre vive con mis hermanos en Estados Unidos.

¿Cuando vuelves al Perú? Tan pronto como pueda, hay muchos proyectos interesantes que me atraen.

Al finalizar, quiero felicitarte por la organización del Encuentro Científico Internacional, que permite juntarnos con los estudiantes y jóvenes investigadores. Creo que es algo muy importante para el país. ¡Que continúen estos éxitos!

Febrero de 2005

Page 98: Ecipe Rue Special 2010

97ECIPERÚ

Cuéntame un poco de tu familia…Mi padre era japonés y mi madre es hija de japoneses nacida en el Perú. Vivo en el Japón hace 21 años, soy viudo. Tengo tres hijos: el mayor de 21 años, estudia medicina tecnológica; la segunda irá a la universidad el próximo año; y al último le faltan dos años.

¿Y tu curiosidad por la Biología?Siempre he querido saber cómo o el por qué de las cosas. Me gustaban los trabajos minuciosos. Me gustaba la filatelia.

Cuando fuiste a Japón descubriste diferencias con Perú…Al inicio encontré un Japón como me lo habían contado: mucha ciencia y tecnología. Pero allá uno descubre muchas cosas. Por ejemplo, si se ve un niño en la calle, la policía pregunta por qué no está en la escuela y es llevado hasta donde vive para preguntar la razón. En el Japón, la educación hasta el tercer grado superior es obligatoria y es penado si se incumple. Se respeta las reglas, en forma estricta. Desde pequeños, en la escuela, se inculca lo que ha pasado después de la Guerra, cuando se comía hasta el último granito de arroz por la gran pobreza que quedó después de las bombas atómicas.

¿Cómo fuiste a Japón?En 1988, fui al Japón becado por JICA, para hacer estudios sobre alimentos fermentados, como aplicación de la microbiología. El curso dura seis meses. Allí tuve contacto con una empresa que investiga empaques de alimentos. Tuve seis meses más para ello. Los tipos de empaques, los tipos de resinas plásticas y todo lo relacionado con los “empaques funcionales” o “empaques activos”.

¿Y cómo entraste a la empresa donde estás ahora?La empresa en la que ahora trabajo 21 años me contactó en ese periodo de beca. Me presentaron un producto que habían patentado en 1983

Javier Takahashi Todio Sinanen Zeomic Co., Ltd., Japón

con propiedades antibacterianas. Buscaban un biólogo con experiencia para revisar un estudio a nivel microbiológico de su producto denominado SILVER ZEOLITE que habían patentado, ya que todo el personal estaba conformado por químicos. Desde mi ingreso a la empresa, fui destacado por cuatro años al Instituto Nacional de Investigación de Alimentos de la Ciudad Científica de Tsukuba. Hasta la fecha, soy el único biológo. Esta empresa fue la primera en el mundo en lanzar un producto basado en iones de plata a nivel industrial, y ahora podemos ver que a nivel mundial esta tecnología basada en la plata nace en Japón, específicamente en esta empresa, y va creciendo en los diferentes campos de la sociedad actual.

Comenzaste desde cero…Implementamos un laboratorio de microbiología. Ahora soy jefe de ese laboratorio, en el departamento de Desarrollo e Investigación. Como empresa privada, siempre estamos abocados al desarrollo de nuevos productos para seguir creciendo empresarialmente. Tenemos patentes a nivel mundial.

¿Cuál es el producto?El producto básico es un material antimicrobiano con efecto sobre levaduras, hongos, virus, basado en el aluminosilicato llamado zeolita activado con iones de plata (comercialmente llamada Silver Zeolite). La naturaleza inorgánica le otorga una resistencia térmica de 600 °C, lo cual facilita su incorporación en resinas plásticas para producir materiales con actividad anti-bacteriana (self sanitizing surfaces).

¿Para qué se usa?Se usa en pinturas, barnices, fábricas de alimentos, materiales para pisos, para hospitales y todo tipo de material plástico. Nuestro material protege del biodeterioro y mantiene limpio de contaminantes a los materiales. Un ejemplo es la tabla de picar alimentos, al que se incorpora nuestro material para evitar su contaminación.

Page 99: Ecipe Rue Special 2010

Número especial 2010

98ECIPERÚ

Y en higiene…Hay pastas y cepillos de dientes con nuestro producto. La empresa de cosméticos de fama mundial Shiseido utiliza uno de nuestros productos en “desodorantes”, otras empresas lo utilizan como preservantes de cosméticos, en reemplazo de los parabenos. Se usa también en fibras textiles para la confección de ropa interior para inhibir el desarrollo de microorgansimos que degradan el sudor y producen mal olor. Debido a las propiedades absorventes de la zeolita, nuestro producto tambíen es aplicado en las casas de reposo para adultos mayores con la finalidad de menguar los malos olores que se generan en estas instalaciones y otros lugares públicos.

¿Cómo se aplica?Cuando la resina plástica se derrite a 120 °C o más, se incorpora nuestro material en cantidades adecuadas para luego moldear el producto o artículo deseado.

¿Tiene efectos secundarios?Las pruebas toxicológicas realizadas en institutos toxicológicos del Japón, Estados Unidos, Inglaterra y Holanda han demostrado que no tiene efectos negativos para la salud humana, y esto ha servido para que nuestro producto pueda ser registrado en la Food and Drug Administration (FDA) y en la Environmental Protection Agency (EPA) de los Estados Unidos.

Sé que la zeolita se usa en la industria petrolera…La zeolita es utilizada ampliamente en la industria del petróleo para desecar gases y como material catalítico, por eso es conocida como criba molecular. En la industria de detergentes se usa como reemplazo de los fosfatos para capturar los iones pesados del agua con interfieren con el lavado.

Lima, agosto de 2009

Page 100: Ecipe Rue Special 2010

99ECIPERÚ

¿Donde estudiaste y cómo fue tu paso a Estados Unidos?Estudié en el Colegio Guadalupe. Ingresé a la UNI. Siendo estudiante trabajé como electrónico en la TV Nacional. Cuando terminé, ingresé al IPEN. Fui a Estados Unidos a tomar cursos de postgrado. Sin embargo, me interesó la Física para comprender cómo eran las cosas. Mi profesor me animó a hacer una maestría. Surgió la posibilidad de hacer un doctorado multidisciplinario. Estudié el átomo de helio. Era uno de los pocos físicos atómicos. Luego empecé a interesarme en la Química Pura. Conocí a la que ahora es mi esposa, que era ingeniera química. Grosso modo, la Ingeniería Química se encarga de los procesos, mientras que los químicos estudian las reacciones.

¿Cómo se desarrolla la nanotecnología en el mundo?Hoy en día, todas las computadoras usan nanotecnologías: tienen dispositivos de dimensiones de centésimas de micra. Las grandes empresas de computadoras usan nanotecnología, pero no lo mencionan. Una planta para trabajar en esa tecnología requiere una inversión de miles de millones de dólares.

¿Y los países en desarrollo tienen alternativa? Hay una alternativa para desarrollar nanotecnología: hacerlo en un laboratorio químico que cuesta uno 30 mil dólares. Y con ello, estarás haciendo ciencia del mismo nivel que la que se hace en el hemisferio norte. La nanotecnología surgió como una alternativa a la microelectrónica, cuyas fábricas son muy costosas pero las computadoras son baratas porque se hacen por millones.

¿Cómo se paga a los jóvenes investigadores en Estados Unidos?En Ingeniería, los estudiantes de grado reciben estipendios de más o menos 1000 dólares por mes. En la mayoría de casos (universidades públicas y privadas) tienen que pagar por sus estudios que puede ser desde 10 000 dólares a cantidades increíbles. Los graduados (que equivale a alumnos de postgrado en

Jorge Seminario Universidad de Texas A&M, Estados Unidos

Perú) ganan alrededor de 1800 dólares mensuales por trabajar en investigación mientras hacen su doctorado, además que se les paga por sus estudios. No necesariamente, pero en la mayoría de los casos continúan a un postdoctorado por dos a cuatro años con salarios mensuales promedios de 4000 dólares. Si deciden por la vida académica, empiezan como profesor asistente con sueldos de 8000 dólares, hasta que reciben su nombramiento unos cinco a seis años después, y siendo retirados de la universidad si no reciben nombramiento (tenure). Si son nombrados, pasan a profesor asociado con un sueldo de 12 000 dólares y, finalmente, después de cuatro años, y si demuestra calidad internacional, pasa a ser lo que simplemente se conoce como profesor con un sueldo que empieza por los 15 000 dólares. Ciertamente, todas las cifras dependen de cada caso particular y tienen bastantes fluctuaciones.

¿Cómo se logra un nombramiento?Para ser nombrado, normalmente hay que convertirse en profesor asociado. Se evalúa los meritos del candidato durante sus últimos seis años como profesor asistente. La evaluación es en las tres áreas o pilares de la vida universitaria: enseñanza, investigación y servicio. En la primera, se toma con alto peso las evaluaciones de los estudiantes. Esto es difícil de aceptar, pero así es. En investigación, es básicamente por la cantidad de dinero en proyectos de investigación y el número de publicaciones que el candidato a conseguido. Finalmente, en servicio, tiene que ver con la participación en comités, congresos, visitas y toda actividad nacional o internacional que deje en alto el prestigio de la universidad.

¿Cuál es tu campo de investigación?Mi campo de investigación se centra en el estudio de las propiedades de nano-materiales que puedan ser útiles para implementar dispositivos electrónicos. En particular de nano-sensores para la detección de agentes químicos y bilógicos. Esta investigación requiere de la física, química y biología. Investigaciones en estos temas se puede

Page 101: Ecipe Rue Special 2010

Número especial 2010

100ECIPERÚ

UNI desean competir, tienen que tener lo mismo.

¿En Estados Unidos hay planeamiento estratégico?Tengo entendido que hay comisiones que hacen prospectiva de empresas e instituciones de 100 años. Muchas de estas se encuentran en Internet, pero también tienen comisiones a 20, 15, 10 y 5 años. Esas comisiones dan lugar a recursos para realizar investigaciones en los campos que son definidos como prioritarios. A los investigadores se les ofrece campos en los que tienen que competir por los recursos. Ahora, estos recursos están disponibles para universidades; en algunos casos extranjeras. Es algo que deberían aprovechar.

hacer en el Perú. Ya hay grupos en formación, por ejemplo en la UNI.

¿A qué se debe tus continuos viajes a Lima?Vengo para seguir dirigiendo las investigaciones sobre ciencia computacional que realizo con un equipo de ingenieros de la UNI. Los estudiantes de la UNI tienen un alto nivel académico. Hoy en día, debemos dotar a estos alumnos de las facilidades computacionales para competir con los equipos internacionales. Deben tener una buena computadora y una remuneración que les permita tener una laptop, Internet en sus casas. Mis alumnos en Estados Unidos tienen sus laptops y tienen acceso a las computadoras paralelas. Si los alumnos de la

Page 102: Ecipe Rue Special 2010
Page 103: Ecipe Rue Special 2010

Se terminó de imprimir en los talleres gráficos deTAREA ASOCIACIÓN GRÁFICA EDUCATIVA

Pasaje María Auxiliadora 156 - BreñaCorreo e.: [email protected]

Página web: www. tareagrafica.comTeléf. 332-3229 Fax: 424-1582

Diciembre 2010 Lima - Perú

Page 104: Ecipe Rue Special 2010
Page 105: Ecipe Rue Special 2010
Page 106: Ecipe Rue Special 2010