Telecomunicaciones y Computación

193
1 HACIA DÓNDE VA LA CIENCIA EN MÉXICO Telecomunicaciones y Computación (Versión preliminar, sujeta a cambios) Un análisis para la acción

Transcript of Telecomunicaciones y Computación

Page 1: Telecomunicaciones y Computación

1

HACIA DÓNDE VA LA CIENCIA EN MÉXICO

Telecomunicaciones y Computación

(Versión preliminar, sujeta a cambios)

Un análisis para la acción

Page 2: Telecomunicaciones y Computación

2

Portada: “Cloud Word”, estudio de frecuencias de palabras

que aparecen en los títulos de las ponencias del programa

HACIA DÓNDE VA LA CIENCIA EN MÉXICO.

Realizado por Centro Geo.

Page 3: Telecomunicaciones y Computación

3

HACIA DÓNDE VA LA CIENCIA EN MÉXICO

Telecomunicaciones y Computación

(Versión preliminar, sujeta a cambios.)

Un análisis para la acción

Adolfo Guzmán Arenas

Jesús Favela Vara

Coordinadores

CONACYT AMC CCC

Page 4: Telecomunicaciones y Computación

4

México, 2014

Primera edición, 2014

D.R. Consejo Nacional de Ciencia y Tecnología

Av. Insurgentes Sur 1582

Colonia Crédito Constructor

México, D. F.

ISBN Colección: XXXX

ISBN Volumen: XXX

D.R. Academia Mexicana de Ciencias, A. C

Los Cipreses s/n

Pueblo San Andrés Totoltepec

México, D. F.

ISBN Colección: XXXX

ISBN Volumen: XXX

D.R. Secretaría Ejecutiva del Consejo Consultivo de Ciencias

San Francisco 1626-305

Colonia del Valle

México, D. F.

ISBN Colección: 978-607-9138-08-0

ISBN Volumen: XXX

[email protected]

haciadondevalaciencia.org

Impreso en México

Printed in Mexico

Page 5: Telecomunicaciones y Computación

5

Se prohíbe la reproducción total o parcial de esta obra —incluido el diseño tipográfico y de

portada— sea cual fuere el medio, electrónico o mecánico, sin el consentimiento por

escrito de los editores.

ÍNDICE

Presentación

HACIA DÓNDE VA LA CIENCIA EN MÉXICO

1. Introducción. La importancia de las telecomunicaciones

y la computación Adolfo Guzmán Arenas y Jesús Favela Vara 2. Áreas y oportunidades para el desarrollo de las

comunicaciones: comunicación digital David Muñoz Rodríguez 3. Perspectivas, retos y oportunidades de las

telecomunicaciones en México

Eduardo Castañón Cruz

4. Infraestructura cibernética de alto desempeño para la

era de los grandes datos Larry Smarr

5. Retos y oportunidades de las comunicaciones ópticas y

el procesamiento digital fotónico

Horacio Soto

6. Computación. Algunas oportunidades y riesgos

tecnológicos Adolfo Guzmán Arenas

7. Sistemas inteligentes. Presente y futuro

Enrique Sucar Succar

8. Una nueva era de la computación en México.

Page 6: Telecomunicaciones y Computación

6

Oportunidades y áreas estratégicas de acción

Fabián García Nocetti

9. Investigación, educación y emprendimiento en ciencias

de la computación en México Édgar Chávez

10. Las TIC como ciencia emergente y herramientas para

el desarrollo de la ciencia en México

Sergio Carrera Riva Palacio y Juan Carlos Téllez Mosqueda

11. Hacia dónde va la investigación en computación en

México Carlos A. Coello Coello

12. Semblanza de los autores

13. Propuesta sobre telecomunicaciones y computación

Adolfo Guzmán Arenas y Jesús Favela Lara

14. Líneas de acción para el futuro de las

telecomunicaciones y la computación

15. Créditos del programa HACIA DÓNDE VA LA CIENCIA EN

MÉXICO

16. Instituciones de adscripción de los participantes

Page 7: Telecomunicaciones y Computación

9

PRESENTACIÓN

HACIA DÓNDE VA LA CIENCIA EN MÉXICO

Page 8: Telecomunicaciones y Computación

9

HACIA DÓNDE VA LA CIENCIA EN MÉXICO

Telecomunicaciones y Computación

Page 9: Telecomunicaciones y Computación

9

INTRODUCCIÓN

LA IMPORTANCIA DE LAS TELECOMUNICACIONES Y LA COMPUTACIÓN

Adolfo Guzmán Arenas1

Jesús Favela Vara**

Computar es calcular, hacer cálculos. La computación, también llamada informática, es la

disciplina que estudia la información, su procesamiento, su transformación en

conocimiento. Las telecomunicaciones también trabajan con información, la transmiten, la

reciben, la decodifican, la comprimen, detectan y corrigen errores. A menudo, estas dos

disciplinas funcionan ligadas muy estrechamente, de modo que es relevante hablar de

“telecomunicaciones y computación” o, como se le conoce ahora, tecnologías de la

información y computación (TICs). Algunas disciplinas estudian los objetos existentes en la

naturaleza: la astronomía estudia planetas, galaxias...; la biología, a los seres vivos; la

medicina a los seres humanos; otras, como las matemáticas, estudian abstracciones

creadas por los humanos (conjuntos, espacios, estructuras...). En cambio, la computación

estudia el procesamiento de la información que ocurre tanto en máquinas creadas por el

ser humano (computadoras) como en seres vivos (¿algunos? programas o algoritmos

están codificados en secuencias de ADN que son ejecutadas, por ejemplo, por una

lagartija para producir otra lagartija).

La computación es una ciencia muy joven, nació a finales de la década de los

cuarenta o principios de los cincuenta del siglo pasado. Sin embargo, es una ciencia

1Centro de Investigación en Computación, Instituto Politécnico Nacional.

**Centro de Investigación Científica y de Educación Superior de Ensenada.

Page 10: Telecomunicaciones y Computación

10

transversal, que incide en muchas otras disciplinas, en los negocios, en la vida cotidiana y

en un sinfín de actividades que ocurren todos los días: para hallar resultados concretos,

obtener beneficios, descubrir tendencias. Sus aplicaciones son numerosas y la vida

moderna difícilmente podría entenderse sin su presencia.

LA COMPUTACIÓN DOMINA NUESTRA VIDA COTIDIANA

Cuando ordenas una pizza desde tu computadora escribiendo “pizza” en la ventana de

búsqueda de tu navegador, éste, a través de Internet (red mundial formada por muchas

computadoras. La comunicación de tu navegador con ella es posible gracias a varias

máquinas de la empresa telefónica y la de tu proveedor de Internet), te conecta con

máquinas especiales que hacen la búsqueda por ti. Para esto usan un resumen (un índice

invertido) de las páginas de Internet, para darte en pocos segundos una lista de los

establecimientos en tu zona que venden pizza. Con el ratón pulsas en uno de ellos, y

varias otras computadoras te conectan con la máquina del establecimiento, que se

comunica con tu máquina para saber qué ordenaste, calcular y decirte cuánto debes

pagar. El pago va por un canal seguro a la máquina de la empresa que maneja tu tarjeta

de débito o de crédito, la que se comunica con las computadoras de tu banco y la del

banco del vendedor de pizza para hacer la transferencia electrónica. La máquina del

establecimiento imprime (o muestra en una pantalla) la pizza que ordenaste, para que el

cocinero la prepare. Probablemente use un horno que, controlado por otra pequeña

computadora, produce la secuencia de calentamiento y temperatura adecuados para que

a) tu pizza salga excelente y b) ahorre energía eléctrica. Pedro, el muchacho repartidor,

prende su vehículo (que tiene varias computadoras en su interior para controlar la

ignición, el frenado, evitar derrapes, etcétera) y se dirige a tu casa. Pedro consulta en su

pantalla la mejor ruta que debe tomar, y utiliza el posicionador satelital (GPS) de su

vehículo para situarlo en el mapa desplegado. El cálculo de dónde se encuentra en la

superficie terrestre lo llevan a cabo otras máquinas que usan para ello los rastreos de las

señales de varios satélites, y lo posicionan en el mapa con pocos metros de error. Pero en

la orden de despacho de tu pizza no viene el número interior del condominio donde vives,

de modo que Pedro usa su teléfono celular para preguntarte ese dato. Ésa es otra

maravilla. En cada teléfono celular hay más capacidad de cómputo que toda la que usó la

Page 11: Telecomunicaciones y Computación

11

NASA para enviar al primer hombre a la Luna, en 1969. Varios procesadores en el celular

de Pedro miden la señal recibida de las diferentes torres telefónicas en tu vecindario, y

esperan a que las computadoras de esas torres se pongan de acuerdo: la torre 2 atenderá

la llamada de Pedro. Esa torre escoge un canal de transmisión y le avisa a su celular que

escuche y transmita por ese canal. Lo comunica, vía transmisión telefónica normal, con el

teléfono de tu casa, donde tú contestas (tu teléfono es digital, lo cual hace que más

computadoras entren en acción para darte tono de llamada y contabilizar el tiempo de

conversación transcurrido, con vistas a la cobranza). En la ruta del vehículo de Pedro

hacia tu casa, la comunicación de su teléfono celular con la torre 2 se debilita, pero la

torre 16 lo empieza a captar. En una “plática” entre las computadoras de las torres 2 y 16,

deciden que la conversación que sostienes con Pedro ahora sea manejada por la torre 16,

de manera que ésta se comunica con su celular y le pide que transmita por un canal (una

frecuencia de transmisión) distinto y, “zaz”, ahora Pedro ya está hablando contigo vía el

nuevo canal, la torre 16, que recibe la conversación con mayor claridad (una mejor

relación de señal a ruido). Ni tú ni Pedro se dan cuenta. Este pequeño ejemplo da idea de

lo inmersas que están las computadoras y las telecomunicaciones en nuestra vida

cotidiana. Si éstas se declararan en “huelga de hambre” o en una “manifestación de ciclos

caídos” (no de brazos caídos), habría un caos mundial, chocarían los aviones, los trenes,

dejarían de funcionar los teléfonos, la televisión, el suministro de energía eléctrica, el

bombeo de agua, el drenaje...

LA NUEVA GENERACIÓN DE MEXICANOS NACE RODEADA DE

COMPUTACIÓN Y COMUNICACIONES DIGITALES

Los actuales estudiantes de educación básica (primaria, secundaria) y media

(preparatoria, vocacional, estudios subprofesionales) nacieron en un rico ambiente

tecnológico de cómputo y comunicaciones digitales, y en dicho ambiente adquieren

conocimientos. Usan un teléfono celular, una tableta, computadoras, internet, Wikipedia,

chats, Twitter, Google. Aun cuando no tengan internet o computadora en casa, con 12

pesos consiguen una hora en el café internet de la esquina. La inmersión en lo digital

continuará y será más profunda, cuando tengamos buscadores semánticos, cuando

podamos usar enjambres de computadoras de manera transparente (por ejemplo, con

Page 12: Telecomunicaciones y Computación

12

Hadoop, MapReduce y Pig), cuando se perfeccione la identificación de rostros,

personalidades, tendencias y gustos individuales por la computadora, y cada uno de

nosotros tenga su “patrón de comportamiento” almacenado en alguna base de datos.

Esto es inevitable. Ningún decreto, ningún arreglo en lo oscurito lo podrá evitar.

Debemos estar preparados para explotar, para saber aprovechar, para innovar en

este futuro próximo que “ya toca la puerta”. Afortunadamente, en México se gradúan cada

año 25 000 egresados de las diversas licenciaturas e ingenierías en computación,

informática, telemática, mecatrónica y otros nombres similares (es la ingeniería con más

demanda entre los aspirantes a la universidad). Pero, si estos jóvenes mexicanos no

dominan los nuevos avances, o si un porcentaje de ellos no innova, no investiga, no hace

avanzar la computación y la informática, sólo seremos un país que “veremos pasar el

tren”. Y lo podremos usar, pero el tren no será nuestro. Seremos un país de 130 millones

de consumidores, que compran software y hardware hechos en otros países, que

contratan empresas extranjeras para que nivelen las vías del tren detenido porque se

descarriló, que nos llaman con grandes luces a “usar sus nubes de computadoras”, o a

rentar su software, a exportar dinero y también la información vital de nuestras empresas

y gobiernos. Si no formamos a los especialistas ni hacemos avanzar la ciencia y la

tecnología en esta dirección, solamente estamos formando un mercado rico para que lo

satisfagan proveedores extranjeros. México será un país de consumidores de productos

importados, con empresas extranjeras que además manejan y conocen nuestra

información vital, dónde están nuestros depósitos de uranio, de cobre, de petróleo, dónde

están nuestros mejores clientes, con quién nos comunicamos, por dónde nos movemos,

qué compramos, etcétera. Información vital nuestra yacerá en otros lares. En resumen, el

riesgo de no apoyar el desarrollo de las tecnologías de la información y la computación es

que la brecha digital se ahondará para nosotros, bien por falta de acceso a la

computadora personal, la telefonía móvil o la banda ancha, bien porque no sabremos

darles valor agregado mediante la investigación y la transferencia de tecnología,

reduciéndonos al mero papel de consumidores, espectadores y admiradores de “lo que

sabe hacer el hombre blanco y barbado”.

Ésta es una razón poderosa para invertir en la investigación y desarrollo de la

computación y las telecomunicaciones y para formar a nuestros estudiantes, no sólo en el

uso adecuado de estas tecnologías, sino en su apropiación, innovación y desarrollo.

Page 13: Telecomunicaciones y Computación

13

EL APOYO A LA COMPUTACIÓN RINDE MÚLTIPLES FRUTOS

El avance de la computación y las telecomunicaciones permite que otras ciencias,

disciplinas y actividades productivas, de gobierno y de la sociedad se beneficien del

mismo. Por esto, un apoyo a la computación tiene un efecto multiplicador: cada peso

invertido “vale por tres”. Un sencillo ejemplo con siete de las muchas áreas de la computa-

ción mostrará sus efectos multiplicadores.

1. Mejorar las técnicas para paralelizar algoritmos (a fin de poder usar fácilmente

enjambres de máquinas PC pequeñas, como ya empieza a ocurrir con Hadoop y

Casandra)1 permitirá el análisis más rápido y certero de grandes volúmenes de datos:

a) El análisis de delitos, epidemias, precursores de terremotos, precursores de

sequías, entre otros, será más eficaz.

b) El análisis de genomas, de secuencias de genes, será más ágil y más barato, y

nos permitirá detectar mejor qué personas son propensas a ciertas enfermedades,

o a mejorar las razas o variedades de trigo, maíz, plátano, caña de azúcar... o de

variedades transgénicas, o de bacterias que conviertan la celulosa en petróleo...

c) Diez mil cámaras producen una gran cantidad de videos de lo que ocurre en las

calles de una gran ciudad. Con mejores algoritmos paralelizables, ahora será

posible detectar dónde está Juan Pérez, o darle seguimiento a convoyes de

vehículos sospechosos, o detectar carros robados u objetos abandonados.

d) El análisis de imágenes astronómicas para detectar la aparición de supernovas,

dónde, con qué frecuencia.

e) El seguimiento longitudinal a alumnos, para conocer patrones de comportamiento,

tendencias, anomalías…

f) Análisis de gran cantidad de documentos (o de bases de datos) para extraer

nuevos conocimientos, tendencias, desviaciones, anomalías (minería de datos).

g) El análisis de imágenes satelitales y de información recabada por sensores

oceanográficos para predecir el clima y prever riesgos climatológicos.

h) Predecir variaciones en el comportamiento de poblaciones por medio del análisis

de información recabada por sensores en teléfonos celulares y computadoras de

1 Hadoop es un sistema de software libre incluido en Apache, para el manejo de almacenamiento y

procesamientomasivo;yCasandraesotrosistema,tambiéndeApache,paramanejarbasesdedatos.

Page 14: Telecomunicaciones y Computación

14

vestir, que den indicios de brotes epidémicos o potenciales, o riesgos de seguridad

o salud.

También se beneficiarán i, j, k enlistados a continuación.

2. Mejorar el procesamiento semántico del español, para entender qué significa “comer”,

o quiénes pueden “ser dueños de”, permitirá que:

i) Se vuelvan obsoletos los buscadores por palabras, como los de Google y Yahoo

(que tienen como entrada varias palabras y producen como salida millares de

documentos), reemplazándolos por “contestadores” como Alpha, de Wolfram, que

tienen como entrada una pregunta como: “¿Cuáles son las sales del ácido nítrico,

y para qué sirven?”, que tienen como salida la respuesta a tal pregunta.

j) Entender mejor las opiniones, tendencias e inclinaciones de grupos de personas

que escriben sus mensajes en Twitter y otras redes sociales.

También se beneficiarán f, p.

3. Mejorar los algoritmos de detección de rasgos, clasificación, reconocimiento de

patrones, hará más fácil y exacto:

k) Identificar mucho mejor un rostro, haciendo innecesaria la portación o expedición

de credenciales, gafetes de acceso, pasaportes...

l) Detectar la presencia visual de objetos y con ello entender el contexto del usuario

para actuar proactivamente.

También se beneficiarán a, b, c, m y quizá f.

4. Un mejor entendimiento de cómo ajustar muchos datos a ciertos modelos de

comportamiento y operación, o a ciertas ecuaciones o restricciones de

funcionamiento, nos permitirá:

m) Conocer mejor cómo reaccionan construcciones complejas (plantas de reciclado,

de cocción; edificios y estructuras sujetas a esfuerzos, a cargas, vientos...) a fin de

entender mejor su estado, prevenir condiciones, alertar posibles fallas, corregir a

tiempo.

n) Simular el comportamiento de construcciones complejas (como las de j) y otras,

como leyes y reglamentos que regulan y limitan el comportamiento de actores,

sean personas o entes jurídicos, para poder predecir —con márgenes de error—

Page 15: Telecomunicaciones y Computación

15

posibles efectos y detectar comportamientos indeseables, situaciones inestables, o

equilibrios de Nash no óptimos.

o) Un mejor control de equipo, maquinaria, instalaciones, plantas y sistemas

mecánicos, eléctricos, electrónicos, químicos, etcétera, para su funcionamiento

eficiente, cercano al óptimo, seguro y ambientalmente amigable.

También se beneficiarán a, e, f, i, j, p, q.

5. Un avance significativo en técnicas de criptografía y detección de intrusos informáticos

(virus, gusanos, bots2...) brindará grandes beneficios:

p) Limitará el espionaje y robo de información privada y gubernamental valiosa.

q) Eliminará o abatirá la gran cantidad de correos no deseables (spam).

6. La gran mayoría de los servicios de TI modernos involucra transferencia de

información. La demanda de estos servicios duplica el ancho de banda requerida cada

seis meses. Ante esto es importante desarrollar la infraestructura de

telecomunicaciones necesaria para mantener estos servicios y los que se

desarrollarán. Esto requiere inversión en infraestructura, pero también innovar en la

optimización de transferencia de información en medios desde ópticos hasta

inalámbricos. Esto permitirá:

r) Transferir información de diversos tipos de sensores (cámaras, acelerometría en

celulares, velocidad de automóviles, etcétera) para ser procesada en tiempo real y

ayudar al usuario a tomar decisiones. Por ejemplo, sugerir cambios de ruta en

función del monitoreo de tráfico.

s) Soportar necesidad de servicios de audioconferencia y videoconferencia en

aumento por la ubicuidad de telefonía celular.

7. Se requieren avances en redes de sensores, para optimizar el manejo de energía,

enrutar paquetes en función de la ubicación del sensor y monitorear y dar

mantenimiento a estos sistemas de bajos recursos. Estos avances permitirán:

t) Censar variables ambientales en zonas protegidas para facilitar la toma de

decisiones relacionada con su preservación.

2Unbot,palabraderivadaderobot,esunprogramaquebuscainteractuarconpáginaseninternet.

Graciela Dolores Avila Quezada
Page 16: Telecomunicaciones y Computación

16

u) Monitorear el comportamiento de infraestructura física, como puentes y edificios,

para preservar la integridad estructural de la obra civil por medio de un

mantenimiento adecuado.

v) Analizar información censada por automóviles para estimar tráfico, contaminación

vial y condiciones del camino, facilitadas por la comunicación intravehicular.

w) Permitir la interacción entre objetos instrumentados (interconexión de utensilios

cotidianos) a través de la comunicación entre objetos de la vida diaria que incluyen

capacidades de censado y comunicación con el usuario.

Demostrado lo evidente (el efecto multiplicador de los avances en la computación y las

telecomunicaciones), tal efecto es otra razón poderosa para invertir nuestros “pesos en la

investigación y el desarrollo tecnológicos” en las telecomunicaciones y la informática.

Es importante señalar que todo apoyo a estas dos áreas eventualmente rendirá frutos

en otros ámbitos. Pero, dada nuestra posición de país en desarrollo, el apoyo se debe

dirigir sobre todo a áreas que rindan frutos útiles al sector productivo, que resuelvan

problemas reales (de nuestro país, de nuestra industria, de nuestras empresas, de

nuestros gobiernos, de nuestra sociedad) que sustituyan importaciones de software o

equipo, que puedan ser aplicados.

QUÉ CONTIENE ESTE LIBRO

En el capítulo 2 se señala con bastante detalle y claridad qué áreas de la comunicación

digital merecen ser apoyadas. En él, David Muñoz nos pasea lúcidamente por un mundo

donde múltiples dispositivos móviles (e inmóviles) interactúan a través de diversos y a

menudo incompatibles canales de comunicación: vehículos automotores, dispositivos de

geoposicionamiento (GPS), la interconexión de utensilios cotidianos, tabletas, teléfonos

inteligentes. Un universo donde la mayoría de las máquinas se comunican con otras

máquinas, y sólo ocasionalmente con algún ser humano.

En el capítulo 3, Eduardo Castañón plantea la situación actual de las

telecomunicaciones (telefonías fija y móvil, televisión restringida, banda ancha fija, banda

ancha móvil), para señalar los principales retos y así basar sus recomendaciones, en la

que destacan acciones que el gobierno federal, la Cofetel, la SCT, el sistema jurídico, los

Page 17: Telecomunicaciones y Computación

17

tribunales especializados, deben emprender para normar mejor las actividades y

competencias del sector de las telecomunicaciones, concesiones, permisionarios,

comercializadores de servicios, operadores de redes móviles virtuales (MVNO), operadores

de red fija, operadores preponderantes, servicio universal, servicios de datos para banda

ancha móvil, hilos de “fibra obscura” en la red de la CFE, telecomunicaciones a las

poblaciones pequeñas, satélites Mexsat, televisión digital terrestre (TDT), el derecho

constitucional a la banda ancha, entre otros.

Avances importantes en diversas áreas de investigación, como física de partículas,

observación oceanográfica, meteorología o análisis de secuencias de ADN, dependen del

procesamiento de enormes cantidades de información generada por estos instrumentos.

Para muchos de estos problemas el principal cuello de botella es la transferencia de los

datos.

En el capítulo “Infraestructura cibernética de alto desempeño para la era de los

grandes datos”, Larry Smarr destaca la importancia de invertir en infraestructura de

cómputo y telecomunicaciones para abordar algunos de los grandes retos científicos y

tecnológicos que demandan cómputo de alto desempeño a escalas no antes vistas.

México cuenta ahora con un enlace de 10 gigabits por segundo con Estados Unidos, lo

que nos permite hacer uso de la infraestructura de cómputo instalada en el Centro de

Supercómputo de la Universidad de California, en San Diego (UCSD), optimizada para el

análisis masivo de datos. Aprovechar esta infraestructura requiere invertir en la

interconexión de las universidades y centros de investigación mexicanos, que haga

factible transmitir los grandes volúmenes de datos generados en estos sitios, para su

procesamiento e integración con otras fuentes de información. El doctor Smarr presenta

algunos ejemplos de iniciativas que se desarrollan en la UCSD y que están impulsando el

desarrollo de su infraestructura de cómputo y transferencia masiva de datos. La

observación oceanográfica representa un ejemplo de este tipo de investigación. La

predicción climatológica requiere de datos obtenidos de distintas fuentes que

necesariamente están distribuidas, como pueden ser datos satelitales, y los provenientes

de boyas oceanográficas. A la vez, la información generada es muy sensible al tiempo, no

tiene sentido demorar 24 horas en predecir el clima de mañana. La investigación es cada

vez más interdisciplinaria y demanda esfuerzos supranacionales y el uso de

infraestructura de cómputo de alto desempeño. Para mantenerse como un participante

relevante de estos esfuerzos, México requiere invertir en su propia infraestructura, así

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 18: Telecomunicaciones y Computación

18

como desarrollar una estrategia que le permita disponer de la que se encuentra disponible

en el ámbito mundial.

En el capítulo “Retos y oportunidades de las comunicaciones ópticas y el

procesamiento digital fotónico”, primero Horacio Soto destaca la importancia de las

comunicaciones ópticas. Habla de cómo en los países desarrollados, la forma en que se

ha podido satisfacer la gran demanda de ancho de banda que exigen Internet y las redes

móviles, es repartiendo los datos e intercomunicando las células inalámbricas a través de

fibras ópticas. De hecho, el doctor Soto afirma que hoy en día las comunicaciones ópticas

se han convertido en la columna vertebral de todos los otros sistemas de comunicaciones,

y son el conducto mediante el cual se distribuye la mayor parte del tráfico de

telecomunicaciones. Destaca que las razones de este fenómeno se basan en el hecho de

que las fibras ópticas presentan un gran ancho de banda (100 Tb/s), bajas pérdidas,

inmunidad a interferencia electromagnética, alta seguridad, buen rango de temperaturas

de operación, etcétera. Actualmente las fibras ópticas, y por tanto los sistemas de

comunicaciones fotónicos, son explotadas en un 15% de su capacidad, por lo que para

aprovechar su gran potencial es necesario efectuar esfuerzos importantes de

investigación y desarrollo (I+D). En particular, es fundamental desarrollar las futuras redes

de multicanalización densa por división en longitud de onda (DWDM) y las redes totalmente

ópticas con procesamiento digital fotónico. Este último tema da pie para que el doctor

Soto hable de la relevancia mundial que tendrá la nanofotónica integrada en silicio y de la

revolución tecnológica que está gestando al poderse integrar dispositivos fotónicos con

electrónicos. Como ejemplo, el doctor Soto muestra los destacados avances en

computación híbrida que están haciendo compañías como IBM e Intel. El doctor Soto

estima que México tiene potencial para convertirse en un actor mundial relevante en los

sectores de las comunicaciones ópticas, el procesamiento fotónico y la nanofotónica

integrada en silicio y plantea la gran oportunidad que tiene nuestro país de producir

riqueza en estos campos, vinculando a la academia con la empresa.

El capítulo 6 se dedica fundamentalmente a señalar las áreas de la computación

que conviene impulsar, desde un punto de vista aplicativo: cuáles áreas pueden, a juicio

de Adolfo Guzmán, rendir fruto en el corto y mediano plazos, y por qué o cómo. Como

contrapeso a esos señalamientos, el doctor Guzmán lista los principales obstáculos y

rémoras que estorban el florecimiento amplio de la informática en México.

El capítulo 7 es muy interesante. Aquí, Enrique Sucar nos hace una breve historia

de los sistemas inteligentes, hasta traernos al presente: robots de servicio, reconocimiento

Page 19: Telecomunicaciones y Computación

19

de personas, etcétera. Y al final, de manera lúcida, el autor nos muestra una visión del

futuro de la inteligencia artificial, que es la “punta de lanza” de la computación. Aquí

resaltamos su conclusión:

Los sistemas inteligentes son una pieza clave para resolver muchos de los grandes retos

nacionales y mundiales:

1. Seguridad: sistemas de visión artificial, vehículos autónomos, planeación.

2. Biomedicina: sistemas de diagnóstico, análisis de imágenes médicas, minería de

datos.

3. Educación: tutores inteligentes, sistemas para búsqueda de información, laboratorios

virtuales.

4. Energía: reconocimiento de patrones, aprendizaje, sistemas de apoyo en la toma de

decisiones.

5. Información: sistemas automáticos para la búsqueda y análisis de grandes volúmenes

de información multimodal.

Fabián García Nocetti dedica el capítulo 8 a delinear una nueva era de la computación

en México. En una sección medular de su análisis, titulada “Retos y estrategias a

impulsar”, nos habla de los seis grandes retos identificados por numerosos investigadores

mexicanos reunidos para este propósito:

• GR 1: información relevante para la toma de decisiones

• GR 2: TIC para biomedicina (mejoramiento de la salud de la población en general)

• GR 3: TIC y educación en el siglo XXI

• GR 4: seguridad y transparencia en la información y en los servicios

• GR 5: ambientes inteligentes para ayudar a solucionar problemas de grandes

ciudades

• GR 6: servicios basados en el conocimiento para el ciudadano

En el capítulo 9, Édgar Chávez hace un paralelismo entre innovación, emprendimiento

e investigación básica en ciencias de la computación y la relación que existe entre

matemáticas, física teórica y física experimental. Describe el rol que ha tenido México en

el desarrollo de la tecnología de cómputo y el modesto papel que ha desempeñado tanto

en la creación como en la adopción de esta tecnología. Su tesis es que se puede

establecer un círculo virtuoso que potencie el desarrollo de todas estas actividades

Page 20: Telecomunicaciones y Computación

20

tomando medidas simples, relativamente baratas y efectivas. Esto tiene que ver con

impulsar la investigación básica y la formación de recursos humanos de alto nivel, que

son los verdaderos motores de la innovación. Como afirma el autor: “si [un problema] se

puede resolver sólo programando, entonces no es un emprendimiento tecnológico”. Quizá

como respuesta a su propuesta o porque la idea maduró de manera independiente, en el

año 2014 el Conacyt lanzó una convocatoria para cátedras nacionales para jóvenes

investigadores; que sin duda será un impulso a la investigación científica y el desarrollo

tecnológico. Otras propuestas, como el Centro Nacional de Datos, la nube mexicana, o el

Instituto Nacional de Ciencia y Tecnología con una misión complementaria a los apoyos

monetarios puntuales para proyectos, suenan igualmente seductoras. Tomar estas

medidas a tiempo enriquecerá el panorama, tomarlas tarde o dejarlas de lado puede tener

resultados sombríos.

En el capítulo “Las TIC como ciencia emergente y herramienta para el desarrollo de la

ciencia en México”, Sergio Carrera y Juan Carlos Téllez, resaltan la importancia de las

tecnologías de información y comunicación, así como su carácter transversal en apoyo a

las ciencias. Proponen fomentar la formación de investigadores en este campo

potenciando la curiosidad científica desde la edad temprana. Asimismo, enfatizan la

necesidad de alinear el trabajo de investigación y desarrollo con las necesidades del país

y crear instancias multiplicadoras de emprendedores tecnológicos. Los autores también

proponen dar al Conacyt un rol prospectivo que guíe los esfuerzos de investigación y

desarrollo para resolver los grandes retos que enfrenta el país, y a la vez como una

entidad reflexiva, a manera de un laboratorio de ideas.

La situación de la investigación en ciencias de la computación en México es analizada

por Carlos Coello en el capítulo 11. Se trata de un área joven con un número aún escaso

de investigadores activos. Uno de los problemas que se ha encontrado para que esta área

sea reconocida en el sistema de investigación nacional, es que su clasificación en la

taxonomía tradicional de áreas científicas es esquiva. Esto contrasta con la matrícula a

nivel licenciatura y la oferta de posgrados de calidad reconocida. El doctor Coello discute

algunas deficiencias del sistema de evaluación de la investigación en México, que

favorece criterios cuantitativos sobre los cualitativos y no toma en consideración las

publicaciones en congresos arbitrados, que en el caso de las ciencias de la computación

son productos muy valorados. También señala la importancia de establecer, tanto en lo

individual como lo colectivo, una visión de investigador y comunidad científica

consolidada. En particular, resalta la importancia de influir en las políticas científicas

Page 21: Telecomunicaciones y Computación

21

nacionales en las áreas de competencia de las ciencias de la computación. Establece

como un área de oportunidad el trabajo multidisciplinario en donde necesariamente incide

la computación: áreas como la bioinformática y las ciencias atmosféricas. El autor cierra

su reflexión preguntándose si estamos preparados para ser líderes en el ámbito mundial

en alguna de las disciplinas de la computación y si la creación de centros de investigación

dirigidos a las ciencias de la computación pueden ser un catalizador para lograrlo.

Page 22: Telecomunicaciones y Computación

22

ÁREAS Y OPORTUNIDADES PARA EL DESARROLLO DE LAS

COMUNICACIONES: COMUNICACIÓN DIGITAL

David Muñoz Rodríguez*

Una de las características del ser humano es su capacidad para comunicarse de maneras

sofisticadas con otros individuos. Esta comunicación implica la adquisición de

conocimiento o información, así como la capacidad para procesar y almacenar esta

información. Ejemplo de estos procesos son las pinturas rupestres, la escritura cuneiforme

de Mesopotamia y los códices, sean egipcios o mayas, que servían para almacenar

información que sería compartida no sólo con generaciones inmediatas sino serviría como

referencia a civilizaciones posteriores.

Figura 1. Sistema temprano de almacenamiento de información.

Estas técnicas de almacenamiento han progresado lentamente, siglos después de

la invención de la imprenta, en la actualidad evolucionan de manera acelerada, y ahora es

posible almacenar grandes volúmenes de información en diminutos dispositivos

*Centro de Electrónica y Telecomunicaciones, Instituto Tecnológico y de Estudios Superiores de Monterrey.

Page 23: Telecomunicaciones y Computación

23

electrónicos. Cabe destacar que diferentes tecnologías se distinguen por la persistencia

de la información almacenada y la rapidez con que se puede recuperar. De cualquier

forma, como tendencias generales podemos decir que la densidad de información por

unidad de área va en aumento, a la vez que el costo de almacenamiento decrece.

En ocasiones, el almacenamiento de información llevó a ciertas prácticas muy

elitistas, como la salvaguarda de mapas de navegación que en su momento fueron

considerados información estratégica para fines comerciales o militares. Otros esquemas

se ejemplifican con la biblioteca que los Tolomeos (I, II y III, quienes gobernaron Egipto en

el siglo III a.C.) crearon y desarrollaron en Alejandría, y cuya tradición ha sido recogida en

las grandes bibliotecas de diferentes países, cuyos esquemas de amplia difusión de la

información se vio aumentada con la invención de la imprenta, y hoy día apoyada también

por medios de almacenamiento óptico y electrónico.

Si bien la existencia de las grandes bibliotecas y centros de almacenamiento de

información perdurarán durante mucho tiempo, no hay duda de que los avances en

tecnología de compresión y almacenamiento de información, técnicas de despliegue, junto

con avances tecnológicos en comunicación, han modificado totalmente nuestras prácticas

de acceso a la información. Ejemplo de esto es la proliferación de libros y revistas

electrónicas e información en la nube, de manera que se puede acceder a todo ello desde

cualquier ubicación mediante una variedad de equipos electrónicos.

Es importante destacar que, en general, el proceso de comunicación se limita a

entes que sean compatibles con los protocolos de intercambio de información. Ejemplo de

esto son el establecimiento de comunidades sociales y económicas que mantienen

afinidades lingüísticas, culturales, económicas, etcétera.

Una de las características de la sociedad actual es la movilidad que se da a

diferentes escalas en distintos estratos de una comunidad. Si bien la movilidad se puede

referir a la capacidad de desplazamiento de individuos, ahora el concepto de movilidad

también incluye dispositivos, bases de datos, aplicaciones, entre otros. De esta manera,

las comunicaciones son un elemento de cohesión social que producen nuevas formas de

educación, socialización, esparcimiento, mercado y empresa.

Con el propósito de lograr una mejor administración de los recursos de

comunicación, es conveniente conocer en alguna medida los dispositivos de

comunicación. Este conocimiento también potencia el despliegue de nuevos servicios

basados en comunicaciones, lo que a su vez fomenta el desarrollo de tecnologías de

Page 24: Telecomunicaciones y Computación

24

localización que satisfagan diferentes grados de precisión, dependiendo de la aplicación

que se utilice.

Figura 2. Algunos requerimientos de precisión en localización. Faltan créditos y

explicaciones. No es legible.

Cuando nos referimos a tecnología de comunicaciones, éstas son muy diversas.

Algunas de ellas no por antiguas dejan de ser vigentes, otras corresponden a

descubrimientos e inventos más recientes, y en todos los casos es necesario establecer,

entre otros criterios, el balance costo-beneficio de cada tecnología de acuerdo con su

precio de mercado, disponibilidad, madurez y confiabilidad, aplicaciones o soluciones que

aporta, contexto, así como el tamaño real y proyectado del mercado.

También es necesario hacer notar que con frecuencia una tecnología coexiste con

otras opciones, lo cual modifica mutuamente los pros y contras de una solución, al tiempo

que se enfrentan con tecnologías emergentes que competirán, en un escenario

extremadamente dinámico, por un segmento de algún mercado establecido y/o

segmentos de nuevos mercados y aplicaciones.

Manejo de Asignacion

Cargos por llamada Seleccion del Servicio

Rastreo

Monitoreo Personal Monitoreo de Emergencias Deteccion de

Intrusos Poscion Precisa Servicios de 911

Ayuda y Asistencia

Comunicacion movil

Busqueda de Amigos Inventario de

Rastreo Pago de la cuota del Auto Asistencia del servicio del

seguro del Auto Manejo de flota Área Restringida

Informacion de Trafico Control del trafico e informacion

de carreteras Juegos y Apuestas Sitios de Interes

Determinacion de horario Anuncios , noticias y transmision de

informacion

Page 25: Telecomunicaciones y Computación

25

Figura 3.

Cambiar las preguntas así:

¿Cómo alteran mi circunstancia las entidades que me rodean?

¿Cómo altero la circunstancia de mis vecinos?

El filósofo José Ortega y Gasset postulaba la existencia en términos de nuestra

relación con el mundo que nos rodea y decía: “yo soy yo y mi circunstancia”. Esta máxima

también se puede aplicar a un entorno tecnológico, donde múltiples dispositivos

interactúan entre sí compartiendo y demandando información de diferentes vecinos que

definen una circunstancia. Los humanos podríamos tener una existencia “intensa” en la

medida que modificáramos o incidiéramos en el entorno que nos rodea. Un dispositivo,

independientemente de su capacidad de almacenamiento y/o procesamiento, puede tener

una existencia inadvertida debido a su incapacidad para interactuar o comunicarse con

otros nodos. Esta comunicación demanda una concurrencia de tecnologías y protocolos

compatibles, aspectos regulatorios, necesidades y mercados. Cuando analizamos la

ciencia en México es importante, sobre todo en el área de tecnologías de la información,

entender el contexto global de la telecomunicaciones.

El término global debe entenderse no sólo desde un punto de vista geográfico,

también es necesario incluir la complejidad de interrelaciones científico-tecnológicas, las

necesidades de mercado, los recursos humanos, los aspectos de regulación y tendencias

Page 26: Telecomunicaciones y Computación

26

en nuevos servicios y la demanda de información. De manera que aportaciones

desarrolladas en México puedan posicionarse no sólo en el contexto nacional, sino

también en sectores o nichos tecnológicos, de servicios o comerciales en un mercado

global.

Ante una diversidad muy amplia de tecnologías de la información y las

comunicaciones es necesario evitar lo que podría llamarse un desarrollo errático, por lo

que lo más deseable es tener proyectos que den una directriz al trabajo de investigación y

desarrollo en TICs. No se trata de desechar iniciativas novedosas o prometedoras, se trata

más bien de agrupar las actividades de una manera coherente que permita efectos

multiplicadores en áreas de afinidad temática con metas a corto, mediano y largo plazos.

La ventaja de esto se ha documentado a partir de diferentes proyectos, como el

proyecto Apolo o el Manhattan, entre otros, que permitieron aglutinar esfuerzos y

canalizar recursos de manera sinérgica en torno a una meta.

La idea fundamental es definir un proyecto vertebral que permita agrupar una

variedad de tecnologías concurrentes que fortalezcan el desarrollo disciplinario y

multidisciplinario, pero con metas objetivas y cuantificables en tiempo y recursos que

hagan posible auditar el desarrollo del proyecto, el cual implicará obtener subproductos

relevantes desde diferentes perspectivas: aportaciones desde un punto de vista científico,

tecnológico o comercial, así como la formación de recursos humanos en áreas

estratégicas.

En todo caso, paralelamente a la definición del proyecto guía y sus metas, se

habrán de definir los recursos humanos y financieros para el desarrollo del proyecto, así

como dejar claras las metas principales, las calendarizaciones asociadas, así como sus

subproductos y su valor. Todo esto junto con el entendimiento de los riesgos en un

contexto de continuo cambio tecnológico.

Page 27: Telecomunicaciones y Computación

27

Figura 4

Intentando entender el complejo contexto de las tecnologías de la información y las

comunicaciones, uno de los indicadores de las tendencias de desarrollo y mercado que

podemos mencionar es que en 2010 se reportaban cerca de mil millones de vehículos

automotores terrestres. Se encuentra en desarrollo y en implantación las primeras fases

de lo que se conoce como ITS (sistemas inteligentes de transporte, por sus siglas en

inglés), donde los diferentes vehículos cuentan con una amplia capacidad de

interconexión de dispositivos intravehiculares, así como conexión con vehículos vecinos

(conexión intervehicular) e incluso conexión con puertos fijos o puntos de acceso, lo que

potencia opciones que permiten incrementar el nivel de seguridad de conductores y

pasajeros ampliando el mercado de aplicaciones asociadas al mercado automotriz.

SUBPRODUCTOS

PROYECTO

GUIA (CIENTIFICOS, TECNOLOGICOS,

PRODUCTOS, SERVICIOS,ETC )

SECTOR ACADÉMICO,

SECTOR INDUSTRIAL, SERVICIOS,

ENTIDADES GUBERNAMEN

TALES. ETC. DISCIPLINA

S Y

TECNOLOGIAS

CONCURRENTES

Page 28: Telecomunicaciones y Computación

28

Figura 5. Alrededor de mil millones de automóviles circulaban en el año 2010

Por otra parte, en 2010 BBC indicó la existencia de más de cinco mil millones de

usuarios de tecnología celular; y ese mismo año la Unión Internacional de

Telecomunicaciones (UIT) reportó más de dos mil millones de usuarios de Internet.

Esta gran proliferación de dispositivos de comunicación demanda grandes

esfuerzos dirigidos a contar con arquitecturas de red apropiadas con interfaces que

aseguren compatibilidad entre redes y dispositivos, al tiempo que se cumple con aspectos

regulatorios que no son uniformes, pues cambian de un país a otro.

Una tendencia adicional, entre otras, que plantea escenarios de crecimiento

acelerado con aplicaciones diversas, es la generada por la llamada internet of things,

donde dispositivos como sensores y actuadores cuentan con direcciones IP, así como con

capacidad de intercomunicarse. Así, las redes de comunicación resultantes prometen la

creación de nuevos modelos de negocios, así como hacer más eficientes los procesos y

reducir los costos. El internet de las cosas, llamado convencionalmente en inglés Internet

of Things (IoT), y que aquí traducimos como interconexión de utensilios cotidianos,

anticipa aplicaciones en diferentes sectores, como el de transporte, seguridad pública y

privada, construcción, energía, hogar y electrodomésticos, salud, sector industrial y de

ventas, así como servicios basados en la localización. Otras tendencias incluyen el

mercado de dispositivos móviles que indicó no sólo un número muy grande de usuarios

de teléfonos celulares, también predijeron que este número seguiría en crecimiento y que

durante 2013 la cantidad de teléfonos móviles superaría el número de PCs.

Para el año 2015 más de 80% de teléfonos móviles serán del tipo “inteligente”, y

las ventas de tabletas representará 50% del número de laptops. Es importante señalar

que el crecimiento de la cantidad de dispositivos móviles no sólo representa un aumento

en el mercado de dispositivos, sino que conlleva demandas de un mayor número de

puntos de acceso, aumento de enlaces de comunicación, nuevas demandas de seguridad

Page 29: Telecomunicaciones y Computación

29

y privacidad, mayor velocidad de procesamiento en centros nodales o de red, todo lo cual

apoya la gestación de nuevas aplicaciones que a la vez demandan mayor ancho de

banda.

En cuanto al creciente número de aplicaciones móviles, se anticipa que el número

de proveedores en este rubro crecerá sin que alguno llegue a ser dominante. Mientras

que se experimentará una fuerte migración a servicios basados en la nube.

Crecimiento de teléfonos inteligentes y tabletas: la explosión en el aumento de

estos dispositivos está obligando a los operadores de telefonía celular y a otras empresas

a competir por un pedazo del mercado inalámbrico de video y comercio, para con ello

obtener billones de dólares para expandir el ancho de banda inalámbrico. Como un

indicador del crecimiento que se anticipa, se puede mencionar un nuevo pronóstico de

tráfico IP emitido por Cisco, que afirma que en 2013 el tráfico IP global anual llegará a dos

tercios de un zettabyte (billones de gigabytes); ese número representa un aumento de

más de cinco veces en el tráfico actual.

No obstante la coexistencia de diferentes generaciones de tecnologías celulares,

se espera que 4G (LTE) juegue un papel clave en la convergencia de los dispositivos

electrónicos, incluidos teléfonos inteligentes, tabletas y computadoras personales móviles.

De acuerdo con varios informes, se espera que el crecimiento de los suscriptores globales

de LTE se incremente en un factor de 70 para el año 2016.

Page 30: Telecomunicaciones y Computación

30

Figura 6. Estimación de crecimiento de suscriptores 3G y 4G.

El crecimiento de sistemas Wi-Fi (Wireless Fidelity: redes locales inalámbricas)

anticipa que, debido al aumento global de teléfonos inteligentes y tabletas, se tenga una

subida global en el mercado de dicho sistema. Y como ejemplo: el número de puntos de

acceso Wi-Fi podrá crecer de 1.3 millones de dólares en 2011 a 5.8 millones en 2015.

Desde mediados del año 2012, las celdas pequeñas han sido utilizadas no sólo

para proveer servicio en localidades remotas, sino también para expandir la capacidad de

datos en localidades urbanas congestionadas. Estas dichas celdas son más inteligentes,

más baratas y menos obstructivas que las celdas tradicionales.

En 2013 los operadores desplegaron dichas celdas en una cantidad sin

precedentes. De acuerdo con Nick Marshall, de ABI Research, los embarques globales de

celdas pequeñas superarán los dos millones para 2016, principalmente diseñadas para

esquinas de ciudades congestionadas, pero también se desplegarán las celdas pequeñas

para casas, centros comerciales, estadios, negocios, entre otros, las cuales superarán los

37 millones.

Figura 7. Escenario celdas pequeñas.

ANCHO DE BANDA: UN CUELLO DE BOTELLA

Page 31: Telecomunicaciones y Computación

31

De acuerdo con Cisco Systems, el tráfico global se ha venido incrementando año tras

año, y Nokia Siemens Networks ha advertido que el tráfico móvil se incrementará 1 000

veces para el año 2020, al mismo tiempo que ha disminuido el crecimiento de los IXP

(puntos de intercambio de internet), lo cual representa una limitante sobre todo cuando la

demanda global de ancho de banda para internet está creciendo exponencialmente.

Este desafío tiene varios frentes desde el punto de vista tecnológico, económico,

de dispositivos de usuario y de hardware. Por ejemplo, diversos informes indican que el

hardware en el corazón de internet no es suficientemente rápido. Las siguientes gráficas

indican la necesidad de mayores anchos de banda y, en particular, se indica que en el

ámbito mundial el crecimiento de la capacidad instalada es más bajo que los

requerimientos de usuarios.

Page 32: Telecomunicaciones y Computación

32

Figura 8. Falta título /créditos

Figura 9.

La selección de un proyecto guía requiere de un cuidadoso análisis de prospectiva

tecnológica y evaluación de los recursos disponibles, así como de planificación de metas.

Sin embargo, a manera de ejemplo planteamos como proyectos cinegéticos ITS (intelligent

transportation systems) y PLC (power line communication), este último se refiere a la

transmisión de información en las líneas de suministro eléctrico. En su concepción inicial

se pretendía llegar a hogares con propósito de telemetría y posteriormente llevar servicios

de internet y televisión a usuarios residenciales.

Siendo la red de suministro de energía eléctrica una de las de mayor penetración y

cobertura, el concepto de PLC se puede extender como soporte para una red ITS que

tendría millones de usuarios, proporcionando la columna vertebral de amplia cobertura.

Este concepto implica desafíos, como establecer un protocolo de comunicación

compatible con las recomendaciones de ITS (bandas de frecuencia, entre otros), así como

aspectos regulatorios que permitan usar las líneas de suministro eléctrico y alumbrado

Page 33: Telecomunicaciones y Computación

33

urbano para PLC. También será necesario caracterizar el canal de comunicaciones para el

escenario ITS/PLC (doppler, desvanecimientos, condiciones de propagación y cobertura en

las bandas para ITS) a la vez que se desarrollan en paralelo aplicaciones para este

sistema. Es claro que ya hay avances en otros países, además del compromiso de la

industria automotriz para un amplio despliegue de sistemas ITS a partir del año 2015.

Como un indicador del mercado potencial, cabe mencionar que en unos años el

parque vehicular en México será del orden de 30 millones de automotores. Si bien los

autos nuevos serán los que cuenten con capacidades para ITS,el parque vehicular

existente puede ser servido con unidades diseñadas a la medida, lo que producirá

también un mercado muy amplio de dispositivos de adaptación para los automotores de

generaciones previas.

Figura 10.

Page 34: Telecomunicaciones y Computación

34

Figura 11.

RESUMEN

El sector de las tecnologías de la información y las comunicaciones es de los más

complejos por las múltiples aplicaciones y servicios, la confluencia de tecnologías,

mercados, regulación (que es tema actual de debate en los foros de legislación en nuestro

país), preferencias de usuarios, entre otros.

Junto con las fuerzas del mercado que operan en el país, es necesario elaborar

proyectos guía de mediano y largo plazos que definan rutas de crecimiento en el área de

las tecnologías de la información y las comunicaciones, dirigidas a áreas de sinergia,

medios suficientes en términos de recursos humanos, monetarios y tiempo.

Es importante que la asignación de recursos y compromisos puedan ir

acompañados de prácticas de gestión apropiada, y que de ninguna manera se planea

llevar el desarrollo de las comunicaciones del país a un estado estático. Sino que el

desarrollo de los proyectos estratégicos se dará paralelamente al desarrollo de la industria

de las tecnologías de información y telecomunicaciones del país. Buscando en todo

Page 35: Telecomunicaciones y Computación

35

momento el mejor efecto educativo, científico, tecnológico, social, político, económico y de

mercado.

Page 36: Telecomunicaciones y Computación

36

PERSPECTIVAS, RETOS Y OPORTUNIDADES DE LAS

TELECOMUNICACIONES EN MÉXICO

Eduardo Castañón Cruz*

ANTECEDENTES

Mercado demográfico En México existen aproximadamente 188 mil ciudades, villas o poblaciones. De éstas, 184

mil son rurales y 3 600 son urbanas. Solamente 600 cuentan con más de 15 mil

habitantes. La localidad promedio rural cuenta con 130 habitantes, son poblaciones

pequeñas y dispersas que representan un reto enorme al tratar de llevarles servicios de

telecomunicaciones. Los ingresos del sector de telecomunicaciones en México

ascendieron a alrededor de 26 600 millones de dólares en 2009.

ESTADO ACTUAL DE LAS TELECOMUNICACIONES

Telefonía fija En el ámbito mundial, la telefonía fija alcanzó su máximo en el año 2006, y en los países

de la OCDE en 2001, año este último a partir del cual el servicio viene decreciendo a razón

de 2% anual en los países desarrollados.

*

Page 37: Telecomunicaciones y Computación

37

Gráfica 1. Líneas de telefonía fija y penetración en México.

Hasta el año 2000, Telmex tuvo el monopolio de la telefonía local y hasta el año de

1977 el monopolio de larga distancia nacional e internacional. Actualmente ostenta más

de 70% de participación en ambos mercados.

Gráfica 2. Participación de mercado de telefonía fija, 2012.

Page 38: Telecomunicaciones y Computación

38

La telefonía fija en México es un mercado en competencia que no requiere utilizar

mecanismos de subsidio, y como otros servicios —por ejemplo, el telégrafo— ha

comenzado su proceso de remplazo en todo el mundo, y nuestro país no es la excepción.

En México existen actualmente 19 concesiones y nueve autorizaciones de telefonía fija

local, así como 33 concesionarios y 38 comercializadoras de larga distancia vigentes. Con

la aparición de otros servicios, la participación del servicio de larga distancia en los

ingresos del sector ha disminuido: pasó de representar 35% en 1999 a 8% en 2011.

Fuente: Cofetel.

Gráfica 3. Participación de la larga distancia en los ingresos de telecomunicaciones.

A pesar de los esfuerzos de apertura, competencia e inversión, México se localiza

en un rango medio en términos de teledensidad entre los países del continente

americano.

Page 39: Telecomunicaciones y Computación

39

Fuente: Banco Mundial.

Gráfica 4. Teledensidad fija en América, 2010.

En número total de líneas fijas, México ocupa el octavo lugar en la OCDE, pero el lugar 34

en líneas fijas por cada 100 habitantes. La penetración promedio en países de la OCDE es

de 37%. Telmex, el operador incumbente de servicios de red fija, ocupa el lugar 30 en la

OCDE, comparable con operadores Telecom de Grecia o Portugal. A pesar de las

reducciones, los precios de la telefonía fija en México aún son de los más caros entre los

países de la OCDE, comparables con la República Checa, Hungría, Australia y Portugal,

entre otros.

Telefonía móvil La telefonía móvil inició operaciones en México en 1989 en la Ciudad de México, con la

empresa SOS Telecomunicaciones, antecedente del operador Iusacell. Se dividió al país

en nueve regiones con dos operadores por región, operando en la banda de 850 Mhz con

tecnología AMPS. En el ámbito nacional, la banda B se reservó a Radiomóvil Dipsa (Telcel,

filial de Telmex). La banda A se entregó a los diferentes concesionarios en las nueve

Page 40: Telecomunicaciones y Computación

40

regiones del país. Hasta 1995 se mantuvo un régimen de regulación gubernamental de

precios. En 1998 se realizaron subastas de la banda de PCS (1900 Mhz), lo cual permitió

la entrada de dos nuevos operadores.

Durante el desarrollo de este servicio se pueden distinguir las siguientes etapas:

de 1989 a 1998 el servicio se expandió en estratos sociales de altos ingresos; de 1999 a

2008 se observó una etapa de maduración y difusión masiva. El número de líneas en

servicio aumentó en 874%, alcanzando 94.6 millones de abonados con un crecimiento

medio anual de 28.8%. En esta etapa de acelerado crecimiento se implantó la modalidad

“el que llama paga”, que propició llevar la telefonía a los sectores de bajos ingresos. A

partir de 2009 se observa un menor ritmo de crecimiento, que puede atribuirse al efecto

de la crisis económica y a la drástica reducción en las tarifas de interconexión móvil que

ha obligado a los operadores a rediseñar sus ofertas.

Fuente: Cofetel.

Gráfica 5. Líneas y teledensidad de telefonía móvil en México.

A pesar del gran desarrollo de la telefonía móvil en América Latina, México se

ubica en los últimos lugares en este rubro, debido, entre otras circunstancias, a lo elevado

Page 41: Telecomunicaciones y Computación

41

de las tarifas celulares. Aspecto de principal importancia lo constituye la distribución del

espectro entre los operadores móviles.

En las últimas subastas realizadas en el año 2010, la Comisión Federal de

Competencia (Cofeco) estableció un límite de acumulación de espectro a 80 Mhz por

operador, quedando sin asignar 30Mhz en las bandas 1700/2100 Mhz. La participación

del mercado de telefonía móvil en 2012 es la siguiente:

Por lo que toca a las tecnologías de acceso al servicio móvil, Telcel, Iusacell y

Telefónica utilizan tecnologías GSM y HSPA. Iusacell cuenta además con una red CDMA-

EVDO. Nextel cuenta con tecnología iDEN y está desarrollando su nueva red HSPA.

Page 42: Telecomunicaciones y Computación

42

Asimismo, está en proceso de lanzamiento la tecnología LTE por parte de varios

operadores. En el sector de la telefonía móvil, México se ubica en el quinto lugar de los

países de la OCDE en el número de suscriptores; pero en el lugar 33 en número de

abonados por cada 100 habitantes. Los precios de la comunicación móvil en México,

aunque han mejorado, superan el promedio de los países de la OCDE en casi todos los

casos, a pesar de la diferencia en el nivel de ingresos de los suscriptores. Del mismo

modo, es necesario destacar que en México los precios del roaming internacional son

sumamente altos, comparados con los de los usuarios en los países de la OCDE.

Televisión restringida En México, la televisión restringida (o de paga) se considera un servicio de

telecomunicaciones y, por tanto, se rige por la Ley Federal de Telecomunicaciones y por

el reglamento de la materia. Básicamente existen tres medios de distribución de las

señales de audio y video: por radiodistribución terrestre, por cable (coaxial o fibra) y por

satélite. De acuerdo con datos proporcionados por la Cofetel, existen unas mil

concesiones de televisión por cable, las cuales se han ido consolidando en unos pocos

grupos empresariales. A partir del Acuerdo de Convergencia de 2006 que permitió a los

concesionarios ofrecer servicios de datos y voz, su crecimiento de mercado ha sido

importante. En radiodistribución terrestre (MMDS) operan 81 concesiones en la banda de

2.5 Ghz que pertenecen a 11 grupos empresariales, el principal es MVS, que cuenta con

42 de las 68 concesiones vigentes. Varias de estas concesiones han vencido y las últimas

lo harán en el año 2020.

Es importante señalar que estas bandas se encuentran actualmente en conflicto,

debido a que en agosto de 2012 la Secretaría de Comunicaciones y Transportes (SCT)

inició un proceso de rescate para cambiar su uso a banda ancha inalámbrica y proceder a

subastarla. Existen seis concesiones para televisión vía satélite (DTH), de las cuales

solamente operan dos: Sky (de Televisa) y Dish (de MVS). En diciembre de 2011 el

servicio de televisión vía satélite contaba con aproximadamente 11.5 millones de

suscriptores, que corresponde a una teledensidad global de 10%. Esta modalidad de

servicio ha crecido a un ritmo promedio superior a 13% anual.

Page 43: Telecomunicaciones y Computación

43

Fuente: Cofetel.

Gráfica 6. Usuarios de televisión restringida.

Según fuentes oficiales, en el año 2010 se tenía una penetración del servicio de

televisión de paga en 27.2% de los hogares mexicanos. En resumen: los principales

operadores son Televisa (Sky, Cablevisión, Cablemás y TVI) con 54% del mercado. Dish

ostenta el 17% de los usuarios y 10% de los ingresos. Megacable es el tercer operador en

importancia.

Tabla 3.

Page 44: Telecomunicaciones y Computación

44

Se pronostica que para el año 2017 el mercado latinoamericano estará dominado

por DTH con 61%, televisión por cable digital con 28% e IPTV con 6%. Como ya se

presenta en el mercado, las redes de televisión por cable que digitalicen el acceso, son un

buen vehículo para llevar la banda ancha a los hogares a un mejor nivel de precio. La

televisión por IP (o video en demanda) y la televisión digital terrestre (TDT) pueden ser

fuertes competidores y futuros sustitutos de la televisión restringida o de paga.

Banda ancha fija Según datos confiables, el hogar es el primer lugar de conexión a internet para 50% de la

personas, seguido por el trabajo con 22%, un cibercafé con 20% y, finalmente, la escuela

con 8%. En la actualidad hay 25 licencias para redes nacionales de datos y muchas

autorizaciones para ofrecer servicios de acceso a internet. Sin embargo, como su

distribución geográfica no es uniforme, existen miles de localidades sin acceso. La UIT

define la banda ancha fija y móvil como aquélla que se ofrece al menos a 256 kbps en

bajada o subida. En algunos países la velocidad que se ofrece es de 100 Mbps.

La banda ancha fija alcanzó en diciembre de 2011 una teledensidad de 11% con

más de 12.5 millones de conexiones en todo el país, lo que registra un incremento de

56% en los últimos cuatro años. Los principales proveedores de acceso a internet son

Telmex con 72% de participación de mercado, Megacable, Cablemás y Cablevisión con

16% y Axtel con 4%. En conjunto concentran más de 92% del mercado y han comenzado

a instalar FTTH (fibra hasta el hogar).

Page 45: Telecomunicaciones y Computación

45

Fuente: Cofetel.

Gráfica 7. Accesos fijos a internet por tecnología.

A pesar de múltiples esfuerzos, México presenta una muy baja penetración de

usuarios de internet y se encuentra por debajo de países de menor desarrollo.

Gráfica 8. Densidad de usuarios de internet en América, 2008 y 2010.

En términos de penetración de banda ancha, México aún presenta deficiencias al

ofrecer velocidades de acceso bajas a un número todavía reducido de usuarios.

Page 46: Telecomunicaciones y Computación

46

Fuente: speedtest.net.

Gráfica 9. Velocidad promedio de bajada (mbps), 2010 y 2012.

Page 47: Telecomunicaciones y Computación

47

Fuente: Banco Mundial.

Gráfica 10. Densidad de banda ancha, 2010.

Según el INEGI, en México en 2011, 30% de los hogares contaba con una

computadora y sólo 23.3% estaba conectado a Internet. En algunos hogares no pueden

pagar las tarifas actuales, demasiado altas respecto a sus ingresos. En los últimos cinco

años la cantidad de computadoras en los hogares ha pasado de 5.9 millones a nueve

millones, lo que representa un crecimiento de 11% anual, aún menor al de otros países de

Latinoamérica.

Page 48: Telecomunicaciones y Computación

48

Fuente: INEGI.

Gráfica 11. Penetración de computadoras e internet en México.

Banda ancha móvil Las características esenciales de la banda ancha móvil son la personalización, la

inmediatez de respuesta y el nomadismo. En el ámbito internacional se considera la

banda ancha móvil con accesos de datos a velocidades superiores a los 512 kbps,

utilizando tecnologías UMTS/HSPA (3G y 3.5G) y próximamente LTE (4G). Según datos de

la Cofetel, en junio de 2012 existían unas 9.7 millones de conexiones de banda ancha

móvil, cifra muy semejante al total de conexiones de banda ancha fija. En los países de la

OCDE se considera la banda ancha móvil como un complemento muy importante de la

banda ancha fija.

PRINCIPALES RETOS

La falta de competencia efectiva en materia de telecomunicaciones ha propiciado

mercados poco eficientes que imponen costos significativos a la economía mexicana y

que inciden negativamente en el bienestar de la población.

Page 49: Telecomunicaciones y Computación

49

El sector se caracteriza por precios altos, de los más elevados entre los países de

Latinoamérica con características semejantes a las de México, e incluso entre los países

de la OCDE.

Lo anterior trae como consecuencia una baja tasa de penetración de los servicios

y un pobre desarrollo de la infraestructura necesaria para prestarlos.

El mercado mexicano está dominado por una sola compañía que ostenta 80% del

mercado de la telefonía fija y 70% del de la telefonía móvil.

Después de la consolidación del mercado de televisión por cable, el mercado

nacional quedó en manos de un muy reducido número de empresas proveedoras de los

servicios.

En servicios de telefonía fija, móvil y de banda ancha México se encuentra entre

los últimos lugares de los países de la OCDE.

México ocupa el último lugar en términos de inversión per cápita en materia de

telecomunicaciones.

El organismo regulador, la Cofetel, carece de suficientes facultades y autonomía

para ejercer de forma eficiente sus atribuciones y facultades.

La falta de una división clara entre la formulación de políticas y las funciones de

regulación ha multiplicado la interposición de recursos y de impugnaciones legales y ha

creado confusión en el sector.

En México las decisiones a favor de la competencia han surgido con lentitud, y una

vez tomadas han sido frustradas por las ineficiencias de los sistemas de regulación y

legal.

Una de las principales barreras para la competencia es que las decisiones

regulatorias no se llevan a cabo o su aplicación es suspendida por los tribunales.

Los operadores dominantes se han favorecido del débil marco institucional vigente

al abusar del actual sistema de amparo mexicano.

En México hay un gran número de áreas donde los eventuales nuevos

participantes del mercado no cuentan con infraestructura y la conexión con otras redes es

costosa.

Es urgente armonizar en el marco regulador de México, la convergencia de las

telecomunicaciones y los servicios audiovisuales. En este sentido es conveniente acelerar

la implementación de la televisión digital terrestre que evite la exclusión.

México es uno de los tres países de la OCDE que restringen la propiedad de

extranjeros en ciertos mercados de telecomunicaciones.

Page 50: Telecomunicaciones y Computación

50

OPORTUNIDADES Y RECOMENDACIONES

El gobierno federal debe propiciar decididamente la efectiva competencia en el sector de

telecomunicaciones.

Es necesario que la autoridad reguladora tenga mayor independencia y autonomía

en el desempeño de sus responsabilidades para asegurar la competencia en el mercado.

Los mecanismos para el otorgamiento de concesiones deben simplificarse hacia

un régimen de concesión único, a excepción de aquéllas en que el recurso es escaso,

como en el caso del espectro radioeléctrico.

Se debe alentar y simplificar la figura de los comercializadores de servicios, así

como la entrada al mercado de operadores de redes móviles virtuales (MVNO).

Se deben eliminar las restricciones a la inversión extranjera impuestas a los

operadores de red fija.

Es conveniente separar las responsabilidades relativas a la formulación de

políticas (sector central, SCT) de las funciones de regulación y de separación de mercados

(autoridad reguladora, Cofetel) y eliminar la denominada “doble ventanilla”.

Se debe reformar el sistema jurídico vigente de manera que se evite suspender y

anular de forma sistemática las decisiones de política y de regulación.

Se propone el establecimiento de tribunales especializados para ventilar las

audiencias y los juicios relativos al sector de las telecomunicaciones, de manera que los

magistrados tengan conocimiento del sector.

La Cofetel debería estar facultada para realizar análisis de mercados, declarar

operadores con poder significativo de mercado e imponer obligaciones, incluida la

regulación asimétrica. Asimismo, para regular ex ante las tarifas de interconexión.

El gobierno deberá definir las políticas de “servicio universal”, así como su

estrategia para implementarlas.

También el gobierno deberá liberar suficiente espectro para satisfacer la creciente

demanda de servicios de datos para banda ancha móvil, así como licitar más hilos de

“fibra oscura” en la red de CFE para propiciar la banda ancha fija a precios accesibles.

El Estado deberá propiciar la implantación de redes complementarias para llevar

los servicios de telecomunicaciones a las poblaciones pequeñas, comunidades y centros

de educación.

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 51: Telecomunicaciones y Computación

51

Manifestamos nuestro respaldo a proyectos del sector que propicien una mayor

cobertura para servicios apartados y de bajos ingresos, como el proyecto se satélites

Mexsat que ya ha iniciado operaciones.

De igual modo, consideramos importante que la Cofetel fomente acciones dirigidas

a avanzar en la transición a la televisión digital terrestre (TDT), a efecto de que la

transición se complete en el año 2016.

Asimismo consideramos conveniente la apertura y la asignación de dos licencias a

nuevos proveedores de televisión digital terrestre (TDT), previo análisis de sus planes de

inversión de conformidad con la regulación existente.

Proponemos también el fomento ordenado para el establecimiento de áreas y

ciudades digitales; así como un estudio ponderado para definir racionalmente el derecho

constitucional a la banda ancha, que permitirá reducir la “brecha digital”.

En suma, todas aquellas acciones que permitan la sana y racional competencia en

beneficio del público usuario; servicios de mayor calidad de acuerdo con normas y

estándares internacionales que permitan que México se sitúe en rangos de penetración y

teledensidad acordes con su desarrollo económico.

CONCLUSIONES

1. En el ámbito internacional existe consenso en el sentido de que la banda ancha, en

tanto que conducto convergente de las telecomunicaciones del futuro, será un

importante instrumento de inserción social para los jóvenes del mañana.

2. Para lograr lo anterior, deberá propiciarse la competencia real y efectiva que redunde

en servicios de alta calidad y a precios accesibles para los usuarios.

3. Para ello es fundamental que los países y gobiernos cuenten con instrumentos de

regulación vanguardistas y con órganos reguladores capaces y eficientes, que

propicien el uso intensivo, pero racional, de los servicios.

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 52: Telecomunicaciones y Computación

52

INFRAESTRUCTURA CIBERNÉTICA DE ALTO DESEMPEÑO

PARA LA ERA DE LOS GRANDES DATOS

Larry Smarr*

Con el establecimiento de un enlace óptico dedicado de 10Gbps (gigabytes por segundo)

entre el Centro de Investigación Científica y Educación Superior de Ensenada (CICESE) y

la Corporation for Education Network Initiatives in California (CENIC), México tiene una

puerta abierta al mundo de los grandes datos (big data) que surge rápidamente. A través

de la CENIC, esta red de gran velocidad conecta a todo Estados Unidos vía Internet2 y la

National LambdaRail, también conecta en el ámbito internacional vía la Global Lambda

Integrated Facility (GLIF) a centros de ciencia e innovación. Las velocidades típicas de

trasferencia de datos con internet convencional son de 10Mbps, de forma que el enlace

óptico dedicado de 10Gbps es mil veces más rápido. Esto permite a los investigadores

mover rápidamente grandes cantidades de datos de los repositorios globales y enviarlos a

otros científicos de todo el mundo. Aún más, es posible la transmisión de video de alta

definición en tiempo real sumado a la visualización científica. Un ejemplo de esta

colaboración se dio en marzo de 2013 entre el CICESE y el California Institute of

Telecommunications and Information Technology (Calit2) en la University of California,

San Diego (UCSD) utilizando la recientemente establecida conexión de 10Gbps.

Después de diez años de reuniones, que involucraron a los sectores público y

privado del país, se logró esta primera conexión de 10Gbps en México. Se contó con la

participación principal del Conacyt, la Corporación Universitaria para el Desarrollo de

Internet, A.C. (CUDI) y el CICESE. Se espera que con esta conexión piloto —con el

liderazgo de la CUDI apoyando en la instalación de alta velocidad— sea posible para la

CUDI replicar esta supercarretera de la información (big data freeway) en sitios de

investigación y educación en todo México.

La conexión óptica de 10Gbps provee acceso directamente al Centro de

Supercómputo de la UCSD (SDSC) y a la supercomputadora de la Fundación Nacional de la

*Institute for Telecommunications and Information Technology, University of California, San Diego.

Page 53: Telecomunicaciones y Computación

53

Ciencia, de Estados Unidos (National Science Foundation, NSF), que está optimizada para

el análisis de big data. Esto significa que los investigadores mexicanos podrán solicitar

tiempo de uso en instalaciones únicas, como Gordon, la supercomputadora de grandes

datos del SDSC. La asignación de tiempo de la supercomputadora requerirá de un

colaborador en Estados Unidos, pero con la red de 10Gbps los investigadores mexicanos

podrán trabajar a la misma velocidad que sus pares de Estados Unidos. En la figura 1 se

presenta un diagrama que muestra cómo la conexión de 10Gbps del CICESE lo enlaza

directamente al SDSC vía CENIC.

El siguiente paso es ampliar la cobertura del enlace óptico de 10Gbps a todas las

universidades mexicanas, para que cada investigador y sus instrumentos científicos

tengan acceso directo a esta red ultrarrápida. La NSF otorgó fondos al UCSD para crear el

prototipo del sistema Big Data Freeway universitario llamado Prism@UCSD. A

continuación se presenta cómo el PriSm@UCSD ha permitido a una amplia variedad de

disciplinas utilizar esta nueva capacidad de internet.

Page 54: Telecomunicaciones y Computación

54

Figura 1. Diagrama de conexión de 10Gbps del CICESE que lo enlaza directamente al

SDSC vía CENIC.

En el año 2006, la UCSD fue pionera en el concepto y la implementación del

instrumento de redes de banda ancha universitaria Quartzite —con fondos de la NSF—,

que utiliza múltiples canales de 10Gbps de Ethernet para interconectar los laboratorios de

uso intensivo de datos por todo el campus de la universidad. El uso práctico en los últimos

cinco años ha demostrado que las aplicaciones se benefician más al utilizar canales

anchos de IP dedicados con capacidad de ráfaga alta.

Sobre la base de las lecciones aprendidas con el Quartzite, la NSF otorgó los

recursos para la nueva infraestructura experimental en la UCSD: Prism@UCSD. Estos

nuevos fondos permitirán la actualización del instrumento Quartzite a una planta de

producción, realizando la reingeniería en una parte de la red del campus UCSD para

brindar un sistema complementario de Big Data Freeway para conexiones ópticas de

punto a punto de gran ancho de banda. Prism@UCSD conserva la sencillez de la

topología en estrella de Quartzite para reducir los costos de mantenimiento y permitir que

otras universidades puedan duplicar fácilmente nuestra experiencia. El núcleo

experimental de Quartzite se actualizará a un conmutador robusto Arista Networks 7504

de nueva generación. El nuevo cambio provee la bisección de ancho de banda de una

interconexión de cúmulo de computadoras, pero desplegada en la escala del campus.

Un precepto fundamental es que Prism@UCSD aumenta y protege la red de

producción existente en el campus, proporcionando un servicio especializado

complementario, de red de capacidad masiva para un número limitado de laboratorios de

uso intensivo de datos, a un costo muy rentable. Nuestra experiencia indica que mientras

que sólo un número relativamente pequeño de los laboratorios en el campus requieren de

alta capacidad de movimiento de big data, cada uno de estos valores estadísticos atípicos

puede saturar completamente la capacidad de la red troncal (backbone) de producción de

10GbE del UCSD, cuando existen ráfagas de datos.

Además de la actualización del núcleo de Quartzite del Calit2, la conexión de fibra

óptica existente en el Centro de Supercómputo de San Diego, se actualizará a 120Gbps

para proveer acceso a los laboratorios conectados al almacenamiento paralelo en la nube

y a los recursos de la NSF Extreme Science and Engineering Discovery Environment

(XSEDE). El uso de tramos de la fibra óptica del despliegue Quartzite —conexiones

Page 55: Telecomunicaciones y Computación

55

múltiples de 10Gbps y 40Gbps— atenderán a aproximadamente 500 investigadores y

estudiantes, al tiempo que protege de saturación a la red del campus (que da servicio a

cerca de 50 000 estudiantes, profesores, personal y visitantes).

Prism@UCSD es una solución fácilmente reproducible en las universidades para

atender el reto de nuevos patrones de uso de grandes conjuntos de datos que han

cambiado drásticamente en los últimos cinco años. Así, el manejo de mayores conjuntos

de datos y el aumento de datos generados mediante instrumentos como los

secuenciadores del genoma, microscopios y cúmulos de computadoras implican la

exploración de conjuntos de datos y datos totales de +100TB que son cada vez más

comunes. Hemos diseñado y queremos implementar una red con ancho de banda

extremo con el objetivo de proteger e interoperar con la infraestructura existente en el

campus, al tiempo que permite la investigación intensiva con datos en múltiples

disciplinas, como la física, la química, la biología, el cambio climático, la oceanografía y

las ciencias de la computación.

El gran resultado de Prism@UCSD es que genera una data freeway productiva a

escala del campus que permite a los investigadores manejar fácilmente datos masivos,

tanto dentro como fuera de la universidad, creando un diseño que puede ser instalado en

otras instituciones. El efecto transformador permite la transferencia cotidiana de grandes

conjuntos de datos entre múltiples disciplinas a los usuarios finales y los instrumentos

científicos de la universidad, cúmulo de computadoras de cómputo, almacenamiento

replicado, dispositivos de visualización y colaboradores digitales fuera del campus.

Creemos que Prism@UCSD será el precursor de la ciberinfraestructura especializada en

big data en muchos centros de investigación.

Prism@UCSD es una red enfocada a investigadores específicos que se desarrolló

a partir de nuestra versión previa del Quartzite. De esas experiencias hemos definido un

conjunto de principios de diseño y conceptos de política que llevaron a la estructura

específica de Prism@UCSD:

1. Establecer cada conexión tomando en cuenta las necesidades actuales y las

proyectadas a corto plazo por el laboratorio, partiendo de dónde se generan o se

almacenan los datos y hacia dónde deben ser trasladados. Estamos conectando

un número relativamente pequeño de laboratorios cuyo uso de la red es desigual.

Pueden pasar días (o semanas) entre los tiempos en los que va a necesitar un

Graciela Dolores Avila Quezada
Page 56: Telecomunicaciones y Computación

56

usuario en particular para mover terabytes de datos. Las redes con capacidad de

estallido (burst capacity networks) optimizan el tiempo de las personas.

2. Decidir cuándo es económicamente viable alojar todas las conexiones en un solo

complejo interruptor de bisección completo para la simplicidad del diseño y reducir

los costos de mantenimiento. Esto permite que cualquier sitio del campus que esté

conectado se comunique a la tasa de su conexión o de la conexión de destino sin

congestionar los puntos finales no relacionados. Se requiere aprender sobre el

diseño de las interconexiones del cúmulo de computadoras.

3. La política de Prism@ es que la red se puede utilizar para el análisis de datos

activos, conexiones experimentales y para la conectividad entre centros de

cómputo. Hay laboratorios distribuidos en el campus que se pueden beneficiar

enormemente de este ancho de banda tan alto. La conectividad sin congestiones

entre los sitios de la universidad, la cual ayuda en la resiliencia de datos,

administración y planes de análisis. Las investigaciones ad hoc realizadas por los

científicos sobre cómo las redes de alta velocidad pueden permitir flujos de trabajo

deben ser fomentadas y a un mínimo costo.

4. Permitir y agilizar un mayor presupuesto para invertir en los puertos, la óptica y el

mantenimiento de conmutadores (switches). La inversión incluye al menos dos

laboratorios y otros que puede requerir el desempeño que Prism@ ofrece.

Prism@UCSD está al alcance de varios de los principales investigadores y

laboratorios de la UCSD big data y se interconectan a velocidades de entre 10-80 Gbps en

redes ópticas dedicadas (véase la figura 2). Mientras estos investigadores están en la

UCSD sus contrapartes en México podrían utilizar una infraestructura tipo Prism@ en sus

instituciones.

Page 57: Telecomunicaciones y Computación

57

Figura 2. Mapa de la UCSD.

ALGUNAS APLICACIONES DE INFRAESTRUCTURA PARA BIG DATA

Física experimental de partículas

Emprende una tarea global dominada por los experimentos en el Gran Colisionador de

Hadrones (LHC). La computación científica, en los dos grandes experimentos (Atlas y

CMS), es a escala internacional y depende de un sistema escalonado de los centros de

cómputo. Dentro del sistema de gestión de contenidos en Estados Unidos (US-CMS), uno

de los centros Tier-2 es operado por el profesor Wuerthewein de la UCSD. El propósito de

estos centros es, en primer lugar, que cada centro sirva a toda la colaboración del CMS

mundial alojando datos primarios, así como datos para grupos específicos de física. En

Page 58: Telecomunicaciones y Computación

58

segundo lugar, cada centro atiende a una comunidad local de científicos. Para la UCSD,

esta comunidad se compone de 85 físicos CMS provenientes de la Universidad de

California en Santa Barbara, en Riverside, y en San Diego, y sus colaboradores del

Laboratorio Nacional Fermi (FNAL).

El centro Tier-2 de la UCSD cuenta con más de 2PB de almacenamiento en disco

distribuido en todo un cúmulo de computadoras, que es aproximadamente la mitad de lo

que utiliza la comunidad local para alojar sus datos derivados. Asimismo, se conecta a la

red nacional a través de dos conexiones ópticas del campus. El nuevo Arista 7050s, de

esta propuesta, representa un aumento de casi ocho veces en el ancho de banda externo

y permitirá que el proyecto CMS duplique disco y ancho de banda por nodo.

Igualmente, Prism@ proporciona enlaces de alta velocidad a otras agrupaciones

de la UCSD para que puedan unirse a la Open Science Grid (OSG), que permite el

intercambio de ciclos de cómputo a través de las agrupaciones de la universidad para las

aplicaciones de uso intensivo de datos. Por ejemplo, la NSF ha financiado el proyecto Any

data, Anytime, Anywhere, que permite a las aplicaciones acceder a los datos alojados en

el centro de Capa 2 de la UCSD desde cualquier CPU, ya que siempre hay suficiente ancho

de banda entre el almacenamiento y los cúmulos de computadoras de CPU. En el corto

plazo se va a poner a disposición de las comunidades atendidas por Prism@ las técnicas

OSG y AAA.

Iniciativa de Observatorios Océano (OOI)

Esta iniciativa es financiada por la NSF, y en cinco años desplegarála infraestructura

global, regional y costera artesanal para ampliar la capacidad de los científicos para

estudiar a distancia el océano. Un componente global enfrentará los problemas a escala

planetaria mediante una nueva red de boyas fondeadas vinculada a la costa a través de

satélites de telecomunicaciones. Un observatorio cableado regional va a “conectar” una

sola región en el noreste del Océano Pacífico, a través de una red de alta velocidad de

energía y fibra óptica. El componente costero ampliará los bienes de observación marina

existentes para estudiar la importancia de la alta frecuencia de fuerza en el medio

ambiente del océano. Estos componentes estarán vinculados por una ciberinfraestructura

robusta (OOI-CI) que integrará observatorios marinos en un solo sistema de sistemas. Esta

infraestructura CI también proporcionará una red de aplicaciones a escala nacional que

permita el acoplamiento en tiempo real de los sistemas de observación, modelado

Page 59: Telecomunicaciones y Computación

59

numérico y análisis de decisiones para proporcionar la base para la investigación

oceanográfica concreta. Por tanto, los oceanógrafos tendrán acceso a las redes

automatizadas de máquina-a-máquina que pueden ser escalables para aumentar la

capacidad, el potencial y la participación durante décadas. El equipo OOI-CI se ha situado

en el edificio Calit2 de la UCSD, pero se trasladó al SIO en 2012. Prism@ proporcionará la

conectividad necesaria para SIO. El equipo OOI-CI también utilizará la infraestructura

Prism@ para dar apoyo a pares para investigación en el modelado realizada en el SIO y el

modelado de previsión regional realizado en el JPL, todo dentro de la red de la aplicación

OOI.

Un aspecto clave de la estrategia de la red nacional de la aplicación OOI es la

capacidad de unir instituciones a la red nacional Layer 2 OOI que sustenta la red

directamente, proporcionando de esta manera la participación de la banda ancha en el

intercambio en tiempo real de datos y servicios entre los puntos finales de las

aplicaciones. La configuración Prism@ de la red del campus es considerada por el equipo

OOI-CI como la necesaria, a escala de campus, de una solución institucional para el punto

de interconexión de la red de científicos con la red de observatorios OOI. Esta solución

atiende a la significativa tensión que actualmente existe entre la infraestructura de red de

banda ancha de los usuarios en general de la universidad, y las correspondientes de sus

grupos de investigación especializados. Se proporciona una solución innovadora para

esta tensión al demostrar que la configuración, segura y de bajo costo, separa

completamente a estas dos comunidades rivales.

Análisis regional de cambio climático Se lleva a cabo por varios investigadores del Scripps Institution of Oceanography de la

UCSD (SIO); analizan cómo y por qué varía el clima, así como la forma en que durante el

siglo XXI se pueden dar los cambios climáticos globales. A medida que se ha extendido la

conciencia sobre el potencial de los efectos sustanciales del cambio climático, se presenta

la necesidad de obtener proyecciones climáticas específicas en los ámbitos regional y

local. Los avances recientes han dado lugar a un mayor número de modelos climáticos

globales que se ejecutan en los centros nacionales (aproximadamente 25 en el último

ejercicio de la Quinta Evaluación del Intergovernmental Panel on Climate Change, IPCC),

mientras que los sistemas estadísticos avanzados han mejorado de 12Km hasta 6Km de

resolución horizontal, las simulaciones dinámicas también se han perfeccionado a una

Page 60: Telecomunicaciones y Computación

60

mayor resolución, de unos 10Km hasta 2Km. Esta necesidad de contar con un mayor

control, que llevó varias décadas de simulaciones de cambio climático, junto con los

avances en el modelado dinámico y estadístico, ha logrado producir un marcado aumento

en los cálculos necesarios. El gran crecimiento de la producción de estas simulaciones

avanzadas ha dado como resultado conjuntos de datos con volúmenes de decenas de

terabytes. El SIO accede, procesa, analiza y visualiza estos conjuntos de datos generados

de forma remota, de ahí la necesidad de contar con un acceso rápido a conjuntos de

datos de gran volumen.

National Center for Microscopy Imaging Research

El centro alberga instrumentos múltiples 3D, como el microscopio electrónico de

positrones (EMT), y de microscopía electrónica de barrido serial (SEM). La producción de

cada instrumento requiere hasta 1-2TB de datos en bruto a la semana. Además, los

instrumentos SBEM operan completamente en modo de robot con mínima intervención de

un operador. Los métodos SBEM utilizan un ultramicrotomo equipado dentro de un

microscopio electrónico de barrido para remover con éxito una fina capa (<15nm) de

cualquier espécimen entre imágenes de la cara del bloque usando un haz de electrones

de baja tensión. Con todo el proceso —en virtud de la automatización— controlado por el

ordenador. Varios de los últimos avances en la tecnología de la sonda genética y tinción

de metales pesados de muestras biológicas permiten mejoras significativas en la

resolución, en el rendimiento de formación de imágenes y en la carga de reducción para

la formación de imágenes de una amplia variedad de especímenes. El sistema más rápido

ahora es capaz de digitalizar imágenes de campo amplio de exploración de 32k con

tiempos tan cortos como 500 nanosegundos aproximadamente, 2TB de datos para la

ejecución típica de un proyecto. En el año 2012 se incrementó el formato a 64k×64k,

produciendo aproximadamente 12TB/dataset/semana.

A través de las 10+ plataformas de producción microscopía óptica y electrónica del

NCMIR, el recurso está generando aproximadamente 400TB de nuevos datos en bruto por

año. Mientras se procesan estos datos, se produce una explosión de datos intermedios y

datos derivados. Estos datos agregados amplían los requisitos de almacenamiento del

Centro en aproximadamente dos petabytes. Los recursos reunidos para apoyar esta

operación se han desplegado en el NCMIR, Atkinson Hall (Calit2), y SDSC que requieren

más de 10Gbps en red.

Page 61: Telecomunicaciones y Computación

61

Espectrometría de masas

Actualmente ésta es una tecnología esencial para todos los análisis de alto rendimiento

de proteínas (proteómica) y pequeñas moléculas (metabolómica). También es una

tecnología importante en los principales ductos de descubrimiento de fármacos para

nuevas terapias basadas en anticuerpos y compuestos derivados de productos naturales

aún existentes. El UCSD alberga en NIH Biomedical Technology Research Center for

Computational Mass Spectrometry (Centro de Investigación Biomédica de Tecnología

Computacional en Espectrometría de Masas, CCMS por sus siglas en inglés) el análisis de

alrededor de 925 millones espectros de unos 2 900 usuarios en más de 26 000

búsquedas.

El CCMS también ha introducido el concepto de archivos espectrales, donde se

utilizan algoritmos avanzados para encontrar grupos de moléculas relacionadas en

grandes conjuntos de datos. Asimismo, ha demostrado —en el esfuerzo más grande

jamás realizado— una agrupación en espectrometría de masas (por lo menos de tres

órdenes de magnitud) y uno de los mayores esfuerzos de agrupación a través de

cualquier campo de la ciencia. Por otro lado, el CCMS asume un nuevo proyecto:

espectrometría de masas en un medio ambiente interactivo virtual (Interactive Virtual

Environment, MassIVE). Este recurso requerirá del ancho de banda que proporciona

Prism@ y se hará cargo de los esfuerzos de almacenamiento público, actualmente

limitado (alrededor de 20TB de datos públicos), para escalarlos en una a dos órdenes de

magnitud. Además, en el CCMS se analizarán los datos utilizando algoritmos avanzados y

técnicas de visualización/curaduría con el objetivo de identificar todos los espectros de

masas que se producen en el mundo.

Estos esfuerzos requieren de una estrecha y altamente interactiva colaboración

entre el CCMS y los laboratorios y científicos que generan los grandes conjuntos de datos.

Prism@ proveerá la capacidad para permitir subidas rápidas y el análisis interactivo de

conjuntos de datos de +100GB, emparejándolos contra un repositorio de 100s de TB de

datos de espectrometría de masas.

Banco de proteínas (PDB)

Es financiado por múltiples agencias, está ubicado tanto en el SDSC dentro del edificio de

la Skaggs School of Pharmacology, como en un segundo sistema de conmutación por

Page 62: Telecomunicaciones y Computación

62

error en Rutgers University, en Nueva Jersey. Actualmente del PDB lo utilizan unos 280

000 usuarios únicos al mes, y en promedio se descargan entre siete y ocho estructuras.

La base de usuarios del PDB y su acceso sigue creciendo a una tasa de 10% anual y tiene

un uso interno significativo. El PDB está planeando una “mudanza” a un modelo de

máquina virtual (VM) donde la totalidad de los servidores estén activos en todo momento y

sincronizados para ofrecer el acceso más rápido, ya que el acceso de alta velocidad punto

a punto dentro de las universidades es crítico. Asimismo, el PDB se está cambiando más

hacia un modelo tipo-aplicación donde los usuarios se conectan con aplicaciones a la

base de contenidos y el PDB se convierte en una especie de app-store donde los usuarios

eligen alguna aplicación para ejecutarla con los datos del PDB y calificarlas en un modo

WEB 2.0. Esto se implementó por primera vez en la UCSD, así que de nuevo en gran

medida el aumento de ancho de banda es importante.

Secuenciadores genómicos

En la última década han aumentado su capacidad de producción de datos. También han

caído dramáticamente los precios de los equipos. La plataforma de secuenciación de

próxima generación (NGS) más utilizada la produce Illumina, una compañía ubicada cerca

del campus de la UCSD. Una sola corrida de Illumina puede generar casi un terabyte (Tb)

de datos en un aumento de casi ×1 000 ¡en cuatro años! Sin embargo, se espera aún una

mayor producción en los siguientes productos. Las instalaciones de la base de

secuenciación genética de última generación de la UCSD Biogema fueron fundadas como

una asociación entre la School of Health Sciences y la Division of Biological Sciences.

Calit2 trabajó con el profesor Trey Ideker de la UCSD para transmitir los datos de la salida

de esta instalación para el almacenamiento situado en GreenLight, el centro de datos

modular. A partir de ahí, los datos fueron montados por NFS sobre las fibras ópticas

Quartzite de 10Gbps al switch Calit2 y al cúmulo de computadoras de cálculo Triton de la

SDSC. Esto permitió al grupo del profesor Ideker almacenar de forma confiable los datos

genómicos, así como realizar cálculos con las instalaciones coubicadas Triton. El número

de NGS en la UCSD está aumentando con la llegada de la nueva generación de

secuenciadores NGS, por lo que será esencial un mayor uso de Prism@. Además, Calit2

ha iniciado la instalación del software del laboratorio Cytoscape del profesor Ideker en el

nuevo dispositivo de visualización escalable de Calit2 Vroom (de 64 megapixeles).

Cytoscape es una plataforma de software de código abierto ampliamente utilizada para la

Page 63: Telecomunicaciones y Computación

63

visualización de las redes biológicas complejas e integradas a cualquier tipo de datos de

atributos. Como se mencionó anteriormente, esto será fundamental para la integración de

la genómica, la proteómica y metabolómica. Como resultado, el Calit2 Vroom requerirá

alta velocidad para bajar enlaces de latencia a todas las diversas bases de datos

mencionados antes. Se espera que a medida que el uso de Cytoscape en las paredes de

visualización escalables comiencen a mostrar resultados científicos, una serie de

investigadores en ciencias ómicas (genómica, trancriptómica, protómica y metabolómica)

querrán su propio OptlPortable (con los cuales se construye la pared de pantallas Vroom)

en su cubículo o laboratorio dentro de la UCSD, de nuevo con la necesidad de utilizar la

conectividad Prism@.

Institutos de ciencia cercanos

Hemos tenido pláticas con instituciones de investigación de clase mundial ubicadas cerca

de la UCSD sobre su integración a Prism@. Algunas de estas instituciones son: el Salk

Institute for Biological Studies, el Sanford-Burnham Medical Research Institute, el Scripps

Research Institute y el Sanford Consortium for Regenerative Medicine; este consorcio es

una colaboración entre la UCSD y las tres instituciones mencionadas. Todos han

expresado un fuerte interés por unir sus instrumentos científicos con usuarios finales a la

red Prism@, aportando recursos financieros propios. Estamos trabajando conjuntamente

con cada una de estas instituciones para identificar el conducto de fibra, de modo que

puedan conectarse desde el inicio del proyecto. Hacemos hincapié en que es esencial

para el Sanford Consortium for Regenerative Medicine contar con una infraestructura de

gran ancho de banda tipo Prism@, ya que al estar ubicada en sus instalaciones contará

con instrumentos de alto rendimiento que no se encontrarán en otras instituciones. Esto

implica tener una “autopista de datos” que permita a los usuarios del consorcio acceder a

los instrumentos de las otras cuatro instituciones, y viceversa.

En resumen, en cada universidad de México va en aumento el número de

disciplinas que generan grandes datos y requerirán de capacidad de banda ancha mucho

más allá de la proporcionada por el internet compartido convencional para unirse a la

comunidad global de innovación. Creemos que los estudios piloto de Prism@UCSD

ofrecen a México una oportunidad única para experimentación primaria con estas

tecnologías avanzadas. Nuestra ya larga y estrecha colaboración con el CICESE, el CUDI y

Page 64: Telecomunicaciones y Computación

64

el Conacyt nos da las bases para ampliar la colaboración y llevar estas capacidades de

clase mundial a todo México.

Page 65: Telecomunicaciones y Computación

65

RETOS Y OPORTUNIDADES DE LAS COMUNICACIONES ÓPTICAS

Y EL PROCESAMIENTO DIGITAL FOTÓNICO

Horacio Soto*

INTRODUCCIÓN

Este ensayo da una visión de la evolución de las comunicaciones fotónicas, presenta su

estado del arte y sus grandes retos. En este sentido, se comienza exponiendo la

relevancia que tienen hoy en día las comunicaciones ópticas en los sistemas de

telecomunicaciones modernos. Se habla de la fibra óptica, así como de la necesidad que

tienen las telecomunicaciones actuales de ofrecer banda ancha a sus usuarios y de cómo

este escenario ha hecho que los sistemas de comunicaciones ópticas evolucionen.

Enseguida, se abordan las tendencias de las comunicaciones ópticas, se identifica como

una de ellas a la multicanalización densa por división de longitud de onda (DWDM) y se

introduce el procesamiento digital fotónico como herramienta clave para las redes de

comunicaciones ópticas del futuro. A continuación se retoma el procesamiento digital

fotónico, se enumeran algunos de los fenómenos no lineales y tecnologías que permiten

su implementación y se enfatizan algunas demostraciones de actualidad. Para continuar,

se plantean los retos del procesamiento digital fotónico y se introduce la nanofotónica

integrada en silicio, la cual se identifica como la tecnología que en breve transformará los

circuitos integrados y la computación. En este contexto, se presentan los sorprendentes

avances en nanofotónica integrada en silicio que ha tenido la compañía IBM, se habla de

las comunicaciones fotónicas intrachip y del concepto que tendrán las futuras

computadoras híbridas donde, al menos, su bus de datos será óptico. Se habla de la

revolución tecnológica que se avecina en el mundo con la nueva era de los chips

optoelectrónicos, los cuales permitirán efectuar operaciones ultrarrápidas con gran

estabilidad. Se identifica entonces las comunicaciones fotónicas, el procesamiento digital

fotónico y la nanofotónica integrada en silicio como nichos de oportunidad que

revolucionarán la tecnología mundial, los cuales representan, en consecuencia, una

*

Page 66: Telecomunicaciones y Computación

66

enorme oportunidad de invertir fuertemente en ellos para transformar a México en una

potencia mundial de las nuevas tecnologías del futuro. Se concluye que los temas antes

mencionados, por su relevancia académica y sobre todo por la repercusión para nuestra

sociedad, son sin duda directrices que indican hacia dónde se debe enfocar la ciencia en

México.

SISTEMAS DE TELECOMUNICACIONES ÓPTICAS

Existen muchos tipos de telecomunicaciones, por ejemplo las vía satélite, inalámbricas,

por cable de cobre, etcétera. Sin embargo, en los países desarrollados la gran mayoría

del tráfico de telecomunicaciones se reparte ópticamente. Por ejemplo, se estima que en

Estados Unidos 98% del tráfico global de telecomunicaciones es repartido por fibras

ópticas (Mynbaev, 2011).

Esto se debe al gran ancho de banda que posee la fibra óptica, la cual es, en

efecto, el canal de transmisión de los sistemas de comunicaciones ópticas guiadas. En

particular, la fibra óptica goza de un ancho de banda teórico de 100 Tb/s (100 billones de

bits por segundo), lo cual intuitivamente se percibe como una cantidad enorme. Para tener

una mejor idea de la capacidad de las fibras ópticas, analicemos el siguiente ejemplo

académico. Un solo cable de fibra óptica con 1 000 fibras, el cual tiene un diámetro

parecido al de la muñeca de la mano de un adulto (cada fibra tiene un diámetro de 250

µm ya con recubrimiento), puede admitir del orden de 400 millones de conversaciones

telefónicas simultáneas. Ahora bien, durante el año 2012 en todo el mundo se registraron,

en horas pico, 40 millones de conversaciones telefónicas simultáneas. Es decir, mediante

un solo cable de fibra óptica se podrían transmitir todas las conversaciones telefónicas

que se llevan a cabo en todo el mundo y aún sobraría muchísimo espacio para otras

aplicaciones (Milla-León).

Además de su gran ancho de banda, las fibras ópticas poseen las siguientes

características extraordinarias:

• Pérdidas bajas

• Inmunidad a interferencia electromagnética

• Alta resistencia a la radiación cósmica

Page 67: Telecomunicaciones y Computación

67

• Baja distorsión en la distribución de la señales

• Bajo peso y diámetro reducido

• Diafonía insignificante (para potencias moderadas)

• Alta seguridad y se puede detectar su intervención

• Amplio rango de temperaturas de operación

• Operación segura en ambientes peligrosos

Todas estas propiedades han hecho que la fibra óptica sea utilizada masivamente en

enlaces de ultralarga distancia, comunicando continentes y enlazando ciudades.

Paralelamente al escenario descrito, el mundo ha sido testigo del crecimiento

explosivo de internet, el cual es resultado de la demanda exponencial de servicios

multimedia que son proporcionados por esta red y por la cantidad cada vez mayor de

dispositivos que se conectan a internet, así como al número cada vez mayor de estos

dispositivos per cápita. El resultado ha sido un aumento desmedido en la demanda de

ancho de banda.

Al mismo tiempo, las redes de telefonía celular han crecido de manera desenfrenada

ya que satisfacen la necesidad de comunicación de usuarios móviles y pueden llegar a

lugares que son difíciles de cablear. Sin embargo, sin importar las circunstancias, los

usuarios móviles exigen servicios multimedia. Lo anterior ha provocado que los sistemas

de telefonía celular se hayan visto en la necesidad de aumentar dramáticamente su ancho

de banda y, por tanto, de transmitir con ondas milimétricas de frecuencias cada vez más

elevadas. Para tal efecto, se han diseñado topologías con una gran cantidad de células

contiguas, cada una de las cuales contiene una antena cuyo radio de acción es muy corto,

ya que las ondas milimétricas son fuertemente absorbidas en el espacio libre. Si el radio

de acción de la antena es de entre 20 a 400 m se tiene una pico célula, y si es de entre

400 m a 2 km se cuenta con una nanocélula. Para evitar cuellos de botella y células muy

costosas, la tendencia es que éstas, a través de sus antenas, se dediquen únicamente a

transmitir y recibir señales. El enrutamiento y el procesamiento de las señales son

entonces llevados a cabo en una oficina central, la cual está conectada con fibra óptica

con cada una de las células del sistema de comunicaciones móvil. Es decir, la fibra óptica

es un conducto clave mediante el cual la telefonía celular, en los países desarrollados, ha

podido aumentar el ancho de banda que ofrece a sus usuarios. Asimismo, y por razones

Page 68: Telecomunicaciones y Computación

68

obvias, si la red de telefonía celular crece, la red óptica que conecta a sus células con

alguna oficina central lo hace también (Vass, 2011).

Por las razones explicadas en los párrafos anteriores, se puede entender fácilmente

porqué la mayor parte del tráfico de telecomunicaciones, en los países desarrollados, es

repartido por fibra óptica. De hecho, las fibras ópticas —aparte de ser usadas hoy en día

de forma masiva en enlaces submarinos intercontinentales y en enlaces de larga

distancia— son ampliamente utilizadas en redes metropolitanas de acceso, y cada vez

más en la llamada última milla, llegando directamente hasta los hogares y oficinas. Es

decir, la fibra óptica y por tanto los sistemas de comunicaciones ópticas se han convertido

en la columna vertebral de las telecomunicaciones, permitiendo que los otros sistemas de

telecomunicaciones puedan soportar el ancho de banda que sus usuarios les demandan.

El crecimiento fulgurante de los sistemas de telecomunicaciones ópticas ha

ocasionado que se observen varias tendencias, en lo que respecta a su implementación

futura, pero principalmente dos son sobresalientes (Yao):

• Elaborar redes con multicanalización densa por división en longitud de onda

(DWDM)

• Desarrollar redes completamente ópticas con procesamiento digital fotónico

En cuanto a las redes DWDM, actualmente son la única alternativa factible, teórica y

práctica, de aprovechar todo el ancho de banda de las fibras ópticas. Su principio de

operación se basa en enviar por una sola fibra óptica 40 o más canales de información.

Para ello, cada canal se envía en una longitud de onda diferente (o color), de manera que

al final del trayecto se puede volver a separar de los demás sin perder la información que

contiene. Así, por cada fibra óptica, de un gran conjunto de éstas, se envía una portadora

modulada, generalmente en amplitud, con una longitud de onda que es distinta a todas las

demás del conjunto. Todas estas fibras arriban a un nodo donde su información se

multicanaliza (MUX) dentro de una sola fibra óptica. Es decir, por esta última viajará toda la

información contenida en el conjunto primario de fibras ópticas. Al final del trayecto, se

efectúa el proceso de demulticanalización (DMUX), el cual consiste en separar cada una de

las portadoras de longitud de onda diferente y enviarlas por una fibra distinta hacia su

destino final. Una gran ventaja de los sistemas DWDM es que, a su vez, cada canal de

información puede contener otro tipo de multicanalización, por ejemplo, mulicanalización

Page 69: Telecomunicaciones y Computación

69

por división de tiempo (TDM) en donde la información de varios canales se envía a

intervalos diferentes.

Actualmente en su gran mayoría las redes DWDM trabajan con 40 canales separados

entre sí, 100 GHz (0.8 nm) en la banda C (de 1 530 a 1 565 nm), donde la fibra óptica

presenta la menor atenuación y la amplificación de las señales se puede efectuar de

manera sencilla y “económica” con amplificadores de fibra contaminada con erbio. De

esta manera, si cada canal transmite a 40 Gb/s, por una sola fibra óptica, se pueden

enviar 1.6 Tb/s. Recientemente han empezado a utilizarse sistemas con 80 canales

separados entre sí 50 GHz (0.4 nm), y hay demostraciones con 200 canales separados

12.5 GHz (0.1 nm), aunque estos últimos abarcan también la banda L (1 565 a 1 625 nm)

(Aurora Networks Overview).

De todo lo anterior no es difícil imaginar que los grandes retos de los sistemas DWDM

están contenidos en los siguientes puntos:

• Aumentar el número de canales

• Realizar láseres con anchos de línea cada vez más finos

• Realizar MUX/DMUX capaces de funcionar con canales cada vez más cercanos

• Desarrollar nuevos protocolos de comunicación más eficientes

• Implementar nuevas técnicas para compensar la dispersión cromática y la de los

modos de polarización

• Realizar nuevas fibras con menor no linealidad

• Realizar amplificadores ópticos eficientes y de implementación simple para todas

las bandas de transmisión.

En particular, los nuevos protocolos de comunicación se refieren a la manera de

codificar y decodificar la información para que ésta sea enviada de manera más eficiente.

Asimismo, las técnicas para compensar la dispersión cromática y la de los modos de

polarización se refieren a los procesos que hay que implementar para que todas las

componentes espectrales y de polarización de las portadoras electromagnéticas, que

contienen la información, viajen a la misma velocidad, de manera que los bits no se

deformen.

Por otra parte, es claro que entre más señales se multicanalicen en una sola fibra

óptica, ésta contendrá mayor potencia óptica. Cuando la potencia óptica comienza a

Page 70: Telecomunicaciones y Computación

70

aumentar excesivamente, la fibra entra en un régimen no lineal y puede entonces haber

interferencia entre los canales. Por tal motivo, es deseable fabricar nuevas fibras con una

menor no linealidad.

Todos estos retos tendrán que ser solventados para garantizar el futuro viable de las

redes DWDM. No obstante, no hay que perder de vista que actualmente estas redes se han

expandido de manera vertiginosa, lo que está causando cuellos de botella en los nodos

repartidores donde confluyen diversas fibras ópticas con canales multicanalizados en

longitud de onda. Este enorme problema es el responsable de que hoy en día se realicen

grandes esfuerzos para desarrollar las así llamadas redes completamente ópticas con

procesamiento digital fotónico.

Efectivamente, imaginemos por un instante lo que sucede dentro de un nodo

repartidor donde confluyen diversas fibras ópticas con canales multinanalizados en

longitud de onda. La primera tarea por realizar dentro del nodo es demulticanalizar todas

las señales que viajan por cada una de las fibras arribantes (DMUX). Una vez que cada

señal es espacialmente separada de las otras, se fotodetecta y se convierte en una señal

eléctrica. Todas las señales convertidas a flujos eléctricos son entonces introducidas en

una computadora dedicada que lee su encabezado y así se entera de dónde provienen,

qué tipo de información transportan (video, voz, datos, etcétera), qué longitud de onda las

transporta, hacia dónde se dirigen, etcétera. Antes de enviarlas hacia el puerto de salida

que les corresponda, la computadora analiza sus encabezados, y/o directamente a éstas,

y determina si alguna de ellas necesita algún tipo de acondicionamiento. En particular hay

tres tipos de regeneraciones (3R) que se efectúan dentro de los nodos: reamplificación,

reformado y resincronización de las señales. Una vez que las señales han sido

reacondicionadas, se envían hacia el puerto de salida que les corresponde, donde son

trasladadas nuevamente al dominio óptico. De hecho, cada señal eléctrica funge como la

señal manejadora de un modulador electroóptico, al que le está arribando un haz láser

continuo con una longitud de onda igual a la de la señal óptica que dio origen a la señal

eléctrica correspondiente. Así, a la salida de cada modulador, un haz láser se encuentra

modulado, con el mismo formato que el de la señal eléctrica correspondiente, y listo para

ser enviado por la fibra que lo llevará a su destino final o a otro nodo intermedio. No

obstante, antes de que estas señales ópticas sean enviadas por la fibra correspondiente,

la computadora debe asegurarse de que ninguna de sus longitudes de onda sea igual a la

de otra señal, proveniente de otro puerto de entrada, que quiera partir por la misma fibra.

Si la computadora llegara a detectar dos señales con la misma longitud de onda, que

Page 71: Telecomunicaciones y Computación

71

deban ser enviadas por la misma fibra de salida, remite una de ellas a un convertidor de

longitud de onda (WC) para que su longitud de onda sea cambiada. Una vez que todas las

señales, que saldrán por el mismo puerto de salida, poseen longitudes de onda diferentes,

entonces son finalmente multicanalizadas (MUX) y enviadas a su destino final por la fibra

correspondiente.

La lectura de los encabezados de las señales, la regeneración de éstas, la conversión

de su longitud de onda, así como su enrutamiento hacia el puerto de salida que

corresponda, se efectúan dentro de un módulo que se le denomina matriz de

conmutación. En los sistemas DWDM actuales, esta matriz de conmutación es del tipo

“opaca”, ya que las señales ópticas de entrada son convertidas a electricidad y se

procesan en el dominio eléctrico. Como se puede deducir, entre más fibras de entrada

haya en el nodo, conteniendo cada vez más canales de información y con tasas de bit

cada vez mayores, la electrónica comienza a ser insuficiente para procesar todas las

señales en un tiempo adecuado, lo que produce demoras que forman cuellos de botella.

La solución es entonces hacer el procesamiento digital de las señales en el dominio

completamente óptico. Es decir, los canales de información arribantes al nodo nunca se

conviertan en electricidad para su procesamiento, sino que éste se hace completamente

en el dominio óptico. A la red de este tipo se le conoce como red completamente óptica

con procesamiento digital fotónico. En este caso la matriz de conmutación hace todo en el

dominio óptico, y se le denomina “transparente”.

PROCESAMIENTO DIGITAL FOTÓNICO

Como se mencionó, la clave para poder efectuar matrices de conmutación transparentes

es el procesamiento digital fotónico, el cual se puede desarrollar aprovechando la forma

en la que se manifiestan distintos fenómenos no lineales, como, entre otros:

• Mezcla de cuatro ondas

• Automodulación de la fase

• Modulación cruzada de la fase

• Modulación cruzada de la ganancia

• Modulación cruzada de la polarización

Page 72: Telecomunicaciones y Computación

72

• Absorción de dos fotones

Estos fenómenos, y por tanto el procesamiento digital fotónico, se pueden desarrollar

con distintas tecnologías utilizando, por ejemplo:

• Guías de onda de niobato de litio periódicamente polarizado (PPLN)

• Monocapas autoensambladas iónicamente (ISAM films)

• Amplificadores ópticos de semiconductor

• Cristales fotónicos

• Fibras altamente no lineales

• Plasmones activos

• Micro y nanofotónica integrada en silicio

Cabe resaltar que de todas las tecnologías mencionadas, la micro y nanofotónica

integrada en silicio recientemente ha atraído gran atención, por las razones que en breve

se explicarán. Por lo pronto, es pertinente resaltar que existe una enorme cantidad de

funciones completamente ópticas —que efectúan algún tipo de procesamiento digital

fotónico— que recientemente han sido demostradas, dado que éste es un tema fértil de

investigación de mucha actualidad. En primer lugar, se tiene a las funciones booleanas

básicas AND, XOR, OR y NOT (Ma et al., 2010) que han permitido efectuar dispositivos más

complejos, como flip-flops (Liu et al., 2010), convertidores de longitud de onda (Pérez-

Serrano et al., 2013), sumadores y restadores (Dai, Bo et al., 2013), convertidores

analógico-digitales (Scaffardu et al., 2009), convertidores digital-analógicos (Wu et al.,

2009), codificadores multinivel (Pérez et al., 2013), conmutadores de paquetes ópticos

(Scaffardi et al., 2008), MUXs, DMUXs (Hong et al., 2011), entre otros. En este punto, es de

vital importancia señalar que, a diferencia de la electrónica, las funciones complejas

mencionadas no solamente se pueden desarrollar con combinaciones de funciones

booleanas básicas, sino que también se pueden hacer directamente explotando la

manifestación particular de algún fenómeno no lineal.

A partir de todo lo explicado en los párrafos anteriores, se deduce que los principales

retos del procesamiento digital fotónico (PDF) son (Bognoni):

• Efectuar la integración monolítica de varios dispositivos fotónicos de PDF

Page 73: Telecomunicaciones y Computación

73

• Realizar la integración de dispositivos fotónicos de PDF con elementos electrónicos

• Implementar dispositivos fotónicos de PDF de bajo consumo de energía

• Desarrollar sistemas de PDF que contengan alta escalabilidad y cascabilidad

• Implementar sistemas de PDF que presenten una operación ultrarrápida

• Desarrollar dispositivos de PDF de bajo costo

De todos estos puntos, un aspecto en el que vale la pena abundar es el relacionado

con la integración de dispositivos electrónicos con fotónicos que efectúen procesamientos

digitales. Esta característica extremadamente deseable era hasta el año 2010 un sueño

que no se había podido realizar de manera práctica. La principal dificultad radicaba en

que los dispositivos electrónicos actuales se desarrollan con semiconductores indirectos,

como el silicio. Estos semiconductores son extremadamente ineficientes para generar y/o

liberar fotones cuando sus electrones pierden energía, por lo que a temperatura ambiente

y con corrientes bajas es imposible efectuar fuentes de luz con silicio puro (LEDs o

láseres). Dado que casi la totalidad de las funciones del procesamiento digital fotónico se

pueden realizar, utilizando el medio activo de los láseres de semiconductor, también

resultaba imposible efectuarlas con dispositivos de silicio. Sin embargo, investigaciones

recientes muestran que es posible generar láseres infrarrojos de silicio, contaminando

este material con fosfuro de indio o explotando el efecto Raman que se manifiesta

naturalmente dentro del silicio. Esta nueva tecnología, llamada nanofotónica integrada en

silicio, será, desde el punto de vista de muchos expertos, el motor de una nueva

revolución tecnológica, que permitirá desarrollar una gran cantidad de dispositivos

ultrarrápidos, sumamente estables,1 y es el motivo de análisis de la siguiente sección.

LA NANOFOTÓNICA INTEGRADA EN SILICIO Y LA COMPUTADORA

HÍBRIDA

1 Made in IBM Labs: IBM Lights Up Silicon Chips to Tackle Big Datahttp://www-

03.ibm.com/press/us/en/pressrelease/39641.wss.

Page 74: Telecomunicaciones y Computación

74

En el año 2010, la compañía IBM anunció que logró efectuar, en silicio, con tecnología

CMOS (complementary metal-oxide-semiconductor) la integración de láseres, moduladores

de luz, fotorreceptores, guías de onda, MUX/DMUX e interruptores con transistores de

silicio. Como se sabe, la tecnología CMOS, que se usa para realizar microprocesadores y

circuitos integrados, tiene dos características muy importantes: presenta una baja

sensibilidad al ruido electromagnético y un consumo estático de potencia moderado. IBM

desea así efectuar procesadores extremadamente potentes, ultrarrápidos, poco sensibles

al ruido y de bajo consumo. La idea central de esta compañía es efectuar chips que ella

llama “en tres dimensiones (3D)”. En la parte baja del chip se colocará una capa de

procesamiento electrónico con diversos microprocesadores (al menos 16), después habrá

una capa superior de memoria y finalmente una capa de red de intercomunicación

fotónica. Esta red de interconexión óptica es en sí una matriz de conmutación, compuesta

por un enrejado de guías de onda ópticas, teniendo en cada uno de sus cruces un

interruptor fotónico que puede permitir el paso de la luz, en función de la orden eléctrica

que reciba, en cualquier dirección. Este concepto revolucionario terminará con un cuello

de botella que frena a la computación de hoy en día. En efecto, la electrónica ha logrado

efectuar operaciones digitales en tasas del orden de los gigabits, sin embargo, la

comunicación a través de pistas de cobre, con otros dispositivos periféricos y/o otros

procesadores, es muy lenta para evitar que las señales eléctricas se distorsionen. Este

fenómeno se acentúa a medida que las pistas de cobre se hacen más largas. No

obstante, con una interconexión fotónica como la propuesta por IBM, este problema

queda resuelto y el cómputo paralelo y el traslado de datos entre procesadores se podrá

efectuar a velocidades inimaginables. IBM ha llamado a sus procesadores 3D

“exaprocesadores”, porque espera que efectúen 1 018 operaciones por segundo (un trillón

de operaciones/seg), es decir, que un solo chip será 1 000 veces más rápido, en su

procesamiento, que las supercomputadoras de nuestros días.2

En particular, los procesadores o núcleos de procesamiento liberarán datos en

serie con una tasa de bits de 1 Tb/s, los cuales serán convertidos a paralelo y

posteriormente serán amplificados para manejar moduladores de luz. Lo anterior se

podrá realizar en el dominio eléctrico porque todo el trayecto que recorrerán las señales

2 Breakthrough chip technology lights the path to exascale computing,

http://www.zurich.ibm.com/news/10/nanophotonics.html.

Page 75: Telecomunicaciones y Computación

75

eléctricas, desde que salen del núcleo de procesamiento hasta que llegan a los

moduladores, se hará en un área de 16 mm2. Así, se tendrán N canales eléctricos

paralelos que manejan a N moduladores de luz a los cuales les llega N diferentes fuentes

de luz (láseres de potencia constante), con N longitudes de onda diferentes. Los

moduladores transpondrán a la luz de amplitud constante que les llega, el formato de

modulación de la señal eléctrica que los maneja. Así, a la salida de los moduladores se

tendrán N canales ópticos con diferente longitud de onda e información. Estos canales

serán multicanalizados en una sola guía de onda de silicio, utilizando un MUX WDM.

Posteriormente, la guía de onda los dirigirá hacia la matriz de interconexión óptica donde

serán enviados a su destino final. Para ello, la matriz de interconexión habilitará los

interruptores que el núcleo de procesamiento le ordene, de manera que los canales

ópticos multiplexados lleguen justo arriba del procesador o periférico a donde el primer

núcleo se quería conectar. Una vez en su destino final, los canales ópticos son

fotodetectados, amplificados eléctricamente, serializados e introducidos en el núcleo de

procesamiento blanco o destinatario.3

IBM está desarrollando esta nueva tecnología para fabricar computadoras de alto

rendimiento, sin embargo Intel también ha logrado la integración nanofotónica con

dispositivos electrónicos en silicio y su objetivo es desarrollar los núcleos de las

computadoras que todos utilizaremos.4 En el caso particular de Intel, el bus de datos no

será sustituido por guías de onda de silicio, sino por fibra óptica. IBM e Intel no son las

únicas compañías que se encuentran desarrollando esta nueva tecnología, también HP se

engloba en este contexto, así como algunas startups como Luxtera, Kotura, Lightwire,

Genalyte y Caliopa.

Como se puede entender de lo descrito anteriormente, la nanofotónica integrada

en silicio revolucionará la tecnología de los circuitos integrados de hoy en día, permitirá

desarrollar dispositivos ultrarrápidos, de bajo consumo y de muy baja sensibilidad al ruido

electromagnético. El primer gran paso es la concepción de la computadora híbrida con su

3 IBM chips the laser light fantastic, http://insidehpc.com/2010/12/02/ibm-chips-the-laser-light-

fantastic.

4 Revolutionizing Computing with Lasers, http://www.intelfreepress.com/news/revolutionizing-

computing-with-lasers/57.

Page 76: Telecomunicaciones y Computación

76

interconexión óptica, pero a medida que esto suceda y se requiera aún más velocidad,

para desarrollar aplicaciones inimaginables hoy en día, el procesamiento digital fotónico

será indispensable. Por ahora, la tecnología dará un salto cuántico en cuanto a tasas de

bits y estabilidad, y se tendrá un nuevo concepto de tiempo real en miles de aplicaciones,

cada vez más complejas y demandantes. Evidentemente, esta tecnología no sólo se

aplicará a las telecomunicaciones y a la computación y será el preámbulo del

procesamiento digital fotónico, sino que será empleada en una gran cantidad de sectores,

como el de salud, educación, seguridad, la industria, entre otros. En pocas palabras, la

nanofotónica integrada en silicio será una tecnología que revolucionará nuestras

sociedades.

OPORTUNIDADES PARA MÉXICO En este texto se ha expuesto cómo las comunicaciones fotónicas han evolucionado y han

ganado terreno en la tecnología actual. Ahora las tenemos en enlaces submarinos de

ultralarga distancia, comunicando ciudades, en redes metropolitanas, en redes de área

local, llegando a casas y oficinas, pero también interconectando cuartos de control, racks,

tarjetas, circuitos integrados y en interconexiones intrachips. Es decir, las comunicaciones

fotónicas son una pieza clave de la tecnología por venir que ya se encuentra inundando

los países desarrollados y que, sin duda alguna, llegará masivamente a México. Por tal

motivo, en breve se tendrán las siguientes oportunidades:

• Será necesario diseñar e instalar redes ópticas adecuadas para nuestro país y

llegar con fibra óptica a muchos hogares y oficinas

• Se necesitará una gran cantidad de equipo y dispositivos que se pueden fabricar

en México, para consumo interno y para el mundo

• Dado el gran volumen de mercado que representan, las comunicaciones ópticas

son una oportunidad viable para producir tecnología propia y para ayudar a

transformar a las empresas maquiladoras de componentes fotónicos en empresas

desarrolladoras de tecnología

• Las comunicaciones ópticas representan el medio ideal para desarrollar nuevas

aplicaciones, por ejemplo, comunicaciones seguras por criptografía cuántica

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 77: Telecomunicaciones y Computación

77

• Dada la complejidad de los temas por abordar, el desarrollo de las comunicaciones

ópticas en México es una gran oportunidad para vincular estrechamente a la

academia con la industria y para crear empresas promotoras comercialmente del

conocimiento técnico y científico

En cuanto a la nanofotónica integrada y al procesamiento digital fotónico, son nichos

que transformarán la tecnología mundial y representan una enorme oportunidad para

invertir fuertemente en ellos para transformar a México en una potencia mundial de las

nuevas tecnologías del futuro, que se emplearán no sólo en las telecomunicaciones sino

en prácticamente todos los campos de nuestra vida.

Las comunicaciones fotónicas y la nanofotónica integrada en silicio representan un

nicho de oportunidad enorme para nuestro país. Son tecnologías que invadirán al mundo

en todos sus sectores y representan un mercado trillonario. México está hoy en día en la

disyuntiva de seguir siendo un espectador del mundo de la tecnología o convertirse en un

protagonista de ésta que le genere riqueza y las condiciones para tener una sociedad más

justa y equitativa. Corea del Sur, siendo un país más pobre que México, tomó la decisión

de volverse una potencia en los sectores automotriz, de electrodomésticos y de

telecomunicaciones y lo logró. ¿Nosotros tomaremos la decisión de volvernos una

potencia de la nanofotónica e inundaremos con nuestra tecnología y productos al mundo?

Para lograrlo hay que comenzar desde las universidades, enfocando los programas de

estudio hacia estos temas, es necesario impulsar la investigación de la nanofotónica

integrada en silicio en centros públicos y universidades. Es imperativo crear nuevos entes

de investigación dedicados a esta materia, traer a México especialistas en el campo,

generar masas críticas, abrir plazas de investigación y de posdoctorados, eliminar las

normativas absurdas que asfixian a la investigación en México, incentivar a empresas

para que paguen el salario de investigadores, alentar y establecer como punto final de

programas de investigación la creación de empresas promotoras comercialmente del

conocimiento técnico y científico, incluir la nanofotónica integrada en silicio dentro del Plan

Nacional de Desarrollo del país, hacer un plan nacional con objetivos precisos y recursos

comprometidos para el desarrollo de la nanofotónica integrada en silicio con la formación

paralela de la industria nacional que la explotará, entre otros aspectos.

En pocas palabras, debemos tener una visión de hacia dónde se quiere ir y

apostarle con inteligencia y sin escatimar recursos, puesto que el retorno de la inversión

no sólo sería en trillones de pesos, sino en bienestar para nuestra sociedad.

Page 78: Telecomunicaciones y Computación

78

CONCLUSIONES Dado que las comunicaciones ópticas se han vuelto la columna vertebral que sostiene la

demanda de banda ancha, han cobrado una gran importancia y juegan un papel

estratégico en la vida de cualquier país.

Las comunicaciones fotónicas y el procesamiento digital fotónico son elementos

clave para las tecnologías del futuro cercano que revolucionarán los sistemas de

comunicaciones ópticas y de cómputo.

La nanofotónica integrada en silicio es una tecnología que cambiará la forma de

proceder de las sociedades modernas, y en conjunto con las comunicaciones fotónicas

representa una enorme oportunidad para invertir fuertemente en ellas para transformar a

México en una potencia mundial de las nuevas tecnologías del futuro.

Las comunicaciones fotónicas, el procesamiento digital fotónico y la nanofotónica

integrada en silicio, por su relevancia académica y por la repercusión que pueden tener

para nuestra sociedad, son sin duda directrices que indican hacia donde se debe enfocar

la ciencia en México.

La comunicaciones fotónicas, aparte de representar un gran nicho de oportunidad

para nuestro país, son también un campo imperioso a desarrollar, ya que pocos sectores

como la industria de las telecomunicaciones tienen tanto efecto en tantos ámbitos de una

sociedad y en la competitividad de un país.

REFERENCIAS

Aurora Networks Overview (s/a). WDM, CWDM DWDM and LcWDM, Technology,

http://webcache.googleusercontent.com/search?q=cache:dHKdRL19mREJ:www.cc

tanet.com/index.php%3Foption%3Dcom_docman%26task%3Ddoc_download%26

gid%3D27+LcWDM&cd=2&hl=en&ct=clnk.

Bogoni, Antonella (s/a). Trend, Challenges and Applications of Photonic Digital

Processing, Integrated Research Center for Photonic Networks and Technologies.

Page 79: Telecomunicaciones y Computación

79

https://docs.google.com/viewer?a=v&q=cache:dyYlDAtoOw0J:optoelectronics.ece.

ucsb.edu/sites/default/files/shared/docs/bogoni%2520seminar.pdf+%22Trend,+Ch

allenges+and+Applications+of+Photonic+Digital+Processing%22&hl=en&pid=bl&sr

cid=ADGEESi2pwIr99UwlPNfco3CWcfSnrOY5YNlU7HOXt48_m9qESCYFaomQG

24pp5jdW05TzMD2Rx1FU8ZjnMaBbThd6vieE3sn-

Lpq6FICEuzwPZEYOakc9Rrsa1Yngj14vjg7pWVGv8W&sig=AHIEtbSLPcKNKwDg

Y2UKeRiCBjvOO7AZWg.

Dai, Bo et al. (2013). Simultaneous All-Optical Half-Adder and Half-Subtracter Based on

Two Semiconductor Optical Amplifiers. IEEE PTL, 25(1), 91-93.

Hong, Wei et al. (2011). Design of flexible and reconfigurable optical add/drop multiplexer.

Optical Fiber Technology, 17(3), 247-251.

Liu, Liu et al. (2010). An ultra-small, low-power, all-optical flip-flop memory on a silicon

chip. Nature Photonics, 4, 182-187.

Ma, Shaozhen et al. (2010). High speed all optical logic gates based on quantum dot

semiconductor optical amplifiers (AND, XOR, NOT). Optics Express, 18(7), 6417-

6422.

Milla-León, Luis (s/a). Comunicaciones ópticas: conceptos, aplicaciones y tendencias.

https://docs.google.com/viewer?a=v&q=cache:xxUIVdNjDrUJ:www.usmp.edu.pe/vi

sion2011/exposiciones/21.%2520Comunicaciones.pdf+400+millones+de+conversa

ciones+telef%C3%B3nicas+simultaneas&hl=en&pid=bl&srcid=ADGEEShhMgE5u4

u4wTn2h3_Hd-

WbxH3oWkXJJ3lsIpSiCGsZUaom093d7_YmKq0pan_rEvekwqarkwbOfB1Jns6UVv

fgtP8ki8ERQ1QhjmLFMgQVt3WAxFJ79tPMONvedYyoqycRTUVJ&sig=AHIEtbT5l

wZBMrDET-CEdlicLN3NCX4fWg

Mynbaev, Djafar K. (2011). Optical Communications: Status and Trends. Universidad de

Nueva York.

http://webcache.googleusercontent.com/search?q=cache:9cpA8qr71AIJ:iaria.org/c

onferences2011/filesAICT11/AICT_2011_Tutorial_Optical.pdf+Optical+Communica

tions:+Status+and+Trends&cd=1&hl=en&ct=clnk.

Pérez Cortés, Obed et al. (2013). All-Optical Binary-to-Octal Encoder Based on a

Semiconductor Optical Amplifier: Application to Eight-Level ASK Signaling

Pérez-Serrano et al. (2013). Multichannel Wavelength Conversion Using Four-Wave

Mixing in Semiconductor Ring Lasers. IEEE PTL, 25(5), 476-479.

Page 80: Telecomunicaciones y Computación

80

Scaffardi, M. et al. (2008). Photonics in Switching (PS), Post deadline paper. 160Gb/s/port

2×2 OPS node test-bed performing 50Gchip/s all-optical active label processing with

contention detection.

Scaffardi, M. et al. (2009). M. Scaffardi Analog-to-Digital Conversion based on modular

blocks exploiting Cross Gain Modulation in Semiconductor Optical Amplifiers. IEEE

PTL, 21, 540-542.

Vass, Sinclair (2011). Optical communications trends for 2011, Lightwave.

http://www.lightwaveonline.com/articles/2011/01/optical-communications-trends-

for-2011-113365784.html.

Wu, Qingwei et al. (2009). 40GS/s Optical analog-to-digital conversion system and its

improvement. Optics Express, 17(11), 9252-9257.

Yao, Colin (s/a). The Future of Fiber Optic Communication.

http://www.streetdirectory.com/travel_guide/126621/computers/the_future_of_fiber

_optic_communication.html.

Page 81: Telecomunicaciones y Computación

81

COMPUTACIÓN. ALGUNAS OPORTUNIDADES Y RIESGOS TECNOLÓGICOS

Adolfo Guzmán Arenas*

En el vertiginoso desarrollo de la computación y sus aplicaciones, es prudente reflexionar

en qué deben invertir sus esfuerzos los tecnólogos e investigadores que trabajamos en

esta área. Atisbar hacia dónde va nuestra disciplina tiene la ventaja de que podemos

tomar acciones cuando encontramos oportunidades en las que dedicar nuestros

esfuerzos. O al menos, señalar a otros las oportunidades que creemos ver. Por eso, en la

primera sección de este artículo enumero algunas líneas de investigación en las que, a mi

parecer, conviene invertir esfuerzos y recursos. Por supuesto, la lista no es exhaustiva.

Asimismo, una mirada retrospectiva, reflexiva, a lo que estamos haciendo mal, o

de manera más general, ver qué obstáculos frenan o limitan un desarrollo adecuado de

nuestra área, será útil para tratar de evitar y corregir estos errores o condiciones. Por

tanto, en la segunda sección señalamos varios problemas actuales que son importantes

impedimentos (a mi entender) para consolidar y acelerar el progreso de nuestra disciplina.

En la última sección se proponen las grandes acciones que a mi juicio deben

tomar las organizaciones que dedican sus esfuerzos a la ciencia y la tecnología, en

particular en este estratégico y vigoroso campo de la computación teórica y aplicada.

OPORTUNIDADES, ÁREAS A DESARROLLAR

En México, cada año terminan sus estudios profesionales (licenciatura en ingeniería)

aproximadamente 25 000 egresados de las distintas carreras de informática,

computación, cibernética, sistemas computacionales y otros nombres similares (en

Estados Unidos la cifra anual de egresados es de 50 000; en la India, 100 000).

Desafortunadamente, la mayor parte del software y del equipo de cómputo y

telecomunicaciones que se usa en México es importado. ¿A qué se dedica entonces esta

importante y calificada mano de obra? Ciertamente, algunos desarrollan software a la

*

Page 82: Telecomunicaciones y Computación

82

medida, que no puede importarse porque no existe, es muy caro, o la empresa tiene

necesidades muy específicas de manejo de información. La mayoría instala, usa y adapta

equipo y software importados. Sólo un número reducido produce software para consumo

nacional (e internacional, tal vez).

Por otro lado, la preparación de un egresado de estudios profesionales en México

es buena, si la comparamos con los egresados de otros países. He trabajado con

compañeros de México, Colombia, Estados Unidos, China, India, Turquía (y algún otro

país), y hay desde luego diferencias personales en cuanto a creatividad y productividad,

pero no percibo que estén correlacionadas con el país donde estudiaron. Los compañeros

mexicanos (y en general, los latinoamericanos) se caracterizan por ser creativos e

ingeniosos.

¿Tiene alguna ventaja crear software de uso amplio? Sí, por supuesto. La gran

ventaja de una aplicación informática es que sólo hay que producir una pieza original, las

demás copias son tan buenas como el original mismo. No tiene gastos de transporte (se

usa internet), de impresión, de manufactura (de las copias). Ah, pero necesita ser bueno,

confiable, fácil de usar y realmente útil. Si no lo es, ni se compra ni se vende ni se usa ni

remplaza a software o servicio importado alguno. En general, el mejor software (uno que

cumpla con las características señaladas) se desarrolla junto con el usuario. Es él o ella

quienes van dando retroalimentación valiosa sobre qué especificaciones básicas debe

cumplir, qué le falta o le sobra; nos puede dar ejemplos de aplicaciones parecidas que

tienen tal y cual característica deseable, y señalan fallas de otras para evitarlas.

Y nuestros investigadores en estas disciplinas, ¿cómo contribuyen a cerrar la

dependencia tecnológica en este rubro? Poco, diría yo. Es escasa su producción de

bienes o servicios comerciales (que remplacen a los importados y sean a su vez

exportados), patentes, registros de software ante el Indautor (en México el software no se

patenta), procesos industriales, marcas registradas, etcétera. Ver el apartado “Poco

interés del sector académico/de investigación en proteger sus desarrollos e innovaciones”.

Afortunadamente, nuestra disciplina es muy joven. Aún es tiempo de cerrar la

brecha digital. Con el fin de aprovechar mejor (“encauzar”) una fracción de esa mano de

obra, su creatividad y empuje, señalo algunas áreas en las que, a mi juicio, podemos

contribuir para crear productos competitivos, “tropicalizados” y mejor adaptados a las

Page 83: Telecomunicaciones y Computación

83

necesidades de las organizaciones y empresas mexicanas. Y, ¿por qué no?, después

abarcar otros mercados.

Dispositivos móviles

A finales del año 2013 hubo más dispositivos móviles que habitantes de la Tierra; estos

forman un mercado no saturado, de gran crecimiento. Y para el año 2017, Cisco (empresa

de telecomunicaciones digitales) estima que habrá diez mil millones de dispositivos

móviles. Tan sólo los dispositivos Android, en 2013 eran mil millones. Según un estudio

hecho por Laboratorios iAB,1 “existían en 2012 en México 95.5 millones de líneas

telefónicas para celulares (datos de Cofetel), de los cuales 17% son teléfonos inteligentes,

83% celulares, mientras que el porcentaje de usuarios de tabletas en México no supera el

5%. En promedio, los mexicanos realizan seis actividades diferentes en su dispositivo

móvil, de éstas las más frecuentes son: 91% los utiliza para actividades elementales como

hablar por teléfono, enviar mensajes de texto (64%) o como despertador (52 por ciento).

Las actividades de entretenimiento en el celular las realiza 70% de los usuarios: toman

fotografías (47%), escuchan música (43%) y juegan (35%). El 38% lleva a cabo

actividades relacionadas con internet, como usar las redes sociales (18%), enviar correos

electrónicos (15%) y navegar en internet (15%). También hay un 21% que utiliza el celular

para actividades especializadas como leer noticias (16%), abrir archivos del trabajo (8%) y

realizar transacciones bancarias (3 por ciento).

Aquellos usuarios que tienen internet en su dispositivo móvil, ¿para qué lo usan?

Según el mismo estudio, “En promedio, pasan tres horas navegando y realizan 10

actividades, como hablar por teléfono, estar en las redes y navegar en internet. En

promedio realizan cinco actividades relacionadas con internet, principalmente usan redes

sociales (65%), buscadores (54%), correo electrónico (45%) y chat (41%). Además, 44%

utiliza algún sistema de geolocalización: Google Maps (80%), Nokia Maps (19%) y Guía

Roji (18%). El 66% descarga aplicaciones, de las cuales, las relacionadas con las redes

sociales son las más populares”. Continúa diciendo: “Actualmente, el 49% de los usuarios

recibe publicidad en su dispositivo móvil, principalmente a través de mensajes SMS y

correo electrónico”.

1http://www.iabmexico.com.

Page 84: Telecomunicaciones y Computación

84

Este enorme mercado de usuarios recientes de dispositivos digitales para

telecomunicación no está saturado, y destacan varias oportunidades:

• Migración de aplicaciones que actualmente corren en PCs y laptops

• Juegos (ver siguiente apartado)

• Aplicaciones basadas en la situación del usuario (voy a visitar una empresa, me

gustaría que mi software me recordara qué conocidos míos pueden encontrarse

ahí, ver sus fotografías y qué hacen o cómo los conocí)

• Seguimiento de trayectorias o recorridos (tracking)

• Aprendizaje remoto (ver más adelante el apartado “Enseñanza virtual”)

Juegos

Cuando las computadoras bajaron de precio, empezaron a abundar los juegos digitales.

Con la existencia de una gran cantidad de dispositivos pequeños, portátiles, el mercado

ha crecido enormemente. Empero, casi no se desarrollan juegos en México, a pesar de

que nuestro país tiene una gran riqueza histórica y cultural que se podría aprovechar para

darles contextos, tramas y personajes singulares, interesantes o no trillados. Los juegos

se pueden desarrollar en ambientes únicos o inusuales (juegos en las ruinas mayas,

juegos semihistóricos, peleas entre bandos en la Gran Tenochtitlán, viajes por las grutas

de Cacahuamilpa, etcétera). Desde el punto de vista de la técnica, el desarrollo de juegos

requiere programación fina para ejecución rápida, despliegue de detalles (rendering,

texturas, superficies) con distintas granularidades, y movimientos rápidos. Desde el punto

de vista artístico, requiere de caracterización de personajes, continuidad, movimientos

convincentes, trama interesante. Brindan la oportunidad de combinar el sentido artístico

(que se enseña en carreras de diseño gráfico, filmación y afines) con habilidad técnica de

explotar la computadora.

Internet

De acuerdo con un estudio hecho en el año 2014 de la Asociación Mexicana de Internet

(AMIPCI) acerca de los hábitos de los usuarios de Internet en México, en 2013 hubo 51.2

millones de ellos (dato de Ifetel); su antigüedad promedio como internauta es de seis

años, y el uso más común es el correo electrónico (81%), acceder a redes sociales (77%),

Page 85: Telecomunicaciones y Computación

85

búsqueda de información (72%) y envío de mensajes (55%). Nueve de cada diez

internautas accede a alguna red social, su uso más frecuente es “comunicarse con

amigos”. Se conecta 5.36 horas diariamente, sobre todo desde el hogar (71%), usa sobre

todo una conexión Wi-Fi contratada (66%). El principal acceso es a través de laptop o PC.

La mitad de ellos lo hace con un teléfono inteligente. El 84% de los internautas ha

descargado alguna aplicación. Ocho de cada diez niños usan internet (se convierten en

internautas a la edad de 10 años, en promedio): para actividades escolares (48%) y

entretenimiento (50 por ciento).

Esta penetración continua de internet en nuestras actividades invita a desarrollar

aplicaciones novedosas (por ejemplo, aquéllas que, al facilitar la comunicación, eviten el

desplazamiento físico de las personas, remplazándolo por transmisión de información)

que aprovechen la alta comunicación, el gran número de usuarios potenciales y el bajo

costo. Entre ellas destaco:

• Servicios a los ciudadanos (pagos, encuestas, remplazo del correo de papel);

consultas, aclaraciones; aplicaciones que explotan la ubicación del usuario (ver más

adelante la sección “Despliegue en mapas y geoprocesamiento”)

• Elaboración de encuestas; índices de satisfacción; votaciones, elecciones electrónicas

• Análisis de tendencias (en redes sociales; en popularidad de espectáculos, de

inclinaciones, de preocupaciones), de opiniones o percepciones (ver la sección “La

ciencia de los datos”). En lugar de hacer encuestas por teléfono, o por internet,

examina lo que se dice en las redes sociales, cuáles son la preocupaciones de los

usuarios, cuáles temas tienen más efecto, y se podrán encontrar resultados similares

si se usan bien la estadística y el procesamiento masivo de datos

La ciencia de los datos

El abaratamiento de la capacidad de proceso, así como del almacenamiento y de la

transmisión de la información ahora hace posible tener una gran cantidad de datos

disponibles para obtener conclusiones y derivar decisiones o acciones al estudiar “lo que

nos quieren decir”. Es muy importante sobre todo para, a partir de un mar de datos, hacer

Page 86: Telecomunicaciones y Computación

86

planeación estratégica, descubrir tendencias, desviaciones, situaciones interesantes y

anomalías. Para ello, sugerimos los siguientes desarrollos:

• Minería de datos. La búsqueda sistemática de anomalías, desviaciones, situaciones

interesantes y tendencias. Predicciones. Encuestas que explotan los mensajes de

Twitter. Minería sobre dispositivos móviles. Minería usando Hadoop (varias máquinas)

y MapReduce. Ver la sección “Cuidado: procesamiento masivo de datos. Grandes

computadoras paralelas”

• Análisis de texto. Mucha de la información está en texto. ¿Qué dice? ¿Cuál es su

significado? ¿Cómo una computadora puede hacer deducciones o guiar decisiones

basada en el análisis de su contenido, de su significado? Buscadores “inteligentes”.

Bibliotecas digitales.

Interconexión de utensilios cotidianos

Cada vez más objetos cotidianos están conectados a internet (electrodomésticos,

sensores como termostatos, cámaras de video, lectores de humedad; pero también se

utiliza en válvulas para controlar fluidos, como regar las partes secas de mi cultivo,

motores, alarmas, compuertas que permiten o impiden el paso…) que se comunican

sobre todo con computadoras que recogen sus lecturas, toman decisiones y controlan los

aparatos; o se comunican entre sí. Eventualmente se comunican con el ser humano.

¿Qué beneficios puede traer? Entre otros, optimizar la cadena de abastecimiento, bajar

costos, mejorar la experiencia y satisfacción de los consumidores, ahorrar energía, tener

mejor idea de “cómo van las cosas”, tener mayor seguridad, respuestas más rápidas a

emergencias. Las oportunidades que IoT (internet of things, que aquí traducimos como

“interconexión de utensilios cotidianos”) presenta se pueden visualizar si pensamos, dado

un problema, cómo una buena cantidad de sensores y actuadores controlados por

software podrían ayudar a solucionarlo. Por ejemplo: en vías y lugares públicos de la

ciudad de México se han colocado unas diez mil cámaras de video. Controladas mediante

software, podrían ayudar a detectar embotellamientos, choques, riñas, accidentes, seguir

vehículos sospechosos, encontrar a personas desparecidas, etcétera (ver más adelante la

sección “Despliegue en mapas y geoposicionamiento”).

Page 87: Telecomunicaciones y Computación

87

Torrentes de datos

Al llegar la información, lo normal es almacenarla en una base de datos para luego

procesarla. Los datos llegan primero, las preguntas después. Dicho esto, en la actualidad

hay muchos datos que llegan como si fuera un flujo o torrente: llamadas telefónicas,

accesos a una página web popular, correos electrónicos, imágenes de las cámaras en la

vía pública, información de satélites (boyas, sismógrafos, otros sensores), compras en un

centro comercial, señales en procesos industriales… ¿Por qué no analizamos los datos

conforme llegan? Pensemos en unos filtros que dejan pasar los datos que cumplen con

ciertas propiedades (llamadas que duran más de tres minutos), los cuentan y dan

resúmenes periódicos (“en esta hora, hubo 119 llamadas de más de tres minutos”). Desde

otra óptica, estos “filtros” hacen una especie de resumen de lo que va entrando. Las

preguntas llegan primero, los datos después. Los datos no se almacenan (bueno, no

necesariamente), sólo se almacenan los resultados. La buena noticia es que la

herramienta preferida para analizar bases de datos relacionales, el lenguaje SQL, también

se puede aplicar para hacer un análisis continuo de torrentes de datos (data streams, no

confundir con video streaming o lectura en tránsito, que es el envío de multimedia, un

video, digamos, de forma que se pueda consumir —ver— al mismo tiempo que se

descarga). Las oportunidades se presentan cuando consideramos cómo transformar

nuestro problema para mirarlo desde el punto de vista de “analizar los datos conforme

llegan”, aunque nuestras respuestas sean aproximadas. “Procesar datos que están en

movimiento”, este proceso es de un solo paso, no hay oportunidad de volver a procesar

los datos que ya pasaron (ya se fueron).

Enseñanza virtual

Las grandes universidades de Estados Unidos y de la Unión Europea están entrando en

este juego. Pronto nos veremos inundados de cursos impartidos por prestigiosas

universidades extranjeras, hechos para sus necesidades. Si a esto se le une el

malinchismo que aún existe en algunos sectores de nuestro país, la educación para

nuestras necesidades y objetivos se verá muy mermada. Debemos entrar en este

mercado antes de que sea tarde. Afortunadamente, nos es más fácil que en otros lares

poner de acuerdo a amplios sectores educativos sobre lo que conviene enseñar. Similar al

Page 88: Telecomunicaciones y Computación

88

esfuerzo para dotar de libros unificados a todos los estudiantes de primaria, es necesario

hacer el mismo esfuerzo para secundaria, preparatoria (o vocacional) y cursos básicos de

la enseñanza superior. Hablo de textos unificados.

Textos unificados

Hace algún tiempo, la Asociación Nacional de Instituciones de Enseñanza en Informática

(ANIEI) desarrolló unos “modelos curriculares” de los posibles contenidos de los cursos a

nivel superior en esencialmente todas las áreas posibles de la computación. Similar a los

currícula desarrollados por el Institute of Electrical and Electronics Engineers (IEEE) y la

Association for Computing Machinery (ACM), pero orientados a nuestra realidad. Estos

modelos, actualizados, pueden dar lugar a unos 100 libros de texto “unificados”, que

serían escritos por autores de renombrado prestigio (se someterían a concurso). A los

autores se les pagaría y los libros estarían disponibles gratis en la web, para su uso libre

por universidades y profesores que los encuentren útiles. Siendo de indudable calidad,

este material sería adaptado y usado en una buena porción de los programas de

enseñanza superior en informática. Ahora bien, un plan de estudios a nivel superior

incluye unas 50 materias, de modo que estos 100 libros cubrirían todas, o casi todas, las

materias de prácticamente todas las carreras profesionales en computación, informática,

ingeniería de cómputo y otros nombres similares. Cada plan de estudios contendrá,

seguramente, algunas materias que no están en estos libros unificados, y los profesores

de materias particulares que los usen añadirán en sus enseñanzas cierto material que no

está en ellos, o bien omitirán algunas secciones. Periódicamente estos cambios o

actualizaciones darán lugar a nuevas versiones de los libros unificados. Se puede formar

un wiki para esto.

Problemas con la enseñanza virtual

La experiencia en otras universidades muestra que no se necesita crear material

elaborado, multimedia, con gráficas interactivas o en tercera dimensión, pues son

moderada o escasamente útiles. En cambio, un texto más o menos plano acompañado de

buenas secciones de video (5-10 minutos por tema), que se suben a Youtube, son muy

útiles. Otros problemas (no insolubles) a resolver son:

Page 89: Telecomunicaciones y Computación

89

• Resolución de dudas. Éste es un problema importante cuando el estudiante no

entiende o entiende mal la información durante el curso. Se han usado chats y foros

de discusión, pero imponen una gran carga sobre el profesor o facilitador, y no

resuelven bien las dudas

• Poca atención personal. El estudiante siente que no es atendido de forma individual.

No se identifica con que su profesor sea una máquina. El alumno no se identifica con

el profesor. El profesor no conoce a los estudiantes

• Aislamiento. El estudiante virtual no sabe quiénes son sus “compañeros de grupo”. No

interactúa con ellos. Quizá no haga trabajo en grupo ni tenga actividades colectivas.

Cada quien está solo, o se siente solo.

• Aburrimiento. Generalmente los cursos a distancia tienen una gran deserción. Falta

hacerlos atractivos, interesantes, usar el suspenso… “aún hay más”

Despliegue en mapas y geoposicionamiento

Dada la fácil disponibilidad de mapas y planos de ciudades y del territorio de todo el globo

terráqueo, el despliegue de información en mapas es útil y estará en aumento. Combinar

esto con el geoposicionamiento del usuario permite brindarle información relevante de su

localidad. Pensemos en una actualización distribuida de la información desplegada (varias

fuentes de información suministran un flujo unificado de información), idealmente en

tiempo real. Algunas aplicaciones serían:

• Servicios gratuitos al ciudadano donde el municipio (o el estado) le brinda información

relevante en mapas consultables mediante un navegador

• Encuestas e informes donde el ciudadano participa (brinda información) mediante un

mapa

• Aplicaciones para que grupos de personas geográficamente dispersas conozcan e

informen el avance de sus actividades. Por ejemplo: un grupo de ayuda a

discapacitados expone sus avances, muestra imágenes y documentos de sus

Page 90: Telecomunicaciones y Computación

90

actividades, metas y retos en un mapa accesible a sus miembros (o al público en

general)

• Vigilancia y detección de “eventos anómalos”: una especie de minería de datos (ver la

sección “La ciencia de los datos”) pero con datos que tienen lugar en el tiempo y en el

espacio (ver también el apartado “Imágenes y dispositivos de video”)

Despliegue y captura en 3D

La computadora y la cámara digital se están librando de la restricción de trabajar en dos

dimensiones: ahora es posible capturar imágenes, video y otro tipo de información

tridimensional, y desplegarlo de la misma forma (y pronto será posible hacerlo

económicamente). La captura de información en 3D (imágenes volumétricas, video;

gestos, movimientos de manos, actitud corporal; interacción entre dos o más personas;

estudio del flujo de multitudes, o de flujo de partículas) abre grandes posibilidades para

desarrollar aplicaciones innovadoras. El uso de dispositivos sofisticados (para “realidad

aumentada”: cascos para inmersión en mundos fantásticos, trajes activos, guantes

especiales…) y costosos se está viendo superado por dispositivos sencillos y de precio

accesible.

Imágenes y dispositivos de video

La colocación de cámaras de video en lugares públicos y privados ha ido en aumento, ya

que proporcionan evidencia histórica y legal de lo sucedido. Esta información es de gran

volumen, y en general su análisis se lleva a cabo de forma manual (un operador observa

las imágenes buscando encontrar anomalías o eventos —un asalto, alguna persona que

yace en el piso— que ameriten su intervención, o “a toro pasado” (mucho después de

ocurrido el asalto se revisan las grabaciones). Puesto que el operador debe observar

varios flujos de información (típicamente, 16 imágenes en un monitor), su eficiencia es

modesta, es fácil aburrirse y distraerse. Es importante desarrollar software que analice la

información captada y que señale situaciones anómalas o sospechosas en tiempo real,

para así auxiliar (o remplazar) al análisis manual. Un paso más allá involucra seguimiento

Page 91: Telecomunicaciones y Computación

91

a través de las diversas cámaras: de un vehículo sospechoso, de una persona en

particular. Aunque aquí existen cuestiones de privacidad (ver la siguiente sección).

Seguridad informática y privacidad

Menciono este aspecto porque es de importancia indiscutible, sobre todo ahora que

mucho del software de base que usamos viene por internet, lo que trae consigo, además

de virus, bots, SPAM, robo de identidad, etcétera, que haya gobiernos o entidades que

recogen información nuestra de manera no muy obvia, y reúnen grandes bases de datos

sobre cada ciudadano común, “por lo que pudiera ofrecerse”. ¿Dónde están guardados en

la red todos nuestros correos electrónicos, nuestras imágenes, nuestra página web,

nuestro blog, nuestros chats?, información que voluntariamente hemos proporcionado.

¿Qué protecciones de seguridad tienen? ¿Quién tiene acceso a ellos? Aparte, cuando

visito un sitio web, el visitado puede colocar en mi computadora galletas informáticas

(cookies), una pequeña cantidad de información que el sitio web me envía, para que ese

sitio pueda conocer mi actividad previa (con él). Esto es útil para que el sitio “continúe con

la conversación” si es que lo visito frecuentemente. Pero también se puede usar para

conocer mis hábitos de navegación, mis preferencias…

No ofrezco aquí sugerencias de oportunidades a explorar, porque no soy experto

en el área, pero la señalo por su importancia indiscutible.

Software para envejecimiento activo y personas con alguna discapacidad

Buena parte de la población mundial, y en particular la de los países desarrollados, está

envejeciendo. Saludables o con alguna discapacidad, los adultos mayores requieren

atención especial. Por otro lado, les gusta vivir independientes, en lo posible no depender

de la ayuda de familiares, cuidadores profesionales o centros de atención. Aquí, la

tecnología informática puede contribuir en la creación de dispositivos y servicios que

apoyen en el envejecimiento activo, presten ayuda al adulto mayor y los mantengan en

comunicación oportuna con sus familiares, colegas y servicios médicos o de emergencia.

Consideremos las siguientes oportunidades:

Page 92: Telecomunicaciones y Computación

92

• Ayuda para necesidades fisiológicas o biológicas: control de sillas de ruedas; prendas

de vestir adaptadas (soporte extra en ciertas partes del cuerpo); prendas de vestir

provistas de sensores para detectar posibles anomalías cardiacas, respiratorias,

etcétera; en general, monitores de salud; software para el usuario vea lo que no puede

decir (para problemas en el habla), escuche lo que no puede ver (problemas visuales),

dicte lo que no puede escribir (problemas motrices), barredores ópticos que convierten

una gráfica o imagen en imágenes en relieve de alta definición; sumadoras y

calculadoras que hablan; lectores de libros digitales, de documentos escritos;

amplificadores de audio que se adaptan a la curva auditiva del usuario; entre otros.

• Para las necesidades de seguridad: sentirse libre de peligro (real o aparente), caídas

en el hogar, detección temprana de problemas de salud: sensores para

electrodomésticos que construyen patrones de uso habitual y reportan (vía internet,

por ejemplo) alguna anomalía; sensores de movimiento, de radiofrecuencia (gafetes

activos que usan RFID) o de posición con el mismo propósito; sensores que avisan que

el adulto abandonó cierta “área segura”; sensores de caídas no recuperables (el

adulto no se puede incorporar); localización vía GPS del lugar donde está el usuario;

electrodomésticos inteligentes que obedecen a comandos de voz, y en general

“hogares inteligentes”, etcétera.

• Para las necesidades de afecto: conexión con la familia, con amigos y colegas,

participación en la vida social (iglesia, club); “memorias sensibles al contexto”, que me

recuerdan nombres y fotografías de las personas que quizá estén en el lugar que

estoy visitando; pantallas que me facilitan socializar, compartir fotos, entrar en

discusiones; entre otros.

• Para mantenerse activo: programas para trabajo de tiempo parcial, esporádico, remoto

(en casa) o móvil; software que crea un “trabajador virtual en el tiempo” capaz de

desarrollar cierta tarea, a partir de adultos reales que señalan los horarios en que

están disponibles” (por ejemplo, traducir o verificar ciertos textos); software para

“trabajador virtual en el espacio”, que le permite a un adulto mayor (con experiencia y

conocimientos en cierta tarea) enseñar y vigilar el desarrollo de ciertas labores que un

aprendiz o persona menos capacitada desarrolla: cómo está ensamblando un equipo

complicado, por ejemplo. Especie de enseñanza/supervisión remota individualizada.

Page 93: Telecomunicaciones y Computación

93

Problemas, obstáculos

Una mirada retrospectiva de cómo vamos, dónde estamos y qué escollos existen es útil

para comprender qué hacemos bien, qué hacemos mal y por qué, y cómo podemos

mejorar. Aquí presentamos algunos problemas actuales del sector educativo, académico y

de investigación, sobre todo de instituciones públicas, en el área de telecomunicaciones y

computación (cuando menos).

Distanciamiento entre lo que se enseña y lo que se usa

En el área de las telecomunicaciones y la computación, este problema generalmente no

se presenta en la licenciatura. En este nivel, tenemos egresados productivos, con

conocimientos recientes, que se desempeñan bien en los centros de trabajo. Sin

embargo, el posgrado en México está dominado por el sesgo del Sistema Nacional de

Investigadores (SNI) para favorecer trabajos teóricos publicados en inglés, buscando

reconocimiento internacional. Esto a menudo se agrava por la burocracia en la institución

académica pública, que remunera adicionalmente a los profesores-investigadores usando

criterios similares a los del SNI (en algunos lugares esta remuneración consiste

simplemente en “si te apoya el SNI, yo también”). Estos criterios ayudan a desarrollar la

ciencia (sobre todo la ciencia teórica), pero dificultan el desarrollo y la ejecución de

proyectos aplicados. La enseñanza-investigación practicada por profesores-

investigadores poco ligados a la práctica y las necesidades del sector productivo

mexicano, podría no estar dirigida a nuestras carencias actuales ni a aumentar nuestra

competitividad.

Raro es el investigador público con experiencia en aplicaciones, en “la vida real”. En

un área como la computación, que tiene importancia y efecto indiscutibles en todas las

actividades económicas y técnicas (incluso las sociales), ¿cuáles son las principales

razones para esta poca inclinación de la investigación pública en computación, a tener

perfiles aplicados, a buscar la innovación que pudiese ser aplicada, que tenga un mayor

efecto en el sector productivo? A mi entender, algunas son:

Page 94: Telecomunicaciones y Computación

94

• Poca vinculación. En el sector académico, sus unidades de vinculación, promoción y

colaboración con el sector productivo y gubernamental tienen poco interés,

experiencia y recursos para entablar diálogos efectivos, exhibiciones, ferias

tecnológicas, “días de puertas abiertas” y otros actos similares, que den a conocer los

logros y habilidades de la planta docente y de investigación, los hallazgos, sus usos

potenciales y su relevancia para aumentar la productividad o disminuir el rezago y la

importación de bienes informáticos. Si no conocen (ni muestran interés por conocer) lo

que sus académicos-investigadores hacen, qué desarrollaron, para qué puede servir,

ni saben ante quiénes promover estos hallazgos o adelantos, poca vinculación o

promoción se logrará. Si además no conocen lo que las distintas empresas,

dependencias, ramas de la industria, comercio, etcétera, necesitan, serán poco

efectivos en conectar oferentes con demandantes adecuados.

• Mucha burocracia para dejarme trabajar. Aun si se consigue un proyecto, hacerlo a

tiempo y adecuadamente es un reto (ver la sección “Burocracia de la escuela pública

para obtener y ejecutar proyectos aplicados”).

• ¿Y quién va a hacer eso? Yo no. Lo que los académicos investigan y lo que nuestra

industria, comercio, banca y sector productivo necesitan no necesariamente están

alineados. Lo que estoy desarrollando es lo que yo sé hacer, o lo que puedo hacer, o

lo que me gusta hacer, y no se me ocurre mirar hacia otros lados para ver qué se

necesita (ver el apartado “Las innovaciones que se hacen en el área académica

generalmente no son relevantes para el sector productivo”). ¿Y qué estudiantes voy a

preparar, qué perfil tendrán los egresados que yo forme? Si adquieren preparación en

áreas poco aplicadas, alejadas de lo que se necesita, esotéricas, irrelevantes, también

ellos tendrán poco efecto en el sector productivo. Probablemente terminarán

trabajando como investigadores, como su profesor. Se produce una retroalimentación

que aísla más el ambiente académico de la realidad productiva.

Desde luego debemos formar egresados con alta resistencia a la obsolescencia,

cuya vida profesional productiva sea de unos 40 años. Esto necesariamente requiere

materias teóricas, conocimientos novedosos, “que no son útiles hoy”. Es importante

prepararlos también para la industria, las empresas, el comercio y el gobierno del

futuro. Pero como, cuando egresen, trabajarán en el presente, debemos darles una

mezcla cuidadosa de conocimientos inmediatamente aplicables junto con otros que

formarán su base para que puedan seguir aprendiendo e innovando, adquiriendo

Page 95: Telecomunicaciones y Computación

95

experiencia y desarrollando aplicaciones útiles, resolviendo nuevos problemas,

etcétera.

Burocracia de la escuela pública para obtener y ejecutar proyectos aplicados

Aunque la Ley de Adquisiciones exime de concurso a las instituciones públicas, es

necesario agilizar la burocracia elaborada y abundante que a menudo tienen: retrasa la

firma de contratos (deben ser aprobados por una instancia superior, deben ser revisados

por una oficina de abogados que se tarda un par de meses, los gastos deben predecirse

de antemano…) y entorpece la remuneración adicional que los profesores e

investigadores deben recibir cuando participan en proyectos aplicados.

Las innovaciones que se hacen en el área académica generalmente no son

relevantes para el sector productivo

• Son temas teóricos (su fin es publicar)

• Son temas de otras áreas. Gradualmente, áreas como control, física nuclear… infiltran

el área de computación. Naturalmente, los cursos avanzados de estos profesores

tienen poca relevancia para el desarrollo de la informática. Y, probablemente, también

para el sector productivo.

• Aun para profesionales de la informática, el envejecimiento de la planta educativa (ver

la sección “Envejecimiento y obsolescencia de la planta docente y de investigación”)

hace que se tienda a enseñar áreas obsoletas y desligadas de la realidad mexicana.

• Es difícil transferir un prototipo (que se desarrolló en la escuela o unidad académica) a

un producto comercial. Y a menudo los desarrollos académicos no llegan a prototipos,

son “demostraciones de concepto”, de que algo podría ser útil u ofrecer ventajas. La

institución educativa-de investigación no tiene como finalidad crear productos

comerciales. La empresa que los cobijó o alentó muestra reticencia a invertir recursos

y tiempo en algo “que podría resultar, o fracasar.” Los inversionistas y capitales de

riesgo podrían hacerlo, pero son pocos en nuestro país. Las incubadoras de empresas

y negocios incipientes podrían apoyar en esta labor importante de transferir “el estado

Page 96: Telecomunicaciones y Computación

96

del arte” (lo que se acaba de inventar, lo que está en las revistas técnicas y en las

patentes) al “estado de la práctica” (lo que es comercial).

Las empresas o dependencias prefieren comprar software que mandar hacerlo

Si necesito una aplicación informática, lo primero que se me ocurre es ver si existe en el

mercado. Porque normalmente costará mucho menos que desarrollarla. Y además, ya

está probada (eso es lo que me aseguran). Si no existe, o tiene un precio elevado, o

conlleva cuantiosos pagos periódicos por mantenimiento, actualización o ajuste a la

medida, existe la posibilidad de desarrollarla. En ese caso, si cuento con un grupo de

desarrollo de aplicaciones, se la encargaré a ellos. La opción de convenir con una

universidad o centro de investigación o desarrollo para que la manufacture a mi medida,

va en tercer lugar.

Por otro lado, el investigador o profesor de un centro de estudios o de investigación no

tiene mucha idea de lo que se requiere “allá afuera”, por lo que es proclive a investigar o

desarrollar temas que él cree que podrían servir, o que le gustan, o simplemente son los

temas que conoce y domina. Pero no necesariamente los que se requieren “allá afuera”.

Así es (en parte) como surge el distanciamiento entre los sectores productivo y el de

investigación (en computación). Uno quiere resolver su problema pronto (proclive a

comprar), otro quiere seguir desarrollando lo que ha venido haciendo, o lo que está de

moda (inclinado a no preguntar qué se necesita).

Para muchas dependencias, comprar está prohibido. Hay que rentar. Así no se puede

desarrollar una industria del software mexicana. ¿Qué hubiera pasado con el desarrollo

de la aviación en Brasil si el gobierno exigiera a sus dependencias rentar aviones en vez

de comprarlos?

Para muchas dependencias, la adquisición de bienes informáticos está ligada a

departamentos poco versados en esta área, por ejemplo, a Oficialía Mayor. Se tiene la

impresión errónea de que comprar hardware o software es tan sencillo como comprar

papel o lápices. Y nadie piensa en innovar, en apoyar los desarrollos mexicanos

recientes.

Se debe otorgar un porcentaje de contratos públicos a centros de investigación

Page 97: Telecomunicaciones y Computación

97

Estados Unidos obliga a las grandes dependencias gubernamentales que otorgan

contratos a empresas, a que “5% de tus contratos deben ir a empresas pequeñas o de

minorías”. Porque de otro modo, las empresas pequeñas nunca se desarrollarían. Sugiero

que el gobierno mexicano imponga una política similar que derive estos recursos a las

escuelas y centros de investigación.

Contratación de mano de obra. Debe evitarse la práctica de que contratos de

dependencias públicas a universidades públicas sean en realidad contratación disfrazada

de personal. “Te contrato para que me ofrezcas 20 programadores, diez analistas y tres

líderes de proyecto. Pero yo te digo a quiénes contratar y qué sueldos pagarles. Y yo los

dirijo. Tú eres solamente el intermediario.” Los centros de investigación deben aportar

valor agregado real al trabajo.

Envejecimiento y obsolescencia de la planta docente y de investigación

El docente-investigador teme jubilarse, perder las “becas” que su institución le otorga, y el

estímulo del SNI. Literalmente, “se muere en la raya” (en su cubículo). No entra sangre

nueva a la institución. Si a esta situación le agregamos el alejamiento entre lo que se

enseña (o investiga) y lo que se requiere (ya referido en la sección “Distanciamiento entre

lo que se enseña y lo que se usa”), existe la tendencia de que cada vez más el posgrado

(sobre todo el doctorado) en las instituciones públicas tienda a formar egresados con

conocimientos obsoletos o poco útiles para el sector productivo. Estos egresados

probablemente se dedicarán, en el mejor de los casos, a hacer investigación, o a la

docencia. Pero casi el único mercado en ese rubro es la educación, y está saturado

(precisamente por la reluctancia del docente a jubilarse). No hay plazas. Esto crea una

retroalimentación que hace estable ese distanciamiento indeseable.

En principio, estos egresados son exportables (formar científicos para otros países).

Pero… allá la competencia es mayor… Además, qué caso tiene invertir para que otros se

beneficien…

Poco interés del sector académico-de investigación en proteger sus desarrollos e innovaciones

Page 98: Telecomunicaciones y Computación

98

En México, el Instituto Mexicano de la Propiedad Industrial es el organismo público

encargado de proteger los derechos de propiedad industrial y otorgar a sus titulares la

seguridad jurídica necesaria. Desarrolla estas funciones mediante la emisión de:

• Patentes que protegen una obra original (que no forme parte ya del estado de la

técnica) y no trivial (que no sea un cambio o modificación que una persona

versada en el arte o campo de la patente pudiese hacer) durante 20 años.

• Modelos de utilidad para proteger mejoras, cambios o adaptaciones en la

configuración, estructura, forma o disposición que tenga novedad y aplicación

industrial, a invenciones previamente patentadas. Su vigencia es de 10 años.

• Diseños industriales que se refieren a cambios en la ornamentación de un

producto. Puede ser un dibujo o modelo. Su vigencia es de 15 años.

• Dibujos industriales cuando se incorpora al producto industrial alguna combinación

de figuras, líneas o colores para darle un aspecto peculiar. Mismo trato que para

los modelos de utilidad.

• Modelos industriales cuando el aspecto que se modifica en el producto industrial

influye en su forma tridimensional, sin implicar efectos técnicos, y puede servir de

patrón para la fabricación de un producto con apariencia especial. Mismo trato que

para los modelos de utilidad.

• Signos distintivos que son marcas (todo signo visible que se utiliza para distinguir e

individualizar un producto o servicio de otros de su misma clase o especie), avisos

y nombres comerciales.2

Por falta de espacio, de estos temas hablaré solamente de las patentes.

En general, el docente-investigador muestra poco interés en patentar lo que

inventa o descubre, por varias razones.

• Primera, su entrenamiento previo, y por ende su énfasis, es en publicar. Es en lo

que tiene más experiencia, y lo que ha visto que sus profesores y colegas hacen.

Desafortunadamente, lo que se publica ya es del dominio público, y después de un

corto tiempo (un año, generalmente) ya no es patentable. Patentar es un proceso

2http://www.impi.gob.mx/, consultada el 1 de noviembre de 2014.

Page 99: Telecomunicaciones y Computación

99

lento, no seguro y costoso. Es más fácil publicar que tratar de proteger su

descubrimiento.

• Obtiene sus recompensas o satisfacciones de los estudiantes que gradúa, de los

cursos que imparte, de los congresos en que participa y de los artículos que

publica.

• El SNI evalúa más o menos de la misma manera una publicación que una patente.

Si son patentes en trámite no las toma en cuenta.

• Además, patentar requiere del apoyo de su institución, apoyo económico para

contratar abogados con especialidad en patentes, que le guíen en los trámites.

• Quizá la patente sea parcialmente objetada (porque el examinador de patentes

encuentra ciertos conflictos con otras patentes ya otorgadas, por ejemplo), y habrá

que reescribirla para atender las observaciones. Más espera, más gastos e

incertidumbre.

• Tal vez su institución no tenga un departamento legal especializado en patentes,

lo que deja al inventor solo.

• Otro aspecto importante a considerar es que, aun con una patente en el bolsillo, si

no se explota comercialmente, no ayuda mucho. Quizá la pueda vender a algún

interesado. Después de 20 años, la invención pasa al dominio público.

• Además, ¿quién es el propietario de la patente cuando ésta se otorgue?

Legalmente, es de la institución para la que labora, la que le proporcionó los

apoyos, instrumentos, equipo, laboratorio, colegas y estudiantes que le ayudaron.

Quizá su institución no le otorgue participación en su usufructo (si es que llega a

haberlo).

• Probablemente la invención no la hizo él solo, y deba compartir la paternidad del

invento con otros colegas (y tal vez con funcionarios o jefes con los que debe ser

cortés y quedar bien).

En cuanto al software, hay otras consideraciones. En México el software no es

patentable. La protección que se puede obtener es registrar la “obra” ante el Instituto

Nacional del Derecho de Autor (Indautor), lo cual es fácil, rápido y barato. La protección

se otorga “de buena fe”, la autoridad cree (supone, confía) que quien registra la obra es

en realidad el autor, y que la obra es inédita. No hay revisiones ni comparación con obras

previas. Sólo en caso de controversia se revisa más a fondo. Los derechos caducan (y la

Page 100: Telecomunicaciones y Computación

100

obra pasa al dominio público) 100 años después de la muerte del autor, y no 20 años

después de registrada, como en el caso de las patentes. El SNI valora una obra registrada

con “derechos de autor” si se demuestra su uso externo (no por la institución académica o

estudiantes), y si está bien documentada. Todo esto hace que el software reciba

protección más fácil y expedita. Sin embargo, la Ley Federal del Derecho de Autor no

protege:

• Las ideas en sí mismas, las fórmulas, soluciones, conceptos, métodos,

sistemas, principios, descubrimientos, procesos e invenciones de cualquier tipo

• El aprovechamiento industrial o comercial de las ideas contenidas en las obras

• Los esquemas, planes, o reglas para realizar actos mentales, juegos o

negocios3

Distracciones o modas que conviene ver con precaución

Quizá no sean obstáculos o riesgos tecnológicos, sino más bien “modas” o tendencias

que requieren analizarse con cuidado, sopesar sus beneficios y ventajas contra sus

desventajas y costos, y compararlas contra otras maneras de lograr lo mismo. A menudo

una “propaganda viral” o difusión masiva y sostenida puede inducirnos a seguir algunos

caminos o tecnologías que probablemente no sean “obviamente lo mejor” para nosotros.

Por falta de espacio mencionaré tan sólo dos.

Cuidado: virtualización, cómputo en las nubes

En lugar de adquirir bienes informáticos y tener personal que los administre, atienda,

desarrolle las aplicaciones y proteja (de virus, infiltraciones maliciosas, pérdida de

información, etcétera), la idea es adquirir servicios de cómputo de modo que los usuarios

3http://www.indautor.gob.mx/preguntas/preguntas_generales.html, consultada el 1 de noviembre

de 2014).

Page 101: Telecomunicaciones y Computación

101

puedan acceder a ellos en la nube de internet. La información y su procesamiento se

llevan a cabo en servidores remotos, a los que se accede vía internet. Disminuyo mis

inversiones, mis gastos fijos y sólo rento y pago los servicios que uso. Suena atractivo,

sobre todo si mi negocio o actividad no es el procesamiento de datos, sino una actividad

económica muy distinta. Rentar en vez de comprar. Ciertamente existe esta disyuntiva en

otras áreas cotidianas. ¿Rentar o comprar un automóvil? ¿Rentar o comprar una casa?

¿Rentar (o comprar) un avión, o adquirir un servicio (un boleto de ida y vuelta) para ir a

Boston? Para servicios esporádicos, temporales, rentar es mejor. Si mi uso es cotidiano,

comprar se vuelve una opción atractiva. (Ciertamente, el que renta debe tener alguna

ganancia, obtenida de sus arrendatarios.) Hay otras consideraciones para escoger la

mejor alternativa. No abundaré en ellas, sólo daré las principales ventajas y desventajas.

Ventajas:

• Escalabilidad. Para picos de trabajo, puedo aprovisionarme de más recursos. Sólo

pago lo que consumo. Útil si mi carga de trabajo varía sustancialmente

• Menor inversión para empezar a trabajar

• Acceso universal. Puedo hacer mis trabajos de procesamiento de información

desde cualquier parte del mundo. Útil si tengo sucursales en muchos lugares

• Seguridad. Los datos estarán más seguros “en la nube”, en manos de personas

expertas (es lo que me dicen los proveedores del servicio), que los protegerán de

ataques maliciosos, pérdida de información

• Disponibilidad. El servicio seguramente no se suspenderá, está en manos de

personas capaces, que le dan un mantenimiento adecuado. Además, tienen

máquinas redundantes, protección contra fallas de energía, etcétera

• Software siempre actualizado. Útil si necesito usar las últimas versiones.

Desventajas:

• Dependencia de los proveedores de servicios. Pongo mi capacidad de

procesamiento en manos del proveedor

• Los datos sensibles de mi negocio u operación están fuera de mi control. Podrían

caer en malas manos

Page 102: Telecomunicaciones y Computación

102

• Requiero acceso a internet. Los canales para que la información viaje entre el

proveedor y el usuario son vulnerables a espionaje. Usar https u otro protocolo

seguro disminuirá la velocidad de transmisión

• Si necesito un servicio (un software especializado, digamos) que no está

disponible con ese proveedor, podría tardar mucho tiempo en obtenerlo (quizá

nunca)

• El proveedor hará cambios frecuentes en sus interfaces, por lo que tendré una

curva de aprendizaje lenta

Para el desarrollo del campo de la computación y sus aplicaciones en México,

ciertamente el cómputo en las nubes conlleva el riesgo de convertirnos en meros usuarios

de la tecnología, de ser estériles en la creación de nuevos algoritmos, aplicaciones,

invenciones, mejoras y abrir nuevos caminos en la informática. ¿Qué vamos a crear, a

inventar, a desarrollar, si todo lo compramos (lo rentamos) ya hecho? Si solo compramos

motores, si solo rentamos aviones, pronto nos quedaremos sin posibilidad de hacerlos,

pues los avances de esa tecnología ya estarán fuera de nuestro alcance. “Ya se fue el

tren.” Exagero, pero habrá que ponderar las ventajas y desventajas, los riesgos

tecnológicos.

Cuidado: procesamiento masivo de datos. Grandes computadoras paralelas

Existen computadoras enormes, supercomputadoras, con gran capacidad de

procesamiento en paralelo y formidables dispositivos de almacenamiento secundario. Son

costosas, centralizadas. Se usan para cómputos intensivos, para manejar una gran

cantidad de datos que requieren una gran cantidad de procesamiento, y donde las cargas

de trabajo necesitan repartirse en nodos más pequeños que a menudo requieren

compartir datos. Para procesamiento masivo, porque los cálculos son tales que necesitan

de fuerte acoplamiento (se generan muchos resultados parciales que con frecuencia se

intercambian entre los diferentes procesadores, antes de tener el problema o cálculo

resuelto). Estas máquinas son muy útiles cuando realmente se necesitan. Además, se

cree que tener una de ellas da gran prestigio. Antes de llevar a cabo una inversión

cuantiosa en un producto complejo que requerirá mucho mantenimiento, energía eléctrica,

Page 103: Telecomunicaciones y Computación

103

servicios y actualización continua, conviene reflexionar si su adquisición es inevitable.

¿Realmente hay una gran fila de usuarios esperando a que la institución tenga una gran

computadora? ¿Ha habido muchos usuarios que han estado usando (y continúan

haciéndolo) durante bastante tiempo otras máquinas enormes de manera remota, y ahora

necesitan una propia?

Supongamos que tenemos un proceso complejo, que maneja muchos datos y que

quizá requiere cómputo en la nube (o virtualización), o una supercomputadora. La

siguiente guía puede ayudar a discernir qué tecnología conviene usar para cuál tipo de

aplicaciones.

Quizá agregando memoria principal adicional, o más memoria secundaria (discos),

¿caben mis datos en una PC o en un servidor?

• Sí, sí caben

¿La velocidad de cómputo que me ofrece es adecuada, aceptable?

o Sí. ! Use la PC o servidor

o No. El procesamiento es muy lento

¿Se debe a que se requiere un procesamiento intenso, mientras que los datos se

mueven poco?

1. Sí. Considere usar la unidad gráfica del procesador, o GPU. Se puede programar

con CUDA, variante del lenguaje C. Es adecuada para el cómputo intensivo de

datos (simulaciones, descifrar contraseñas, seguridad...) y mucho más barata que

otras opciones. Sin embargo, no es adecuada para manejar bases de datos y

otros problemas donde la tardanza de una aplicación está dominada por

instrucciones de entrada y salida (típicamente, lecturas y escrituras al disco

Winchester).

2. No. Es mucho el tráfico de datos.

¿Puede rehacer su algoritmo, para tener menos lecturas de sus datos? Quizá dividir

sus datos en lotes que se van procesando secuencialmente.

a) Sí. Rehaga su algoritmo. ! Use la PC o servidor.

b) No. Necesita varios procesadores. ! Vaya al inciso 2.

• No caben. Se requieren entonces varios procesadores con memoria externa

Los distintos procesos, ¿interactúan mucho, intercambian muchos datos entre sí?

o No. No se comunican entre sí, o lo hacen muy poco. ! Use una red de PCs

con Hadoop y MapReduce. En un gran porcentaje de casos, esto compite muy

favorablemente con una gran máquina paralela centralizada. Y como la

Page 104: Telecomunicaciones y Computación

104

dependencia probablemente ya tenga una red de PCs, este tipo de cómputo

requiere poca inversión adicional.

o Sí. Aunque cada uno tenga una porción de datos en disco para procesar, los

procesos locales a una máquina necesitan intercambiar datos parciales

frecuentemente con procesos en otras máquinas.

¿Pueden redefinirse (reescribirse, cambiar el algoritmo) estos procesos para que

interactúen con menos frecuencia? En otras palabras, ¿puedo cambiar el sistema

fuertemente acoplado, a otro con componentes débilmente acoplados?

• Sí. ! Use Hadoop con MapReduce

• No. No es posible redefinirlos. Use una de las siguientes soluciones (tecnologías):

! Obtenga acceso a una supercomputadora que ya existe

!Use cómputo en la nube

! Adquiera una supercomputadora

Las grandes propuestas

Aquí presento ideas que abordan aspectos globales de nuestra disciplina, líneas de

acción para un futuro cercano.

Creación de varios centros de investigación

En colaboración quizá con instituciones educativas, con gobiernos estatales o con

industrias o secretarías de gobierno, se deben establecer varios centros de investigación

dedicados a aplicaciones de las comunicaciones y de la computación. Propongo apoyo

federal a la creación de centros de investigación orientados a una industria. Los

matemáticos tienen el CIMAT, los astrofísicos el INAOE, ¿y los computólogos? ¿Y los de

comunicaciones eléctricas?

Crear estos centros en parques tecnológicos o áreas de desarrollo industrial es una

buena alternativa.

Además de la creación de nuevos centros, es deseable revitalizar los ya existentes.

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 105: Telecomunicaciones y Computación

105

Revitalización de centros de investigación dedicados a una industria o área

productiva

Propongo revitalizar este tipo de centros (que han caído en el descuido), y crear otros

nuevos, por ejemplo:

• El Instituto de Investigaciones Eléctricas, dedicado a la industria eléctrica

• El Instituto Mexicano del Petróleo, para la industria petrolera

• El Colegio de Posgraduados y la Universidad Chapingo, dedicados a la agricultura

• El Instituto Mexicano de las Comunicaciones (extinto)

• El Centro de Investigación de Teléfonos de México (privado; extinto)

Reestructurar el modo de evaluar del SNI

• La evaluación de la investigación aplicada, la transferencia de tecnología y la

innovación deben estar en manos de personas diestras en estos temas, no de teóricos

de otras disciplinas

• Dar el peso debido a los desarrollos tecnológicos. Otorgar mucha más importancia a

las patentes adquiridas de lo que se les da actualmente. Dar peso a las patentes

solicitadas. Considerar la participación en congresos de importancia (la mayor parte

de los desarrollos de la computación se dan a conocer en congresos, dada la rapidez

con se generan conocimientos en nuestra disciplina)

Creación del área VIII del SNI en tecnología de las comunicaciones e informática

La computación, la informática y las comunicaciones son la rama más grande de la

ingeniería, y tienen su propia dinámica y relación con la industria. Por ejemplo, los

desarrollos tecnológicos y prototipos son más numerosos. Es muy común participar en

congresos prestigiados, que tienen un tiempo de publicación corto (necesario en un

campo como el nuestro, donde “los conceptos, métodos y dispositivos cambian

rápidamente”). Merecen tener sus propios mecanismos de evaluación dentro del SNI,

formando una nueva área.

Graciela Dolores Avila Quezada
Page 106: Telecomunicaciones y Computación

106

El gobierno federal debe reevaluar sus políticas en informática

Para muchas dependencias, informática es algo parecido a un servicio, depende de la

Oficialía Mayor, que da reglas de qué software comprar, cómo debes trabajar… No

fomenta la creatividad. Parecería que el software y el hardware son simples productos a

granel, y que comprarlos no requiere conocimiento del campo, sino más bien ser un buen

contador o administrador. Se favorece la renta en vez de la compra. Favorece la

contratación de servicios de cómputo (outsorcing). Ellos guían el desarrollo informático de

la institución, y la renta o compra de servicios (“los prefiero importados, son más

seguros”).

Page 107: Telecomunicaciones y Computación

107

SISTEMAS INTELIGENTES.

PRESENTE Y FUTURO

Enrique Sucar Succar*

En este capítulo se presenta un panorama general de los sistemas inteligentes, incluida

una definición de lo que es inteligencia artificial y sus principales áreas de desarrollo. Se

analiza su historia, su estado actual y las perspectivas futuras, se presentan los retos

actuales y se destaca su importancia para resolver los grandes problemas nacionales.

SISTEMAS INTELIGENTES

Los sistemas inteligentes son aquellos que exhiben ciertas características que asociamos

con la inteligencia humana, como entender el lenguaje natural, analizar imágenes,

aprender, razonar, planear, etcétera.

La inteligencia artificial (IA) estudia los sistemas inteligentes desde dos puntos de

vista: científico, entender la inteligencia; e ingenieril, desarrollar máquinas inteligentes.

En los inicios de la IA surgió una pregunta: ¿cómo sabremos cuando una

computadora sea inteligente? Alan Turing, uno de los pioneros de la IA, planteó una

ingeniosa forma de saberlo, conocida como la prueba de Turing.

PRUEBA DE TURING

* Coordinación de Ciencias Computacionales, Instituto Nacional de Astrofísica, Óptica y

Electrónica.

Page 108: Telecomunicaciones y Computación

108

Supongamos que una persona, el interrogador, se comunica mediante teletipos (en la

actualidad sería por internet) con otra persona y una computadora. El interrogador puede

hacer cualquier pregunta a la otra persona y a la computadora, y recibe las respuestas en

una pantalla (no las puede ver). Si después de cierto tiempo de intercambio con ambos, el

interrogador no puede distinguir entre la persona y la computadora, podríamos decir que

la computadora es “inteligente”, o que al menos aparenta serlo.

Figura 1. Prueba de Turing. (fuente y créditos) El interrogador (izquierda) se comunica con una persona (derecha arriba) y una

computadora (derecha abajo). Si después de cierto intercambio de mensajes no

puede distinguir a la computadora de la persona, se podría considerar que la

computadora es “inteligente”.

En años recientes se ha dado cierta controversia respecto a esta prueba. Por un

lado, puede ser relativamente fácil engañar al interrogador, en particular en dominios

restringidos, dando una apariencia de inteligencia. Por otro, no considera aspectos

importantes de la inteligencia, como la percepción visual y el reconocimiento de voz, entre

otros.

Page 109: Telecomunicaciones y Computación

109

Actualmente la IA incluye una serie de técnicas que contribuyen a desarrollar

sistemas más poderosos con ciertas capacidades que se podrían considerar inteligentes,

y por lo pronto se ha olvidado hasta cierto punto desarrollar una máquina con una

inteligencia como la de los humanos en un sentido amplio.

ÁREAS DE LA INTELIGENCIA ARTIFICIAL

La inteligencia artificial se enfoca principalmente en las siguientes áreas de investigación:

• Búsqueda y juegos: estrategias para realizar búsquedas eficientes en espacios

muy grandes, destacando el uso de heurísticas para acelerar las búsquedas.

Desarrollo de sistemas para resolver juegos, como el ajedrez, destacando que una

computadora ya venció al campeón mundial de este juego.

• Representación del conocimiento: esquemas para modelar el conocimiento

humano y hacer inferencias basadas en este conocimiento, resaltando los

modelos basados en lógica y en probabilidad.

• Razonamiento automático: sistemas que pueden resolver problemas complejos

con base en diversas formas de inferencia automática, incluidos lenguajes de

programación como Prolog.

• Visión y análisis de imágenes: análisis de imágenes para interpretar su contenido,

como la recuperación de profundidad, el análisis de movimiento y el

reconocimiento de objetos, entre otros.

• Reconocimiento de voz y procesamiento de lenguaje natural: desarrollo de siste-

mas para transformar una señal de voz en palabras, así como para analizar e

interpretar textos en lenguaje humano como español, inglés, etcétera.

• Planeación: técnicas que permiten establecer una serie de pasos o estrategias

para alcanzar cierta meta o lograr ciertos objetivos, considerando aspectos como

minimizar el tiempo o el costo.

• Tutores inteligentes: desarrollo de esquemas de enseñanza que se adaptan a las

necesidades y aptitudes de los estudiantes, emulando un tutor humano.

Page 110: Telecomunicaciones y Computación

110

• Aprendizaje: sistemas que mejoran su rendimiento con la experiencia; en particular

se ha enfocado a construir modelos generales a partir de datos, lo que se conoce

como minería de datos.

• Robótica: desarrollo de máquinas que pueden percibir e interactuar con el

ambiente en forma autónoma. En años recientes se ha priorizado el desarrollo de

robots de servicio que puedan asistir a las personas en diversas tareas; así como

el desarrollo de vehículos autónomos.

• Sistemas multiagentes: desarrollo de sistemas distribuidos en los que varios

agentes interactúan, ya sea de forma colaborativa o competitiva.

• Modelos bioinspirados: sistemas inspirados en la naturaleza, como las redes

neuronales que se modelan de forma simplificada en las redes de neuronas, o los

algoritmos genéticos que simulan el proceso de la evolución natural.

• Cómputo afectivo: sistemas que intentan interpretar el estado afectivo de las

personas o emular un comportamiento afectivo; enfocado principalmente a tratar

de mejorar la interacción entre humanos y computadoras en ciertas aplicaciones,

como educación y salud.

BREVE HISTORIA

Podemos distinguir cuatro grandes etapas en la evolución de los sistemas inteligentes:

Mundos artificiales (décadas 1950 y 1960): los principios modernos de la IA se

enfocaron a desarrollar sistemas de cómputo simbólico basados en deducción lógica,

orientados a resolver problemas en mundos artificiales, como el de los bloques, el ajedrez

y los teoremas matemáticos. Uno de los anhelos en esa época era desarrollar un sistema

general de resolución de problemas que pudiera aplicarse a una gran variedad de

dominios.

Sistemas específicos (décadas 1970 y 1980): cuando los científicos se

convencieron de que era muy difícil tener sistemas inteligentes genéricos, orientaron la IA

al desarrollo de sistema específicos que fueran muy eficaces para cierto dominio, basados

en el conocimiento de dicha aplicación, los llamados sistemas expertos. Estos sistemas

se basan en técnicas de razonamiento automático o motores de inferencia, de forma que

Page 111: Telecomunicaciones y Computación

111

el mismo procedimiento se puede aplicar a diversos problemas simplemente cambiando la

base de conocimiento.

Pan con pasas (décadas 1990 y 2000): las técnicas de IA empezaron a integrarse

a muchas aplicaciones prácticas, proveyendo de elementos importantes a sistemas de

cómputo complejos. Marvin Minsky, otro de los pioneros de la IA, les llamó a estos

sistemas “pan con pasas”, donde las pasas eran las partes inteligentes dentro de otros

elementos de software (el pan).

IA ubicua (década 2010): actualmente las técnicas de IA están en prácticamente

todos los dispositivos electrónicos que utilizamos a diario. Por ejemplo, algoritmos de

reconocimiento de caras y sonrisas en las cámaras digitales, sistemas de reconocimiento

de voz en los teléfonos celulares, sistemas de planeación de rutas viales, robots que

aspiran la casa, entre muchas otras.

PRESENTE

En la actualidad los sistemas inteligentes ayudan a resolver diversos problemas que

representan grandes retos. Entre ellos destacan los siguientes:

• Robots de servicio: robots móviles que auxilian a las personas en diversas tareas,

desde robots aspiradoras y cortadores de pasto, hasta aquellos que ayudan a

personas de la tercera edad y exploran otros planetas.

• Reconocimiento de personas: sistemas que pueden identificar personas y

reconocerlas, por ejemplo, sistemas de seguridad, identificación e interacción

humano-computadora, entre otras aplicaciones.

• Tutores inteligentes: sistemas que ayudan a las personas a aprender acerca de

diversos tópicos, adaptando su método de enseñanza a las necesidades

particulares de cada persona.

• Minería de datos: software que puede extraer conocimiento no obvio y útil de

grandes bases de datos para auxiliar a las empresas y gobiernos en la toma de

decisiones.

Page 112: Telecomunicaciones y Computación

112

• Vehículos autónomos: vehículos que se pueden trasladar de forma autónoma en

carreteras y ciudades con base en la información de sus sensores. Se espera que

ésta sea la forma de transporte del futuro.

• Diagnóstico médico: sistemas que ayuden en el diagnóstico y tratamiento de

enfermedades.

• Bioinformática: técnicas para ayudar en el análisis de datos biológicos, por

ejemplo, para determinar las funciones de los genes en el genoma de plantas,

animales y humanos; así como para entender y combatir enfermedades complejas

como el cáncer y el sida.

• Cómputo afectivo: sistemas que pueden interpretar emociones humanas y simular

cierto comportamiento afectivo. Esto es importante para interfaces humano-

computadora más atractivas y naturales, por ejemplo, en sistemas de enseñanza,

entretenimiento y robots de servicio.

FUTURO

Aun cuando se han logrado avances importantes, todavía quedan por resolver grandes

retos para alcanzar el sueño de los iniciadores de la IA: máquinas realmente inteligentes.

Algunos de estos retos son los siguientes:

• Sistemas que puedan entender y conversar en un lenguaje natural lo más parecido

al de los humanos

• Sistemas de visión que puedan analizar y reconocer diversos objetos en imágenes

de forma general y bajo condiciones cambiantes

• Sistemas que aprendan de su interacción con el ambiente de forma continua y

durante mucho tiempo

• Sistemas que tengan sentido común

• Sistemas que posean sentimientos, conciencia

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 113: Telecomunicaciones y Computación

113

(a) (b)

(c) (d)

Figura 2. Ejemplos de aplicaciones de la inteligencia artificial. a) Robot de servicio que ayuda a personas de la tercera edad; b) sistema de visión

que reconoce personas; c) vehículo autónomo en Marte; d) modelo para representar

las relaciones entre fármacos (óvalos verdes) y mutaciones (óvalos naranja) en el

virus del sida.

Estos problemas presentan grandes retos que motivan a los investigadores a seguir

trabajando para poder entender la inteligencia y desarrollar mejores sistemas inteligentes.

Page 114: Telecomunicaciones y Computación

114

Los sistemas inteligentes son una pieza clave para resolver muchos de los grandes

retos nacionales y mundiales:

1. Seguridad: sistemas de visión artificial, vehículos autónomos, planeación

2. Biomedicina: sistemas de diagnóstico, análisis de imágenes médicas, minería de

datos

3. Educación: tutores inteligentes, sistemas para búsqueda de información, laboratorios

virtuales

4. Energía: reconocimiento de patrones, aprendizaje, sistemas de apoyo en la toma de

decisiones

5. Información: sistemas automáticos para la búsqueda y análisis de grandes volúmenes

de información multimodal

Para poder enfrentar estos importantes retos, México debe redoblar esfuerzos en

investigación, desarrollo e innovación de sistemas inteligentes en combinación con otras

áreas, como robótica, computación, energía y bioinformática, entre otras.

En particular proponemos la creación de un centro de investigación multidisciplinario

en sistemas inteligentes que coadyuve en la solución de los grandes retos nacionales.

REFERENCIAS Minsky, M. (1988). The Society of Mind, Nueva York, Touchstone, 1988.

Russell, S. y Norvig, P. (2013). Artificial Intelligence: A Modern Approach, Essex,

Pearson.

Turing, A. (1951). The Imitation Game, York, R. U.. Mind, 1951.

Page 115: Telecomunicaciones y Computación

115

UNA NUEVA ERA DE LA COMPUTACIÓN EN MÉXICO.

OPORTUNIDADES Y ÁREAS ESTRATÉGICAS DE ACCIÓN

Fabián García Nocetti*

ANTECEDENTES

La computación es una disciplina de carácter estratégico para el desarrollo nacional.

México es un gran usuario de estas tecnologías, así como de sus tecnologías

relacionadas y esta tendencia seguirá aumentando a lo largo del presente siglo. La

infraestructura educativa y de servicios con que contamos hace posible su

comercialización, asimilación y uso, con grandes beneficios sociales. Sin embargo, hasta

ahora México ha jugado en papel muy limitado en el proceso de creación de las

tecnologías computacionales, y por lo mismo se ha beneficiado muy poco del gran valor

agregado del que disfrutan las naciones que han hecho un esfuerzo por cultivarlas y

desarrollarlas. Para que México participe de esta riqueza es indispensable que la

investigación en estas especialidades científicas y tecnológicas se fortalezca

considerablemente, y para acceder a la innovación y al desarrollo económico de la

sociedad, se requiere fomentar una mayor interacción dinámica con la industria y el

Estado. En particular, es necesario que el carácter estratégico de la computación se

refleje en la estructura de las instituciones científicas y tecnológicas del país.

Durante muchos años la comunidad de computación en México ha sido pequeña y

ha estado fragmentada, lo que ha frenado su crecimiento y consolidación. Sin embargo,

en los años recientes la comunidad ha hecho un esfuerzo muy significativo para

integrarse y proponer políticas y estrategias de desarrollo. Una de estas acciones fue la

formación de la Red Mexicana de Investigación y Desarrollo en Computación (Remidec)1

en la que participan más de 550 doctores en computación y disciplinas relacionadas,

*1turing.iimas.unam.mx/~remidec.

Page 116: Telecomunicaciones y Computación

116

trabajando en México y el extranjero, tanto en la academia como en los sectores público y

privado. Asimismo, la UNAM, con la participación de la Remidec, organizó con mucho éxito

el congreso 50 Años de la Computación en México2 con el fin de analizar el estado y

perspectivas de esta disciplina, y proponer políticas para su desarrollo y consolidación.

ESTADO ACTUAL Y PERSPECTIVAS

Sin duda alguna la aportación más importante de la academia fue la introducción de la

tecnología computacional en México. Independientemente de la estrategia de

comercialización emprendida por el gobierno y las grandes empresas de Estados Unidos

cuando esta tecnología se hizo una realidad, la introducción de la computación en México

no hubiera sido posible sin instituciones académicas abiertas al pensamiento libre y

comprometidas sin reservas con el desarrollo de nuestro país, que tuvieran además la

tradición y los recursos humanos para llevar a cabo una empresa de esta magnitud. La

UNAM fue sin duda alguna el núcleo inicial de la actividad computacional en México, por el

apoyo en esta disciplina que se brindó a la investigación en una gran variedad de áreas

científicas, por el inicio de la actividad educativa y la formación de recursos humanos y

por hacer disponibles los servicios de cómputo a la comunidad docente y estudiantil; de

ahí surgieron las primeras actividades de investigación en ciencias de la computación y de

desarrollo de la tecnología computacional en México, y también porque se habilitó la

posibilidad de automatizar los servicios administrativos tanto de la academia como del

gobierno y las empresas del sector privado que iniciaron el uso de esta tecnología en

nuestro país.

Asimismo, la academia ha sido una de los impulsoras de la tecnología

computacional en las diversas olas que han surgido a lo largo de los últimos 50 años,

primero con la introducción de la tecnología con la instalación de la primera computadora;

posteriormente, durante los años sesenta y setenta con la introducción de las grandes

máquinas para negocios; y después, a lo largo de los ochenta, con el auge de las

minicomputadoras y las computadoras personales. También fue clave en la introducción

de la tecnología de redes de computadoras y el ingreso de México a la era de internet. Un

2www.congreso50.unam.mx.

Page 117: Telecomunicaciones y Computación

117

capítulo de gran relevancia en esta historia fue la introducción del supercómputo en

México, y el gran impulso que se dio con esta tecnología a la investigación científica en

áreas tan diversas como la astronomía, la física y la química, la geofísica y de manera

más reciente en la biología molecular y la ingeniería genética, entre muchas otras.

El sector académico también ha jugado un papel muy importante en la educación y

formación de recursos humanos en esta disciplina científica y tecnológica, desde la

fundación del Departamento de Cálculo Electrónico en la Facultad de Ciencias en 1955,

cuando se ofrecieron los primeros cursos formales en temas computacionales en México.

Posteriormente, la maestría en computación del IIMAS fue el primer programa de posgrado

en computación establecido formalmente en nuestro país. También a nivel de licenciatura,

la UNAM ha tenido una gran actividad y a lo largo de los años ha fundado carreras

profesionales relacionadas con computación e informática, para apoyar las necesidades

administrativas del sector, atender las necesidades técnico-administrativas y formar

recursos humanos dirigidos a la investigación y la academia. A lo largo de las últimas

décadas, estos recursos humanos han sido muy importantes para hacer posible que los

beneficios de la tecnología computacional hayan llegado al gobierno, a los sectores

productivos y de servicios, a la educación y a la sociedad en general. La academia ha

sido también un núcleo central para la construcción de aplicaciones de la tecnología

computacional dirigidas tanto al apoyo de la investigación científica como al desarrollo de

proyectos de ingeniería, así como en la creación de proyectos tecnológicos dirigidos al

gobierno, la industria y los servicios. Esta actividad se ha llevado a cabo de manera

continua desde los inicios de esta disciplina hasta nuestros días.

Aun cuando la tecnología computacional ocupa a cientos de miles de mexicanos, y

que el funcionamiento del gobierno, los sectores productivos y la sociedad en general

dependen de esta tecnología, en términos generales el entorno nacional está dominado

por un esquema de comercialización en el que los grandes consorcios internacionales

introducen la tecnología y nuestro país es todavía un cliente pasivo que se limita a

asimilarla y utilizarla. Este entorno, que hemos vivido en México desde los inicios y que

prevalece hasta nuestros días, gira alrededor de un sistema en el que la tecnología

computacional, tanto de hardware como de software, se produce en los laboratorios de las

grande firmas internacionales y también, aunque en menor medida, en las universidades

tecnológicas de vanguardia en el mundo, en un ambiente en que las empresas

tecnológicas y la academia están estrechamente vinculadas. Estas empresas tienen una

red de comercialización sumamente extendida que vende la tecnología, la adecua a las

Page 118: Telecomunicaciones y Computación

118

necesidades específicas de los diversos clientes y ofrece el apoyo técnico para la

operación continua de los equipos y sistemas. Por su parte, los sectores productivos,

tanto en el gobierno como en la industria y los servicios, son compradores de tecnología y

desarrolladores de aplicaciones. En este contexto, el sistema educativo nacional produce

los recursos humanos necesarios para hacer operativa dicha infraestructura, es decir,

prepara a los vendedores, a los administradores del proceso tecnológico, a los

desarrolladores de aplicaciones específicas y a los técnicos de apoyo y de servicios. El

gobierno, por su parte, garantiza las condiciones para que este ciclo de comercialización

con sus insumos materiales y humanos se mantenga en condiciones operativas, y lo

mismo sucede en la prestación de servicios informáticos a la sociedad. El resultado de

este entorno es que la sociedad mexicana goza de los beneficios de la tecnología

computacional.

Sin embargo, la carencia de una tecnología propia y las limitaciones para participar

en el proceso de creación de tecnología, conllevan un precio muy alto que no hemos

dejado de pagar. Además del saldo negativo en la balanza de pagos por conceptos

relacionados con la propiedad intelectual, el gran valor agregado de la tecnología

pertenece a quien la produce, y la utilidad va decreciendo a lo largo de la cadena de

comercialización. Por lo mismo, independientemente de las grandes ganancias de los

representantes comerciales de las empresas tecnológicas internacionales, la situación de

dependencia en la que nos encontramos no permite que la riqueza derivada de la

tecnología se traduzca en mejores niveles de vida para la sociedad en general. Para

revertir esta situación es indispensable que México se convierta en un actor creativo y

participativo en el proceso de producción de tecnología computacional. No se trata de

sustituir importaciones, por supuesto, sino más bien de ser socio y contribuir en la

creación de productos con alcance local y global, y así participar de la riqueza que

conlleva la producción de tecnología.

La creación de alta tecnología es una tarea pendiente en México; la parte que le

corresponde a las universidades es proporcionar una infraestructura de investigación muy

sólida, con una amplia base de recursos humanos altamente calificados y con el entorno

adecuado para hacer investigación y tecnología computacional de punta.

México es una gran nación que requiere contar con una infraestructura científica y

tecnológica muy desarrollada; por esta razón, nuestro país representa un mercado muy

importante para la industria de la computación. Las grandes firmas mundiales están aquí,

compitiendo. El gobierno y el sector productivo proveen los recursos materiales y el marco

Graciela Dolores Avila Quezada
Page 119: Telecomunicaciones y Computación

119

institucional, y la academia los recursos humanos para que la tecnología computacional

nos llegue a todos. Todo esto alrededor de una industria de cómputo enfocada en la

comercialización y los servicios.

En este entorno, la historia de la computación en México ha sido, hay que decirlo,

la historia de cómo hemos adquirido y asimilado la tecnología. La instalación de la IBM-

650 en la UNAM hace 50 años no escapa a esta lógica. Hasta ahora hemos participado

sólo de forma muy modesta en el proceso creativo y, consecuentemente, hemos disfru-

tado de manera muy limitada de la riqueza que produce esta tecnología. Hoy quisiéramos

empezar a cambiar este estado de cosas; hay que comenzar a contar la historia de cuáles

han sido nuestras contribuciones científicas y tecnológicas, y de cómo hemos influido en

nuestra sociedad y el mundo.

El gran valor agregado está en las ideas y en cómo éstas se convierten en

productos y servicios. Lo que queremos es participar más ampliamente de la riqueza que

genera la tecnología computacional. Lo que queremos es que México deje de ser un

observador pasivo y se convierta en un actor genuino del proceso creativo. Esto lo

podemos lograr, como lo están haciendo otras naciones, cuya historia y tradición es

similar e incluso menos privilegiada que la nuestra.

RETOS Y ESTRATEGIAS A IMPULSAR

La creación de la Red Temática de Tecnologías de la Información y la Comunicación

(RedTIC) del Conacyt,3 así como la realización del taller para identificar los grandes retos

de investigación en TIC, organizado por la misma red, han contribuido de una manera muy

positiva al fortalecimiento y maduración de la comunidad, tanto desde el punto de vista de

su organización como en la definición de la agenda de investigación científica y

tecnológica a corto y mediano plazos. Es importante mencionar también que la Remidec y

la RedTIC están trabajando de manera coordinada y tienen una intersección significativa

de visiones y membresía, y que la acción en conjunto de estas redes está dando gran

ímpetu y energía al desarrollo de esta disciplina científica. Asimismo, el número de

investigadores y tecnólogos en computación y tecnologías relacionadas está en aumento

3http://www.redtic-conacyt.mx/.

Graciela Dolores Avila Quezada
Page 120: Telecomunicaciones y Computación

120

constante: por la importancia y visibilidad del área, por la proporción de este sector en el

sistema educativo en su conjunto, por el número de profesionistas y técnicos trabajando

en el sector y, por supuesto, por el tamaño del mercado de computación y

comunicaciones. Esto se ve reflejado en el número de estudiantes de posgrado en estas

disciplinas, y en particular del número creciente de doctores formados tanto por el sistema

educativo nacional como en el extranjero, por lo que se espera que la cantidad de

investigadores en la especialidad tendrá un crecimiento muy importante en los próximos

años, y posiblemente hasta bien entrado el siglo XXI. Durante los últimos cinco años, en

nuestra comunidad se ha desarrollado un importante esfuerzo por organizar e impulsar la

discusión colectiva y la conformación de grupos de investigación en torno a algunos

problemas estratégicos particularmente relevantes para México. En este último caso, la

primera etapa de discusión consistió en definir los “grandes retos” tal y como lo percibía

un subconjunto significativo de investigadores mexicanos, establecidos en el país o en el

extranjero.

De esa discusión surgieron los siguientes seis grandes retos, y cabe

señalar que estos planteamientos están centrados en la discusión alrededor de grandes

problemas que tienen una importante incidencia social nacional.

GR 1. Información relevante para la toma de decisiones: facilitar la recopilación de

datos y la adopción sistemática de TI como herramienta de apoyo para la toma de

decisiones y su evaluación, ayudando así a obtener conocimiento relevante, el cual tenga

efecto en la sociedad mexicana.

GR 2. TIC para biomedicina: mejoramiento de la salud de la población nacional: lograr que

los investigadores y profesionales mexicanos en biomedicina tengan las herramientas

computacionales adecuadas para resolver los problemas específicos que son relevantes

para mejorar la salud de la población en todo el país.

GR 3. TIC y la educación en el siglo XXI: gestionar el cambio e innovación en el sistema

educativo mexicano a través de la investigación en TIC y su contribución y efecto en las

organizaciones educativas.

GR 4. Seguridad y transparencia en la información y en los servicios:

• Realizar un estudio del estado del campo del arte en materia de seguridad y

transparencia en la información y en los servicios

• Analizar y diagnosticar los grandes retos identificados con respecto a los estándares

nacionales e internacionales (por ejemplo, National Institute of Standards and

Page 121: Telecomunicaciones y Computación

121

Technology (NIST), Organización para la Cooperación y el Desarrollo Económico

(OCDE), etcétera

• Sensibilizar y educar sobre la importancia de la seguridad y transparencia de la

información y los servicios a los diferentes sectores (social, productivo y de servicios)

• Vincular la red temática con organismos públicos y privados

• Elaborar proyectos de investigación con influencia en México en materia de seguridad

y transparencia en la información y en los servicios

GR 5. Ambientes inteligentes para problemas de grandes ciudades: el objetivo principal es

desarrollar sistemas y tecnologías orientados a mejorar la calidad de vida de los

habitantes de las grandes ciudades mexicanas, apoyados en la convergencia de cómputo

ubicuo, cómputo sensible el contexto, redes y telecomunicaciones, e interacción humano-

computadora. Para ello se han definido los siguientes objetivos particulares:

• Integración de equipos especializados de trabajo en el desarrollo de ambientes

inteligentes en las temáticas de tráfico y movilidad urbanos, salud y seguridad

• Realización de estudios de diagnóstico de los problemas fundamentales de las

grandes ciudades relacionados con el tráfico y movilidad urbanos, salud y seguridad

física, susceptibles de ser abordados desde una perspectiva de computación ubicua

• Vinculación con los equipos de trabajo de las líneas de investigación de la RedTIC

relacionadas con el reto cinco, con otras redes temáticas del Conacyt y con otros

sectores responsables del bienestar y seguridad de la población mexicana, para la

realización de acciones y proyectos conjuntos

• Contribución a la formación de recursos humanos de nivel profesional y posgrado,

especializados en las competencias de las TIC requeridas para abordar los problemas

del GR5.

GR 6. Servicios basados en el conocimiento para el ciudadano: desarrollar modelos,

métodos, procedimientos, teorías y herramientas que permitan diseñar e implementar

sistemas para ofrecer servicios basados en conocimiento al ciudadano mexicano y

atender sus necesidades de información, de acuerdo con su contexto y situación

individual.

Graciela Dolores Avila Quezada
Page 122: Telecomunicaciones y Computación

122

Con base en este ejercicio colectivo de la comunidad de investigadores mexicanos

de las TIC, y tomando en cuenta la situación actual y perspectivas podemos definir

algunas estrategias para ser desarrolladas en los próximos años:

ESTRATEGIAS

Desarrollo de proyectos de I+D+I interdisciplinarios, centrados en problemas relevantes

para la sociedad mexicana, en donde las TIC sean una componente central. Por ejemplo

los 10 retos de la Agenda Ciudadana de Ciencia, Tecnología e Innovación, consulta de

ámbito nacional en la que la población eligió tres retos que consideró se deben afrontar

prioritariamente con la participación de la ciencia y la tecnología para alcanzar una mejor

calidad de vida en el horizonte del año 2030.

• Asegurar el abasto de agua potable para toda la población

• Desarrollar la capacidad de prevención y adaptación a los efectos del cambio

climático

• Modernizar el sistema educativo con enfoque humanístico, científico y tecnológico

• Contar con un sistema de energía limpia, sustentable eficiente y de bajo costo

• Desarrollar una industria aeroespacial mexicana competitiva y con resultados de

interés para la sociedad

• Recuperar y conservar el medio ambiente para lograr una mejor calidad de vida

• Construir una sociedad informada sobre la diversidad migratoria y sensibilizada con

los derechos de los migrantes

• Integrar la atención de la salud mental y las adicciones a la salud pública

• Conformar un sistema integral de salud de alta calidad para toda la población

• Lograr un campo más productivo y alcanzar la seguridad alimentaria

• Privilegiar los proyectos capaces de desarrollar aplicaciones e innovaciones para el

mercado nacional

• Fortalecer el trabajo de las redes temáticas académicas y de sus interacciones para

articular enfoques interdisciplinarios en la solución de problemas relevantes de

nuestra sociedad

Page 123: Telecomunicaciones y Computación

123

INVESTIGACIÓN, EDUCACIÓN Y EMPRENDIMIENTO

EN CIENCIAS DE LA COMPUTACIÓN EN MÉXICO

Edgar Chávez*

ANTECEDENTES

Las disciplinas científicas, especialmente las ciencias naturales, establecen relaciones

simbióticas. En otras palabras, un desarrollo en una demanda de desarrollos en la otra y

viceversa formando un círculo virtuoso. Los ejemplos abundan. Para fijar ideas pensemos

en la física; una propuesta teórica se establece cuando puede ser verificada

experimentalmente y al contrario; observar un fenómeno no explicado demanda la

creación de nueva física. Las propuestas radicales, las que están en la frontera, pueden

ser verificadas cuando hay avances sustanciales en la ingeniería y en la física

experimental. El ejemplo más notorio de nuestro tiempo es el acelerador LHC que

representa un monumental avance en una gran cantidad de áreas de la ingeniería y la

física experimental y permite verificar teorías radicales acerca de la conformación de la

materia. Quizá la actividad académica con más conexiones es la matemática, que sirve de

soporte y le da madurez a las ciencias. Es conocida la posición de que la madurez de una

ciencia se mide por el grado de formalismo matemático que acepta.

Dado que nos ocupamos de la informática en este texto, la pregunta natural es:

¿con cuáles disciplinas establece la informática relaciones simbióticas de una manera

semejante a la descrita? Una vez identificadas estas disciplinas o actividades será

también natural preguntarse: ¿cómo podemos fomentar el círculo virtuoso que se crea en

estas relaciones simbióticas?, y más aún, preguntarnos si en México existen las

condiciones para que esa relación simbiótica y ese círculo virtuoso aparezcan.

Para seguir tomando el contexto planteado, cabe preguntarse primeramente si

podemos considerar a la informática, a las “ciencias de la computación”, como una

ciencia. Esta pregunta fue planteada recientemente por Vinton Cerf, presidente de la

Association for Computing Machinery (ACM) y provocó una gran polémica. Buena parte de

*

Page 124: Telecomunicaciones y Computación

124

teóricos de la computación se sintieron ofendidos y dieron multitud de razones por las

cuales se puede considerar como ciencia, las respuestas incluían digresiones formales

acerca del uso de la matemática en los fundamentos de la computación. En este ejercicio

planteamos una respuesta alternativa.

Lo que hay que considerar para responder la pregunta central de si la computación

es una ciencia o no es ver el paralelo con actividades científicas. Es adecuado preguntar

entonces, ¿cuál es el objeto de estudio de la computación?, ¿qué es lo que analiza y

predice?, ¿con que otras disciplinas se interrelaciona? Las respuestas a estas

interrogantes son fundamentales para poder identificar los nichos de oportunidad en la

investigación, identificar las disciplinas con las que se relaciona de manera simbiótica y

establecer un modelo de acción del Estado mexicano para fomentar el crecimiento

económico y el beneficio social de manera última.

El objeto de estudio más natural de las ciencias de la computación es la

información (de ahí viene precisamente el término informática). Interesa procesar,

almacenar, resumir, consumir y sintetizar información en forma de objetos digitales. Estos

objetos pueden ser abstractos o pueden ser representaciones de objetos físicos. Interesa

saber ¿cuándo dos objetos son equivalentes?, ¿cuando son distintos?, ¿cuándo se puede

obtener uno del otro? Incluso son de interés preguntas más generales como: ¿es posible

caracterizar un objeto?, ¿es posible saber si un objeto se puede obtener de otro?, ¿es

posible encontrar una fracción de un objeto dentro de otro?

Muchas de las preguntas anteriores pueden ser respondidas de una manera

completa para ciertas clases de objetos. Algunos otros planteamientos tienen respuestas

parciales, dependiendo del contexto. Algunos ejemplos pueden ayudar. Es interesante

decodificar las funciones de los genes en una cadena de ADN, saber si un teorema se

puede obtener de un conjunto de axiomas, reconocer rostros, imágenes, representaciones

de objetos físicos, almacenar y facilitar el acceso a documentos, hacer reseñas, síntesis,

descubrir intenciones en el discurso, y un largo etcétera que abarca todos los objetos de

estudio de las subdisciplinas de las ciencias de la computación. Es muy relevante notar

que resolver esas preguntas fundamentales tiene implicaciones para la vida diaria. Una

solución total en cualquiera de las subdisciplinas tiene implicaciones económicas,

sociológicas y políticas.

Debido a que en un sentido amplio los seres humanos nos dedicamos a generar,

consumir, procesar, codificar y resumir información, la computación es transversal a las

actividades humanas. Prácticamente cualquier actividad puede tomar ventaja de los

Page 125: Telecomunicaciones y Computación

125

avances en ciencias de la computación. Esto coloca a la disciplina en una posición

complicada porque desaparece al ser ubicua. Sucede que usuarios de un sistema están

convencidos de que hacen computación y al contrario, no identifican que existan

problemas que resolver porque “la computadora hace todo”.

La anterior reflexión es relevante para lo que queremos responder en este

ejercicio. A partir de estas concepciones erróneas se forman otras afirmaciones

igualmente falsas; pero que tienen un efecto muy importante en el quehacer científico y

tecnológico de nuestro país. Repasemos algunos hechos.

Hasta hace relativamente poco, unos 15 años, los especialistas en computación

eran mediadores entre las “máquinas” y el público en general. Las necesidades de

tecnologías de la información de organizaciones y personas requerían de un especialista;

inclusive las actividades que ahora se consideran simples, como anunciar publicidad o

una reflexión en la red, no se diga un sistema de nómina o de reservaciones de una línea

aérea. Varias circunstancias provocaron un cambio de paradigma: máquinas más

potentes y baratas, mejoras en las interfaces de usuario, mejores diseños en los

programas de servicio y métodos más intuitivos para introducir información en los

sistemas de cómputo. La conjunción de lo anterior provocó la masificación del uso de

computadoras, primero personales, luego portables, ultraportables, tabletas, teléfonos

inteligentes y lo que viene.

En lo anterior se dio un círculo virtuoso en el que avances en la facilidad del uso

de computadoras y aplicaciones provocaron un mayor número de usuarios, lo que hizo

más baratas las computadoras y las aplicaciones, lo cual provocó a su vez mejores y más

rentables aplicaciones, mayores ventas de computadoras, etcétera.

El papel de México en la masificación del uso de computadoras es

extremadamente modesto. En nuestro país no hay una producción significativa de

tecnología, hubo intentos muy limitados de producción de una computadora “nacional”,

algunos de ustedes recordarán la microSEP que terminó desplazada por las alternativas

comerciales, o el esfuerzo formidable de dotar con equipo multimedia a todas las escuelas

elementales del país con la Enciclomedia. Estos y otros esfuerzos pueden resultar

atractivos en papel y en general son el resultado de una idea monolítica que se vende a

un político o a un comité mediante argumentos convincentes, pero limitados. Siempre es

conveniente mantener el correlativo con las ciencias más antiguas, regresaremos en

breve para hacer un paralelismo con lo que sucede en computación y lo que se observa

en otras ciencias, específicamente en este contexto. Queremos hacer hincapié en que lo

Page 126: Telecomunicaciones y Computación

126

que discutiremos a continuación representa sólo un ejercicio, de ningún modo se debe

tomar como una propuesta reduccionista ni una visión pragmática de una ciencia tan

importante.

El ciclo de aceptación de nuevas tecnologías digitales, que incluye su

abaratamiento, es un paralelo adecuado entre ciencias que están en simbiosis; como en

el caso de la matemática, la física teórica y la física experimental. El equivalente en

computación de la validación experimental de una teoría física, tiene el correlativo de una

empresa exitosa. En particular, como ejemplo, podemos pensar en el número de usuarios

de una empresa de tecnologías de la información como el parámetro que establece si una

propuesta tiene éxito. El grado de aceptación de los usuarios a la propuesta se puede

medir con el número de usuarios únicos. Pocos usuarios significan que la propuesta no es

atractiva, o sólo lo es para un nicho reducido. Existen propuestas que llegaron para

quedarse y sin las cuales es difícil entender la vida diaria, los ejemplos abundan. Estas

tecnologías en general son de bajo costo para el usuario, algunas incluso son gratuitas y

las empresas obtienen beneficios mediante publicidad. Esta medida de éxito puede

parecer mercantilista; pero tiene un componente muy importante de análisis y es relevante

para la creación de un ecosistema que permita orientar los esfuerzos del Estado

mexicano para fomentar el avance en informática en nuestro país.

En física hay una multitud de intentos de validación de alguna teoría específica.

Algunos experimentos fallan, otros son exitosos; lo mismo aplica para las teorías: son

modificadas y ajustadas de acuerdo con los resultados experimentales. En computación la

fase de experimentación se da con los emprendimientos tecnológicos. En este momento

de la historia, los emprendimientos no tienen un correlativo científico con la física

experimental. Están en una fase muy parecida a la alquimia, donde unos pocos secretos

son compartidos en un círculo cerrado y la metodología no es pública y se puede dudar

de que en realidad exista alguna. Se entiende que por la importancia económica, los

secretos del éxito no sean compartidos; y se entiende que el entrenamiento en

emprendimientos sea de carácter muy general y cada uno de los emprendedores

descubra el camino adecuado. Desde un punto de vista abstracto, esta metodología no

escala; sería necesario un estudio científico del emprendimiento que lo elevara a la

categoría de la física experimental, guardadas las proporciones.

Regresando al ejemplo que nos ocupa, del papel de México en los ciclos de

masificación de la tecnología, basta observar que en el modelo anterior no cabe realizar

las cosas por decreto. El experimento de la Enciclomedia ilustra perfectamente que no se

Page 127: Telecomunicaciones y Computación

127

puede brincar en el proceso. No se sabía si podía ser una buena idea y había muchos

cabos sueltos en los mecanismos de enseñanza tradicionales al ligarlos con la

Enciclomedia. Sólo para hacerlo un poco más obvio, sería como decretar que alguna

teoría física es cierta.

En el esquema planteado, lo que queremos saber es si alguna tecnología es cierta

en el mismo sentido que nos preguntamos si alguna teoría física es cierta. El mecanismo

adecuado es que un emprendimiento tecnológico lo lance al mercado, sufra los altibajos

de la innovación, consiga capital y crezca o perezca de acuerdo con la aceptación que

pueda tener.

Para abundar un poco más, notemos que no necesariamente se trata de éxito

económico, se trata de aceptación. Un ejemplo ilustra este punto. La empresa Netscape

no existe más, sin embargo, la tecnología que propuso ha probado ser verdadera en el

sentido que hemos propuesto. Javascript es la base de millones de aplicaciones y ha

evolucionado en otras formas más sofisticadas de interacción, mucho más lejos de lo que

sus creadores en Netscape anticiparon. Más aún, Mozilla, el motor del navegador

Netscape, descendiente de Mosaic, es de dominio público y es el motor de Firefox y

Chrome. Otro ejemplo, ahora negativo, es la propuesta de Xanadu que antecedió a la

web. Las diferencias son sutiles desde un punto de vista teórico, en Xanadu los

hipervínculos son simétricos y es posible verificar muchas más cosas que en la web. Pese

a las posibles ventajas teóricas, la web fue adaptada con sus hipervínculos

unidireccionales. Existen muchos más ejemplos que valdría la pena analizar y que abonan

a la posición de que la validación de una teoría tecnológica se mide por el grado de

aceptación de los usuarios. Por ahora regresemos a nuestro ejercicio.

Los emprendimientos tecnológicos deben innovar. Deben tener un componente

que los haga únicos, una manera peculiar de resolver alguna de las tareas para las que

fueron diseñados. Esa manera peculiar de resolver el problema generalmente requiere de

algún avance sustancial en la parte teórica de la computación. Puede suceder que el

avance esté ahí, que haya sido publicado con antelación y el emprendedor identifica la

oportunidad. También puede suceder que la solución se encuentre precisamente por

encargo, cuando se genera la interacción entre un teórico y un emprendedor. Si un

emprendimiento no tiene este componente, será muy difícil que prospere. Simplemente

copiar la tecnología siempre limita las posibilidades de éxito de una empresa. Si el

problema a resolver es demasiado trivial, entonces no vale la pena como emprendimiento.

Page 128: Telecomunicaciones y Computación

128

Dicho de una manera más simplista, si se puede resolver sólo programando entonces no

es un emprendimiento tecnológico.

Lo anterior es posible siempre y cuando existan las condiciones de desarrollo. Las

ciencias duras tienen como patrocinadores a los gobiernos, los grandes experimentos

sólo son posibles con la cooperación de los gobiernos. Dados los ejemplos negativos que

presentamos antes, no cabría el patrocinio de un gobierno para la generación de

empresas de base tecnológica. Esta situación estaría negando la hipótesis de que el

emprendimiento debe ser masivamente aceptado, sería otra vez probar la verdad por

decreto. El papel de los gobiernos financiando grandes experimentos lo juegan las

empresas de capital ángel. El capital de riesgo apoya sistemáticamente y tiene una tasa

probada de éxito (digamos, uno de cada diez proyectos resulta rentable) que permite

financiar los experimentos de validación. En México el capital de riesgo es prácticamente

inexistente. Los empresarios prefieren usar soluciones probadas o encargar los

desarrollos a empresas extranjeras. Los emprendedores mexicanos muchas veces tienen

éxito fuera de México, simplemente porque pueden encontrar capital ángel.

Para que nuestro país pueda tener un papel relevante en el proceso de creación y

aceptación de nuevas tecnologías digitales, es fundamental crear las condiciones que

permitan el florecimiento del círculo virtuoso de investigación básica, emprendimiento y

masificación. El problema no se arregla, como hemos visto, por decreto ni haciendo el

papel de empresa de capital ángel por parte del gobierno. Pero ciertamente hay acciones

que pueden darse para facilitar las otras partes del proceso de innovación.

Mencionaremos algunas de ellas más adelante.

Analicemos ahora otro nodo del proceso de verificación descrito. Es imposible

saber, sin un experimento de por medio, si una teoría es verdadera. Esto no significa que

uno debe de dejar de hacer hipótesis y teorías. Lo que no resulta coherente es hacer

experimentos sin una teoría detrás. No tiene ningún sentido, por ejemplo, comenzar a

mezclar sustancias para ver si sucede algo interesante, eso lo hacía quien esto escribe y

seguramente todos los que tuvieron un juego de química Mi Alegría. En este contexto, y

dadas las reflexiones anteriores, lanzar empresas de base tecnológica sin una propuesta

teórica muy bien fundada es como hacer experimentos sin teoría detrás. El verdadero

motor de la innovación es la investigación científica básica. Los descubrimientos,

avances, teorías y algoritmos sólo pueden provenir de científicos entrenados, expertos en

la resolución de problemas de su especialidad, capaces de discernir entre buenos

resultados, malos resultados y resultados intrascendentes. Debe existir también un

Page 129: Telecomunicaciones y Computación

129

mecanismo de comunicación entre los científicos y los emprendedores, las capacidades

de ambos son complementarias, pero en este caso son simbióticas.

La investigación básica en computación en México ha sido limitada por muchas

razones. Una de las principales es el equiparar la computación con otras áreas de la

ingeniería ignorando sus peculiaridades; pero eso es tópico de otro análisis. Vamos a

finalizar con algunas propuestas generales y algunas más específicas aplicables al

contexto mexicano y sus métodos establecidos para incentivar la producción científica.

ACCIONES

En el contexto global, es necesario encontrar un mecanismo que limite la multitud de foros

en los cuales es posible publicar un resultado científico en ciencias de la computación.

Éste no es un problema de México, es un problema de la comunidad mundial. Hay

ejemplos críticos en donde un artículo enviado por error del sistema a dos editores

distintos en la misma revista, fue aceptado por tres revisores y rechazado por otros tres.

La decisión final de si una propuesta científica en computación es válida, depende de dos

o tres personas. La computación ha encontrado especialmente útil publicar en congresos,

que tienen un formato muy diferente a los congresos de otras disciplinas,

lamentablemente existen multitud de foros que no tienen la calidad requerida. Es

necesario modelar de forma adecuada el proceso de creación de nuevo conocimiento,

mediante mecanismos más certeros de evaluación. En este contexto cobra importancia lo

descubierto en una colaboración abierta de muchas personas, llamada crowd sourcing, y

en la Wikipedia. Quizá vale la pena pensar en un mecanismo de publicación en donde los

artículos son evaluados con todos los lectores, teniendo registro de sus observaciones.

Para la creación de un ambiente de investigación, aun sin haber llegado a la fase

en la que los científicos interaccionan con los emprendedores, es necesario fomentar el

gusto por la ciencia, divulgar los resultados, coordinar esfuerzos y, en general, crear las

condiciones para que sean identificados los líderes de las diversas áreas de la

computación. La investigación básica puede no siempre dar lugar a productos

comerciales, pero incrementa el conocimiento global, entrena a nuevos científicos, da

prestigio y debería servir para que los emprendedores ubiquen a quienes pueden resolver

los problemas que surgen en los emprendimientos, o bien para que los emprendedores

Page 130: Telecomunicaciones y Computación

130

identifiquen los problemas ya solucionados y puedan proponer nuevos métodos en el ciclo

de aceptación de la tecnología.

El mecanismo actual de una carrera académica en México no alcanza para

resolver el problema y para crear la masa crítica que se necesita. Las universidades

estatales luchan por sobrevivir con un presupuesto cada vez menor en términos reales,

con problemas de déficit crónico que las hace rehenes de la política local y con una

participación cada vez menor de la federación en su subsidio. Los egresados de los

posgrados nacionales tienen muchas dificultades para emplearse en la academia y por

supuesto dificultades para entrar en la escasa industria nacional en tecnologías de la

información. Esto provocará en un futuro muy próximo un desaliento para seguir un

posgrado y una carrera científica, a menos que se tomen medidas. Es necesario que el

Estado mexicano incremente el gasto en educación mediante la creación de nuevas

plazas en las universidades estatales, el incremento al gasto en investigación apoyando

una mayor cantidad de proyectos de ciencia básica y por montos mayores; manteniendo

siempre la flexibilidad en el uso de los recursos. En proyectos a largo plazo, siempre

pueden cambiar las perspectivas y los objetivos de la investigación.

CÁTEDRAS NACIONALES

Adicionalmente proponemos la creación de las cátedras nacionales. Éstas consisten en

una plaza que pertenece al investigador, independientemente de donde trabaje, y que le

da movilidad para asociarse libremente con las universidades que tengan las mejores

condiciones de trabajo (condiciones no monetarias). De esta manera, un investigador

puede apoyar a grupos de investigación de una manera focalizada, apoyar en la

formación de recursos humanos y mantener independencia. Si las condiciones en un

cierto lugar no son adecuadas, siempre tendrá la opción de cambiar de institución sin

temor a perder la antigüedad o dejar de cotizar para su jubilación. Un investigador podrá

optar por obtener una cátedra nacional y la federación seguirá otorgando el subsidio

correspondiente a la universidad que deja. Una vez con su cátedra, tendrá libertad de

cambiarse a donde las condiciones de trabajo sean más favorables. Hay muchos detalles

por discutir: como el tiempo mínimo de estancia, los incentivos de producción y entre

muchos otros aspectos. Pensamos que es algo que vale la pena proponer. Para

Page 131: Telecomunicaciones y Computación

131

redondear la propuesta, sería necesaria la creación del área ocho del SNI, en donde todas

las peculiaridades de las ciencias de la computación y tecnologías de la información

puedan ser tomadas en cuenta. Como una nota al margen, el Conacyt recientemente

lanzó la primera convocatoria para las cátedras nacionales para investigadores jóvenes

en 2014. Es un avance notable en los mecanismos de creación de conocimiento; este

texto fue escrito en 2012.

EL CENTRO NACIONAL DE DATOS

Dado que consideramos que no es papel del Estado financiar el emprendimiento, queda

la pregunta de cómo se puede fomentar esta actividad. Los gastos iniciales de una

empresa de tecnologías de la información corresponden a sueldos de programadores y

renta de infraestructura. Si la propuesta tiene aceptación, si es verdadera en el sentido

planteado con anterioridad, su base de usuarios y el correspondiente escalamiento en la

infraestructura utilizada crecerán de forma exponencial. Llegar a ese punto ya la hace

rentable, o por lo menos la coloca en posición de obtener una segunda o tercera ronda de

financiamiento (mejor tipo de dinero) por parte de una empresa de capital ángel, o bien la

pone en posición de ser adquirida por una empresa más grande. La parte inicial es crítica

porque requiere de financiamiento para un producto que todavía no existe.

Nuestra propuesta es la creación de un centro nacional de datos que ofrezca

hospedaje, servicios en la nube, seguridad y control remoto a sus usuarios. Esta

infraestructura tiene además interés científico, las recetas de las principales empresas

tecnológicas difieren. Los mecanismos de escalabilidad de Amazon son distintos a los de

Google, Facebook o Microsoft y muy diferentes de los que ofrecen las empresas de

hospedaje. Un posible lugar para la instalación de este centro nacional de datos es el

Centro de Investigación Científica y Educación Superior de Ensenada (CICESE). Por su

ubicación geográfica y un acuerdo de cruce transfronterizo de datos, mediante el cual

puede contratar internet a un precio más barato que la oferta nacional, el CICESE tiene las

condiciones para que esta iniciativa se establezca. Este centro, financiado por el Estado

mexicano bajo alguna modalidad, daría hospedaje a los emprendimientos siguiendo

algunos requisitos mínimos; debería estar regulado por un consejo de expertos que

juzgarían la viabilidad de la propuesta y la cantidad de recursos que se necesitarían.

Debería existir algún mecanismo mediante el cual las empresas exitosas regresaran los

Page 132: Telecomunicaciones y Computación

132

recursos que les fueron facilitados y en el mediano plazo se podría esperar que este

centro nacional de datos fuera autosuficiente. En el esquema faltaría el pago de nómina

para programadores, pero dada la naturaleza descentralizada de la actividad, podría ser

resuelta mediante becas de pasantía tecnológica con recursos de alguna bolsa con

participación estatal y privada.

RED NACIONAL DE DATOS

Un penúltimo punto sería la creación y operación de una infraestructura de datos propia

del Estado mexicano. Por razones estratégicas y de seguridad nacional, no es

conveniente utilizar las redes públicas de datos para el manejo de transacciones

delicadas, servicios de emergencia, servicios de inteligencia, etcétera. La creación de esta

infraestructura contiene retos que deberían resolverse con el talento mexicano, dentro de

lo posible, en lugar de comprar una solución. Existen propuestas, por parte de

agrupaciones académicas mexicanas, de utilizar la infraestructura ociosa de la Comisión

Federal de Electricidad.

Instituto Mexicano de Ciencia y Tecnología

Finalmente, creemos que es necesaria la creación de un instituto nacional en donde de

manera permanente se realicen reuniones, seminarios y talleres con la participación de

investigadores, estudiantes y emprendedores. El modelo del instituto es uno donde no hay

investigadores permanentes, todos son visitantes y no hay distinción entre investigadores

mexicanos y extranjeros. Un centro de esta naturaleza sólo promueve el intercambio de

ideas y tiene como misión incrementar la colaboración entre pares mexicanos y sus

respectivos grupos de investigación; lo mismo que la colaboración entre investigadores

mexicanos y sus pares en el extranjero. Por ahora no existe un centro de esta naturaleza

en México y toda colaboración pasa a través de proyectos de investigación y fondos de

naturaleza muy rígida. Un instituto nacional como el descrito propiciaría el planteamiento

de retos de investigación relacionados con emprendimientos y la motivación de

Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Graciela Dolores Avila Quezada
Page 133: Telecomunicaciones y Computación

133

estudiantes de posgrado para realizar emprendimientos tecnológicos basados en

problemas resueltos en la parte teórica y con interés comercial.

CONCLUSIONES

Consideramos, en suma, que los apoyos del Estado mexicano a las tecnologías de la

información deben darse a la investigación y a la educación y, de manera indirecta a

través de las interacciones, a los emprendimientos tecnológicos. Sería natural esperar

que los estudiantes de posgrado, motivados adecuadamente, comenzaran los

emprendimientos tecnológicos armados de las herramientas científicas necesarias e

insertadas en un contexto académico. De esta manera, el círculo virtuoso de la

investigación, la educación y los emprendimientos florecería para dar paso al proceso de

aceptación de nuevas tecnologías. La comunidad ha comenzado a trabajar como equipo

mediante la formación de la RedTIC, formulando los grandes retos, convocando a

acciones conjuntas. Se debe dar continuidad a estas acciones con un apoyo decisivo del

Estado.

Page 134: Telecomunicaciones y Computación

134

LAS TIC COMO CIENCIA EMERGENTE Y HERRAMIENTA PARA EL DESARROLLO DE LA CIENCIA EN MÉXICO

Sergio Carrera Riva Palacio* y Juan Carlos Téllez Mosqueda**

INTRODUCCIÓN

Por sí mismo el nombre de este foro, Hacia dónde va la Ciencia en México, en el que se

inserta esta mesa de perspectiva tecnológica, es un gran reto. No sólo porque hacer

prospectiva encierra grandes dificultades, sino además porque entramos en campos que

en la ciencia normalmente no se abordan por razones metodológicas; y porque determinar

“hacia dónde ir” en aspectos complejos, necesariamente nos lleva a cuestiones

normativas del deber ser y positivos a donde se puede ir. Por supuesto, hay que estudiar

las tendencias para comenzar a pensar y planear una invención antes de que la

tecnología permita que esté disponible en el mercado.

Este artículo se encuadra en una visión más de orden estratégico para ver las

tecnologías de información y comunicación (TIC) como herramienta de orden transversal

de apoyo para el resto de las ciencias; y al mismo tiempo, como una ciencia emergente

que requiere cumplir obligaciones similares al resto de las ciencias, como explicitar los

conceptos en que se basa, y también tener algunos derechos, estudiarse a sí misma, y

convertirse plenamente en un campo de estudio.

Este aspecto va en línea con el nombre de la mesa: “La investigación en

informática para el futuro de México” y su objetivo: plantear algunas áreas de oportunidad

para la investigación y formación de recursos humanos. Después regresaremos al

concepto de informática, que requiere un par de precisiones.

***

Page 135: Telecomunicaciones y Computación

135

IMPORTANCIA DE LAS TIC EN LA CIENCIA

Desde que Norbert Weiner propuso en 1949 el concepto de cibernética y Claude Shannon

desarrollara la teoría matemática de la comunicación, creció la importancia del uso de

tecnologías en la ciencia. Por cierto, como muchos saben, Arturo Rosenblueth y Weiner

identificaron la posibilidad de la aplicación de las matemáticas y la teoría de la

comunicación en la fisiología desde esa época.

Ambos “creían que los campos más fructíferos para el desarrollo científico eran

aquéllos que habían quedado desatendidos como tierra de nadie entre las distintas

especialidades” (Quintanilla, 2002). Se requería que cada especialista tuviera un profundo

conocimiento en su campo y una experiencia práctica en el otro campo de conocimiento.

Podríamos decir que parte del desarrollo de las TIC ha obedecido a que se convirtió en

una tecnología de propósito general, como lo fue el vapor y la electricidad. Jovanovic y

Rousseau han mostrado que estas tecnologías fueron clave para la revolución de los

procesos productivos.1

Esta sinergia ha permitido difuminar las fronteras entre distintas disciplinas, para crear

nuevos campos de conocimiento transdisciplinarios, nuevas especialidades y generar

nuevos conocimientos de frontera, como biogenética, biónica, derecho informático,

economía de la información, nanotecnología, robótica, geomática, tecnologías en la

educación, informática forense y múltiples aplicaciones en diversas ciencias.

No obstante la importancia de las TIC, se sigue considerando como una herramienta

técnica. Tal vez ya requiere ocupar en México un lugar dentro de las disciplinas científicas

heredadas desde la Ilustración. Una preocupación que se ha tenido en otras sociedades,

para resolver problemas similares, ha sido un proceso de revisión de la currícula cada vez

de forma más continua de las ciencias de computación. Por ejemplo, en Estados Unidos

estuvo en escrutinio la propuesta de programa 2013 desde el año 2011, donde el papel

que desempeñaron la Association for Computing Machinery (ACM) y el Institute of

Electrical and Electronics Engineers (IEEE) fue fundamental para impulsar su revisión.

1http://www.nyu.edu/econ/user/jovanovi/JovRousseauGPT.pdf.

Page 136: Telecomunicaciones y Computación

136

PROBLEMÁTICA GENERAL

El acelerado desarrollo tecnológico, producto de la convergencia de varios campos

(electrónica, materiales, sistemas, comunicación) nos ha mostrado sus grandes

beneficios, sobre todo para aumentar la productividad y el bienestar. Un ejemplo ha sido

el desarrollo de dispositivos móviles que representan una gran integración de diferentes

aplicaciones, y que el mercado y la población, sobre todo joven, las han aceptado por sus

facilidades de uso al ser intuitivas.

Pero también hay que estar conscientes de que esta convergencia tecnológica está

transformando aceleradamente la vida cotidiana y la ciencia con diversas implicaciones.

Señalemos algunos ejemplos en relación con el tema que nos ocupa.

Los procesos de formación tradicionales no se transforman a la velocidad de los

cambios tecnológicos. Existen varios ejemplos de nuevas carreras que se trataron de

estructurar a partir de otras para dar respuesta a las nuevas necesidades, en especial a

los requerimientos de los sectores productivos de tecnología de punta. Sin embargo, esto

no es tan sencillo. La diversidad de nombres de las nuevas carreras no necesariamente

reflejan los contenidos estudiados y la información que requieren los empresarios para

sus procesos de selección de personal.

También existen procesos de exclusión, por ejemplo, en la maestría de ingeniería

biomédica, los egresados de las carreras originales de ingeniería biomédica repudian a

los electrónicos que ingresan. Los primeros se ven a sí mismos como médicos y los

segundos no comprenden cómo esos “cuasi médicos” pueden construir los dispositivos

que se requieren para la medicina. Por ende, los primeros no aceptan a los recién

llegados a la manada, lo que recuerda la crítica de las manadas científicas que realizó

Ray Kurzweil.

Pero en el plano general del uso de estas herramientas en la vida cotidiana, o más bien

en las aplicaciones de esta ciencia emergente, existen muchos campos de actividad en

donde aún no se cuenta con sistemas de cómputo para operar, aun cuando en otros ya se

están aprovechando, por ejemplo las bases de datos no estructuradas. En varios campos

se utilizan equipos dedicados de gran tecnología pero sin estándares interoperables, sus

Page 137: Telecomunicaciones y Computación

137

avances proporcionan una ventaja comercial cuasi monopólica para gestionar la

confidencialidad industrial, pero dificultan la obtención y el intercambio de información.

La problemática de los avances tecnológicos también se aplica a internet. Sin acceso y

suficiente banda ancha disponible, las personas y las localidades alejadas de las grandes

urbes quedarán en desventaja. El grado de penetración del uso de internet en diferentes

países nos muestra que existen distintas velocidades de adopción que propician

diferentes niveles de competitividad. En el caso de México, los avances en la materia son

notables, pero insuficientes para converger al menos al promedio de países de la OCDE.

Las consecuencias de generación de la información en la era de internet también

requieren ser estudiadas para evitar aspectos nocivos de este bien intangible. De acuerdo

con algunos trabajos al interior de Infotec se identifican seis consecuencias: aumento de

la brecha social a pesar de la convergencia tecnológica; transformación cultural; la

confiabilidad y credibilidad de las redes sociales; viabilidad económica de las inversiones

en tecnología; costo de la información, y crecimiento de la demanda de energía de los

centros de datos (Téllez, 2012a). Debemos estar conscientes de la gestión del

conocimiento y las TIC.

Respecto al desarrollo del concepto de computación, se requiere considerar que

existen otros conceptos que permiten denominar el campo disciplinar de estudio y

profesional, como informática, y la tecnología de la información y la comunicación.

Permítanme parafrasear a un especialista del tema (Morales, 2008).

" El avance vertiginoso de las TIC requiere una reflexión epistemológica como un

posible enclave disciplinar, sobre todo por la diversidad de campos de conocimiento

que han confluido para favorecer su desarrollo tanto en ciencias duras como

ciencias sociales.

" No existe un consenso pleno sobre la forma en que puede denominarse, por las

diferentes connotaciones de las disciplinas en las que se originó. La informática, si

se toma el antecedente soviético, que ya no es tan reconocido, sería sinónimo de la

ciencia de la información. Mientras que en la tendencia francesa, con mayor

influencia en los países hispanos, el sinónimo es computación, pero con una

connotación técnica.

Page 138: Telecomunicaciones y Computación

138

" Otra denominación es la de ciencia de la computación, que se identifica de forma

estrecha con el aspecto tecnológico de las TIC, y que ha sido aceptada en las

escuelas de ingeniería o de ciencias duras. Sin embargo, los estudiosos de las TIC,

cuyos antecedentes sean de las ciencias sociales podrían ser mal llamados

computólogos, como extrapolación de los politólogos, pero su aplicación seguiría

siendo técnica y no social. Otra más es la ciencia de la información, que es una

denominación que se ha propuesto como alternativa para el estudio de las TIC

desde las ciencias sociales. La limitante de dicho término es que también se usa

como sinónimo de ciencias de la comunicación y como referencia al estudio de la

información, que se limita al estudio de las bibliotecas y archivos, pero no a la

información.

" Una opción es el de ciencia y tecnología de la información que se planteó desde la

década de 1960 para hacer referencia al estudio de la información, a partir de la

noción de los términos de ciencia y de tecnológica. Esta denominación busca

conciliar las diversas maneras de estudiar y desarrollar aplicaciones con base en las

TIC, que abarcan un amplio abanico disciplinario. Sin duda, al contar con teorías,

comunidad epistémica, práctica, tecnología y metodología será más fácil construir

programas de investigación, como sugiere Lakatos.

Cuando se dejan más claros los conceptos del campo de estudio, es más fácil

profundizar en las disciplina y lograr contribuciones que ensanchen el entendimiento de la

misma para mejorar la comunicación, incluso con otras ciencias.

DIFERENTES PROBLEMAS

Desde nuestra óptica identificamos varias áreas de oportunidad en donde se debe

avanzar en la investigación y formación de especialistas en esta materia. Trataremos de

ser breves y enmarcarlas de manera temática:

Incentivos insuficientes para la investigación

Page 139: Telecomunicaciones y Computación

139

La creación de talento para la investigación requiere de alinear expectativas y costos de

oportunidad para incentivar que los jóvenes encuentren una realización de vida en la

investigación científica, a fin de cultivar desde temprana edad sus vocaciones para

potenciar la curiosidad científica y el desarrollo de conocimientos aplicados en las

distintas localidades del país.

Intérpretes y colaboración

Por definición, la investigación exige especialización y focalización. En el pasado pudo

hacerse en disciplinas singulares, pero hoy es común identificar varios procesos de

“invasión de carriles” disciplinarios, que han producido buenos resultados y han sido de

mucha utilidad, pero también generaron nuevos problemas para reproducir el

conocimiento y, sobre todo, para entenderse entre los distintos campos de conocimiento.

Se puede hablar incluso de varios enfoques o visiones multidisciplinarias,

interdisciplinarias o transdisciplinarias, y no digamos las habilidades que se requieren

para trabajar en equipo. Una de las peticiones más recurrentes de las empresas, cuando

se trabaja en el diseño curricular de las carreras relacionadas con TIC, es que los

egresados puedan desarrollar suficientes habilidades suaves (soft skill) y por supuesto

que sepan escribir y hablar dos idiomas.

Se requiere de más intérpretes entre las disciplinas para construir grandes

soluciones tecnológicas y expandir el campo de conocimiento.

Ámbitos y mercados desvinculados

Page 140: Telecomunicaciones y Computación

140

Desde el punto de vista sistémico existen varios ámbitos y mercados desvinculados que

requieren ser estudiados y analizados para mejorar su alineamiento, y evitar los

desequilibrios que hoy existen en los ámbitos de vocación y educativo, en el mercado de

trabajo, en el mercado de bienes y servicios, así como en el ámbito regional. Cada uno

responde a lógicas diferentes y caminan con dinámicas distintas.

Se supone que para crear una nueva carrera profesional se requiere de estudios

del mercado de trabajo para analizar la oferta y demanda de la profesión. Sin embargo, la

problemática no se reduce simplemente a este mercado. Debemos incorporar el análisis

de los diferentes ámbitos y mercados para poder lograr una mejor vinculación con el

mundo productivo y social en las diferentes regiones del país. Cada uno tiene su oferta y

demanda, que al trasladarse de una esfera a otra no necesariamente coinciden. Y si

consideramos el ámbito de la investigación, el problema se vuelve más complejo de

solucionar.

Cuando nos referimos a los motores y/o motivaciones de la investigación, está

claro que puede ser la simple curiosidad, las preferencias y capacidades, las carencias

nacionales, el mercado mismo y las áreas de interés estratégico. Éstos son algunos

elementos para definir hacia dónde puede ir la investigación de una ciencia emergente.

Crisis del software

Este concepto ya tiene por lo menos más de 30 años, y está relacionado con la calidad

con la que se conforman e implementan los sistemas de cómputo. La gran visión de

arquitectura para observar el bosque y al mismo tiempo trabajar con rigor para cuidar los

detalles que permitan la identificación plena de las especificaciones de los requerimientos

para su traducción a código, han generado múltiples metodologías. Muchas de éstas han

generado diferentes estándares, mejores prácticas, e incluso diferentes tipos de

certificación de marca o comerciales, que los estudiantes cuando egresan de las escuelas

no necesariamente han incorporado en su formación, con un costo social adicional que

Page 141: Telecomunicaciones y Computación

141

debe ser cubierto, ya sea por las empresas o ellos mismos al invertir más tiempo en una

formación adicional que demanda el mercado.

Las vastas áreas de interés y los diferentes dominios que involucran a las ciencias

y tecnologías de información generan no sólo un campo fértil, también retos de

comunicación que no se solucionan sólo con el uso de lenguajes complejos sino con el

lenguaje natural. No es casualidad que varias metodologías y herramientas den tanta

importancia a la identificación de requerimientos de los usuarios y clientes, y al mismo

tiempo, a la tipificación de campos de aplicación de diferentes dominios. Los programas

tradicionales no producen de manera natural los arquitectos de software que tanto se

requieren. Y los que por sus capacidades naturales resaltan, más bien se dedican

tempranamente a sus propios intereses para desarrollar empresas.

Avances acelerados de la tecnología

El progreso de la tecnología no hubiera sido posible sin la conjunción de varios avances

de las ciencias (semiconductores, desarrollo de materiales, conectividad digital, desarrollo

de internet) con la habilidad, disciplina y visión para su integración. Nos encontramos en

círculos virtuosos que generan una gran masa crítica sinérgica.

Estos avances motivan para seguir adelante, pero es necesario tener claro el ciclo

de vida de las construcciones tecnológicas. Se supone que el motor que mueve los

requerimientos y avances tecnológicos es la demanda del mercado. Sin embargo, algunas

novedades tecnológicas tienen un carácter más de oferta y de creación de necesidades,

por lo que es necesario entender y propiciar los criterios de selección para una adecuada

gestión tecnológica que permita administrar el proceso de cambio, porque el acceso es

caro, y su vigencia puede ser rápida, con el asociado costo de mantenimiento que se

requiere.

Page 142: Telecomunicaciones y Computación

142

Innovación y enfoque de mercados

Con la investigación básica se obtienen conocimientos de frontera o de raíz, y con éstos

generalmente no se tiene una aplicación productiva inicial. Por suerte, es consustancial al

proceso de investigación, la solución de problemas o búsqueda de respuestas. La

investigación aplicada permite el desarrollo tecnológico. Pero sin ella, se genera una

dependencia a ésta, y nos volvemos compradores y seguidores de tendencias

tecnológicas.

Llama la atención que del total de los fondos para innovación y sectoriales,

aproximadamente 12% se asigna a proyectos que ofrecen respuesta a los problemas

planteados a partir del uso de las TIC.

Apropiación

Una clave para que se democratice el acceso y uso de las TIC es que los ciudadanos se

apropien de las mismas. En el caso del gobierno electrónico, es que ellos se vuelvan los

vigilantes a través de su uso, y con sus nuevas demandas ayuden a mejorar los servicios.

Sin duda, los avances en las TIC generan mayor bienestar a los ciudadanos y una

mayor competitividad a las organizaciones y países. Proporcionan una mayor eficiencia a

los procesos, pero también pueden producir vasta acumulación de información, que

incluso puede utilizarse para que los gobiernos hagan de sus prácticas cotidianas

procesos permanentes de transparencia. El enfoque de concentración de información se

ha dirigido a una masa indigerible de justificación programática de los procesos

administrativos, y no a generar información estructurada y de fácil acceso a través de

buscadores semánticos que ayuden a procesos sustantivos, como los procesos de

investigación.

Page 143: Telecomunicaciones y Computación

143

Soluciones tecnológicas y sus costos

Las soluciones tecnológicas representan diferentes maneras de vencer múltiples retos:

restricción de tiempo, costo y financiamiento, madurez de procesos, regulaciones,

barreras culturales, apoderamiento tecnológico ante la falta de capacidades. Pero en las

soluciones de las tecnologías de la información existen diversos dilemas tecnológicos,

que requieren ser investigados para reducir costos de acceso.

Permítanme comentar uno: la confrontación entre la subcontratación, u

outsourcing, y el desarrollo de capacidades internas. Se argumenta que la primera tiene

menores tiempos de implementación, pero con altos costos de entrada y rentas

tecnológicas, versus el segundo con mayores tiempos de implementación al desarrollar

capacidades internas, con costos permanentes para su mantenimiento, que puede

profundizar en la especificidad de requerimientos, sin desarrollar necesariamente

prácticas estandarizadas para sustituir la rotación natural del personal.

Los desarrollos ad hoc, o a la medida, son en principio más elevados en su costo,

pero también los procesos de instrumentación de soluciones genéricas implican consumo

de tiempo de las personas que están dedicadas a la operación de los procesos, y tiempo

para adecuarse a ello por ser poco flexibles. Es aquí cuando se introduce el concepto de

madurez de las organizaciones, que se desarrolló en la Universidad Carnegie Mellon. La

explicación que nos proporcionan es sencilla: no se pueden sistematizar organizaciones

fácilmente si no están maduras en cuanto a organización.

Por eso es muy importante la revelación de los costos. Entre más explícitos sean

los costos de acceso a la tecnología y su entrada tenga menos restricciones, los usuarios

podrán aquilatar de mejor manera el retorno de sus inversiones, ya que los beneficios son

más evidentes, sobre todo en productividad. Es decir, lograr que el poder esté en los

usuarios y no en los tecnólogos, y menos en las empresas monopólicas.

Éste es el tipo de dilemas que deben estudiarse en la intersección de la

informática y la administración como ciencias.

Page 144: Telecomunicaciones y Computación

144

PROPUESTAS

Las propuestas para mejorar el proceso de investigación y formación las vemos en dos

grandes planos, uno de orden general e institucional, otro de manera particular en el

nuevo campo de estudio que se propone.

Papel del sector Conacyt

Si bien el Conacyt no es toda la ciencia en México, es uno de los actores prominentes que

institucionaliza una buena parte de la coordinación y orientación de las instituciones de

investigación. Su papel es fundamental en la administración de los incentivos y apoyos

para los científicos y para los estudiantes que buscan ingresar al mundo de generación de

conocimientos de frontera, donde las certezas son escasas y las incertidumbres son

abundantes. Pero sin duda son un segmento privilegiado de la población, como lo señaló

alguna vez Miguel José Yacaman. Sólo hay que recordar que por definición, la

investigación es especialización y focalización de esfuerzos.

Las orientaciones del Conacyt, a través de sus acciones, son decisivas para influir

positivamente en señalar el norte hacia donde debe ir el desarrollo de la ciencia en

nuestro país. En especial, su apoyo puede contribuir a los procesos de aplicación de la

ciencia para el desarrollo de tecnologías. La investigación aplicada permite el desarrollo

tecnológico y disminuye la dependencia externa, es decir, evita que sólo seamos

compradores y seguidores de tendencias, y al mismo tiempo apoya la competitividad de

las empresas, organizaciones y personas del país.

La transformación institucional del Conacyt, que se delínea es una excelente

oportunidad para proyectar el tipo de institución que se requiere para facilitar el desarrollo

Page 145: Telecomunicaciones y Computación

145

y acumulación del talento humano capaz de hacer ciencia e innovación, es útil para

resolver nuestros grandes retos y generar riqueza. Pero para cambiar con sentido, se

requiere reconocer dónde estamos situados y hacia dónde vamos.

El Conacyt se ha convertido en una entidad parecida a la banca de desarrollo. La

disponibilidad de recursos atrae la atención y ocupa la operación fundamental de su

quehacer cotidiano. Sus principales programas están dominados por la agenda de

distribución de fondos (Sistema Nacional de Investigadores, becas, fondos para ciencia y

tecnología). No obstante, este gran papel no ha encontrado un diálogo constructivo entre

las grandes dependencias globalizadoras del país, que por mandato están concentradas

en equilibrio presupuestal y la rendición de cuentas con esquemas tradicionales.

La política científica y tecnológica, y en consecuencia su agenda, no está

orientada a atender los grandes retos nacionales. Estos temas ocupan están en un

segundo término. Estamos más ocupados en la procuración de recursos para atender las

necesidades de subsistencia de proyectos y rendición burocrática de cuentas, que en el

desarrollo de talento y en la concentración de soluciones de los grandes problemas

nacionales. Esto distrae el uso de nuestros activos y merma el potencial de nuestros

científicos y tecnólogos.

Al día de hoy no están a la vista de la sociedad los grandes proyectos que nuestro

sector persigue, ésos que contribuyan a alinear el esfuerzo y obtener grandes saltos en el

conocimiento y la innovación, ésos que harían a los jóvenes imaginar su futuro como

personas exitosas, reconocidas y de amplia solvencia gracias al desarrollo de su talento

científico y creativo.

Tabla 1. Principales objetos y macrofunciones de la Ley de Ciencia y Tecnología.

Page 146: Telecomunicaciones y Computación

146

Consideramos que esta situación proviene de la misma Ley de Ciencia y

Tecnología que en términos generales prevé tres grandes objetos: financieros,

coordinación y vinculación, y desarrollo y fomento.

Por estas razones, vemos cuatro facetas del Conacyt que deben ser consideradas

en su proceso de reingeniería funcional

• Prospectivo, como guía de grandes orientaciones

• Reflexivo, a manera de un laboratorio de ideas

• Articulador de esfuerzos, con un papel renovado de la vinculación

• Financiero, que comunique la rentabilidad social y productividad que implica

canalizar recursos escasos a la ciencia y tecnología, que explicite los criterios de

asignación, que mejore los controles administrativos para recibir fondos y que facilite la

rendición de cuentas efectiva

Financieros Coordinación y

vinculación

Desarrollo y fomento

" Regular y determinar los

instrumentos de apoyo

" Establecer los

mecanismos de

coordinación para la

definición de la política

pública

" Determinar las bases de

apoyo para realizar la

investigación científica y

tecnológica y para el

fortalecimiento de la

capacidad institucional

" Vinculación entre la

comunidad científica y

académica y los

sectores productivos y

de servicios

" Fomentar el desarrollo

tecnológico y de innovación

de las empresas en México

en condiciones para producir

nuevas tecnologías e

incrementar su competitividad

Page 147: Telecomunicaciones y Computación

147

Propuesta para formación e investigación

En el caso de la formación, nos gustaría señalar algunas propuestas. Es importante

realizar una revisión de todos los planes de estudios de las múltiples carreras que existen

en relación con el tema que nos ocupa, con el objetivo de homologar y especificar los

diferentes campos de estudio. Es conveniente revisar la pertinencia y actualización de los

programas, pero también la forma de nominarlos. No se trata únicamente de crear nuevas

carreras o reagrupar las existentes, se requiere distinguir claramente las bases de

formación y las distintas especialidades desde los estudios de licenciatura. Dar señales

claras al mercado de trabajo para distinguir los diferentes programas relacionados con las

tecnologías de información y comunicaciones. Tal vez realizar una iniciativa nacional para

efectuar una revisión curricular, similar a la que se lleva a cabo cada vez con mayor

periodicidad en Estados Unidos, donde se reconocen claramente sus deficiencias y los

retos.

El crecimiento de la matrícula de las carreras en torno a las TIC fue de 1.8% durante el

periodo 2001-2009, pasando de algo más de 177 mil alumnos a alrededor de 215 mil. Se

estima que la eficiencia terminal nacional en ese periodo osciló entre 51 y 57%, de

acuerdo con la información del Instituto de Nacional de Estadística, Geografía e

Informática (INEGI) y un trabajo reciente que se elaboró en el Infotec (Téllez, 2012b). El

número de egresados osciló en 30 mil, pero no en las especialidades que requiere el

mercado de trabajo, por ejemplo, en sistemas embebidos. No obstante que las carreras

de licenciatura en computación y sistemas se encuentran entre las más populares de la

matrícula, algunos expertos señalan que existe una carencia de profesionistas altamente

capacitados, lo que apunta al factor de la calidad en su formación (Estrada, 2011: 74, 79).

Agregaría también a su pertinencia.

No debemos perder de vista que no se puede formar profesionales únicamente para

demandas puntuales y coyunturales de mercado. Las personas deben contar con el

bagaje necesario para entrar en el mercado de trabajo, pero al mismo tiempo deben

Page 148: Telecomunicaciones y Computación

148

contar con la habilidad de aprender a aprender, para enfrentar los cambios bruscos de

ajustes que de vez en cuando realizan los mercados.

De acuerdo con una revisión realizada por uno de nuestros investigadores invitados de

posdoctorado, actualmente existen en México 74 programas de maestría y 59 de

doctorado en computación registrados en el PNPC (Estrada, 2013). Utilizando esta

información dispersa bajo un criterio de algoritmos de agrupamiento (clustering), se

encontró que entre los principales temas de investigación que se abordan destacan por su

interés los siguientes: sistemas, desarrollo, software, algoritmos, redes, aplicaciones,

inteligencia artificial, control, datos y diseño.

Si bien el principal interés de la investigación es en torno al desarrollo de sistemas, se

percibe un relativo envejecimiento temático. Realizando una reagrupación de los temas de

ingeniería de software, existen pocos trabajos en metodologías o calidad. Para el caso de

inteligencia artificial, resaltan los algoritmos, modelos de optimización, inteligencia y

redes.

Existen muchos programas educativos aislados que seguramente están respondiendo

a necesidades específicas. Incluso hay distorsiones como la de los programas

paracurriculares diseñados para ajustarse con mayor velocidad a los cambios del

mercado y de los ámbitos vocacional y regional. Utilizando una sencilla tabla de

frecuencia y normalizando los nombres de los programas y agrupando temas afines,

encontramos los siguientes resultados.

Tabla 2. Programas de maestrías y doctorados de computación en México

Temática Núm. Temática Núm.

Ingeniería de software 19 Administración de proyectos 1

Cómputo 16 Aprendizaje 1

Inteligencia artificial 13 Bioinformática 1

Imágenes 10 Biotecnología 1

Electrónica 5 Tecnología educativa 1

Optimización 5 Geomática 1

Ingeniería computacional 4 Gestión del agua 1

Page 149: Telecomunicaciones y Computación

149

Inteligencia 4 Ingeniería industrial 1

Robótica 3 Innovación 1

Administración de conocimiento 2 Investigación de operaciones 1

Automatización 2 Materiales 1

Comunicaciones 2 Mecatrónica 1

Criptografía 2 Planeación 1

Sistema de información 2 Sistemas distribuidos 1

Transporte 2

En relación con las tendencias internacionales tenemos una gran brecha con los temas

que se atienden en México. Se puede comparar la información analizada de los

programas del PNPC con los temas que se generan periódicamente, como es el caso del

estudio de Gartner sobre las tendencias en tecnología para 2013. Es posible ver que no

se corresponden los temas nacionales con los que son relevantes internacionalmente.2 En

pocas palabras, los temas internacionales son prácticamente inexistentes o marginales en

los temas de investigación en México, como cómputo móvil, aplicaciones nativas para la

web, cómputo en la nube, interconexión de utensilios cotidianos, big data y computación

en memoria.

Para profundizar en los aspectos que más se investigan en el plano internacional, se

realizó un ejercicio de identificación de los temas más representativos, considerando el

país de origen, temas, subtemas y temáticas específicas. Se seleccionaron 24 categorías

y se analizaron los 20 artículos más citados para identificar los temas más relevantes en

los últimos cinco años, utilizando el sistema de búsqueda de Google Scholar (Estrada,

2013). Con esta mecánica fue posible procesar una lista de más de 2 mil artículos a

través de las entidades o conceptos nombrados. Los principales hallazgos son los

siguientes:

" El tema de investigación que más se está trabajando en el mundo, de acuerdo con

su frecuencia de aparición en artículos, es el relacionado con redes de

computadoras y comunicaciones.

2http://www.computerworld.com/s/article/9232800/Gartner_s_Top_10_tech_trends_for_2013.

Page 150: Telecomunicaciones y Computación

150

" Es interesante observar que le siguen temáticas como biotecnología, bioinformática

e inteligencia artificial, que son tres conceptos altamente relacionados porque las

técnicas de inteligencia artificial se utilizadan precisamente en biotecnología y

bioinformática para análisis semiautomático de información de estos dominios.

" Cuando se efectúa un zoom en subtemas, resaltan nuevamente las comunicaciones

(computación móvil y comunicación inalámbrica), al igual que la biología

computacional. Otros temas relevantes son geociencias y sensores remotos.

" En temas específicos se observa también que el área de comunicación continúa

apareciendo como muy relevante, con temas como Wireless, computación móvil,

protocolos, antenas, redes de sensores y todos los temas relativos a redes de

comunicación. Un aspecto importante es que en esta lista concreta aparecen temas

más genéricos, como análisis de algoritmos, encriptado y complejidad, así como

temas de inteligencia artificial (reconocimiento de rostros, programación genética,

algoritmos evolutivos, traducción estadística de datos, web semántica o redes

neuronales).

" Es interesante observar que son muy pocos los temas de bases de datos o de

ingeniería de software.

" En cuanto a los países líderes en investigación, medidos por número de

publicaciones, se encontró que Estados Unidos es el país que más artículos

relevantes ha generado en los últimos cinco años. Seguido, con una gran diferencia,

por China, Reino Unido, Alemania, Canadá, Suiza, Italia, Francia y España. Si se

suman todos los artículos de los países de la Unión Europea (833), no se comparan

con los 1 250 artículos de Estados Unidos.

" Aun cuando México ha avanzado en publicar investigaciones en revistas

internacionales de prestigio, generalmente esta producción tiene las siguientes

características: no es reciente (más de cino años), no es muy citada en otros

artículos de investigación, y se trabaja en muchas temáticas de investigación.

Es importante mencionar que se requieren más datos para corroborar estos resultados

preliminares, y aclarar que esta selección puede estar sesgada por las diferentes

Page 151: Telecomunicaciones y Computación

151

categorías y subtemas utilizados en la desagregación. Sin embargo, en general existe una

convergencia temática con Gartner.

La investigación y la formación en aspectos relacionados con las ciencias y tecnologías

de información también pueden ser agrupadas por el tipo de participación y por el enfoque

de apoyo en tres grandes campos: 1) el de investigación básica de desarrollo teórico y

generación de conocimientos de frontera, con la participación de la academia y la

empresa; 2) el campo de desarrollo de investigación de aplicaciones, que requiere

incorporar en mayor medida el enfoque de mercado y 3) el que estudie los aspectos de

apropiación y mecanismos de compensación, con un enfoque social.

Este último aspecto forma parte de la estrategia de crear medidas compensatorias que

el mercado no siempre puede proporcionar porque no existen condiciones adecuadas de

sustentabilidad, que en un principio deben ser atendidas por el Estado, como es la

educación. Entre las medidas compensatorias están el propiciar que más personas

adquieran habilidades digitales, ampliar la conectividad, aumentar la velocidad de acceso,

que las personas aprendan de forma adecuada las habilidades de lectura compleja, y que

los precios sean económicamente eficientes.

En todo esto subyace una pregunta clave: ¿qué hacer para impulsar más la

investigación en México? Los problemas concretos de orden nacional deben ser los retos

para las ciencias mexicanas, a través de mecanismos concretos: generar conocimientos

de frontera para la solución de problemas, formar nuevos investigadores para disminuir la

edad promedio vigente de los investigadores, crear multiplicadores que desarrollen

nuevos investigadores y emprendedores tecnológicos, proyectar a los investigadores

maduros, y formar equipos transdisciplinarios.

La integración de campos ha permitido grandes aportaciones a la ciencia, por ejemplo

la genética, y la iniciativa que se está planteando para mapear el cerebro. Pero otras tres

áreas que identifico son la biotecnología —los sistemas embebidos o dedicados—, la

economía de la información, y el ámbito del derecho en las TIC.

Quiero hacer una reflexión final. Este tipo de evento nos permite mostrar las distintas

visiones que tenemos para enfrentar los retos que la sociedad demanda a la ciencia y la

tecnología, pero desde mi punto de vista tenemos que acelerar el proceso de

transformación y trabajar en alcanzar la velocidad de difusión de la revolución industrial

que provocó las TIC, como tecnologías de propósito general y al mismo tiempo como una

Page 152: Telecomunicaciones y Computación

152

ciencia emergente. Una estrategia para superar el rezago es identificar las intersecciones

de las ciencias para provocar con innovación un salto cuantitativo, así como una política

pública agresiva en la materia, que está por verse si somos capaces de participar en su

articulación e instrumentación en el corto plazo.

REFERENCIAS

Estrada, Ricardo (2011). Profesionistas en vilo, México: Cidac.

Estrada Esquivel, Hugo (2013). Estudio sobre los temas de investigación en computación

que se abordan en México y en el plano internacional, México: Cuadernos de

Trabajo Infotec (en prensa).

Morales, Valentino (2008). La bibliotecología y estudios de la información. Análisis

histórico-conceptual, México: El Colegio de México.

Quintanilla, Susana (2002), Arturo Rosenblueth y Norbert Wiener: dos científicos en la

historiografía de la educación contemporánea. Revista Mexicana de Investigación

Educativa,

Téllez Mosqueda, Juan Carlos (2012a), “¿Se alcanzará la plena información con el

Internet?”, en: Estrategias y metodología para la innovación tecnológica en

municipios. Las diferentes vías al gobierno digital. México: Infotec (en prensa).

Téllez Mosqueda, Juan Carlos (2012b), Estado de la formación en sistemas embebidos.

¿Se pueden crear sin respaldo educativo y sin vinculación empresarial?, México:

Cuadernos de Trabajo Infotec.

Page 153: Telecomunicaciones y Computación

153

HACIA DÓNDE VA LA INVESTIGACIÓN EN COMPUTACIÓN EN MÉXICO

Carlos A. Coello Coello*

INTRODUCCIÓN

La ciencia de la computación ha tenido un desarrollo un tanto tardío en nuestro

país, aunque ha mejorado considerablemente en los últimos 10 años. Para ilustrar

esto, basta decir que en 1994 se estimaba que había unos 50 doctores en

computación en todo el país (Estivill-Castro, 1995); para 1999, el Consejo Nacional

de Ciencia y Tecnología (Conacyt) indicaba que había unos 150, lo cual era

todavía un número muy bajo. Para poner esta cifra en el contexto debido, baste

decir que esta cantidad era inferior al número de doctores en computación que en

ese entonces tenía Singapur, cuyo territorio ocupa apenas 697 km2 (más o menos

una sexta parte de la superficie que ocupa el estado de Tlaxcala). Actualmente,

estimo que hay unos 600 doctores en computación laborando en México, uso

como referencia el número de computólogos con que cuenta ahora el Sistema

Nacional de Investigadores (SNI) en el área VII (unos 400) y el padrón elaborado

por la Red Mexicana de Investigación y Desarrollo en Computación (Remidec).1

Otro problema que ha tenido la ciencia de la computación en nuestro país

es que, como disciplina, ha sido confundida y entremezclada con áreas

puramente tecnológicas. En México se ofrecen diversas licenciaturas con perfil

altamente tecnológico que tienen muy poco (o incluso ningún) contenido

relacionado con la ciencia de la computación. Tener conocimientos en esta área

va más allá de saber programar en C/C++, o saber cómo colocar el disco duro de

*

1 http://turing.iimas.unam.mx/~remidec/investigadores.pdf (consultada el 18 de abril de

2014).

Page 154: Telecomunicaciones y Computación

154

una computadora de escritorio; implica tener conocimientos sobre los fundamentos

teóricos de la ciencia de la computación (por ejemplo, sobre teoría de autómatas,

análisis de algoritmos, computabilidad y álgebra relacional, entre muchos otros

temas). Sin embargo, el ineludible nexo tecnológico que ha tenido históricamente

la ciencia de la computación ha dificultado ubicarla en las taxonomías científicas

de nuestro país y hace difícil que incluso otros científicos entiendan nuestra labor y

el tipo de investigación que realizamos. En este artículo se presenta una visión

muy personal del estado actual de la investigación en computación en México,

incluyendo algunas reflexiones sobre el futuro de la misma.

VISIBILIDAD DE LA COMUNIDAD DE COMPUTACIÓN EN EL ÁMBITO NACIONAL

La comunidad de computólogos ha tenido poca visibilidad en nuestro país, lo cual

evidentemente incide en las (todavía escasas) políticas científicas del mismo.

Resulta particularmente preocupante la falta de computólogos en órganos muy

importantes para la toma de decisiones en el ámbito científico, como el Conacyt y

la Secretaría de Educación Pública.

A pesar de esto, es importante reconocer que la comunidad de

computación, en general, ha resultado beneficiada con un número importante de

becas que han permitido (y continúan haciéndolo) que un gran número de

estudiantes cursen estudios de posgrado en ciencia de la computación en México

y el extranjero.

En cuanto a apoyos a la investigación, cabe mencionar que, aunque el

primer proyecto de investigación básica en ciencia de la computación se aprobó

hace apenas 20 años (en 1994), hoy en día un número importante de

computólogos han obtenido fondos a través proyectos de investigación básica y de

otras convocatorias del Conacyt (por ejemplo, proyectos bilaterales y de fondos

mixtos y sectoriales). También ha habido un número importante de computólogos

en los comités de evaluación de proyectos de investigación del Conacyt desde

finales de los años noventa. De tal forma, no creo que sea adecuado considerar a

la computación como una disciplina particularmente desfavorecida en el renglón

Page 155: Telecomunicaciones y Computación

155

de financiamiento a la investigación, si bien conseguir un proyecto de investigación

básica del Conacyt se ha tornado una tarea muy difícil en los últimos 10 años.

Lo que sí representa un problema importante en el ámbito nacional es la

escasez de fondos para la investigación básica, así como de plazas para

investigadores recién doctorados, si bien dicho problema, al igual que el escaso

financiamiento a la investigación básica en nuestro país, no es exclusivo de esta

disciplina.

CALIDAD DE LA INVESTIGACIÓN EN COMPUTACIÓN REALIZADA EN MÉXICO

A pesar de la juventud de la ciencia de la computación en México y el mundo, así

como de sus evidentes limitantes, considero que en nuestro país se hace

investigación y formación de recursos humanos de muy buen nivel. Esto se puede

evidenciar con diversos indicadores. Por ejemplo, existen varios programas de

posgrado (maestría y doctorado) en computación en nuestro país que están

considerados como “consolidados” y/o como “competentes a nivel internacional”

en el Padrón Nacional de Programas de Calidad del Conacyt. Algunas de las

instituciones que imparten estos programas de posgrado de calidad son: la

Universidad Nacional Autónoma de México (UNAM), el Centro de Investigación y

Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav-IPN), el Centro de

Investigación en Matemáticas (Cimat), el Centro de Investigación en Computación

del Instituto Politécnico Nacional (CIC-IPN NAM), el Instituto Nacional de Astrofísica,

Óptica y Electrónica (INAOE) y el Centro de Investigación Científica y de Educación

Superior de Ensenada (CICESE), entre otras.

También existe ya una cantidad importante de computólogos que cuentan

con nombramiento de investigadores niveles II y III (40 y 13, respectivamente) en el

Sistema Nacional de Investigadores (SNI), lo cual refleja una madurez creciente de

la comunidad de computólogos en nuestro país. Adicionalmente, este indicador de

membresía en el SNI está correlacionado con la generación de un número

importante de publicaciones indizadas (requisito para obtener y mantener dichos

nombramientos) y con una formación importante de recursos humanos de

Page 156: Telecomunicaciones y Computación

156

posgrado (maestría y doctorado). Sin embargo, este rubro es en el que hace falta

una mayor consolidación, pues eso permitirá tener mayor participación de los

computólogos en las comisiones dictaminadoras del SNI, así como en otros

comités del Conacyt.

ALGUNAS REFLEXIONES

A 56 años de la llegada de la primera computadora a México,2 creo que es

momento de detenerse por un instante para reflexionar en torno a esta disciplina y

a la dirección hacia la cual queremos llevarla en los años venideros. A ese

respecto, proporciono a continuación algunas reflexiones, muy personales, sobre

temas que son de mi particular interés:

• Usos y costumbres de la comunidad de computación. Muchos colegas se

han quejado de los sistemas de evaluación en México (particularmente, del

Sistema Nacional de Investigadores), que tienden a desfavorecer las

publicaciones en extenso en congresos internacionales, sin importar el

prestigio de éstos. De hecho, los congresos de élite en varias áreas de

computación tienen porcentajes de aceptación mucho más bajos que

cualquier revista de alto impacto en computación y áreas afines.

Adicionalmente, existen áreas dentro de la ciencia de la computación en las

que resulta en especial difícil publicar en revistas (por ejemplo, la

criptografía) y en las que excluir las publicaciones en congresos de calidad

las desfavorece particularmente, si bien eso no ha impedido a varios

criptógrafos poder pertenecer al SNI. Comparto mi preocupación por este

problema, aunque hasta cierto punto entiendo también (si bien no lo

justifico) que las publicaciones en congresos generen desconfianza entre

2 http://www.cs.cinvestav.mx/SemanaComputoCINVESTAV/Computo.html (consultada el 18 de

abril de 2014).

Page 157: Telecomunicaciones y Computación

157

colegas pertenecientes a otras disciplinas, en las cuales los congresos sólo

se publican resúmenes de sus trabajos o publican trabajos en extenso que

no se someten a un arbitraje estricto. En una actitud simplista, dichos

colegas llegan a pensar que todas las disciplinas siguen procedimientos

similares para sus publicaciones en congresos. Evidentemente, tales

colegas no se percatan de que la ciencia de la computación es una

disciplina que, por su naturaleza, requiere de mecanismos dinámicos de

publicación y, de hecho, por esta misma razón, muchos artículos publicados

en congresos son citados con más frecuencia que los publicados en

revistas indizadas. Claro que tal vez nos ha faltado adicionar algún

indicador de calidad a las publicaciones en congresos (como el porcentaje

de aceptación de los artículos) para ser más convincentes, y también

tendríamos que evitar caer en los abusos de esta figura (como ocurrió con

los Lecture Notes in Computer Science en el tiempo en que estuvieron

indizados en el ISI Web of Science). No obstante, en lo personal me

preocupa más el fenómeno que se ha producido a raíz de estas políticas de

evaluación. Hoy en día, existen, por ejemplo, varios investigadores que han

optado por publicar artículos de manera masiva en revistas de calidad

cuestionable, en aras de poder ascender rápidamente en el SNI o, incluso,

para mantener su nombramiento. Esto es, sin duda, un efecto colateral

indeseable del SNI, el cual resulta difícil de controlar, a menos que se

establezcan políticas claras de calidad, las cuales no son fáciles de definir e

implementar. Si bien el SNI considera ciertos mecanismos de control que le

resultarán difíciles de satisfacer a quien publica sistemáticamente trabajo de

baja calidad (como el conteo de citas o la evidencia de reconocimiento

internacional), conviene cuestionarnos como comunidad qué tipo de

indicadores son los que valdría la pena medir en la productividad científica

de un computólogo, de manera que se privilegie la calidad. Hoy en día,

podría decirse que el SNI ha promovido que los computólogos publiquen

más que antes, pero eso no significa que publiquen trabajos de mejor

calidad. Aquí mi reflexión es: ¿estamos listos como comunidad científica (y

Page 158: Telecomunicaciones y Computación

158

aquí no me refiero sólo a la ciencia de la computación, sino a la comunidad

científica en general) para movernos de los sistemas de evaluación que

miden la cantidad a otros que opten mejor por medir la calidad? ¿No sería

mejor, por ejemplo, que el SNI pidiera menos artículos en cada periodo de

evaluación, pero de mejor calidad (como en revistas con mayor factor de

impacto)?

• ¿Hacia dónde vamos como científicos? Ésta puede parecer una pregunta

retórica, pero no es así. En los años que llevo trabajando como científico en

México he podido constatar que existen muchos computólogos que no

parecen tener muy claro lo que significa ser un “investigador consolidado”,

si bien aspiran claramente a convertirse en uno. Por ejemplo, me ha tocado

evaluar expedientes en el SNI de investigadores que no saben elaborar

correctamente un reporte de citas (hay quienes simplemente copian el

resumen de su conteo de citas del ISI Web of Science, en vez de incluir las

fichas bibliográficas completas de las citas a cada uno de sus artículos).

Otros, incluyen sólo autocitas en sus reportes. Algunos tampoco parecen

tener clara su propia línea de investigación, pues proporcionan

descripciones ambiguas o vagas que engloban un gran número de

subdisciplinas, con lo cual resulta difícil argumentar liderazgo en alguna de

ellas. Hay también quienes no tienen claro qué tipo de evidencia debe

proporcionarse para documentar reconocimiento internacional (por ejemplo,

pertenencia a comités editoriales de revistas internacionales indizadas, el

haber sido invitado a fungir como conferencista plenario o magistral a

congresos internacionales de prestigio, el haber recibido premios

internacionales, etcétera). Imaginemos por un momento que alguien nos

pregunta, ¿cuál ha sido nuestra contribución científica más importante?

¿Podemos dar una respuesta clara y contundente a esta pregunta? Aquí mi

reflexión es: ¿sabemos a qué aspiramos como científicos o tenemos

siquiera metas claras al respecto? ¿Nos interesa ser realmente líderes

mundiales en nuestra área? ¿Es realista esta meta?

Page 159: Telecomunicaciones y Computación

159

• Hacia una comunidad mejor organizada. Creo que algo que nos ha faltado a

los computólogos mexicanos es organizarnos mejor como comunidad. Si

bien existen dos sociedades que son bien conocidas por nuestra

comunidad (la Sociedad Mexicana de Ciencias de la Computación y la

Sociedad Mexicana de Inteligencia Artificial), éstas han servido

fundamentalmente para dotar de una mejor estructura a la organización de

dos congresos (el Encuentro Nacional de Computación y la Mexican

International Conference on Artificial Intelligence, respectivamente), pero no

han cumplido la función de actuar como interlocutoras ante instancias como

el Conacyt y el gobierno federal durante el proceso de toma de decisiones

relacionadas con políticas científicas. En ese sentido, los esfuerzos que

realiza actualmente el doctor Luis Alberto Pineda Cortés para crear la

Academia Mexicana de Computación son sumamente importantes, y

espero que puedan dar pie a un organismo que nos dé una mayor

visibilidad como comunidad científica y una mejor interlocución con los

órganos federales responsables de las políticas científicas de este país.

Aquí mi reflexión es: ¿hacia dónde queremos que se dirijan las políticas

científicas de nuestro país, particularmente en lo concerniente a la

investigación en ciencia de la computación?

• El trabajo multidisciplinario. En la actualidad vivimos en un mundo que

demanda, cada vez más, la interacción de varias disciplinas científicas para

poder lograr avances importantes, y la ciencia de la computación no es

ajena a esta tendencia. Disciplinas como la bioinformática son ejemplos

palpables de lo que la ciencia de la computación puede lograr para apoyar

el desarrollo científico. Y éste no es un caso aislado, pues actualmente

existen, por ejemplo, innumerables aplicaciones del cómputo científico y el

paralelismo en disciplinas como la física y la química. Claro que tampoco se

trata de que sirvamos de programadores a colegas de otras disciplinas.

Evidentemente, lo que buscamos es abordar problemas de otras

disciplinas, los cuales planteen retos relevantes para los computólogos

(como problemas en los que un mejor diseño algorítmico o el uso de

Page 160: Telecomunicaciones y Computación

160

técnicas sofisticadas de paralelización traerían grandes beneficios). Aquí mi

reflexión es: ¿estamos dispuestos los computólogos a realizar trabajo

multidisciplinario de frontera con colegas que se especialicen en otras

áreas? ¿Será este tipo de trabajo interdisciplinario el futuro de la

investigación científica en nuestro país y el mundo?

• Apoyos a la investigación. Claramente, todas las comunidades científicas

piden todo el tiempo más apoyo financiero para sus disciplinas respectivas,

a través de proyectos de investigación, plazas para investigadores jóvenes

e infraestructura. Los computólogos pedimos un poco más, pues para

empezar queremos que nuestra disciplina reciba el reconocimiento debido

del Conacyt, del SIN, así como de muchas otras entidades, como la

Academia Mexicana de Ciencias. Resulta claro que hace falta crear más

centros de investigación básica y aplicada enfocados a la ciencia de la

computación (la misma UNAM, que cuenta con institutos para disciplinas

como física, química y matemáticas, no cuenta a la fecha con uno

exclusivamente para la ciencia de la computación, siendo lo más cercano el

Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas (IIMAS), el

cual cuenta con un departamento de computación). Es evidente la

necesidad de crear más centros de investigación orientados exclusivamente

a la investigación en ciencia de la computación. Aquí mi reflexión es:

¿estamos preparados para crear centros de investigación en áreas

específicas de la ciencia de la computación en las cuales podamos ser

líderes en el ámbito mundial? ¿Podemos siquiera aspirar a dicho liderazgo

en el corto o mediano plazos?

A MANERA DE CONCLUSIONES

Considero que actualmente la investigación en computación en México

experimenta los “dolores del crecimiento”. Creo que nos movemos

paulatinamente de una disciplina que fue incipiente durante varios años,

Page 161: Telecomunicaciones y Computación

161

hacia un nivel cada vez más claro de consolidación científica, que varía

según el área que analicemos. Nuestra disciplina es claramente diferente

de otras, pero eso no quiere decir que no podamos contar con una

comunidad científica madura y con liderazgo en el ámbito internacional, y

ése es ciertamente el futuro que me gustaría que tuviese la computación en

nuestro país.

Hoy también tenemos un país muy distinto del que nos tocó ver a los

que regresamos del extranjero hace 15 años o más. Actualmente el nivel de

competencia para ocupar una plaza como investigador en un departamento

de computación de prestigio es mucho más difícil que hace 15 o más años.

Hoy no basta con tener un doctorado en computación, sino que se buscan

investigadores jóvenes que cuenten ya con publicaciones en revistas

internacionales indizadas y que muestren indicios de que podrán realizar

investigación independiente de calidad.

No obstante, soy optimista y me resulta claro que nuestra comunidad

se encuentra en un evidente proceso de consolidación y que seguiremos

avanzando en esta dirección. Sin embargo, no por eso debemos confiarnos,

pues falta todavía mucho por lograr, particularmente en torno a obtener

mayor visibilidad dentro de la comunidad científica en nuestro país, así

como en lo concerniente a adquirir un mayor liderazgo internacional. Si no

pensamos en grande, no podemos aspirar a ser grandes científicos, así que

a este respecto es todavía mucho lo que nos falta por lograr, pero creo que,

como comunidad, no lo hemos hecho tan mal hasta ahora.

BIBLIOGRAFÍA

Estivill-Castro, Vladimir (1995). Computer Science Research in Mexico. Computer, 28(8),

56-62.

Page 162: Telecomunicaciones y Computación

162

SEMBLANZA DE LOS AUTORES

Sergio Carrera

Es licenciado en economía por la UNAM y maestro en administración por el Instituto

Tecnológico y de Estudios Superiores de Monterrey (ITESM). Cuenta con estudios de

posgrado en dirección de entidades públicas y finanzas públicas por el Instituto Nacional de

Administración Pública (INAP), así como en diseño y administración de sistemas de

franquicias por el (ITESM). Cuenta con más de 30 años de experiencia en cargos

administrativos, gerenciales y directivos para diferentes dependencias del gobierno federal,

como las secretarías de Economía, Hacienda y Crédito Público y Programación y

Presupuesto. Ha recibido distinciones como el Premio Nacional de Logística 2009; en

diferentes épocas ha formado parte de comités y consejos directivos para organismos como

el Conacyt, el Sistema Nacional e-México, Tiendas ISSSTE, Fonacot y Diconsa. El maestro

Carrera ha sido responsable del diseño e instrumentación de políticas y programas

exitosos, con alcance nacional e internacional, en el sector de las TIC, como la Estrategia de

Economía Digital del gobierno federal y Prosoft, méritos por los que fue nombrado

vicepresidente de asuntos gubernamentales de la Asociación Mexicana de Internet (AMIPCI)

durante 2008. Desde el 2010 es director ejecutivo de Infotec, centro público de

investigación, innovación y desarrollo tecnológico, donde impulsa la vinculación de los

sectores público, privado y de investigación para apoyar el desarrollo y uso de las TIC en

México.

Eduardo Alberto Castañón Cruz

Nació en Pánuco, Veracruz, el 27 de julio de 1949. En su ciudad natal hizo sus estudios

primarios y secundarios. Posteriormente ingresó al Instituto Politécnico Nacional donde en

1971 obtuvo el título de ingeniero en comunicaciones y electrónica en la Escuela Superior

de Ingeniería Mecánica y Eléctrica (ESIME). En 1972-1973 estuvo becado por la Secretaría

de Comunicaciones y Transportes (SCT) y el gobierno francés. Hizo una estancia de

especialización en transmisión digital en el Centre National d’études des Telecom-

munications, en París y Lannion, Francia. Siendo ya ingeniero, fue becado por la SCT, el

Page 163: Telecomunicaciones y Computación

163

Conacyt y el gobierno francés, y de 1974 a 1977 hizo los estudios correspondientes para

obtener el diploma de ingeniero civil en telecomunicaciones en la École Nationale

Superieure des Telecommunications (ENST) de París, siendo el primer mexicano en

obtener ese diploma. Y enseguida, de 1977 a 1979 obtuvo el título de doctor en ingeniería

de telecomunicaciones en la ENST, la cual es una de las grandes escuelas francesas de

ingenieros conocidas como de aplicación de la École Polytechnique. Desde que era

estudiante y hasta 1981 fue funcionario en la Dirección General de Telecomunicaciones

de la SCT, donde coordinó el proyecto para implantar la primera red pública de transmisión

de datos Telepac. Más tarde, de 1981 a 1987 ocupó la gerencia de telecomunicaciones

en Nacional Financiera, SNC. Posteriormente, de 1987 a 1991 fue subdirector de redes de

datos en Sistemas Ericsson, S. A.; y director general de Pentamex, S. A. de C. V. De

1992 hasta la fecha es empresario independiente y es presidente y director general de

Inred, S. A. de C. V; y consultor en telecomunicaciones de varias empresas mexicanas y

extranjeras. Entre los proyectos más relevantes que ha dirigido se encuentran la Red

Pública de Transmisión de Datos Telepac; la red nacional de telecomunicaciones de

Nafinsa y del Banco Internacional; la primera red nacional electoral del Programa de

Resultados Electorales Preliminares (PREP) contratada por el Instituto Federal Electoral

(IFE) en 1994 para dar los resultados la misma noche de la elección; la red nacional de

microondas de Ferrocarriles Nacionales de México; la red de transmisión de datos X.25

para el Grupo Cifra; el sistema de correo electrónico de imágenes para la Secretaría de la

Defensa Nacional (Sedena); así como la implantación de diversas redes satelitales, de

fibra óptica y de microondas para la SCT, Pemex, la CFE, Telmex, Iusacell y Telcel, entre

otros. Durante varios años ha sido profesor de distintas materias y director de tesis en la

Escuela Nacional de Telecomunicaciones, en la ESIME, en el Centro de Investigación y

Estudios Avanzados del IPN y en la Escuela Militar de Ingenieros de la Sedena. Ha escrito

y presentado más de 40 artículos, ponencias y conferencias en materia de

telecomunicaciones tanto en México como en el extranjero. En el aspecto gremial,

pertenece a la Asociación Mexicana de Ingenieros en Comunicaciones y Electrónica, a la

Sociedad de ex Alumnos de la ESIME, a la Sociedad de ex alumnos de la ENST francesa, al

Institute of Electrical and Electronic Engineers (IEEE), a la Société Française d’Electricians

et Radio-electricians, al Colegio de Ingenieros Mecánicos y Electricistas, en donde de

1988 a 1990 fue presidente del XXII Consejo Directivo Nacional y desde 1981 es

académico titular en la Academia de Ingeniería. Es perito en telecomunicaciones,

investigador titular (en receso) del Sistema Nacional de Investigadores. En 1980 obtuvo el

Page 164: Telecomunicaciones y Computación

164

Premio Nacional de Telecomunicaciones otorgado por la empresa Indetel (hoy Alcatel-

Lucent). Actualmente es presidente de la Comisión de Especialidad de Ingeniería en

Comunicaciones y Electrónica de la Academia de Ingeniería; miembro del grupo Amigos

de los Viernes del Club de Industriales y del Consejo Técnico de la Sociedad Mexicana

de Ingenieros del Partido Revolucionario Institucional (PRI), en donde participó en la

elaboración de la plataforma de gobierno del partido, en el área de telecomunicaciones.

Édgar Chávez

Es investigador titular en el CICESE. Obtuvo su doctorado en 1999 en ciencias de la

computación en el CIMAT. Ha sido presidente de la Sociedad Mexicana de Ciencias de la

Computación; actualmente es presidente del Similarity Search and Applications, una

iniciativa académica internacional sin afanes de lucro en el área de ciencia de datos. En

2009 obtuvo el premio Thompson Reuters por ser el autor del artículo científico mas citado

en ciencias de la computación en México. Tiene mas de 70 contribuciones técnicas

internacionales, ha graduado a seis doctores en computación, 14 maestros en ciencias y 10

licenciados en México, Argentina y Chile. Ha sido presidente del comité de programa de

diversos congresos internacionales en las áreas de sus intereses académicos, los cuales

incluyen ciencia de datos, reconocimiento de patrones escalables, algoritmos y estructuras

de datos, y matemáticas discretas.

Carlos Artemio Coello Coello

Obtuvo el doctorado en ciencias de la computación por la Universidad Tulane (Estados

Unidos), en 1996. Actualmente es investigador titular en el Departamento de Computación

del Cinvestav-IPN. Ha sido pionero en un área que hoy se conoce como “optimización

evolutiva multiobjetivo”, en la que ha trabajado principalmente en torno al diseño de

algoritmos. A la fecha cuenta con más de 350 publicaciones, las cuales reportan más de 21

000 citas en Google Scholar. Ha dirigido 58 tesis (entre ellas, 15 de doctorado), varias de

las cuales han recibido premios. Es editor asociado y miembro del comité editorial de varias

revistas internacionales, incluidas las dos más importantes de su área. Es miembro del

Sistema Nacional de Investigadores (nivel III) y del Consejo Consultivo de Ciencias de la

Presidencia de la República. Ha obtenido varios reconocimientos, entre los que destacan el

Page 165: Telecomunicaciones y Computación

165

Premio Nacional de Investigación 2007 en ciencias exactas de la Academia Mexicana de

Ciencias, el Premio Nacional de Ciencias y Artes 2012 en el área de Ciencias Físico-

Matemáticas y Naturales, y el 2013 IEEE Kiyo Tomiyasu Award

Fabián García Nocetti

Es investigador titular en la UNAM; es investigador nacional, nivel II, en el SNI, adcrito al

Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas de la UNAM, donde fue

jefe del Departamento de Ingeniería de Sistemas Computacionales y Automatización de

1994 a 2000; y director de este Instituto de 2004 a 2012. Es egresado de la licenciatura en

ingeniería mecánica y eléctrica-electrónica de la Facultad de Ingeniería de la UNAM.

Obtuvo la maestría y el doctorado en ingeniería de sistemas de cómputo paralelo en la

Universidad de Gales, Gran Bretaña, en 1988 y 1991, respectivamente. Es profesor del

posgrado en ciencia e ingeniería de la computación y del posgrado en ingeniería de la

UNAM. Sus líneas de investigación incluyen arquitecturas y algoritmos para cómputo de

alto desempeño, procesamiento de señales, imágenes y control en tiempo real. Ha dirigido

23 trabajos de tesis de licenciatura, maestría y doctorado. Tiene más de 30 publicaciones

en revistas y más de 100 en memorias de congresos arbitradas de circulación

internacional. Ha publicado dos libros y un capítulo de libro sobre la especialidad de

cómputo de alto desempeño en control digital.

Adolfo Guzmán Arenas

Es profesor-investigador de computación en el Centro de Investigación en Computación

(CIC) del Instituto Politécnico Nacional (IPN), México, del cual fue director fundador. Es

ingeniero en comunicaciones y electrónica por la ESIME-IPN, y doctor en computación por

el MIT, donde también fue profesor asistente en en el Departamento de Ingeniería

Eléctrica. Es doctor honoris causa del INAOE. Es Fellow of the ACM, Fellow del IEEE,

miembro del Consejo Educacional del MIT, de la Academia de Ingeniería, Academia

Nacional de Ciencias (México) y del Consejo Consultivo de Ciencias de la Presidencia de

la República. Del presidente de México recibió el Premio Banamex, Rama Agropecuaria

(1977, mención honorífica), el Premio Nacional de Ciencia y Tecnología (1996) y la

Presea Lázaro Cárdenas (1997). Trabaja en el CIC en procesamiento semántico y manejo

Page 166: Telecomunicaciones y Computación

166

de texto, a menudo combinando técnicas de inteligencia artificial con sistemas distribuidos

y minería de datos. Más en http://alum.mit.edu/www/aguzman.

David Muñoz Rodríguez

El doctor David Muñoz Rodríguez es actualmente director del Centro de Electrónica y

Comunicaciones del ITESM, en Monterrey. Obtuvo su doctorado por la Universidad de

Essex (Inglaterra) en 1979. Ha sido investigador en el Cinvestav del IPN, en los

Laboratorios Bell Northern Research, Nortel Networks y en la Universidad de Texas, en

Dallas. Ha recibido el Premio Nacional de Tecnología Ericcson y la Cátedra Nortel de

Telecomunicaciones. Por sus contribuciones, la compañía Bell Northern Research y

Nortel Networks le han nombrado Distinguished Professor in Telecommunications en 1993

y 1999, respectivamente. Ha dirigido más de 60 tesis de maestría y doctorado. Ha

publicado más de 80 trabajos en revistas internacionales arbitradas y dos libros. Posee

patentes en Estados Unidos y ha participado en diversos trabajos y proyectos de carácter

práctico y tecnológico para compañías y entidades como Motorola, Telmex, Pemex, Arthur

D. Little, Bell Northern Research, Nortel Networks, la Secretaría de Comunicaciones y

Transportes y la Cofetel. Es Senior Member del IEEE, y es Investigador Nacional nivel III.

Larry Smarr

Es el director fundador del California Institute for Telecommunications and Information

Technology (Calit2), una asociación entre la University of California, San Diego, y la

University of California, Irvine; tiene la cátedra Harry E. Gruber en el Departamento de

Computer Science and Engineering (CSE) de la Escuela Jabos de Ingeniería de la UCSD. Es

miembro de la Academia Nacional de Ingeniería en Estados Unidos y Fellow de la American

Physical Society y de la American Academy of Arts and Sciences. En 2006 recibió el premio

IEEE Computer Society Tsutomu Kanai por sus logros profesionales en el área de sistemas

distribuidos. Forma parte del Consejo Asesor de la NASA, del Consejo de Políticas EsNet del

DOE, y preside el Comité Asesor en Ciberinfraestructura de la NSF. Durante ocho años ha

sido miembro del Comité Asesor del Director del NIH. Ha sido investigador principal en el

proyecto OptIPuter de la NSF durante los últimos siete años y del repositorio global Camera

Page 167: Telecomunicaciones y Computación

167

de metagenómica microbiológica, de la Fundación Moore. Sus intereses personales

incluyen cultivar orquídeas, bucear en arrecifes de coral y la cuantificación del estado de su

cuerpo.

Horacio Soto

En 1984 obtuvo el título de ingeniero biomédico por la Universidad Autónoma Metropolitana;

en 1987 obtuvo una maestría en ciencias en electrónica y telecomunicaciones en el CICESE.

Posteriormente, la Escuela Nacional Superior de Telecomunicaciones, de París, le otorgó la

maestría y el doctorado en ciencias con especialidad en optoelectrónca en 1992 y 1996,

respectivamente. Ha trabajado como ingeniero de diseño en empresas de alta tecnología,

como Sintec Electrónica y Augen Wecken; y como investigador en instituciones como el

Centro de Aplicaciones Tecnológicas y Desarrollo Tecnológico de la Secretaría de Salud, en

el Instituto de Investigaciones Eléctricas, la Escuela Nacional Superior de

Telecomunicaciones de París, y en el CICESE, donde fue director de la División de Física

Aplicada de 2002 a 2010. Actualmente es el responsable del grupo de funciones

optoelectrónicas del CICESE y del Laboratorio de Redes Fotónicas. Es investigador nacional,

nivel II, del SNI. Ha sido distinguido por Thomson Reuters como el autor de la contribución

más citada en ingeniería escrita por un mexicano. Sus intereses primordiales son: diseño e

implementación de funciones completamente ópticas para sistemas de comunicaciones

fotónicos de tercera generación, optoelectrónica, comunicaciones ópticas, óptica no lineal,

guías de onda activas y estado sólido.

Luis Enrique Sucar Succar

Es doctor en computación por el Imperial College, de Londres, Inglaterra; maestro en

ciencias en ingeniería eléctrica por la Stanford University, California, e ingeniero en

electrónica y comunicaciones por el ITESM, Monterrey. Tiene experiencia como

investigador y profesor en el Instituto de Investigaciones Eléctricas, del Tecnológico de

Monterrey, y en el INAOE. Ha realizado estancias de investigación en el Imperial College,

en la Universidad de British Columbia, Canadá, y en el INRIA, Francia. El doctor Sucar es

miembro del Sistema Nacional de Investigadores, nivel III, y de la Academia Mexicana de

Ciencias. Ha sido presidente de la Sociedad Mexicana de Inteligencia Artificial, miembro

Page 168: Telecomunicaciones y Computación

168

del Comité Asesor del IJCAI, es Senior Member de la IEEE y es editor asociado en la

revista Computación y Sistemas y en la Revista Iberoamericana de Inteligencia Artificial.

Tiene más de 150 contribuciones en revistas y conferencias, y ha dirigido 16 tesis

doctorales. Su investigación se centra en inteligencia artificial (principalmente en el

desarrollo de modelos gráficos probabilistas y su aplicación en visión computacional),

robótica, sistemas tutores inteligentes y en biomedicina. Ha sido pionero en el desarrollo

de las redes bayesianas en México y el mundo, donde sus aportaciones han destacado

en el modelado de visión de alto nivel basado con redes bayesianas, y en el desarrollo de

nuevos modelos y técnicas para representaciones temporales, validación de información,

análisis de confiabilidad, reconocimiento de ademanes y modelado del estudiante en

sistemas tutores. Recientemente ha desarrollado un sistema de apoyo a la rehabilitación

para personas que han sufrido embolias cerebrales.

Page 169: Telecomunicaciones y Computación

169

LÍNEAS DE ACCIÓN PARA EL FUTURO DE

las Telecomunicaciones y la Computación

Page 170: Telecomunicaciones y Computación

170

PROPUESTA SOBRE TELECOMUNICACIONES Y COMPUTACIÓN

Adolfo Guzmán Arenas*

Jesús Favela Vara**

Creación de varios centros de investigación

En colaboración con instituciones educativas, gobiernos estatales, empresas

privadas y secretarías de gobierno, se deben establecer varios centros de

investigación dedicados a aplicaciones de las comunicaciones y la computación.

Proponemos apoyo federal para la creación de centros de investigación orientados

a áreas aplicadas del saber humano. Los matemáticos tienen el CIMAT, los

astrofísicos el INAOE, ¿y los computólogos?, ¿y los de comunicaciones eléctricas?

Costo: 100 millones de pesos (inversión y sueldos por un año) para el de

computación y 125 millones para el de comunicaciones (el equipo es más caro:

laboratorio de RF, cámara anecoica…), sin contar el costo del edificio.

Justificación: las áreas de sistemas inteligentes y telecomunicaciones son

áreas estratégicas cuyo planteamiento no corresponde a una moda circunstancial,

sino que están bien identificadas como disciplinas vinculadas fuertemente con el

desarrollo económico y educativo del país.

Instituto de investigación en sistemas inteligentes

*[email protected].**[email protected].

Graciela Dolores Avila Quezada
Page 171: Telecomunicaciones y Computación

171

Misión: realizar investigación, desarrollo, innovación y formación de recursos

humanos para avanzar el estado del arte y la práctica en sistemas inteligentes y

áreas afines, orientados a resolver los grandes problemas nacionales.

Justificación: los conocimientos y técnicas de inteligencia artificial son clave

para desarrollar los sistemas complejos que permitan resolver los grandes retos

nacionales y mundiales, como: seguridad, salud, atención a la tercera edad,

educación, energía e información. Aunque existen algunos institutos y

universidades en México donde se hace investigación en sistemas inteligentes,

éstos son grupos pequeños; por lo que se requiere un centro que conjunte la masa

crítica para tener un verdadero efecto en el desarrollo y aplicación de estas

tecnologías, claves para el desarrollo futuro del país.

Estructura: se plantea organizar el centro alrededor de grupos

interdisciplinarios orientados a resolver los grandes retos; es decir, con base en

proyectos, en lugar de la estructura tradicional de departamentos o laboratorios.

Normalmente, los grandes retos requieren de especialistas en diferentes

disciplinas, lo que se favorece con esta estructura. Por otro lado, esto permite una

estructura más dinámica, ya que al ir avanzando los desarrollos y cambiando los

retos, se pueden ir modificando los proyectos del instituto (este modelo está

inspirado en el del INRIA en Francia y Media Lab del MIT).

Proyectos: inicialmente, sistemas biomédicos inteligentes, sistemas

inteligentes de vigilancia, sistemas educativos inteligentes, sistemas de búsqueda

y análisis de información, robots de servicio, y cerebro artificial.

Número de investigadores: entre 20 y 30.

Áreas a desarrollar: procesamiento semántico (análisis de texto, análisis de

opiniones, análisis de tendencias, predicción del comportamiento de la multitud —

en Twitter, por ejemplo— sobre cierto tema, a partir de la situación actual,

dinámica de los acontecimientos). Ontologías y representación del conocimiento,

para resolver problemas específicos que ocurren, o potencialmente suceden, en el

sector productivo; adquisición de conocimiento para tomar o recomendar acciones

Minería de datos para el análisis de grandes cantidades de datos, para buscar

Page 172: Telecomunicaciones y Computación

172

anomalías, desviaciones, tendencias, situaciones interesantes; combina bien con

inteligencia de negocios. Robótica aplicada en la que no sólo se hagan estudios

teóricos, sino también aplicaciones, por ejemplo, en la industria petrolera (revisión

de los ductos bajo plataformas submarinas, robots que se insertan en el oleoducto

para “ver su estado” o fugas). Gobierno digital (e-gobierno), firma electrónica,

remplazo de papel por documentos digitales, trámites que fluyen. Uso de salidas y

entradas georeferenciadas, despliegue en mapas, captura basada en dispositivos

móviles que tienen GPS (posicionamiento satelital). Uso de dispositivos móviles

(tabletas, teléfonos, teléfonos inteligentes) para capturar información y

proporcionar resultados; la coordinación de varios “agentes” (personas más

software) vía estos dispositivos, para lograr acciones concertadas; toma de

decisiones por grupos.

Centro de investigación en telecomunicaciones y sistemas distribuidos

Misión: crear un centro de investigación en telecomunicaciones con grupos

interdisciplinarios orientados a desarrollar y aplicar las técnicas que ayuden (en

combinación con otras disciplinas) a resolver los grandes problemas nacionales.

Entre otras áreas, enfatizar redes inalámbricas y cómputo móvil.

Justificación: el país no tiene un centro público especializado en esta vital

área. Existía el Instituto Mexicano de Comunicaciones. La convergencia digital que

en años recientes ha integrado la telefonía, la televisión y el cómputo ha

ocasionado que desde el año 2010 el tráfico de datos sea mayor que el tráfico de

voz. Esto ha dado pie a una creciente demanda de aplicaciones distribuidas

basadas en aplicaciones ligeras en dispositivos heterogéneos (celulares, tabletas,

etcétera), apoyadas por servicios almacenados en la nube que ofrece alto

desempeño y elasticidad. Las telecomunicaciones y la computación han entrado

en una relación simbiótica que conviene capitalizar.

Estructura: entre 20 y 30 investigadores más un líder de prestigio, buen

administrador y que congenie con el resto de colegas y competidores.

Graciela Dolores Avila Quezada
Page 173: Telecomunicaciones y Computación

173

Proyectos iniciales: plataforma nacional de telemedicina (expediente

electrónico nacional; seguridad informática y seguridad nacional; fomento al

desarrollo de aplicaciones que usen datos públicos generados por distintas

instancias de gobierno que ofrezcan soluciones útiles a los ciudadanos.

Áreas a desarrollar: redes inalámbricas y cómputo móvil (comunicaciones

inalámbricas, redes vehiculares, redes ad hoc y oportunistas, seguridad en redes,

cómputo móvil, computación ubicua, redes de sensores, cómputo consciente del

contexto, interconexión de utensilios cotidianos, administración de redes;

optimización en redes, green computing, computación en la nube, escalabilidad de

sistemas en red). Teoría de la información y procesos estocásticos.

Radiocomunicaciones de nueva generación. Propagación y antenas.

Comunicaciones satelitales. Comunicaciones ópticas y optoelectrónica.

Electrónica avanzada, microelectrónica. Derecho y economía de las

telecomunicaciones. Regulación y normatividad internacional. Tecnologías de

información y comunicación de datos. Internet de alta velocidad y su efecto en las

redes sociales. Telefonía de nueva generación y acústica. Telemedicina,

telebanking y e-gobierno.

Sugerencias de políticas generales

El 5% del monto anual de los contratos de los grandes compradores del gobierno

(Pemex, Secretaría de Educación Pública, etcétera) deberá destinarse a adquirir

bienes y servicios de los centros de investigación e instituciones de enseñanza

superior (CIIES), así como de las PYME que estén aliadas a tales centros e

instituciones. Justificación: así se apoya directamente a estos organismos que

hacen innovación. En Estados Unidos existe una política similar para apoyar a

empresas minoritarias y pequeñas.

De preferencia, las instituciones gubernamentales deben usar software

libre. Se entiende por “instituciones gubernamentales” aquéllas cuyo presupuesto

Page 174: Telecomunicaciones y Computación

174

venga substancialmente de los gobiernos federal, estatal o municipal.

Implementación: todo desarrollo o compra de software que no esté formado por

software libre, deberá ser validado por una autoridad informática en la que

participarán representantes de los CIIES. Justificación: ahorro de inversiones en

informática y fomento de software libre.

Se recomienda que las instituciones gubernamentales usen software

nacional. Implementación: todo desarrollo o compra de software que no provenga

de instituciones o empresas nacionales, deberá ser validado por una autoridad

informática en que participarán representantes de los CIIES. Justificación: apoyo

efectivo al desarrollo de software nacional.

Invertir en infraestructura de comunicaciones para crear enlaces de alta

velocidad. Justificación: estos enlaces entre centros de investigación y

universidades mexicanas permiten acceso a repositorios mundiales de datos

científicos y a clusters de cómputo para procesarlos. Al mismo tiempo, esta

infraestructura permitirá compartir datos científicos generados en México con otros

laboratorios en el ámbito mundial, fomentando con ello colaboraciones científicas.

Establecer programas agresivos de posdoctorado. Justificación: fortalecer

los grupos de investigación existentes y ayudar a nuevos doctores. El programa

actual de posdoctorados del Conacyt está orientado al fortalecimiento del

posgrado, lo que es inconsistente con el trabajo que se espera de un

posdoctorado.

Simplificar los trámites administrativos para la adquisición de insumos de

investigación. En particular eliminar la política de no permitir a centros públicos de

investigación la compra de equipo de cómputo. Justificación: la política actual es

absurda.

Crear un área VIII en el SNI para las áreas de computación y

telecomunicaciones que establezca criterios más acordes con la naturaleza de la

investigación en esta área.

Dar continuidad e impulso a la Red Temática de Investigación y Desarrollo

en Tecnologías de Información y Comunicaciones del Conacyt, cuya creación ha

representado un esfuerzo importante por parte de investigadores e instituciones.

Page 175: Telecomunicaciones y Computación

175

Implementación: utilizar procedimientos más ágiles de gestión que desde su

creación han dificultado la operación de dicha red.

El Conacyt debe activamente definir la agenda nacional en la solución de

los grandes problemas. Implementación: debe pasar de administrador de los

incentivos y apoyos a investigadores y estudiantes, a tomar un rol más activo en la

definición de una agenda nacional que concentre el talento en la solución de los

grandes problemas nacionales. Debe asumir un papel prospectivo y articulador de

esfuerzos de investigadores e instituciones.

Revisar los planes de estudios de las carreras y posgrados en computación.

Justificación: para homologar planes de estudios y alinearlos con las tendencias

internacionales y con los requerimientos de la industria a mediano y largo plazos.

El Conacyt debe definir un grupo relativamente pequeño de proyectos

interdisciplinarios, con efecto social y de mediano plazo, que requieran de la

participación de varias especialidades de computación y telecomunicaciones e

involucren la generación de nuevo conocimiento. Justificación: fomentar la

interdisciplina en proyectos aplicados importantes. Financiamiento: estos

proyectos serían financiados en una primera etapa por el sector público.

Crear nuevos centros de investigación en computación y comunicaciones.

Justificación: son áreas prioritarias no atendidas o atendidas parcialmente, y que

son de alta aplicabilidad.

Cambiar los planes de estudios de los niveles medio y medio superior en

computación. Justificación: los planes actuales sólo enseñan ofimática

(paquetería). Acción: deben enseñarse los principios de computación, como

representación y solución de problemas, abstracción, diseño de algoritmos,

etcétera (conocido como pensamiento computacional). Importancia: fundamental

para la formación de los jóvenes que seguramente utilizarán la computación en

cualquier disciplina.

Page 176: Telecomunicaciones y Computación

176

LINEAS DE ACCIÓN PARA EL FUTURO DE

las Telecomunicaciones y la Computación en México

Page 177: Telecomunicaciones y Computación

177

Programa interinstitucional de investigación y desarrollo sobre sistemas inteligentes

Propósito Constituir una alianza entre instituciones y grupos de investigación sobre inteligencia artificial y sistemas inteligentes para atender necesidades y oportunidades en campos de aplicación específicos, que derivaría en la creación de un instituto nacional.

Antecedentes Diversas instituciones, incluidas algunas empresas, han desarrollado de forma aislada aplicaciones para resolver problemas concretos, sirviéndose de conocimientos a su alcance disponibles en fuentes diversas. Esto ha dado lugar a la formación de capacidades significativas, a partir de las cuales podría integrarse un núcleo fuerte con proyección internacional.

Descripción • Se propone partir de una reunión preliminar entre representantes de los grupos (dos o tres) que han desarrollado mayor actividad y, por acuerdo entre ellos, levantar un inventario de experiencias reportadas y de capacidades instaladas.

• Simultáneamente se podría proceder a organizar una reunión de trabajo con expertos, cuyo producto final sería la selección de campos en los que convendría explorar aplicaciones de interés para mejorar la oferta de servicios públicos a partir de sistemas inteligentes.

• Con estos elementos se procedería a elaborar una cartera de proyectos que, si bien estaría dirigida a aplicaciones, contaría además con el respaldo de capacidades y proyectos de investigación científica según las necesidades.

• Finalmente se evaluaría la capacidad instalada existente en comparación con las necesidades identificadas, y se trazaría un Plan de Desarrollo conjunto tanto de infraestructura como de personal de investigación que, al ser acordado entre las instituciones participantes, constituiría la semilla de un Instituto de Investigación y Desarrollo sobre Sistemas Inteligentes orientado a investigación, desarrollo, innovación y formación de recursos humanos.

• Se procurarían recursos para apoyar la formación de capacidad, distribuida a lo largo del país.

Page 178: Telecomunicaciones y Computación

178

Efecto potencial • Se fortalecerían grupos de investigación existentes y se apoyaría el desarrollo de nuevos grupos.

• Se establecerían prioridades de investigación en función de demandas y necesidades establecidas, y se desarrollarían aplicaciones concretas a partir de ellas.

• Se constituiría una capacidad combinada considerable que podría, en un futuro, dar lugar a un consorcio tecnológico con proyección internacional.

Instituciones participantes

Universidades y centros de investigación públicos y privados, empresas estatales y privadas interesadas en los productos y servicios que se vayan generando.

Tiempo estimado Las actividades preliminares dirigidas a la elaboración de la cartera original de proyectos requerirían unos seis meses; la evaluación de la capacidad instalada en relación con ellos tomaría dos meses más y desembocaría en un conjunto de proyectos de inversión en desarrollo de capacidad, que se pondrían a consideración de las instituciones interesadas en apropiárselos, lo que podría requerir hasta cuatro meses más, para un total de un año.

Simultáneamente con este ciclo de instalación, las instituciones participantes trazarían un primer Programa de Investigación y Desarrollo para ser emprendido conjuntamente.

Recursos necesarios El proceso inicial de registro y estudios tanto de capacidad instalada como de aplicaciones o mercados potenciales, requeriría sobre todo la intervención de uno o dos especialistas adscritos a algunas de las unidades con mayor experiencia en la materia, las cuales se esperaría que los comisionaran durante el tiempo necesario.

Las reuniones de trabajo a las que se diera lugar podrían ser financiadas por el Conacyt, a petición suya.

Para los proyectos de infraestructura y formación de capacidad se promoverían convenios de coinversión entre las instituciones interesadas y el Conacyt, en el entendido de que la operación futura del programa se financiaría principalmente a través de contratos con las entidades interesadas en las aplicaciones.

Page 179: Telecomunicaciones y Computación

179

Page 180: Telecomunicaciones y Computación

180

Centro de Investigación en Telecomunicaciones y Sistemas Distribuidos

Propósito Crear una instancia y un espacio para la búsqueda de soluciones a problemas del país, a partir de la cooperación entre especialistas, instituciones y disciplinas ligados al desarrollo de las telecomunicaciones y la computación.

Antecedentes México cuenta con capacidades significativas en computación y telecomunicaciones distribuidas a lo largo del territorio que, dadas las características de estos campos del conocimiento, dan lugar a numerosas aplicaciones originales puntuales cuyo efecto, sin embargo, ha sido menos extenso de lo que podría ser, ya que además del fortalecimiento de los sistemas de comunicación como tales, es notorio el crecimiento de la demanda de aplicaciones distribuidas en dispositivos heterogéneos con apoyo en la nube.

Descripción • Se propone el establecimiento de un Centro de Investigación en Telecomunicaciones y Sistemas Distribuidos, respaldado por grupos con masa crítica en especialidades básicas y dotado de infraestructura avanzada y suficiente para propiciar el desarrollo de productos, dispositivos y sistemas. Además de un programa propio de investigación y desarrollo, debería estar abierto a apoyar la realización, en espacios físicos aislables exclusivos, de proyectos de desarrollo tecnológico para instituciones o empresas que requieran el respaldo de su infraestructura de investigación.

• En principio sería aplicable el esquema de Laboratorios Nacionales previsto por el Conacyt, que los caracteriza como “laboratorios sin paredes” para ilustrar su intención de estimular la cooperación interinstitucional en campos relevantes para el desarrollo del país.

• Como primer paso habría que establecer un grupo de trabajo integrado por las instituciones que participarían en su constitución, el cual se haría cargo del diseño preliminar de su organización y de la elaboración de su Plan de Desarrollo, incluyendo el Programa de Inversiones en Infraestructura y Formación de Capacidad.

• Puesto que de acuerdo con las reglas de operación del

Page 181: Telecomunicaciones y Computación

181

Conacyt sus aportaciones serían complementarias de las procedentes de las organizaciones que operarían el Laboratorio, esto implicaría compromisos de parte de ellas aproximadamente por las mismas cantidades de recursos que solicitaran. Afortunadamente, dado el alto valor estratégico que se derivaría para el sector de comunicaciones y transportes, podría esperarse que la Secretaría del ramo, e incluso inversionistas privados, aportasen una parte.

Efecto potencial • Se concentrarían en una sola unidad capacidades hasta ahora más bien dispersas, las cuales se orientarían a aplicaciones prioritarias para el país.

• Se contaría con instalaciones costosas, abiertas a su utilización por investigadores y especialistas de diversas instituciones y empresas que de otra manera requerirían subcontratarse, incluso internacionalmente.

• Las empresas podrían utilizar temporalmente espacios próximos a las instalaciones experimentales con secrecía garantizada.

Instituciones participantes

Centros públicos de investigación (en especial el Cinvestav, el CICESE y el Infotec) e instituciones de educación superior, como la UNAM y el IPN).

Tiempo estimado La integración del grupo de trabajo, las negociaciones entre las partes y la elaboración del Plan de Desarrollo podrían tomar hasta un año. El proceso de aportación de los recursos por las partes involucradas requeriría de tres a seis meses más.

Recursos necesarios El costo del proceso de diseño podría alcanzar entre cinco y seis millones de pesos: una parte podría ser aportada en especie por las instituciones promotoras de la iniciativa mediante tiempo de personal comisionado al proyecto; el resto podría solicitarse al Conacyt.

Los fondos necesarios para el proyecto ejecutivo se obtendrían, como queda dicho, de la Secretaría de Comunicaciones y Transportes, el Conacyt y las propias instituciones participantes.

Page 182: Telecomunicaciones y Computación

182

Page 183: Telecomunicaciones y Computación

183

Desarrollo y consolidación de capacidad en ciencias y tecnologías para la información y la comunicación

Propósito Articular entre sí capacidades existentes en instituciones de educación superior y de investigación del país para constituir un sistema capaz de definir proyectos guía de mediano y largo plazos en el área de tecnologías de información y de telecomunicaciones, no sólo en términos de producción de conocimientos y tecnologías, sino también de educación y formación de capacidad.

Antecedentes Existe un número considerable de grupos y unidades, principalmente académicas pero no sólo, con capacidad para desarrollar fuentes o sistemas de información de utilidad para los propósitos más diversos. Sin embargo, sólo en casos más bien excepcionales hay colaboración reiterada o siquiera intercambio entre ellos. Así, lo que podría representar una gran riqueza en conjunto acaba por reducirse a estudios o desarrollos dispersos y yuxtapuestos.

Descripción • Se propone poner en marcha una alianza de cooperación interinstitucional en investigación, formación de personal de alto nivel, desarrollo y transferencia de tecnología centrada en un programa de mediano plazo acordado entre sus integrantes.

• Se partiría de un acuerdo inicial de cooperación entre los grupos hasta ahora más adelantados y productivos en materia de tecnologías de información y telecomunicaciones, pero se podrían ir agregando otros más en el futuro.

• Las instituciones integrantes del acuerdo inicial constituirían un grupo de trabajo con un representante de cada una, que se reuniría para intercambiar presentaciones de sus programas, capacidades y expectativas de desarrollo y establecería los lineamientos y reglas generales propuestos como plataforma para su cooperación, incluyendo, además de algunos proyectos específicos, los términos que regirían sus intercambios, el uso compartido de infraestructura y la selección de nuevos proyectos en el futuro.

Page 184: Telecomunicaciones y Computación

184

• Procederían entonces a elaborar un primer programa de actividades conjuntas, subdividido en proyectos específicos de interés para todos y en la negociación de los fondos necesarios para su realización, tanto los que sus propias instituciones hubieren comprometido como los que se solicitarían al Conacyt, la Secretaría de Economía y otros organismos, incluso empresariales.

Efecto potencial • La acción coordinada de las principales instituciones con capacidad se traduciría en un mejor aprovechamiento de los recursos y, sobre todo, en un direccionamiento más concentrado de sus resultados y efectos.

• Específicamente, sería posible negociar en grupo no sólo con empresas interesadas una a una, sino también con agrupaciones (clusters), lo que podría derivar en constituir capacidades visibles internacionalmente, por ejemplo en diseño de software, entre otros.

Instituciones participantes

Centros públicos de investigación (en especial el Cinvestav, el CICESE y el Infotec) e instituciones de educación superior, como la UNAM y el IPN).

Tiempo estimado Las acciones preliminares para la integración de la alianza podrían concluirse en no más de cuatro o cinco meses; la formalización del acuerdo y el diseño del programa compartido inicial, probablemente otro tanto.

Recursos necesarios El proceso de gestación de la iniciativa podría requerir varias reuniones de los interesados y la asistencia de uno o dos funcionarios para coordinar las actividades y formular los documentos que se vayan presentando, lo que podría costar hasta un millón de pesos.

Para el financiamiento de la cartera de proyectos (de investigación y de formación de personal) resultantes se solicitaría el apoyo del Conacyt a través de los diversos instrumentos que ya tiene establecidos.

Además se podría promoverse un apoyo especial, dadas las características de la alianza y el programa.

Page 185: Telecomunicaciones y Computación

185

Page 186: Telecomunicaciones y Computación

186

Incubación de negocios de alto valor agregado en tecnologías de información

Propósito Identificar oportunidades de negocios basados en conocimientos y tecnologías de información, jerarquizarlas en función de su potencial de aportación de valor económico, acercarles recursos y apoyos para propiciar y facilitar su explotación.

Antecedentes Numerosas instituciones de educación superior o de investigación cuentan con capacidades significativas para el diseño de software o desarrollo de dispositivos innovadores en atención a aplicaciones específicas, sea en sus propias instalaciones u organizaciones o a petición de sus clientes o usuarios. Esta actividad da lugar a la creación, directa o indirectamente, de nuevos productos que pueden representar oportunidades de negocios.

Descripción • Se propone constituir un grupo iniciador de oportunidades de negocios integrado por empresarios y profesionales con experiencia en innovación comercial, desarrollo y financiamiento de empresas, para que se haga cargo de diseñar y lanzar una convocatoria a investigadores y profesionales autores o promotores de desarrollos en tecnologías de información de interés potencial para su puesta en el mercado.

• Utilizando una metodología de evaluación acordada entre ellos, el grupo evaluador analizaría las ofertas recibidas, las jerarquizaría en orden decreciente de su contribución potencial de valor y haría una primera selección de las de mayor interés, a las cuales proporcionaría fondos suficientes para la elaboración de planes de negocios preliminares de cuya comparación, en una segunda etapa, ya resultarían iniciativas de inversión.

• Estas últimas se presentarían a uno o varios inversionistas o fondos de inversión dispuestos a financiar la etapa de afinación de los paquetes tecnológicos y las estrategias de negocios, con quienes se negociarían términos preliminares relativos tanto a la aportación de capital iniciador como a los derechos de explotación industrial.

• En los casos en que se concrete el establecimiento de la

Graciela Dolores Avila Quezada
Page 187: Telecomunicaciones y Computación

187

empresa, los inversionistas participantes en esta etapa gozarían del derecho de primera negativa al entrar en la fase de constitución de su capital social.

• En cada uno de los casos de nuevas empresas que se constituyan, el grupo evaluador recibiría como compensación un porcentaje previamente acordado de su capital social o el valor correspondiente en dinero, que se podría reinvertir en la creación de nuevos negocios.

Efecto potencial Además de la generación de nuevas empresas de base tecnológica derivadas de actividades de investigación y desarrollo, se daría lugar a una fórmula organizacional novedosa que con el tiempo podría replicarse en otros campos.

Instituciones participantes

Universidades y centros de investigación públicos y privados con productos tecnológicos de alto valor agregado, empresas y gremios empresariales interesados, inversionistas y fondos de inversión de capital.

Tiempo estimado La constitución del grupo iniciador, el diseño de sus instrumentos de evaluación y el levantamiento de propuestas de la primera convocatoria y la primera selección de casos relevantes podría requerir hasta un año en total, dependiendo del interés que se despierte entre inventores y especialistas.

A lo largo de ese intervalo, sin embargo, se podrían ir concertando acuerdos concretos e inclusive poner en operación alguno de los negocios recién constituidos.

Recursos necesarios Se requeriría un capital inicial (quizá unos 10 millones de pesos) para financiar la elaboración de planes de negocios, que podría ser aportado por el Conacyt o la Secretaría de Economía a través de un fideicomiso cuyo comité técnico operaría como grupo iniciador. Éste, a su vez, negociaría la aportación (temporal) de una parte del capital de riesgo para asegurar la inversión de los socios de los negocios en ciernes, apoyándose en fondos de inversión establecidos.

A partir de la plusvalía de las acciones otorgadas por las empresas apoyadas, recuperaría progresivamente una parte creciente de los recursos invertidos, los cuales reinvertiría en proyectos futuros.

Graciela Dolores Avila Quezada
Page 188: Telecomunicaciones y Computación

188

Page 189: Telecomunicaciones y Computación

189

Plan de Desarrollo para el establecimiento de un Centro Nacional de Datos

Propósito Elaborar un anteproyecto para el establecimiento de un Centro Nacional de Datos dirigido a la prestación de servicios en la nube, hospedaje, seguridad y control remoto de usuarios interesados en el desarrollo de nuevas empresas de base tecnológica.

Antecedentes La difusión extensiva de capacidades en ciencias y tecnologías de información tanto en instituciones de investigación superior como en empresas, ha dado lugar a un número considerable de iniciativas para la creación de sistemas dirigidos a muy diversos propósitos de aplicación. Algunos se utilizan con éxito en las instituciones en que se originaron, pero hay muchos que podrían extenderse a otras organizaciones o a la sociedad en general a través de su transformación en proyectos y servicios con valor económico.

Descripción • Se propone la creación de un espacio virtual que facilite a los creadores de nuevas iniciativas la transformación de sus desarrollos tecnológicos en negocios de alto valor agregado.

• El punto de partida sería el dimensionamiento de la oportunidad mediante un inventario de iniciativas que permitiera caracterizar los servicios que se prestarían y también apreciar el volumen de actividad al que darían lugar.

• A partir de ella, se podría hacer una primera definición de objetivos y funciones y constituir un grupo iniciador para desarrollar el modelo conceptual e institucional que se seguiría.

• Sería necesario avanzar principalmente en dos vertientes: los requerimientos de infraestructura física y el diseño de los servicios, tanto de orientación empresarial como informáticos, que se pondrían a disposición de los usuarios.

• Para los de orientación empresarial se diseñaría e instrumentaría una red de asesores distribuida en el territorio nacional; para los informáticos se ha propuesto, en principio, una localización fronteriza para facilitar

Page 190: Telecomunicaciones y Computación

190

vínculos con instituciones afines en Estados Unidos.

• La elaboración del Plan de Desarrollo quedaría a cargo de un grupo iniciador integrado por personal de instituciones interesadas en impulsarlo. Una vez concluida la versión preliminar, se presentaría para su discusión ante un conjunto mayor de instituciones abiertas a afiliarse y se incorporarían las nuevas aportaciones obtenidas.

• La versión final se presentaría para buscar financiamiento ante las autoridades responsables.

Efecto potencial • Los interesados en desarrollar negocios basados en tecnologías de información contarían con respaldo para la etapa de desarrollo final e introducción a partir de servicios especializados compartidos.

• La inversión en infraestructura también se compartiría.

• La red de asesores a la que se daría lugar ensancharía su alcance y reforzaría capacidades locales.

Instituciones participantes

Universidades y centros de investigación públicos y privados con productos tecnológicos de alto valor agregado, empresas y gremios empresariales interesados, inversionistas y fondos de inversión de capital.

Tiempo estimado Se podría requerir un total aproximado de doce meses: seis para el levantamiento e interpretación de la encuesta y los seis restantes para el diseño del Centro de Datos, incluida la consulta final.

Recursos necesarios El costo total del ciclo de diseño podría alcanzar unos dos millones de pesos, de los cuales las instituciones promotoras podrían aportar la mitad en especie (a través de la participación de su personal) y el resto se solicitaría al Conacyt.

Page 191: Telecomunicaciones y Computación

191

Page 192: Telecomunicaciones y Computación

192

Ciencia Química

Page 193: Telecomunicaciones y Computación

193

de la colección Hacia dónde va la ciencia en México,

se terminó de imprimir en abril de 2014 en los talleres

de Asesoría Gráfica, Cerro San Andrés 164,

Col. Campestre Churubusco, Coyoacán, México, D.F.

El tiraje consta de 3,500 ejemplares.

En su composición se utilizaron tipos de la familias

Myriad y Warnock y se utilizó papel couché de 135 grs.

Cuidaron esta edición:

Ana del Río y Rigoberto Aranda.