Un tsunami de información

92
ISSN 1665-1669 Número 65 • diciembre 2011 / enero 2012 Ejemplar de obsequio Política digital Una publicación de Innovación gubernamental nexos www.politicadigital.com.mx Gestión de datos Un tsunami de información Telecomunicaciones Henoch Aguiar Salvador Apodaca Carlos Casasús Ernesto Flores-Roux Jana Palacios Transparencia Sergio López Ayllón Gobierno electrónico Alejandro Barros Economía digital Ricardo Medina Álvarez Industria TI Sergio Carrera Cómputo en la nube Rodrigo Gallegos Gobiernos abiertos Miguel Pulido y Jorge Soto aniversario

description

El diluvio de datos

Transcript of Un tsunami de información

Page 1: Un tsunami de información

ISSN

166

5-16

69

mer

o 65

• d

icie

mbr

e 20

11 /

ener

o 20

12

Ejem

plar

de

obse

quio

Política digitalUna publicación deInnovación gubernamental nexoswww.politicadigital.com.mx

Gestión de datos

Un tsunami de información

TelecomunicacionesHenoch AguiarSalvador ApodacaCarlos CasasúsErnesto Flores-RouxJana Palacios

TransparenciaSergio López Ayllón

Gobierno electrónicoAlejandro Barros

Economía digitalRicardo Medina Álvarez

Industria TISergio Carrera

Cómputo en la nubeRodrigo Gallegos

Gobiernos abiertosMiguel Pulido y Jorge Soto aniversario

Page 2: Un tsunami de información
Page 3: Un tsunami de información
Page 4: Un tsunami de información

2 < Política digital

Telecomunicaciones24 La opacidad de la transparencia PorSergioLópezAyllón

28 La brecha digital en México en relación con América Latina PorErnestoM.Flores-Roux

36 Banda ancha: lo que la regulación ha de tener PorHenochAguiar

42 Las líneas del tiempo en políticas públicas Una entrevista con Carlos Casasús

53 Qué quiere cada quién en las telecomunicaciones PorJanaPalacios

58 Regulación y política de competencia en telecomunicaciones, 21 años después PorSalvadorApodacaSarabia

Visualizacióndedatos66 Qué puede decir una imagen

Gobiernoelectrónico68 Gobierno electrónico: ¿dónde estamos, a dónde vamos? PorAlejandroBarros

Economíadigital74 El rumbo de la economía digital en México PorRicardoMedinaÁlvarez

IndustriaTI78 La industria de TI en México: Avances, retos y expectativas PorSergioCarreraRivaPalacio

Cómputoenlanube82 Cloud computing, un detonador para la competitividad en el país RodrigoGallegosyCeciliaReyes-Retana

Gobiernosabiertos86 Una conversación... De gobiernos abiertos y otras promesas PorMiguelPulidoyJorgeSoto

> Contenido

Reportajeespecial

El diluvio de datos

Page 5: Un tsunami de información
Page 6: Un tsunami de información

4 < Política digital

> editorialUnapublicacióndenexosPolítica digital

Cumplimos 10 años

Hayunafánquenoshamovidodurante10años:tratar–desdenuestratrinchera,quenoesmásqueestarevista–queMéxicoseaunpaísmejor.

Decidimos,desdeelprincipio,dedicarestapublicaciónalosservidorespúblicos.Trabajamosparaellos,yaellosnosdebemos.Porfortuna,noshemosganadosuconfianza,yesonoshonra.

Hubotambién–ylossiguenhabiendo–ejecutivosdelasempresasprivadasquecreenenloqueestamoshaciendo,yquehanmovidosusentornosparainvertirenPolítica Digital.Paraellos,nuestroagradecimiento.

Yestánlosquehacenposibleestapublicaciónylasactividadesquegiranasualrededor.Sonmuypocosyestáncomprometidosconsutrabajo.Migratitudparalosquepasaronporestaempresa,yparalosquesiguenaquí.

Contodoyquehanpasado10años,hallegadolahora,otravez,demirarhaciaadelante.Vamostraslareflexión,traslaconstruccióndeunamiradamásfresca,profunda,ydemás

largoalcance;untantoalejadadelbulliciodiarioydelainmediatezqueselochupatodo.Enloquesigue,nosconcentraremosenatenderunoscuantosasuntosqueparecenfundamentalesparaelfuturodeMéxico.Estaedicióndeaniversarioresume,en12textos,lostemasque,ensuconjunto,permitenvislumbraruncaminoparaelpaís.

LastelecomunicacionessonelpisosobreelquesehabrádelevantarelMéxicoquepersegui-mos.Portalmotivo,atenderemosladisponibilidadderedesdebandaancha,ysuutilizaciónporpartedelapoblaciónylasempresas.Haremosunesfuerzopormostrarotros campos de batallaquenosayudenasituarlosdilemasdeunhorizonteconmayoralcance.

Porsuparte,elgobiernoelectróniconoterminadeserloquetantosehapregonado:ofrecertrámitesyserviciopormúltiplescanalesycentradosenlaciudadanía,pareceserunretodelpasadoquenoterminaporocurrir.Pondremoselacentoenloquesigue,como,porejemplo,desregular,compartirinformaciónentreagencias,subrogarservicios,subirrecursosalanube,asegurarlainformacióngubernamental,crearmodeloseficientesdegobernabilidadparalasTI,yelsiempreespinosotemadelascompraspúbicas.

LatransparenciayelaccesoalainformaciónpúblicagubernamentalsonuncapítuloapartequeSergioLópezAyllonabordaconparticularlucidezenestaentrega.Laopacidad de la transparenciamanda.Nosasistelaconvicciónquelaspolíticasdedatosabiertos(open data)sonelpróximogranpasoquesehabrádedarpararomperconelsentidodepropiedad privadadelainformación,quehoycubre,completamente,alsectorpúblico.

Ladigitalizacióndelaeconomíamexicana,empieza,demaneratardía,adarseñalesdeavance.Surelevanciaparaqueelpaístransiteporsuinacabadamodernización,parecequenohasidocaptadaconsuficientevigor.Unatisbodelatrascendenciaquetienelae-economíaparanuestrofuturo,sepodráleerenestaspáginas.

YfinalmenteestálanovísimaconstruccióndelaindustriaTIenMéxico,quehatenidouncrecimientoespectacularenlosúltimosaños.Lapolíticapúbicaquelainducetendráunespacioenloscontenidosdelasedicionesporvenir.

Novamosadejarpasarlamiradaglobaldeloquenosestápasando,comopersonasycomopaís.Elaccesoavolúmenesinconmensurablesdeinformación–el diluvio de datos–laspugnasporalterarelmodeloenelquesesustentainternet,oeladvenimientodelmundo móvilysusimpactosenlosnegocios,lasalud,laeducaciónonuestraseguridadpersonalsonalgunostemasqueiremosabordando.

Estaediciónesunpequeñobotóndemuestradeloquequeremoshacer.n

AndrésHofmann

Año 11 • Número 65 • DICIEMBRE2011 / ENERo2012

Publicidad:[email protected]:www.politicadigital.com.mx

Informació[email protected]

Teléfonos:5241-6930•5241-6935

018009042222

nDirector general

AndrésHofmann [email protected]

neDitor

JoséLuisBecerraPozas [email protected]

ninvestigación y reDacción

MarianoGarza-CantúChávez [email protected]

ninternet

PaulaSepúlvedaKischinevzky [email protected]

nDirectora comercial y De mercaDotecnia

SusanaEspinosaCruz [email protected]

nventas De publiciDaD

CarmenFernándezCorro [email protected]

MoraymaAlvaradoAlfonso [email protected]

ÁngelesNava [email protected]

nsuscripciones y Distribución

LourdesMaldonadoNava [email protected]

nasistente Del Director general

MónicaBarrón [email protected]

nDiseño

AngélicaMusalemAchcar

nilustraciones

Estudiolafeciega

nDirector De aDministración

BernardoortigozaDíaz

nproDucción

LeonelTrejo

nconsejo eDitorial

AlejandroBarros,RodrigoGallegosToussaint, RafaelMartínezPuón,MauricioMerinoHuerta,

LinaornelasNúñez,AlejandroPisanty Baruch,RodrigoSandovalAlmazán

Ofi ci nas: Cuautla 10, Col. Condesa, delegación Cuauhté-moc,C.P.06140.México,D.F.Política digitalenInternet:www.politicadigital.com.mxCorreoelectrónico:[email protected] pre sión y en cua der na ción: Cía. Impresora y EditoraANGEMA S.A de C.V., Salvador Díaz Mirón No. 81-A, Col.SantaMaría laRivera,México,D.F.,C.P.06400.Noseres-pondepormaterialesnosolicitados.Po lí ti ca di gi talesunapublicaciónbimestraldeNexos,Sociedad,CienciayLitera-turaS.A.deC.V.CertificadoradePublicacionesyRevistasIlustradas. Tiro: 30,000 ejemplares. Editor responsableAndrés Hofmann. Título registrado en el Instituto Nacionaldel Derecho de Autor, certificado 04-2001-103017153700-102. Registro en la Dirección General de Correos PP09-0883. Certificado de licitud de título número 11819 del 11de diciembre de 2001. Certificado de licitud de contenidonúmero8422del11dediciembrede2001.

Page 7: Un tsunami de información
Page 8: Un tsunami de información

Contáctenosparapublicidad:[email protected]

...yrecibasemanalmente

nuestro boletín electrónico

Manténgase enterado dela transformación del sector público enMéxico

Suscríbasesincostoa

Política digitalwww.politicadigital.com.mx

Page 9: Un tsunami de información

edición sesenta y cinco > 7

> Tema cenTral

Reportaje especial

El diluvio de datos

Page 10: Un tsunami de información

8 < Política digital

> Tema cenTral

El diluvio de datosLas empresas, los gobiernos y la sociedad apenas

comienzan a aprovechar el enorme potencial que ofrece la abundancia de información

En el 2009, los aviones estadounidenses no tripulados que volaron sobre Irak y Afganistán enviaron cerca de 24 años de imágenes de video. Los nuevos modelos

que se utilizan este año producen 30 veces más información.Por donde se mire, la cantidad de información en el mundo se está disparando. Según

una estimación, la humanidad creó 150 exabytes (mil millones de gigabytes) de datos en 2005. Este año, se crearán 1,200 exabytes. Mantener este flujo y almacenar los bytes que pueden resultar útiles es una labor bastante difícil. Y más complicado aún es detectar patrones y encontrar información relevante. De todas maneras, el diluvio de información ha comenzado a transformar a las empresas, a los gobiernos, a la ciencia y la vida cotidiana de todos nosotros.

Algunos sectores de la industria se han convertido en líderes para la obtención y explotación de los datos. Compañías de tarjetas de crédito monitorean cada compra y pueden identificar fraudes con un alto grado de precisión, al utilizar reglas derivadas del análisis de millones de transacciones.

Las tarjetas de crédito robadas se utilizan más para comprar licores fuertes y de menor precio que vino tinto, por ejemplo, pues son más difíciles de identificar. Las compañías de seguros han demostrado ser muy buenas para seguir pistas y combinar información para detectar reclamos sospechosos: por ejemplo, los reclamos fraudulentos se suelen hacer con mayor frecuencia los lunes que los martes, debido a que los asegurados aprovechan el fin de semana para reunir a sus amigos e invitarles a actuar como testigos falsos. Gra-cias a la combinación de este tipo de reglas, es posible encontrar qué tarjetas de crédito tienen mayor probabilidad de haber sido robadas y cuáles quejas son poco confiables.

Contenido

8El diluvio de datos

9Datos, datos en todas partes

11Un juego diferente

12Hay oro tras cada clic

14La regla de cálculo

16La sociedad abierta

17“Muéstralo en una gráfica”

19Nuevas reglas para manejar información

20¿Se puede gestionar la abundancia?

Copyright The Economist, Limited, Londres, 2011. Todos los derechos reservados. Traducción: Paula Sepúlveda Kischinevzky, Mariano Garza-Cantú Chávez y José Luis Becerra Pozas.

Page 11: Un tsunami de información

edición sesenta y cinco > 9

> Tema cenTral

Los operadores de telefonía móvil, por su parte, analizan patro-nes de llamadas de sus suscriptores. Pueden por ejemplo, saber si la mayoría de sus contactos están en alguna red de la competencia. Y si la competencia tiene una promoción más atractiva, es posible que pierdan la fidelidad de ese suscriptor. Y para que esto no ocurra, pueden darle algún incentivo.

Por estos días, tanto las industrias tradicionales como las nuevas utilizan la analítica (analytics) de los datos. Los distribuidores de bie-nes y servicios en línea –o fuera de línea– son maestros de la minería de datos (o “inteligencia de negocios”, como se le conoce). De esta forma, al analizar “datos de la canasta común”, los supermercados pueden adaptar sus promociones a las preferencias de los clientes.

Pero aún queda mucho camino por recorrer porque, a pesar de años de esfuerzo, las bases de datos policiales y de las agencias de inteligencia todavía no están totalmente vinculadas. En salud, la di-gitalización de los expedientes facilitaría el monitoreo de tendencias, y ayudaría a evaluar la eficiencia de los distintos tratamientos. Asi-mismo, los esfuerzos a gran escala para computarizar los expedientes clínicos tienden a tener problemas burocráticos, técnicos y éticos.

La publicidad en línea se dirige más a audiencias específicas que a la población en general, por lo que hay más posibilidades de persona-lizarla y los consumidores optarían por estos anuncios si se les ofre-cieran más y mejores servicios gratuitos en línea. Los gobiernos por su parte, parecen están dispuestos a publicar más información sobre incidencia delictiva, mapas georreferenciados, detalles sobre compras gubernamentales o estadísticas sobre el desempeño del servicio pú-blico. La gente puede reutilizar esta información para crear nuevas aplicaciones y promover la rendición de cuenteas de los políticos.

Las empresas que aprovechan estas oportunidades, o proveen herramientas para que otros lo hagan, prosperarán. La inteligencia de negocios es la parte que crece más rápidamente en la industria del software.

Y ahora, las malas noticiasEl diluvio de datos tiene sus riesgos. Abundan los ejemplos de ba-ses de datos robadas: discos con inmensas bases de datos perdidos, computadoras portátiles cargadas con registros de impuestos que se dejan olvidadas en taxis o números de tarjetas de crédito robados en línea, que originan violaciones a la privacidad, robo de identidad y fraude. Aunque también se puede invadir la privacidad sin causar estos problemas, como cuando Facebook o Google cambian su con-figuración inesperadamente en sus redes sociales, ocasionando que los miembros revelen información personal sin darse cuenta.

Una amenaza aún más siniestra proviene de las distintas varian-tes del Big Brother, particularmente cuando el gobierno pide a las compañías entregar información personal sobre sus clientes. En vez de controlar y poseer sus propios datos personales, la gente se da cuenta que no tiene control sobre ellos.

La mejor manera de lidiar con los inconvenientes del diluvio de información es, paradójicamente, hacer que la información correcta esté más disponible y requerir más transparencia.

Después de todo, el proceso de aprendizaje para hacer frente al diluvio de información apenas comienza.

Datos, datos en todas partes

La información ha pasado de la escasez a la sobreabundancia. Este cambio aporta nuevos beneficios, pero también ocasiona grandes

dolores de cabeza

Cuando la empresa Sloan Digital Sky inició sus ope-raciones en el 2000, su telescopio en Nuevo Méxi-

co reunió más información en sus primeras semanas de la que se había recolectado en toda la historia de la astronomía. Una década después, su archivo contiene 140 terabytes de información. Uno de sus sucesores, el Gran Telescopio Sinóptico, que entrará en operaciones en 2016, en Chile, reportará esta cantidad de datos cada cinco días.

Estas montañas de información también se pueden encontrar en la Tierra: la cadena de supermercados Wal-Mart maneja las transacciones de más de un mi-llón de usuarios cada hora; su base de datos cuenta con más de 2.5 petabytes –el equivalente a 167 ve-ces la cantidad de libros que hay en la Biblioteca del Congreso en Estados Unidos. Facebook alberga 40 mil millones de fotografías; y la decodificación del genoma humano, que implica analizar de tres mil millones de pares de cromosomas, demoró diez años la primera vez que se hizo en 2003; hoy tarda una semana.

Todos estos ejemplos se refieren a lo mismo: el mun-do produce una cantidad inimaginable de información

10o aniversario

Page 12: Un tsunami de información

10 < Política digital

> Tema cenTral

digitalizada que crece cada vez más y de forma más rápida. Esto permite hacer cosas que antes no se podían hacer, como identi-ficar tendencias, prevenir enfermedades, combatir el crimen y más. Bien manejada, la información se puede utilizar para crear valor económico, proveer ideas frescas para la ciencia, y lograr que los gobiernos rindan cuentas.

Pero también se están creando nuevos problemas, pues la abun-dancia de herramientas para capturar, procesar y compartir esta información –mediante sensores, computadoras, teléfonos móviles y similares– excede el espacio disponible para su almacenamiento (ver gráfica). Más aún, la seguridad de la información, y la pro-tección de la privacidad se complica en la misma medida en que la cantidad de información crece y se comparte en todo el mundo.

Alex Szalay, astrofísico de la Universidad John Hopkins, seña-la que la proliferación de datos los está volviendo menos accesi-bles. “¿Cómo darle sentido a toda esta información? Deberíamos preocuparnos más de entrenar a la próxima generación para que aprovechen estos datos. Y no me refiero sólo a los científicos, sino también a los funcionarios de gobierno y a los ejecutivos de las empresas”, dice Szalay.

Los efectos se están sintiendo en todas partes, desde los nego-cios hasta la ciencia, desde el gobierno hasta las artes. Los cien-tíficos e ingenieros computacionales crearon un nuevo término para este fenómeno: big data.

Desde el punto de vista epistemológico, un conjunto de datos integran la información; y el conocimiento se crea a partir de un cuerpo de información. En este reportaje especial utilizaremos los términos “datos”, “data” e “información” de manera indistinta.

La analítica y los nuevos profesionalesEl negocio de administrar información crece a pasos agigantados. Recientemente, las empresas Oracle, IBM, Microsoft y SAP han invertido más de 15 mil millones de dólares para adquirir compa-

ñías de software especializadas en la analítica y la administración de datos. Se estima que esta industria tiene un valor de 100 mil millones de dólares y que aumenta a un ritmo de 10% anual, casi el doble de lo que crece la industria de software en el mundo.

Los responsables de las áreas de Tecnologías de la Informa-ción y Comunicaciones (CIOs) se han vuelto cada vez más im-portantes en el organigrama empresarial y empieza a aparecer en el mapa de las organizaciones un profesional de nuevo tipo: los científicos de datos, que combinan las habilidades del progra-mador de software, las del estadístico, y las de una especie de modernos “gambusinos digitales” que extraen pepitas de oro escondidas bajo montañas de información. Hal Vrian, econo-mista en jefe de Google, predice que el trabajo del estadístico se transformará en la más glamorosa de las actividades en esta industria. La información, dice, está en todas partes; lo escaso, es la habilidad para extraer sabiduría de ella.

¿Por qué hay tanto de todo?Existen muchas razones que explican el explosivo crecimiento de la información. La más evidente es la tecnología. Mientras la capacidad de los dispositivos digitales se disparan y los precios se desploman, los sensores y las aplicaciones digitalizan tonela-das de información que antes no estaban disponibles. Además, cada vez hay más personas que tienen acceso a herramientas más poderosas. Por ejemplo, en el mundo hay más de 4.6 mil millones de suscripciones a telefonía móvil (aunque muchas per-sonas tienen más de una suscripción) y casi dos mil millones de personas utilizan internet.

Más aún, hay cada vez más gente que interactúa con la in-formación. Entre 1990 y 2005, más de mil millones de personas en todo el mundo accedieron a la clase media. En la medida en que tengan más ingresos, se alfabetizan más, lo que impulsa el crecimiento de la información.

Otra razón es la famosa “Ley de Moore”, que la industria de computación da por sentada. esta Ley afirma que cada 18 meses, la capacidad de procesamiento y almacenamiento de los microprocesadores se duplica, mientras que sus precios dismi-nuyen casi el doble.

La cantidad de información digitalizada aumenta diez veces cada cinco años. Buena parte de esta información se comparte. Para 2013, el flujo anual de tráfico en internet alcanzará los 667 exabytes, según estimaciones de Cisco, una empresa que fabrica equipos para comunicaciones.

Por otra parte, la cantidad de datos crece más rápido que la habilidad que tienen las redes para transportarla.

La nueva materia primaLos datos se están convirtiendo en la nueva materia prima de los negocios: un insumo económico casi tan importante como el capital y el trabajo. “Lo que observamos es la posibilidad de crear economías que giran en alrededor de la información. Ese es, para mí, el gran cambio”, afirma Craig Mundie, Jefe de Investigación y Estrategia de Microsoft.

Fuente: IDC

¿Hasta dónde llegará la sobrecarga de información?La información creada supera la capacidad de lo que es posible almacenar

2,000

1,750

1,500

1,250

1,000

750

500

250

02006 2007 20082005

PRONÓSTICO

Información creada

Almacenamiento disponible

2009 2010 2011

Page 13: Un tsunami de información

edición sesenta y cinco > 11

> Tema cenTral 10o aniversario

Por su parte, Rollin Ford, el CIO de Wal-Mart, comenta: “Cada día me despierto y me pregunto: ‘¿cómo puedo mejorar el flujo de datos, administrarlos mejor, analizarlos mejor?’”.

Los sofisticados análisis cuantitativos se aplican a muchos aspectos de la vida. Un ejemplo de ello es Farecast, una herramienta del sistema de búsquedas Bing de Microsoft. Luego de examinar 225 mil millones de registros de vuelos y precios, esta herramienta en línea notifica a los clien-tes si deben comprar un boleto de avión ahora o esperar a que los precios bajen. Esto también se aplica en las reservaciones de hotel, vehículos o servicios similares. Asimismo, los bancos y sitios web de finanzas perso-nales agregan datos extraídos de sus clientes, para mostrar tendencias macroeconómicas, lo cual les permite crear negocios complementarios.

Datos que revelan más de lo esperadoEl rastro de clics que los usuarios de internet van dejando mientras nave-gan, y del que se puede extraer valor, se ha vuelto un pilar de la economía de internet. Por ejemplo, el sistema de búsquedas de Google identifica la relevancia de algún tema por el número de clics que tiene. Si el tema ubicado en el octavo lugar pasa a ser el más socorrido por quienes buscan información, el algoritmo lo subirá de lugar en la lista de resultados.

En la medida en que el mundo se digitaliza, el análisis y la agrega-ción de datos aportan enormes beneficios en otros campos. Tal es el caso por ejemplo del trabajo que realizan Craig Mundie, de Microsoft, y Eric Schmidt, ex Presidente y Director General de Google. Ambos participan en una iniciativa presidencial para reformar el sistema de Salud de Estados Unidos. “Al iniciar este trabajo Eric y yo decíamos: ‘mira, si realmente quieres transformar el sistema de salud, debes cons-truir una economía que gire alrededor de la información que aportan los individuos”, dice Mundie. “De esta manera, los datos no serán sólo un padrón de personas que reciben servicios de salud, sino un insumo central para mejorar cada aspecto del sistema”.

No cabe duda que los registros digitales harán que el trabajo de los doctores sea más fácil, que se reduzcan los costos para proveedores y pacientes, y que se mejore la calidad del servicio. Al agregar data, se podrán identificar reacciones no deseadas de un medicamento, puntualizar los tratamientos más efectivos, y predecir la aparición de enfermedades antes de que aparezcan los síntomas. Las computado-ras son capaces de hacer este tipo de operaciones, pero se necesitan programas específicos para lograrlo.

En ocasiones esos datos revelan más de lo que se espera. Tal es el caso del sitio Oakland Crimespotting, que publicó el lugar y la hora en que se realizaban arrestos en la ciudad de Oakland, California. Con unos cuántos clics, los ciudadanos pudieron comprobar que la policía hacía redadas contra la prostitución todas las noches excepto los miér-coles, una táctica que probablemente la policía no deseaba revelar.

Creer ciegamente en la agregación de datos puede ser muy riesgo-so. Durante la crisis financiera del 2009-2010 fue evidente que los bancos y las agencias calificadoras confiaron en modelos que reque-rían grandes insumos de datos, pero fallaron al no reflejar los riesgos financieros del mundo real. Esta fue la primera crisis desatada por los “big data”. Y habrán más.

“La economía basada en datos está naciendo”, advierte Mundie, de Microsoft.

Un juego diferente

¿De qué manera la información transforma los negocios

tradicionales? La inteligencia de negocios y la analítica de datos pueden darnos una respuesta

Existe una variedad de tecnologías que se aglutinan bajo el concepto de Inteligencia de negocios o Busi-

ness Intelligence o minería de datos gracias a los cuales las empresas han empezado a reunir y procesar datos como nunca antes.

En el pasado, estos datos residían en diferentes siste-mas dentro de las áreas de Finanzas, Recursos Huma-nos o Atención a Clientes, sin posibilidad de “hablarse” unas con otras. Actualmente, los sistemas de informa-ción están vinculados, y las empresas utilizan técnicas de minería de datos para obtener una imagen completa de sus operaciones. Esta versión única de la verdad permite a las empresas ope-rar con mayor efi-ciencia, identificar tendencias y mejo-rar sus pronósticos.

Ese fue el caso de Cablecom, empresa operadora de telecomunicaciones con sede en Suiza. Una quinta par-te de los sus clientes desertaba al cabo de un año, pero la empresa logró revertir esta tendencia y redujo la cifra de deserción a menos del 5%. ¿Cómo lo hizo? Mediante un software descubrió que, a pesar de que la deserción de sus clientes alcanzaba el punto máximo 13 meses después de contratar el servicio, en realidad decidían

Page 14: Un tsunami de información

12 < Política digital

> Tema cenTral

dejar a la compañía alrededor del noveno mes (así lo señala-ban diversos indicadores como la cantidad de llamadas a los servicios de atención al cliente). Ante esta evidencia, Cable-com ofreció paquetes y servicios especiales a ciertos clientes siete meses después de su suscripción.

Agonía y torturaLa minería de datos tiene una dudosa reputación. “Si tortu-ras los datos, te confesarán todo”, bromean los estadísticos; aunque en realidad esta práctica se ha vuelto común.

Best Buy, la cadena de tiendas especializadas en tecno-logía, descubrió que el 7% de sus clientes representaban el 43% de sus ventas, por lo que reorganizó sus tiendas para concentrarse en las necesidades de su clientela. También las aerolíneas mejoraron su administración cuando aplicaron técnicas analíticas y descubrieron un indicador determinan-te para que un pasajero reserve un vuelo: la posibilidad de ordenar comida vegetariana.

La industria de tecnologías de la información considera que la inteligencia de negocios será un factor dominante en este siglo. IBM sostiene que esta especialidad será un pilar de su crecimiento, pues será aplicado en cosas tan diversas como sensores para monitorear el flujo de tráfico de una ciudad, o el flujo de sangre de un paciente. Hasta 2010, la empresa había invertido unos 12 mil millones de dólares e inaugurado seis centros de analítica donde trabajan cuatro mil empleados.

Pero el aprovechamiento de los datos no es tarea fácil. El primer paso consiste mejorar la calidad de la información. Nestlé, por ejemplo, vende más de 100 mil productos en 200 países, y utiliza 550 mil proveedores. Pero hace unos años no pudo aprovechar su enorme poder de compra, porque sus bases de datos eran un desastre.

Al analizarlas se dieron cuenta que, de los nueve millo-nes de registros de vendedores, clientes y materiales, casi la mitad estaban obsoletos o duplicados, y un tercio eran inexactos o incompletos. El nombre de un vendedor apa-recía abreviado en un registro y de manera completa en otro, por ejemplo.

Nestlé no ha sido el único en tener problemas con su base de datos. La mayoría de los responsables del área de Tecno-logías de la Información en las empresas reconocen que sus datos son de mala calidad. En un estudio realizado por IBM, la mitad de los directivos interrogados no confiaba en la infor-mación sobre la cual basan sus decisiones. Muchos afirmaron que cuando trataban de darle sentido a los datos, con frecuen-cia producían más información. En lugar de encontrar una aguja en el pajar, producían más paja.

Sin embargo, conforme la analítica se convierte en una práctica más extendida, las decisiones se sustentarán en algoritmos, y no en corazonadas. Esto obliga a producir ad-ministradores que se sienten bien manejando datos, pero los cursos de estadística en las universidades no son populares.

Hay oro tras cada clic

Las empresas de internet ganan dinero con los datos que vamos dejando

inadvertidamente en la web

¿Sabía usted que Amazon.com no quiere revelar lo que co-noce de sus hábitos? Y no nos referimos únicamente a

los libros que usted haya comprado en línea, sino al rastro que alguna vez dejó mientras navegaba por su sitio, y que le sirvieron a la compañía para mejorar sus servicios.

De hecho, la información que obtiene Amazon mediante Kin-dle –su versión de libro electrónico– es aún más rica: la empresa sabe cuánto tiempo pasa una persona leyendo cada página o si toma notas. Pero Amazon se niega a revelar los datos que reco-pila, ni cómo los utiliza. Y no es el único caso.

En la economía de Internet, las empresas recogen grandes masas de información de las personas: sus actividades, gustos, aversiones, sus relaciones con los demás e, incluso, algunos se-cretos de familia. Por ejemplo, el sitio de redes sociales Facebook sigue las actividades de sus usuarios –la mitad de los cuales pa-san en promedio casi una hora en este sitio todos los días–, pero nunca habla de lo que encuentra. Google guarda más informa-ción de la que revela; e incluso eBay, la casa de subastas en línea, se mantiene en total silencio.

Page 15: Un tsunami de información

edición sesenta y cinco > 13

> Tema cenTral

“Ellos no quieren llamar la atención sobre este tema porque forma parte de su ventaja competitiva”, afirma Tim O’Reilly, uno de los autores del concepto Web 2.0 y propietario de la editorial O’Reilly Media. Estas empresas tienen una gran ventaja sobre aquellas que no pueden obtener esta información. Como lo ad-mitiera el director de comunicaciones de uno de los sitios web más grandes, “no estamos en posición de conversar sobre esto. El asunto tiene menos que ver con la privacidad. No estamos dispuestos a abrir nuestra mano”. En otras palabras, la empresa no quiere revelar sus secretos comerciales.

Esta reticencia se debe el temor que provocan en los usuarios y a la atención que de los reguladores. Pero esto refleja también una falta de visión: Primero porque los políticos y el público están realmente ansiosos; y segundo, si los usuarios supieran cómo utilizan la información, probablemente se sientan más impresionados que alarmados.

Los sitios web más grandes ya reconocieron que la informa-ción sobre sus usuarios es un gran tesoro que puede ser utilizado de manera inmediata, cosa que las empresas tradicionales no pueden hacer.

Los grandes sitios web llevan a cabo experimentos contro-lados para aprovechar la información que van dejando sus clientes. Netflix, un sitio que ofrece películas de alquiler, em-plea una técnica estadística llamada “filtrado colaborativo” para saber qué recomienda un usuario a otro, lo que le ha reportado millones de dólares en ventas adicionales. Casi dos tercios de las películas que seleccionan los clientes de Netflix provienen de las recomendaciones en línea que recibieron de un familiar o amigo.

El sitio de eBay, que a primera vista se parece a una platafor-ma neutral para el intercambio comercial, realiza miles de ajus-

tes a la información que obtiene de su usuarios: sus conductas a la hora de subastar, tendencias de precios, tipos de búsqueda que se hacen y el tiempo que destinan para consultar una página.

Cada categoría de producto es tratado como una “microeco-nomía” que se administra por separado. Por ejemplo, si la com-pañía observa que hay gran cantidad de búsquedas, pero pocas ventas de un artículo costoso, esto podría indicar que se trata de una demanda no satisfecha, por lo que eBay podría pedir ese mismo producto a otro proveedor.

Pero sin duda, la empresa que obtiene el máximo rendimiento de los datos que obtiene de sus usuarios es Google. El valor de la empresa se explica, en buena medida, por la inimaginable can-tidad de información que posee de sus usuarios. Google explota la información que se produce al interactuar con ellos, trans-formándola en productos colaterales que son automáticamen-te reciclados para mejorar el servicio o crear nuevos productos completamente.

Los votos del ratón En 1998, Larry Page, cofundador de Google, ideó el algoritmo PageRank. En ese entonces, los motores de búsqueda se limi-taban a contar el número de veces que una palabra aparecía en una página web para determinar su relevancia. Se trataba de un sistema abierto a la manipulación. Tuvieron que mejorar el sistema para que cuente el número de enlaces entrantes desde otras páginas web. Estos vínculos actúan como “votos” por parte de los usuarios de Internet, para expresar que se trata de un buen contenido. Si hay más enlaces, significa que es una página web más útil. Sucede algo similar con un libro: si más obras lo citan como fuente confiable, esto indica que es mejor que otros. Pero esta mejora era susceptible al spam de enlaces, con lo cual se podría engañar al sistema. La solución a este segundo problema la tenían frente a sus narices: contabilizar solamente aquellas páginas de resultados de búsqueda donde los usuarios habían hecho clic, y se quedaron en ellas.

Una búsqueda en Google puede producir dos millones de resultados en un cuarto de segundo, pero la mayoría de los usuarios sólo quieren consultar una página, por lo que le dicen a Google qué quieren encontrar, y el algoritmo alimenta la con-sulta de forma automática.

A partir de entonces, Google se dio cuenta de que estaba en el negocio de la minería de datos.

Sacar provecho de la enorme cantidad de datos no es privile-gio exclusivo de Google, ni tampoco una técnica nueva. Uno de los ejemplos más significativos se remonta a mediados de 1800, cuando Matthew Fontaine Maury, oficial de la Armada estado-unidense, tuvo la idea de agregar los registros de las rutas de los buques que cruzaban el Pacífico, para identificar la que ofre-ciera mejores vientos y corrientes marinas. Sin proponérselo, Fontaine creó una variante temprana de una “red social” entre capitanes, con quienes compartía sus libros de registro, siempre y cuando le entregaran sus rutas de navegación. Era un proceso lento y laborioso.

10o aniversario

Page 16: Un tsunami de información

14 < Política digital

> Tema cenTral

Las inferencias estadísticas Google aplica el principio de “aprendizaje recursivo” en muchos de sus servicios, incluyendo el de corrección ortográfica, y ha pro-ducido el mejor corrector ortográfico en casi todos los idiomas.

Microsoft afirma haber gastado varios millones de dólares y más de 20 años para construir su robusto corrector ortográfico en su procesador de textos. Pero Google obtuvo la materia prima sin costo: su programa se basa en las faltas de ortografía que los usuarios escriben en la ventana de búsqueda, y en las correccio-nes que luego hacen. Con casi tres millones de consultas diarias, los resultados se acumulan con rapidez.

Por cierto, dos nuevos servicios de Google utilizan el mismo sistema: la traducción y el reconocimiento de voz. Ambos le han provocado grandes dolores de cabeza a los informáticos que tra-bajan en inteligencia artificial. Durante más de cuatro décadas, los cerebros más brillantes de la industria trataron de programar las computadoras para que entendieran la estructura y la foné-tica de los idiomas. Esto significaba definir reglas gramaticales para saber dónde van los sustantivos y dónde los verbos en una oración, y cuáles son los tiempos verbales correctos, y demás.

Google por el contrario, abordó este reto como un proble-ma de matemáticas que podría ser resuelto mediante una gran

cantidad de datos y capacidad de procesamiento. Al final, se le ocurrió algo muy práctico.

Para la traducción, recurrió a sus otros servicios. La firma ofrece documentos de la Comisión Europea, traducidos a unos 20 idiomas, y su proyecto de escaneo de libros cuenta con miles de títulos que han sido traducidos a muchos idiomas. Todas estas traducciones son muy buenas, realizadas por expertos bajo los estándares más exigentes. De manera que, en vez de enseñar a sus computadoras las reglas de un idioma, Google empleó los textos que ya tenía para hacer inferencias estadísticas.

El Traductor de Google (Google Translate) ofrece textos en más de 50 idiomas, de acuerdo con Franz Och, uno de los inge-nieros de la compañía. El sistema identifica qué palabra o frase en un idioma es el equivalente más probable en una segunda lengua. Si las traducciones directas no están disponibles (por ejemplo, del hindi al catalán), el inglés es utilizado como puente.

El sistema fue desarrollado gracias al procesamiento de casi dos trillones de palabras. Pero el sistema no está a punto, a pesar de que aprende de una gran cantidad de datos. Aquí la retroali-mentación es fundamental, pero Google tan sólo pide la opinión de los usuarios sobre el servicio recibido, nada más.

Es difícil cuantificar la cantidad de información que existe en el mundo. Lo que está claro es que hay mucha, que está creciendo a un ritmo monstruoso de 60% anual, y que tiende a acelerarse

El flujo de datos proveniente de sensores, computadoras, laboratorios de investigación, cámaras digitales, teléfonos celulares y otros dispositivos rebasó la capacidad de las tecnologías para almacenarla en 2007. Y es que la cantidad de información se incrementa de manera sorprendente.

Un ejemplo son los experimentos que se realizan en el Gran Colisionador de Hadrones, el laboratorio de partículas subatómicas en Génova: genera 40 terabytes cada segundo, una magnitud mayor de la que se puede almacenar o analizar. Por eso, los científicos recolectan lo que pueden y dejan que el resto se disipe en el éter.

Según un estudio realizado por la

firma de investigación de mercado IDC, se generaron casi 1,200 exabytes de datos digitales en 2010.

Pero, ¿acaso se consume toda esta información? Investigadores de la Universidad de California en San Diego (UCSD) estudiaron el flujo de datos en los hogares estadounidenses. En 2008 encontraron que estos hogares eran bombardeados con 3.6 zettabytes de información (o 34 gigabytes por persona al día). Los datos más pesados correspondían a videojuegos y programas de televisión; los textos escritos representaron menos del 0.1% del total de bytes.

Sin embargo, la cantidad de lectores, que estaba en franco declive por la televisión, se ha triplicado desde 1980 gracias a los textos que hay en internet. Además, en el pasado, el consumo de información se hacía de manera pasiva, descontando el teléfono; hoy en cambio

la mitad de todos los bytes se reciben interactivamente, según la UCSD.

La marcha de las máquinasEn el futuro cercano, “es muy probable que la información creada por máquinas, y consumida por otras máquinas, crezca más que cualquier otra cosa”, advierte Roger Bohn, de la UCSD, uno de los autores que realizó el estudio de los hogares estadounidenses.

Según sus estimaciones, únicamente el 5% de la información se crea de manera “estructurada”, es decir, con formatos estandarizados de palabras o números que pueden ser leídos por computadoras. El resto son archivos de fotografías o audios de llamadas telefónicas, que son más difíciles utilizar o recuperar. Pero esto está cambiando en la medida en que el contenido de la web se vuelve más “etiquetado” y el software para reconocimiento de voz y rasgos faciales permite identificar palabras y personas.

“Es triste que hoy exista tan poca información inútil”, bromeaba Oscar Wilde en 1894.

La regla de cálculo

Page 17: Un tsunami de información

edición sesenta y cinco > 15

> Tema cenTral

La “inflación” en los datosUnidad Tamaño Lo que significa

Bit (b) 1 o 0Bit es la abreviatura de “dígito binario” (binary digit), ya que en las computadoras se utiliza el código binario (1 o 0) para almacenar y procesar datos.

Byte (B) 8 bitsSuficiente información para crear una carta en inglés o el número de código de compu-tadora. Es la unidad básica de la computación.

Kilobyte (KB) 1,000 o 210 bytes Proviene de “mil” en griego. Una página de texto equivale a 2KB.

Megabyte (MB) 1,000 KB o 220 bytesProcede de la palabra griega mega, que significa “grande”. Las obras completas de Shakespeare caben en 5 MB, y una canción pop típica “pesa” aproximadamente 4 MB.

Gigabyte (GB) 1,000 MB; 230 bytes De “gigante”, en griego. Una película de dos horas puede comprimirse en 2.1 GB.

Terabyte (TB) 1,000 GB; 240 bytesDe “monstruo”, en griego. Todos los libros catalogados en la Biblioteca del Congreso de Estados Unidos suman 15 TB.

Petabyte (PB) 1,000 TB; 250 bytesTodas las cartas enviadas por el servicio postal de Estados Unidos durante un año equi-valen a unos 5 PB. Google procesa alrededor de 1 PB cada hora.

Exabyte (EB) 1,000 PB; 260 bytes Equivalente a 10 mil millones de copias de la revista The Economist.

Zettabyte (ZB) 1,000 EB; 270 bytes Este año, se prevé que la cantidad total de información en el mundo será de casi 1.2 ZB.

Yottabyte (YB) 1,000 ZB; 280 bytes Actualmente es una cantidad de información demasiado grande para imaginar.

Los prefijos son establecidos por un grupo intergubernamental, la Oficina Internacional de Pesas y Medidas; Yotta y Zetta se añadieron en 1991; los términos de cantidades mayores todavía no se han establecido.Fuente: The Economist

Por otra parte, el sistema de reconocimiento de voz de Google destaca por el uso exhaustivo de datos. Para utili-zar su directorio telefónico, los clientes marcan el número y mencionan de viva voz lo que están buscando. El sistema re-pite esta información; cuando el cliente lo confirma, o hace nuevamente la consulta, el sistema desarrolla un registro de las diferentes formas en que puede expresarse la palabra utili-zada. El sistema no aprende a entender la voz, sino que com-pila las probabilidades que hay para verbalizar una palabra. “La reutilización de datos es un nuevo modelo para la práctica de la computación”, dice Edward Felten, de la Universidad de Princeton: “Trabajar con grandes cuerpos de data y hacer in-ferencias acerca de lo que puede ir junto, está avanzando más rápido de lo esperado. Ya no se trata tanto de entender, sino de hacer análisis estadístico. Muchas empresas de internet están viendo las cosas de esta manera.

“Si tenemos datos generados por los propios usuarios, podremos construir mejores sistemas, en vez de mejorar al-goritmos”, señala Andreas Weigend, quien fuera Director de Desarrollo de Amazon y que actualmente trabaja en la Uni-versidad de Stanford.

Todo esto está perfectamente alineado con la audaz misión de la empresa que consiste en “or-ganizar la información del mundo”. Las palabras que acompañan esta misión fueron elegidas cui-dadosamente: Google no necesita ser dueña de los datos. Lo que quiere es tener acceso a ellos (y asegurarse que sus rivales no los tengan).

La iniciativa “Frente de Liberación de Data”, una iniciativa de Google que arrancó hace un par de años pretende que todos los servicios pue-dan ser discontinuados con gran facilidad por sus usuarios, que podrán retirar sus datos de la empresa. En una industria que se sustenta en la captura, retención, y encierro de los datos de sus clientes, Google pretende “reducir las barreras de salida”. Esto debería salvar a sus ingenieros de la complacencia, que es la maldición de muchas empresas tecnológicas. Es muy posible que Google reconozca que sus usuarios no se opondrán a compartir información con la empresa, si saben que pueden retirar su información en cual-quier momento.

10o aniversario

Page 18: Un tsunami de información

16 < Política digital

> Tema cenTral

La sociedad abierta

El llamado Open government se ha convertido en una de las áreas más prometedoras de la política pública

en Estados Unidos

Desde la antigüedad hasta los tiempos modernos, la nación ha sido, siempre, el resultado de la administración de infor-

mación. Su habilidad para exigir el pago de impuestos, promul-gar leyes, contabilizar ciudadanos o crear ejércitos es el corazón del Estado. Pero algo nuevo aparece en el horizonte. Por estos días, la apertura democrática es mucho más que organizar elec-ciones libres y justas: hoy los ciudadanos esperan tener acceso a la información gubernamental.

Por mucho tiempo, el Estado ha sido el principal generador, recolector y usuario de datos. Guarda las actas de cada naci-miento, matrimonio y defunción; compila los números de la eco-nomía y guarda las estadísticas de licencias y del clima. Hasta hace poco, esta información se resguardaba bajo llave; incluso la de acceso público era difícil de encontrar.

Pero ahora, tanto los ciudadanos como las organizaciones no gubernamentales del mundo están presionando para acceder a información pública nacional, estatal o municipal, y algunos funcionarios apoyan esta iniciativa con gran entusiasmo.

“La información que manejan los gobiernos es una especie de infraestructura, no menos importante que las carreteras, la red eléctrica o los sistemas de agua potable”, afirma Carl Malamud, jefe del grupo Public.Resource.Org, que publica información de gobierno por internet.

Estados Unidos lidera el acceso a datos en el mundo. El primer día de su administración, el presidente Barack Obama publicó un decreto instruyendo a los titulares de las agencias federales a pu-blicar tanta información como pudieran, y los exhortaba a actuar bajo una clara presunción: “ante la duda, la apertura prevalece”. Esto fue algo notable, ya que la administración Bush había orde-nado a las dependencias hacer exacta y expresamente, lo opuesto.

El decreto del presidente Obama produjo una oleada de in-formación gubernamental que se publicó en internet. Ahora es posible obtener cifras de muertes relacionadas con el trabajo que proporcionan el nombre de los empleadores, o conocer los datos anuales sobre migración, todo en forma gratuita y en un sitio público llamado data.gov.

Las alternativas que brinda esta apertura son infinitas. Ejem-plo de ello sucedió hace unos meses: 48 horas después de que el gobierno estadounidense publicara información sobre retrasos de vuelos comerciales, surgió un sitio web para diseminarlos.

Y es que dar acceso a los datos “crea una cultura de rendición de cuentas”, afirmó Vivek Kundra, quien fuera CIO del gobierno federal estadunidense. Una de las primeras acciones que realizó Kundra cuando asumió el cargo, fue crear un tablero de control en línea que detallaba el gasto del gobierno federal en tecnología (unos 70 mil millones de dólares).

Esto ha marcado toda la diferencia.”Se está dando un cambio cultural respecto a lo que la gente espera del gobierno, gracias a la experiencia de comprar en internet, y a la información finan-ciera en-línea”, señala John Wonderlich, de la Sunlight Founda-tion, que promueve gobiernos abiertos.

En el marco de la crisis económica, “la ciudad de San Francis-co enfrenta importantes reducciones presupuestarias. Tenemos que reducir nuestros gastos operativos en un 50%, por lo que tendremos que resolver cómo cambiar nuestro funcionamien-to”, dice Chris Vein, el CIO de la ciudad, Para él, proveer a los ciudadanos de información hará que el gobierno de la ciudad sea más eficiente.

Uno de los primeros usuarios de esta nueva disponibilidad de data, fue el sitio web “San Francisco Crimespotting”, desarrolla-do por la empresa Stamen Design, que ofrece cifras históricas de criminalidad georeferenciadas sobre un mapa de la ciudad, y permite a los usuarios manipular los datos para encontrar ten-dencias ocultas en su colonia, o solicitar la presencia de patrullas en áreas particulares.

Otras ciudades como Nueva York, Chicago y Washington, D.C., también están tomando la delantera. Ahora que grupos ciudadanos y empresas cuentan con la información, la pueden utilizar para mejorar los servicios. Por ejemplo, cleanscores.com publica los resultados de inspecciones sanitarias a los restauran-tes; otros sitios difunden actividades infantiles o ayudan a las personas a encontrar lugares de estacionamiento. En el pasado, los gobiernos estaban obligados a proporcionar estos servicios de información, ahora en cambio, sólo entregan datos.

Europa también ha comenzando a ofrecer mayor apertura. En 2005, la Comisión Europea hizo un llamado para que la in-

Page 19: Un tsunami de información

edición sesenta y cinco > 17

> Tema cenTral

formación del sector público fuera más accesible, aunque se trató de una invitación carente de dientes. No obstante, los activistas digitales del viejo mundo han comenzado a emplear la red pa-ra rastrear a los políticos y para tratar de mejorar los servicios públicos. En Gran Bretaña, FixMyStreet.com ofrece a los ciuda-danos la oportunidad de ventilar públicamente los problemas de su localidad, para que no sean ignorados por las autoridades.

Los agentes del cambioEl propósito de abrir la información no es exhibir al mundo, si-no cambiarlo. Los movimientos que buscan una mayor trans-parencia en el gobierno se han convertido en una de las áreas más vibrantes y prometedoras de la política pública. Y es que, en ocasiones, revelar información puede contribuir al logro de políticas más eficientes y a un menor costo, que si se hiciera por la vía de la regulación.

Un importante giro de estas iniciativas consiste en obligar al sector privado a que también rinda cuentas. En estos casos, el gobierno junto con la ciudadanía, son los que lo exigen. Se han dado varios casos exitosos en áreas tan diversas como la sani-dad en restaurantes, seguridad automotriz, nutrición, préstamos inmobiliarios para minorías, y desempeño educacional, anota Archon Fung, Mary Graham y David Weil, del Transparency Po-licy Project de la Kennedy School of Government, en su libro Full Disclosure.

Pero la transparencia por sí sola no basta. Debe existir una comunidad de ciudadanos que promueva la apertura de la infor-mación, y sus proveedores - los funcionarios públicos - necesitan un incentivo para proporcionarla, y penalizaciones por retener-la. Por su parte, los desarrolladores deben encontrar nuevas for-mas para asegurar que la información pública que se libera sea utilizada de forma efectiva.

Según Fung, en la medida en que los gobiernos liberen in-formación acerca de las cosas que hacen, los datos serán utili-zados más para demostrar las insuficiencias del sector público, que para dar cuenta de sus éxitos. Otra preocupación es que la calidad de los datos dejarán mucho que desear, lo que repre-senta un problema tanto para los empresarios como para los ciudadanos.

También hay un debate respecto a si los gobiernos deberían proveer únicamente la información en bruto o si debieran invo-lucrarse en su procesamiento. Otra preocupación radica en que pudieran manipularla, aunque eso podría hacerlo cualquiera.

El acceso público a cifras gubernamentales genera, sin duda, valor económico y fomenta los negocios. Esto ya ocurrió con los datos del clima y con el sistema de navegación satelital de Estados Unidos, que fue abierto para su uso comercial hace más una década.

John Stuart Mill anticipaba todo esto en 1861, cuando hizo un llamado para que hubiera “apertura en los asuntos admi-nistrativos y judiciales…con la mayor publicidad posible”. En nuestros días, esto equivaldría a alcanzar la máxima apertura de datos posible por medios electrónicos.

“Muéstralo en una gráfica”

Hace apenas unos cuantos años, apareció un vibrante y creativo campo

que fusiona las habilidades de la ciencia computacional, la estadística y el diseño

artístico. Es la visualización de datos

En 1998, Martin Wattenberg, diseñador gráfico de la re-vista neoyorquina SmartMoney, tenía un problema: que-

ría ilustrar los movimientos diarios del mercado de valores en forma diferente. En ese entonces, las gráficas se limitaban a mostrar estos comportamientos mediante una sola línea.

A Wattenberg se le ocurrió aprovechar la tecnología exis-tente para crear un mapa del mercado que mostrara el movi-miento accionario de más 500 empresas ordenadas por sec-tor. Una cuadrícula sombreada en color verde o rojo indicaría si la acción había subido o bajado y qué tanto. El éxito fue instantáneo y permitió llevar el naciente campo de la visua-lización de datos (data visualization) a audiencias masivas.

“La visualización de datos trata la inhumana cantidad de información y la presenta en una escala humana que el ojo pueda ver”, explica Wattenberg, que ahora trabaja en IBM y encabeza una nueva generación de especialistas en este campo.

La información bursátil puede ser difícil de mostrar, pero sus datos, al menos, son numéricos. Visualizar palabras es más difícil: Una manera de hacerlo es contarlas y presentar-las todas juntas de tal forma que las más utilizadas aparez-can con tipografía más grande. El método se conoce como nube de palabras, y es muy común en la web.

Poco después de que Obama asumió la presidencia, apare-ció en la web una nube de palabras con una representación gráfica semiótica de su discurso de 21 minutos. Las tres pa-labras más utilizadas fueron nación, América y pueblo. Las de su predecesor, América y libertad; y las de Abraham Lincoln fueron, guerra, Dios y ofensa.

¿Arte o información? Algunos trabajos de visualización de datos se han exhibi-do en lugares como el Museo Whitney y el Museo de Arte Moderno de Nueva York. Otros se han convertido en libros, como el proyecto web “We Feel Fine”, de Jonathan Harris y Sep Kamvar, que captura cada instante de la palabra “sentir” o “sentimiento” en Twitter, y lo relaciona con el tiempo, el espacio, la edad, el sexo e incluso el estado del clima.

10o aniversario

Page 20: Un tsunami de información

18 < Política digital

> Tema cenTral

La visualización de datos es una disciplina relativamente nue-va. Las líneas de tiempo, que han sido las tablas más comunes, aparecieron en escritos científicos hacia finales del siglo XVIII, afirma Edward Tufte en su clásico The Visual Display of Quantita-tive Information), considerada como la biblia de este negocio. De manera que los expertos en infografías son ahora los pioneros de un nuevo campo, que consiste en mostrar información me-diante una narrativa atractiva, “algo que está entre el libro de texto y la novela”, como señala Nathan Yau, de la UCLA, en su libro Beautiful Data.

Si una foto vale más que mil palabras, una infografía vale por un montón de puntos de datos.

Algo de biologíaPara el cerebro es más fácil procesar información si es presentada como una imagen, en vez de palabras o números. El hemisferio derecho reconoce formas y colores, mientras que el izquierdo procesa información de una manera analítica y secuencial, y es más activo cuando la gente lee textos o mira una hoja de cálculo. Ver una tabla numérica requiere mucho esfuerzo mental, pero la información presentada visualmente puede ser comprendida en pocos segundos. El cerebro identifica patrones, proporciones y relaciones de información para luego hacer comparaciones subliminales instantáneas.

Estas gráficas utilizan inmensas cantidades de datos. Fare-cast, el servicio de predicción de precios en línea, contrató psi-cólogos especializados en colores para diseñar las tablas y es-quemas que aparecen en su sitio. Jeffrey Heer, de la Universidad de Stanford, ayudó a desarrollar sense.us, un sitio que permite consultar los datos de los censos de Estados Unidos con datos de hace más de un siglo.

Ben Fry, un diseñador independiente, creó un mapa de las 26 millones de carreteras que hay en Estados Unidos. Las densas comunidades del noreste forman un poderoso contraste con el desolado oeste. Aaron Koblin, de Google, trazó un mapa de cada vuelo comercial en Estados Unidos durante 24 horas; con líneas más brillantes identificó las rutas de mayor tráfico.

Estas técnicas se están moviendo hacia el mundo de los nego-cios. Fry diseñó tablas interactivas para la División de Salud de la empresa General Electric que muestran los costos que pagan pacientes y aseguradoras por enfermedades comunes. En las em-presas de medios, destacan The New York Times y The Guardian, en Gran Bretaña, que han producido gráficas interactivas ricas en datos y con suficiente fuerza y coherencia informativa.

Estas herramientas se están haciendo cada día más accesi-bles. Por ejemplo, la empresa Tableau Software –cofundada en 2003 por Pat Hanrahan, de la Universidad de Stanford– hace por la visualización de datos lo que el procesador de textos hizo por la escritura, al permitir que cualquier persona pueda mani-

pular información en forma creativa. Tableau ofrece versiones gratuitas y comerciales de sus productos, lo mismo que el sitio Swivel.com.

Otros sitios son completamente gratuitos. Tal es el caso Goo-gle y un sitio de IBM llamado Many Eyes, que permiten a la gente subir datos para mostrarlos de forma novedosa y compartirlos con otras personas.

Algunos datos se representan mejor con una imagen en movi-miento, y conforme las publicaciones impresas se mueven a lecto-res electrónicos, las infografías animadas eventualmente se con-vertirán en el estándar. El software Gapminder permite publicar de forma elegante cuatro variables dinámicas al mismo tiempo.

Mostrar información puede marcar una diferencia al permitir que la gente entienda asuntos complejos y encuentre soluciones creativas. Valdis Krebs, un especialista en mapeo de interaccio-nes sociales, recuerda haber sido llamado para colaborar en un proyecto corporativo que estaba rebasado en presupuesto y re-trasado. Krebs dibujó en un mapa la intrincada red de tráfico de correo electrónico que mostraba distintas áreas de la empresa. De esta manera, demostró que los equipos involucrados no se comunicaban en forma directa, sino a través de los gerentes. La empresa cambió sus procesos de trabajo rápidamente y el proyec-to regresó al camino correcto. Una rudimentaria visualización de datos hizo la diferencia.

Page 21: Un tsunami de información

edición sesenta y cinco > 19

> Tema cenTral 10o aniversario

Nuevas reglas para manejar información

Privacidad, seguridad, retención, procesamiento, propiedad e integridad de

la información se han convertido en los nuevos principios para el flujo de bienes

y servicios digitales. Muchas de las leyes vigentes son obsoletas o ineficaces para

proteger estos principios

En 1650, dos siglos después de que Gutenberg inventara la imprenta, se habían publicado una gran cantidad de libros,

pero eran caros y de baja calidad. La primera ley de derechos de autor, promulgada a principios de 1700 en Gran Bretaña, otorgaba libre acceso al conocimiento y ponía los libros a dis-posición del público después de un pe-riodo de exclusividad de casi 14 años. Las leyes que protegen la libertad de expresión surgieron hasta finales del siglo XVIII. Antes de que la imprenta se extendiera, la necesidad de estas leyes era limitada.

Hoy la abundancia de datos ha cambiado, una vez más, la relación entre la tecnología y el Estado. Mu-chas de las reglas vigentes parecen arcaicas. Por ejemplo, las leyes de privacidad no fueron diseñadas para las redes de cómputo, y las reglas para retener documentos se refieren a re-gistros en papel. Debido a que toda la información está interconectada, se requieren reglas globales.

En la era del big data, los nuevos principios deben responder a seis ele-mentos: privacidad, seguridad, retención, procesamiento, propiedad e integridad de la información. Revisémoslas.

La privacidad es una de las prin-cipales preocupaciones. Hoy la gente revela más información personal que

nunca, sobre todo en las redes sociales, que dependen de este tipo de información. Pero la tensión entre el interés de los individuos por proteger su privacidad y el de las empresas por explotarla, se puede resolver ofreciéndole a la gente más control sobre su información.

A los cibernautas se les puede dar el derecho a ver y corregir la información que está en manos de las organizaciones, y éstas pue-den notificarles cómo fue utilizada y con quién fue compartida. Las normas actuales de privacidad aspiran a esto, pero se quedan cortas debido a las dificultades técnicas que a la industria le gusta exagerar. Una mejor tecnología podría eliminar tales problemas.

Los beneficios de la seguridad de la información –que con-siste en proteger sistemas y redes de cómputo– son invisibles: si las amenazas se evitan, las cosas funcionan con normalidad, lo que provoca importantes descuidos. Una forma de lidiar con esto es mantener a la gente informada.

En 2003, el estado de California fue el primero en expedir una ley que exigía a las empresas notificar a los usuarios sobre fallas de seguridad que comprometen su información personal. Esto presionó a las empresas a invertir más en seguridad pre-ventiva. El modelo fue adoptado por otros estados y se podría expandir aún más.

Además, los reguladores podrían colaborar en esta tarea obligando a grandes compañías a que se sometan a auditorías anuales de seguridad de la información, similar a las auditorías financieras. La información sobre las vulnerabilidades no se di-vulgaría, pero las empresas podrían utilizarla para mejorar sus

prácticas. Es más, podría incluso ser un requisito para la cobertura de seguros, permitiendo así la creación de un mer-cado de seguridad de la información.

Respecto a la retención, las reglas actuales sobre registros digitales es-tablecen que los datos no se deberían almacenar más de lo necesario, pues podrían ser utilizados de manera in-correcta o fugarse sin que nadie lo note. Viktor Mayer-Schönberger, de la Universidad Nacional de Singapur, advierte que el creciente poder y la disminución del precio de las compu-tadoras facilitarán el almacenamiento de información. En su reciente libro Delete (Borrar), argumenta a favor de sistemas que olvidan, es decir, archivos que han expirado o que lentamente se degradan con el tiempo.

Pero las regulaciones están empu-jando a la dirección opuesta. Funcio-narios estadounidenses de seguridad han presionado a las empresas para que conserven sus registros, argu-mentando que de esta manera podrán

Page 22: Un tsunami de información

20 < Política digital

> Tema cenTral

obtener pistas en caso de ocurrir algún acto terrorista. En el futu-ro será más probable que las compañías conserven los archivos digitales en vez de eliminarlos.

El procesamiento de información es otra de las preocupacio-nes. Rebeca Goldin, matemática de la Universidad de George Ma-son, plantea su preocupación sobre “la ética de las correlaciones estadísticas”. Por ejemplo, rechazar un préstamo bancario por discriminación racial es un acto ilegal. Pero si se pueden hacer correlaciones con el nivel educativo de la madre del postulante, que en Estados Unidos está fuertemente relacionado con la raza. ¿Y qué tal si al momento de hacer la solicitud, la base de datos de la institución bancaria predice la susceptibilidad que tiene el solicitante a padecer una enfermedad?

Un nuevo principio regulador en la era del big data podría ser que los datos de las personas no pueden ser utilizados para discrimi-nar contra ellas sobre el supuesto de que algo pueda o no suceder.

Esto es similar a la regla que tienen las oficinas nacionales de estadística, donde los datos recogidos de las encuestas no se pueden usar en contra de las personas, como la deportación de inmigrantes ilegales que, desafortunadamente, no siempre ha sido respetado.

Las reglas de privacidad se inclinan a tratar los datos perso-nales como un derecho de propiedad. Una presunción razona-ble es que el rastro de información que deja una persona, como los clics a la hora de navegar por un sitio web, le pertenecen al individuo y no a la empresa que recolecta la información.

El “Frente de Liberación de Datos” de Google apunta a esta dirección (ver artículo “Hay oro tras cada clic”, en la página 12). De hecho la “portabilidad de datos” estimula la competen-cia de la misma manera que lo hace la portabilidad numérica entre los operadores de telefonía móvil. También podría reducir la necesidad de leyes antimonopolio al contrarrestar el deseo de almacenar para obtener economías de escala.

Asegurar la integridad de la información es una parte fun-damental de la era del big data. Cuando Hillary Clinton, Secretaria de Estado estadounidense, criticó a los chinos por haber presun-tamente hackeado las computadoras de Google, la funcionaria utilizó el término “red global común”. Y en efecto, la idea es que internet sea un ambiente global compartido, como los océanos o el espacio aéreo, que requiere de la cooperación internacional.

La censura contamina este medio. Interrumpir los flujos de información no sólo viola la integridad de los datos, sino que coarta la libertad de expresión y niega el derecho de reunión. De la misma manera, si los operadores de telecomunicaciones dan preferencia a ciertos proveedores de contenido, minan la neutralidad de la red.

Así como los gobiernos establecen requisitos para etiquetar los alimentos procesados o imponer estándares de salud pública, también pueden definir mejores prácticas para manejar los flujos de información y el procesamiento de datos. La Organización Mundial de Comercio, que supervisa el intercambio comercial físico, puede supervisar también el flujo de bienes y servicios digitales. Pero esta labor no será rápida ni sencilla.

¿Se puede gestionar la abundancia?El abismo entre la cantidad de

información que se genera y la capacidad del hombre para

manejarla se puede estar ensanchando, pero no hay por qué alarmarse

“Lo que la información consume es muy obvio: Con-sume la atención de sus receptores” escribió el eco-

nomista Herbert Simon, en 1971. “De ahí que la riqueza de información crea pobreza de atención”. Pero así como las computadoras generan gran parte del diluvio de datos, también pueden ser utilizadas para resolver este problema.

Y conforme el torrente de información crece, no sorpren-de que la gente se sienta abrumada. “Hay un inmenso riesgo de una sobrecarga cognitiva”, explica Carl Pabo, biólogo mo-lecular especializado en el campo de la cognición. La mente humana puede manejar siete piezas de información en su memoria de corto plazo y puede lidiar con sólo cuatro con-ceptos o relaciones a la vez. Si necesita procesar más infor-mación, o si es muy compleja, la gente se confunde.

Más aún, el conocimiento se ha especializado tanto, que es imposible para un individuo aprehender la fotografía com-

Page 23: Un tsunami de información

edición sesenta y cinco > 21

> Tema cenTral

pleta de su entorno. Un verdadero entendimiento del cambio climático, por ejemplo, requiere conocimiento en Meteorología, Química, Economía y Leyes, entre otras materias. Y aunque se esperaba que los doctores de hace un siglo supieran todo en el campo de la medicina, ahora tendrían que estar familiarizados con 10 mil enfermedades, tres mil medicamentos y más de mil pruebas de laboratorio. Un estudio realizado en 2004, sugirió que solo en epidemiología a un médico le tomaría 21 horas de trabajo diario para mantenerse actualizado.

Desde esta perspectiva resalta el rol que tienen las computa-doras como “intermediarias de la información”: la gente rara vez trata con información en bruto; prefiere consumirla una vez que haya sido procesada por las computadoras. De hecho, muchas de las tecnologías descritas en este reportaje, desde la analitica de datos y el aprendizaje recursivo hasta el software de visualización, existen para que los datos sean más digeribles.

Algunas aplicaciones se han vuelto tan comunes que se dan por sentado. Por ejemplo, aterrizar un avión requiere mucho esfuerzo mental, por lo que el proceso ha sido en gran medida automatizado. En salud, la tendencia apunta hacia la medicina basada en evidencias, donde no sólo los doctores sino las compu-tadoras se involucran en el diagnóstico y el tratamiento.

Los peligros de la complacenciaEn la era del big data como la que vivimos, los algoritmos piensan más por la gente. Pero eso conlleva nuevos riesgos. La tecnología es menos confiable de lo que se cree. En el manejo de big data, por cada éxito hay muchos fracasos. Ejemplo de ello fue la in-habilidad que tuvieron los bancos para entender los riesgos que propiciaron la crisis financiera hace un par de años. El deficiente sistema utilizado para identificar terroristas, es otra muestra.

En la Navidad de 2009, el nigeriano Umar Farouk Abdulmu-tallab intentó activar una bomba que llevaba escondida mientras su avión aterrizaba en Detroit. Resultó que su padre había infor-mado a las autoridades estadunidenses que su hijo representaba una amenaza. El nombre de Umar fue introducido en una gran base de datos de casi 550 mil personas, quienes representan un riesgo para la seguridad nacional de ese país. Pero se trataba de una base de datos defectuosa: contenía muchos nombres duplica-dos o parte de la información se perdía durante los respaldos. Las autoridades cumplieron con todos los protocolos, pero aún así el sistema nunca previno que el sospechoso abordaría ese avión.

¿Y qué pasaría si la tecnología dejara de funcionar totalmen-te? No es una idea descabellada. En enero de 2000, un torrente excesivo de datos en la Agencia de Seguridad Nacional (NSA) de Estados Unidos provocó que el sistema se cayera. La agencia tuvo una especie de “muerte cerebral durante tres días y medio”, dijo el general Michael Hayden, entonces director de la NSA. “Estábamos en la oscuridad. Nuestra habilidad para procesar información fue nula”.

Parte de la solución consiste en dedicar más recursos para mejorar el desempeño de las tecnologías existentes en vez de promover más innovaciones. La industria de cómputo pasó por

un periodo similar de revaloración en 2001 y 2002, cuando Microsoft y otras empresas proveedoras anunciaron que estaban concentrando sus fuerzas para hacer productos más seguros en vez de añadir nuevas funcionalidades.

Otra preocupación es el consumo de energía eléctrica. Pro-cesar grandes cantidades de datos requiere muchos megawatts. “En dos o tres años vamos a saturar los cables eléctricos que en-tran a nuestros edificios”, advierte Alex Szalay, de la Universidad John Hopkins. “El reto será hacer las mismas cosas que hacemos hoy, pero con 10 o 100 veces menos energía eléctrica”.

Para anticipar esta situación, tanto Google como Microsoft decidieron poner algunos de sus grandes centros de datos junto a plantas hidroeléctricas para así asegurar el acceso a suficiente energía a un precio razonable.

Conocimiento es poderLa búsqueda de información ha preocupado a los seres humanos desde que el conocimiento se registró por primera vez. En el siglo III a.C., Ptolomeo robó todos los pergaminos que pudo de viajeros y naves para abastecer su gran biblioteca en Alejandría. Después del 11 de septiembre de 2001, el Departamento de Defensa de Estados Unidos lanzó un programa llamado “Total Information Aware-ness” (Conciencia de Información Total) para recolectar la mayor cantidad de datos sobre cualquier cosa: correos electrónicos, lla-madas telefónicas, búsquedas en internet, registros bancarios y médicos, transacciones de compras, y mucho más. Por otra parte, desde 1996, Brewster Kahle, un notable emprendedor de negocios por internet, ha registrado todo el contenido de la red mediante una empresa sin fines de lucro llamada el “Internet Archive”.

En realidad, siempre ha habido más información de la que la gente puede procesar mentalmente. “Nuestros sistemas sensoria-les y de atención son afinados por la evolución y la experiencia de ser selectivos”, explica Dennis Proffitt, psicólogo cognoscitivo de la Universidad de Virginia. Cada ser humano encuentra patrones para comprimir la información y hacerla manejable.

Nadie espera, razonablemente, que el hombre sea reem-plazado por un robot. “La flexibilidad que tienen los humanos para considerar consecuencias imprevistas al tomar decisiones importantes, así como resolver problemas de manera instintiva o por razonamientos abstractos acumulados a través de años de experiencia, no serán reemplazados por un algoritmo com-putarizado”, afirma el Comandante Schmorrow, un cientista cognitivo que trabaja en la Marina estadounidense.

La sobreabundancia de datos y otros recursos disponibles, como la tecnología no son ni buenos ni malos, pues depende cómo se utilicen.

En la era del big data, las computadoras monitorearán más tareas, tomarán más decisiones e incluso mejorarán sus propios procesos de manera automática. Pero el hombre se quedará con los mismos retos que siempre ha enfrentado.

El escritor T. S. Eliot preguntó alguna vez: “¿Dónde está la sabiduría que perdimos con el conocimiento? ¿Dónde está el conocimiento que perdimos con la información?”.

10o aniversario

Page 24: Un tsunami de información
Page 25: Un tsunami de información
Page 26: Un tsunami de información

24 < Política digital

> Telecomunicaciones

La opacidad de la transparenciaPor Sergio López Ayllón

Siguen 10 ideas que desatan nudos y mueven a la reflexión sobre el verdadero

sentido de la transparencia

1. La transparencia es un término opaco. Transpa-rencia es un concepto de moda, políticamente correcto, que a fuerza de usarse a veces pierde todo sentido. Lite-ralmente es la cualidad de algunos cuerpos para dejar pasar la luz. Por extensión, dice el diccionario, se predi-ca de aquello que es claro, evidente, que se comprende sin duda. Por eso, es difícil saber qué debe entenderse cuando decimos que “alguien es transparente”, pues, por definición, el cuerpo humano no deja pasar la luz.

El asunto es aún menos claro cuando predicamos que una organización, un gobierno o hasta un país es “transparente”. ¿Tiene algún sentido esta idea? ¿Puede un gobierno ser “claro” o “evidente” en su política o sus acciones, sobre todo si consideramos la complejidad so-cial? Resulta necesario hacer un análisis contextual para aproximarnos a un significado más o menos coherente.

Quizá el hilo conductor esté en la idea de “informa-ción”. Cuando una persona u organización entrega información, contribuye a dar legibilidad a su pensa-miento y acción, y por ello genera un mejor entendi-miento y comunicación con su entorno. El problema es que esto no siempre sucede así. Un flujo continuo y abundante de información puede, por el contrario, ge-nerar confusión o desorientar (pensemos, por ejemplo, en las tácticas de “intoxicación de información” que

usan algunos servicios de espionaje). Por ello, la trans-parencia alude a ciertas características de un flujo de información, tales como la oportunidad, la pertinencia, la verificabilidad, la calidad, la integralidad o la facili-dad de acceso. Eso, quizá, signifique la transparencia.

2. El nuevo (y desconocido) principio de publici-dad de la información gubernamental. En 2007 se reformó el artículo sexto constitucional. Esta reforma pasó relativamente inadvertida, pero constituye uno de los cambios más radicales que hayamos visto.

Dice hoy la Constitución: “Toda la información en posesión de cualquier autoridad, entidad, órgano u organismo federal, estatal o municipal, es pública y sólo podrá ser reservada temporalmente por razones de interés público en los términos que fijen las leyes”.

Este párrafo acabó de tajo con la tradición secular del secreto administrativo que permitía el manejo dis-crecional de la información gubernamental, o simple-mente que se le considerara como patrimonio de los funcionarios y autoridades. Por ello, nada más normal que “llevarse los archivos a casa”.

El nuevo principio convierte a las organizaciones gubernamentales en grandes bibliotecas públicas don-de cualquiera puede solicitar y obtener los documentos que ahí se generan, usan o conservan, sin necesidad de justificar su uso o propósito. La razón es simple como el agua: la información pública es pública.

3. La transparencia como política pública. La “transparencia” es algo que va más allá del derecho fun-damental de acceso a la información. Éste consiste en el derecho que tiene cualquier persona para solicitar un documento al gobierno, y la obligación correlativa de éste para entregarlo de manera expedita. Así de simple.

Las políticas de transparencia, en cambio, se refieren a las políticas referidas a la gestión, uso y divulgación

Page 27: Un tsunami de información

edición sesenta y cinco > 25

> Telecomunicaciones 10o aniversario

de la información gubernamental. También supone un curso de acción deliberado para usarla como recurso estratégico en beneficio de los fines del organismo públi-co, al mismo tiempo que se maximiza su utilidad social.

Esta política es una consecuencia necesaria del principio de publicidad. Mauricio Merino lo ha re-sumido cuando dice: “la política de transparencia se refiere a las decisiones y los procesos asumidos por los poderes, las dependencias y los órganos públicos del Estado para darle contenido sustantivo a los princi-pios democráticos de responsabilidad (en sus diversas acepciones), publicidad e inclusión” .

4. Transparencia no es igual a rendición de cuen-tas. ¿Poner algo de información a disposición del públi-co constituye un acto de rendición de cuentas? Me temo que la respuesta es claramente negativa, y es una pena que con tanta frecuencia se asuma que la “transparen-cia” conduce necesaria e inexorablemente a la rendi-ción de cuentas. Esto es una mentira. Veamos por qué.

La rendición de cuentas es una obligación de las autoridades en los regímenes democráticos. Supone una relación entre dos actores, en los que el primero debe informar, explicar y justificar su conducta ante el segundo, y éste debe deliberar, evaluar y, en su caso, sancionar la conducta del primero, pues cuenta con los instrumentos para hacerlo.1

Sin la posibilidad de establecer un responsable de una obligación previa respecto de la cual se rinde cuen-tas, ésta se vuelve una ficción, como sucede cotidiana-mente en nuestro país. Así, la información –es decir, la transparencia–, constituye una condición necesaria, pero no suficiente, para que haya rendición de cuentas.

5. La transparente ficción de los portales de transparencia. Después de haberse producido leyes, cambios constitucionales y alternancia política cabe preguntarse: ¿hemos avanzado en cantidad y calidad de información disponible, especialmente en Internet? La respuesta es mixta.

Si comparamos la cantidad de información que se encuentra disponible en las redes públicas respecto de la que existía hace diez años, sin duda hemos dado un gran salto hacia adelante. Las mediciones hechas por diversas organizaciones muestran que prácticamente en todo el país las diferentes autoridades cuentan con portales de transparencia.2

Otro asunto es la calidad y orientación de esa in-formación. Aquí hay mucho camino por andar. Aun-que hay excepciones, por lo general los portales de transparencia son meros repositorios de documentos medianamente organizados y sin orientación al ciu-

dadano. De manera caricaturizada, diríase que son almacenes de información en “burocrat” (la lengua de los burócratas), frecuentemente desactualizados, sin posibilidad para verificar su contenido y sin valor agregado alguno.

6. El país es un mosaico variado y asimétrico de prácticas en materia de transparencia. Quizá algu-nos lectores –sobre todo si son funcionarios– no coinci-dan con lo dicho previamente respecto de los portales, y puedan apuntar a ejemplos concretos que muestren una realidad diferente. Seguramente tendrán razón. Como han mostrado las métricas de transparencia, ocurre que el país es un mosaico diverso y asimétrico de prácticas en la materia. El problema es que éstas no se explican ni por la entidad federativa, los recursos dis-ponibles, el grado de desarrollo, la calidad de la legisla-ción o el tipo de poder (Legislativo, Ejecutivo o Judicial).

En un mismo estado, dos municipios contiguos pue-den tener prácticas diferentes. Peor aún, la experiencia de un ciudadano puede variar si compara los portales de dos secretarías del mismo gobierno. No tenemos una respuesta satisfactoria a esta situación y será ne-cesario seguir investigando.

7. La transparencia es un problema organizacio-nal. Lo antes dicho no es producto de la opacidad in-trínseca de los funcionarios, sino más bien el resultado de severas fallas organizacionales relacionadas con el manejo de la información en las instituciones públicas.

Durante décadas, la información se fragmentó en islotes asilados. Esto servía bien al propósito de usar la información para maximizar los proyectos estratégicos de cada funcionario. Nunca se pensó en la información como un recurso estratégico de toda la organización.

Esto explica en parte el catastrófico estado de los archivos, la dramática falta de recursos humanos ca-pacitados en gestión documental, la subinversión en tecnologías de la información, así como la carencia absoluta de arquitecturas de información y de proce-dimientos documentados.

Las obligaciones generadas por las nuevas leyes de transparencia obligaron a poner información en los portales, pero cuya operación y diseño ha sido –en la mayoría de los casos– improvisado ante la ausencia de

1 Sobre el complejo concepto de rendición de cuentas véase Merino, Mauricio, Sergio López Ayllón y Guillermo Cejudo, eds. 2010. La estructura de la rendición de cuentas en México. México: UNAM – CIDE; Schedler, Andreas. 2004. ¿Qué es la rendición de cuentas? México: Instituto Federal de Acceso a la Información Pública (serie Cuadernos de Transparencia no. 2). 2 Existen varios ejercicios de medición de portales. Uno reciente y completo es la Métrica de Transparencia 2010, disponible en www.metricadetransparencia.cide.edu

Page 28: Un tsunami de información

26 < Política digital

> Telecomunicaciones

una política capaz de repensar la gestión de la in-formación desde una perspectiva organizacional.

No es de sorprender entonces el resultado. La solución existe, pero no es mágica ni senci-lla. Supone invertir tiempo y recursos, estrate-gias y decisiones para reinventar la manera en que el gobierno, en todos sus niveles, adminis-

tra su información. Si lo logramos, habremos hecho un avance sustantivo no sólo en materia

de transparencia, sino de una gestión pública más informada, racional y responsable.

8. La protección de datos personales y la transpa-rencia son polos opuestos. El derecho a la protección de datos personales ha crecido en importancia y co-nocimiento público. Este derecho fue incorporado en el artículo 16 de la Constitución en 2009, y un año después el Congreso expidió la Ley Federal de Protección de Datos Personales. La terminología puede inducir al error, pues no se protege los datos personales, sino el derecho que tienen las personas a determinar el uso que puede darse a sus datos personales, y la obligación de las autoridades de velar por que esto sea efectivo.

Algunos han querido ver en esta reforma un retro-ceso que menoscaba el derecho de acceso a la informa-ción y dificulta la transparencia, pero a mi juicio están equivocados, pues se trata de dos derechos que se com-plementan. Como hemos argumentado, toda la infor-mación en posesión de las autoridades es pública, pero ésta no incluye los datos personales que las autoridades recaban en el ejercicio de sus funciones. Esta protección, sin embargo, no impide en absoluto la generación de información agregada sobre las políticas públicas, su di-seño, implementación y evaluación, que es lo relevante.

Cierto, hay zonas grises, pero existen técnicas que permiten, mediante una ponderación de derechos, dar una solución razonable.

9. La transparencia no es una ocurrencia mexica-na. A veces una mirada demasiado provinciana nos hace pensar que lo que ocurre dentro de nuestro país es un fenómeno único e irrepetible. Mirar más allá de nuestras fronteras siempre ilustra y nos permite situar-nos mejor. La transparencia es un fenómeno que, aun-que relativamente reciente, tiene alcances globales. La mayor parte de los países del mundo han legislado en la materia después de 1990, y existen desarrollos im-portantes, experiencias exitosas y fracasos rotundos en muchos países. También se ha generado una corriente

crítica que considera una exageración proponer a la transparencia como la medicina para todos los males. En realidad se trata de una política que tiene sus pro-blemas y limitaciones.

El desarrollo de las tecnologías de la información y los problemas de seguridad y gobernabilidad también han impactado el concepto. En un importante ensa-yo, un grupo de profesores americanos3 ha analizado cómo, en muchos casos, se asume que las políticas de transparencia son sencillas y que inevitablemente re-sultan beneficiosas. Pero esta concepción se enfrenta a visiones y políticas que favorecen el secreto, además de las dificultades prácticas de tener información ver-daderamente accesible.

Investigaciones recientes han arrojado datos que permiten entender mejor los procesos y han sugerido alternativas como la transparencia focalizada, que per-miten una intervención puntual del gobierno cuando existen asimetrías de información que generan daños o dificultan la rendición de cuentas. En el fondo, se trata de buscar una transparencia sustentable que, sin ser una panacea, permita mejorar el proceso democrático de la toma de decisiones.

10. Transparencia y gobierno abierto. En septiem-bre de este año se formó la “Alianza para el Gobierno Abierto”, una iniciativa multilateral para mejorar la calidad de los gobiernos y de la cual nuestro país forma parte. Uno de los objetivos de este esfuerzo es propiciar compromisos concretos de los gobiernos para promo-ver, entre otras cosas, la transparencia.

En esta materia se quiere que la información guber-namental sea “abierta, completa, oportuna, gratuita y de fácil acceso para el público”. El paradigma que se usa es el de la “información abierta”, que supone la posibilidad de procesar y tratar la información cruda, y permitir su acceso mediante herramientas tecnoló-gicas. Cada gobierno participante, el nuestro incluido, ha presentado un Plan de Acción que contiene un con-junto de medidas que marcan el rumbo a seguir en la materia, entre los que destaca un portal ciudadano y el acuerdo de interoperabilidad y datos abiertos, que per-mitirá avanzar en una arquitectura de datos abierta.

Si bien ésta es una iniciativa muy importante que conviene conocer, la política de transparencia no se agota en ella, pues implica una visión de conjunto del manejo de la información gubernamental y, sobre to-do, una orientación que fortalezca el conjunto de la actividad del Estado en México. n

Sergio López Ayllón es profesor investigador del Centro de Investigación y Docencia Ecónomicas (CIDE), [email protected]

3 Fung, Archon, Mary Graham y David Weil. 2007. Full Disclosure. The Perils and Promise of Transparency. New York: Cambridge University Press.

Page 29: Un tsunami de información
Page 30: Un tsunami de información

28 < Política digital

> Telecomunicaciones

La brecha digital en México en relación con América Latina

Por Ernesto M. Flores-Roux

pacto directo, sino también por medio de sus externalidades a lo largo de la economía, co-mo el empleo y el crecimiento.

En el pasado, las telecomunicaciones eran sinónimo de voz a través de una línea fija. Pero hoy hablamos de voz, movilidad, datos, video e internet. De igual modo, ya casi no se habla de acceso universal sino de “planes nacionales de banda ancha” y “agendas digitales”.

Estos conceptos necesitan abordar, nece-sariamente, tres grandes asuntos de manera simultánea: la infraestructura, los contenidos y aplicaciones y, sobre todo, la apropiación. Los primeros dos están estrechamente li-gados a la oferta, mientras que el último, a la demanda.

¿Qué es la “brecha digital”?La Organización para la Cooperación y el Desarrollo Económico (OCDE) define brecha digital como la diferencia que existe entre in-dividuos, hogares, negocios y áreas geográ-ficas en diferentes niveles socioeconómicos respecto a las oportunidades para acceder a las TIC y al uso de internet1. El síntoma más básico de la brecha digital es el total de los canales de acceso a telecomunicaciones por cada cien habitantes (OCDE, 2001).

Por cuestiones geográficas y culturales, tiene sentido analizar el desempeño de la brecha digital mexicana respecto a Améri-ca Latina. México es el mayor país de habla hispana en el mundo y el segundo de la re-gión en términos de población y riqueza, por lo que debería ayudar a formar tendencias y ser, en muchos aspectos, líder regional. Esto debería verse reflejado en un sector de telecomunicaciones vibrante y acorde con esta expectativa.

En vez de identificar acceso y disponibilidad de servicios de telecomunicaciones para establecer la llamada “brecha

digital”, como hace todo el mundo, el autor relaciona el concepto con la participación,

en PIB y en población, que tiene México en el concierto latinoamericano.

Se trata de una investigación original, que explica muchas de las vicisitudes

por las que han atravesado las telecomunicaciones en México

Este escrito pretende hacer una retros-pectiva de cómo han evolucionado las

telecomunicaciones en México en relación con América Latina. Todos sabemos que el sector ha crecido, pero como lo dijera el Pre-sidente de Chile, Sebastián Piñera, “ésta es una carrera contra un mundo que avanza y, por tanto, si avanzamos más lento que el mundo, en el fondo estamos retrocediendo” (Discurso en la reunión del Foro de Coope-ración Económica Asia-Pacífico, APEC, no-viembre 2011).

Existe amplio consenso respecto a que el acceso y adopción de servicios de tecnologías de la información y comunicación (TIC) son fundamentales para el crecimiento económi-co y social de las naciones. Las TIC aumentan la competitividad y promueven el desarrollo social. Los derrames positivos sobre otros sectores han sido vastamente documenta-dos: contribuyen de manera significativa a la generación de riqueza económica y al bienestar general, no sólo a través de su im-

1 Fuente: OECD (2001). Understanding the Digital Divide. En http://www.oecd.org/dataoecd/38/57/1888451.pdf

Page 31: Un tsunami de información

edición sesenta y cinco > 29

> Telecomunicaciones 10o aniversario

Hacia diciembre del 2010, en México habitaba el 20% de la población latino-americana –una de cada cinco personas– y generaba el 21.7% del PIB de toda la región2 (ver gráfica 1).

Si llevamos estos datos al ámbito de las telecomunicaciones en América Latina, nuestra participación en el sector debería ser equivalente al 20% con respecto a la población, y del 21.7% con respecto al PIB. Pero si estuviéramos más avanzados, estos porcentajes serían mayores.

En lo que sigue, revisaremos si hay o no hay una brecha en el sector que separa a México del resto de América Latina y, en ca-so de haberla, qué tan grande o pequeña es.

Las cifras de nuestra realidad Como se puede apreciar en la gráfica 2, el sector de telecomunicaciones en México ha avanzado de manera importante.

Durante la primera década de este siglo, México pasó de tener 12.3 millones de líneas fijas a 19.9 millones, es decir, aumentó 1.6 veces. Este crecimiento fue superior al que hubo desde 1878 –cuando se instaló el pri-mer sistema –hasta 1990, cuando se priva-tizó Telmex. Tan sólo en 10 años, creció 40% más que todo lo conseguido en 112 años.

De igual manera, la telefonía móvil tuvo un crecimiento espectacular. En el mismo pe-ríodo, pasamos de 14.1 millones a 91.4 mi-llones de líneas, 6.5 veces más. En la historia de nuestro país ningún servicio ha alcanzado tal universalización en tan poco tiempo.

Y no se diga el servicio de internet. Al iniciar este siglo, 90% de los 1.14 millones de accesos existentes eran de discado (dial-up); hoy contamos con 12.14 millones, de los cuales más del 98% son de banda ancha. Es decir, tuvimos un incremento de 10.6 veces y una diferencia notable en la calidad del servicio.

Por su magnitud, estos números son sorprendentes. Pero es importante pregun-tarnos si este crecimiento corresponde al ta-maño de nuestro país medido en población y en riqueza, o si la brecha digital que nos separa del resto de la región está aumentan-do o disminuyendo.

La brecha en telefonía fija y móvilDel total de líneas fijas que existen en Améri-ca Latina, México cuenta con el 19% de ellas,

Accesos de telecomunicaciones en servicio (BUSD)

Gráfica 2

En millones

Fuente: Cofetel

Telefonía fija Telefonía móvil Banda ancha fija

5.3519.89

12.33 14.08

91.36

1.14

12.14

1990 2000 2010 2000 2010 2000 2010

x 1.6 x 6.5 x 10.6

2 Medido en términos de PIB en dólares nominales, Méxi-co tuvo una participación de 21.7% en 2010. El máximo fue de 39.7% y se alcanzó en 2003, cuando hubo una des-valorización importante del tipo de cambio del real bra-sileño. A partir de entonces, este porcentaje se ha venido reduciendo casi de manera lineal hasta alcanzar el valor actual. Para PIB en dólares a poder de paridad de com-pra (PPP en la gráfica), la participación de México fue de 24.8% en 2010, con un máximo de 29% en el año 2000.

Participación de México en el PIB y en la población regional

Gráfica 1

Fuente: FMI (2011)

10%

15%

5%

20%

25%

30%

35%

40%

45%

0%

2000

2001

2002

2003

2004

2005

2006

2007

2008

2009

2010

Población

PIB USD PPP

PIB USD

En porcentaje

Page 32: Un tsunami de información

30 < Política digital

> Telecomunicaciones

el 16.2% de los accesos móviles, y el 16.7% del total de líneas de voz3 (ver gráfica 3)4.

Como se puede observar, en ninguno de estos indicadores nos situamos en una par-ticipación equivalente a nuestro PIB; y en relación a la población (20%), estamos peor atendidos, en promedio, que los habitantes del resto de la región.

Respecto a las líneas móviles, en 2001-2002, México llegó a tener una participación regional del 26.6% –más que su participa-ción en PIB y población. Esto ocurrió duran-te un período de expansión sensiblemente más acelerado que en el resto de América Latina, que coincide con la implementación y masificación de la modalidad “el que lla-ma paga”, el advenimiento de los servicios prepagos, y un crecimiento sostenido de la economía (1998-2002). Concluido este pe-ríodo, se inició una tendencia en la que se pierde participación año tras año.

¿Cuál es la tendencia de estos indicadores? En los últimos 20 años, la telefonía fija ha mantenido una participación en el mercado regional muy cercana –y en ocasiones, un

poco superior–, al de su población. Pero des-de 1994 empieza un descenso relativo hasta el día de hoy, con una recuperación marginal entre 2002-2006.

En cuanto a la telefonía móvil, a pesar de que la desaceleración ha disminuido en los últimos dos años, hemos perdido participa-ción a razón de 1.4% anual a lo largo de casi una década. De continuar esta tendencia, en menos de cinco años México tendrá la mitad de líneas móviles por habitante que el resto de la región.

La brecha en banda anchaEn lo que se refiere al acceso a internet, al despliegue de la banda ancha, y al uso de infraestructura en México, se aprecia una evolución más optimista.

Telefonía móvil: ¿cuántos la tienen, realmente?

La telefonía móvil es la que ha permitido universalizar los servicios de voz en México. Aunque se reconozca que el in-dicador tradicional de penetración (líneas por cada 100 ha-bitantes) no refleja de manera fidedigna qué porcentaje de la población posee efectivamente una línea móvil (ver gráfica), resultan una buena medida relativa de qué tan masificado está el servicio.

Si tomamos las cifras reportadas por el Instituto Nacional de Estadística y Geografía en la última Encuesta Nacional de Ingresos y Gastos de los Hogares (2010), observamos que tan sólo 63.7% de los hogares poseen al menos una línea móvil. Sin embargo, según la Cofetel, la penetración de la telefonía móvil en el momento en que se condujo la encuesta era de aproximadamente 78%, esto es, 87 millones de líneas

Ambas cifras sobreestiman la cantidad de personas que tienen una línea móvil: la cifra es forzosamente inferior. Esto se debe a las siguientes razones principales: Por una parte, se encuestaron hogares y no personas, donde no se espera que en cada hogar todos sus miembros tengan un teléfono móvil; por otra, la base de teléfonos reportada incluye per-sonas que tienen más de uno, el churn de la industria*, y las

Participación de México en la telefonía fija y móvil en América Latina

Gráfica 3

Fuente: UIT (2011), WirelessIntelligence (2011), FMI (2011)

10%

20%

30%

40%

50%

60%

70%

0%

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

2001

2002

2003

2004

2005

2006

2007

2008

2009

2010

Móvil

PIB

Fijo

En porcentaje

Total

Móvil

FijoFijoFijo

PIB

TotalTotal

3 La suma de las líneas fijas y móviles, partiendo del su-puesto de que son sustitutos suficientemente cercanos. Este es el indicador usado por la OCDE, conocido como “access paths”. 4 Como la población relativa se ha mantenido más o me-nos constante en 20%, no se dibuja en las gráficas.

* Cuando un usuario abandona su línea, las empresas telefónicas demoran unos meses en darla de baja. Por lo tanto, hay teléfonos que están contados en la base activa, pero que ya no están en uso.

Page 33: Un tsunami de información

edición sesenta y cinco > 31

> Telecomunicaciones 10o aniversario

A finales de 2010, el 29% de todas las conexiones de banda ancha fija de la región estaban en México; cerca de 5 puntos por arriba de nuestra participación en el PIB re-gional (ver gráfica 4).

¿Cómo se llegó a este resultado? Se distin-guen tres momentos fugaces de aceleración: el primero (2001-2002) se debió al lanza-miento relativamente tardío del servicio de banda ancha en el país, por lo que sólo fue una recuperación del tiempo perdido. El se-gundo (2004-2005) se fundamentó en dos hechos: la entrada de las empresas cableras al mercado (que se reflejó en la reducción de precios y en nuevas ofertas de los com-petidores existentes), y en el lanzamiento de paquetes de autoinstalación de ADSL (lo que disminuyó las barreras de adquisición).

El tercero (2008) se explica por acciones co-merciales del mayor proveedor, que lanzó al mercado paquetes con descuentos. Importa destacar que en todos estos momentos se in-tensificaron las estrategias para financiar la adquisición de computadoras.

México instaló el 40% de todas las nue-vas líneas de banda ancha fija de la región en los años 2005, 2008 y 20095. Esta par-ticipación de nuestro país en el crecimiento regional no se ha visto en ningún servicio de telecomunicaciones en más de 30 años (ver gráfica 5).

En banda ancha móvil se observa un pa-trón similar. A pesar del lanzamiento tardío de los servicios de tercera generación (3G), México comenzó a recuperar el terreno per-dido que tenía en la región a partir del año 2007. En 2004, este tipo de servicios eran inexistentes, pero en 2010 crecieron hasta representar cerca de 23% del total de la re-gión.6 México no ha tenido un buen inicio, pero parece estar recuperándose.

conexiones entre máquinas (por ejemplo, terminales punto de venta para tarjetas bancarias). Por lo anterior, se infiere que menos de 63.7% de la población tiene un teléfono móvil.

Penetración de los servicios de telecomunicaciones en los hogares mexicanos por nivel de ingreso (2010)

Fuente: INEGI (2011)

X

IX

VIII

VII

VI

V

IV

III

II

I

Telefonía móvil

91.5

85.9

79.5

77.1

71.5

66.1

56.8

49.2

37.1

22.0

En porcentaje

63.7

Participación de México en los servicios de acceso a banda ancha en América Latina

Gráfica 4

Fuente: UIT (2011), WirelessIntelligence (2011), FMI (2011)

10%

15%

5%

20%

25%

30%

35%

40%

45%

0%

2000

2001

2002

2003

2004

2005

2006

2007

2008

2009

2010

Móvil

PIB

Fijo

En porcentaje

Total

PIB

MóvilFijo

Total

5 En 2009 se dio una ralentización del mercado latino-americano y no una aceleración del mercado mexicano. 6 Es importante mencionar que la definición de este servicio no es homogénea. Las cifras cambian según la fuente. Para la presente estimación se utilizaron los dados reportados por la Unión Internacional de Telecomunica-ciones y el Banco Mundial. Si se emplea la base de datos de Wireless Intelligence, este porcentaje disminuye unos 4 puntos.

Page 34: Un tsunami de información

32 < Política digital

> Telecomunicaciones

Si se considera el total de la banda ancha (fija y móvil), hoy nos ubicamos en 25.6% y estamos cerca del punto máximo de nuestra participación en América Latina –que alcan-zó el 27% en 2009.

Después de conseguir un desempeño acelerado, México parece haber llegado a un punto de estancamiento en el desarrollo relativo de la banda ancha. Pero si se repite la tendencia de los indicadores de voz, po-co a poco se reducirá nuestra participación regional en este servicio7, cuya penetración apenas ha alcanzado una distribución equi-parable a nuestra riqueza.

La brecha en apropiaciónEn este artículo hemos analizado la situación de la infraestructura, pero es importante sa-ber qué tanto se utiliza.

Medir la apropiación y el uso es una ta-rea complicada porque no existen estadísti-cas internacionales comparables y consis-tentes. El único indicador razonable para hacer una comparación es el “número de usuarios de internet”,

A pesar de que la definición y método de medición varía de país en país, este sesgo no

afecta un análisis a lo largo del tiempo para identificar tendencias.

El uso de internet en la región está cre-ciendo rápidamente (ver gráfica 6). Cada año, América Latina incorpora casi 20 mi-llones de nuevos usuarios de internet, equi-valentes a 4 puntos de penetración regional por año. Si 20% de estos nuevos usuarios fueran mexicanos, nuestro país sólo estaría manteniendo su posición relativa actual, y mantendría más o menos constante el tama-ño de la brecha relativa.

Pero México ha contribuido de manera po-co predecible al crecimiento del uso de inter-net en la región8. Algunos años ha contribui-do con menos del 5% (como sucedió en 2006 y 2008), y otros con más del 25% (2003, 2009 y 2010). Pero de manera acumulada, hemos contribuido con apenas 17.2% del cre-cimiento en la región desde el 2000. Esta cifra está por debajo del 20% que representamos en términos de población (gráfica 5).

Para hacer un comparativo, tomemos el caso de Brasil, país donde habita 35% de la población total de América Latina, pero que aporta el 41% de los usuarios de internet, y que ha agregado a 43% de todos los usuarios de la región en el mismo periodo.

Penetración de internet y participación de México en el total de usuarios de internet en América Latina

Gráfica 6

Fuente: UIT (2011), Banco Mundial (2011)

10%

15%

5%

20%

25%

30%

35%

40%

45%

0%2001200019991998 2002 2003 2004 2005 2006 2007 2008 2009 2010

Participación de México en AL

PIB

Penetración AL

Penetración México

En porcentaje

LParticipación de México en AL

PIB

Penetración ALL

Penetración Méxicoo

7 La base de datos de Wireless Intelligence (2011) pronos-tica que la participación regional de México se mantendrá constante en el período 2011-2015.

8 Es probable que una de las razones que explican esta varianza es la metodología de estimación

Participación de México en el crecimiento de infraestructura de banda ancha y número de usuarios en América Latina

Gráfica 5

Fuente: UIT (2011), Banco Mundial (2011)

10%

15%

5%

20%

25%

30%

35%

40%

45%

0%

100%=Accesos= 0.5 0.9 0.9 3.6 2.2 4.6 6.9 7.7 5.0 6.1

Usuarios= 9 15 17 18 12 24 19 25 19 18

2001 2002 2003 2004 2005 2006 2007 2008 2009 2010

Usuarios de internet

Banda ancha fija

En porcentaje, millones

Usuarios de internet

Banda ancha fija

Page 35: Un tsunami de información
Page 36: Un tsunami de información

34 < Política digital

> Telecomunicaciones

En México, la tendencia parece haberse revertido hace dos años. A pesar de reportar una participación menor a la que nos co-rrespondería, ésta va en aumento. De man-tenerse así, llegaremos al punto de neutrali-dad con respecto a la población en uno o dos años, y si revisamos esta tendencia respecto a nuestro nivel de riqueza, llegaremos al pun-to de neutralidad después del 2015.

El dilema de la individualización de la infraestructura Por último, es importante poner en perspec-tiva la utilización de la infraestructura. Si se analiza el número de usuarios con acceso a internet, México reporta una de las menores cifras en América Latina (gráfica 7).

En nuestro país, hay tres usuarios por cada acceso a internet, contra un promedio de cinco en América Latina. Esto puede in-terpretarse como que México tiene menos demanda latente por infraestructura que el resto de la región, dado el número de perso-nas que acceden a internet. Sin embargo, ve-mos que prácticamente todos los años –desde 2003–, la infraestructura crece más rápido que la demanda9.

Es evidente que los accesos se están indivi-dualizando. Esto sería positivo si no hubiera un importante problema de apropiación. Pe-ro debido a que la penetración de internet en

México todavía es baja y crece más despacio que la infraestructura, tenemos, claramente, un efecto de concentración de la riqueza.

En otras palabras, además de los esfuerzos para que siga creciendo la infraestructura, son necesarias medidas que motiven el uso, la apropiación y la posibilidad de acceso colecti-vo como parte de una política digital integral.

ConclusiónEl sector de las telecomunicaciones en Méxi-co, como motor diferenciador de nuestra eco-nomía con respecto al resto de América Lati-na, no parece estar cumpliendo cabalmente su papel. En servicios tradicionales de voz, nuestro país deja mucho qué desear. En ser-vicios de internet, se recuperó rápidamente el tiempo perdido hasta sobrepasar nuestras expectativas, pero corremos el riesgo de per-der el momento actual.

Esperemos que quienes diseñan las políti-cas públicas entiendan bien dónde y por qué han ocurrido períodos claros de diferencia-ción positiva, y consigamos replicarlos en el futuro. Sólo así los beneficios de las tecnolo-gías de la información podrán convertirse en un elemento clave para que México realice su potencial de crecimiento, y avance en térmi-nos de igualdad e inclusión digital. n

Ernesto M. Flores-Roux es investigador en el Centro de Investigación y Docencia Económicas (CIDE), en el programa Telecom-CIDE, miembro del Consejo Consultivo de la Comisión Federal de Telecomunicaciones (Cofetel) y miembro del Diálogo Regional sobre la Sociedad de la Información (DIRSI), [email protected]

Utilización de la infraestructura y comparación con el aumento de usuarios

Gráfica 7

Fuente: UIT (2011), Banco Mundial (2011)

2

3

1

4

5

6

7

02000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010

1.0

1.5

2.0

2.0

0.5

02003 2004 2005 2006 2007 2008 2009 2010

México

América Latina

México

América Latina

Usuarios de internet por cadalínea de acceso fijo

Razón de las tasas de crecimiento(usuarios / infraestructura)

En porcentaje

América Latina

México

México

América Latina

9 Comparando la tasa de crecimiento de la infraestructura y la del número de usuarios

Page 37: Un tsunami de información
Page 38: Un tsunami de información

36 < Política digital

> Telecomunicaciones

Banda ancha: lo que la regulación ha de tenerPor Henoch Aguiar

Varios países de América Latina están a punto de revisar su normativa de telecomunicaciones. En este escenario, el autor expone algunos criterios generales para alcanzar una regulación eficiente, que permita un mercado dinámico, al servicio de la sociedad

El 25 de octubre de 2011, la comisión de banda ancha de la Unión Internacional de Telecomuni-

caciones (UIT) recomendó que, para el 2015, los países en vías de desarrollo se fijaran como meta ofrecer ser-vicios de banda ancha para el 50% de su población. En América Latina estamos lejos de alcanzar tal propósito: Uruguay apenas ofrece el 12% de cobertura; Argen-tina, 11.7%; Chile, 10%; México, 8.5%; Colombia y Venezuela, el 5%.

La capacidad de banda ancha –es decir, el número de bits por habitantes que un país logra ofrecer– es el indicador más seguro para saber cuál será la compe-titividad de esa nación de aquí a diez años. Sin banda ancha no hay progreso. Por supuesto, no es el único factor, pero la banda ancha es el “piso”, el requisito mínimo necesario para poder pensar en educación, investigación y desarrollo, o en la competitividad que tendrá el conjunto de sectores económicos de un país.

Una política de banda ancha universal –de acceso ubicuo a internet, en cualquier punto geográfico, de manera alámbrica o inalámbrica, sin discriminar a po-blaciones– ya no es más un objetivo de la política de te-lecomunicaciones. Hoy forma parte de una estrategia nacional mucho más amplia de respuesta a los nuevos desafíos mundiales de la Sociedad del Conocimiento.

¿Qué hacer entonces? Hasta hace unos años, los gobiernos tenían políticas, nor-mas diferenciadas para la telefonía fija, la móvil y la banda ancha. En la actualidad, la demanda de internet explotó; los servicios convergen, y si alguno no es eficiente o está mal regulado, impacta a los otros y el país pierde competitividad.

El desarrollo de las telecomunicaciones depende tanto de la tecnología cuanto de la regulación. La tecnología es la misma para todos, es el denominador común de los mercados. Sin embargo, lo que hace a un país más eficiente que otro es su regulación. Si es tortuosa, impide la inno-vación, fomenta la concentración del mercado, merma la inversión y degrada los servicios.

Page 39: Un tsunami de información

edición sesenta y cinco > 37

> Telecomunicaciones 10o aniversario

Por el contrario, si la regulación genera que el conjunto de los operadores invierta anualmente el 20% de sus ingresos en nuevas redes y tecnologías, ese país está en la avanzada tec-nológica; si las inversiones promedian el 15%, los servicios de telecomunicaciones progresan, siguen la evolución mundial, aunque ceden el liderazgo a otros. Pero si la inversión está en el 10% o por debajo, algo falla en la regulación de ese país, sus habitantes pagan de más por lo que reciben y su sector telecomunicaciones es un obstáculo para el desarrollo.

Para lograr una regulación eficiente, que permita un mer-cado dinámico, al servicio de la sociedad, importa definir cri-terios mínimos como los siguientes:

1. Licencia única de telecomunicacionesEl primer criterio es generar un mercado abierto, sin barreras de entrada, que establezca la igualdad entre todos los presta-dores, sean grandes o chicos, sean prestadores históricos o el último de los entrantes.

Hasta la década de los noventas, los países solían dar una licencia por el tipo de servicio prestado. Hoy las prestaciones son convergentes. El titular de un servicio de telefonía celular, por ejemplo, puede ofrecer datos, internet y radiodifusión. ¿Qué sen-tido tiene separar jurídicamente lo que la tecnología ha unido?

La regulación no puede pretender “etiquetar” el torrente de bits con diferencias que ya ni existen. Un mismo título basta para brindar todos los servicios. Se agilizaría así el ingreso a todos los mercados, eliminando burocracia y corrupción. En definitiva, se iguala a los usuarios, al darle semejante alcance jurídico al título habilitante de sus prestadores, por nuevos que sean. Ya hay antecedentes. Argentina, desde el 2000 y Colom-bia, desde el 2009, han adoptado el sistema de licencia única.

2. Regular la realidad, no las quimerasUn “plan de negocios” (business plan) tiene tanto de realidad como un cuento de hadas. Sin embargo, para otorgar una li-cencia de telecomunicaciones, muchos países todavía lo exi-gen, lo aprueban o modifican sesudamente, con un sinnúmero de formalidades previas.

Los órganos reguladores maduros se preocupa más por la dinámica real del mercado, que los dominantes no adopten conductas anti-competitivas, o que el cliente ejerza su dere-cho a la información; les interesa incentivar lo más posible la competencia para permitir y encauzar positivamente todo adelanto tecnológico o de servicios. Para decirlo en una frase: la regulación ex-post (donde la ley es posterior al hecho) ar-moniza al mercado; la regulación ex-ante (anterior al hecho) lo petrifica o entorpece.

3. Establecer la plena libertad tecnológicaEl regulador debe incentivar la máxima libertad tecnológica. Promover que los prestadores, públicos y privados ensayen todas las formas y fórmulas para brindar los servicios, para

de esta manera establecer la mejor y más eficiente. Esto se traduce en libertades muy concretas: libertad de arqui-tectura de red, de definición de estándares tecnológicos, de establecimiento de los puntos de interconexión con la red del dominante; libertad de uso complementario y diverso del espectro radioeléctrico, de asociación entre sí y con otros prestadores de servicios públicos, etc.

Este entorno de libertad aún debe verificarse en nuestra región. Hay países que prohíben lo que llaman el “by pass” de las comunicaciones celulares o de la larga distancia. Es algo ilógico: si una llamada puede dar la vuelta al mundo y llegar a la casa de enfrente por tres centavos, ¿por qué el regulador impone un ruteo que vale diez? ¿A quién se beneficia: al usuario o al prestador ineficiente?

Porque si la regulación coarta el uso del protocolo IP o si se defiende regulatoriamente al que cobra más caro, estamos castigando nuestra inteligencia.

4. Necesario, un regulador que “muerda”Un regulador que no sanciona, más que regulador es un amigo. Un tigre desdentado no defiende la competencia frente a los poderosos. El regulador debe inspirar respeto, por sus decisiones bien fundadas y por su rigor en aplicar-las. Su rol es el de equilibrar la cancha, lograr que presta-dores nuevos e históricos compitan en igualdad de con-diciones, para que entre ellos arbitre el usuario y sólo él.

Algunos países como Uruguay y Paraguay mantienen prestadores estatales. El regulador puede verse tentado a exigirles menos, pero esto, sin quererlo, los “mata” en el largo plazo. Y es que sin presión ni competencia, hasta el mejor de los prestadores engorda, entumece y se debilita. En el ámbito de las telecomunicaciones, un año equivale a siete de otras industrias. Quien no acelera, se retrasa. Al final, el regulador complaciente genera un mercado me-diocre e ineficiente.

5. Con la interconexión no se juegaEn todos los países, el “juego de las telecomunicaciones” es similar: si no es vigilado en forma adecuada, el prestador dominante retrasa la interconexión de sus competidores, degrada sus condiciones técnicas, encarece la instalación de sus enlaces, impone absurdos puntos de interconexión, etc.

Es habitual que los prestadores dominantes en un país se comporten de manera contraria cuando compiten en un mercado extranjero: fuera de casa defienden las liber-tades, la competencia y la innovación tecnológica, la inter-conexión inmediata y fundada en costos. Pero en sus países de procedencia, estos mismos prestadores condenan tales prácticas. Son como las máscaras de teatro griego: de un lado ríen y del otro lloran.

Esta dualidad no es ni buena, ni mala. Simplemente re-fleja los intereses. Por ello, los reguladores y legisladores no

Page 40: Un tsunami de información

38 < Política digital

> Telecomunicaciones

pueden ser ingenuos; deben conocerla y estar por encima de ella. Su único interés debe ser generar la competencia suficiente que obligue a unos y otros a perfeccionar y aba-ratar sus servicios en beneficio del conjunto.

6. Desjudicializar los conflictosCuando hay conflictos de interconexión entre un entran-te y el prestador dominante, el regulador debe arbitrar y resolver. En México y otros países de América Latina es común que las decisiones demoren mucho tiempo cuando se interponen medidas judiciales.

Para que esto no suceda, la regulación debe generar condiciones que hagan exigible la interconexión cuan-do es planteada. Esto no significa denegar el recurso a la Justicia, sino tornarlo excepcional y establecer un proce-dimiento abreviado.

Cuando en el 2000 Argentina abrió el mercado de las telecomunicaciones a la plena competencia, se estableció que, en caso de conflicto, las partes tendrían diez días para acudir al Regulador y exponer sus opiniones contrapues-tas. El Regulador tendría diez días más para dictar una Resolución Preliminar que, en su caso, ordenara la inter-conexión física y estableciera condiciones económicas.

Meses después, el Regulador dictaría la Resolución Defi-nitiva. Si uno de los prestadores se hubiera beneficiado con la Resolución Preliminar en detrimento del otro, debería devolver la diferencia desde el primer momento, más los intereses por los montos devengados.

De esta manera, si la regulación establece el resarci-miento posterior de las posibles diferencias, se le quita fundamento al recurso judicial, porque “sin daño, no hay acción”, dicen los abogados. La intervención inmediata del Regulador y el pulimiento posterior de su Resolución Preliminar permiten alcanzar decisiones más elaboradas, que dan poco sustento a su apelación judicial.

Por ésta o por otras vías, según la tradición jurídica de cada país, las normas que regulen la interconexión deben buscar la inmediatez. Demorar o encarecer la in-terconexión genera graves efectos de distorsión, al tiempo que entorpecen la competitividad nacional, la lucha por la inclusión digital y el desarrollo de la educación –impensa-ble sin una banda ancha accesible. La interconexión es un tema complejo, sólo abordado por especialistas, pero que impacta profundamente en la sociedad.

7. Abrir el espectro y los ductosEl Estado debe licitar el espectro, o disponer de su uso abier-to, a fin de incentivar la pluralidad de actores, impidiendo

que el espectro sea acaparado por pocos prestadores.

Los caminos del aire son esenciales para desarrollar las comunicaciones. Y puede

existir la competencia sin tener que licitar nuevas porciones de espectro. En materia de telefonía celular, por ejemplo, el regulador puede definir la existencia de Prestadores Virtuales Móviles o MVNO (mobile virtual network operators). Estos ope-radores no tienen redes, pero se las alquilan a los operadores celulares a un precio establecido por el regulador, o bien les compran millones de minutos. Esto permite que los MVNO brinden servicios de telefonía celular con nuevas variantes comerciales, enriqueciendo la gama de ofertas disponibles.

Si el Estado tiene como fin la mejora de los servicios ofreci-dos a los usuarios, debe ofrecer su infraestructura y coordinar el uso racional de las demás para abaratar las comunicaciones. En Alemania, el regulador BNnetzA ha establecido un Atlas donde se registra el tendido de las redes que han instalado unos 160 operadores de telecomunicaciones. La información del Atlas ha permitido ahorrar hasta un 70% por los costos de nuevos tendidos.

De esta manera, el Estado alemán no sólo regula a los com-petidores, sino que ha asumido un rol más activo al consolidar y hacer disponible información que aporta mayor inteligencia en las asignaciones presupuestarias de comunicaciones públi-cas y privadas.

ConclusionesVarios países de América Latina están a punto de revisar su normativa de telecomunicaciones. Los criterios generales sue-len ser compartidos, porque forman parte de un acervo co-mún. Pero “el diablo se esconde en los detalles”, dice el refrán.

Hacia el 2000, los países de la región regularon la compe-tencia. Una década después, los progresos han sido evidentes, pero sabemos que recuperar los tiempos de modernidad per-didos requiere esfuerzos complementarios.

La mayoría de las normas que originaron la apertura de los mercados aún siguen vigentes. En una década, mucho se aprendió en materia de regulación. La Unión Europea, que destronó a los monopolios públicos de telecomunicaciones el 1 de enero de 1998, avanzó poderosamente con una legislación comunitaria fuertemente pro-competitiva.

Es hora de renovar las legislaciones de América Latina: es-tablecer reguladores fuertes, independientes de las empresas y de los gobiernos de turno; otorgar licencias únicas; fundar la interconexión en costos y exigirla; desburocratizar la ad-ministración y ponerla al servicio de la modernización tecno-lógica y de la competencia; eliminar las barreras de entrada que obstaculicen la dinámica del mercado y de la tecnología; proteger al usuario; generar un sector que sea causa y no freno del desarrollo de nuestras naciones en el nuevo escenario y con las nuevas exigencias de la Sociedad del Conocimiento. n

Henoch Aguiar es Socio del Estudio Aguiar & Marsiglia y fue Secretario de Comunicaciones de la República Argentina, [email protected]

Page 41: Un tsunami de información
Page 42: Un tsunami de información
Page 43: Un tsunami de información
Page 44: Un tsunami de información

42 < Política digital

> Telecomunicaciones

Las líneas del tiempo en políticas públicasUna entrevista con Carlos Casasús

En conversación con Ernesto Flores-Roux, investigador del Centro de Investigación y Docencia Económicas, y con Andrés Hofmann, Director General de Política Digital,

Carlos Casasús revela detalles inéditos de una serie de decisiones –y omisiones– en política pública de los últimos 35 años, cuyos efectos sobreviven hasta nuestros días.

Carlos es Director General de la Corporación Universitaria para el Desarrollo de Internet (CUDI), y fue testigo y actor privilegiado de varios hitos de la historia de las telecomunicaciones en México: la privatización de Telmex, la Ley Federal de Telecomunicaciones y la creación de

la Cofetel, de la que fue su primer Comisionado Presidente

Andrés Hofmann: En tu trayectoria profesional, ¿cuál ha sido la principal lección que has aprendido?

Carlos Casasús: Son muchas, pero la que me gustaría discutir aquí es que las políticas públicas en telecomuni-caciones se tardan muchos años en producir efectos. De-moran en madurar y sus resultados se producen mucho más adelante en el tiempo. Lo que hagas o dejes de hacer hoy, impactará al país mucho tiempo después.

AH: ¿Cómo empezó tu carrera en las telecomunicaciones?

CC: Entré a trabajar a Telmex en 1975, recién egresado de la universidad. Ahí experimenté en carne propia las con-secuencias de una primera decisión importante de política pública que se tradujo en un impresionante deterioro del sistema telefónico de México.

AH: ¿Qué decisión fue esa?

CC: El gobierno decidió transformar a Telmex de una em-presa privada con participación estatal a una empresa

controlada por el Estado, con el 51% de las acciones, y el resto en manos de inversionistas privados.

Unos 15 años después de convertirse en una empresa de participación estatal mayoritaria, hacia finales de los años ochentas, Teléfonos de México era una zona de desastre total. Tenía unos seis millones de solicitudes pendientes de atender y apenas instalaba unas 200 mil líneas por año. A ese ritmo de crecimiento, un solicitante podía tardar hasta 12 años en llegar a tener un teléfono. Realmente, la em-presa se había convertido en un lastre para la economía mexicana

Y eso que durante el período del desarrollo estabilizador de los años cincuentas y sesentas, Telmex era la segunda compañía telefónica en el mundo con mayor crecimiento, después de la coreana.

AH: ¿Por qué pasó eso?

CC: Recuerdo que cuando llegué a la empresa, estalló la primera de muchas huelgas encabezadas por Francisco Hernández Juárez. Había una guerra constante entre la empresa y el sindicato en las renegociaciones de los con-

Page 45: Un tsunami de información

edición sesenta y cinco > 43

> Telecomunicaciones 10o aniversario

venios de trabajo, que invariablemente desembocaban en una huelga anual donde la empresa nunca ganaba. El ver-dadero poder del monopolio no residía en el Estado, sino en el sindicato de telefonistas, que gozaba de una fuerza desmedida en el manejo de Telmex.

El deterioro de las condiciones laborales llegó a tal gra-do, que la única forma de conseguir una línea o que te repararan una falla en el servicio era corromper alguna camioneta de Telmex que circulaba por las calles.

Hacia finales de los setentas, el gasto público descontro-lado provocó un entorno inflacionario que deterioró el sis-tema financiero de la empresa. Además, el gobierno extraía cada vez más recursos por medio de impuestos especiales.

El resultado fue que la empresa ganaba dinero a bor-botones en la larga distancia nacional e internacional, y perdía cualquier cantidad en el servicio local. La distorsión era absoluta. Esto ocurría al final del sexenio de Miguel de la Madrid.

Primeros atisbos de la privatización de TelmexAH: ¿Cómo empezó a rondar la idea de privatizar Telmex?

CC: El tema de la privatización de Telmex aparece cuando Salinas se convierte en el candidato del PRI. En el equipo de campaña de Carlos Salinas –donde participé junto a Pedro Aspe–, se llegó al convencimiento de que la única forma de resolver el problema de Telmex era privatizarla. Esta fue otra de las grandes decisiones de política pública en telecomunicaciones que todavía tiene efectos hoy.

Salinas adoptó la estrategia económica de sacar al Estado de muchos sectores económicos para reducir los déficits de finanzas públicas y generar recursos para pagar la agobiante deuda pública que se heredó del populismo de Echeverría y López Portillo. Esto implicaba privatizar muchas empresas estatales.

En esa época, durante los ochentas, ocurrían grandes cambios en materia de telecomunicaciones, fundamental-mente en Inglaterra y Estados Unidos.

En Inglaterra, durante el gobierno de Margaret That-cher, se privatizaron muchos sectores de la economía y se hicieron grandes contribuciones conceptuales sobre cómo regular monopolios privados de electricidad, agua, trenes, y aeropuertos.

AH: ¿Privatizó la telefonía?

CC: Así es. Inglaterra privatizó el monopolio de British Te-lecom gracias a la Telecommunications Act de 1984.

AH: Y entonces Salinas asume la presidencia…

CC: Cuando finalmente se resuelve el tema de la elección, Salinas comenzó el proceso de privatizaciones. El primer

caso importante fue Aeroméxico, donde se adquirió una experiencia importante que abrió el camino a las privati-zaciones que siguieron después.

En el gabinete de Salinas no había pleno consenso de cómo privatizar Telmex. El Secretario de Comunicaciones y Transportes, Andrés Caso Lombardo, no estaba de acuerdo con la privatización. Él quería darle una participación fi-nanciera más fuerte al sector privado, sin perder el control por parte del Estado. Pero ni Salinas ni Aspe pensaban así.

Esta situación se resolvió cuando el Presidente Salinas nombró a Pedro Aspe como presidente del Consejo de Tel-mex. Aspe cambió al Director General y nombró a Alfredo Baranda, que había sido gobernador del Estado de México, y aunque no tenía experiencia en el sector, era un buen político. Yo fui ascendido a Director de Finanzas.

Ernesto Flores-Roux: ¿Por qué crees que te nombró a ti?

CC: Creo que fue por varias razones: yo había venido tra-bajando con Aspe desde la campaña de Salinas en un es-quema de privatización. El nuevo Director General era un político que sabía poco de telecomunicaciones y, además, yo era de los pocos directivos de Telmex que creía en la privatización.

AH: Ya como Director de Finanzas, ¿qué te tocó hacer?

CC: Me tocó jugar un papel clave en el diseño de todo el proceso. Como Teléfonos de México tenía tarifas totalmen-te distorsionadas y un régimen especial de impuestos que la hundía cada vez más, me correspondió idear e imple-mentar, antes de la venta, un esquema financiero que diera certidumbre a los posibles inversionistas.

AH: ¿Cuáles fueron los pasos que se dieron para privatizarla?

CC: Primero se tuvo que renovar el título de concesión de Telmex, eliminar el régimen fiscal especial de la empresa y renegociar el contrato colectivo.

Además, se transformó la estructura accionaria de la empresa, de tal forma que se crearon dos grandes paque-tes accionarios: uno de suscripción libre con voto limitado que podría ser adquirido por cualquier inversionista; este paquete consistió en las famosas acciones “L”, que permi-tieron una amplísima participación de capital extranjero y que ascendieron al 49% del capital total de la empresa.

El segundo paquete accionario, con derecho a voto, creó el grupo de control que estaría en manos de inversionistas mexicanos a los que se les permitiría asociarse con empre-sas telefónicas extranjeras capaces de introducir mejores prácticas operativas a Telmex.

Una vez modificada la estructura accionaria, se decidió privatizar en dos tramos: el primero, denominado “tramo

Page 46: Un tsunami de información

44 < Política digital

> Telecomunicaciones

de control”, y el segundo, que consistió en colocar, de ma-nera pública y abierta, las acciones de voto limitado que tenía el gobierno en su poder.

Pienso que se hizo un gran trabajo en el diseño de la concesión de Teléfonos de México, ya que a pesar de que no se cambió la Ley de Vías Generales de Comunicación, se logró convencer a todos los inversionistas que la conce-sión era un título con suficiente fuerza jurídica para poder llevar a cabo la privatización y producir un rendimiento económico atractivo.

El título de concesión lleva 21 años rigiendo a Telmex y fue el elemento que dio la certeza jurídica para poder privatizar.

AH: ¿Qué otras decisiones importantes se tomaron?

CC: Hubo un par de decisiones claves que marcaron el desarrollo del sector hasta ahora: una fue privatizar la empresa como “un todo” y no en “en partes”; la segunda fue la necesidad de otorgarle a Telmex un período de mo-nopolio en la larga distancia para ajustar los desbalances tarifarios antes de abrir el mercado a la competencia.

EF: En Estados Unidos, el juicio antitrust contra AT&T con-cluyó con la decisión del juez Green de partir a esta empresa en varias compañías regionales y una compañía de larga distancia: las Baby Bells y AT&T. ¿Por qué no se consideró la alternativa de privatizar a Teléfonos de México “en pedazos”?

CC: El problema para partir a Telmex en varias compa-ñías regionales era que, debido a las bajas tarifas del ser-vicio local, ninguna de las ellas hubiera sido rentable. Se consideró que el ajuste tarifario que debíamos hacer era demasiado fuerte y, por lo tanto, políticamente inviable.

La posibilidad de reorganizar a Telmex en diversas com-pañías regionales enfrentaba además otros problemas cu-ya solución hubiera requerido demasiado tiempo. Entre ellos estaba la necesidad de partir también al sindicato; además, a diferencia de lo que sucedía en Estados Unidos, no llevábamos una contabilidad separada entre servicio local y el de larga distancia.

En Estados Unidos cada una de las compañías que ter-minaron por separarse y que eran subsidiarias de AT&T tenían contabilidad propia, ya que estaban reguladas a nivel local por las public utilities comissions (comisiones de servicios públicos). Cada una de estas subsidiarias locales tenías sus activos por separado, de manera que cuando llegabas a una central telefónica, se podían distinguir los activos que pertenecían a la subsidiaria de servicio local y los que pertenecían a la subsidiaria de larga distancia.

Aquí en México, como teníamos mucha prisa por priva-tizar, no daba tiempo para implementar una contabilidad separada del servicio local y el servicio de larga distancia.

AH: Y la segunda gran decisión fue otorgar un período de seis años sin competencia en la larga distancia.

CC: Sí. Se estableció ese período para balancear las tarifas, para que tanto la larga distancia como el servicio local fueran rentables. Sólo así podría haber competencia en ambos lados del negocio.

El negocio de la larga distancia era extraordinariamente rentable, pero el servicio local perdía mucho dinero. Sin tarifas que lo hicieran rentable, nunca habría sido posible abrir la competencia en servicio local.

Por eso, una de las condiciones clave del título de con-cesión era precisamente el establecimiento de un modelo tarifario que le permitiera a Telmex rebalancear las tarifas elevando las de servicio local y bajando las de larga distancia. De esta manera, si entraba la competencia en larga distancia disminuyendo la rentabilidad de esa parte del sistema, Telmex tendría la posibilidad de elevar las tarifas del servicio local para enfrentar la competencia. El sistema tarifario que se adoptó en la concesión fue el de los precios tope o “price caps”.

AH: ¿Además del sistema de control tarifario, qué otras condiciones contenía el título de concesión?

CC: El título contemplaba la obligación de crecer el nú-mero de líneas a una tasa del 12 % anual, a cambio de un rendimiento del 15% en términos reales, considerando los precios topes.

AH: Pero había otra: Cuentan las malas lenguas que uno de los grandes temores que tenía el equipo de Carlos Sa-linas, era que, quien ganara esta licitación, vendiera la empresa al “Tigre” Azcárraga.

CC: Sí. No se quería que estuvieran en el mismo grupo, y con sobrada razón. Por eso la concesión de Telmex impide su participación en la televisión.

El día “cero”AH: ¿Y a qué horas aparece el ingeniero Carlos Slim en todo esto?

CC: El esquema de privatización generó el interés de un buen grupo de empresas. Fue un proceso público mane-jado por Goldman Sachs y Banco Internacional, S.N.C., con gran éxito.

EF: ¿Y se hizo un aumento de capital o sólo se privatizó?

CC: Solamente se privatizó.

EF: Las acciones de control que vendió el gobierno, ¿qué porcentaje del capital representaban?

Page 47: Un tsunami de información

edición sesenta y cinco > 45

> Telecomunicaciones

CC: Representaban algo menos del 21% del capital total, pero el 51% de las acciones con derecho a voto. AH: ¿Quiénes entraron a la puja?

CC: Se formaron tres consorcios que hicieron la oferta final. Uno lo conformaba un grupo de mexicanos enca-bezados por Slim con France Telecom y la Southwestern Bell Corporation (SBC), con sede en Texas. El señor Slim tenía un porcentaje pequeño del grupo de control. El otro consorcio estaba liderado por Roberto Hernández, acom-pañado por Telefónica de España y GTE. Hubo además una tercera postura, pero de mucho menor cuantía.

EF: ¿Qué porcentaje tenía Slim?

CC: Yo estimo que como un 3% del capital total de la em-presa, pero él mandaba en el grupo de control que estaba obligado a votar junto.

EF: Cuéntanos de la colocación de las acciones de voto limitado del gobierno federal

CC: Una vez que hubo un ganador en la licitación de las acciones de control, debían colocarse en el mercado de valores las acciones “L”, que tenían derecho a voto limita-do y que estaban en poder del gobierno. Estas acciones se colocaron en la bolsa de Nueva York. Telmex fue la primera empresa mexicana que se listó en la New York Stock Exchan-ge. Por medio de las acciones “L”, pudo lograrse una am-plísima participación de la inversión extranjera, aunque se mantuvo –como estaba establecido en la concesión– el control por parte de mexicanos.

Además de exitosa, fue la colocación primaria más grande que se hubiera hecho hasta entonces en la bolsa de Nueva York. Por muchos años, Telmex fue una de las ac-ciones con mayor volumen de intercambio en ese mercado.

EF: Con todas las restricciones que se tenían hace 22 años, y sabiendo lo que sabes hoy, ¿hubieran hecho algo diferente?

CC: Yo creo que esa parte se hizo muy bien. Se lograron todos los objetivos que habíamos planteado como el creci-miento, eficiencia operativa, tarifas razonables, recursos para el Estado.

AH: ¿A poco todo resultó a pedir de boca… todo resultó perfecto?

CC: No, no te voy a decir que perfecto, pero salió muy bien. Recuerdo que en ese tiempo asistimos a un evento organizado por el Banco Mundial y en una de las con-ferencias le preguntaron lo mismo al que había hecho

la privatización argentina: “¿Qué hubiera hecho usted diferente?”. Su respuesta fue: “Mire, el mero hecho de que la privatización ocurriera fue un milagro”. En México también, porque se logró un cambio dramático en com-paración con lo que había.

EF: En el ’89, había que esperar años para conseguir un teléfono en México, y la congestión de líneas era tal, que el tono para marcar tardaba varios minutos. Esto se nos olvida muy rápido…

CC: ¡Exacto! Además, la privatización fue una gran señal política. Si nos hubiéramos atrasado en los calendarios o en la oferta, la credibilidad de todo el gobierno de Sali-nas se hubiera perdido. Pero el haberlo hecho como se dijo que se iba a hacer, apoyó la gran credibi-lidad económica que gozó Salinas. Durante su sexenio, México era “el lugar del optimismo”, quizá como lo es hoy Brasil.

AH: Entonces, ¿tú hubieras hecho todo igual?

CC: En general, sí. La política de telecomunicaciones se tradujo en un gran desarrollo del sector que duró todo el sexenio, aunque se creó una empresa con mucho po-der y sin competencia por seis años.

Las prisas por sacar la LeyEF: Pero la concesión de Telmex tenía un plazo para la apertura, que fue agosto de 1996. En ese tiempo tú eras subsecretario y participaste en la elaboración de la Ley Federal de Telecomunicaciones.

CC: En efecto, después de la privatización del grupo de control yo continué como Director de Finanzas de Tel-mex y representaba el interés del gobierno frente a Carlos Slim. Era una situación complicada porque el gobierno federal quería vender caras sus acciones “L”, mientras Slim quería que no se revaluaran, porque deseaba seguir aumentando su participación accionaria.

AH: Eras como una inserción del sector público en la empresa recientemente privatizada.

CC: Así es. Mi relación personal era buena tanto con el ingeniero Slim como con Juan Antonio Pérez Si-món, quien fue nombrado nuevo Director General de Telmex. Sin embargo, cuando se terminó la colocación pública de las acciones “L”, yo salí de Teléfonos de México.

EF: Saliste en el ‘91.

10o aniversario

Page 48: Un tsunami de información

46 < Política digital

> Telecomunicaciones

CC: Sí. Entonces empecé a trabajar en el gobierno del Dis-trito Federal buscando privatizar el manejo del agua, un proceso que tiene su propia historia.

AH: Al cambiar el sexenio, con Ernesto Zedillo, entraste a la Subsecretaría de Comunicaciones. CC: Efectivamente. Después del llamado “error de diciem-bre”, tuve el privilegio de que el Presidente Zedillo me nom-brara Subsecretario, a las órdenes de Carlos Ruiz Sacristán que, en mi opinión, fue un extraordinario Secretario.

A Zedillo le tocó un momento muy difícil. En materia de telecomunicaciones tuvo muy claro que a pesar de la crisis económica, debía seguir adelante con la apertura a la com-petencia y cumplir los plazos establecidos en la concesión de Telmex. Esto le iba a dar credibilidad al proceso frente al gobierno americano que había hecho un gran préstamo para rescatar a la economía mexicana, y también frente a los inversionistas, quienes, a pesar de la crisis económica, habían manifestado su interés de participar en la apertura.

AH: Había que acabar entonces con el monopolio legal.

CC: Sí. El tema era que la concesión de Telmex sólo aplicaba a Telmex. No había forma de regular a los nuevos competido-res. El reto que se nos planteó fue sacar adelante una nueva Ley de Telecomunicaciones que permitiera la competencia.

Los tiempos estaban dados, y teníamos que mandar la iniciativa de ley antes del receso legislativo de Semana Santa.

AH: ¿Tú cuándo asumes el cargo?

CC: En enero de 1995.

AH: ¿De modo que debían hacerla en tres meses?

CC: Logramos hacerla en tres meses. Y se hizo una buena ley.

AH: ¿Por qué es una buena ley?

CC: La Ley permitió abrir la competencia tanto en larga distancia como en el servicio local. Se presentaron muchas empresas a solicitar concesiones y se disparó la construc-ción de infraestructura. Se revivieron sectores como la televisión por cable y el trunking. Y otra cosa clave: per-mitió asignar espectro de manera transparente, mediante licitaciones públicas. Esto fue la base para que en años pos-teriores se acelerara el crecimiento de la telefonía celular. Este fue otro momento donde las decisiones que tomamos marcaron el futuro del sector.

EF: Se trata de una ley moderna que se promulgó antes de la ley estadounidense: la ley de telecomunicaciones ame-

ricana es de ’96; la nuestra se expidió en ‘95. Yo creo que fue un benchmark, un punto de refe-rencia para esos tiempos. Anali-zamos cuantas leyes existían.

Pero volviendo al tema de la ley, la primera aplicación fue la apertura de la larga distancia. Ahí empezaron los pro-blemas y uno de ellos fue la interconexión con Telmex. ¿No crees?

CC: En 1995 vivíamos una gran distorsión de pre-cios. Todo el rebalanceo de tarifas realizado durante el sexenio de Salinas se había perdido por el “error de di-ciembre”, que mandó la paridad de 3 a 7 pesos por dólar. Al inicio del gobierno de Zedillo se desató de nuevo la inflación y se decretó un período de control de precios.

La larga distancia internacional, cuyo precio estaba en dólares, se volvió de nuevo la fuente de ingresos principal de Teléfonos de México y, otra vez, había que rebalancear las tarifas del servicio local para poder abrir la competencia.

Aquí la decisión que afectó a la competencia por mu-chos años fue que se establecieron mecanismos de interco-nexión muy favorables a Telmex para que pudiera preservar el ingreso de la larga distancia internacional. De no haberlo hecho, se corría el riesgo de que la empresa empezara a perder dinero. Todo esto en un entorno en el cual se había decretado una congelación de precios después de la deva-luación. Era una situación muy adversa y complicada.

Tuvimos que hacer una negociación muy delicada con los reguladores estadounidenses. Ellos no permitían que Telmex participara en su mercado, que era donde se originaba la mayor parte del tráfico de larga distancia internacional hacia México, mientras que las empresas americanas AT&T y MCI, participaban en nuestro mer-cado compitiendo contra Telmex por ese mismo tráfico.

El conflicto entre los dos países se resolvió negociando una regulación específica de la larga distancia internacio-nal que aseguró a Telmex una importante participación del mercado y una muy buena proporción del negocio total de la larga distancia internacional, a cambio de que arrancara la competencia.

AH: ¿Y eso nos ayudó o nos perjudicó?

CC: En su momento fue bueno porque nos permitió abrir el mercado. Pero las altas tarifas de interconexión se debieron eliminar tres o cuatro años después, cuando la economía

Page 49: Un tsunami de información
Page 50: Un tsunami de información

48 < Política digital

> Telecomunicaciones

de México se volvió a estabilizar y había más competencia. Esto no se hizo, y esta omisión fue otra política pública deliberada que tuvo graves efectos durante muchos años.

Réquiem por la regulaciónAH: ¿Y en qué momento, como dicen, se jodió la patria?

CC: El tema central de esta plática es que los cambios en el sector, para bien o para mal, toman mucho tiempo en materializarse. No hubo un solo momento en el que todo se vino abajo; fue un proceso largo. Al entrar (Vicente) Fox al poder, el sector traía unos números espectaculares, pero el deterioro de hoy se da porque el gobierno panista prácticamente “tiró la toalla” en materia de regulación. No quiso tocarle un pelo a nadie. Fue un default regulatorio de muy largo plazo.

Durante el sexenio de Fox y buena parte del de Calde-rón, se dejó de licitar espectro y se dejó de emitir regula-ción. Esto nos ha salido carísimo como país. Tenemos in-dicadores abismales en comparación con la Organización para la Cooperación y el Desarrollo Económicos (OCDE), incluso en comparación con países como Brasil o Chile. que han venido haciendo las cosas mejor. Volviendo al te-ma de las líneas del tiempo, lo que hagas o dejes de hacer, te va a impactar muchos años después.

EF: En los últimos diez años, Telmex se hizo mucho más fuerte.

CC: Bueno, obviamente la magnitud del negocio se multi-plicó por el mercado de la telefonía celular. Antes de emitir la Ley Federal de Telecomunicaciones de 1995 había menos de 300 mil celulares. Después de la licitación de espectro, en el ‘98, y gracias al esquema de “el que llama paga” y a las tarjetas de prepago, este mercado empieza a crecer a tasas de 80% y 90% anual.

EF: En los últimos cinco años tampoco ha pasado mucho.

CC: Algo se ha hecho recientemente: por fin se licitó algo de espectro con muchas dificultades, y se bajaron las tari-fas de interconexión, pero se tiene que hacer mucho más para tener competencia y crecimiento en el futuro.

Lo que nos falta AH: ¿Qué habría que hacer?

CC: Hay que cambiar el campo de batalla y pensar que hoy lo que verdaderamente importa ya no es la telefonía ni la tercera cadena de televisión sino el internet y la digitali-zación de la sociedad. Esto abre la posibilidad de cambiar dramáticamente el sector y dejar de dar batallas del siglo pasado. Me parece que el gobierno tiene en sus manos de-

cisiones fáciles de tomar, que no deberían estar sujetas a procesos legislativos o judiciales complejos y que, sin em-bargo, no se toman.

EF: ¿A cuáles decisiones te refieres?

CC: Creo que deberíamos empezar por tener una agenda digital que organice todas las políticas públicas y a todas las dependencias. Se debería designar a un responsable para dar seguimiento a esto.

Asimismo, el gobierno se debería comprometer a pres-tar todos los servicios públicos mediante internet, especial-mente en educación, salud y seguridad.

Creo que se necesita concesionar mucho más espectro, empezando por licitar la banda de 700 MHz, y resolver la renovación de concesiones de espectro que impiden la entrada de nuevos competidores.

Me parece increíble que la Comisión Federal de Electri-cidad no comercialice fibra óptica a precios de reposición a quien la desee. Esto facilitaría muchísimo el despliegue de nuevas redes.

Finalmente, se deberían quitar los impuestos especiales a las telecomunicaciones y dejar de ver al espectro como una fuente de recaudación en vez de verlo como palanca de desarrollo.

AH: ¿Se requiere una nueva ley?

EF: Yo creo que la ley actual necesita ajustes mínimos. El debate sobre el cambio de la ley, creo que es un debate incorrecto.

CC: Yo también lo creo, porque el tema es su aplicación. Creo que hay conceptos que deben cambiar, pero son me-nores como son el cerrar la doble ventanilla, quitar las restricciones a la inversión extranjera y que sea más fácil imponer regulación de dominancia, sobre todo ahora que es América Móvil y no Telmex el dominante.

AH: ¿Por qué no avanzamos? ¿Es un problema de Mony (de Swaan)?

CC: Creo que es un problema más sistémico del gobierno actual. No hay una estrategia definida desde arriba y hay muchísimas contradicciones entre los diferentes actores.

Antes había credibilidad hacia los reguladores porque hacíamos las cosas que decíamos: “El 10 de agosto de 1996 se abre la larga distancia”, y se abría. “Vamos a sacar una ley antes”, y pasaba la ley…

Hoy la credibilidad del gobierno se ha perdido. Hoy no les creen. Más vale que el nuevo gobierno le dé prioridad al tema y recupere la credibilidad, porque si no, la falta de políticas públicas le va a seguir costando al país por muchos años. n

Page 51: Un tsunami de información
Page 52: Un tsunami de información
Page 53: Un tsunami de información
Page 54: Un tsunami de información
Page 55: Un tsunami de información

edición sesenta y cinco > 53

> Telecomunicaciones 10o aniversario

Qué quiere cada quién en las telecomunicaciones

Por Jana Palacios

¿A qué aspira cada grupo empresarial que compite en el sector de las telecomunicaciones en México?

En México, la convergencia de los mercados de ra-diodifusión y telecomunicaciones, así como la uni-

ficación de la oferta de los servicios de voz, datos y vi-deo (triple play) ha propiciado un clima de mayor com-petencia en telefonía (fija y móvil), televisión (abierta y de paga) e internet, y ha vuelto a equilibrar las fuerzas de las empresas en cada segmento de mercado.

Las cableras, por ejemplo, ofrecen triple o cuádruple play. Telmex está lista para lo mismo, pero el gobierno aún no se lo permite. Podría surgir en el mercado al menos una nueva cadena nacional de televisión y es-pectro disponible para servicios avanzados de banda ancha móvil; sin embargo, las empresas de televisión quisieran retrasar el apagón digital.

Telecomunicaciones en México: un balanceEn nuestro país, 60% de los ingresos de la industria de las telecomunicaciones proviene de servicios móviles, lo que convierte a este segmento –voz y datos– en el más grande. A pesar de que cada vez se ofrecen y se contratan más paquetes triple play, al cierre de 2010 los servicios de voz generaron 72% de los ingresos de la in-dustria, mientras que los datos constituyeron 19% y los de video 9%, según estimaciones de Pyramid Research.

Respecto a los proveedores de servicios de teleco-municaciones, aunque existen en el mercado varias empresas, son pocos los grupos empresariales que participan (gráfica 1). En América Móvil tenemos a Telmex, Telcel y una asociación de facturación con Dish, de MVS; bajo el paraguas de Grupo Televisa se encuentran Televisa, Bestel, GTAC, Cablevisión, TVI, Cablemás y Sky; y bajo la figura de Grupo Azteca están Televisión Azteca, Total Play y Iusacell.

1. El segmento de la telefonía fija: cartas jugadas y sus consecuenciasHasta 1990, el servicio telefónico en México fue pro-visto por el Estado a través de Teléfonos de México (Telmex). Durante el gobierno de Carlos Salinas, el

Gráfica 1

Participación de mercado por segmento de servicio por grupo empresarial*

Fuente: Elaboración propia; con datos de la COFETEL (2011), Pyramid Reaserch (2010) y Expan-sión (2011)* El tamaño de las esferas representa el porcentaje de participación de mercado de las distin-tas empresas por segmento (telefonía móvil, fija, banda ancha, TV abierta y TV de paga. 1 América Móvil: Telefonía móvil: Telcel (70.3%); Telefonía fija: Telmex (79.9%); Banda ancha: Prodigy (74%); TV de paga: Dish (10%), aunque Telmex no participa ni directa en el capital de Dish México, sino apoyándola en las actividades de facturación y cobranza.2 Grupo Televisa: Telefonía fija: Cablevisión y Bestel (4.8%); Banda ancha: Yoo -Cablevisión, Cablemás y Megacable- (15%), aunque Megacable no pertenece al Grupo; TV abierta: Televisa (70%); TV de paga: Cablevisión y Cablemás (26.3%), Sky (15%).3 Grupo Salinas: Telefonía móvil: Iusacell/UNEFON (4.3%); TV abierta: TV Azteca (30%)4 Otros: Telefonía móvil: Nextel (3.7%), Telefónica (21.7%); Telefonía fija: Axtel (5.1%), Megacable (2.3%), Resto (7.9%); Banda ancha: Resto (11%); TV de paga: Megacable (23.2%), Otros (25.5%)

TelefoníaMóvil

Am

éric

aM

óvil

Tele

visa

Gru

poSa

linas

Otr

os

TelefoníaFija

BandaAncha

TelevisiónAbierta

Televisiónde Paga

12

34

70.3%

4.3%

3.7% 5.1%

2.3%

7.9%

11%

23%

26%21.7%

79.9%

4.8% 15% 70%

30%

41%

74% 10%

TOTAL 100% 100% 100% 100% 100%

Page 56: Un tsunami de información

54 < Política digital

> Telecomunicaciones

corporativo se privatizó y se vendió como una empresa verticalmente integrada en red y servicio. Aquel es-quema de venta implicó que el mercado arrancara con una empresa, Telmex, con la enorme ventaja de contar con una red de telecomunicaciones en prácticamente todo el territorio nacional.

En teoría, la competencia en la telefonía local inició en 1998, aunque la verdadera lucha se dio a partir de 2007, cuando las empresas de televisión por cable ofertaron los servicios de voz, datos y video. Actual-mente, al menos 15 empresas ofrecen paquetes triple play. Pero a pesar de que hay mayor competencia, Tel-mex mantiene una participación de mercado equiva-lente a 81.8%.

En 1995 y 2009, la Comisión Federal de Competen-cia (CFC) declaró dominante a Teléfonos de México. Su presencia era evidente en el mercado de larga distancia local: por mucho tiempo, las empresas se quejaron de no poder competir contra Telmex debido a lo caro de la tarifa de reventa de larga distancia. Esta tarifa es la que los demás operadores pagan a Telmex –única empresa con una red de cobertura nacional– para completar sus llamadas en las poblaciones donde no tienen presencia.

El monto de la reventa era de 75 centavos de peso, y la tarifa de larga distancia nacional de Telmex ha-cia sus clientes era de un peso por minuto (aunque lo ofrecía en paquete con internet y llamadas locales). Aparentemente, el precio de la reventa era 25% menor de lo que se cobraba a los usuarios, aunque en realidad, al asignarle un precio público al servicio de internet y a las llamadas locales –cada uno por separado–, la cuota de larga distancia nacional que recibían los clientes de Telmex tenía un precio inferior a los 75 centavos.

Ante esto, los operadores argumentaban que no se podía competir en precios con Telmex, por lo que en junio de 2011 la Comisión Federal de Telecomunica-ciones (Cofetel) redujo esta cuota de 75 a 39 centavos.

Como respuesta, América Móvil –la empresa matriz de Telmex– anunció que apelaría la resolución de los 39 centavos ante el Poder Judicial. Además notificó la creación de Telmex Social, empresa que ofrecerá el servicio de telefonía exclusivamente en zonas rurales y marginadas, aunque advirtió que, de casi 23 mil comunidades, sólo podría atender entre 10 o 12 mil.

La estrategia de Telmex es dejar claro que, pese a ser la única empresa que tiene infraestructura en todo el país, le cuesta operar redes en áreas rurales. En su opinión, al resto de los operadores les conviene –aun-que sea a precio alto– rentar dichas instalaciones en vez de construir redes propias de telecomunicaciones en las zonas alejadas del país.

Otras medidas que la autoridad está por imponer a Telmex son reglas especiales relacionadas con tarifas, niveles de calidad de servicio e información contable. Estas obligaciones aplicarían a Telmex y, en su momen-to, a cualquier otro operador declarado como domi-nante en el mercado de la telefonía fija. La decisión de la Cofetel aún está en revisión por la Comisión Federal de Mejora Regulatoria.

2. Telefonía móvil: a la expectativa de nuevos aires de competenciaEn la actualidad, Telcel da servicio a 70% de todos los usuarios móviles (tabla 1). Cuando el mercado arran-có, se presentó un trato asimétrico para esta compa-

Page 57: Un tsunami de información

edición sesenta y cinco > 55

> Telecomunicaciones 10o aniversario

ñía. A finales de los ochentas, el país fue dividido en nueve regiones y Telcel fue la única empresa a la que se otorgó permiso para ofrecer el servicio en todo el territorio nacional. Con el paso del tiempo los demás jugadores también obtuvieron concesiones en todas las regiones del país.

Cofetel intervino. Resolvió que se pagarían 39 centavos por punta de terminación en vez de los 95 centavos que habían acordado los operadores para 2011.

Al cierre de esta edición, la Suprema Corte de Jus-ticia de la Nación analiza si los operadores deben co-brar la tarifa de 39 centavos que fija la Cofetel, o bien, la que habían concertado. Determinó que mientras analiza esta situación, las empresas deben acatar la tarifa propuesta por Cofetel. Estas medidas implican que Telcel debe respetar la tarifa de 39 centavos. Pero si los juzgados decidieran revocar la nueva tarifa, con el argumento de que están violando las garantías de Telcel, entonces los 39 centavos de interconexión no serían válidos en el tiempo.

3. Televisión abierta y de paga: avance a cuenta gotasLa televisión abierta entra a 92.5% de los hogares mexicanos. En cuanto al número de competidores, existen cinco cadenas nacionales de televisión abierta que pertenecen a dos empresas: Televisa posee 70% del mercado en términos de encendidos o share, y TV Azteca alcanza 25% de la teleaudiencia.

Entre Televisa y TV Azteca existe una relación de competencia, pero también de colaboración. Por ejem-plo, hacen arreglos respecto a los horarios de trans-misión de partidos de futbol y manejan publicidad cruzada. Recientemente, con la inversión de Televisa en Iusacell, la preocupación de que los grupos se co-ludan aumenta.

Una de las ventajas de los cambios tecnológicos es que en la banda que se utiliza para transmitir el servicio de TV abierta (espectro de 700 MHz) ahora caben más señales. Para la transmisión de señales digitales (Televisión de Alta Definición), el gobierno tiene posibilidades de dar cabida hasta a dos operado-res con cobertura en prácticamente todo el territorio nacional. Aunque aún no conocemos el esquema de licitación, la Cofetel y la CFC buscan la posibilidad de colocar este espectro en manos de empresas privadas y con ello permitir la entrada de al menos un nuevo operador de televisión abierta.

Se especula sobre la posibilidad de que Carlos Slim esté interesado. Aunque el empresario se había pro-nunciado públicamente en contra de invertir en un canal de televisión abierta, en marzo de 2011 se re-tractó y dijo: “Hoy no estamos cerrados a esa opción” (Lajous & Gálvez, 2011).

Otro de los factores que generarían una verdadera dinámica de competencia en TV abierta es la penetra-ción del servicio en alta definición. Según la Cofetel, en 86% de los hogares mexicanos las televisiones son

Tabla 1. Porcentaje de participación de las empresas en telefonía móvil (2011)

Participación de mercado (número de

clientes)

Participación de mercado (porcentaje de ingresos

totales)Espectro

Telcel 70% 69.2% 32%

Movistar 22% 12.3% 25%

Iusacell 4.4% 5.0% 22%

Nextel 3.8% 13.5% 21%

Fuente: Elaboración propia con base en reportes de mercado y datos de la Cofetel.

En julio de 2010 se llevaron a cabo dos licitaciones. Las subastas fueron especialmente relevantes porque limi-taron la acumulación de espectro de Telcel y Telefónica Movistar. Como consecuencia se esperaba la entrada de un nuevo operador móvil al mercado y en su momento se anunció la participación de Televisa en Nextel, y la entrada de este grupo en el mercado de prepago.

Por las restricciones a la acumulación de espectro, la Licitación 21 favorecía a Nextel y a cualquier nue-vo operador –más que a Telcel, Telefónica y Iusacell. Como no hubo nuevos postores, Nextel obtuvo una porción importante de espectro sin que otros grupos pujaran por éste e “inflaran” el precio.

La licitación fue cuestionada por la opinión pública y objetada con más de 70 amparos judiciales por parte de Iusacell. Como consecuencia, Televisa decidió rom-per su alianza con Nextel, pero meses después anunció su participación en este segmento de mercado a través de la adquisición de 50% de las acciones de Iusacell (aún falta la aprobación de la CFC para que sea oficial esta transacción).

La historia de los convenios de interconexión móvil está marcada por disputas legales. Según la CFC, lo que ha permitido a Telcel ofrecer precios bajos, recibir ganancias extraordinarias y tener tanto porcentaje de mercado es la diferencia entre la tarifa que ofrece en las llamadas realizadas por los usuarios de un teléfono Telcel a otro, y la tarifa que cobra por interconectar las llamadas de la red Telcel desde o hacia otra red.

Después de años de múltiples demandas por parte de algunos operadores que no aceptaban las tarifas de interconexión ofrecidas –en particular la de Telcel–, la

Page 58: Un tsunami de información

56 < Política digital

> Telecomunicaciones

Evolución reciente de la tasa de penetración de la televisión restringida en México

Gráfica 2

13.5%

21.0%23.7%

27.2%

38.0%

2001 2006 2007 2009

Fuente: INEGI, Proyección para 2012ón para 2

2012*

analógicas y necesitarán un convertidor para recibir la señal digital.

Respecto a la televisión de paga, por cable o satelital, tomando en cuenta todas las tecnologías, Grupo Tele-visa tiene aproximadamente 50% de participación de mercado. Al cierre de 2010, en México había una TV de paga en 27.2% de los hogares. A raíz de la aparición de los paquetes triple play a partir de 2007, este segmento de mercado ha crecido de forma importante (gráfica 2).

En la actualidad, dos de cada tres suscripciones son de televisión por cable, repartidas mayoritariamente entre Televisa (con Cablevisión, Cablemás y TVI, que poseen 35% del mercado) y Megacable, con 31% (Pyramid Research, 2010). En cuanto a la televisión satelital, el mercado estuvo muchos años dominado por Sky –también propiedad de Televisa. Pero desde 2008, con la llegada de Dish –de MVS y Telmex–, el precio de los paquetes se redujo casi a la mitad y des-pués de casi tres años de operación, Dish cuenta con 40% del mercado de la televisión por satélite.

Una de las propuestas para generar mayor competen-cia en este servicio es el ingreso de Telmex al segmento, con lo cual la empresa ofrecería paquetes de voz, datos y video a precios muy accesibles. Telmex ya ofrece triple play en 12 países de América Latina y, debido a su po-der regional de mercado, tiene la capacidad de comprar contenido televisivo a precios relativamente bajos. Sin embargo, su título concesión le prohíbe ofrecer servicios de televisión a través de sus redes en forma directa.

Para la CFC, un paso adicional para generar mayor competencia en el segmento de la televisión restringida sería establecer la obligatoriedad para que los opera-dores del sistema abierto entreguen sus señales a los concesionarios de TV de paga de manera gratuita.

Por ahora, Televisa está obligada a ofrecer el acceso a sus contenidos televisivos a un precio fijo por suscrip-tor y a cualquier concesionario de TV restringida con menos de cinco millones de suscriptores. Ha cumpli-do con el convenio al ofrecer sus señales de televisión abierta empaquetadas junto con otras diez señales que también produce. Sin embargo, los operadores de cable o satélite no pueden contratar estos 14 canales de ma-nera desagregada (por elección o a la carta). Dish, por ejemplo, quisiera sólo los canales de televisión abierta, pues, paradójicamente, los canales de televisión abier-ta son los más vistos en los sistemas de paga.

4. Internet y banda ancha: competencia por las redesEn este servicio también hay una empresa dominante, Telmex, que concentra 74% del mercado en el país, y sólo ofrece este servicio empaquetado con una línea de telefonía fija.

Las empresas de televisión por cable adquieren cada vez más una posición relevante en internet. En parti-cular, Grupo Televisa y Megacable –bajo la marca Yoo– cuentan con un 15% de participación de mercado. Sin embargo, el desarrollo de este servicio se limita a la dis-ponibilidad de los enlaces y de las redes de transmisión,

Tabla 2. Comparativo precio/transmisión y existencia de redes de telecomunicaciones

Ciudad

Proveedor del servicio de transmisión

(2Mbps)

Renta mensual por servicio de

transmisión (MXN$)

Proveedores de acceso a

Internet

Toluca, Edomex

Bestel, Maxcom, Alestra

$ 3,300MegacableBestelMaxcom

León, Gto.Bestel, Maxcom, Alestra

$ 3,300MegacableBestelMaxcon

Tapachula, Chis.

Telmex $ 13,000 Uninet 1

Salamanca, Gto.

Telmex $ 18,200MegacableUninet

El Grullo, Jal.

Telmex $ 35,108 Uninet

Sayula, Jal. Telmex $ 40,000 Uninet

San Miguel de Allende, Gto.

Telmex $ 58,650UninetBestelAlestra

Fuente: Secretaría de Comunicaciones y Transportes (2008).1 Uninet, S.A. de C.V., es el nombre de la empresa mediante la cual Teléfonos de México comenzó a ofrecer el servicio de internet (ISP) a mediados de los años noventas.

Page 59: Un tsunami de información

edición sesenta y cinco > 57

> Telecomunicaciones 10o aniversario

por lo que no se espera que la estructura de mercado cambie mucho. La cobertura de las redes de las empre-sas de TV por cable es limitada en relación con Telmex.

Hay zonas en donde la red de Telmex es la única sali-da para la transmisión de internet. Es por eso que donde no hay competencia en redes de telecomunicaciones, las tarifas de renta de los enlaces cuesta mucho más con respecto a los lugares donde sí la hay (tabla 2). Este fe-nómeno se agudiza conforme la comunidad que solicita el servicio de internet está alejada de las ciudades donde se concentran las redes de transmisión. De manera que la prestación de este servicio en ciertas zonas del país es económicamente inviable o de calidad muy baja.

Para remediar la falta de redes de transmisión, el go-bierno decidió adjudicar a Grupo de Telecomunicacio-nes de Alta Capacidad (GTAC) –consorcio conformado por Televisa, Megacable y Telefónica Movistar– una parte de la capacidad de transmisión de la red de fibra óptica de la Comisión Federal de Electricidad (CFE).

Las empresas que conforman el GTAC han decidi-do invertir en la red de la CFE para no depender de Telmex, de Axtel o de terceros para la transmisión de sus servicios. Si se reduce el costo de los enlaces en las zonas urbanas de menor tamaño, entonces será más atractivo para las cableras ofrecer este servicio. Se estima que con las nuevas fibras se podría reducir el costo de la banda ancha en el sureste del país hasta en dos terceras partes (The Economist, 2010).

Comentario finalEste breve recorrido por el sector nos muestra que en todos los segmentos de mercado existe una empresa líder, y que la diferencia de participación entre ésta y su competidor más cercano es muy amplia. También se ha reducido la participación de Telmex como operador dominante en los servicios de telefonía fija y banda an-cha. Ante este declive surge un nuevo grupo: Televisa, que está presente en todos los segmentos.

Cada vez más, el sector de las telecomunicaciones se divide en dos grupos: América Móvil (Telmex y Telcel) –con un marcado liderazgo en los segmentos de telefo-nía fija y móvil–, y Grupo Televisa –líder de los servicios de televisión de paga y de los contenidos televisivos.

Dos empresas compitiendo entre sí son mejor que una sola, pero un tercero disruptivo sería aún mejor, que no necesariamente tiene que ser el mismo en cada uno de los segmentos de mercado. ¿Qué nuevos impul-sos hay que darle al sector para que esto suceda? n

Jana Palacios es Directora de Proyectos de Competencia y Buen Gobierno del Instituto Mexicano para la Competitividad, A.C., [email protected]

Page 60: Un tsunami de información

58 < Política digital

> Telecomunicaciones

Regulación y política de competencia en telecomunicaciones,

21 años despuésPor Salvador Apodaca Sarabia

En este ensayo se revisan puntualmente algunos de los aspectos de la regulación y la competencia que han determinado el funcionamiento de las telecomunicaciones en los últimos 21 años, y se aportan alternativas para mejorarlos

Conocer a fondo la apertura al proceso de compe-tencia y libre concurrencia y su evolución en las

telecomunicaciones es importante para identificar las dificultades que lo han afectado y explorar posibles soluciones. En México, esta experiencia comenzó en 1990, cuando se privatizó Telmex y se emitió el Regla-mento de Telecomunicaciones.

De entonces a la fecha (1990-2011, que en este ar-tículo denominaremos El PEriodo) se emitieron y refor-maron las leyes federales de Competencia Económica y de Telecomunicaciones (LFCE y LFT, respectivamente), así como reglamentos y otras regulaciones relaciona-dos con dichas leyes.

En la apertura, promoción y protección del proceso de competencia y libre concurrencia en las telecomu-nicaciones (en adelante, ProcEso) destacan los siguien-tes avances:

Page 61: Un tsunami de información

edición sesenta y cinco > 59

> Telecomunicaciones 10o aniversario

1. Han aumentado los competidores en mercados fi-nales y algunos de servicios intermedios.

2. Los precios reales de los servicios finales han dis-minuido.

3. Servicios que tenían una presencia menor han ga-nado una enorme importancia.

4. Se han diversificado las opciones a los usuarios.

Esto ha ocurrido a pesar de los elevados niveles de concentración en los servicios locales y de televisión restringida, y de una interconexión e interoperabilidad afectada por deficiencias originadas por los concesio-narios y la ineficaz aplicación de la regulación.

Los avances se deben a la entrada de nuevos compe-tidores impulsada por el nuevo marco normativo. Pero este factor tiene sus límites y enfrenta importantes obs-táculos. A partir de ahora, los buenos resultados depen-derán de acciones regulatorias y de competencia (más complejas y sujetas a conflictos) que incidan con mayor eficacia en cuestiones medulares de la nueva industria de telecomunicaciones surgida durante El PEriodo.

En el presente artículo veremos cómo contribuye la regulación sectorial al funcionamiento eficiente de los mercados de telecomunicaciones, a la luz de los crite-rios de competencia económica.

Formación de estructuras pro-competitivasa. La concesión de las redes públicas (RPT), pero no de sus servicios, posibilita que los concesionarios de estas redes compitan en la prestación de cualquier ser-vicio que, técnicamente, puedan ofrecer. Esta medida, y la posibilidad de que las comercializadoras participen en los mercados sin ser concesionarias, son básicas pa-ra facilitar la convergencia y/o promover El ProcEso, según sea el caso.

Desafortunadamente, la aplicación de esta medida ha sido desigual e incluso contraria a la LFT. Ejemplo de ello son los múltiples obstáculos enfrentados por Nextel para prestar servicios locales, las contrarieda-des en la instrumentación del Acuerdo de Convergencia de Servicios Fijos de Telefonía Local y Televisión y/o Audio Restringidos…, y las condiciones restrictivas que impo-ne el Reglamento para la Comercialización de Servicios de Telecomunicaciones de Larga Distancia… a los permisio-narios de esta actividad.

Las complicaciones para autorizar el empleo del espectro radioeléctrico en usos distintos a los seña-lados en el título de concesión y el pago de derechos adicionales por este motivo también han constituido un freno importante para la convergencia y El ProcEso.

Hace apenas unos años (2008-2009) se estableció en las nuevas concesiones que el espectro puede em-

plearse para prestar cualquier servicio previsto en el Cuadro Nacional de Atribución de Frecuencias, siem-pre que lo permitan la infraestructura y tecnología de la red en cuestión. Es importante que esta facilidad se extienda a las concesiones anteriores y no sea dismi-nuida por la capacidad “creativa” gubernamental o los intereses privados.

b. La no exclusividad en la cobertura y los servicios de las RPT reconoce que, en las condiciones técnicas y económicas actuales, la regulación sustentada en el monopolio natural debe dar paso una legislación orientada a la libre concurrencia. Esta apertura al Pro-cEso ha enfrentado, particularmente, la oposición de los concesionarios de TV restringida por cable. Ante ello la reacción de la Secretaría de Comunicaciones y Transportes fue contradictoria: por un lado, otorgó y defendió las segundas concesiones, para más tarde (2005) proponer, sin éxito, reformas al reglamento de TV restringida que condicionaban artificialmente la entrada de competidores en redes cableadas.

La oposición a las segundas concesiones de estas redes, y, por tanto, al ProcEso, persiste hasta la fecha. Sin embargo, la reciente entrada de la marca Dish ha despertado la competencia en TV restringida, pero aún queda mucho por hacer.

La alternativa de que los operadores locales presten el servicio anterior, está seriamente limitada por la cobertura de sus redes (salvo en el caso de Telmex) , así como por desventajas en su acceso a contenidos y/o la indefinida aplicación asimétrica del Acuerdo de Conver-gencia. La superación de estos obstáculos provocaría efectos muy positivos para el ProcEso, la convergencia y los servicios de banda ancha.

c. La prevención de concentraciones anticompeti-tivas es indispensable para evitar retrocesos en las nuevas estructuras de mercado. Las disposiciones en esta materia –contenidas en la LFT– establecen crite-rios de revisión preventivos que refuerzan los estable-cidos en la LFCE y aprovechan la especialización de la Comisión Federal de Competencia (CFC). Aunque existen cuestionamientos sobre la autorización de algunas concentraciones y/o sobre el cumplimiento de las condiciones impuestas, se puede afirmar que, en términos generales, el ejercicio de esta función ha protegido la competencia sin perjuicio de las eficiencias asociadas a estas transacciones.

Page 62: Un tsunami de información

60 < Política digital

> Telecomunicaciones

d. La aplicación de medidas que permitan a los usuarios cambiar de proveedor con la mayor li-bertad y los menores costos de transacción son esenciales para evitar restricciones estructurales al ProcEso.

El establecimiento temprano de la portabilidad de números hubiera facilitado la entrada y el crecimien-to de los entonces nuevos competidores en servicios locales fijos y móviles. Sin duda, la portabilidad es uno de los factores que han impulsado la competencia en servicios de voz, entre las plataformas de telefonía fija y televisión por cable. Cabe reconocer el impulso dado por la CFC para establecer esta facilidad.

Sin la presuscripción, la apertura a la competencia en larga distancia (LD) hubiera sido imposible. Des-afortunadamente nunca se aplicó la selección por marcación del operador de larga distancia, prevista en las reglas de este servicio, pues esta medida hubiera contribuido a intensificar la competencia.

En la práctica, la obligación de presuscripción pasó de una regulación general a una regulación asimétrica, aplicable solamente a las redes locales de Telmex. Man-tener esta política es un asunto cuestionable por dos razones: 1) en las circunstancias actuales la competen-cia no sería afectada si se eliminan las excepciones a la presuscripción y se aplica la selección de operador LD por marcación; 2) si la presuscripción ya no contribuye a la competencia en LD, entonces debe eliminarse para evitar costos innecesarios..

La selección del operador de LD por marcación y la diversidad de oferentes en los números 900 depende del arreglo de convenios de facturación entre operado-res. Tanto la Comisión Federal de Telecomunicaciones (Cofetel) como la CFC deberían ser más activas en pro-mover su realización.

Eliminación de barreras a la entradaa. La política de licitación de espectro instrumen-tada entre 1996 y 1998 contribuyó a facilitar la entrada a los mercados de telecomunicaciones. Destacan la programación de licitaciones de frecuen-cias –orientada a impulsar la competencia en los mer-cados más concentrados –, los caps –establecidos para evitar la acumulación anticompetitiva del recurso– y la aplicación de licitaciones simultáneas ascendentes –para promover la competencia eficiente por el espec-tro licitado.

Sin embargo, las licitaciones han perdido eficacia como mecanismos de mercado, al reducir la contra-prestación más a un pago por obtener el Título de concesión que por el uso del espectro que ampara,

e incluir caps y concursos que disminuyen o limitan artificialmente la competencia.

La experiencia indica que, al menos desde 2009, es necesario: 1) sustituir los caps por una aplicación rigurosa del “úselo o piérdalo”, 2) volver a la contra-prestación ganadora de la concesión como único pago en la vida de la concesión, y 3) diseñar los con-cursos en función de los requerimiento mínimos de espectro que impone la tecnología y de coberturas que permitan la participación del mayor número de interesados nacionales y regionales. Para facilitar la participación de éstos últimos, es necesario incluir el roaming obligatorio que, en esencia, es una forma de interconexión.

El concesionamiento de espectro para proveer ca-pacidad para enlaces punto a punto (instrumentada en 1997), y su deficiente regulación, han derivado en la monopolización y escasez artificial de este recurso, aún cuando la posibilidad de multiplicar el uso de estas frecuencias en una misma área lo hace prácticamente ilimitado. Para remediar esto, es necesario que el regu-lador actúe con rigor en la aplicación de medidas que separen la oferta de dichos enlaces del servicio de pro-visión de capacidad; que haga efectivo el cumplimiento de la contabilidad separada, e impida que la oferta de capacidad se ate a la prestación de servicios de teleco-municaciones, particularmente de tales enlaces.

b. El costo del cambio y diversificación de los usos del espectro constituye una limitación al Proceso y a la convergencia. Las medidas administrativas y legales que generan este problema se han prestado a maniobras legales tendientes a desplazar o impedir la entrada de competidores. Esto, aunado a la falta de una política de rescate de frecuencias (cuyo diseño debe dar certidumbre y ser neutral a la competencia), generan conductas oportunistas contrarias al ProcEso e impiden un mayor dinamismo y eficiencia en el uso del espec-tro. Se requiere una nueva visión gubernamental para solucionar estos aspectos.

c. La conectividad entre redes es indispensable pa-ra contar con un sistema de telecomunicaciones integrado por competidores independientes entre sí. La interconexión eficiente contribuye a nivelar el terreno entre concesionarios nuevos y establecidos, grandes y pequeños; condición que es necesaria para el ProcEso. A pesar de su importancia, su tratamiento ha adolecido de insuficiente análisis e inconsistencias, así como de distorsiones propiciadas por intereses de los operadores.

Page 63: Un tsunami de información
Page 64: Un tsunami de información

62 < Política digital

> Telecomunicaciones

ción asimétrica que afecta al regulador, entre otros. Asimismo, es indispensable revisar periódicamente las condiciones de competencia en estos mercados; determinar en cuáles y a quién(es) es indispensable aplicar una regulación asimétrica, así como su diferen-ciación, según la posición de los concesionarios de que se trate . En cualquier caso, siempre debe buscarse una alternativa que sustituya o minimice la intervención del regulador –mediante un rediseño de mercados y/o su operación– para facilitar el ProcEso.

Hacia un servicio universalLa LFT establece que: 1) el gobierno federal procurará el servicio universal (cobertura social y rural de RPT) mediante programas que podrán ser ejecutados por cualquier concesionario, y 2) el operador que sea el único prestador de un servicio en una localidad no po-drá interrumpirlo unilateralmente. A la fecha, dichos programas se limitan prácticamente a las localidades donde no existen obligaciones de cobertura. El servi-cio obligatorio a localidades pequeñas y poco rentables solo está previsto en el título de concesión de Telmex,.

La falta de tales programas en las localidades menos atractivas, cubiertas obligatoriamente por Telmex en razón de su título de concesión, explica el monopolio de esta empresa en las mismas. Esta obligación causa una regulación de tarifas de servicios finales e intermedios afectada por distorsiones y subsidios cruzados.

La permanencia de este problema genera una si-tuación inestable que afecta “dos frentes”: 1) Telmex verá disminuida su capacidad para cumplir esta obli-gación en la medida que se intensifique la competen-cia en las zonas más rentables, y 2) sus competidores continuarán en desventaja para prestar servicios de larga distancia hacia las áreas poco rentables cubiertas por Telmex.

Por otra parte, los programas al amparo del fondo de cobertura social adolecen de múltiples deficiencias, limitaciones y falta de incentivos a la competencia.

Una solución eficiente requiere de políticas de subsi-dios que abran al ProcEso las localidades poco rentables (bajo la modalidad de competencia por los mercados) incluidas las cubiertas por Telmex en términos de su concesión.

Competencia y regulaciónLa LFCE aplica a todas las áreas de la actividad eco-nómica, incluidas las telecomunicaciones a través de dos vertientes principales: 1) corrección y prevención de prácticas y concentraciones monopólicas y 2) pro-moción de un marco regulatorio procompetitivo. Al-gunas medidas incluidas en la primera vertiente no

Los desacuerdos generalizados en interconexión y la sistemática intervención del regulador, revelan que los mercados correspondientes no han facilitado los convenios voluntarios ni la competencia en precios de estos servicios. Así, la competencia y la libertad de precios son generalmente inexistentes e inoperantes, respectivamente.

Por otra parte, la regulación del agente con poder sustancial de mercado requiere de procedimientos previos complejos y dilatados a cargo de la cFc que es necesario agilizar así como de una instrumentación informada, práctica y no distorsionante; sin esto últi-mo, la regulación será contraproducente.

Los fracasos en ese sentido, aunados a la inexpe-riencia, han propiciado medidas simplistas de regula-ción asimétrica que contravienen la LFT e ignoran el análisis de competencia y su aplicación en la desagre-gación de las RPT . Tal es el caso del Plan Fundamen-tal de Interconexión e Interoperabilidad, el cual permite determinar rápidamente –pero sin rigor analítico– el concesionario a regular.

La regulación de la interconexión es un asunto toral que requiere un enfoque multidisciplinario, por personas experimentadas, especializadas y blindadas contra las presiones de la industria. La experiencia en nuestro país indica que es necesario diseñar meca-nismos y estructuras de mercado que: 1) neutralicen los efectos anticompetitivos de “El que llama paga”; 2) resuelvan las distorsiones que implica el servicio universal a costa de un agente económico, y 3) dis-minuyan sustancialmente el problema de informa-

Page 65: Un tsunami de información

edición sesenta y cinco > 63

> Telecomunicaciones 10o aniversario

son adecuadas para resolver las restricciones al ProcEso en mercados de recursos esenciales (situación que se presenta en algunos servicios de telecomunicaciones intermedios y en otras industrias de redes). En estos casos, el enfoque de la LFT es más efectivo. Por ejemplo:• La determinación y corrección de la negativa de

trato, discriminación, depredación y elevación de costo de competidores bajo el enfoque de la regla de la razón y la aplicación de medidas ex-post previstas en la LFCE, suelen ser tardías, parciales y distor-sionantes.

• Las obligaciones per se en interconexión e intero-perabilidad –establecidas en la LFT– resultan más eficientes que la prohibición de la negativa de trato y la obstaculización del proceso productivo previs-tos en la LFCE. En cuanto a la discriminación y de-predación, la LFT carece de criterios precisos para definirlas, lo cual debe resolverse.

Las medidas comprendidas en la segunda vertiente (por ejemplo: opinar sobre políticas y legislación) son adecuadas, pero el diseño y aprobación de estructu-ras, políticas y legislación de industrias y mercados es una función de Estado que trasciende a las autoridades regulatorias y de competencia. Esto requiere de una intervención más amplia y sistemática del poder legis-lativo, inscrita en un proceso democrático que refleje las necesidades, preferencias y objetivos de la sociedad, mismos que pueden no coincidir con la(s) corriente(s) en boga o la visión de la autoridad de competencia y los reguladores.

En este contexto, la instrumentación de la segunda vertiente precisa de una institución verdaderamente autónoma sujeta a revisión del poder lejislativo e in-tegrada por un cuerpo colegiado aprobado por dicho poder, que aglutine conocimientos y experiencia en la interface mercado/estructura industrial/papel económico del Estado, y tenga autoridad para arbitrar entre las autoridades de competencia y regulación

Una autoridad con estas características podría evaluar con mayor equilibrio el marco regulatorio en ambas materias y el desempeño de los mercados. Tam-bién podría evaluar la aplicación de medidas adminis-trativas desde un punto que responda a los legítimos intereses político-económicos de la sociedad. Además, sería un auxiliar técnico importante de los poderes Le-gislativo y Judicial. n

Salvador Apodaca Sarabia es Presidente de Consultores en Regulación

de Redes + Asociados, S.C., [email protected]

Page 66: Un tsunami de información
Page 67: Un tsunami de información
Page 68: Un tsunami de información

66 < Política digital

> Visualización de datos

¿Una nueva isla en México?En esta perspectiva de la zona Ensenada-San Diego se puede observar el relieve de la Tierra y el fondo marino, con los hipocentros de te-rremotos registrados por las redes sísmicas de California, Estados Unidos, y el Centro de Inves-tigación Científica y de Educación Superior de Ensenada, Baja California (CICESE).

Este modelo digital por escaneo permite ver el rom-

pimiento en la superficie te-rrestre que produjo el temblor de

magnitud 7.2 grados Richter, el 4 de abril de 2010, cerca de Mexicali, B.C.

Fuente: CICESE.

Qué puede decir una imagenDiversas dependencias gubernamentales y centros de investigación

en México y el mundo emplean la visualización de datos para mostrar gran cantidad de información en una sola imagen y así lograr una mayor comprensión,

interpretación y asombro. Estos son algunos ejemplos

Page 69: Un tsunami de información

edición sesenta y cinco > 67

> Visualización de datos 10o aniversario

Del 1 al 8 de abril de 2009 Del 23 al 29 de abril de 2009

Del 14 al 20 de mayo de 2009 Del 8 al 14 de octubre de 2009

Así se expandió la influenza en 2009En esta secuencia de imágenes se observa la proliferación de los casos confirmados de influenza AH1N1 en los mu-nicipios del país. La gama de colores indica las localidades donde se confirmó un solo caso (color rosa claro), hasta los lugares con 653 a 1,088 casos (rojo oscuro) en cada periodo de la muestra.

Fuente: Subdirección de Geografía Médica/ Centro Información para Decisiones en Salud Pública del Instituto Nacional de Salud Pública.

Page 70: Un tsunami de información

68 < Política digital

> Gobierno electrónico

Gobierno electrónico: ¿dónde estamos, a dónde vamos?Por Alejandro Barros

Los proyectos de gobierno electrónico son un componente más del desarrollo y la modernización del Estado, tareas

que, por cierto, muestran un atraso significativo en América Latina. ¿A

qué se debe esto? ¿Cómo revertir tal situación?

Me parece relevante iniciar este artículo con lo que ocurrió hace unas semanas. Me encontraba en una

reunión sobre Sistemas de Ventanillas Únicas de Comercio Exterior –también denominadas VUCE–, organizada por el Banco Interamericano de Desarrollo. Uno de los asistentes presentó una gráfica muy reveladora del avance del gobier-no electrónico (eGovernment):

Como se puede apreciar, la “e” (de electronic) constituye la parte pequeña del concepto en comparación con la pa-labra “Gobierno” (Government). Esta obviedad –que a me-nudo se olvida– implica que debemos preocuparnos más por los temas de gobernabilidad que por los tecnológicos, aunque esto, en mi experiencia, es poco común.

No es extraño ver procesos modernizadores que rápida-mente se transforman en proyectos tecnológicos, sin abor-dar otros componentes que son fundamentales para tener éxito. Esto ocurrió en Chile, cuando un grupo de expertos1 en la materia se reunieron y desarrollaron propuestas de modernización que no contemplaban –al menos de mane-ra explícita– el uso de las tecnologías de la información y comunicaciones (TIC).2

1 www.reformadelestado.cl 2 www.alejandrobarros.com/content/view/849049/La-modernizacion-del-Estado-sigue-con-una-pata-coja.html#content-top

Page 71: Un tsunami de información

edición sesenta y cinco > 69

> Gobierno electrónico 10o aniversario

El proceso modernizador del Estado incluye una se-rie de componentes (ver gráfica 1). Probablemente, el mayor desafío de los responsables del área TIC en las administraciones públicas es orquestar cada uno de estos componentes.

Gráfica 1. Componentes del modelo de moderniza-ción del Estado

Al momento de definir un proceso modernizador, es ne-cesario tomar en cuenta las acciones que se emprenderán en cada una de las áreas, así como sus aportaciones, para generar una solución de mayor valor público.

En las últimas décadas, los procesos modernizadores del Estado han transcurrido por tres fases,3 como lo muestra la tabla 1:

Tabla 1. Fases del proceso modernizador en los países de América Latina

Fase Paradigma Periodo Características

1Burocracia Tradicional Regulatoria

Antes de 1980

• Autoridad• Rigidez• Basado en reglas y normas muy estrictas

2Nueva Gestión Pública

1980 - 1995

• Adopción de prácticas empresariales en el Estado

• Orientado a resultados

3 eGov 1995+• Enfocado al ciudadano • Interactivos• Respuesta rápida

La Unión Europea ha identificado ciertos criterios que son fundamentales para el pleno desarrollo de las iniciativas de gobierno electrónico, sobre todo los relativos al empodera-miento que día a día consiguen los ciudadanos, producto del soporte que les entregan las tecnologías de información y comunicaciones.

En los últimos meses, hemos visto surgir manifestaciones de los “indignados” para exigir cambios en la administración pública de sus respectivos países. Estas expresiones hacen urgente el diseño de nuevos modelos de interacción Estado-ciudadano que incluyan al menos los siguientes elementos:

• Serviciosdiseñadosentornoalasnecesidadesdelusuarioeinclusivos. Esto presupone la personaliza-ción de servicios. Un modelo a seguir ha sido plantea-do por el centro de investigación e innovación pública MindLab4 y su director, Chistian Bason5.

• Produccióncolaborativadeservicios, que plantea el empleo de herramientas de la Web 2.0 en los servicios que provee el Estado.

• Reutilizacióndelainformacióndelsectorpúblico, de acuerdo con el modelo open data y open gov. Muchos países han tomado acciones en ese sentido.

• Mejoramientodelatransparencia en sus modalida-des activa y pasiva. En América Latina han destacado los casos de Brasil, Chile y México.

• eDemocracia, esto es, establecer mecanismos de mayor participación ciudadana y promover la participación de los ciudadanos en el diseño de políticas públicas.

Para lograr servicios con atributos como los mencionados se requieren cambios profundos e incluir algunos elemen-tos en la arquitectura tecnológica que potencien esto. Me refiero a especificaciones abiertas e interoperables, uso de identificación electrónica, nuevos modelos de servicio y pro-visión de infraestructura TI como los servicios en la nube6.

Un poco de historiaAl analizar el proceso evolutivo de los servicios electrónicos del Estado en América Latina, podemos observar que éstos han iniciado fundamentalmente en tres áreas:

1.Administracionestributarias: En muchos países de la región, las instituciones asociadas a la administración tributaria son las que cuentan generalmente con mayores niveles de madurez tecnológica, personal mejor remune-rado y con un modelo de negocios conocido y bastante estable. Estas características les ha permitido incorporar servicios electrónicos con menor esfuerzo relativo.

Por lo general, las administraciones tributarias en Amé-rica Latina ofrecen soluciones de gobierno electrónico ba-sadas en software a la medida, con acceso a formularios web que deben ser completados por los contribuyentes.

Precisamente la reducción de costos (¡procesar un for-mulario en papel puede resultar 10 veces más costoso que uno electrónico!), así como la eficiencia de los procesos en línea son dos de las razones fundamentales que han estimulado el desarrollo de tales soluciones, que tienen un alto impacto ciudadano y empresarial.3 Dinesh Chandra, 2007, Defining eGovernment: a citizen-centric criteria based approach.4 www.mind-lab.dk/en 5 http://mindblog.dk/en/author/christian-bason/ 6 www.alejandrobarros.com/content/view/901992/El-cloud-compu-ting-ataca-de-nuevo.html#content-top

Page 72: Un tsunami de información

70 < Política digital

> Gobierno electrónico

No está demás decir que estas instituciones por lo ge-neral tienen recursos y se mueven con bastante indepen-dencia y soltura, lo cual les genera espacios de poder que les permiten avanzar más rápido. El argumento central para el uso de las TI es ¿cómo puedo recaudar más y de forma más eficiente?

2.Compraspúblicas: A diferencia del anterior, este ámbi-to de desarrollo está más vinculado a ofrecer herramientas y tecnologías que permitan una mejor relación comercial entre el Estado y sus proveedores.

Esto significa establecer un mercado de contratación con reglas, procedimientos, estándares y soporte tecno-lógico para realizar este intercambio de manera más efi-ciente y con bajos costos de transacción para ambas partes (comprador público–proveedor del Estado).

El desarrollo tecnológico en esta área consistirá en diseñar una “plataforma” (mercado electrónico o marke-tplace) a la cual puedan acceder los usuarios comprado-res y los usuarios proveedores para establecer relaciones comerciales. El nivel de adopción de estas plataformas es relativamente lento, ya que se contrapone a prácticas muy establecidas y definidas por unidades compradoras dentro del Estado. Por consiguiente, el cambio de paradigma en esta área no es asunto menor.

Transferir estas plataformas de un país a otro no es tarea fácil, porque el marco jurídico de contrataciones públicas es propio de cada nación. Aunque existen algunos elementos comunes, hay gran cantidad de particularidades jurídicas que implica importantes esfuerzos de adaptación.

El principal argumento para el avance de este tipo de soluciones están asociadas a responder la temática, ¿de qué manera el Estado puede contratar en forma más eficiente?

3. Transparencia: En los últimos años se han desarrolla-do marcos jurídicos para promover el acceso a la informa-ción pública y promover la transparencia. Incluso algunos organismos como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) han recomendado la pu-blicación de información pública7. Otros han establecido la fiscalización en este ámbito, como el Instituto Federal de Acceso a la Información y Protección de Datos (IFAI) en México, o el Consejo para la Transparencia en Chile.

A diferencia de los dos ámbitos anteriores, en la Trans-parencia la arquitectura tecnológica se asocia más con la búsqueda, el acceso y la disponibilidad de la información, y menos con aspectos transaccionales, como en el caso de los impuestos y las compras públicas.

El desarrollo tecnológico para tener acceso a la infor-mación pública todavía se encuentra en etapas tempranas (no estamos hablando de Open Data, que prácticamente no existe en la región, salvo algunos experimentos en estado bastante embrionario). Hasta ahora, la implementación ha consistido en establecer estándares para publicar infor-mación en diversas plataformas y adicionar mecanismos de fiscalización. En esta área es relativamente simple co-piar prácticas y adoptar desarrollos de terceros.

En la tabla 2 se describen las características de los tres tipos de iniciativas para gobierno electrónico:

7 www.oecd.org/document/36/0,3746,en_2649_34223_44384228_ 1_1_1_1,00.html 8 www.agesic.gub.uy/

Tabla 2. Características de las tres áreas fundamentales que dieron inicio al eGobierno en América Latina

Características Impuestos Acceso a información

pública

Compras

Tipo de información Transaccional Documental Transaccional-Documental

Estándares internacionales P PPP PPRiesgos tecnológicos Medio Bajo AltoRiesgo institucional Bajo Medio AltoImpacto ciudadano PPP PP PImpacto empresarial PPP PP PPPVelocidad de adopción PPP PP PPercepción de valor público PP PPP PRechazo grupos de poder P PPP PPVolumen transaccional PPP P PPPrácticas homologables P PPP PPVolumen de contenido P PPP PP

Fuente: Con información del autor.

Desarrollo del gobierno electrónico en ALLas iniciativas de gobierno electrónico en América Latina se han centrado en soluciones de carácter transaccional, en muchos casos “digitalizando la burocracia” y con erro-res en su diseño más básico. En mi opinión, tales iniciativas se han regido por tres criterios fundamentales: institucio-nalidad, planes nacionales y servicios del Estado.

Institucionalidad: Por lo que he podido analizar, en la región son pocos los países que han tomado las estrategias de gobierno electrónico en serio y de forma sistemática.Cuando digo sistemática, me refiero a procesos y políticas públicas de largo plazo y sustentables en el tiempo.

Destacan los casos de Uruguay –con su agencia Age-sic8– y Colombia, que han establecido modelos institucio-nales interesantes, bastante estables y que han resistido los embates del cambio de gobierno –un gran problema para la continuidad de estos temas en la región.

Page 73: Un tsunami de información

edición sesenta y cinco > 71

> Gobierno electrónico 10o aniversario

Plan Nacional: Muchos países, entre ellos México9, Chi-le10, Uruguay11, Colombia y otros, han desarrollado Agen-das Digitales Nacionales con capítulos relativos al desarrollo del gobierno electrónico. Probablemente la mayor dificul-tad que han enfrentado esas agendas son los bajos niveles de sustentabilidad en términos de continuidad, recursos y prioridad política del plan. Por otra parte, se aprecia una falta de alineamiento con el modelo de desarrollo del país y con otras iniciativas para la modernización del Estado.

Servicios del Estado: En la última década, los avances más significativos se han producido en los gobiernos cen-trales de la región. En los niveles de gobierno local o es-tatal el progreso ha sido bastante menor, salvo algunas excepciones como el gobierno de Nuevo León (México) y el municipio de Peñalolén (Chile) por nombrar algunos de los que conozco.

Desde el punto de vista de los servicios, los mayores avan-ces en la región se han dado en sistemas tributarios, compras públicas y algunos desarrollos en materia de transparencia. Si esto lo contrastamos con el modelo Bekkers y Homburg,12 el desarrollo ha sido bastante parcial, ya que se cubren sólo algunas de las cinco categorías de Bekkers, que son:

1. Servicios Informacionales, es decir, los relativos al acceso a información pública (como programas, normas y decisiones administrativas). La búsqueda y el acceso a información en diversas bases de datos pú-blicas también forman parte de este tipo de servicios.

2. Servicios de Contactos. Se refieren a la posibilidad de contactar o interactuar con funcionarios públicos y autoridades gubernamentales para realizar con-sultas y/o eventuales reclamos.

3. Servicios Transaccionales, como el pago de im-puestos, compras públicas y la obtención de permi-sos. Es común que este tipo de servicios se les asocie con la recaudación de ingresos del Estado. Tiene lógica, ¿no?

4. Servicios de Participación Ciudadana. Aquí se incluyen los foros en línea, los grupos de interés que interactúan con algún funcionario o dependencia del gobierno, y las votaciones electrónicas.

5. Servicios de Transferencia de Datos entre el Estado y los ciudadanos, ya sea mediante personas, organizaciones o empresas.

Por su parte, Hamburg plantea en su libro Understanding e-Government13 que, dependiendo de la problemática a re-solver, existen tres modelos de servicios electrónicos:

1. Modelo Gerencial, en el cual se visualiza al ciu-dadano como un “cliente” al que hay que entregar servicios en forma eficiente y efectiva. Este modelo

Page 74: Un tsunami de información

72 < Política digital

> Gobierno electrónico

incluí a Estados Unidos ni a Canadá para comparar niveles de desarrollo equivalentes):

Tabla 4. “Top ten” del eGobierno en América, según la ONU

Posición 2010 2008 20051 Colombia México Chile2 Chile Argentina México3 Uruguay Chile Brasil4 Barbados Brasil Argentina5 Argentina Barbados Uruguay6 Antigua Uruguay Colombia7 México Colombia Venezuela8 Brasil Trinidad y Tobago Perú9 Perú Perú Jamaica10 Bahamas Costa Rica Barbados

Fuente: United Nations E-Government Survey (2008 y 2010) y UN Global E-Government Readiness Report (2005).

Según la UNDESA, los países que han reportado mejor des-empeño en las últimas tres evaluaciones han sido Colom-bia –que subió siete posiciones y obtuvo el primer lugar en 2010– y Uruguay –que ha mostrado avances significativos en materias de gobierno electrónico en los últimos años. En el otro extremo, los países de más bajo desempeño en el continente son México –que descendió seis posiciones en la última evaluación– y Brasil –que ha bajado hasta ubicarse en octavo lugar en 2010. A nivel regional, América Latina descendió 4% su posición en el ranking, lo cual muestra que nuestro desempeño agregado no es del todo bueno.

Si tomamos otros indicadores como es el caso del Net-work Readiness Index (NRI) que publica cada año el Foro Económico Mundial,16 en las variables asociadas al “Uso de TI en los procesos del Estado”, los lugares de avanzada los ocupan Colombia, Chile y Uruguay.

América Latina enfrenta importantes desafíos en mate-ria de gobierno electrónico, que van desde servicios básicos –como los mencionados en este artículo– hasta nuevos modelos de interacción más centrados en el ciudadano, que incorporan conceptos de co-creación y uso intensivo de Web 2.0, cloud computing y movilidad. n

Alejandro Barros es consultor internacional de empresas e instituciones públicas, y miembro del Consejo Editorial de Política Digital, www.alejandrobarros.com

16 http://reports.weforum.org/global-information-technology-report/

apunta a servicios transaccionales y de interacción directa entre el ciudadano y el Estado, como los de ventanilla única.

2. Modelo Consultivo, busca establecer mecanismos de interacción y comunicación entre ciudadano y su rol de citoyen14 más que de un “cliente”. Se trata de una interacción que apunta a servicios de contacto, participación e información.

3. Modelo Participativo. Aquí el ciudadano no só-lo opina respecto a políticas públicas sino también participa en su construcción. Estos servicios no ne-cesariamente son entregados por el Estado.

Al analizar las políticas públicas en materia de gobierno electrónico de la región, es evidente que la mayoría se cen-tran en servicios de carácter transaccional y son pocos los casos en que un diseño de servicios se vincula con la participación. Esto probablemente se deba a que los servi-cios de carácter gerencial son más fáciles de implementar.

Por lo tanto, al observar la relación entre tipologías de gobierno electrónico y modelos de implementación de políticas públicas, éstas se pueden resumir en la tabla 3:

Tabla 3. Relación de los tipos de servicios y modelos de gobierno electrónicoServicios / Modelos Gerencial Consultivo Participativo

Informacionales P

Contacto P

Transaccionales P

Participación P P

Transferencia de datos P

La región en cifrasEl Departamento de Asuntos Económicos y Sociales de las Naciones Unidas (UNDESA) genera un ranking de gobier-no electrónico denominado United Nations E-Government Survey, el cual incluye una medición de determinados sitios web del sector público, niveles de infraestructura tecnológica y capital humano15.

En la tabla 4 se observan los diez países de América mejor calificados en las últimas tres mediciones (Nota: no

9 www.e-mexico.gob.mx/web/agenda-digital 10 www.estrategiadigital.gob.cl 11 www.agesic.gub.uy/innovaportal/v/258/1/agesic/agenda_digital.html12 Bekkers, V. J. J. M, y Homburg V. M. F. (2005), The Information Ecology of e-Goverment, Amsterdam13 Vincent Homburg (2008), Understanding e-Goverment, Routledge.14 Término en francés que expresa el rol más asociado que tuvieron los ciudadanos durante la Revolución Francesa.15 www.unpan.org

Page 75: Un tsunami de información
Page 76: Un tsunami de información

74 < Política digital

> Economía digital

El rumbo de la economía digital en México Por Ricardo Medina Álvarez

$ 3,000,000,000,000. Tres billones, o tres millones de millones de pesos,

es el valor de las transacciones electrónicas que se hacen

diariamente en nuestro país. Esta cifra equivale aproximadamente a todo lo que produce México en

un trimestre, por lo que, en cuatro días de transacciones electrónicas,

se mueve un volumen de dinero equivalente al PIB en un año. En lo

que sigue, se identificarán las claves que marcan al rumbo del país hacia

una economía digital

El conjunto de las operaciones de compra y venta que se realizan en nuestro país son de

dos tipos: las que se hacen con dinero en efecti-vo, y aquellas en las que intervienen sofisticadas aplicaciones digitales que los especialistas deno-minan sistema de pagos.

A diferencia del efectivo, en el que las tran-sacciones se concretan de manera presencial entre la persona física o moral que paga y la que cobra, en el sistema de pagos intervienen otras instituciones para materializar una operación de compra/venta.

Por ejemplo, cuando se paga con una tarjeta de débito emitida por el Banco A en algún comer-cio que es atendido por el Banco B, en la transac-ción participan, además de los bancos, empresas procesadoras, cuya función es conectar al Banco A con el Banco B.

Hay que advertir que de esos tres billones de pesos que se tranzan diariamente, el 95% del to-tal corresponde al importe de las transacciones

Page 77: Un tsunami de información

edición sesenta y cinco > 75

> Economía digital 10o aniversario

que se hacen en el sistema financiero1, mientras que sólo el 5% restante, obedece a transacciones comer-ciales que se realizan principalmente por medio de tarjetas de crédito o débito, transferencias electrónicas bancarias y cheques (ver recuadro).

Cifras que cuentanEn México existen alrededor de 80 millones de tarjetas de débito y casi 25 millones de tarjetas de crédito.

Asimismo, los bancos administran alrededor de 85 millones de cuentas a la vista, entre sus di-ferentes modalidades: cuentas de ahorro, cuentas de cheques, cuentas maestras, etc., mediante las cuales se pueden realizar transferencias y domi-ciliaciones.

Por otro lado, con relación al número de transac-ciones electrónicas, sucede lo contrario: alrededor de 10 millones al día corresponden a operaciones co-merciales realizadas con tarjetas, cheques y mediante transferencias electrónicas, (ver gráfica 1), mientras que en el sistema financiero se llevan a cabo casi 40 mil operaciones diarias.

Las transacciones comercialesA las transferencias electrónicas, a los cheques y a las tarjetas de crédito y débito y a la domiciliación se les denomina medios de pagos.

Los medios de pagos más utilizados para hacer operaciones en el sector comercial son las tarjetas de crédito y débito, las transferencias electrónicas y los cheques. Sin embargo, la tendencia mundial es que el cheque tiende a perder importancia. Incluso hay países en los que este instrumento de pago ha desaparecido prácticamente o se usa muy poco (gráfica 2).

La menor utilización del cheque y, por ende, la mayor utilización de otros medios de pago, responde a la existencia de una gran armonía entre el público usuario, los bancos y las autoridades financieras para instrumentar medidas que incentiven notablemente medios de pagos más modernos basados completamen-te en tecnología, gracias al desarrollo de las telecomu-nicaciones y al acceso a internet por múltiples vías, incluso mediante el teléfono celular.

1 Principalmente se considera al monto total realizado en: i) el sis-tema mediante el cual se liquidan las operaciones de compra-venta de títulos de deuda emitidos por el gobierno federal e instituciones del sector público, sector bancario y sector privado (dos billones de pesos), y ii) los esquemas en que cada banco transfiere recursos desde una cuenta administrada por ese banco a otra cuenta que administre otro o ese mismo banco (0.850 billones de pesos).

Comparativo de medios de pago distintos

Promedio diario en el semestre respectivo(millones de operaciones)

Gráfica 1

Fuente: Información proporcionada al Banco de México por los bancos y otros participantes en el sistema de pagos.

1.0

1.5

2.0

2.5

3.0

3.5

4.0

5.0

4.5

0.5

0.0

Pagos en comercios con tarjetaTransferenciasChequesDomiciliaciones

1S 2005 2S 2005 1S 2006 2S 2006 1S 2007 2S 2007 1S 2008 2S 2008 1S 2009 2S 2009 1S 2010 2S 2010 1S 2011

0.210.11

1.32

1.52

2.24

1.56

4.47

3.63

Fuente: BIS-CPSS statistics 2009. ECB-Blue Book statistics for 2009, The 2010 Federal Reserve Payments Study,Reserve Bank of Australia, Banco de España, Banco Central de Brasil y Banco de México.

ChequesDomiciliacionesTransferenciasPagos en comercios con tarjeta

Cana

Suec

ia

Aust

ralia

Esta

dos

Uni

dos

Rei

no U

nido

Bél

gica

País

es B

ajos

Méx

ico

2010

Fran

cia

Suiz

a

Italia

Espa

ña

Bra

sil

Méx

ico

2004

xico

2000

44

Br

sasil

Espa

ñañ

Itlalia

Suzia

Fran

cica

xico

210

00

es B

ajoso

Bél

gcic

a

no U

ndid

o

s U

nido

so

Aust

ralila

Cana

dád

Composición del uso de medios de pago

Gráfica 2

12%

8%

12%

68%

8%

32%

60%

6%

11%

24%

59%

25%

11%

7%

57%

8%

20%

21%

51%

12%

43%

45%

26%

31%

43%

19%

2%

36%

43%

20%

20%

17%

43%

4%

55%

41%

9%

16%

34%

41%

2%

44%

15%

39%

10%

23%

39%

28%

56%

3%

16%

25%

El cheque y el efectivo se parecen a las cartas que enviábamos antes por correo tradicional, mientras que los medios de pa-gos como las tarjetas y las transferencias electrónicas se parecen, cada vez más, a los

Page 78: Un tsunami de información

76 < Política digital

> Economía digital

mensajes que se envían por correo electrónico, Twitter o Facebook.

Otro aspecto a destacar en las gráficas 1 y 2 es el medio de pago denominado “domiciliación”, que no es muy utilzado en nuestro país, pero que en otras latitudes es de los más relevantes, como por ejemplo en Alemania, donde da cuenta del 50% de las tran-saccines comerciales. La domiciliación consiste en la autorización que el público otorga a una empresa proveedora de bienes o servicios para que cobre, di-rectamente, cada mes, mediante cargos a su cuenta.

Este es el caso, por ejemplo, de los pagos de luz, te-léfono o televisión de paga. Esta modalidad representa eficiencias importantes, ya que la persona que recibe el servicio no tiene que preocuparse por hacer el pago, y la empresa que otorga el servicio tiene el incentivo de que la cobranza está asegurada.

Las transacciones del sector financiero Un componente muy relevante del sistema de pagos se refiere a la compra de títulos de deuda en el mercado primario (cuando la venta la realiza directamente el emisor –público o privado– de dichos valores), o en el mercado secundario (cuando la venta la realiza la persona física o moral que posee estos valores). A este componente se le denomina, sistema de Depósito, Ad-ministración, y Liquidación de Valores (DALI).

Aunque el número de transacciones realizadas en DALI es bajo (aproximadamente 20 mil al día), su im-porte en dinero explica un altísimo porcentaje de los

tres billones de pesos que se operan diaria-mente en el sistema de pagos (ver tabla 1).

Imaginemos cómo serían estas transac-ciones sin la mediación de la tecnología: ¿Sería factible, seguro y rápido cerrar una operación de estas magnitudes con dinero efectivo, cheque o tarjeta? ¿Acaso el compra-dor de los valores estaría dispuesto a pagar, y luego esperar a que el vendedor entregue los títulos?

Una de las características más relevantes del sistema DALI es la que se denomina “En-trega contra Pago”, que consiste en asegurar que, en una operación de compra-venta, el comprador realiza el pago y al mismo tiempo recibe los títulos; o visto al revés, el vendedor recibe los recursos en el mismo instante en que entrega los títulos.

Lo que hace el sistema DALI es adminis-trar una cuenta de dinero y otra de valores para cada operación. Así, cuando un opera-dor pacta una venta con otro que compra, la transacción se realiza sólo cuando el sistema DALI confirma que los títulos que se están vendiendo están realmente en la cuenta de valores del vendedor, y que el dinero que va a pagar el comprador está en su cuenta de dinero. Una vez realizado este chequeo, el sistema DALI procede a transferir, de ma-nera simultánea, los títulos de la cuenta del vendedor a la del comprador, y el dinero de la cuenta del comprador, a la del vendedor. Se trata de un procedimiento que genera cer-tidumbre y confianza en quienes lo utilizan.

Pagos en efectivo Si quisiéramos conocer el importe total de las transacciones que se realizan en nuestro país, habría que sumar a esos tres billones diarios aquellas que se hacen por medios no electrónicos, esto es, con dinero en efectivo. ¿Cuál es el importe total diario de las tran-sacciones en efectivo?

Con todo y el expertise que existe en el Banco de México, se trata de una pregunta nada fácil de contestar, ya que las operacio-nes en efectivo no dejan absolutamente nin-gún registro.

Pero veamos: debido a que el Banco de México emite todos los billetes y todas las monedas que circulan en el país (la llamada base monetaria), se sabe con certeza que éstas

Tabla 1. Importe total operado en el sistema de pagos

Sistemas de Pagos

SectorComponente del sistema

de pagos

Importe total diario de las transacciones

(aproximado en millones de pesos)

Comercial

Cheques $35,000

Tarjetas $3,000

Transferencias* $111,000

Domiciliación $1,000

Subtotal $150,000

Financiero

DALI $2,000,000

Transferencias* $850,000

Subtotal $2,850,000

TOTAL $3,000,000

* Incluye transferencias realizadas por el Sistema de Pagos Electrónicos Interbancarios (SPEI), las cuales pueden ser de bajo valor, para operaciones comerciales, y de alto valor, por transacciones financieras. FUENTE: Elaboración propia con información de Banxico.

Page 79: Un tsunami de información

edición sesenta y cinco > 77

> Economía digital 10o aniversario

ascendían a 651,531,413,000 pesos el 21 de noviem-bre de 2011, por ejemplo.

Si el 5% de esta base monetaria se intercambiara diariamente, el valor de las transacciones en efectivo ascendería aproximadamente a 32.5 mil millones de pesos, por lo que el importe de las transacciones co-merciales del sistema de pagos sería mucho mayor, lo que significa que los medios de pago electrónicos se-rían claramente predominantes en la economía. Por el contrario, si el porcentaje de la base monetaria que se intercambia diariamente fuera, por decir algo, el 95%, (618 mil millones de pesos aproximados) entonces, el valor de las transacciones electrónicas comerciales sería bajo. Además estaríamos muy lejos de nuestras metas, que consisten en lograr que el sistema de pagos tenga una mayor penetración en nuestra economía.

Habremos de seguir estudiando este tema para es-timar el valor de las transacciones en efectivo que se realizan en el país.

ConclusiónEs muy relevante para la economía que los sistemas de pagos funcionen con seguridad, rapidez, y que además estén al alcance de todos los agentes económicos del país, esto es, de las instituciones financieras, las gran-des, medianas y pequeñas empresas, las entidades del sector público, y las personas físicas.

Importa hacer notar que el cheque y el efectivo todavía se utilizan de manera relevante en nuestra economía. Sin embargo, ante la emergencia de dispo-sitivos tecnológicos como el celular y el acceso a in-ternet cada vez más generalizado, estos instrumentos tenderán a utilizarse cada vez menos.

Esta disminución está sujeta a que los agentes eco-nómicos se convenzan de la ineficiencia de estos me-dios de pago respecto a otros que ya están a su alcance, y que son, objetivamente, más seguros, más ágiles y más baratos de utilizar. Siguiendo la analogía de las cartas manuscritas que se enviaban por correo, nunca hubo una política por parte de las autoridades para inducir a la gente a que dejara de escribir cartas en papel y empezara a utilizar el email, por ejemplo. Lo que ocurrió más bien es que la gente se dio cuenta que el email era mucho más rápido, seguro y barato.

La autoridad financiera encargada de propiciar que el sistema de pagos tenga un funcionamiento ade-cuado es el Banco de México2. De esta manera, para cumplir con esta importante responsabilidad, el Banco

2 Ley del Banco de México, Artículo 2o.- Serán también finalidades del Banco promover el sano desarrollo del sistema financiero y propiciar el buen funcionamiento del sistema de pagos.

Central actúa con tres diferentes papeles:1. Regula y supervisa que las principales

instituciones participen de una manera adecuada en los sistemas de pagos.

2. Opera algunos componentes relevantes del sistema de pagos, como el SPEI, el sis-tema de transferencias electrónicas inter-bancarias que se procesan en tiempo real, el cual es utilizado tanto para transaccio-nes comerciales como financieras.

3. Promueve medidas para que gran par-te de los agentes económicos del país tengan a su alcance sistemas de pagos seguros y ágiles.

Para el Banco de México es muy importante promover la creación y el crecimiento de me-dios de pagos eficientes para que la población en general esté convencida de utilizarlos. Es-to trae beneficios a los agentes económicos que los usan y, por ende, trae ganancias para la economía nacional.

Es primordial que los sistemas de pagos operen de manera estable, sin fallas o inte-rrupciones relevantes, para que las tran-sacciones electrónicas sigan creciendo y acerquen a nuestro país, cada vez más, a la economía digital que deseamos. n

Ricardo Medina Álvarez es Director de Sistemas de Pagos del Banco de México, [email protected]

Page 80: Un tsunami de información

78 < Política digital

> IndustrIa tI

La industria de TI en México:Avances, retos y expectativasPor Sergio Carrera Riva Palacio

La industria en México tenía para entonces una veintena de años. Las empresas venían haciendo un esfuerzo relevante por abrir un espacio en el que se aprovechara el talento mexicano para ofrecer servicios tecnológicos en la materia.

Hay que recordar que los departamentos internos de tecno-logías de información y telemática eran “comunes” en grandes organizaciones gubernamentales, en el comercio y en el sector financiero, principalmente.

La formación de recursos humanos con orientación informá-tica, tanto en las universidades como a nivel técnico, emergía con fuerza desde la década de los noventa.

La calidad de la oferta nacional aún no era reconocida y su presencia en otros países era muy limitada. Sin embargo, em-presas como Softtek, Hildebrando y Neoris forjaban esfuerzos hacia esa dirección.

Prosoft, compromisos compartidosPara el cierre de 2001, gobierno e industria se plantearon la conveniencia de articular un programa para desarrollar la in-dustria del software y los servicios relacionados. Así nació el Prosoft, bajo la idea de fomentar el desarrollo de las capacidades nacionales, siempre que se hiciera en un entorno de competiti-vidad internacional.

Nos dimos a la tarea de convocar a la industria, así como a diferentes organizaciones del gobierno federal, de los gobiernos estatales y a la academia. El resultado fue la conformación, por consenso, de un programa con siete estrategias: promoción de la inversión y de las exportaciones; desarrollo del capital humano; adecuación del marco jurídico; adopción de TIC en empresas usuarias; acceso al financiamiento; niveles internacionales de capacidad de procesos; e infraestructura. Tales estrategias se trabajarían de manera simultánea.

El programa se dio a conocer a finales de 2002 y se estable-cieron mesas de trabajo para instrumentar las líneas de acción definidas. La industria, la academia y las organizaciones públicas tenían tareas que cumplir y roles para darle seguimiento. Este es uno de los factores más relevantes de su “éxito”: los vecto-res de interés se alinearon y la responsabilidad de la gestión se definió ex-ante (antes de producirse) y sobre ella hubo que dar resultados.

Financiamiento público y contragarantíasCon el apoyo del Congreso de la Unión, se obtuvieron los prime-ros recursos para la industria en 2003: 100 millones de pesos, la

Desde que se vislumbró el primer programa para desarrollar la economía digital en México en el año 2000, el camino para alcanzar una industria de TI competitiva a nivel internacional ha amalgamado las aspiraciones e intereses de diversos sectores. ¿Cuánto se ha logrado en poco más de 10 años? ¿Qué falta?

Una “política pública” representa la posibilidad de articular un esfuerzo deliberado para modificar el rumbo de las cosas.

En el caso de la industria de las tecnologías de información (TI) en México, hemos tenido la oportunidad de que así sea.

El estado actual en el que se encuentra el sector TI, sus expor-taciones, el posicionamiento internacional, la madurez de sus procesos y la cantidad de los empleos que genera son hechos que dan cuenta de los alcances de esa política pública. Los resultados son la consecuencia de un trabajo que encabeza la Secretaría de Economía, en el cual se han amalgamado los esfuerzos de go-biernos estatales y municipales, de la academia y, naturalmente, de la industria y sus organizaciones. No obstante, hay todavía áreas de mejora en las que conviene trabajar.

Oportunidades globales, capacidades localesHacia el año 2000, quienes participamos de esta iniciativa sin precedente preparamos un proyecto de programa para desarro-llar la economía digital en México.

Eran momentos en los que se había promovido el reconoci-miento legal de las transacciones electrónicas y la equivalencia funcional de las obligaciones suscritas en papel con las acorda-das electrónicamente. Se abrió entonces una avenida para deto-nar los circuitos de transacciones entre negocios y consumidores (B2C), negocios y sus pares (B2B), gobierno y negocios (B2G), así como entre el gobierno mismo (G2G).

El mundo ya se había enfrentado al fenómeno del cambio de milenio (Y2K), hecho que fue magníficamente capitalizado por países como la India, que aceleraron una ola de subcontrata-ciones para operaciones relacionadas con software y servicios basados en tecnologías de la información.

Page 81: Un tsunami de información

edición sesenta y cinco > 79

> IndustrIa tI 10o aniversario

mayoría de los cuales sirvieron para integrar un fondo de contra-garantías que le permitiera a la industria acceso al crédito. Ade-más, se dieron los primeros apoyos a proyectos de integradoras de empresas, crecimiento de capacidad instalada y adopción de Modelos de Capacidad y Madurez (CMM).

El estado de Jalisco autorizó fondos concurrentes para for-talecer estos proyectos y a él se sumaron los gobiernos de Baja California, Nuevo León y Sonora.

Es preciso apuntar que al entusiasmo de los gobiernos estata-les no correspondió un interés semejante por parte de la banca comercial. A pesar del esfuerzo de Nacional Financiera (Nafin), no fue posible interesarlos en la oportunidad de este negocio, del que se preveían importantes tasas de crecimiento anual –como efectivamente las ha tenido–, inclusive teniendo garantizado el pago de las llamadas “primeras pérdidas”.

Más adelante incursionaría una Sociedad Financiera de Obje-to Limitado (Sofol), que fue la única que brindó apoyos crediticios por algunos años. No deja de llamar la atención la forma en la que la banca selecciona sus áreas de interés en el mercado na-cional, situación que se mantiene desde entonces hasta la fecha.

Hacia 2005, más de la mitad de las entidades federativas se habían vinculado a Prosoft y participaban activamente en la promoción internacional, en el fomento a sus clústeres, en la adopción de modelos de calidad y en el apoyo con recursos fisca-les para apuntalar los proyectos de la industria, que se sumaban a los recursos federales.

En esta etapa del programa, se desarrollaron iniciativas co-mo: Mexico IT always near your business1; cursos paracurricula-res para la formación de desarrolladores e ingenieros de software en instituciones de educación superior2; desarrollo del modelo de madurez de procesos, Moprosoft3; fomento a los clústeres de TI en los estados4; integración de la mesa de fomento a software libre5; y adecuación de la normatividad vigente (Código de Co-mercio y Ley de Protección al Consumidor)6.

Gráfica 1

La industria de TI en México 2002-2011

Empresas

Empresascertificadas

en TI

Exportaciones TI y BPO

(BDD)

Estados enfoque TI

Clústers TI

Centros de desarrollo

certificados

Tasa de crecimiento

Parquestecnológicos

Egresados de Ingeniería y Tecnología

Fuente: Secretaría de Economía.Datos: Secretaría de Economía INEGI, AT Kearney y Select.

2,785 32 16.6%

367 27 24

4,150 367 90,000

4

0

4

-1%

0

65,000

2,095

4

200

• 15,000 millones de dólares

• 2.3% TI/PIB

• Líder latinoamericano

• 625,000

Facturación

Empleo

Posicionamiento

Uso

Gráfica 2

Política pública nacional de largo plazo - Prosoft 2.0

Fuente: Secretaría de Economía

Exportacionese

Inversiones

CaptitalHumano

Certeza jurídica

Difusión de uso de TI

Calidad y madurez

Competitividad

Fondeo

Prosoft recargadoCon el cambio de la administración federal, el programa se re-novó al revisarse sus estrategias y líneas de acción. El propósito fue reflexionar sobre la conveniencia de mantener o ajustar las líneas definidas, de modo que se lograra el objetivo general es-tablecido desde el origen: contar con una industria competitiva internacionalmente hacia el año 2013.

Las gráficas 1 y 2 muestran la manera como se ajustaron los objetivos y las estrategias del Prosoft 2.0:

1 Campaña de posicionamiento de la industria mexicana de TIC en Estados Unidos, principalmente, con el apoyo de la Cámara Nacional de la Industria Electrónica de Telecomunicaciones y Tecnologías de la Información (Canieti) y la Asociación Mexicana de la Industria de Tecnologías de Información (AMITI). 2 En coordinación con la Asociación Nacional de Instituciones de Educación en Informática (ANIEI). 3 Con el impulso de la extinta Asociación Mexicana para la Calidad en la Ingeniería del Software (AMCIS). 4 Con apoyo de la Asociación Nacional de Distribuidores de Tecnología Informática y Comunicaciones (Anadic). 5 Con apoyo de la Asociación Mexicana Empresarial de Software Libre (Amesol). 6 Con orientación de la Asociación Mexicana de la Industria Publicitaria y Comer-cial en Internet (AMIPCI).

Page 82: Un tsunami de información

80 < Política digital

> IndustrIa tI

Los resultados en materia de exportaciones, posicionamien-to internacional y crecimiento en empleo son más que eviden-tes. La Secretaría de Economía ha reforzado en el último año su impulso al cumplimiento de las metas programadas y a los compromisos adquiridos con la industria y con los gobiernos estatales, así como los relativos a organismos internacionales (ver gráfica 3).

Con datos de Secretaría de Economía, Gartner, AT Kearney y Select.

En materia de empleo, los indicadores de crecimiento sugie-ren que la meta a 2013 será alcanzada antes de tiempo. Las cifras oficiales registran que en 2010 ya había 600 mil perso-nas empleadas en industrias del sector TI, lo que representa un avance de 96%, tres años antes de lo esperado.

Por otra parte, de acuerdo con el estudio Global Services Lo-cation Index 2011, de AT Kearney, México ocupa la sexta posi-ción debido a su disponibilidad de capital humano y atractivo

financiero7, cuatro lugares por encima de Chile, el siguiente país latinoamericano en el índice global.

Valor de uso y apropiación tecnológicaSin embargo, no todo es éxito. La adopción de más TIC para la competitividad de las empresas en otros sectores –especialmente en las empresas de mayor rezago tecnológico– ha crecido a una tasa poco significativa, que no contribuye lo suficiente para ce-rrar las brechas tecnológicas.

Después de analizar varios casos fallidos en la adopción de estas tecnologías para lograr la eficiencia y competitividad de las empresas, concluyo que han sido orientados por el lado de la oferta; es decir, se ha procurado acercar soluciones a los nego-cios, pero los empresarios involucrados en los proyectos no han percibido el retorno de la inversión con claridad, o no ha sido evi-dente el valor de uso que tienen para el desempeño del negocio.

Recordemos también que hubo un intento de implantación de este tipo de tecnologías con fines de fiscalización, lo que pro-bablemente ha afectado nuevos intentos.

La mayor adopción no es, necesariamente, un tema de finan-ciamiento o tecnológico, sino un asunto de apropiamiento (en función de su valor de uso) y/o de claridad en el retorno de la inversión (estas inversiones, por pequeñas o grandes que sean, siempre compiten con otras por el capital de trabajo disponible: si el retorno no está claro, el recurso será asignado a otro proyecto en el que sean mejores las probabilidades de recuperación).

Tareas pendientesAunque la industria está ganando prestigio en materias de esca-la, madurez de procesos y volumen de exportaciones, se presen-tan todavía pendientes con respecto a suficiencia y pertinencia del capital humano –no obstante los 90 mil ingenieros que se gradúan cada año, la industria debe invertir todavía entre seis y nueve meses para complementar su formación y su capacidad para dominar el inglés.

También es necesario fortalecer la capacidad de innovación de la industria, porque a pesar de que es muy sólida su oferta en desarrollo y mantenimiento de software hecho a la medida o de servicios basados en TIC, no es suficiente para desarrollar siste-mas embebidos o para generar productos originales, por ejemplo.

De ahí que debamos ver con interés y apoyar las iniciativas creadas recientemente por la Secretaría de Economía para for-talecer la existencia de fondos de capital semilla y de riesgo, así como el fortalecimiento de competencias –resultado del desa-rrollo del mapa de ruta en coordinación con ProMéxico–, pues estos cambios abonarán al crecimiento sostenido a largo plazo.

Desde el inicio del Prosoft, era claro que el desarrollo de la in-dustria no podría lograrse sobre la base de subsidios. En efecto, es necesario que el valor añadido local crezca para que la industria se arraigue en nuestro país.

• México FIRST• Talento de TI• Estándares laborales

• México IT• IT Link

• Clusters• Innovación• Mapa Ruta (nichos)• Parques Tecnológicos

• Fondo Prosoft• Findo Contra- garantías• Capital de riesgo

• Proyectos de usuario• Compras de gobierno• Sello de confianza para portales de Internet

• Ley datos personales• Homologación normativa• NOM 151- Conservación de mensajes de datos

• MoProSoft• Inciciativa PSP/TSP• CMMI

Gráfica 3

Estrategias y herramientas de impacto de Prosoft 2.0

Capital Humano Exportaciones eInversiones

Competitividad

Financiamiento Difusión de uso de TI

Certeza Jurídica

Calidad y Madurez

Fuente: Secretaría de Economía.

Mercado local y exportaciones de TI + BPO (BUSD)

Gráfica 4

17%2011

13%2010

1%2009

14%2008

19%20072006

13.5

9.0

4.5

0.0

Datos: Secretaría de Economía, Gartner, AT Kearney y Select.

Mercado interno Exportaciones

Tasa de Crecimiento

2.0

5.0

2.5

5.8

3.2

6.3

3.7

5.9

4.2

6.7

4.8

7.8

Bill

ones

de

dóla

res

7 Ver artículo “México, buen destino de inversión para la industria mundial de TI”, en Política Digital No. 64, octubre-noviembre, 2011.

Page 83: Un tsunami de información

edición sesenta y cinco > 81

> IndustrIa tI 10o aniversario

La industria de TI es transversal, ya que habilita muchas transformaciones en sectores muy disímbolos. Es también una industria generadora de valor y de competitividad, capaz de gene-rar una gran cantidad de empleos bien remunerados, aunque, ciertamente, menos de los que la coyuntura ofrece, si se articu-lara un esfuerzo más agresivo, como el que han sido capaces de integrar los países contra los que competimos.

En mi opinión, para concretar las oportunidades del entorno a favor de nuestro país, es preciso sumar a la voluntad del go-bierno federal –y en especial, de la Secretaría de Economía– lo siguiente:

• Un renovado esfuerzo de las entidades federativas y de las instituciones de educación, dispuestas a invertir en el mediano plazo, de manera constante, en la formación del talento local con capacidades internacionales, favorecien-do así un ecosistema caracterizado por incentivos –mone-tarios y no monetarios– para generar mayor valor local.

• El replanteamiento de la participación del sector financie-ro en el fondeo de las empresas y proyectos de la industria. Aquí se requiere la participación de la banca, de los inter-mediarios no financieros y de fondos de capital para cubrir las necesidades de las empresas. Esta es una industria en crecimiento y un sector pagador; por lo cual, resulta tan impensable un crecimiento de gran escala en esta acti-

Contáctenos para publicidad:

[email protected]

...y reciba semanalmente nuestro boletín electrónico

Manténgase enterado de la transformación del

sector público en México

Suscríbase sin costo a

Política digitalwww.politicadigital.com.mx

vidad sin financiamiento, como increíble la aversión del sector financiero para apoyarla.

• La adecuada canalización y “garantía” de recursos presu-puestales a mediano plazo para el desarrollo del Prosoft. Esto evitaría las interrupciones en el flujo de los recursos o asignaciones subóptimas, derivadas de la incertidumbre en la disponibilidad de los mismos.

De cara a 2013 –año en el que culmina el periodo para el cual se establecieron las grandes metas del Prosoft–, correspon-derá a las organizaciones empresariales y a las instituciones de educación e investigación realizar una evaluación del impacto y promover la renovación de esta política.

Sólo nos resta confiar en que los servidores públicos a quienes corresponda decidir el establecimiento, modificación o término de una política pública específica para el desarrollo del sector, lo hagan sobre bases sólidas y convoquen a la suma de voluntades en beneficio de una más grande y mejor industria TI mexicana. n

Sergio Carrera Riva Palacio es Director Ejecutivo del Fondo de Información y Documentación para la Industria (Infotec), centro público de investigación, innovación y servicios en TIC, perteneciente a la red de centros del Consejo Nacional de Ciencia y Tecnología (Conacyt). Fue Director General de Comercio Interior y Economía Digital en la Secretaría de Economía, donde se desempeñó como servidor público de 1997 a 2009, [email protected]

Page 84: Un tsunami de información

82 < Política digital

> Cómputo en la nube

Cloud computingun detonador para la competitividad en el paísPor Rodrigo Gallegos y Cecilia Reyes-Retana

Para calcular cuánto ahorro puede ofrecer el modelo

de cloud computing, el Instituto Mexicano

para la Competitividad comparó el gasto en TI que realizan las dependencias

gubernamentales y las empresas antes de migrar a “la nube” y después de

hacerlo. Los resultados del estudio son sorprendentes

“C loud computing” o “la nube”, como se conoce en español, es una nueva forma de aprovechar

la infraestructura de cómputo existente que detona la competitividad de las empresas y transforma a los go-biernos. En un estudio que acabamos de realizar en el Instituto Mexicano para la Competitividad (IMCO) mostramos el impacto potencial de la adopción de cloud computing en México, tanto para el sector público como para el sector privado y la ciudadanía.

El punto de partida del estudio fue definir cloud computing desde una perspectiva económica, ya que el impacto potencial de “la nube” surge del principio de optimizar la infraestructura de cómputo existente.

De acuerdo con estimaciones de expertos en el te-ma, si la mayor parte de los servicios de cómputo que hay en Estados Unidos migraran a “la nube”, el apro-vechamiento actual de los servidores en ese país, que es de 12%, podría pasar a 60%.1

1 Alfred and Morton, The Economics of Cloud computing: Addressing the Bene-fits of Infrastructure in the Cloud. Booz, Allen, Hamilton 2009.

Page 85: Un tsunami de información

edición sesenta y cinco > 83

> Cómputo en la nube 10o aniversario

Este “principio de eficiencia” hace que cloud computing sea un modelo basado en la demanda, tal como el servicio de agua en nuestro hogar: no tenemos que invertir en la tubería del sistema hidráulico donde vivimos o comprar una cantidad mínima del preciado líquido. Basta con abrir el grifo de la casa y pagar sólo lo que consumimos. “La nube” representa este mismo principio, pero para los servicios de cómputo.

En términos más formales, “la nube” es un modelo de tecnología que muda los servicios de computación (software, pla-taformas o infraestructura) de un medio tradicional (computadora personal, cen-tros de datos) a internet.2

En este sentido, los servicios en “la nu-be” se solicitan a través de Internet, y se pagan únicamente por el tiempo y el uso del servicio. El acceso a éste se puede hacer desde cualquier computadora, teléfono o medio con conexión a la Red.

Con estas soluciones, una empresa pe-queña puede competir con otra mucho más grande. El mejor ejemplo de esto sucedió hace unos meses en Brasil: una empresa de sólo tres empleados compitió con el gigante Ticketmaster para la venta de boletos en lí-nea de un festival de rock. Esto fue posible gracias a que la microempresa no invirtió en infraestructura de cómputo para aten-der la demanda en línea de sus clientes el día de mayores ventas, sino que se concretó a rentar “espacio en los servidores” confor-me a sus necesidades. En otras palabras, aumentó su capacidad de infraestructura los días con más demanda y disminuyó esta capacidad (y su pago) el resto del año.

Para esta empresa brasileña, el ahorro no sólo radicó en los servidores, sino tam-bién en el personal necesario para admi-nistrarlos, las licencias de software para operarlos, la energía eléctrica y el espacio necesario para que funcionen.

Con el propósito de dimensionar estos ahorros en México, el IMCO estimó el gasto de una empresa mexicana “tipo” antes de migrar a la nube y después de hacerlo. Se comparó el gasto de servicios generales de tecnologías de la información (TI) en em-presas de 45 empleados para los servicios de correo electrónico, portal de colabora-

ción, servicio de mensajería instantánea empresarial, audioconferencia y videoconferencia, además de pa-quetería Office3.

Para hacer un comparativo con los servicios cloud computing, se consideró la renta de Office 3654 que ofrece estos mismos servicios. La diferencia de los cos-tos de operar un sistema antes y después de “la nube”, se resumen en la gráfica 1:

Los hallazgosComo muestra la gráfica, la empresa tradicional que compra el equipo de TI para su operación gasta un mi-llón 248 mil 400 pesos anuales por estas aplicaciones (incluyendo la inversión inicial de servidores de 216

2 Esta definición oficial se puede consultar en: http://csrc.nist.gov/publications/drafts/800-145/Draft-SP-800-145_cloud-definition.pdf 3 Office web app, para el caso de servicios en nube. 4 Este paquete provee los servicios estándar que requiere cualquier empresa pequeña, cuyo costo fue proporcionado por Microsoft.

Costos antes y después de la nube para empresa con aplicaciones Exchange + Share pt + Lync (costo anual en pesos)

6 servidores

Gráfica 1

**CAL es Client Access License y este costo se multiplica por los empleados en la oficina (45)

p pp

ponderado por el número de PCspromedio por empleado (0.9)p p

Fuente: Elaboración propia con datos de Microsoft 2011.

$216,000

SIN NUBE

$36,000

Apps online $ 51,030**

Ahorro 67%$837,450 c/empresa

6 licencias deservidores + 40 CAL**

$182,800

$24,000$960

6 sistemasoperativos por servidor

$216,000$36,000

Consumo deelectricidad de 6 servidores

$33,600

$411,030

$411,030

$5,600

MantenimientoHW + aplicacionesAdministración de aplicaciones

Administración de servidores

$600,000

$360,000

$240,000

Admon Apps $ 360,000

Total

CON NUBE

Share Point Online Lync

Page 86: Un tsunami de información

84 < Política digital

> Cómputo en la nube

mil pesos, que representan el 17%). Este gasto no incluye los costos de las compu-tadoras ni el de la conexión a internet, que son imprescindibles para ambos casos (con o sin nube).

El ahorro en TI es muy revelador: alcan-za el 67% en el primer año de operaciones, y casi 60% en los siguientes años, producto de los ahorros en servidores, los servidores espejo, las licencias para cada uno de éstos, las licencias de software para cada una de las herramientas consideradas por emplea-do, así como el costo de un administrador para los servidores y la energía eléctrica.

En el IMCO estimamos que el ahorro económico por adoptar cloud computing en México podría representar el 0.31% del PIB nacional (38,653 millones de pesos), lo que equivaldría a incrementar el pro-grama Oportunidades en casi 70%; esto es, aumentar la cobertura a 3.9 millones de familias mexicanas. Cerca de 75% del ahorro total, o el 0.23% del PIB, corres-pondería al sector privado, mientras que el 0.08% del PIB restante, al sector público.

Para elaborar este cálculo se seleccio-naron 351 empresas de seis sectores de la economía mexicana (instituciones de intermediación crediticia y financiera no bursátil; comercio al por menor en tiendas de autoservicio y departamentales; indus-tria alimentaria; radio, televisión y otras telecomunicaciones; servicios educativos y actividades del gobierno) que representan entre el 50% y el 95% de los ingresos de dichos subsectores y se tomó como base la información del presupuesto que desti-naron a TI en el 2011.

Supusimos un ahorro de 25% en software, de 65% en soporte y manteni-miento, y de 30% en infraestructura de hardware (servidores) debido a que son los ahorros más conservadores de los do-cumentos consultados5.

En el caso de los gobiernos, utilizamos los mismos supuestos de ahorros y anali-

zamos la estructura del presupuesto de TI 2011 de las principales instituciones del gobierno federal (41), de todos los gobiernos estatales (excepto Hidalgo)6 y de 110 gobiernos municipales.

Las estimaciones muestran que el sector público ahorraría 1.7% del PIB del subsector si migrara a la nube. Entre las instituciones públicas federales que mayores beneficios podrían generar por adoptar el modelo de cloud computing están el Servicio de Admi-nistración Tributaria (tres mil 510 millones de pesos), Petróleos Mexicanos (mil 595 millones de pesos), el Instituto Mexicano del Seguro Social (879 millones de pesos) y la Secretaría de Educación Pública (627 millones de pesos). Ver gráfica 1.

Sin embargo, estas economías de escala no sólo se traducen en ahorros económicos y de energía eléctri-ca, sino también en mejores gobiernos, creación de empleos y un mayor acceso y acercamiento con los ciudadanos.

Un ejemplo de cómo el modelo de cloud computing puede mejorar la capacidad del sector público para relacionarse con los ciudadanos es migrar el pago de impuestos a “la nube”, ya que esto prevendría el riesgo de que el sistema “se cayera” el último día de la decla-ración anual. Esto también evitaría las largas filas para pagar contribuciones en las oficinas gubernamentales, o recibir multas por incumplimiento.

5 Los tres documentos consultados fueron: 1. SaaS CRM Reduces Costs and Use of Consultants. Gartner Inc., 2008; 2. Alfred y Morton; The Economics of Cloud computing: Addressing the Benefits of Infrastructure in the Cloud. Booz, Allen, Hamilton, 2009; 3. Appirio Cloud computing Savings – Real or Imaginary? 2009.

Ahorros en las instituciones del gobierno federal

Gráfica 2

SAT

PEM

EX

IMSS

SEP

CFE

ISSS

TE

SED

ENA

SHC

P

SEP

OM

EX

SEM

AR

SSP

SSA

CA

PU

FE

SAG

AR

PA

SCT

SED

ESO

L

SEM

AR

NA

T

SEN

ER

Mill

ones

de

peso

s

4000

3500

3000

2500

2000

1500

1000

500

0

3,510

77 73 69 63 57 39 30 29 26 25 2399

1,595

879

627

409297

Fuente: IMCO con información de Microsoft.

3,5

6 No se conto con información de su gasto en TI.

Page 87: Un tsunami de información

edición sesenta y cinco > 85

> Cómputo en la nube 10o aniversario

Asimismo, el cloud computing puede facilitar las votaciones y la participación ciudadana en línea, así como compartir documentos por internet y que los ciuda-danos puedan trabajar en éstos, con lo cual se promueve la transparencia y la rendi-ción de cuentas.

Un “promotor” de nuevas empresasContrario a lo que la mayoría piensa, el modelo de cómputo en la nube no genera desempleo –aún cuando reduce la nece-sidad de técnicos de mantenimiento para los servidores– debido a que estimula la creación de nuevas empresas.

En un ejercicio del estudio realizado por el IMCO, estimamos una generación de 63 mil nuevos empleos, producto de la crea-ción de mil 800 nuevas pequeñas y media-nas empresas (PyMEs) en el país. Este resul-tado se obtiene una sola vez, (no es anual) al considerar una disminución de 1% en los costos fijos de entrada7 de las PyMEs.

Además, el capital humano liberado por migrar al cloud computing se puede emplear en la generación de nuevas herramientas y servicios de TI –como por ejemplo plata-formas o software para mejorar la colabo-ración entre empleados en “la nube”,– lo cual promueve la competitividad de las empresas y el crecimiento del país.

Otros beneficios colateralesCloud computing también representa im-portantes ahorros en la emisión de gases de efecto invernadero debido al menor consumo de electricidad producto de un mejor aprovechamiento de los servidores existentes.

Según estimaciones del IMCO, las em-presas medianas y grandes en México que migran su correo electrónico, calendario, contactos y su portal de colaboración a “la nube” ahorran una cantidad de energía eléctrica equivalente a casi 680 mil tone-ladas de dióxido de carbono equivalente al año. Es como si se retiraran 90 mil vehícu-los automotores de circulación.

¿Cómo promover el uso de este modelo?El gobierno juega un papel preponderante para influir en la adopción de cloud computing en el país. Además de actuar como un agente de cambio y enseñar con el ejemplo, debe promover el desarrollo de la banda ancha y establecer un marco jurídico adecuado para la implementación de “la nube”.

En efecto, México necesita una estrategia nacional para aumentar la cobertura y el uso de banda ancha de forma agresiva, medible y comprometida, al más alto nivel público y privado. Una parte de esta estrategia se encuentra redactada en la Agenda Digital Nacional. La otra parte se deberá consensuar con las autoridades y el sector privado para aprovechar nuevas frecuencias –como las de la televisión abierta para transmitir datos– o abrir el sector de telecomunicaciones a la inversión extranjera. Y es que para hablar del desarrollo de “la nube” en nuestro país, lo primero que debe atenderse es la banda ancha.

En cuanto al marco jurídico, es muy importante fo-mentar la competencia entre proveedores de “la nube”. Esto se puede lograr mediante la adopción de están-dares internacionales y garantizando la cooperación internacional. De esta manera, la información podrá viajar libremente entre países y existirá una protección real contra actos ilegales en la red.

Como agente de cambio, el gobierno debe migrar la mayor cantidad de servicios de cómputo a “la nu-be”, pues esto le permitirá ahorrar gran cantidad de recursos y mejorará la relación gobierno/ciudadanos, así como la relación entre gobiernos y entre ciudadanos.

Para que esto ocurra, las autoridades guberna-mentales deberán promover la neutralidad tecnoló-gica, difundir información sobre la calidad y precios que ofrecen los proveedores, y emitir recomendaciones para migrar a “la nube”, entre otras medidas.

En conclusión, creemos que cloud computing represen-ta una enorme oportunidad para mejorar la competencia económica y promover la competitividad del país de una forma simple y a menor costo, que puede beneficiar la vida de gran cantidad de personas “de un solo golpe”.

En ese sentido, esperamos que este artículo sirva tanto a los actuales gobernantes como a los nuevos aspirantes a gobernar en el 2012, para que consideren la relevancia de esta modalidad de ahorro para el sec-tor público y la posibilidad de transformar la relación con los ciudadanos. n

Rodrigo Gallegos es Director de Cambio Climático y Tecnología en el Instituto Mexicano para la Competitividad, [email protected]; Cecilia Reyes-Retana es Analista en el mismo Instituto, [email protected]

7 Este fue el estimado más conservador de los que exis-ten en la literatura sobre este tema

Page 88: Un tsunami de información

86 < Política digital

> Gobiernos abiertos

Una conversación...

De gobiernos abiertos y otras promesasPor Miguel Pulido y Jorge Soto

Con un tono fresco y entusiasta, dos representantes de organizaciones de la sociedad civil –Fundar y Citivox– nos comparten su correspondencia virtual sobre temas de transparencia y apertura de datos en manos de los gobiernos

Hola, Jorge,

¿Cómo estás? Hoy estuve pensando en nuestra conversación sobre la in-teracción del gobierno con la sociedad civil a través de los nuevos medios digitales y todo el potencial que ofrece, pero también en los riesgos que pueden existir si su uso se presta a la simple simulación.

Creo que si no se le da la atención y el tratamiento adecuados, muy pronto el gobierno abierto será simplemente otro término vacuo. Algo así como populismo digital.

Miguel

Ps. ¿Conoces a estos? http://www.frontlinesms.com

Qué onda, Miguel. Creo que tienes razón. El gobierno abierto debe ser una filosofía centrada en el ciudadano. Es una estra-tegia que sugiere que los mejores resultados se dan cuando se crean alianzas entre ciudadanos y gobiernos, en todos los niveles. Sus objetivos son la eficiencia, el manejo de la informa-ción, la transparencia y el involucramiento del ciudadano. Sus consecuencias son que incrementa la calidad de los servicios, aumenta la legitimidad, reduce costos y puede crear un capital social. Pero no estoy seguro que los gobiernos estén compren-diéndolo bien, lo que, por supuesto, incluye al caso mexicano.

Jorge

Ps. La plataforma de frontline que me enviaste es muy buena. De hecho, la hemos usado para la recepción de reportes por SMS. Mira esta otra: http://www.datamasher.com

Miguel Pulido es Director Ejecutivo de Fundar, Centro de Análisis e Investigación, A.C., [email protected] Jorge Soto es Cofundador de Citivox, [email protected]

Page 89: Un tsunami de información

edición sesenta y cinco > 87

> Gobiernos abiertos 10o aniversario

¡Felicidades, Jorge, el sitio está buenísimo! Esa es mi interpretación de una “segunda gene-ración de transparencia”, esto es: que integre información sustancial, relevante para al me-nos un propósito público de gran escala, útil para al menos una audiencia definida, pre-sentada en formatos de fácil uso y con mucha data disponible para los que quieren más.

Lo que me parece destacable es que lo ha-ya hecho una organización de sociedad civil en alianza con tu empresa. Eso confirma mi convicción de que, en muchos casos, los go-biernos no son tan abiertos, pero no por falta de recursos sino de voluntad política.

Me interesa mucho tu opinión sobre el alcan-ce real de su uso.

Miguel

Jorge, para ser franco, no creo que exista siquiera un conjunto de ele-mentos esenciales autoidentificables para lo que es gobierno abierto. O, al menos, no son del dominio público. Si me apuras, tampoco están muy claras sus fronteras con otros términos como e-government o transparencia foca-lizada. En Fundar estamos metidos en el tema –aunque no tanto desde la perspec-tiva técnica–, pero muchas veces resulta difícil entender el alcance y magnitud de un gobierno abierto tanto para los ciuda-danos como para los mismos funcionarios públicos.

Después de leer tu correo confirmo que la idea tiene un ADN propio. Pensan-do desde la trinchera de la sociedad civil, creo que –sumado a lo que señalas– un gobierno abierto es aquél que abraza y fomenta la transparencia, que estimula la rendición de cuentas y la participa-ción ciudadana usando la innovación y las nuevas tecnologías para establecer un diálogo entre ciudadanos y gobierno. ¿Cómo ves si armamos un “wikilinks” de páginas e información relevante relacio-nadas con gobierno abierto?

M.

Ps. Ya te estoy empezando a creer. La tecnología al poder.

¡Hola!

Una última característica de un gobierno abierto es que precisamente conecta a los ciudadanos y a los gobernantes a través de datos abiertos, innovación abierta y diálogo abierto (ahí radica la diferencia con el e-government o el simple uso de tecnologías Web).

Por ello, no es lo mismo tener información disponible –tal vez en formatos PDF o en una página Web–, que información accesible que puede manejarse y compararse para fomentar mejoras, aumentar el profesionalismo y generar ciu-dadanos informados.

Pero ojo. La tecnología por sí sola no crea ningún impacto. Los datos que se nos presentan diariamente como una sobrecarga cognitiva deben ser atenuados. El reto de la recepción de información está en la representación y visualización de datos. En estos tiempos de Twitter, debemos pensar en 140 caracteres que sean de fácil entendimiento para todos. Es por eso que la aplicación de la tecnología, alimentada con información procesada y aplicada al contexto, funciona como un medio entre el gobierno y el público en general. Ese es su verdadero potencial.

Ps. Me voy a Perú a presentar este proyecto http://www.promesometro.pe que hici-mos con Proética ¿Crees que refleje algún sentido de comunidad o de transparencia?

J.

¡Hola!

Lo interesante de la tecnología es el potencial que ofrece para modificar la manera como se hacen las cosas. El gobierno tam-bién debe percibir esta nueva utilización de recursos como una ventaja para reducir su costo de oportunidad con una mejor utilización de recursos. Este resultado proviene de información clara que conlleva a políticas más eficientes y efectivas.

Es poco común que un ciudadano se despierte por la maña-na con la intención de explorar datos y hacer visualizaciones, pero si se le proporcionan herramientas concretas que le per-mitan expresar sus necesidades y comunicarse, lo va a hacer.

Por ejemplo, que pueda reportar una queja desde su celular o pueda comunicarse con su diputado o senador y entender sus iniciativas a través de internet. Es por esto que los datos se deben usar para satisfacer proyectos o acciones concretas y para crear comunidades que fomenten la participación.

El poder de la tecnología está en el potencial de su uso estraté-gico, no en su simple aplicación.

Jorge

Page 90: Un tsunami de información

88 < Política digital

> Gobiernos abiertos

Wikilink “OpGob”Sitio Fuente Comentario

Open Data Kenya http://www.opendata.go.keExcelente desagregación de información y numerosas bases de datos.

Gobierno y datos abiertos del País Vasco

http://www.irekia.euskadi.net/ http://opendata.euskadi.net/w79-home/es

Dos páginas con información tanto de datos abiertos como de gobiernos abiertos. Aquí se explican claramente ambos conceptos.

Municipalidad de Lima http://www.munlima.gob.pe/datos-abiertos-mml.html Este sitio actualiza en forma periódica bases de datos sobre la gestión municipal.

Open Government Open Data

http://opengovernmentdata.org/ Sitio especializado de la Open Knowledge Foundation, con ligas a Manuales sobre Datos y Gobiernos Abiertos.

Portal de datos de gobierno de Chile

http://www.data.gob.cl/Cátalogo de datos de gobierno en distintos formatos accesibles.

Plataforma de gobierno abierto de Chile

http://www.modernizacion.gob.cl/Plan estratégico de gobierno digital, participación ciudadana e ideas para mejorar el estado.

Desarrollando América Latina

http://desarrollando.ciudadanointeligente.clPrimer concurso para desarrollar soluciones en seis países de América Latina realizado de forma simultánea.

Fuente: Elaboración de los autores.

Hola, Jorge,

Tocas un punto realmente destacado. Con frecuencia, los gobernantes se sienten amenazados por datos que no pueden controlar o por las interpre-taciones “maliciosas y perversas” que pueda hacer la ciudadanía con esa in-formación. Entonces suceden dos cosas: 1) justifican su negativa a implementar medidas debido a los “altos costos” o a la “imposibilidad tecnológica”; o 2) de plano nos dan toda la información ya procesada y sin margen de interpreta-ción de nuestra parte.

En todo caso, ninguna de estas alter-nativas me parecen aceptables. Lo cierto es que las oportunidades desaprovecha-das por usar las tecnologías afectan la calidad de la democracia y, en muchas ocasiones, la vida de las personas.

Además, tenemos un déficit en térmi-nos de actualización y modernización de procesos, uso de instrumentos de comunicación y herramien-tas tecnológicas en la “tramitología”. Si te fijas, los procesos burocráticos son esencialmente comunicativos, la forma de comunicarse ha cambiado, pero la formalidad burocrática sigue muy rezagada.

M.

Pues sí. El hecho de que muchos gobernantes no se hayan sumado a es-ta nueva tendencia es un problema de antropología, no de tecnología.

Como comentas, los resultados pueden ser muy positivos, pues la tecnología logra fortalecer lazos y es un espacio donde la sociedad civil se puede redefinir. La comunidad de experiencias compartidas que se va a crear a través de la suma de transparencia, participación y accesibi-lidad, invitan al ciudadano a formar parte del proceso de gobernanza, haciendo efectivas sus capacidades políticas.

A propósito de burocracias no modernizadas, hay una anécdota que lo ejemplifica: cuando Aeromexico cambió de sistema y todo dejó de funcionar, en la Profeco recibieron cerca de 90 mil menciones y quejas en Twitter, pero ninguna por la vía tradicional (para ellos, la “formal”). Obviamente no pasó nada. ¿A poco no es un buen ejemplo de los “procesos del siglo XX con necesidades del siglo XXI”?

Ya por último, ciertamente el ideal es alcanzar un gobierno partici-pativo donde los ciudadanos se sientan incluidos y con información ac-cesible. Pero como dices, no está fácil vencer el miedo o la ignorancia de los políticos.

Jorge

Hola, Miguel,

Creo que los nuevos medios y la tecnología no son la solución, pero sí son un nuevo es-pacio donde la sociedad civil se puede redefi-nir y organizarse, coordinarse e interactuar entre ellos y con sus gobiernos en tiempo real y establecer un nuevo diálogo.

Un abrazo,

Jorge

Page 91: Un tsunami de información
Page 92: Un tsunami de información