Apuntes de introduccion a la informatica

248
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html 1 de 45 18/04/2008 20:44 Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 1. Introducción. El método científico Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática

Transcript of Apuntes de introduccion a la informatica

Page 1: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

1 de 45 18/04/2008 20:44

Introducción a la Informática. Estudios GAP,facultad Derecho

Capítulo 1. Introducción. El método científico

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Informática

Page 2: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

2 de 45 18/04/2008 20:44

Ciencia en generalBiologíaCriminología

InicioContacte

La ciencia y el método científicoEjemplo del método científicoEscepticismo y pensamiento críticoAlgunos casos en la informática

1.1 La ciencia y el método científico

Es habitual que los humanos busquemos explicaciones sobre lo que vemos, sentimos y oímos, que unavez encontradas suelen ser complejas y variadas. Es la forma de trabajar de nuestra mente, que usa la inteligencia para comprender mejor nuestras experiencias.

Con frecuencia es suficiente designar con un nombre a una situación sucedida. Por ejemplo, un agricultorescucha un sonido fuerte procedente del cielo y dice "es un trueno". Pero no siempre el nombre nos da suficiente información sobre el tema, aunque si es tranquilizador el hecho de ser capaces de asignar unnombre, esto significa que hemos tenido una experiencia similar previamente y que podemos reconocerla.Nos indica que otras personas también han percibido el mismo tipo de hechos.

A partir de nuestra experiencia podemos deducir lo que ocurrirá a continuación. El agricultor dirá "lloverápronto". Hemos sido capaces de organizar nuestras percepciones de forma que podemos reconocerlas como modelos comunes y hemos aprendido a utilizar una información que nos ayuda a comprenderaquello con los que nos encontramos en la vida cotidiana. El agricultor puede decir "dios se ha enfadado ymanda estos rayos contra nosotros, pronto se compadecerá y enviará lluvia". En otras ocasiones el mismodios enviará sol, o viento, o nieve.

Teorías

Las teorías se desarrollan como respuestas a preguntas del tipo ¿por qué? o ¿cómo?. Se observa algunasecuencia de hechos, alguna regularidad en torno a dos o más variables y alguien se pregunta por qué estoes así. Una teoría intenta explicar los hechos y consiste en:

Un conjunto de definiciones que claramente describen las variables que se van a utilizarUn conjunto de supuestos que delinean las condiciones bajo las cuales se va a aplicar la teoríaUna o más hipótesis sobre el comportamiento de estas variablesPredicciones que se deducen de los supuestos de la teoría, y que se pueden contrastar con datosefectivos obtenidos de observaciones o experimentos.

Una de las principales consecuencias de las teorías es que nos sirven para predecir hechos que todavía nohan sucedido. De esta forma podemos comprobar si una teoría es correcta o no, haciendo experimentoscuyos resultados pueden no sólo demostrar que la teoría es falsa, sino también sugerir dónde se equivoca,y de esta forma se pueden proponer teorías corregidas.

Criterios de aceptación de una teoría

La pregunta que lógicamente aparece a continuación es ¿cuáles son los criterios necesarios para convencera alguien que una explicación dada es correcta?. Por supuesto, la respuesta depende del tipo de persona.

Page 3: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

3 de 45 18/04/2008 20:44

Para alguien que se inclina por aceptar una explicación teísta puede ser suficiente con verificar que laexplicación coincide con la de los libros religiosos, otras personas aceptan una idea si está avalada poralguien al que se le considera instruido e inteligente. Ambos argumentos seguro que no convencen a un auditorio científico.

Puede haber más de una explicación científica sobre una cuestión. A veces una explicación puede incluira otra, por ejemplo la teoría cinética de los gases engloba la ley de Gay-Lussac. Un examen de casos enlos que las nuevas teorías sobre la naturaleza han sido aceptadas puede ser de mucha ayuda.

Supongamos que en un período de la historia se haya aceptado una teoría sobre la naturaleza queproporciona una explicación de los sucesos y que es válida en muchos casos, llamémosla primera teoríaaceptada. Supongamos que esta teoría tenga algunos defectos que son reconocidos por lo menos poralgunos científicos, en estas condiciones debe proponerse una nueva teoría, en cierto modo para subsanarestos defectos. Seguidamente se comentan factores de gran ayuda con vistas a convencer a la comunidadcientífica que acepte una nueva teoría:

A) Reductibilidad

La nueva teoría debe ser por lo menos tan buena como la antigua. La norma que se sigue para demostrareste criterio consiste en demostrar que en las situaciones pertinentes la nueva teoría se reduce a la antigua.

Cuando se ha acumulado un gran cuerpo de información en un campo, cualquier modificación debe teneren cuenta todos los logros de las teorías existentes. Esto significa que toda persona que desee aportar algoen este campo, debe conocerlo muy bien, una teoría expuesta por un individuo inexperto es muy difícilque llegue a ser considerada.

El primer criterio puede resumirse de la siguiente forma: una teoría nueva debe conducir a los mismosresultados obtenidos con las teorías aceptadas previamente en todos los casos que se ha probado que sonútiles.

B) Innovación

La nueva teoría debe ser mejor que la antigua, no es suficiente dar los mismos resultados que la anterior.Se dice que ambas teorías son equivalentes cuando en todos los casos las predicciones de la nueva teoríason las mismas que las de la antigua y la elección entre una u otra es cuestión de gustos. Siverdaderamente la nueva teoría debe reemplazar a la anterior, debe añadir algo nuevo.

Por ejemplo, la teoría cinética de los gases no sólo reproduce todos loslogros de Gay-Lussac y Arquímedes, sino que ayuda a explicarfenómenos sobre los que las antiguas teorías no tenían nada que decir.Con ayuda de la teoría cinética podemos calcular, por ejemplo lavelocidad del sonido y la resistencia que el aire ofrece a los proyectiles que lo atraviesan.

Es más importante el caso en el que una teoría nueva es capaz deobtener predicciones correctas donde la antigua fallaba. Esto sucedióen el año 1900 cuando la física decía que los electrones de los átomosal describir órbitas a su alrededor deben radiar energía y por lo tantocaerían en espiral hacia el centro de la órbita. Como los átomos sonestables, pues caso contrario no estaríamos nosotros aquí, la teoríaanterior no es correcta. Fue necesaria la aparición de la Física Cuánticapara explicar los hechos experimentales. Una nueva teoría debe

explicar hechos que no hayan sido abarcados por teorías previamente

Page 4: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

4 de 45 18/04/2008 20:44

aceptadas o que hayan sido predichos de forma incorrecta.

C) Testabilidad

Debe ser posible comprobar que una teoría es correcta. Normalmente elargumento clave a favor de una teoría es que realice una predicción realdel resultado de un experimento que no haya sido todavía efectuado. Lateoría de Maxwell de la electricidad y magnetismo propuesta en 1873 predijo que las ondas electromagnéticas podrían ser enviadas a través delespacio a velocidades próximas a las de la luz, estas ondas fuerondescubiertas por Heinrich Hertz en 1887. La comprobación final llegó el12 de diciembre de 1901 por parte, entre otros, del italiano Guillermo Marconi, que patentó su descubrimiento en 1900.

Existen teorías tan indefinidas o complicadas que se resisten a una comprobación experimental. ElOráculo de Delfos en la antigua Grecia, proclamaba que era capaz de predecir el futuro, pero sus aseveraciones eran siempre tan indefinidas que si la predicción no resultaba cierta podía argumentarse quehabía sido mal interpretada. Una teoría que siempre puede reajustarse de forma que explique cualquierresultado experimental no puede ser satisfactoria.

Deben poderse obtener consecuencias de una nueva teoría que difieran de las demás teorías similares, yademás estas consecuencias deben prestarse a comprobación experimental.

D) Elegancia

Una teoría sobre la naturaleza debe ser bella. Este es otro elemento (llamémosle elegancia o belleza) que ayuda a que una nueva teoría tenga mejor acogida. Los científicos creen que las formas de las leyes de lanaturaleza son simples, las teorías físicas más importantes del pasado son muy simples, como F=ma,

E=mc2.

Una nueva teoría debe inclinarse por un enunciado universal de sus principios que sea breve y de grancontenido.

Como expuso Henri Poincaré (1854-1912), en la conferencia que ofrecióen la Sociedad Psicológica de París.

... ¿cuáles son las entidades matemáticas a las que les atribuimos este

carácter de belleza y de elegancia, las que pueden producirnos tal

emoción estética? Son las que tienen sus elementos armoniosamente

dispuestos, de tal forma que la mente puede captar sin esfuerzo su

totalidad, al tiempo que percibe sus detalles ...

E) Otras consideraciones

Finalmente se ha de llamar la atención sobre los criterios que no deben tenerse en cuenta. Por ejemplo noes necesario que una teoría científica esté de acuerdo con las ideas de V. I. Lenin, por poner un ejemplo, sin negar en ningún momento la gran importancia de dicha persona. O tampoco es necesario que estéconforme con respecto a lo que nos dice la Biblia sobre la creación, aunque mucha gente lo crea, sin darsecuenta que dicho documento es una novela.

Page 5: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

5 de 45 18/04/2008 20:44

Método científico

La elección no es entre teoría y observaciones, sino entre mejores o peores teorías para explicar lasobservaciones; los hechos son intocables. Pero esto no quiere decir que las teorías sean humildessirvientes de las observaciones, de hecho casi todos los científicos están más interesados en las teorías,viéndose los experimentos como unos sirvientes que permiten decidir entre varias teorías.

El método científico se puede describir mediante el siguiente proceso:

1. Plantear un problema2. Observar algo3. Buscar una teoría que lo explique4. Hacer predicciones usando esa teoría5. Comprobar esas predicciones haciendo experimentos u observaciones6. Si los resultados están de acuerdo con la teoría, volver al paso cuatro, si no, volver al tercero

En la práctica, el método científico es más complicado. No siempre está clara la metodología para hacerlos experimentos, que cambia de un área de la ciencia a otra. Hay "experimentos" que se pueden hacer enun ordenador, y otros donde esto no está tan claro. Los resultados han de ser aceptados por expertos en elárea correspondiente antes de ser publicados. Los experimentos deben repetirse independientemente, y aveces no se consiguen los mismos resultados. Las demostraciones han de ser verificadas, y

Page 6: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

6 de 45 18/04/2008 20:44

ocasionalmente se encuentran errores. Un ejemplo real propuesto a escolares, se explica en detalle en la web "Curioso Pero Inútil (CPI)", sobre la reacción que se produce al mezclar mentos con algunas bebidaresfrescantes gaseosas de cola.

Enlace recomendado: Los premios "Anti Nobel" 2004

En matemáticas se admite el especular sobre las consecuencias de alguna famosa conjetura no demostradacon ¡muchísimo cuidado de anunciar esta dependencia! Algunos experimentos son tan laboriosos quedeben hacerse entre varios científicos, o partes del experimento se asignan a otros expertos (análisisestadístico, construcción de instrumental e instalaciones, programas informáticos). Hay experimentos querequieren años o incluso decenios para realizarse (exploración espacial), para construir el instrumental(CERN), o para analizar los datos.

Algunas observaciones ocurren en fechas inaplazables (eclipses) o lugares inconvenientes (volcanes). Aveces se pierden irremisiblemente parte de los datos, que hay que suplir de alguna forma. Hay experimentos irrealizables con la tecnología disponible, o demasiado caros, o que requieren demasiadotiempo (evolución). No sólo se cambian las teorías, sino también los axiomas, definiciones, modelos yclasificaciones. Algunos filósofos arguyen, con cierta razón, que no existe El método científico, sino muchos métodos científicos.

¿Es infalible?

Nótese un aspecto importante del método científico, no acaba nunca; no existe una "verdad científicaabsoluta". Pero esto no disminuye el valor de las aplicaciones de la ciencia; el principio de Arquímedessigue explicando por qué los barcos flotan. ¿El método científico es infalible? Sí y no. No, en el sentidoque suele producir teorías provisionales que son falsas. Hablaremos más de esto después.

Sí que es infalible en dos sentidos, por una parte, el método científico nunca asegura nada de formaconclusiva, así que no puede equivocarse. Dicho de otra forma, si demuestras que alguna teoría científicaestá equivocada, estás formando parte del mismo método científico, que se está autocorrigiendo gracias atu ayuda. Esto puede parecer una tontería hasta que se compara con otras formas de obtener conocimiento.

Pero en estos casos tampoco se equivoca, porque, dada la naturaleza inexperimentable de estosfenómenos, el método científico no valida nada al respecto ni cierto ni falso. De nuevo, esto puedeparecer una tontería hasta que se recuerdan los problemas que otras doctrinas tienen para delimitar sualcance.

También se puede argumentar que si bien es posible que el método científico nosea suficiente para conocer toda verdad, por lo menos es necesario el tener alguna forma de autocrítica. Recordemos una opinión de Francis Crick, codescubridor de la molécula de ADN (ácido desoxiribonucleico, DNA) recogida en su libro "Labúsqueda científica del alma"; según él, nuestro cerebro evolucionó cuandoéramos cazadores-recolectores, y por lo tanto es un mero accidente que con dichoórgano seamos capaces hoy día de comprender la complejidad y abstracciónpropias de la ciencia moderna, ya que de poco nos servía esta habilidad para dejardescendientes en la época en que nuestro cerebro alcanzaba su forma actual. Comotoda cara tiene su cruz, este órgano tan complejo y capaz como es nuestro cerebro,nos proporciona un instrumento inapreciable para poner en marcha la ilimitada

capacidad que tenemos para engañarnos a nosotros mismos. Y añade Crick, más o menos, que sin unacierta disciplina como proporcionan la ciencia y el escepticismo, es muy dudoso que el género humanohubiese sido capaz de progresar culturalmente.

Page 7: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

7 de 45 18/04/2008 20:44

A mediados del siglo XIV, el filósofo inglés Guillermo de Occam, formuló lo que se podría llamar unprincipio, un principio del pensamiento, y que ha pasado a la historia de la filosofía de la ciencia. Es elllamado "principio de economía del pensamiento", o "principio de parsimonia", o más comúnmente, la"navaja de Ockam".

En su formulación original, esta regla dice "Entia non sunt multiplicanda sine necesitate", que los quesaben de latín dicen que se traduce como que "los entes no deben ser multiplicados si no es necesario".Según este principio, si tenemos dos modelos científicos para explicar un fenómeno, aquel que sea más"sencillo" será digno de mayor consideración. En realidad, esto no es así. Como el método científicoimpone, ha de ser la comprobación experimental, la verificación empírica, la que ha de decidir entre losdos modelos. Pero, en muchas ocasiones, la complejidad del fenómeno a estudiar impide una eficazcomprobación empírica, o la misma prueba experimental no permite decidir entre los distintos modelos.

Un símil simple sería éste: si las teorías científicas fuesen programas de ordenador, y tuviésemos tres"programas" para explicar lo mismo, nos quedaríamos con el que ocupase menos espacio en nuestroordenador. Esta podría ser, por tanto, una formulación más elaborada, o más próxima a una formalización,del célebre principio.

Karl Popper y el criterio de demarcación

La filosofía de la ciencia en el siglo XX se ha constituido en una actividad cuya principalpreocupación ha sido el problema del cambio científico. Inherente a este problema se encuentra elproblema de la evaluación de teorías científicas. ¿Hay algo así como un cambio científico? ¿existeprogreso en la ciencia? En caso tal, ¿es susceptible de una teoría de la racionalidad científica?

Diversos filósofos se han hecho famosos por sus aportaciones a esta faceta de la filosofía: Paul K.Feyerabend (1924-1994), Imre Lakatos (1922-1974), Thomas S. Kuhn (1926-1996) y Karl Popper(1902-1997).

El problema de la demarcación tiene que ver fundamentalmente con la pregunta: ¿Cómodiscriminar entre una hipótesis científica y otra que fuese más bien una especulación filosófica ometafísica o pseudociencia? La solución racional la aportó Popper.

Lo que diferencia a la ciencia de otros tipos de conocimiento es su posibilidad sistemática de serRECHAZADA por los datos de la realidad. A diferencia del enfoque empírico-inductivo, según elcual un enunciado es científico en la medida en que su VERACIDAD pueda ser confirmada por laexperiencia, en el enfoque racionalista de Popper y sus seguidores, un enunciado será científico enla medida en que más se arriesgue o se exponga a una confrontación que evidencie su FALSEDAD,esto es el criterio de demarcación.

Según esta posición, la ciencia se distingue de otros conocimientos por ser "falsable" (y no"verificable"), es decir, porque contiene mecanismos orientados a determinar su posible falsedad.La base de este criterio está en la misma crítica al empirismo y al inductivismo: por más que unenunciado se corresponda fielmente con miles de millones de casos de la realidad, en principio nadaimpide que de pronto aparezca un caso contradictorio.

Si, por ejemplo, observamos milones de cuervos y vemos, además, que todos son negros, no hayrazón lógica para concluir en que todo cuervo es necesariamente negro, ya que siempre cabe la

Page 8: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

8 de 45 18/04/2008 20:44

posibilidad de que aparezca alguno de otro color. Y, dado que el conjunto completo de todos loscasos posibles escapa a la observación del ser humano, nunca será posible VERIFICAR ocomprobar la verdad de un enunciado como "todos los cuervos son negros". Pero, en cambio, síserá siempre posible determinar su FALSEDAD, para lo cual bastará un solo caso en que no secumpla la ley. Por tanto, el conocimiento científico no persigue demostrar su veracidad, sinoexponerse a cualquier caso que evidencie su falsedad. Así, todo enunciado científico podrá sermantenido sólo provisionalmente (aún cuando transcurran siglos), mientras no aparezca un casoque lo contradiga (es decir, jamás podrá ser decisivamente VERIFICADO); pero, en cambio, sípodrá ser refutado y desechado definitivamente apenas surja un dato que lo niegue.

En síntesis, los enunciados científicos se distinguen justamente por estar siempre expuestos apruebas de FALSEDAD. De esta forma, el "falsacionismo" viene a ser el criterio de demarcaciónentre ciencia y no-ciencia y, por tanto, es la magnitud de su "contenido de falsedad" lo que hacemás o menos científico a un conocimiento dado. De lo anterior se infiere que la meta de la ciencia yde la investigación jamás podrá ser la CERTEZA objetiva, la cual no existe, sino, más bien, la"verosimilitud", o sea, el grado en que un enunciado sea capaz de salir ileso de las pruebas defalsación y de prevalecer ante otros enunciados competidores por su mayor capacidad de coberturaante los datos de la experiencia.

A diferencia del positivismo lógico, el racionalismo desecha el concepto de "verdad objetiva einmutable", acepta la relatividad del conocimiento científico, admite los factores sociales eintersubjetivos que condicionan su validez y, tal vez lo más importante, plantea su carácter deCORRECTIBILIDAD sobre la base de constantes procesos de falsación ante los hechos y ante otrasopciones de conocimiento.

Así, y de acuerdo a esta interpretación, mientras el conocimiento especulativo idealista (losdiscursos retóricos, por ejemplo, o políticos, religiosos, subjetivistas, psicologistas, etc.) se vale desubterfugios para evadir su confrontación con la experiencia y para escapar a toda evidencia defalsedad, el conocimiento científico se valida, por encima de todo, en sus posibilidades de error.Desde este ángulo queda plenamente aceptado y justificado el hecho de que sea en la ciencia,precisamente, donde se descubra la mayor cantidad de errores del conocimiento humano, ya queotros tipos de conocimientos evaden las confrontaciones o riesgos y esconden sus debilidades.Como contraparte, es también en la ciencia donde se halla el mayor número de rectificaciones yevoluciones, mientras otros tipos de conocimiento permanecen estancados e improductivos.

En resumen, el esquema de Popper del método científico es muy sencillo y él mismo lo expresó ensu forma más condensada en el título de su famoso libro, Conjeturas y refutaciones. La ciencia essimplemente asunto de tener ideas y ponerlas a prueba, una y otra vez, intentando siempredemostrar que las ideas están equivocadas, para así aprender de nuestros errores.

Actualmente se están viendo gran cantidad de anuncios y artículos sobre métodos o técnicaspertenecientes a la pseudomedicina. Son claros ejemplos de irracionalidad, y de lo que no debe ser nuncauna teoría científica.

Seguidamente se comentan escuetamente algunas terapias pseudocientíficas muy llamativas, que algunosde los lectores habrán sufrido alguna vez.

Homeopatía .- Inventada por el médico alemán Samuel Christian Hahnemann (1755-1843), trata lasenfermedades con disoluciones extremadamente diluidas (de hecho suele ser agua edulcorada). Su no validez se justifica de forma comprensible sin ser experto en ciencias ni en medicina, sólo con el sentido

Page 9: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

9 de 45 18/04/2008 20:44

común.

¿Por qué no creo que la homeopatía seaefectiva?

¿Qué hace alguien normalmente cuando se siente enfermo? Generalmente, irá a ver a unmédico. ¿Por qué? Porque un médico se supone que es la persona más cualificada paraestudiar los síntomas que presenta, realizar todas las exploraciones necesarias paradeterminar con exactitud que está afectando a su salud, administrar sustancias de probadaefectividad en estos casos o intervenir de manera más enérgica realizando una operación,y llevar a cabo el seguimiento de la evolución del paciente. Si se decide a administraralguna sustancia al paciente, ¿cómo se determina que esa droga en particular tiene altasposibilidades de ser eficaz?.

Desde siempre se ha conocido la importancia del efecto placebo en el proceso decuración. El efecto placebo es un efecto no específico consistente en la curación de unaenfermedad por el simple hecho de tratarla, ndependientemente del tipo de tratamientoque se siga. Paracelso ya advertia en el siglo XVI "Ha de saberse que la voluntad es un poderoso ayudante de la medicina", en muchos casos la simple confianza del paciente enel médico puede producir una curación, y a veces ni siquiera esta confianza es necesaria.Por lo tanto si se pretende determinar el efecto de una nueva droga sobre una enfermedadse hace imprescindible eliminar el sesgo introducido por el efecto placebo; esto puede realizarse mediante un ensayo o test doble ciego.

Imaginemos un grupo de pacientes bastante homogéneo en cuanto a edad, hábitos,historial clínico, etc... que padecen una misma enfermedad y sin que ellos lo sepan,dividámoslo en dos, Grupo A y Grupo B, por ejemplo. Llamemos a la nueva droga quepretendemos estudiar Droga I y obtengamos una sustancia totalmente inofensiva y sinefectos terapéuticos como por ejemplo, cápsulas con agua destilada o pastillas de lactosa;llamemos a esta sustancia Droga II. En un ensayo doble ciego se administra a uno de los grupos, pongamos el Grupo A, una de las dos drogas, digamos la Droga I, mientras que alGrupo B se le administra la Droga II; pero de manera que ni los pacientes ni los médicosque los tratan saben a que grupo pertenece cada uno ni que drogas les estan siendo suministradas. Concluída la experiencia se reunen los datos de los dos grupos y seanalizan para determinar si el porcentaje de curaciones en el Grupo A, para el que seempleó la Droga I, es mayor que en el Grupo B, al que se suministro la sustancia inócua,la sustancia placebo, Droga II. Si esto es así y se demuestra así en otros ensayos similaresrealizados sobre otros grupos se concluye que la Droga I es eficaz contra esa enfermedad.De todos modos ¿por qué se producen curaciones en el Grupo B si sólo se le estáadministrando una sustancia totalmente inócua?, por una parte tenemos el hecho de queel simple tratamiento, aunque sea con una sustancia inútil, ayuda a activar losmecanismos de defensa del propio organismo, por otra parte tenemos el hecho de que muchas enfermedades tienen componentes psicosomáticos y finalmente tenemos el hechode que un gran número de enfermedades presentan un cierto período de remisión, laenfermedad aparece, progresa y después desaparece aunque no se realice ningúntratamiento.

Page 10: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

10 de 45 18/04/2008 20:44

Esta introducción puede parecer algo extensa pero será muy útil a la hora de discutiralgunos puntos relativos a la homeopatía.

La homeopatía se originó en Alemania a principios del siglo XIX. Samuel Hahnemann(1755-1843) publicó en 1810 un voluminos libro titulado "Organon", en el desarrollaba yexponía toda la homeopatía y es esa misma homeopatía, siguiendo básicamente losmismos principios expuestos en "Organon", la que se sigue practicando hoy en día. Losdos pilares básicos de la homeopatía son la Ley de Similia y la Ley de los Infinitesimales.Veamos ahora con calma como son de ridiculos estos dos principios fundamentaleshomeopáticos.

La Ley de Similia asegura que una sustancia curará una cierta enfermedad si suministradaa una persona sana provoca los mismos síntomas o sintomas muy parecidos a los queproduce dicha enfermedad. De esta ley, o supuesta ley, deriva el nombre de homeopatía:homois "similar" y pathos "sufrimiento", en griego. Para ser uno de los principios básicosde la homeopatía no deja de ser bastante sorprendente. Si alguien sufre una intoxicaciónpor arsénico. ¿se curará administrándole más arsénico? Yo diria que no. De todos modos,dado que cualquier sustancia puede emplearse como un remedio homeopático, ¿cómo sesabe que síntomas produce una sustancia determinada?. Según Hahnemann se debiarealizar un proceso de prueba. Se debía administrar a una persona sana cantidades cadavez mayores de esa sustancia hasta que aparecieran los primeros síntomas deintoxicación, dichos síntomas debían compararse con las enfermedades catalogadas y sieran parecidos a los síntomas de alguna enfermedad, esa sustancia pasaba a considerarseútil para el tratamiento de dicha enfermedad.

La Ley de los Infintesimales nos dice que cuanto más pequeña sea la dosis más poderososerá el efecto de la sustancia. Los efectos de la sustancia se potencian con la dilución dela misma; cuanto más diluida esté la sustancia más poderoso será su efecto. Los remedioshomeopáticos se preparan siguiendo diluciones decimales. Se parte de una cierta cantidadde disolución, se extrae una décima parte y a dicha fracción se le añaden nueve decimosde agua destilada, se agita la nueva mezcla resultante y se repite el proceso varias veceshasta llegar al grado de dilución deseado. Son muy habituales grados de dilución de1/1000000 o 1/10000000, y en algunos casos se llega a grados de dilución tan extremosque la probabilidad de encontrar alguna molécula de la supuesta sustancia activa en lapreparado final es inferior al 50%. Si la sustancia no es soluble en agua puede molerse muy finamente y mezclarse con lactosa, siguiendo un proceso de dilución similar peroempleando la lactosa en lugar de agua destilada. Un compuesto que es prácticamenteagua destilada o lactosa debería resultarnos familiar, no es más que un placebo como losque se emplean en los ensayos clínicos doble ciego!!. Del mismo modo que en nuestroGrupo B había pacientes que se curaban, algunos de los pacientes que acuden a unhomeópata se curarán, ¿significa eso que los remedios homeopáticos son efectivos?Después de lo explicado en la introducción vemos que la respuesta es un NO rotundo.

En el siglo XIX la medicina no estaba muy desarrollada, se basaba en principios erróneosy los remedios que se suministraban solían ser muy agresivos, incluyendo por ejemplo lassangrías entre sus prescripciones habituales.

Con este panorama, no es extraño que la homeopatía tuviera un cierto éxito.Suministrando remedios totalmente inócuos al menos no hacía empeorar la salud delpaciente, y en algunos casos este podía superar la enfermedad y curarse por si solo de unamanera mucho más satisfactoria que con la intervención de la medicina de la época. Sinembargo, hoy en día la situación es radicalmente diferente, la medicina y la farmacologíaactuales son disciplinas que se rigen por el método científico y han conseguido éxitos sin

Page 11: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

11 de 45 18/04/2008 20:44

precedentes. Por otra parte, ningún preparado homeopático ha superado nunca un ensayodoble ciego realizado con un mínimo de garantías contra el fraude o el engaño.

Después de todo lo dicho cabe preguntarse ¿por qué la homeopatía sigue siendo popular?¿cómo se las arreglan los homeópatas para justificar lo injustificable?. Un punto quesuele destacarse a menudo es que la medicina trata enfermedades mientras que lahomeopatía trata enfermos. Se arguye que la medicina sólo mira de atacar los síntomasde las enfermedades, mientras que la homeopatía trata al paciente como un todo, (sea esolo que sea). Por supuesto,esto es un disparate, porque si bien es cierto que hay casos en que se prescriben medicinas para eliminar o mitigar los síntomas, (la más típica sería laaspirina), se olvida que esto no constituye la norma. Por ejemplo, la medicina dió un pasode gigante con el descubrimiento de los antibióticos, y precisamente una sustancia comola penicilina lo que hace es atacar la raiz del problema en ningún caso los síntomas. Porsu parte, ¿qué hace la homeopatía?

Estudia los síntomas del enfermo y administra en cantidades infinitesimales unasustancia que en grandes cantidades provoca esos mismos síntomas en una persona sana,en otra persona!!. ¿Quién pone más enfasis en los síntomas?; además, diría que con esteproceder no se trata al paciente como un individuo único o como un todo.

Otro punto que se destaca de la homeopatía es que las disoluciones infinitesimales queprescribe sólo incluyen productos naturales. Esta es una falacia que se podría aplicar a unmontón de "medicinas lternativas".

Parece que los productos naturales son per se beneficiosos pero se olvidan de que la naturaleza está llena de venenos y tóxinas de origen vegetal o animal potentísimos. Losantibióticos, empleados por la medicina no por la homeopatía, tienen su origen en unproducto natural pero no olvidemos que los productos naturales están expuestos a lacontaminación; por lo tanto la purificación de estas sustancias o su síntesis artificialrepresenta un gran paso hacia adelante.

La Ley de los Infinitesimales viola los principios establecidos por la medicina, lafarmacología, la física o la química, ¿cómo la justifican los homeópatas?. Hanhemannpensaba que a medida que la sustancia perdía propiedades "materiales" a base dediluciones sucesivas, ganaba propiedades "espirituales". Hoy en día, las propiedades"espirituales" han sido reemplazadas por energías misteriosas o por vibraciones de no sesabe que; ningún culto pseudocientífico actual sería tal sino mencionara energías que nopuede detectar ni poner de manifiesto, y la homeopatía no es ninguna excepción.

En relación a esto será interesante destacar el caso del Dr. Benveniste. Benvenisteencabezaba un artículo publicado en el año 1988 en Nature, en el que parecía establecerque una disolución muy diluída de un cierto anticuerpo podía desencadenar una reacciónen leucocitos humanos. Lo sorprendente era que "muy diluido" significaba en este caso

una dilución de una parte entre 10120!!.

Esto significaba que no existía ni un solo anticuerpo en la disolución final. ¿Cómo loexplicaba Benveniste? Para él, el agua tenía una especie de "memoria". Podía retener laestructura del anticuerpo, de modo que aunque este ya no estaba presente, el agua podíadesencadenar la reacción en los leucocitos.

Parecía que este estudio daba una cierta credibilidad a la Ley de los Infinitesimales; sinembargo, habría que advertir primero que ese estudio estaba en parte subvencionado poruna importante empresa francesa de productos homeopáticos. Por supuesto, esto por si

Page 12: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

12 de 45 18/04/2008 20:44

mismo no desacredita la investigación realizada, pero un equipo enviado por Nature allaboratorio de Benveniste demostró que los experimentos estaban estadisticamente malcontrolados, que no se habían tomado medidas para eliminar causas de error sistemáticoy no existía una base sólida para las afirmaciones que se realizaban en el artículo. Elexperimento sólo fué reproducido por un equipo israelí; curiosamente la personaencargada de realizar el recuento de leucocitos que habían reaccionado era la misma!!.Parece pues que la Ley de los Infinitesimales sigue sin confirmación experimental y siguecontradiciendo todas las leyes conocidas de la física y de la química.

La homeopatía es un culto médico que se aprovecha de la ignorancia de la gente paraprescribir remedios inútiles y además cobrar por ello. La salud de las personas es algodemasiado delicado como para permitir que se juege con ella y es por ello que al igual que los "productos milagro", los productos homeopaticos deberían desaparecer de lasfarmacias.

Documento elaborado por Ferran Terrasa.

Senoterapia .- Inventada por un médico italiano, hace pocos años. Se trata de diagnosticar enfermedadespor la forma de los pechos femeninos y curar con un masaje suave sobre los mismos.

Magnetizadores.- Para imanar al agua, engañan a mucha gente, pues el agua y fluidos análogos no sepueden imanar.

Magnetizadores. Robert Park, de laSociedad Física Americana

"No conozco ningún científico que se tome esta afirmación seriamente... es otra manía.Ellos van y vienen con brazaletes de de cobre y cristales, y ese tipo de cosas, y estopasará también" - Robert Park, de la Sociedad Física Americana"

"Los átomos de hierro de un iman están atestados juntos en un estado sólido en el que unátomo está junto a otro. En tu sangre solo 4 atomos de hierro se encuentran en cadamolécula de hemoglobina, y están separados por distancias demasiado grandes como paraformar un imán. Esto es fácilmente comprobable pinchando tu dedo y colocando unagota de sangre cerca de un imán." - Michael Shermer

La Magnetoterapia es un tipo de "medicina alternativa" que afirma que los camposmagnéticos tienen poderes curativos. Algunos afirman que los imanes pueden ayudar alos huesos rotos a curar más rápido, pero la mayoria del material proviene de aquellosque afirman que calma el dolor. Gran parte del soporte a estas nociones proviene detestimonios y anécdotas, y puede ser atribuido a "efectos placebo y otros efectosacompañantes de su uso" (Livingston 1998). No hay casi ninguna evidencia científicaapoyando la magnetoterapia. Una grandemente publicitada excepción es un estudio adoble ciego realizado en la Escuela de medicina Baylos que comparó el efecto de imanese imanes simulados en la rodilla enferma de 50 pacientes de post-polio. El grupoexperimental reportó una significativamente mayor disminución del dolor que el grupode control. No ha habido ninguna repetición todavía de este estudio.

Page 13: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

13 de 45 18/04/2008 20:44

Un estudio menos publicitado en el Ney York College de Medicina Podológica encontróque los imanes no tenían ningún efecto en la curación del dolor de talón. Tras un periodode 4 semanas, 19 pacientes llevaron una plantilla moldeada que incluia una láminaimantada, mientras 15 pacientes llevaron la misma plantilla pero sin la lámina. En ambosgrupos el 60% informó de mejoras.

A despecho de que no haya habido virtualmente ningún test científico de la terapiamagnética, una creciente industria está produciendo brazaletes magnéticos, bandas,plantillas, fajas, colchones, etc... y anunciando milagrosos poderes para sus productos. El mercado magnético puede estar aproximandose a los 150 millones de dólares anuales(Collie). (Lerner anuncia que las ventas en EE.UU. pueden ser de medio millar demillones, y que en el resto del mundo se llega como mucho a dos veces esa cifra) Los imanes se estan convirtiendo en la elección preferidda para quiroprácticos y otros"especialistas del dolor". La anteriormente alfarera Marylynn Chetkof vende productos deRussell Biomagnetics, y anuncia que los imanes son mejores que los calmantes, o quevivir con dolor (Collie). Incluso un contratista de la construcción como Rick Jones estatratando de invertir en la actual locura magnética. El ha fundado una compañíadenominada Optimum Health Technologie Inc.s (Tecnologias para la Salud Optima) paracomercializar su "Magnassager" (Magneto-masajeador), un vibrador portátil con imanesal precio de 489$. Jones anuncia que su invento "no es solo otro artefacto para darmasajes" El dice que usa un campo magnético para ayudar a circular la sangre mientrasmasajea los músculos. Jones obtuvo 300000 $ de los inversores y gastó todo ello en"desarrollo de producto y márketing" Ni un centavo se destinó a estudios científicos delaparato antes de enviarlo al mercado, aunque el le dio 20000$ a un Fisiólogo para evaluarsu aparato "para asegurarme de que no era un cachivache".

La afirmación de que el magnetismo ayuda a "circular la sangre" es común entre losdefensores de la magnetoterapia, pero no hay ninguna evidencia científica de que losimanes le hagan nada a la sangre. Aun en contra de las evidencias de que los imanes no tienen otro efecto que el placebo, abundan las teorias de cómo funcionan. Algunos dicenque los imanes son como un masaje shiatsu; otros afirman que los imanes aceptan alhierro de los hematíes, incluso otros afirman que los imanes generan una reacciónalcalina en el cuerpo (Collie). Bill Roper, jefe de Magnetherapy afirma que "Los imanesno curan ni calman nada. Todo lo que hace es colocar tu cuerpo en su estado normal para que pueda empezar el proceso de curación" (Collie). Como ha averigaudo esto no quedadel todo claro.

Algunos defensores de la terapia magnética parecen basar su creencia en unaconvencimiento metafísico de que todas las enfermedades se deben a una especie dedesequelibrio o dis-harmonia en la energía. El equilibrio o flujo de energíaelectromagnética debe ser restaurado para recuperar la salud, y suponen que los imanesson capaces de hacer eso.

Los más rabiosos abogados de la terapia magnética son atletas como Jim Colbert y JohnHuston (golf), Dan Marino (fútbol americano) y Lindsay Davenport (tenis). Su creenciaestá basada en poco más que razonamiento post-hoc. Es posible que el alivio que uncinturón magnético proporciona a un golfista con un problema de espalda, por ejemplo,no sea simplemente una función del efecto placebo o de la falacia regresiva. Bien puedeser debida a la ayuda de la aportación de calor adicional que el cinturón provoca. Elproducto funcionaría igual de bien sin los imanes. Además, los deportistas no son dadosa los tests científicos más de lo que lo son los fabricantes de magnetocacharros.

Los atletas no son los únicos enamorados de los poderes curativos de los imanes. El Dr.

Page 14: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

14 de 45 18/04/2008 20:44

Richard Rogachefsky, un cirujano ortopédico de la Universidad de Miami, afirma haberusado imanes en cerca de 600 pacientes, incluidas persoas que habian sido disparadas. El dice que los imanes "aceleran el proceso de curación". ¿Su evidencia? Puede explicarlomirando los rayos X. El Dr. William Jarvis es escépticoa este respecto. Dice: "Cualquierdoctor que se apoya en impresiones clínicas, en lo que piensan, en lo que ven, es un loco"(Collie). Hay una buen razón por la que los científicos hacen estudios controlados a dobleciego para testear la eficacia causal: para prevenir la Autosugestión.

El Dr. Mark S. George, un profesor asociado de psiquiatría, Neurología y Radiología enla Universidad Médica de Carolina del Sur, en Charleston, hizo un experimentocontrolado sobre el uso de imanes para tratar la depresión. Sólo estudió 12 pacientes en 2semanas, sin embargo, asi que sus resultados son poco significativos.

Mientras las ventas de productos magnéticos continuan aumentando hay unos pocosestudios científicos en marcha. La Universidad de Virginia está testando imanes enpacientes de fibromialgia. Las universidades de Miami y Kentucky estan haciendo pruebas en gente con síndrome de tunel carpiano (Collie), En el presente, sin embargo,no tenemos ninguna buena razón para creer que los imanes tienen ningún poder curativomás que los cristales o los brazaletes de cobre.

Ionizadores de aire.- Dicen aumentar los iones negativos en el aire por que son maravillosos para todo. Estudiados los aparatos, muchos ni siquiera son capaces de formar iones.

Acumulador de orgones.- El orgón es una energía telúrico-sexual, son como las partículas elementalesde la energía sexual (como los quars que forman el óctuple sendero, pero de orgasmo), y tener muchas, dice el alemán que promociona este engaño, es muy conveniente.

Psicoanálisis.- Fascinante forma, inventada por Freud para sacar dinero a la burguesía y crédulos por elestilo.

Técnica biocibernética quántica holográmica.- Inventada por un autodenominado "profesor" Pere Ribalta, de Sabadell. Actualmente ha sido condenado a 15 años de cárcel, por los daños causados enenfermos que siguieron sus tratamientos, incluso con resultado de muerte.

Curación espiritual.- Los espíritus benéficos de los cielos o incluso el mismo Dios curan nuestrasenfermedades siempre que tengamos fe y a veces dinero que donar.

a) Ciencia Cristiana.-Especie de Iglesia médica, que cura a base de fe. La curación es la salvacióneterna. La oración y no cometer pecados la mejor profilaxis.

b) Lourdes, Fátima. Mendujorge y más.- Milagros católicos para todos los gustos. La Virgen Maríaen plan enfermera.

Las religiones casi siempre han considerado de alguna forma la persistencia de vida después de la muerte, incluso hay personas que han estado muy graves que relatan hechos que aparentemente están fuera de lanormalidad. Todas estas creencias son falsas, estando actualmente justificados dichas situaciones desde el punto de vista puramente científico.

Otras creencias irracionales

Astrología.- En todo el mundo se publican miles de secciones astrológicas, los tan conocidos"horóscopos", aparecen indiscriminadamente en periódicos, revistas, folletos y en los últimos años enInternet. La astrología presupone que la posición de los planetas y el Sol en una determinada franja delcielo; llamada constelaciones del zodiaco, influyen en nuestras vidas. Según dicen los astrólogos (no

Page 15: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

15 de 45 18/04/2008 20:44

confundir con astrónomos) la posición del Sol a la hora de nacer marca de por vida las característicasparticulares de una persona.

Carece de cualquier base científica, las fuerzas gravitacionales de los planetas son insignificantes sobreuna persona en el momento de nacer; además es absurdo que cada doceava parte de la población terrestretenga un futuro igual. Cualquier intento de verificación experimental no corfirma la validez de estapseudociencia.

Enlace recomendado: Una revisión crítica de la astrología

Enlace recomendado: Visión crítica de la astrología

Grafología.- Es otra pseudociencia que entre las muchas "utilidades" que ofrece, está la de adivinar elcarácter de una persona en base a su escritura. No se debe de confundir con la valoración de igualdadentre dos escritos o firmas, que es función de los "peritos caligráficos". Lamentablemente se enseña comociencia en una asignatura de los estudios de Licenciatura en Criminología en la Universidad de Murcia.

Enlace recomendado: Grafología, otra pseudociencia

Valoramos la ciencia como factor de progreso, pero también nos asustamos desus implicaciones ¿Lo hacemos de formaracional o moviéndonos por instintos?

Fuente: Blogalia, autor Javier Armentia

Publicado en Territorios, Ciencia y Futuro, El Correo, miércoles 15 de octubre de 2003

La percepción pública de la ciencia viene mediada por numerosos factores, que a menudonada tienen que ver con el contenido y alcance real de las investigaciones, sino con ideas populares que se van asentando, propiciadas desde los medios de comunicación y, amenudo, alentadas desde sectores interesados en hacer valer sus opiniones. En general, siempre se suele comentar que existe un analfabetismo científico funcional en una partede la ciudadanía: el desconocimiento sobre aspectos fundamentales de la ciencia y latecnología actuales se suele poner de manifiesto en encuestas de opinión. En diferentesencuestas que se han ido realizando en los últimos decenios se muestra cómo la gentepuede creer que el hombre convivió con los dinosaurios, cómo no entienden la estructuraatómica de la materia o muchas otras "lagunas" en los conocimientos objetivos. En elEurobarómetro, una encuesta que se viene realizando desde hace quince años se incluíaen 1996 una pregunta para valorar el conocimiento de las tecnologías genéticas por partede los europeos. Dos terceras partes de los encuestados decía que era correcta la

Page 16: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

16 de 45 18/04/2008 20:44

afirmación "los tomates naturales no tienen genes, sólo los transgénicos los tienen".

Sin embargo, la valoración que se establece sobre la ciencia es mucho más positiva quelo que cabría concluir del estado de desconocimiento. En los mismos Eurobarómetros, seve cómo el ciudadano europeo concede en general mucho valor a la ciencia, depositandoen ella una confianza alta a la hora de la resolución de importantes problemas como losambientales, las enfermedades o en general, por su capacidad de mejorar la calidad de vida. Recientemente se ha publicado el estudio "Percepción social de la ciencia y latecnología en España", promovido por la Fundación Española Ciencia y Tecnología(FECyT). Los encuestados en este trabajo, valorando en una escala de 1 a 5 en la que 1 significaba que no había asociación alguna y 5 una asociación completa, relacionaban laciencia con "progreso" (4,35), "bienestar" (3,74), "riqueza" (3,55), "oportunidades" (3,55). Hacen notar los autores cómo la asociación con el progreso es mayor que otrascaracterísticas que se suelen relacionar con los avances científico-tecnológicos.

De esta manera, la idea que podríamos obtener del estado de la percepción social de laciencia sería en cierto modo positivo: valoramos la ciencia, aunque la desconocemos.Una conclusión obvia, precisamente en la dirección que trabajan los planes comunitariosen este sentido, sería favorecer la comunicación sobre ciencia, la educación, y fomentarlas vocaciones a la vez que realizar políticas de inversión en ciencia que permitan lacreación de un verdadero espacio científico europeo no sólo como motor de la industria,sino con la capacidad de involucrar al ciudadano.

La realidad, sin embargo, muestra que hay sectores de la ciencia en los que esavaloración cae, o en general, en los cuales se establece una duda o incluso un temor antela propia ciencia. El asunto de los organismos transgénicos es un buen ejemplo donde semuestra cómo la investigación científica y la opinión popular se separan de maneraimportante. Las efectivas campañas de alerta (a menudo sin justificación racional alguna)por parte de algunos sectores del activismo ecologista han conseguido que la percepciónde lo "transgénico" sea muy negativa. De poco sirve que las grandes multinacionales dela biotecnología hayan promovido una imagen casi idílica del avance que podría suponerestas técnicas en solucionar el hambre en el mundo, o mejorar la calidad de los cultivos.La sombra de la duda sobre la inocuidad de los productos ha conseguido que, incluso (o principalmente) en los planos políticos se hayan establecido moratorias o programas decontención ante estos nuevos productos.

La fuerza de las palabras convierte a algunas en verdaderos tabús: sólo mencionarlashace que la gente se posicione críticamente (por más que se reconozca eldesconocimiento de por qué no gusta o por qué se teme). El hecho de que principalmentela vía de información sobre temas de ciencia sean los medios de comunicacióngeneralistas (en primer lugar radio y televisión) en los cuales la información científicaocupa un pequeñísimo porcentaje del tiempo de emisión, algo que los propiosencuestados califican como insuficiente, facilita el que ciertas ideas se transmitanacríticamente. Un ejemplo reciente, que aún promueve calurosos debates en las todas lasescalas sociales lo constituyen los efectos (presuntos) de las radiaciones emitidas por antenas de telefonía. Dejando aparte el hecho de que ningún estudio contrastadoadecuadamente ha conseguido demostrar el efecto cancerígeno de las antenas (nitampoco del uso de los teléfonos móviles), y a pesar de que las investigacionesestablecen que estas tecnologías trabajan dentro de un margen de riesgo adecuado,simplemente hablar de "radiaciones electromagnéticas" supone que mucha gente pienseque son algo dañino.

En anuncios de televisión podemos oír cosas como que un producto "protege contra las

Page 17: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

17 de 45 18/04/2008 20:44

dañinas radiaciones electromagnéticas". ¿Pero no es la luz una radiaciónelectromagnética? ¿No lo son las ondas de radio o las de TV? El propio calor nos llegaen forma de radiación infrarroja, la misma con la que conseguimos que los mandos adistancia hagan su función. Un mundo sin radiaciones electromagnética sería un mundomuerto. Confundir de esta manera al público, podríamos pensar, sería delictivo si no secontara con una percepción de lo dañino mediada por campañas políticas en contra de latelefonía, por ejemplo, en donde se juega a asociar la "radiación" también con otrapalabra tabú: "radiactividad".

Nada tiene que ver una con otra, pero en un mundo que sobrevivió a una tensión dedecenios con la amenaza de la guerra nuclear, todo lo relacionado con ese mundo nos sigue pareciendo peligroso y desasosegante. Lejos están los años en que los detergentesproporcionaban un "blanco nuclear":hasta los años cincuenta la ciencia del átomo erapercibida como uno de los mayores avances, a pesar del uso bélico de la misma a finalesde la II Guerra Mundial. Pero posteriormente todo un activismo antinuclear consiguióhacer cambiar a la opinión pública: todo lo radiactivo es peligroso.

Es evidente que tales maximalismos no son acordes con una actitud científica que ha devalorar siempre los riesgos y las consecuencias de forma menos apasionada. Perotambién es evidente que nos movemos de forma mucho más gregaria y menos crítica quelo que sería conveniente. El hecho de que cuando un médico solicita para un paciente undiagnóstico mediante resonancia magnética nuclear casi sistemáticamente oculte las dosúltimas palabras, por la asociación casi instantánea que establecemos entre "nuclear" ycáncer, es un síntoma de que las cosas no se están haciendo bien.

Y PALABRAS COMODÍN: LO NATURAL La alta valoración que ponemos al adjetivo "natural" es la otra cara de la misma monedaque hace tabúes a los términos científicos. Parece que todo lo natural fueraintrínsecamente bueno (a pesar de que tan naturales son los virus como cualquier agenteinfeccioso o veneno que existe en la naturaleza). Basta con echar un vistazo a los anuncios de cualquier tipo de producto para encontrar cómo se ejercita la desinformaciónpropagandística en este sentido.

El hecho de que mucha gente prefiera una "medicina natural" indica el desconocimiento y el prejuicio que establecemos: de hecho, unas dos terceras partes de los medicamentos convencionales tienen principios activos que son "naturales", pero el proceso industrial permite, adecuadamente, establecer la forma de aplicación y la dosis adecuada que lohacen un tratamiento efectivo. Por el contrario, y sirva como ejemplo, un cocimiento (natural) de plantas recetado como una verdadera panacea por una medicina que se dice alternativa supone una dosificación incontrolada: ni se puede saber exactamente cuántomedicamento estamos ingiriendo ni podemos controlar otras sustancias que se estánintroduciendo a la vez.

La moda de lo natural frente a lo artificial sigue existiendo, pero se aprovecha de nuestrodesconocimiento para vendernos algo que, realmente, no es ciencia, sino purapseudociencia.

(cortesía de J. Merelo)

Carl Sagan

Page 18: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

18 de 45 18/04/2008 20:44

Carl Sagan hace un análisis muy interesante sobre el caso de Lourdes. Resulta que desdela "aparición" de 1858, unos cien millones de personas han visitado Lourdes con laesperanza de ser curados de una enfermedad que la medicina "oficial" no ha logradovencer. La Iglesia Católica (ICAR) ha rechazado la autenticidad de una enorme cantidadde casos, y sólo ha aceptado 65 en casi un siglo y medio.

Existen casos bien documentados de personas "desahuciadas" que se han curado sinintervención médica, aunque son muy escasos. Esto no es el caso del efecto placebo. Seatribuye simplemente a "curación espontánea", no hay razón alguna aparente para que lacuración se dé, y sin embargo se da.

Si se consideran los 65 casos en casi siglo y medio aceptados por la ICAR, estos casos son de tumores, tuberculosis, optalmitis, bronquitis, parálisis, etc. Pero ninguno es por,digamos regeneracion de un miembro o de una espina dorsal cercenada. De las 65 curaciones, hay una proporción de diez a uno más de mujeres que de hombres. Laprobabilidad de curación después de visitar Lourdes es entonces, de aproximadamenteuna en un millon, se tienen tantas probabilidades de curarse despues de visitar Lourdes, como se tienen de ganar el premio mayor de la loteria, o de morir en un accidente aéreo,por ejemplo.

La curación espontánea de todos los tipos de cáncer juntos se estima en algo entre uno endiez mil y uno en cien mil. Si sólo un cinco por ciento de aquellos que van a Lourdesfueran por cáncer, tendría que haber habido entre 50 o 500 curas "milagrosas"unicamente por cáncer. Dado que sólo tres de las 65 curas comprobadas eran casos decáncer, el índice de curación espontánea en Lourdes parece ser inferior que el decualquier otro lugar. En otras palabras, un enfermo tendría más probabilidad de curarseespontáneamente (o "milagrosamente" si prefiere) quedándose en casa sin hacer nada envez de ir a Lourdes. Evidentemente, si se habla con uno de los 65 curados, va a ser muydifícil convencerlo de que no fue su viaje a Lourdes lo que curó su cáncer.

Esta es una ilustracion clasica de la falacia post hoc ergo propter hoc (despues del hecho, por lo tanto, debido al hecho)

Esto no tiene que ver con el efecto placebo, que en la mayoria de los casos produce una"cura falsa", lo cual es fatal para pacientes que tienen una enfermedad tratable por la medicina.

CARL SAGAN

Nació en Nueva York el nueve de Noviembre de 1934.Estudió en la Universidad de Chicago, donde recibió un Ph.D. en astrofísica.Casado con Ann Druyan.Ampliamente reconocido por sus trabajos científicos, es más recordado porsus esfuerzos por aumentar la difusión de la ciencia desde una visiónrazonada y escéptica.

"La mayoría de los organismos en la Tierra dependen de su informacióngenética, que está 'precableada' en sus sistemas nerviosos, en mayor gradoque de su información extragenética, que es adquirida durante sus vidas. Paralos seres humanos, y de hecho para todos los mamíferos, es al contrario. Aún cuando nuestrocomportamiento es aún significativamente controlado por nuestra herencia genética, tenemos, através de nuestros cerebros, una mucho más rica oportunidad de crear nuevos senderos culturales y

Page 19: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

19 de 45 18/04/2008 20:44

de comportamiento a corto plazo. Hemos hecho una especie de acuerdo con la naturaleza: nuestroshijos serán difíciles de criar, pero su capacidad para nuevos conocimientos aumentará en mucho lacapacidad de supervivencia de la especie humana. Además, los seres humanos hemos inventado, enlas más recientes pocas décimas de porciento de nuestra existencia, el conocimiento no sóloextragenético sino también extrasomático; información almacenada fuera de nuestros cuerpos, de lacual, la escritura es el más notable ejemplo."

(De "The Dragons of Eden", Los Dragones del Edén)

No hay garantía de que el universo se conformará a nuestras predisposiciones. Pero no veo cómopodremos tratar con el universo - tanto el universo exterior como el interior - sin estudiarlo. La mejor manera de evitar abusos es que la población en general sea científicamente literata, paracomprender las implicaciones de tales investigaciones. A cambio de la libertad de investigación, loscientíficos están obligados a explicar sus trabajos. Si la ciencia es considerada un sacerdociocerrado, muy difícil y arcano para la comprensión de la persona promedio, los peligros de abuso sonmayores. Pero si la ciencia es un tópico de interés y preocupación general - si tanto sus deliciascomo sus consecuencias sociales se discuten regular y competentemente en las escuelas, la prensa, y en la mesa familiar - habremos mejorado enormemente nuestras posibilidades para entender cómoes realmente el mundo y para mejorarlo a él y a nosotros."

(De "Broca's Brain", El Cerebro de Broca)

Sus contribuciones

Carl Sagan fue central para el descubrimiento de las altas temperaturas superficiales deVenus y las causas de los cambios estacionales observados en la apariencia de Marte.Ganó el Premio Pulitzer para no-ficción en 1978 por Los Dragones del Edén:Especulaciones Sobre la Evolución de la Inteligencia Humana. En 1980, su serie en 13 capítulos para los servicios de televisión pública "Cosmos", seconvirtió en una de las series más populares en la historia de la televisión públicaAmericana.Carl Sagan fue el "David Duncan Professor of Astronomy and Space Sciences" y el Directordel Laboratorio para Estudios Planetarios en la Universidad de Cornell.Fue un importante contribuyente a las misiones de exploración Mariner, Viking y Voyager. Obtuvo las Medallas de NASA por Excepcionales Logros Científicos, Logros en el ProgramaApollo, y Servicio Público Distinguido (dos veces).El premio internacional de Astronáutica: el Prix Galbert.El premio Joseph Priestley "por distinguidas contribuciones al bienestar de la humanidad".El Premio Masursky del American Astronomical Society.Y en 1994, el Public Welfare Medal, el honor más elevado del National Academy ofSciences.Director de la División de Ciencias Planetarias de la Sociedad Americana de Astronomía.Director de la Sección de Astronomía de la Sociedad Americana para el Avance de laCiencia.Presidente de la Sección de Planetología de la Unión Geofísica Americana.Editor en Jefe de Icarus, la principal revista profesional de estudios del Sistema Solar.Cofundador y Presidente del Planetary Society, el más grande grupo de intereses espacialesdel mundo.Hay un asteroide, el 2709 Sagan, en su nombre.Más de 400 artículos científicos y populares publicados.

Carl Sagan murió el Viernes, 20 de Diciembre de 1996, a la edad de 62 años.

Libros (de algunos existe versión en español):

Page 20: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

20 de 45 18/04/2008 20:44

Intelligent Life in the Universe (con I. S. Shklovskii)The Dragons of Eden (1977): Speculations on the Evolution of Human IntelligenceMurmurs of Earth: The Voyager Interstellar Record (con F. D. Drake, Ann Druyan, TimothyFerrys, Jon Lomberg and Linda Salzman Sagan)The Cosmic Connection: An Extraterrestrial PerspectiveOther WorldsMars and the Mind of Man (conRay Bradbury, Arthur C. Clarke, Bruce Murray and WalterSullivan)Intelligent Life in the UniverseBroca's Brain (1979): Reflections On the Romance of ScienceCosmos (1980)Contact (1985): A NovelComet (1985) (conAnn Druyan)A Path Where No Man Thought (1990): Nuclear Winter and the End of Arms Race(conRichard Turco)Shadows of Forgotten Ancestors (1992): A Search for Who We Are (conAnn Druyan)Pale Blue Dot: A Vision of the Human Future in SpaceThe Demon-Haunted World: Science as a Candle in the DarkBillions & Billions (1997): Thoughts on Life and Death at the Brink of the Millennium(Póstumo, publicado por Ann Druyan)

Estafa pura y dura..- Hasta ahora hemos visto efectos más o menos subjetivos tanto por el lado delpaciente como por parte de pseudomédico. Sin embargo gran parte de las técnicas de curanderismo setratan de una auténtica estafa. El método habitual utilizado es el de diagnosticar una enfermedadinexistente, montar toda una parafernalia espíritual-mágico-médica y decir que el mal ha desaparecido.Las mayores o menores dotes escénicas del supuesto sanador la darán fama y dinero. Más graves aún sonlas estafas sobre enfermos reales (y a veces muy graves) que depositan su confianza, lo único que lesqueda, en estos vendedores de ilusión, suelen ser los casos más sangrantes y tristes de familiasdestrozadas o arruinadas por las "artes" de estas gentes.

Cirugía psíquica

Sin apoyo, equipo quirúrgico o anestesia curanderos inprovisados hacen curacionescomplejas, como extracciones de tumores usando sólo sus manos o, ¿algo más?. La gentedesesperada recurre a medidas desesperadas. Los que han sido victimas de este engañohan pagado el precio, pero el embuste no se limita a los filipinos. La cirugia psíquica seha vuelto un fenómeno latinoamericano, lo vemos por todos los países en pequeñasiglesias y grupos y lejos de la vista del publico. Sus magos y timadores se hacen pasarpor verdaderos curanderos y les quitan a las personas su dinero y también la oportunidadde un verdadero tratamiento médico. Las operaciones se realizan en cuartos oscurosdonde la trampa es facil de ocultar, pero aún en las condiciones más abiertas el ardid esdificil de detectar. El procedimiento empieza pidiéndole al paciente que se acueste en unamesa mirando hacia el cielo para ver hacia Dios pero enseguida se verá la verdaderarazón de esto. No hay ningún intento por mantener condiciones de asepsia.

Al terminar el procedimiento el falso cirujano limpia el área de insercción con las toallas.Toda la operacion puede realizarse en minutos. Cuando termina el paciente puede

Page 21: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

21 de 45 18/04/2008 20:44

examinar los resultados, no hay huellas de ningún tipo de corte, incisiones o cicatrices.

Ahora miremos como se realiza esta convincente operación:

Antes de la llegada del paciente el cirujano psíquico prepara las herramientas para sufarsa:sangre simulada, algodón colorante alimentario, una bolsa de plástico y varias tiras detocino con mucha grasa. Estos artículos se usan para crear unos pequeños recipientesllamados cargas. Funcionan asi: El tocino se pone en la bolsa y se satura con colorante. Esto será el convincente tumor que se extrae del estómago del paciente, luego la bolsa sellena con una buena dósis de sangre simulada, los guantes evitan las evidenciasincriminatorias en las manos del cirujano, forma una bola con la bolsa y la carga estálista. la carga se oculta donde sea menos evidente, el recipiente del algodón por ejemplo.El timador se asegura de que no se vea y luego pasa el paciente. A este se le dice que mire hacia arriba, en algunos procedimientos se le coloca boca abajo. En cualquiera de los casos, esto da al supuesto cirujano una posición propicia para disfrazar su artimaña.El algodón no tiene nada que ver con la higiene, el propósito de frotar el estomago esdarle opotunidad de ocultar la carga con la palma de la mano antes de masajear el area. Los curanderos psiquicos no son más que unos timadores

El curandero de Campanillas protagonizaun espacio de Tele5

JOSÉ PRIETO. EFE/MADRID (2001/11/23)

Telecinco emite hoy, a partir de la medianoche, el reportaje de investigación 'Elextirpador', en el que se muestra cómo un autodenominado 'cirujano psíquico', que llevasiete años 'operando' en Campanillas, engaña a sus pacientes, personas enfermas que venen él su salvación.

En 'El extirpador' se cuenta la historia de Andrés, anteriormente operario de grúa de laconstrucción de Barcelona y antiguo militante activo de los Testigos de Jehová, que lleva7 de sus 52 años 'curando' en su consulta de la barriada de Campanillas a pacientes que lellegan de toda España, porque su fama ha traspasado fronteras.

Él asegura que es un 'cirujano psíquico' porque con la sola ayuda de un bisturí simple ysus manos, dice él, se mete en las entrañas de sus pacientes y 'extirpa' tumores y 'arregla'lo que los médicos son incapaces de curar en los quirófanos.

El protagonista del reportaje prepara su zona de operaciones con meticulosidad. Primerodibuja el contorno de la camilla con sal e impide que nadie lo traspase y cerca de élcoloca un cesto con algodones donde esconde un simple bisturí con el que realiza lassupuestas incisiones que, milagrosamente, no dejan ni siquiera un rasguño.

A través de las incisiones imaginarias extrae el tumor o la causa del mal del enfermo, queno es otra cosa que vísceras de cerdos, corderos o aves.

Page 22: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

22 de 45 18/04/2008 20:44

Los reporteros localizan, incluso, el establecimiento donde el 'sanador' adquiere elespinazo de cerdo con el que simula columnas vertebrales humanas. En cuanto a lasangre con la que tiñe sus operaciones, se trata en realidad de pigmento mezclado conotros líquidos.

El día que la policía le detiene, Andrés está llevando a cabo una delicada operación en lostestículos de su primer paciente.

1.2 Ejemplo del método científico

Casi todo el mundo ha visto alguna vez un experimento semejante a éste:

Supongamos una bolsa de material ligero. Un extremo de la bolsa tiene una boca, que puede mantenerseabierta, por ejemplo mediante un aro; este extremo se sostiene sobre algo que caliente el aire como un hornillo o un mechero.

La bolsa se levanta y se hincha en todo su volumen. En este momento se suelta, y se eleva hasta el techode la habitación, permanece en el techo durante un momento, y luego cae lentamente hasta el suelo. ¿Quéha ocurrido? ¿Por qué ha ocurrido?

Existen muchas formas de explicar los sucesos que se producen en la naturaleza. El tipo de explicaciónque aceptemos depende de nuestros conocimientos y de los supuestos que hayamos aceptado. Laexplicación que convence a una persona, puede no satisfacer a ninguna otra. Haciendo la pregunta ¿Porqué se eleva la bolsa hasta el techo?, se pueden dar distintas respuestas.

A) Respuesta animista

"Porque quiere alejarse del fuego". Esta respuesta satisfaría a muchos niños e incluso a algunas personasprimitivas (aunque actualmente hay quienes "encuentran" una relación con la parapsicología).

El animismo es la creencia de que todos los objetos naturales se encuentran vivos y poseen alma. El hechode que la bolsa se eleve no es más sorprendente que el que un niño ande hacia una puerta. Un ejemplo esel Chamanismo.

El mundo animista es un mundo caótico pues todos los objetos se comportan de acuerdo con sus impulsosnaturales. Sobrevivir en este mundo implica ser capaces de conocer qué es lo que va a ocurrir acontinuación, y si es posible controlarlo en alguna medida.

B) Explicación mágica

La magia se define como el arte de producir efectos o controlar sucesos mediante encantamientos,hechizos y rituales.

La imagen del científico como mago de salón, capaz de realizar todo tipo de trucos, no es posibleencontrarla actualmente. Hace más de un siglo era corriente que los científicos ganaran dinero haciendodemostraciones de salón sobre chispas y productos químicos capaces de producir espumas.

El hombre primitivo debía enfrentarse con situaciones que no podía controlar. Entonces creía en laexistencia de seres superiores que podían hacer cosas que a los humanos no les estaban permitidas.

Page 23: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

23 de 45 18/04/2008 20:44

C) Explicación sobrenatural

Ha sido un "milagro". En otras palabras, existe algún ser que es capaz de interferir en los procesosnaturales y de producir sucesos que ordinariamente no ocurrirían. De igual forma que algunos reyes ygobernantes, este ser tiene la propiedad de violar las leyes de la naturaleza, aun cuando originalmente estas hayan sido creadas por él. Un caso curioso, que denota el bajo nivel cultural existente en España, esque se anuncian cursos de milagros en Málaga, por 150 euros.

D) Explicación teísta

Teísmo es la creencia en un dios al que se le considera creador y gobernador del universo. "Es la voluntadde dios". Haya habido o no, un milagro, todas las cosas ocurren de acuerdo con un esquema ordenado por un ser supremo. Si existen leyes obedecidas por la naturaleza, es él quien las ha creado; si algún sucesoviola estas leyes, él es el único responsable. En última instancia, todo ocurre porque él lo desea y directa oindirectamente lo produce. Esta creencia es soportada por mucha gente, incluso por algunos científicos.

Sin embargo desde el punto de vista científico explica muy poco, porque explica demasiado. Si todas lascosas se deben a la voluntad divina y si esa voluntad se encuentra por encima del conocimiento humano, es que no conocemos nada. Por otra parte si existe, o existió una divinidad que estableció originalmente elsistema natural y sus leyes, de cualquier forma que se establecieran, es deber del científico descifrar lanaturaleza de estas leyes.

E) Explicación teleológica

Teleológico, significa dirigido hacia un fin definido, o que posee un último propósito. "El aire caliente pornaturaleza tiende a elevarse", según dijo Aristóteles. Mediante varios experimentos se puede comprobar que el calor se encuentra asociado con la elevación de la bolsa.

Es el aire que llena la bolsa el que origina que ésta se estire y se hinche. Es el aire del interior de la bolsael que absorbe calor, calentándose y transportando la bolsa hasta el techo. ¿Por qué se acepta la existenciade una sustancia invisible como el aire?. No es por que lo podamos sentir directamente, sino porque nos ayuda a explicar otros fenómenos que podemos percibir. No todos los conceptos de este tipo sobreviven alpaso del tiempo.

En el esquema teleológico encontramos explicaciones más profundas que buscan propósitos másgenerales. Así podemos decir que el aire caliente se eleva para que la tierra pueda enfriarse y las plantaspuedan crecer, y así nosotros tengamos alimentos para comer, y la cadena pueda alargarse enormemente.Estas explicaciones dan lugar a discusiones filosóficas.

F) Explicación empírica

Empírico significa basado en la experiencia práctica, sin intentar comprender por qué se ha producido elhecho.

* Principio de Arquímides: Cuando un cuerpo se sumerge en un fluido, es empujado hacia arriba por una fuerza que es igual al peso del fluido desplazado.

Arquímedes vivió en la ciudad griega de Siracusa hacia el año 200 ane. Su principio lodescubrió cuando el rey Hiero, le preguntó cómo podía saber si la corona que se habíacomprado era realmente de oro. Este objeto tan valioso debía tratarse de forma nodestructiva. Arquímedes mientras se encontraba en los baños públicos tuvo una idea, y

Page 24: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

24 de 45 18/04/2008 20:44

salió corriendo por las calles de Siracusa, vestido a la usanza de los baños públicosgrecorromanos, es decir desnudo, gritando Eureka ("Lo he encontrado").

La aplicación de su principio distingue el plomo del oro, sumergiendo la corona en agua,el plomo es más ligero que el oro y por lo tanto 1 kg de plomo ocupa más volumen queuno de oro. Arquímedes pesó la corona en el aire y en el agua, si fuera de oro perderíapeso en al agua un 5 por ciento, y si fuera de plomo un 8 por ciento. De esta formademostró que habían estafado al rey, ganando una fama imperecedera, mientras que eldestino del orfebre fue menos afortunado.

A continuación se muestra una simulación en Java, de un experimento que permite verificar el principiode Arquímides, relativo al empuje en líquidos. Un sólido colgando de un dinamómetro se sumerge en unlíquido (mediante el arrastre del ratón). En este caso se reduce la fuerza medida, siendo igual a ladiferencia entre el peso y la fuerza de empuje.

Se pueden cambiar (dentro de ciertos límites) los valores preseleccionados de las densidades y del área dela base y altura del cuerpo actuando sobre los campos de texto correspondientes. Tras presionar la tecla "Intro", el programa indica los nuevos valores de la profundidad, volumen desplazado, fuerza de empuje,

peso y fuerza medida. Se supone un valor g = 9.81 m/s2 para la aceleración de la gravedad. Si aparece elmensaje "Máximo excedido" con letras en rojo, es necesario seleccionar otro rango de medida adecuado.

* Ley de Gay-Lussac: Cuando se calienta (o enfría) un gas a presión constante, se expansiona (o contrae)proporcionalmente al aumento (disminución) de la temperatura.

ExplicaciónCuando la temperatura aumenta, el aire del interior de la bolsa aumenta igualmente de temperatura. Se constata que cuando aumenta la temperatura el volumen del gas crece igualmente

Esto se puede explicar viendo en detalle el comportamiento de las moléculas de gas

Page 25: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

25 de 45 18/04/2008 20:44

Como consecuencia de la agitación, lasmoléculas de gas ejercen una cierta presiónsobre las paredes de la bolsa

Al subir la temperatura del aire, la agitación delas moléculas aumenta igualmente; por lo queejercen mayor presión sobre las paredes de labolsa, lo que tiene como consecuencia el aumento de su volúmen.

Estos dos principios difieren de las explicaciones previas en dos aspectos importantes: son cuantitativos,nos dicen la magnitud que cabe esperar de un efecto, y se pueden aplicar a otros experimentos además delque estamos describiendo.

Estos principios se pueden aplicar al caso de la bolsa con aire caliente. De acuerdo con la ley deGay-Lussac, al calentar el aire se expansiona, por lo tanto desplaza una cantidad de aire más frío, exteriora la bolsa, que es más pesado que el aire caliente del interior. Luego por el principio de Arquímedes, elcuerpo sumergido (es decir la bolsa con aire caliente) es empujado hacia arriba por una fuerza que es mayor que su propio peso. De esta forma la bolsa se eleva hasta el techo. Cuando el aire en su interior seenfría, se vuelve tan pesado como el aire que le rodea y el peso extra de la bolsa, es suficiente para hacerladescender.

Ambos principios son ejemplos de leyes empíricas, que describen lo más fielmente posible, qué es lo quesucede.

Feynman y la educación científica

Aunque nunca hayan oído hablar de Richard Feynman (1918-1988) su aliento seguramente les haya rozado en algún momento de sus vidas, sobre todo si han tenido lasuerte de disfrutar de uno de esos maestros que se divierten horrores enseñando ciencia yhaciéndonos sentir el placer de la propia inteligencia. Feynman no era el típico físiqueirode camisa de rayas con el bolsillo petao de bolis de cuatrocolores y mirada perdida en un espacio multidimensional que caricaturizó con precisa crueldad Jerry Lewis en El

Page 26: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

26 de 45 18/04/2008 20:44

profesor chiflado. Al contrario: brillante, seductor y deslenguado, la biografía deFeynman revela a un tipo dispuesto a disfrutar de la vida, ya sea haciendo y enseñandofísica, o como miembro de un grupo de samba y asiduo intérprete de frigideira en elcarnaval de Río.

Fue precisamente en una de sus estancias en Brasil donde tuvo lugar la anécdota que hoyles cuendo, recogida en ¿Está Vd de broma Mr Feynman? Nuestro hombre había pasadovarios meses dando clases a universitarios brasileños, asombrado por el caráctermemorístico de los estudios de física e ingeniería: sus alumnos conocían al dedillo todaslas definiciones pero eran incapaces de aplicarlas a problemas reales; anotaban atentamente todo lo que decía el profesor pero nunca, jamás, hacían una pregunta sobrelo que escuchaban. Al final del curso fue invitado a contar sus experiencias como profesor ante una nutrida representación de la comunidad universitaria.

La sala de conferencias estaba llena. Comencé definiendo la ciencia como una forma decomprender el comportamiento de la naturaleza. Luego pregunté: ¿Hay alguna buenarazón para enseñar ciencia? Desde luego, ningún país puede considerarse civilizado amenos que triqui, triqui, triqui...? Y allí estaban todos diciendo que sí con la cabeza,porque así es como piensan.

Luego dije, ¿Esto por supuesto es absurdo, porque ¿qué motivos tenemos para pensar quedebemos estar a la altura de otros países? Tiene que haber alguna razón seria, no sólo queotros países también lo hacen. Hablé entonces de la utilidad de la ciencia, de sucontribución a la mejora de la condición humana y todo eso, provocándoles un poco.

Y seguí: El objetivo de mi charla es demostrarles que en Brasil... ¡no se enseñaabsolutamente nada de ciencia! Podía verlos agitarse pensando: ¿Cómo? ¿Nada deciencia? ¡Es una estupidez!, pero si tenemos todos estos cursos?.

(...) Así que sostuve el libro de física elemental que ellos usaban y dije: En ningún lugarde este libro se mencionan resultados experimentales, excepto en un sitio donde hay una bola que rueda por un plano inclinado y se cuenta hasta dónde ha llegado la bola al cabode un segundo, dos segundos, tres segundos, etc. Los datos incluso vienen con errores de modo que si uno los analiza parecen auténticos resultados experimentales, un poco porarriba o por debajo de los valores teóricos. Hasta se menciona la necesidad de corregirlos errores experimentales, lo que es estupendo. El problema es que si calculamos el valor de la aceleración a partir de estos datos obtenemos la respuesta correcta. Sinembargo, una bola que rueda por un plano inclinado, si realmente se hace el experimento,debe emplear parte de su energía para vencer la inercia y empezar a rodar, lo que haceque con los datos reales obtengamos un valor de la aceleración que es 5/7 del valorteórico. Así pues, este único ejemplo de un experimento es algo totalmente ficticio.¡Nadie ha hecho rodar nunca esa bola, o no habrían obtenido este resultado!.

También he descubierto otra cosa, continué. Pasando las hojas al azar y poniendo el dedoen cualquier página puedo mostrarles el problema; lo que allí aparece no es ciencia, sinomemorización. Así que seré lo suficientemente valiente como para hacerlo ahora, frente aesta audiencia, y poner el dedo en cualquier sitio y leerles una frase cualquiera.

Y así lo hice. Brrrrrrrrrup - puse el dedo y comencé a leer: Triboluminiscencia.Triboluminiscencia es la luz que se emite al aplastar cristales... ¿Es esto ciencia? ¡Enabsoluto! Lo que aquí tenemos es lo que una palabra significa en términos de otraspalabras. No hemos dicho nada sobre la naturaleza, nada sobre el hecho de que cuando uno aplasta cristales se produce luz, y por qué se produce. ¿Han visto alguna vez a un

Page 27: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

27 de 45 18/04/2008 20:44

alumno intentarlo? No lo verán, pues no pueden.

1.3 Escepticismo y pensamiento crítico

Las personas tendemos a agrupar nuestros conocimientos y queremos saber la razón por lo qué ocurre unacosa determinada. Nos preguntamos cuál es la relación entre una experiencia concreta y alguna otraexperiencia. A lo largo de la historia de la humanidad han existido grandes pensadores, que han influido mucho en el desarrollo posterior. La mayoría de las veces dudamos de las diversas razones que se nospresentan para explicar un fenómeno, algunos, incluso creemos en muy pocos hechos, esta visión de larealidad es lo que se denomina escepticismo.

Enlace recomendado: ¿Qué es el pensamiento crítico?

Con frecuencia a los escépticos se nos describe como personas inhumanas, frías y robóticas, esto es falso.Como todo el mundo tenemos creencias (o convicciones como algunos prefieren denominarlas), generalmente de tipo racional, fundamentadas en la lógica, en conocimientos científicos y en hechoscomprobados, nunca en el mero deseo de que algo sea cierto. En cuanto a la frialdad, es completamente falso, posiblemente apreciamos cosas diferentes. Los escépticos no somos menos apasionados,imaginativos o sensibles que los crédulos, y solemos tener mucho mejor sentido del humor.

Acerca del escepticismo

A pesar de todas las facilidades y el gran avance tecnológico que la ciencia ha logrado para lahumanidad a lo largo de su historia, actualmente, como siempre, existe una enorme desinformaciónsobre varios aspectos del conocimiento humano. Se observa que por muchos motivos (¿educacióndeficiente seria uno?), que un gran número de personas no consigue distinguir fácilmente entre unarealidad posible y una realidad ficticia.

Esta dificultad en separar lo real de lo irreal, permite la aparición y proliferación de personas ogrupos organizados que fomentan la desinformación con el objetivo de obtener ventajas de algúntipo (monetarias, políticas, etc.), y con este fin incentivan conscientemente la desinformación y laignorancia.

Preguntas que nos hacemos

¿Cómo curar rápidamente una enfermedad terrible? ¿Cómo saber el futuro y así prevenir posiblesdesventuras? ¿Existe alguna entidad superior que se preocupa por mí y me protege?

Estas son preguntas obvias que una persona con el mínimo de discernimiento ha realizado enalguna etapa de su vida. ¿Quién no ha tenido veces incontables problemas de salud, de dinero osentimentales, problemas que ponen a prueba hasta la última pizca de resistencia física yemocional?

Lamentablemente, la vida para una enorme mayoría de la población es una sucesión de penurias sin

Page 28: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

28 de 45 18/04/2008 20:44

fin, cuyos orígenes muchas veces vienen del propio ámbito y educación familiares, pasando por unadeficiente educación escolar, y finalizando en una sociedad desorganizada y no preparada pararesolver problemas elementales e inmediatos.

En este contexto, nada más natural que buscar una tabla de salvación en cualquier mano que seextienda para aparentemente ayudar, buscando respuestas fáciles e inmediatas a problemas difícilesy complicados.

Derecho a la duda

La rígida educación que nuestras sociedades han impuesto, limita desde temprano nuestracapacidad de rebelión contra ideas y preconceptos adquiridos, y por esta razón, tendemos a aceptarcasi todo lo "establecido" como siendo algo intrínsecamente verdadero e irrevocable. La conclusiónes que hay millones de personas que no saben que tienen un derecho elemental, tanto como comer yrespirar, y es el derecho a la duda. Todos nacemos con este derecho, el de preguntar, indagar,cuestionar y exigir pruebas ante cualquier afirmación realizada, sea del cuño que fuere, científica,política, religiosa o económica, pero muy pocas personas ejercen este derecho natural.

El escepticismo es la escuela que pregona el uso de este derecho, el irrenunciable derecho a la duda,el derecho que toda persona tiene a no ser engañada, manipulada o dirigida con fines excusos yescondidos. El escepticismo es la sana actitud que hace rodar con suavidad el progreso de laciencia, invitándonos a cuestionar continuamente las bases de las disciplinas que dieron al hombrela supremacía sobre el planeta, como son la Física, la Biología, la Química y otras, y que soportan anuestra tecnología.

Un escéptico no acepta ninguna verdad establecida a priori, sino que la acepta al final de una largacadena deductiva, o sea, cuando ya no hay argumentos que puedan invalidarla. Por el contrario,otras escuelas de pensamiento pregonan algunas verdades como siendo legítimas por derechopropio, y que necesitan argumentos propios para negarlas.

Exije pruebas

Así, la próxima vez que alguien te prometa una cura milagrosa a través de una piedra, pregúntateantes: ¿cómo una piedra puede influir en mi salud?, cuando alguien te hable de energías espiritualesque realizan milagros, piensa si existe algún tipo de energía que no pueda ser medida ni estudiada(sin necesidad de ser un experto en Física), y cuando te digan que ha sido visto un habitante de otroplaneta, pregúntate antes, cómo es que millares de astrónomos profesionales que vigilan el cielo díay noche nunca han visto nada.

Exije pruebas, no te conformes con cualquier cosa. La persona que duda es la que debe serconvencida, y así, tiene todo el derecho de escoger que armas prefiere, como le gustaría serconvencida, y que método lógico desea emplear.

Cabe al proponente responder a todas y cada una de las dudas levantadas y dejar satisfecho alescéptico en cuestión. Si alguna duda persiste después de presentadas todas las pruebas posibles,entonces el escéptico tiene todo el derecho de continuar siendo escéptico.La carga de la pruebasiempre recae sobre quien afirma algo.

Page 29: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

29 de 45 18/04/2008 20:44

¿Qué es el argumento ad ignorantiam?

Un sujeto afirma el enunciado A y le pide a un segundo sujeto que intente demostrar queel enunciado A no es cierto. Si el segundo sujeto fracasa en su demostración, el primersujeto dirá que su enunciado es cierto. Se trata del argumento ad ignorantiam: si no puedes probar que lo que yo digo es falso, entonces lo que yo digo es verdadero.

Lo increíble es que aún hoy se siga usando este argumento continuamente: demuestra queno he visto un ovni, demuestra que no hay fantastmas en tal hotel abandonado, demuestraque mi péndulo no te adivina el futuro, etc.

Pues yo les digo a estos seguidores ikerjimenianos: hoy he viajado al futuro y he conocido a mis nietos, tenían elefantes rosas con medias turquesas. Demostradme que es falso. Este tipo de argumentación puede llevar a defender enunciados absurdos,aunque también es útil para la sociedad: todo el mundo es inocente mientras no se demuestre lo contrario.

Por último un texto de Locke en el que cataloga los argumentos en cuatro clases:

Antes de abandonar este asunto deberíamos reflexionar un poco sobre estas cuatro clases de

argumentos.... El primero consiste en recibir las opiniones de aquellos hombres que, por su aprendizaje,

por su eminencia, por su poder o por alguna otra causa, han adquirido una reputación y la han asentado

con autoridad ante los demás. Cuando los hombres han sido elevados a cualquier clase de dignidad, se

considera una falta de modestia, en otros, contradecirles en cualquier asunto, o poner en duda la

autoridad de aquellos hombres que ante los demás la tienen. Se suele censurar el que un hombre no

abandone rápidamente su propuesta ante la de otros autores ya consagrados, considerándolo como un

acto de orgullo desmedido; ....El que basa sus tesis en unas autoridades semejantes, piensa que siempre

debe de triunfar en su causa, y se muestra dispuesto a calificar de imprudente a cualquiera que ose

contradecirlas. Esto es lo que pienso se puede llamar «argumentum ad verecundiam»...En segundo lugar,

otra forma de la que los hombres se valen comúnmente para acallar a los demás, y para obligarlos a

aceptar sus juicios y a recibir las opiniones en debate, estriba en exigir al adversario que admita lo que

ellos alegan como una prueba, o que designen otra mejor Y a esto es a lo que llamo «argumentum ad

ignorantiam».... Una tercera forma consiste en obligar a un hombre mediante consecuencias extraídas de

sus propios principios a concesiones. Esto es lo que ya se conoce con el nombre de «argumentum ad

hominem»..... La cuarta manera consiste en el empleo de pruebas extraídas de los fundamentos del

conocimiento o de la probabilidad. Es a lo que llamo «argumentum ad judicium». Este, entre los cuatro,

es el único que conlleva una verdadera instrucción y que nos hace adelantar en el camino del

conocimiento...ya que, tal vez, me puede llevar hacia la reflexión de la verdad. ( Referencia)

Fuente: Ciencia en el XXI. Mirando con la mente.Bajo licencia Cretaive Commons

El movimiento escéptico utiliza la redpara propagar sus ideas

Page 30: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

30 de 45 18/04/2008 20:44

Lo irracional nos invade, siendo el mundo de lo paranormal su punta de lanza másvisible. El movimiento escéptico trata de combatir esta plaga a base de "fomentar lareflexión y la duda". Sus socios, entre los que se incluyen prestigiosos científicos,pensadores o periodistas de todo el mundo animan a cualquier persona a participar.Internet es una de sus herramientas más poderosas.

Jueves, 14 junio 2001 ÁLEX FERNÁNDEZ, IBLNEWS.com Un 15% de la población recurre a curanderos cuando tiene algún problema de salud;entre la cuarta parte y la mitad de los españoles tiene alguna creencia esotérica; las dosprincipales revistas ocultistas de España venden más de 50000 ejemplares mensuales. Lalista de este tipo de datos es muy larga, lo cual es preocupante, por lo menos para aquelque se considera escéptico.

¿Eres un escéptico? Seguramente tú, lector de IBLNEWS, seas un escéptico, aunque noseas consciente de ello. De todas formas, si no tienes muy claro que es eso de serescéptico, te animamos a que leas las siguientes preguntas. Si tus respuestas sonnegativas, ¡felicidades!, eres un escéptico convencido:

¿Es posible adivinar el futuro? ¿Visitan la Tierra seres de otros planetas? ¿Convivió elser humano con los dinosaurios? ¿Está próximo el fin del mundo? ¿Ha demostrado laNASA que Jesucristo resucitó? ¿Es peligroso viajar por el triángulo de las Bermudas?¿Tiene Satanás debilidad por la España profunda? ¿Hay gente capaz de operar sin causardolor ni cicatriz alguna? ¿Está el futuro escrito en las estrellas? ¿Existen las casasencantadas? ¿Se pueden doblar cucharas con el poder de la mente? ¿Es posiblecomunicarse con el mundo de los espíritus? ¿Dejó Dios escrito en la Biblia el pasado y elfuturo de la humanidad? ¿Son las pirámides egipcias obra de seres venidos de otrosmundos? ¿Se manifiestan los espíritus a través de la ouija?

Puede que parezcan estúpidas algunas de dichas preguntas, pero como decimos, muchaspersonas responderían convencidas con un sí. Para Manuel Toharia, director del Museode Ciencias de Valencia y miembro de la ARP- Asociación para el Avance delPensamiento Crítico, la postura escéptica nace como reacción a la enorme cantidad decreencias basadas en afirmaciones de personas que se arrogan cierta autoridad y/o quetienen suficiente credibilidad entre personas crédulas ("si no hubiera bobos no habríaengañabobos").

Origen de la palabra "escéptico"

Tal vez haya más de uno que le suene mal aquello de ser "escéptico". En opinión de FélixAres, director del Museo de Ciencias de San Sebastián y actual presidente de laAsociación, "en castellano la palabra escéptico tiene connotaciones negativas que no lotenía la palabra griega "esketikos".

En efecto, el escepticismo surge en la Grecia Clásica como escuela filosófica y sucreador, Pirron de Elis, defiende que es imposible conocer algo de modo totalmentecierto. Los escépticos, por lo tanto, le dan ese sentido, como nos recuerda Ares: "todosaber es provisional y revisable. Duda de todo. No creas en "popes" de ningún tipo".

El movimiento escéptico surge hace 25 años en Estados Unidos de la mano del filósofoPaul Kurtz, que ayudado por científicos de la talla de Carl Sagan, Isaac Asimov, MartinGardner o Stephen Jay Gould crean la CSICOP, el Comité para la Investigación

Page 31: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

31 de 45 18/04/2008 20:44

Científica de lo Paranormal. En el mundo de habla hispana la idea cuaja en 1985 con lacreación de la sociedad ARP, la Alternativa Racional a las Pseudociencias, en la quesiguiendo la estela de la CSICOP, comienza a ganar paulatinamente adeptos en la luchacontra lo irracional. Según Luis Alfonso Gámez, periodista de El Correo y miembrohistórico de la ARP, "A mediados de los años 80, ufólogos, astrólogos, parapsicólogos,curanderos y demás campaban a sus anchas por los medios de comunicación sin quenadie les llevara la contraria. Hasta que ARP empezó a sonar en los medios".

Sin embargo, la lucha es desigual. Para Toharia, "el combate contra las seudocienciastiene pocos apoyos oficiales. En realidad, parece como si a los rectores de la sociedad noles importase el nivel de engaño que sufren sus conciudadanos, generalmente por undeficiente nivel cultural en lo científico". Según Gámez, "el gobierno norteamericano hapreferido que la gente crea en OVNIs, para que no se hable de proyectos secretosgubernamentales".

Internet: poderosa herramienta

Internet se ha convertido para los escépticos en el medio de comunicación y expansiónpor excelencia. Como bien dice Javier Armentia, director del Planetario de Pamplona yexpresidente de la ARP, "en el últimos años, la labor de ARP se ha visto renovada connuevas aportaciones, de profesionales de muchos campos de la actividad intelectual. Elloha sido posible gracias a la popularización de esa nueva ágora que supone Internet".

Y es que la red ha permitido que el mensaje de ARP llegue a los escépticos de hablahispana de todo el mundo bien a través de las webs de la asociación y sus simpatizantes,bien a través de la lista de correo escéptica hispana. Según Gámez, "Internet es ahorapara nosotros una herramienta básica tanto de proyección hacia el exterior como a la horadel trabajo interno: reuniones de la directiva, intercambio de opiniones con los socios,sesiones del consejo de redacción de nuestra revista, etcétera. Es un frente en el que nopasa semana sin que recibamos alguna solicitud de adhesión."

No sólo las pseudociencias

Más de uno podría pensar que los escépticos se limitan a luchar contra laspseudociencias. Sin embargo, ser escéptico supone algo más, tal y como se refleja en losestatutos de la asociación: "La ARP impulsa el desarrollo de la ciencia, el pensamientocrítico, la educación científica y el uso de la razón; promueve la investigación crítica delas afirmaciones paranormales y pseudocientíficas desde un punto de vista científico yracional, y divulga la información sobre los resultados de estas investigaciones entre lacomunidad científica y el público en general."

Por otra parte, los escépticos no tratan de eliminar las creencias por sí mismas. Comobien dice Toharia, "una creencia, sin más, podría ser criticada pero la libertad de laspersonas para creer lo que quieran está por encima de lo demás (otra cosa es que quieranimponer esa creencia por la fuerza, claro). Pero un creencia que se disfraza de ciencia noes más que un fraude que hay que denunciar ante la sociedad como tal".

Por su parte, según Félix Ares, "Nunca nos hemos metido con las creencias; nos hemosmetido con aquellos que dicen que sus creencias están demostradas científicamente. Porejemplo, nunca nos hemos metido con los que creen que la Sabana Santa es la mortaja deJesucristo. Sí lo hemos hecho con los que dicen que la Ciencia ha demostrado que es lamortaja de Jesucristo."

Page 32: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

32 de 45 18/04/2008 20:44

Queda mucho por hacer

Además de por lo comentado anteriormente, además de pensar y vivir como un escéptico,se puede actuar como tal: Según Toharia "los que hemos dado ese paso pensamos que nobasta con tener una postura escéptica, sino que hay que evitar que determinados"cuentistas" sigan engañando a la gente; se trata de los que, tomando el idioma y laapariencia de la ciencia, no hacen más que propagar creencias sin fundamento racionalalguno".

En definitiva, se trata de combatir y someter a análisis escéptico no sólo lo paranormal,sino todo conocimiento situado en el límite del saber científico y toda afirmación que sesustente en él, en la pseudociencia o en la falsa ciencia. Así quedaba reflejado en eleditorial de la primera revista de la Sociedad: "Hay que acabar con las falacias a las quese agarran los charlatanes pseudocientíficos para defender su presencia en los medios decomunicación y para no ser objeto de chanzas, la principal de las cuales es argüir quetodas las ideas son respetables y tienen el mismo derecho a ser defendidas. No, no esverdad. No todas las ideas son respetables. Las idioteces no son respetables; sonidioteces. Y, a veces, peligrosas. Cuando un pseudoarqueólogo aventura que algunasrazas humanas descienden de extraterrestres y otras no, está haciendo un nada sutilejercicio de racismo, y el racismo no es respetable, y hay que denunciarlo".

El editorial también hacía referencia a la influencia de los pseudocientíficos a través delos poderosos medios de comunicación. En opinión de Luis Alfonso Gámez, si bien laprensa escrita ha ido retirando de sus páginas el mundo de la pseudociencia, los mediosaudiovisuales siguen siendo un lugar de referencia para los seguidores de lo paranormal.Queda por lo tanto mucho por hacer, sobre todo para que no ocurran casos como los depolíticos que apoyan la inclusión de la homeopatía en la Sanidad Pública o querespetables Universidades recojan en sus planes de estudios seminarios, cursos oasignaturas sobre astrología.

1.4 Algunos casos en la informática

HOAXES (burlas, engaños)

Mensajes de solidaridad para ayudar a niños enfermos que no existen, falsas alertas de virus, dudososmétodos para hacerse millonario. Cualquier cadena es buena para recolectar direcciones de correoelectrónico y saturar los servidores.

Hay otros que repiten el esquema de las viejas cadenas de la suerte que recibíamos por correo postal quete auguran calamidades si cortabas la cadena y te prometen convertirte en millonario si la sigues. He recibido muchas cadenas en las que se decía "no sé si será cierto pero por las dudas yo lo reenvío". Paralos temerosos, supersticiosos y magufos, la realidad es que yo he roto infinidad de cadenas y no me ha sucedido nada.

Básicamente, podemos dividir los hoaxes en las siguientes categorías:

* Alertas sobre virus incurables* Mensajes de temática religiosa* Cadenas de solidaridad* Cadenas de la suerte

Page 33: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

33 de 45 18/04/2008 20:44

* Leyendas urbanas* Métodos para hacerse millonario* Regalos de grandes compañías* Otros* Mensajes tomando el pelo a la gente que envía hoaxes

Hay otros mensajes que no nacen como hoaxes pero pueden ser considerados como tales:

* Poemas y mensajes de amor y esperanza (suelen venir en un archivo de Power Point pesadísimo).* Mensajes para unirte a programas de afiliados.* Chistes y fotos que circulan en cadena.

Enlace recomendado: Hoax. Los mitos más difundidos en Internet

Algunos detalles sobre los hoaxes(Información ampliada en Rompecadenas)

Características Objetivos Consecuencias

No tienenfirma.Algunosinvocan los nombres de grandescompañías.Piden alreceptor que lo envíe a todossus contactos.Te amenazancon grandesdesgracias sino lo reenvias.

Conseguir direccionesde mail.Congestionarlosservidores.Alimentar elego del autor.

Hacen perder tiempo y dinero al receptor.Congestionanlos servidores.Nos llenan depublicidad y basura.Hacen perder valor a cadenas creadas por gente que realmente lonecesita.

Hoax "Virgen de Guadalupe"

Este mensaje es un hoax y no debe ser reenviado. El texto es el siguiente:

"Asunto: VIRGEN DE GUADALUPE

No rompan la cadena, es milagrosa, pidan algo!!! Recuerden sus palabras: "No estoy yo aquique soy tu Madre?"

Page 34: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

34 de 45 18/04/2008 20:44

Carta a la Virgen de Guadalupe:Hermosa Virgen de Guadalupe, te pido en nombre de todos mis hermanos del mundo quebendigas y nos protejas.

Danos una prueba de tu amor y bondad y recibe nuestras plegarias y oraciones.Oh Purisima Virgen de Guadalupe, alcanzame de tu hijo el perdon de mis pecados, bendicionparami trabajo, remedio a mis enfermedades y necesidades, y todo lo que creas conveniente pedir para mi familia.

Oh Santa Madre de Dios, no desprecies las suplicas que te dirigimos en nuestras necesidades.

Queridos hermanos, antes que nada quiero decirles que la Virgen de Guadalupe es buena ymilagrosa y siempre nos acompaña en cualquier lugar.

Esta carta tiene como fin darle la vuelta al mundo para recibir milagros con esta hermosacadena.

Debes hacer 19 copias y repartirlas en los siguientes diez dias y a cambio recibiras una pruebade la Virgen por muy imposible que sea.

Esta carta es sagrada, por favor no te burles de ella, si la recibes y la repartes antes de los 10dias, tendras una sorpresa y una felicidad muy grande.

QUE TENGAS UN BUEN DIA"

SPAM (Correo no solicitado)

Todos los usuarios de correo electrónico estamos acostumbrados a recibir cada día mensajes publicitariosno solicitados. Esta práctica, aunque no es ilegal en muchos países, ya que no hay leyes que la prohiban,perjudica a todos los usuarios de internet, inclusive a quienes la realizan.

Actualmente, se calcula que más del 50% de los e-mails que se envían son no solicitados, o sea, sonspam. Esto quiere decir que en el momento en que estás leyendo este tema, se están enviando variosmillones de e-mails no solicitados. El spam es perjudicial para todos, hasta para la empresa que lo envía.

Por lo general, las direcciones son robadas o compradas. Yo mismo recibo cada día dos o tres ofertas debases de datos con millones de direcciones de email al increible precio de US$ 35.

Esta gente aclara, con gran dignidad, que no copia ni vende software. También ponen en sus mensajes(que dicho sea de paso son spam porque no son solicitados) "no compre bases truchas, todas nuestras bases cuentan con direcciones reales y activas".

Aunque hay algunos spammers que te envían solamente un mensaje, también hay muchos que tebombardean todas las semanas con el mismo mensaje con archivos adjuntos sobre la necesidad de filtrar el agua de la ducha con un análisis de varias páginas, que nadie lee. De todos modos, si cada persona queabre una página web te va a enviar un mail, el correo electrónico sería absolutamente inservible.

Tampoco es lógico que me envíen un mensaje en formato HTML promocionando un nuevo servicio dedistribución de videos, exclusivo para la ciudad de Lima, cuando yo vivo a miles de km de distancia.

Page 35: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

35 de 45 18/04/2008 20:44

Esto, además de ofrecer una imagen negativa sobre la empresa que envía el spam, muestra la poca utilidadde las bases de datos compradas.

Por otro lado los spammers invocan una supuesta ley por la cual el mensaje que están enviando no puedeser considerado spam si tiene una forma de ser removido. Esto es falso, esa ley no existe. Además, lamayoría de las veces si uno contesta el mail pidiendo ser eliminado de la lista, lo único que hace esconfirmar que su dirección existe. Por lo tanto, es conveniente no responder nunca a un mensaje no solicitado.

Lo mejor es aplicar filtros o reglas de mensaje para evitar recibir mensajes de esas direcciones, unprograma para el entorno Windows, gratuíto y muy bueno, es K9. Otra opción, es quejarse al postmasterdel que envía el spam.

Lo más peligroso de muchos correos no solicitados, es que pueden incluir archivos con virus o troyanos, yser activados ya sea de forma involuntaria al intentar leerlos o incluso si se tiene un programa de correo como Outlook (de Microsoft)se activan automaticamente.

Es imprescindible el tener siempre un programa antivirus y otro que detecte los troyanos, el detector de troyanos (o programas espía) más completo y gratuito es Ad-Aware, que se puede descargar de Lavasoft. Se ha de tener mucho cuidado con este tipo de programas, pues algunos eliminan los troyanos, pero ellos son otros troyanos.

Un troyano reciente, Whiter.F, está diseñado para eliminar todos los archivos del disco duro. Se propagamediante correo electrónico, redes P2P, canales de IRC o transferencias FTP. EL usuario ve un mensajeque dice "cometiste un acto de pirateria, te lo mereces" y seguidamente borra los ficheros del disco duro.

La proliferación de filtros y virus se esta convirtiendo en un problema para los "spammers" profesionales.Resulta que muchos proveedores de internet impiden que los mensajes comerciales no solicitados llegen alos buzones de los usuarios. Por supuesto que no están dispuestos a ver como ese millonario negocio sederrumba y ahora han centrado sus esfuerzos en bombardear a los usuarios de las aplicaciones demensajería instantánea.

AOL IM, Yahoo Messenger, ICQ y por supuesto MSN Messenger son desde hace unas semanas un lugardonde no es raro encontrarse con un mense promocionando un producto y que no sabes como ha llegadohasta allí. Se trata de spim, durante el 2003 se enviaron 1000 millones de spims, aunque en el 2002 fueron500 millones, según recoge en una investigación Ferris Research. Y para este año se prevén nada más ninada menos que 4000 millones.

Juego de Palabras: 'Spam'

Publicado en el suplemento cultural 'Territorios' de El Correo, 13.10.04

Page 36: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

36 de 45 18/04/2008 20:44

La lengua inglesa goza de una inventiva peculiar para crear palabras, y también de unacapacidad especial para consolidarlas en el habla. Así se ha visto con "spam", el términocon que ya todos los usuarios del correo electrónico denominan a los mensajesparasitarios que entran en su buzón. Hay quien piensa que la palabra es un tecnicismo dela informática formado bien mediante siglas, bien por abreviatura de otra voz más larga.Pero no nació así. "Spam" es el nombre de una marca de comida popularizada amediados del siglo XX. Se trataba de una variedad de carne en lata, puesta en el mercado norteamericano por la empresa charcutera Hormel Foods en 1937. Sirvió de alimento alos soldados estadounidenses y rusos en la II Guerra Mundial, y en los años 50 y 60empezó a exportarse a varios lugares del mundo. Fue entonces cuando lo que enprincipio se había llamado "Hormels Spiced Ham" quedó reducido a las cuatro letras de"Spam", de mayor pegada comercial. Nada de esto explicaría cómo pudo "spam" llegar ala jerga informática, ni siquiera metafóricamente, si no fuera porque los tronchantesMonty Python la usaron hasta la saciedad en un sketch de su "Flying Circus" en 1969. Enél, unos vikingos entraban en una taberna y pedían la carta a la camarera, quien lesrecitaba una inacabable retahíla de platos... en ninguno de los cuales faltaba el "spam":«huevos con spam, spam con tomate, bacon y spam...». Al igual que el correo electrónicono querido, el spam lo invadía todo y había que tragarlo de todas formas.José María Romera

PHISHING

Recientemente se han popularizado los ataques phishing. Es una estafa que utiliza mecanismoselectrónicos, como puede ser un mensaje de correo o una página web, para convencer al usuario querevele información sensible, que va desde datos personales y privados hasta las claves de acceso aservicios.

Los ataques phishing son posibles por la combinación de unos mecanismos débiles de protección deacceso que generalmente no son otra cosa que una simple combinación de usuario y contraseña, y lacapacidad innata de las personas a revelar cualquier información a quien nos la pregunte.

El método utilizado con más frecuencia en los casos de phishing masivo consiste en el envío de mensajesque simulan ser enviados por alguien sobre quien en teoría confiamos (habitualmente bancos) y donde senos informe que, por cualquier circunstancia, es preciso revelar nuestra contraseña de usuario o bien"verificar" nuestros datos rellenando un formulario.

Page 37: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

37 de 45 18/04/2008 20:44

La experiencia demuestra que la mayoría de las personas simplemente actúa de buena fe y se creecualquier petición de datos privados.

SMISHING

El SMiShing es como se denomina a un reciente tipo de delito usando técnicas de ingeniería socialmediante mensajes de texto dirigidos a los usuarios de telefonía móvil celular. Las víctimas recibenmensajes cortos de texto con contenido similar a este: "Estamos confirmando que se ha dado de alta para un servicio de citas. Se le cobrarán dos euros al día a menos que cancele su petición: www.?????.com",cuando accedemos a la dirección web, las víctimas son incitados a descargar algún programa que suele serun troyano y si operamos bajo Windows es fácil que se instale en el ordenador. Otras veces el mensajeseñala un número para anular el servicio y una grabación pedirá datos personales, entre ellos un númerode cuenta bancaria o tarjeta de crédito. Hay otros que avisan de que hemos recibido una foto, premio,video, tarjeta de felicitación, etc, con el mismo resultado final de ser víctima de un fraude.

WEB FALSA DE RECARGAS

- Es una variante del Phishing que solo busca un propósito, robar datos bancarios a los usuarios. Detrás dellamativas ofertas prometiendo recargas más económicas (habitualmente de telefonía móvil celular) sepuede esconder una estafa, que lo único que busca es hacerse con información del usuario.

-Este tipo de fraude puede ser algunas veces mas peligroso que el tradicional phishing, el ataque no esdirecto, se encuentra en los anuncios de los enlaces patrocinadores de buscadores de Internet.

OFERTA FALSA DE TRABAJO SCAM O PHISHING LABORAL / MULERO

El Scam es la captación de personas por medio de correos electrónicos, anuncios en web de trabajo, chats,irc, etc... donde empresas ficticias le ofrecen trabajar cómodamente desde casa y cobrando unosbeneficios muy altos. Sin saberlo, la víctima esta blanqueando dinero obtenido por medio del phishing(procedente de estafas bancarias).

* Siempre le piden que tenga o abra una cuenta bancaria.

* Su trabajo consiste en recibir transferencias bancarias a su cuenta bancaria, sacar este dineroposteriormente para enviarlo a países extranjeros por medio de empresas tipo Western Union,Money Gram.

* Frases para captar a victimas:

¿Esta usted en paro y tiene ganas de trabajar?

¿Quiere obtener un dinero extra?

¿Quiere trabajar cómodamente desde casa?

¿Quiere tener beneficios de forma rápida?.

* Nos mandan un contrato (falso) para hacer mas creíble la oferta.

Una vez obtenidos los datos de la victima y no colabora la victima será amenazada.

PHISHING-CAR - OFERTAS FALSAS DE VEHÍCULOS

Page 38: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

38 de 45 18/04/2008 20:44

Captación de compradores de coches a un coste muy bajo, la venta nunca se efectúa, esta persona realizaun pago como señal, se queda sin dinero y sin coche.

- ¿Como se produce y en que consiste?

Se producen por medio de llamativas ofertas en vehículos lujosos, incluso tienen web trampas connombre de dominios muy similares a empresas con mucho prestigio que se dedican a la venta devehículos de ocasión, pero todas los fraudes tienen algo en común:

* El pago se realiza por medio de empresas de envió de dinero a otros países (Western Union,Money Gram).

* El vendedor le oferta la entrega a domicilio.

* En un 90% el vehículo que venden esta fuera de su país, de esta manera usted solo puede verlo enfotos.

* Le piden primero el 30% o el 40% del precio ofertado como primera señal.

* Captan a las victimas por medio de anuncios en web de venta de coches o de segunda mano y porsupuesto la recepción de correos electrónicos.

* Muchas veces el vendedor dice que es un español que vive en Gran Bretaña y por motivoslaborales de estancia en el país ingles, tiene que cambiar de forma urgente de coche por que seconduce por la izquierda y su coche al estar matriculado en España el volante esta al lado contrarioy no se adapta, por este motivo vende el coche de forma muy económica, te enseñan un cochematriculado en España.

* La mayoría de los estafados enviaron el dinero a Reino Unido, esto no quiere decir que cambien.

PHARMING

Es una técnica para llevar a cabo estafas "online", aunque en muchos medios comentan que no esnecesario usar ingeniería social esta definición no es totalmente cierta ya que es necesario que nuestramaquina o la remota "sea manipulada". El pharming consiste en manipular las direcciones DNS que utiliza el usuario, con el objetivo de engañarle y conseguir que las paginas que visite el usuario no seanrealmente originales aunque su aspecto sea idéntico.

Resumiendo desvía el tráfico de Internet de un sitio web hacia otro sitio de apariencia similar, con lafinalidad de engañar a los usuarios para obtener sus nombres y contraseñas de acceso, que se registraránen la base de datos del un sitio falso que fue creando antes y donde simula a la web que suplantan.

* Hay gusanos y troyanos que realizan esta función.

* La victima se entera cuando existe un movimiento extraño de dinero en sus cuentas.

LOTERIAS FALSAS

Falso premio de loterías, el usuario recibe un correo electrónico donde le notifican que tiene un premio de

Page 39: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

39 de 45 18/04/2008 20:44

loteria, si un usuario contesta a este correo le solicitaran a continuación todos datos bancarios para unfalso ingreso del premio.

En otros casos se le solicita un parte del premio que tendrá que enviarlo a un país para poder cobrar elpremio completo.

En todos los casos el premio es falso.

(Fuentes: Ministerio de Industria, julio de 2006 y Guia Rápida sobre el Fraude en la Red. Comisión deseguridad en la red de la Asociación de Internautas a cargo de José María Luque Guerrero.")

BOTNET

Una botnet, o red robot, consiste en cierto número de ordenadores que, sin el conocimiento de suspropietarios, han sido infectados por código malicioso y están siendo manipulados para enviar programasmaliciosos, como spam y spyware, hacia otras computadoras en Internet. Tales ordenadores, llamados bots en el argot informático, operan bajo el control de un solo hacker (o un pequeño grupo de ellos)conocido como botmaster.

Una vez que el botmaster ha creado la botnet, los ataques pueden ocurrir de diferentes maneras:denegación de servicio distribuido Negación del Servicio (DDoS -Distributed Denial of Service), spam,keyloggers programas espías que capturan la actividad del teclado de los usuarios- o ataques remotos.

Una de las principales estrategias de captación de atención de esta amenaza se basa en la ingeniería social.Por ejemplo, a través del envío de un mail cuyo título indica: Check out this picture! (¡Mira esta foto!) .Así, en un archivo adjunto infectado que simula ser una imagen .JPG, los hackers pueden inspeccionar enbúsqueda de vulnerabilidades dentro del sistema operativo o navegador. En cuestión de segundos, la redqueda infectada.

Los síntomas que puede detectar el usuario para determinar si su red ha sido infectada son:

1. Lentitud anormal en su sistema.

2. Aumento en el consumo de ancho de banda.

3. Mensajes emergentes extraños.

Enlaces recomendados: Carlo M. Cipolla: estupidez humana Ccleaner, limpiador de basura en discos, bajo WindowsAd-Aware detector y limpieza de troyanos

Bibliografía recomendada:

Bouvet, J.F.(dirección), Hierro en las espinacas, Taurus, Madrid, 1999

Dawkins R., Destejiendo el arco iris, Tusquets Editores, Barcelona, 2000

Page 40: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

40 de 45 18/04/2008 20:44

Sagan C., El Mundo y sus Demonios, Planeta, Barcelona, 1997

Sánchez Ron J.M., Historia de la Física Cuántica, Crítica, Barcelona, 2001

Shapiro E. , Física sin matemáticas, Alhambra, Madrid, 1981

Enlaces recomendados:

ARP-SAPC Sociedad para el avance del pensamiento crítico

¿Existe el método científico?

La página racionalista

Rompecadenas

Sin dioses

Maguferías en criminologíaFraudes en medicina y psicología

Enlaces de interés:

El nacimiento de la mecánica cuántica

Lista de citas y frases célebres:

Creer es más fácil que pensar. He ahí la razón de que hayan más creyentes.

"Si la gente es buena sólo porque temen al castigo y porque esperan una recompensa,entonces verdaderamente somos un grupo lastimoso."

Albert Einstein

"Si ese ser es omnipotente, entonces cada ocurrencia, incluyendo cada acción humana,cada pensamiento humano y cada sentimiento y aspiración humana también es Su obra;¿cómo es posible pensar en hacer responsable al hombre por sus actos y pensamientos

ante tal Ser todopoderoso? Al dar castigo y recompensas, hasta cierto punto estaríajuzgándose a Sí mismo. ¿Cómo puede combinarse esto con la bondad y justicia que se le

adjudican?Albert Einstein, Out of My Later Years (New York: Philosophical Library, 1950),

p. 27.

"No puedo concebir un Dios que recompensa y castiga sus criaturas, o que tenga una voluntad del tipo que experimentamos en nosotros. Tampoco puedo ni quiero concebir un individuo que sobrevive a su muerte física; dejemos que los espíritus débiles, por

Page 41: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

41 de 45 18/04/2008 20:44

miedo o por egoísmo absurdo, valoren tales ideas. Yo estoy satisfecho con el misterio dela eternidad de la vida y con la consciencia y el atisbo de la maravillosa estructura del

mundo existente, junto con la lucha dedicada a comprender una porción, así seaminúscula, de la Razón que se manifiesta a sí misma en la naturaleza."

Albert Einstein, The World as I See It.

"El comportamiento ético de un hombre debería basarse suficientemente en la simpatía,educación y los lazos y necesidades sociales; no es necesaria ninguna base religiosa. El

hombre verdaderamente estaría en un pobre camino si tuviera que ser reprimido pormiedo al castigo y por la esperanza de una recompensa después de la muerte."

Albert Einstein, "Religion and Science", New York Times Magazine, 9 November 1930

"No creo en la inmortalidad del individuo, y considero que la ética es exclusivamente deinterés humano, sin ninguna autoridad sobrehumana detrás de ella."

"Albert Einstein: The Human Side", edited by Helen Dukas and Banesh Hoffman, and published by Princeton University Press.

"Las bases de la moralidad no deberían ser dependientes de los mitos ni atadas acualquier autoridad, no sea que la duda acerca del mito o de la legitimidad de la autoridad

ponga en peligro la base del juicio y la acción intachables. " Albert Einstein

"Si 50 millones de personas creen una tontería, sigue siendo una tontería." Anatole France

Eh! supongo que somos gente horrible y realmente inmoral porque nos rehusamos a acoger la idea de un tipo grande en el firmamento que exige ser adorado y alabado todo el

tiempo y que, si Ud. pertenece a la religión equivocada o no tiene religión, lo enviará aun campo de concentración subterráneo y eterno a freirse para siempre.

Kel Crum

Aunque se ha dicho que la fe mueve montañas, la experiencia ha demostrado que ladinamita lo hace mucho mejor.

Si conoce el autor de esta cita, le agradeceré mucho si me lo hace saber.

La verdad os hará libres. La mentira.. creyentes. Pepe Rodríguez.

El problema con el mundo es que los estúpidos están seguros de todo y los inteligentesestán llenos de dudas.Bertrand Russell

Bien, la evolución es una teoría. También es un hecho. Y los hechos y las teorías soncosas distintas, no escalones en una jerarquía de certeza creciente. Los hechos son losdatos acerca del mundo. Las teorías son estructuras de ideas que explican e interpretan

los hechos. Los hechos no desaparecen cuando los científicos debaten teorías rivales parainterpretarlos. La teoría de la gravitación de Einstein reemplazó la de Newton en este

siglo, pero las manzanas no se quedaron suspendidas en el aire esperando el resultado. Ylos humanos evolucionaron de ancestros simiescos ya sea por medio del mecanismo

propuesto por Darwin o por otro que falte por escubrirse.Stephen Jay Gould, "Evolution as Fact and Theory" Science and Creationism,

(New York: Oxford University Press, 1984), p. 118.

Page 42: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

42 de 45 18/04/2008 20:44

Siempre me ha parecido que el mayor pecado de todos es "presumir conocer la mente de Dios..."

David B. Stephens, Ph.D.

Su artículo sobre las supercherías de los creacionistas afirma que en Alabama, todos lostextos de biología ahora deben llevar adhesivos advirtiendo al lector de que la evoluciónes una "creencia sin probar" y "debería considerarse como (sólo) una teoría." Con mirasen el juego limpio, uno asumiría que los creacionistas igualmente insisten en que estos

adhesivos sean adheridos a las Biblias. John R. Harris, Carta al Editor, L.A. Times

Las creencias antiguas son difíciles de erradicar incluso aunque sean demostrablementefalsas

Edward O. Wilson, Consilience: The Unity of Knowledge, (First edition, New York:Alfred A. Knopf, 1998), p. 256.

Cuando el cristianismo tomó el control del Imperio Romano, suprimió los escritos de suscríticos e incluso los echó a las llamas.

Robert L. Wilken, The Christians As the Romans Saw Them (New Haven: Yale, 1984), p. xii.

La fe ciega puede justificar lo que sea. Si un hombre cree en un dios diferente, o incluso, si usa un ritual diferente para adorar al mismo dios, la fe ciega puede decretar que debe morir - en una cruz, empalado, atravesado por la espada de un Cruzado, con un disparo

en una calle de Beirut, o dinamitado en un bar en Belfast. Los memes de la fe ciegatienen sus propias formas inmisericordes de propagarse a sí mismos. Esto es cierto en la

fe ciega patriótica y política al igual que en la religiosa.Richard Dawkins, The Selfish Gene (New edition, New York: Oxford University

Press, 1989), p. 198.Fuente: La Página Racional

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en todas mis páginas

Page 43: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

1 de 26 18/04/2008 20:40

Introducción a la Informática. Estudios GAP,

facultad Derecho

Capítulo 2. Ofimática

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Ciencia en general

Page 44: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

2 de 26 18/04/2008 20:40

BiologíaCriminología

InicioContacte

IntroducciónOpenoffice (StarOffice)Editor de textosHoja de cálculo

Selecciona un texto ypulsa aquí para oírlo

2.1 Introducción

La explosión informativa que se da en la actualidad (entre cuyas causas destacan la incidencia de lainformación en el desarrollo de la tecnología e investigación y que la sociedad demanda información) esun hecho que hace difícil discernir la información conveniente o beneficiosa, de la que suponecontaminación o perjudicial, que a veces hace que se pueda decir que "no se distinga el árbol de entre elbosque".

La velocidad de crecimiento, hace necesario que el tratamiento de la información, se lleve a cabo deforma automática. Como origen y causa de éste crecimiento exponencial de la información, apareceparadójicamente la solución, la informática, definida como el tratamiento de la información de formaautomatizada.

La informática, tan versátil y polimórfica comenzó a aplicarse a diferentes campos, empezando el uso deordenadores en primer lugar en el ámbito militar, ocupando entonces gran espacio y consumiendo muchaenergía, a través de las sucesivas generaciones, en base a los adelantos de la ciencia, fueron reduciendo sutamaño y consumo, haciéndose asequible a cualquier tipo de actividad, habiéndose extendido en laactualidad al mundo económico, empresarial y personal, siendo imprescindibles en la oficina para teneruna eficaz gestión de la empresa. La fusión de los trabajos de oficina y de la informática dio lugar a laOfimática.

Se entiende como Ofimática todo lo relacionado con la organización de flujos de trabajo en oficinas,despachos, etc. y el respectivo apoyo a estos procesos mediante el ordenador. Dicho de paso, esta vez elespañol es más preciso que el inglés, con el nebuloso "System-engineering" y el más limitado "BusinessProcess Re-engineering" (BOP).

Hablar de la automatización de la oficina -en paralelo a la automatización de fábricas- no es correcto: enla fábrica el automatismo -el ordenador- sustituye al trabajador como dueño del proceso y lo convierte ensupervisor o reparador, mientras en las oficinas las personas siguen como actores principales, apoyándosesolamente para su trabajo y la coordinación del mismo en la infraestructura informática.

La ofimática no trata del uso del ordenador individual, promueve la reingeniería de los procesos y susetapas en su totalidad usando la informática como instrumento de eliminar, reducir y agilizar los mismos.

No es lo mismo como la informática tradicional con su enfoque en información estandarizada, si no queparte del hecho que cada caso es diferente y requiere un tratamiento distinto, de tal forma que se puedenestandarizar solamente las formas y el proceder pero no el contenido mismo, por tanto se trasciende elmodelo cliente-servidor tradicional.

Page 45: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

3 de 26 18/04/2008 20:40

En el entorno ofimático no son necesarios grandes equipos, sino que es suficiente con ordenadorespersonales sencillos conectados entre sí y a internet, formando redes locales entre los que se comparteinformación y se abaratan los costos. La ofimática de esta manera se ha convertido en algo que crece yque se usa cada vez más.

La ofimática, por sus peculiares características, suministra un buen campo para ejemplificar acerca delimpacto de la convergencia e integración de las tecnologías. La oficina, y por lo tanto la ofimática, que noes más que la tecnología aplicada a la oficina, es un entorno donde no existen tareas muy determinadas,entran actividades tan diversas como el tratamiento de documentos o la comunicación telefónica. En unentorno así es lógico pensar que se necesitan tecnologías combinadas, no soluciones aisladas encaminadasa resolver un problema en concreto. La ofimática ha de proporcionar herramientas que faciliten al usuario(sea éste un individuo o un grupo) la tarea a realizar.

Definiciones de ofimática:

Bair (1985) La ofimática es la utilización de ordenadores en la oficina como soporte a lostrabajadores de la información que no son especialistas en ordenadores.

Elli y Nutt (1980). Un sistema automatizado de información para la oficina trata derealizar las tareas de la oficina tradicional por medio de sistemas de ordenadores.

Hammer y Sirbu (1982). La utilización de la tecnología para mejorar la realización defunciones de oficina.

Olson y Lucas (1982). La automatización de oficinas se refiere a la utilización desistemas integrados de ordenadores y comunicaciones, como soporte a losprocedimientos administrativos en un entorno de oficina.

Aplicaciones

El software de ofimática comprende una serie de aplicaciones que se distribuyen de forma conjunta paraser empleadas simultáneamente en diversos sistemas. Usualmente estas herramientas de ofimáticaincluyen:

Aplicaciones de productividad personalAdministradores de bases de datosHojas de cálculoProcesadores de textosPresentadores de ideasGráficos

2.2 OpenOffice (StarOffice)

Es un conjunto completo (suite) para oficina creado por Star Division, una empresa alemana adquirida porSun Microsystems. Está compuesta por una serie de aplicaciones de productividad entre las que hayprocesador de textos, hoja de cálculo, gestor de bases de datos, programa para crear presentaciones,programa para diseño gráfico, navegador y unos cuantos accesorios más.

En sus comienzos fue muy popular en el entorno Linux, quienes podían conseguir versiones gratuitas através de Internet, aunque Star también ofrecía versiones comerciales. Sun decidió darle un gran impulso

Page 46: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

4 de 26 18/04/2008 20:40

y adoptó la filosofia de distribuirla gratuitamente, de manera que actualmente es posible bajarla desde laweb de Sun y otros muchos lugares de internet.

OpenOffice está disponible en versiones para sistemas operativos: Windows, Linux, Solaris. Mac OS yOS/2. Sun también lo distribuye en un CD-ROM. La empresa en realidad no cobra por la suite sino por elcosto de producir el CD y de imprimir los manuales.

Esta suite de oficina, resulta muy típica en cuanto a las aplicaciones que incluye. Sin embargo lointeresante es su origen, pues fue diseñada inicialmente para el sistema operativo Linux, sin embargo tuvotal acogida entre el público que Star Division decidió crear una versión aparte de la misma para Windows.En la actualidad no se emplea de forma intensiva con este sistema, pero según los expertos, ha logradosalir bien librada de muchas pruebas.

La suite está compuesta por varias aplicaciones básicas, más una serie de accesorios bastante útiles. Loscomponentes del paquete son (es indistinto considerar StarOffice u OpenOffice):

StarOffice Desktop: Un escritorio que se superpone al de Windows cuando se ejecuta la suite.StarOffice Writer: Procesador de textos, muy potentsuitecompatible con MS-Excel.StarOffice Impress: Herramienta para realizar presentaciones. Es compatible (no totalmente) conMS-PowerPoint.StarDraw: Aplicación para diseño gráfico. Compatible con Corel Draw y muy similar a estaherramienta.StarImage: Programa para edición de imágenes. Puede abrir archivos JPG, GIF, TIFF, BMP, etc.StarOffice Discussion: Lector para mensajes provenientes de grupos de discusión, bien desdeInternet o desde la Intranet de una empresa.StarOffice Base: Sencillo gestor de bases de datos, que permite abrir y editar archivos deMS-Access y de otras bases de datos como Oracle. La nueva versión es compatibe y parecida a MSAccess.StarMath: Singular aplicación que permite escribir fórmulas matemáticasStarOffice Chart: Aplicación que permite generar gráficos estadísticos, que complementa aStarOffice Calc.StarOffice Schedule: Agenda y calendario que le permite al usuario llevar control de susactividades profesionales y personales.StarOffice Basic: Herramienta que permite crear macros para las aplicaciones principales deStarOffice.

A partir del tres de mayo de 2006 el formato Open Document, con el que se almacenan los documentosescritos bajo Openoffice (o Staroffice), ha sido aprobado como estándar ISO 26300, hecho que no poseenotros editores de textos, como por ejemplo Microsoft Office. Este formato ocupa mucho menos que lostan conocidos .DOC y .RTF.

El Proyecto GNU por Richard Stallman publicado originalmente en el libro "OpenSources"

La primera comunidad que comparte el software

Cuando comencé a trabajar en el Laboratorio de Inteligencia Artificial del MIT en 1971,me incorporé a una comunidad que compartía el software que ya tenía varios años deexistencia. El acto de compartir software no estaba limitado a nuestra comunidad enparticular; es tan antiguo como las computadoras, de la misma manera que compartirrecetas es tan antiguo como cocinar. Pero nosotros lo hacíamos en mayor grado que lamayoría de los otros.

Page 47: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

5 de 26 18/04/2008 20:40

El Laboratorio de IA usaba un sistema operativo denominado ITS (IncompatibleTimesharing System) [Sistema incompatible de tiempo compartido] que los hackers (1)del staff habían diseñado y escrito en lenguaje ensamblador para la PDP-10 de Digital,una de las más grandes computadoras de la época. Mi trabajo como miembro de estacomunidad, como hacker de sistema en el staff del laboratorio de IA, era mejorar estesistema.

No denominábamos "software libre" a nuestro software porque dicho término no existía;pero éso es lo que era. Cuando alguien de otra universidad o compañía deseaba aportar yusar un programa, lo permitíamos con gusto. Si usted veía a alguien usando un programainteresante y poco conocido, siempre se podía pedir el código fuente para verlo, demanera que uno podía leerlo, cambiarlo, o canibalizar ciertas partes del mismo para hacerun nuevo programa.

(1) El uso de "hacker" para referirse al "quebrantador de la seguridad" es una confusiónproveniente de los medios masivos. Nosotros los hackers nos negamos a reconocer dichosignificado, y continuamos utilizando la palabra para indicar a "alguien apasionado por laprogramación y que disfruta al ser hábil e ingenioso".

El colapso de la comunidad La situación cambió drásticamente durante la primera partede los 1980s cuando Digital discontinuó la serie PDP-10. Su arquitectura, elegante ypoderosa en los 60s, no se pudo extender naturalmente a los espacios dedireccionamiento más grandes que se hicieron factibles en los 80s. Esto significó queprácticamente todos los programas que componían a ITS se volvieron obsoletos.

La comunidad de hackers del laboratorio de IA ya se había colapsado, cierto tiempoantes. En 1981, la compañía derivada Symbolics había contratado a casi todos loshackers del laboratorio de IA, y la despoblada comunidad ya no era capaz de mantenersea sí misma. (El libro Hackers, de Steve Levy, describe estos eventos, y muestra un claropanorama de esta comunidad en sus comienzos.) Cuando el laboratorio de IA adquiereuna nueva PDP-10 en 1982, sus administradores deciden utilizar el sistema no libre detiempo compartido de Digital en lugar de ITS.

Las computadoras modernas de esa época, como la VAX o el 68020, tienen sus propiossistemas operativos, pero ninguno de ellos es software libre: usted debe firmar un"acuerdo de no revelar" (nondisclosure agreement) aún para obtener una copiaejecutable.

Esto quiere decir que el primer paso para poder utilizar una computadora era prometerque no ayudaría a su vecino. Se prohibía la existencia de una comunidad cooperativa. Laregla hecha por los dueños de software propietario era: "si usted comparte con su vecino,usted es un pirata. Si desea algún cambio, ruéguenos para que lo hagamos nosotros".

La idea de que el sistema social del software propietario--el sistema que dice que ustedno tiene permitido compartir o cambiar el software-- es antisocial, que no es ético, queestá sencillamente equivocado, puede ser una sorpresa para algunos lectores. ¿Pero quéotra cosa podríamos decir sobre un sistema que se basa en dividir el público e impidesocorrer a los usuarios? Los lectores que se sorprendan por esta idea es porque hantomado el sistema social del software propietario tal como se lo han dado, o porque lohan juzgado en función de los términos sugeridos por las empresas que hacen softwarepropietario. Los publicadores de software han trabajado duro y parejo para convencer alas personas de que solamente hay una manera de ver este tema.

Page 48: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

6 de 26 18/04/2008 20:40

Cuando los publicadores de software habla de "hacer valer" sus "derechos" o de "detenerla piratería", lo que *dice* es secundario. El mensaje real de estas declaraciones está enlas presunciones no declaradas que ellos dan por sentado; se supone que el público debeaceptarlas de manera acrítica. Así que examinémoslas.

Una de las presunciones es que las compañías de software tienen un derecho naturalincuestionable que las habilita para ser dueñas de un software, y por lo tanto a disponerde poder sobre todos los usuarios del mismo. (Si éste fuera un derecho natural, entoncessin importar cuánto daño le causare al público, no podríamos objetarlo.) De manera muyinteresante, la Constitución de los Estados Unidos de América y la tradición legalrechazan esta visión; el copyright no es un derecho natural, sino un monopolio artificialimpuesto por el gobierno que limita el natural derecho a copia de los usuarios.

Otra presunción no declarada es que la única cosa importante sobre del software es quétrabajo le permite realizar a usted--que a nosotros los usuarios de computadoras no nosdebe importar qué clase de sociedad nos permiten tener.

Una tercera presunción es que no tendríamos software utilizable (o, que nuncatendríamos un programa para hacer tal o cual trabajo en particular) si no le ofrecemos auna compañía poder sobre los usuarios de dicho programa. Esta presunción puede habersonado plausible, antes de que el movimiento por el software libre demostrara quepodemos hacer abundante software útil sin ponerle cadenas.

Si nos resistimos a aceptar dichas presunciones, y juzgamos acerca de estos temas sobrela base moral que nos da el sentido común ordinario y ponemos al usuario en primerlugar, arribaremos a conclusiones muy distintas. Los usuarios de computadoras debentener libertad para modificar los programas para ajustarlos a sus necesidades, y libertadpara compartir el software, porque la base de la sociedad está en ayudar a las otraspersonas.

No se dispone aquí del espacio necesario para explayarnos en el razonamiento que haydetrás de esta conclusión, y por ese motivo pido al lector que vea la página webhttp://www.gnu.org/philosophy/why-free.es.html.

Una elección moral severa. Al desaparecer mi comunidad, se hizo imposible continuarcomo antes. En lugar de ello, me enfrenté a una elección moral severa.

La elección fácil era unirme al mundo del software propietario, firmar los acuerdos de norevelar, y prometer que no iría en ayuda de mi amigo hacker. Es muy probable quedesarrollara software que se entregaría bajo acuerdos de no revelar y de esa maneraincrementara también las presiones sobre otra gente para que traicionen a suscompañeros.

Podría haber hecho dinero de esta manera, y tal vez me hubiese divertido escribiendocódigo. Pero sabía que al final de mi carrera, al mirar atrás a los años construyendoparedes para dividir a la gente, sentiría que usé mi vida para empeorar el mundo.

Ya había estado del lado en que se reciben los acuerdos de no revelar, por experienciapropia, cuando alguien se negó a entregarme, a mí y al Laboratorio de IA del MIT, elcódigo fuente del programa de control de nuestra impresora.(La ausencia de ciertascaracterísticas en este programa hacía que el uso de la impresora fuera frustrante enextremo.) Así que no podía decirme a mí mismo que los acuerdos de no revelar son

Page 49: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

7 de 26 18/04/2008 20:40

inocentes. Me enojó mucho cuando él se negó a compartir con nosotros; no podía ahoracambiarme de lugar y hacerle lo mismo a todos los demás.

Otra elección, fácil pero dolorosa, era abandonar el campo de la computación. De estamanera no se usarían mis habilidades para mal, pero aún así se desperdiciarían. Yo nosería culpable por dividir y restringir a los usuarios de computadoras, pero ello sucederíaigual.

Así que busqué la manera en la cual un programador podría hacer algo para bien. Mepregunté: ¿habrá algún programa o programas que yo pueda escribir, de tal manera deotra vez hacer posible una comunidad?

La respuesta era clara: lo primero que se necesitaba era un sistema operativo. Este es elsoftware crucial para empezar a usar una computadora. Con un sistema operativo ustedpuede hacer muchas cosas; sin uno, ni siquiera puede funcionar la computadora. Con unsistema operativo libre, podríamos tener de nuevo una comunidad de hackerscooperando--e invitar a cualquiera a unírsenos. Y cualquiera sería capaz de utilizar unacomputadora sin que de movida conspire a favor de la privación de sus amigas o amigos.

Como desarrollador de sistema operativo, tengo las habilidades apropiadas para esa tarea.Así que aún cuando no tenía garantías de éxito, me dí cuenta que había sido elegido parahacer ese trabajo. Decidí hacer que el sistema fuese compatible con Unix pues así seríaportable, y los usuarios de Unix podrían cambiarse a él con facilidad. El nombre GNU seeligió siguiendo una tradición hacker, como acrónimo recursivo para "GNU's Not Unix".

Un sistema operativo es más que un núcleo, apenas suficiente para hacer funcionar otrosprogramas. En los 1970s, todo sistema operativo digno de llamarse así incluíaprocesadores de órdenes, ensambladores, compiladores, intérpretes, depuradores, editoresde texto, programas de correo, y muchos otros. ITS los tenía, Multics los tenía, VMS lostenía, Unix los tenía. El sistema operativo GNU también los incluiría.

Más adelante escuché estas palabras, atribuídas a Hillel (1):

"Si yo no me preocupo por mí mismo, ¿quién lo hará por mí?

Si sólo me preocupo por mí mismo, ¿qué es lo que soy?

Si no lo hago ahora, ¿cuándo?"

La decisión de iniciar el proyecto GNU se basó en un espíritu similar.

(1) Como ateo que soy, no soy seguidor de ningún líder religioso, pero algunas vecesencuentro que admiro alguna cosa que dijo uno de ellos.

Libre como en libertad El término "free software" [N. del T.: en inglés free = libre ogratis] se malinterpreta a veces--no tiene nada que ver con el precio. El tema es lalibertad. Aquí, por lo tanto, está la definición de software libre: un programa es softwarelibre, para usted, un usuario en particular, si:

- Usted tiene libertad para ejecutar el programa, con cualquier propósito.

- Usted tiene la libertad para modificar el programa para adaptarlo a sus secesidades.(Para que esta libertad sea efectiva en la práctica, usted debe tener acceso al código

Page 50: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

8 de 26 18/04/2008 20:40

fuente, porque modificar un programa sin disponer del código fuente esextraordinariamente dificultoso.)

- Usted tiene la libertad para redistribuir copias, tanto gratis como por un cánon.

- Usted tiene la libertad para distribuir versiones modificadas del programa, de tal maneraque la comunidad pueda beneficiarse con sus mejoras.

Como "free" [libre] se refiere a libertad y no a precio, no existe contradicción entre laventa de copias y el software libre. De hecho, la libertad para vender copias es crucial: lascolecciones de software libre que se venden en CD-ROM son importantes para lacomunidad, y la venta de las mismas es una manera importante de obtener fondos para eldesarrollo de software libre. Por lo tanto, si la gente no puede incluir un programa endichas colecciones, dicho programa no es software libre.

A causa de la ambigüedad de "free", la gente ha estado buscando alternativas, pero nadieha encontrado una alternativa apropiada. El idioma inglés tiene más palabras y maticesque ningún otro, pero carece de una palabra simple, no ambigüa que signifique "libre",como en libertad-- "unfettered" [sin cadenas] es la palabra que más se acerca ensignificado. Otras alternativas como liberated [liberado], freedom [libertad] y open[abierto] tienen el significado equivocado o alguna otra desventaja.

Software GNU y el sistema GNU El desarrollo de un sistema complejo es un proyectode gran envergadura. Para ponerlo dentro de mi alcance, decidí adaptar y usar las piezasexistentes de software libre siempre que fuera posible. Por ejemplo, en los mismoscomienzos decidí que TeX sería el principal compaginador de texto; unos pocos añosmás tarde, decidí que usaría el sistema X Window, en lugar de escribir otro sistema deventanas para GNU.

A causa de esta decisión, el sistema GNU no coincide con la suma de todo el softwareGNU. El sistema GNU incluye programas que no son software GNU, programas quefueron desarrollados por otras personas y proyectos para sus propios propósitos, pero quenosotros podemos utilizar porque constituyen software libre.

El inicio del proyecto En enero de 1984 renuncié a mi trabajo en el MIT y comencé aescribir software GNU. Era necesario abandonar el MIT, para que el MIT no interfirieracon la distribución de GNU como software libre. Si hubiese continuado como parte delstaff, el MIT podría haber reclamado propiedad sobre el trabajo, y podría haber impuestosus propios términos de distribución, o incluso podría haberlo transformado en unpaquete de software propietario. Yo no tenía la intención de hacer un trabajo enorme sólopara ver que perdía la utilidad para la cual se había realizado: crear una nueva comunidadpara compartir software.

Sin embargo, el Profesor Winston, por entonces a cargo del Laboratorio de IA del MIT,me invitó amablemente a que continúe utilizando las instalaciones del Laboratorio.

Los primeros pasos Poco después de comenzar en el proyecto GNU, escuché acerca delFree University Compiler Kit [Kit de Compilador de la Universidad Libre], tambiénconocido como VUCK. (La palabra alemana para free comienza con una V.) Se tratabade un compilador diseñado para manejar múltiples lenguajes, C y Pascal entre ellos, ypara admitir múltiples máquinas destino. Le escribí a su autor para consultarle si GNU lopodría usar.

Page 51: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

9 de 26 18/04/2008 20:40

Él me respondió burlonamente, dejando en claro que la universidad era libre, pero elcompilador no. Por lo tanto, decidí que mi primer programa para el proyecto GNU seríaun compilador multilenguaje, multiplataforma.

Con la esperanza de evitar tener que escribir todo el compilador por mí mismo, obtuve elcódigo fuente del compilador Pastel, que era un compilador multiplataforma desarrolladoen el "Lawrence Livermore Lab". Admitía, y estaba escrito en una versión extendida dePascal, diseñada para usarse como lenguaje de programación a nivel de sistema. Leagregué un front end para C, y comencé a transportarlo a la computadora Motorola68000. Pero tuve que abandonar la idea al descubrir que el compilador necesitaba variosmegabytes de espacio en la pila, y los sistemas Unix basados en 68000 sólo permitían 64kbytes.

Fue entonces cuando me dí cuenta que el compilador Pastel funcionaba analizando elfichero de entrada completo y transformándolo en un árbol sintáctico, luego convertíatodo el árbol sintáctico en una cadena de "instrucciones" y luego generaba el ficheroentero de salida, y en ningún momento liberaba el espacio ocupado. En ese momentollegué a la conclusión de que debería escribir un nuevo compilador partiendo desde cero.Ese nuevo compilador se conoce ahora como GCC; no hay nada del compilador Pastel enél, pero me las arreglé para adaptar y usar el front end que había hecho para C. Pero esopasó unos años más tarde; primero, trabajé sobre GNU Emacs.

GNU Emacs Comencé a trabajar sobre GNU Emacs en setiembre de 1984, y al principiode 1985 ya empezaba a ser usable. Esto me permitió usar sistemas Unix para las tareas deedición; como no tenía ningún interés en aprender a usar vi o ed, había realizado mistareas de edición en otras clases de máquinas hasta ese momento.

A estas alturas, la gente comenzó a querer usar Emacs, con lo que apareció el tema decómo distribuirlo. Por supuesto, lo puse en el servidor de FTP anónimo de lacomputadora del MIT que usaba. (Esta computadora, prep.ai.mit.edu, se transformó acausa de ello en la sede principal de distribución a través de FTP de GNU; cuando fuedecomisada unos años después, transferimos el nombre a nuestro nuevo servidor FTP.)Pero en aquella época, mucha gente interesada no estaba en Internet y no podía obteneruna copia por FTP. Así que la pregunta era: ¿qué tendría que decirles a ellos?

Podría haber dicho, "Busque un amigo que esté en la red y que haga una copia parausted". O podría haber hecho lo que hice con el Emacs para PDP-10 original, decirles:"Envíeme por correo una cinta y un sobre con su dirección y los sellos de correonecesarios, y yo le devolveré la cinta con Emacs dentro". Pero no tenía trabajo, y estababuscando de qué manera podía hacer dinero con el software libre. Entonces anuncié quele enviaría la cinta a quien me la pidiera, mediante el pago de un cánon de $150. De estamanera, inicié un negocio de distribución de software libre, el precursor de las compañíasque en la actualidad distribuyen completos sistemas GNU basados en Linux.

¿Es libre el programa para cualquier usuario? Si un programa es software librecuando abandona las manos de su autor, esto no significa que será software libre paratodos los que tienen una copia de él. Por ejemplo, el software de dominio público(software que no está sujeto al copyright de nadie) es software libre; pero cualquierapuede hacer una versión modificada propietaria a partir de él. En ese mismo sentido,muchos programas libres están sujetos a copyright pero se distribuyen mediante sencillaslicencias permisivas que admiten las versiones modificadas propietarias.

El ejemplo paradigmático de este problema es el X Window System. Desarrollado en el

Page 52: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

10 de 26 18/04/2008 20:40

MIT, y entregado como software libre con un licencia permisiva, fue rápidamenteadoptado por varias compañías de computación. éstas agregaron X a sus sistemas Unixpropietarios, sólo en formato binario, y lo cubrieron con el mismo acuerdo de no revelar.Estas copias de X eran tanto (software) libres en cuanto lo era el Unix.

Los desarrolladores del X Window System no consideraban que esto fuese unproblema--esperaban y buscaban que esto sucediese. Su meta no era la libertad, sólo el"éxito", definido como "tener muchos usuarios". No les preocupaba si esos usuariostenían libertad, sólo que sean numerosos.

Esto nos lleva a una situación paradójica en la cual dos maneras distintas de contabilizarla cantidad de libertad dan por resultado dos respuestas distintas a la pregunta "¿Es libreeste programa?". Si usted juzga en base a la libertad que se proporcionaba con lostérminos de distribución de la entrega del MIT, diría que X es software libre. Pero siusted mide la libertad del usuario promedio de X, diría que X es software propietario. Lamayoría de los usuarios de X usan las versiones propietarias que vienen con los sistemasUnix, no la versión libre.

Copyleft y la GNU GPL La meta de GNU era dar libertad a los usuarios, no sólopopular. Por lo tanto, debíamos usar términos de distribución que impidieran que elsoftware GNU se transformara en software propietario. El método que utilizamos sedenomina "copyleft".(1)

El copyleft usa la ley de copyright, pero la da vuelta para servir a lo opuesto de supropósito usual: en lugar de ser un medio de privatizar el software, se transforma en unmedio de mantener libre al software.

La idea central del copyleft es que le damos a cualquiera el permiso para correr elprograma, copiar el programa, modificar el programa y redistribuir versionesmodificadas--pero no le damos permiso para agregar restricciones propias. De estamanera, las libertades cruciales que definen al "software libre" quedan garantizadas paracualquiera que tenga una copia; se transforman en derechos inalienables.

Para que el copyleft sea efectivo, las versiones modificadas deben ser también libres.Esto asegura que todo trabajo basado en el nuestro quedará disponible para nuestracomunidad si se publica. Cuando los programadores que tienen trabajo comoprogramadores se ofrecen como voluntarios para mejorar un software GNU, es elcopyleft lo que impide que sus empleadores digan: "no puede compartir esos cambios,porque los queremos usar para hacer nuestra versión propietaria del programa".

El requerimiento de que los cambios deben ser libres es esencial si queremos asegurar lalibertad para cada usuario del programa. Las compañías que privatizaron el X WindowSystem en general realizaron algunos cambios para transportarlo a sus sistemas yhardware. Estos cambios fueron pequeños comparados con el gran tamaño de X, pero nofueron triviales. Si el hacer cambios fuera una excusa para negar libertad a los usuarios,sería fácil para cualquiera tomar ventaja de la excusa.

Un tema relacionado trata la combinación de un programa libre con código no libre. Talcombinación será inevitablemente no-libre; cualesquiera libertades que falten a la parteno-libre, le faltarán también al todo. Si se permiten tales combinaciones se abriría unagujero lo suficientemente grande como para hundir el barco. Por ello, un requerimientocrucial para el copyleft es que se tape este hoyo: cualquier cosa agregada a o combinadacon un programa bajo copyleft debe ser tal que la versión combinada total sea también

Page 53: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

11 de 26 18/04/2008 20:40

libre bajo copyleft.

La implementación específica de copyleft que usamos para la mayoría del software GNUes la Licencia Pública General de GNU (GNU General Public License) o LPG GNU paraabreviar. Tenemos otras clases de copyleft que se usan en circunstancias específicas. Losmanuales GNU también están bajo copyleft, pero utilizamos un copyleft mucho mássimple, porque no es necesaria la complejidad de la LPG GNU para los manuales.

(1) En 1984 o 1985, Don Hopkins (un compañero muy imaginativo) me envío una cartapor correo. En el sobre, escribió varios dichos divertidos, entre ellos éste: "Copyleft--allrights reversed" [Copyleft--todos los derechos "reversados"]. Utilicé la palabra"copyleft" para denominar al concepto dedistribución que estaba desarrollando en esaépoca.

La Fundación para el Software Libre A medida que el interés en el uso de Emacscrecía, otras personas se involucraron en el proyecto GNU, y decicimos que era elmomento de buscar fondos nuevamente. Por ello en 1985 creamos la "Free SoftwareFoundation" [Fundación para el Software Libre--FSL], una organización de caridad librede impuestos para el desarrollo del software libre. La FSL también acaparó el negocio dedistribución en cinta de Emacs; más adelante lo extendió al agregar otros productos desoftware libre (tanto GNU como no-GNU) a la cinta, y con la venta de manuales libres.

La FSL acepta donaciones, pero la mayoría de sus ingresos han provenido siempre de lasventas--de copias de software libre, y otros servicios relacionados. En la actualidad vendeCD-ROMs de código fuente, CD-ROMs con binarios, manuales agradablementeimpresos (todos con libertad para redistribuir y modificar), y las Distribuciones De Lujo(en las cuales incorporamos toda la colección de software lista para usar en la plataformade su elección).

Los empleados de la Fundación para el Software Libre han escrito y mantenido unacantidad de paquetes de software GNU. Dos notables casos son la biblioteca C y el shell.La biblioteca C de GNU es lo que usa todo programa que corre en un sistemaGNU/Linux para comunicarse con Linux. Fue desarrollada por un miembro del staff de laFundación para el Software Libre, Roland McGrath. El shell que se usa en la mayoría delos sistemas GNU/Linux es BASH, el Bourne Again SHell(1), que fue desarrollado porBrian Fox, empleado de la FSL.

Hemos provisto los fondos para el desarrollo de esos programas porque el proyecto GNUno se queda solamente en herramientas o un entorno de desarrollo. Nuestra meta era tenerun sistema operativo completo, y esos programas eran necesarios para esa meta.

(1) "Bourne again shell" es una broma sobre el nombre "Bourne Shell", que era el shellusual en Unix.

Asistencia para el Software Libre La filosofía del software libre rechaza una prácticaespecífica de negocio ampliamente difundida, pero no está contra el negocio. Cuando losnegocios respetan la libertad de los usuarios, les deseamos éxito.

La venta de copias de Emacs demostró una clase de negocio con software libre. Cuandola FSL se apropió de ese negocio, necesité de otro medio de vida. Lo encontré en la ventade servicios relacionados con el software libre que había desarrollado. Esto incluía laenseñanza, sobre temas tales como cómo programar GNU Emacs, y cómo personalizarGCC, y desarrollo de software, en la mayor parte transportar GCC a otras plataformas.

Page 54: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

12 de 26 18/04/2008 20:40

En la actualidad cada una de esas clases de negocios con software libre está puesta enpráctica por una cantidad de corporaciones. Algunas distribuyen colecciones de softwarelibre en CD-ROM; otras venden asistencia en niveles que van desde responder preguntasde usuarios, reparación de errores, hasta el agregado de nuevas características mayores.Incluso estamos viendo compañías de software libre basadas en el lanzamiento de nuevosproductos de software libre.

Aunque, tenga cuidado--una cantidad de compañías que se asocian a sí mismas con eltérmino "open source" en realidad basan su negocio en software no-libre que trabaja consoftware libre. Ellas no son compañías de software libre, sino compañías de softwarepropietario cuyos productos tientan a los usuarios a abandonar su libertad. Ellas usan ladenominación "valor agregado" lo que refleja los valores que desearían que adoptemos:conveniencia por encima de libertad. Si valoramos más la libertad, deberíamosdenominarlos productos con "libertades usstraídas".

Metas técnicas La meta principal de GNU era el software libre. Aún en el caso que GNUno tuviese ventajas técnicas sobre Unix, tendría una ventaja social, al permitir cooperar alos usuarios, y una ventaja ética, al respetar la libertad de los usuarios.

Pero era natural que se apliquen los estándares conocidos de buenas prácticas altrabajo--por ejemplo, reservar dinámicamente las estructuras de datos para evitar límitesde tamaño fijo arbitrarios, y manejar todos lo posibles códigos de 8 bits cuando tuviesesentido.

Además, rechazamos el enfoque de Unix para pequeños tamaños de memoria, al decidirque no trabajaríamos para máquinas de 16 bits (era claro que las máquinas de 32 bitsserían la norma para cuando el sistema GNU estuviese terminado), y al no hacer ningúnesfuerzo para reducir el uso de memoria, a menos que excediera el megabyte. En losprogramas para los cuales no era crucial el manejo de ficheros muy grandes,incentivamos a los programadores a leer el fichero completo en memoria, y luegoexplorar su contenido, sin tener que preocuparse por la E/S.

Estas decisiones permitieron que muchos programas GNU sobrepasaran a suscontrapartidas UNIX en confiabilidad y velocidad.

Computadoras donadas A medida que la reputación del proyecto GNU crecía, la gentecomenzó a ofrecer al proyecto donaciones de máquinas con UNIX corriendo. Fueronmuy útiles porque la manera más fácil de desarrollar componentes de GNU era hacerloen un sistema UNIX, y luego ir reemplazando los componentes del sistema uno a uno.Pero ellas trajeron una cuestión ética: si era correcto para nosotros siquiera tener unacopia de UNIX.

UNIX era (y es) software propietario, y la filosofía del proyecto GNU dice que nodebemos usar software propietario. Pero, aplicando el mismo razonamiento que lleva a laconclusión que la violencia en defensa propia está justificada, concluí que era legítimousar un paquete propietario cuando ello era crucial para desarrollar un reemplazo libreque ayudaría a otros a dejar de usar el paquete propietario.

Pero, aún cuando esto era un mal justificable, era todavía un mal. En la actualidad ya notenemos más copias de Unix, porque las hemos reemplazado por sistemas operativoslibres. En los casos en que no pudimos reemplazar el sistema operativo de una máquinapor uno libre, se procedió al reemplazo de la máquina.

Page 55: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

13 de 26 18/04/2008 20:40

La lista de tareas de GNU A medida que proseguía el proyecto GNU, se desarrollaron oencontraron una cantidad creciente de componentes, y eventualmente se vio la utilidad dehacer una lista con los huecos faltantes. La usamos para reclutar desarrolladores paraescribir las piezas faltantes. Esta lista comenzó a conocerse como la lista de tareas deGNU. Además de los componentes Unix faltantes, agregamos a la lista otros útilesproyectos de software y documentación que, de acuerdo a nuestra visión, debe tener unsistema verdaderamente completo.

En la actualidad, casi ningún componente Unix queda en la lista de tareas GNU--esostrabajos ya han sido terminados, fuera de algunos no esenciales. Pero la lista está llena deproyectos que algunos pueden denominar "aplicaciones". Cualquier programa que seaatrayente a más de una estrecha franja de usuarios sería una cosa útil para añadir a unsistema operativo.

Aún los juegos están incluídos en la lista de tareas--y han estado desde el principio. Unixincluía juegos, así que GNU debía incluirlos también. Pero la compatibilidad no es unproblema para los juegos, así que no seguimos la lista de juegos que Unix tenía. En lugarde ello, listamos un espectro de diferentes clases de juegos que les podrían gustar a losusuarios.

La LPG para Bibliotecas de GNU La biblioteca C de GNU usa una clase especial decopyleft denominada "GNU Library General Public License" [Licencia Pública Generalpara Bibliotecas de GNU] que da permiso para enlazar software propietario con labiblioteca. ¿Porqué hacer esta excepción?

No es una cuestión de principios; no hay ningún principio que diga que debemos incluircódigo de los productos de software propietario. (¿Porqué contribuir con un proyecto quese rehusa a compartir con nosotros?) El uso de la LPGB para la biblioteca C, o paracualquier otra biblioteca, es un tema de estrategia.

La biblioteca C hace un trabajo genérico; todo sistema propietario o compilador vienecon una biblioteca C. Por lo tanto, el hacer que nuestra biblioteca esté sólo disponiblepara el software libre, no le daría al software libre ninguna ventaja--sólo hubieradesalentado el uso de nuestra biblioteca.

HAy un sistema que es una excepción a esto: en un sistema GNU (y esto incluye lossistemas GNU/Linux), la biblioteca C de GNU es la única biblioteca C. Así que lostérminos de distribución de la biblioteca C de GNU determinan si es posible compilar unprograma propietario para un sistema GNU. No hay ninguna razón ética para permitiraplicaciones propietarias en un sistema GNU, pero estratégicamente parece que si no sepermite, ello hará más para desalentar el uso del sistema GNU que para alentar eldesarrollo de aplicaciones libres.

Por estas razones es que el uso de la LPG para Bibliotecas es una buena estrategia para labiblioteca C. Para otras bibliotecas, la decisión estratégica necesita considerarse en cadacaso particular. Cuando una biblioteca hace un trabajo especial que puede ayudar aescribir cierta clase de programas, y luego entregarla bajo la LPG, limitándola sólo aprogramas libres, es una manera de ayudar a otros desarrolladores de software libre, alproporcionarles una ventaja contra el software propietario.

Considere la GNU Readline, una biblioteca desarrollada para proporcionar la edición enla línea de órdenes para BASH. Readline se entrega bajo la LPG GNU ordinaria, no bajo

Page 56: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

14 de 26 18/04/2008 20:40

la LPG para Bibliotecas. De esta manera probablemente se reduce la cantidad de uso deReadline, pero eso no significa pérdida para nosotros. Mientras tanto, al menos una útilaplicación se ha transformado en software libre específicamente para poder usarReadline, y ésa es una ganancia real para nuestra comunidad.

Los desarrolladores de software propietario tienen las ventajas que el dinero proporciona;los desarrolladores de software libre necesitan crear ventajas entre sí. Tengo la esperanzade que algún día tendremos una gran colección de bibliotecas cubiertas por LPG que notengan parangón entre el software propietario, que proporcionen útiles módulos quesirvan como bloques constructivos en nuevo software libre, y que sumen una mayorventaja para adelantar el desarrollo de software libre.

¿Rascarse una comezón? Eric Raymond dice que "Todo buen trabajo de softwarecomienza con un desarrollador rascándose una comezón personal". Puede que ocurraalgunas veces, pero muchas de las piezas esenciales de software GNU se desarrollaron alos fines de tener un sistema operativo libre completo. Vinieron desde una visión y unplan, no desde el impulso.

Por ejemplo, desarrollamos la biblioteca C de GNU porque un sistema del estilo Unixnecesita una biblioteca C, el shell Bourne-Again (bash) porque un sistema del estilo Unixnecesita un shell, y el tar GNU porque un sistema del estilo Unix necesita un programatar. Lo mismo se aplica a mis propios progamas--el compilador GNU C, GNU Emacs,GDB y GNU Make.

Algunos de los programas GNU se desarrollaron para tratar amenazas específicas anuestra libertad. Por ello, desarrollamos gzip para reemplazar al programa Compress,perdido para nuestra comunidad a causa de las patentes LZW. Proporcionamos fondospara desarrollar LessTif, y más recientemente iniciamos GNOME y Harmony, para lidiarcon los problemas causados por cierta biblioteca propietaria (vea más abajo). Estamosdesarrollando el GNU Privacy Guard para reemplazar un software popular de cifradono-libre, porque los usuarios no deben verse obligados a elegir entre privacidad ylibertad.

Por supuesto, la gente que escribe estos programas se interesa en el trabajo, y variaspersonas han agregado muchas características para satisfacer sus propias necesidades eintereses. Pero ése no es el motivo por el cual existe el programa.

Desarrollos inesperados Al comienzo del proyecto GNU, imaginé que desarrollaríamosel sistema GNU completo, y luego lo entregaríamos completo. No es así como hasucedido.

Como cada componente de un sistema GNU se implementó en un sistema Unix, cadacomponente podía correr en sistemas Unix, mucho antes de que existiera un sistemaGNU completo. Algunos de esos programas se hicieron populares, y los usuarioscomenzaron a extenderlos y transportarlos--a las distintas versiones incompatibles deUnix, y algunas veces a otros sistemas también.

El proceso hizo que dichos programas sean más potentes, y atrayeran tanto fondos comocontribuyentes al proyecto GNU. Pero también demoró el completamiento de un sistemamínimo en funciones por varios años, a medida que el tiempo de los desarrolladoresGNU se usaba para mantener esos transportes y en agregar características a loscomponentes existentes, en lugar de adelantar la escritura de los componentes faltantes.

Page 57: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

15 de 26 18/04/2008 20:40

El GNU Hurd En 1990, el sistema GNU estaba casi completo; el único componenteimportante faltante era el núcleo. Decidimos implementar nuestro núcleo como unacolección de procesos servidores corriendo sobre Mach. Mach es un micronúcleodesarrollado en Carnegie Mellon University y luego en la University of Utah; el GNUHURD es una colección de servidores (o "manada de ñus") que corren sobre Mach, y seocupan de las tareas del núcleo Unix. El inicio del desarrollo se demoró mientrasesperábamos que Mach se entregue como software libre, tal como se había prometido.

Una razón para elegir este diseño había sido evitar lo parecía ser la parte más dura deltrabajo: depurar el núcleo sin un depurador a nivel de código fuente para utilizar. Estaparte del trabajo ya había sido hecha en Mach, y esperábamos depurar los servidoresHURD como programas de usuario, con GDB. Pero llevó un largo tiempo hacer estoposible, y los servidores multihilo que se envían mensajes unos a otros han sido muydifíciles de depurar. Hacer que HURD trabaje sólidamente se ha tardado varios años.

Alix El núcleo GNU no se iba a llamar originalmente el HURD. Su nombre original eraAlix--denominado así a partir de una mujer que era mi amor de aquella época. Ella eraadministradora de sistema Unix y había hecho notar que su nombre seguía el patrón denomenclatura común a las versiones de sistema Unix; a modo de broma, le dijo a susamigos, "Alguien debería darle mi nombre a un núcleo". Yo no dije nada, pero decidísorprenderla con un núcleo llamado Alix.

No se dió de esa manera. Michael Bushnell (ahora Thomas), el principal desarrolladordel núcleo, prefirió el nombre HURD, y redefinió Alix para referirse a cierta parte delnúcleo--la parte que captura las llamadas del sistema y las gestiona por medio del envíode mensajes a los servidores HURD.

Más tarde, Alix y yo nos separamos, y ella cambió su nombre; independientemente, eldiseño de HURD se cambió para que la biblioteca C envíe los mensajes directamente alos servidores, y esto hizo que el componente Alix desapareciera del diseño.

Pero antes que estas cosas sucedieran, un amigo de ella encontró el nombre Alix en elcódigo fuente de HURD, y se lo mencionó. Así que el nombre cumplió su objetivo.

Linux y GNU/Linux El GNU HURD no está listo para el uso en producción.Afortunadamente, está disponible otro núcleo. En 1991, Linus Torvalds desarrolló unnúcleo compatible con Unix y lo denominó Linux. Cerca de 1992, al combinar Linux conel sistema no tan completo de GNU, resultó en un sistema operativo libre completo. (Lacombinación en sí misma dió un considerable trabajo.) Es gracias a Linux que podemosver funcionar un sistema GNU en la actualidad.

Denominamos a esta versión GNU/Linux, para expresar su composición comocombinación de un sistema GNU con Linux como núcleo.

Desafíos en nuestro futuro Hemos probado nuestra capacidad para desarrollar unamplio espectro de software libre. Esto no significa que somos invencibles o que nadanos puede detener. Muchos desafíos hacen que el futuro del software libre sea incierto;estar a la altura de los mismos requerirá esfuerzos firmes y resistencia, algunas vecesdurante años. Requerirá la clase de determinación que la gente muestra cuando valora sulibertad y no deja que nadie se la quite.

Las siguientes cuatro secciones discuten dichos desafíos.

Page 58: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

16 de 26 18/04/2008 20:40

Hardware secreto Los fabricantes de hardware tienden cada vez más a mantener lasespecificaciones de hardware secretas. Esto hace difícil la escritura de controladoreslibres, y de esa manera, que Linux y XFree86 puedan admitir nuevo hardware. Tenemossistemas libres completos por hoy, pero no los tendremos mañana si no podemos usar lascomputadoras del mañana.

Existen dos maneras de lidiar con este problema. Los programadores pueden haceringeniería reversa para darse cuenta como usar el hardware. El resto de nosotros puedeelegir el hardware que admite software libre; a medida que nuestro número crezca, elsecreto de las especificaciones se transformará en una política contraproducente.

La ingeniería reversa es un trabajo enorme; ¿tendremos los programadores con lasuficiente determinación para realizarla? Sí--si hemos construído un fuerte sentimientode que el software libre es un tema de principio, y de que los controladores no libres sonintolerables. ¿Y una gran cantidad de nosotros estará dispuesto a gastar dinero extra, oincluso tiempo extra, para que podamos usar controladores libres? Sí, si se difunde ladeterminación para tener libertad.

Bibliotecas no libres Una biblioteca no libre que corre sobre un sistema operativo actúacomo una trampa para los desarrolladores de software libre. Las características atractivasde la biblioteca son el cebo; si usted usa la biblioteca, cae en la trampa, porque suprograma no puede ser parte útil de un sistema operativo libre. (Estrictamente hablando,podemos incluir su programa, pero no funcionará sin la biblioteca faltante.) Peor aún, siel programa que usa la biblioteca se hace popular, puede hacer caer a otrosprogramadores incautos dentro de la trampa.

La primer instancia de este problema fue el kit de herramientas Motif, allá en los 80s.Aunque aún no había sistemas operativos libres, era claro el problema que Motif iba acausarles más adelante. El proyecto GNU respondió de dos maneras: solicitando a losproyectos individuales de software libre que admitan tanto los widgets del kit libre deherramientas de X como el de Motif, y solicitando a alguien que escriba un reemplazolibre para Motif. El trabajo tomó varios años; LessTif, desarrollado por HungryProgrammers [Programadores hambrientos] tomó la potencia necesaria como paraadmitir la mayoría de las aplicaciones Motif recién en 1997.

Entre 1996 y 1998, otra biblioteca kit de herramientas GUI no libre, denominada Qt, seusó en una sustancial colección de software libre: el escritorio KDE.

Los sistemas libres GNU/Linux no podían usar KDE, porque no podíamos usar labiblioteca. Sin embargo, algunos distribuidores comerciales de sistemas GNU/Linux queno eran tan estrictos al adherirse al software libre, agregaron KDE a sussistemas--produciendo un sistema con más capacidades, pero menos libertad. El grupoKDE instaba activamente a más programadores a usar Qt, y millones de nuevos "usuariosde Linux" nunca escucharon la idea de que había un problema con esto. La situación sepresentaba lúgubre.

La comunidad del software libre respondió a este problema de dos maneras: GNOME yHarmony.

GNOME, el GNU Network Object Model Environment [Entorno Modelo de Objetos enRed de GNU], es el proyecto de escritorio de GNU. En 1997 Miguel de Icaza lo inició, yse desarrolló con aporte de Red Hat Software, para proporcionar capacidades deescritorio similares, pero usando sólo software libre. Tiene también ventajas técnicas,

Page 59: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

17 de 26 18/04/2008 20:40

tales como admitir una variedad de lenguajes, no sólo C++. Pero su propósito principalfue la libertad: evitar el uso de cualquier software no libre.

Harmony es una biblioteca de reemplazo compatible, diseñada para poder hacerfuncionar el software KDE sin usar Qt.

En noviembre de 1998, los desarrolladores de Qt anunciaron un cambio de licencia, quecuando se lleve a cabo, hará que Qt sea software libre. No hay manera de estar seguro,pero pienso que esto ocurrió en parte debido a la firme respuesta de la comunidad frenteal problema que presentaba Qt cuando no era libre. (La nueva licencia es inconveniente einjusta, así que aún es deseable evitar su uso.)

¿Cómo responderemos a la siguiente biblioteca no libre que nos tiente? ¿Comprenderá latotalidad de la comunidad la necesidad de mantenerse fuera de la trampa? ¿Alguno denosotros entregará libertad por conveniencia, y generará un importante problema?Nuestro futuro depende de nuestra filosofía.

Patentes de software La peor amenaza que enfrentamos proviene de las patentes desoftware, que pueden colocar a algoritmos y características fuera de los límites delsoftware libre hasta por veinte años. Las patentes del algoritmo de compresión LZW sesolicitaron en 1983, y hasta ahora no podemos entregar software libre que produzca GIFsadecuadamente comprimidos. En 1998, se tuvo que quitar de una distribución unprograma libre para producir audio comprimido MP3 a causa de la amenaza de un juiciopor patente.

Existen maneras de tratar con las patentes: podemos buscar evidencia de que la patenteno es válida, y podemos buscar maneras alternativas de realizar el trabajo. Pero cada unode estos métodos trabaja sólo ciertas veces; cuando ambos fallan, una patente puedeforzar a que todo software libre carezca de alguna característica que los usuarios desean.¿Qué haremos cuando esto suceda?

Aquellos de nosotros que valoremos el software libre por la libertad nos apegaremos alsoftware libre de cualquier manera. Nos las arreglaremos para tener nuestro trabajorealizado sin las características patentadas. Pero aquellos que valoren el software libreporque esperan que sea técnicamente superior, cuando las patentes lo obliguen amantenerse atrás, es más probable que piensen que se trata de una falla. Por lo tanto, sibien es útil hablar acerca de la efectividad práctica del modelo "catedral" de desarrollo, yde la confiabilidad y potencia de cierto software libre, no debemos detenernos allí.Debemos hablar acerca de libertad y principio.

Documentación libre La mayor deficiencia en nuestro sistema operativo libre no está enel software-- es la falta de buenos manuales libres que podamos incluir en nuestrossistemas. La documentación es una parte esencial de cualquier paquete de software;cuando un paquete importante de software libre no viene con un buen manual libre, ésees un hueco importante. Tenemos muchos de esos huecos en la actualidad.

La documentación libre, como el software, es un tema de libertad, no de precio. Elcriterio para un manual libre es muy parecido al del software libre: es una cuestión deotorgar a los usuarios ciertas libertades. La redistribución (incluso la venta comercial)debe estar permitida, en línea y en papel, de tal manera que el manual pueda acompañar acada copia del programa.

El permiso para modificarlo es también crucial. Como regla general, no creo que sea

Page 60: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

18 de 26 18/04/2008 20:40

esencial que las personas tengan permiso para modificar toda clase de artículos y libros.Por ejemplo, no creo que usted o yo estemos obligado a dar permiso para modificarartículos como este, que describe nuestras acciones y nuestra visión.

Pero existe una razón particular debido a la cual la libertad para modificar ladocumentación es crucial para el software libre. Cuando la gente ejercita su derecho amodificar el software, y agrega o cambia características, si son concientes tambiéncambiarán el manual--así proporcionarán documentación precisa y útil con el programamodificado. Un manual que no permite a los programadores ser concientes y terminar eltrabajo, no satisface las necesidades de nuestra comunidad.

La existencia de algunas clases de límites acerca de cómo se deben hacer lasmodificaciones no implica problemas. Por ejemplo, el requerimiento de preservar elaviso de copyright del autor original, los términos de distribución, o la lista de autores,están bien. Tampoco trae problemas requerir que la versión modificada incluya un avisode que fue modificada, e incluso que haya secciones completas que no puedan borrarse ocambiarse siempre y cuando dichas secciones traten temas que no sean de índole técnica.Estas clases de restricciones no son un problema porque no impiden al programadorconciente que adapte el manual para ajustarlo al programa modificado. En otras palabras,no impiden a la comunidad del software libre la completa utilización del manual.

Sin embargo, debe ser posible modificar todo el contenido *técnico* del manual, y luegodistribuir el resultado en todos los medios usuales, a través de todos los canales usuales;si esto no es así, las restricciones obstruyen la comunidad, el manual no es libre, ynecesitaremos otro maual.

¿Será que loa desarrolladores de software libre tendrán la conciencia y determinaciónpara producir un espectro completo de manuales? Una vez más, nuestro futuro dependede nuestra filosofía.

Debemos hablar acerca de la libertad En la actualidad se estima que hay unos diezmillones de usuarios de sistemas GNU/Linux, tales como el Debian GNU/Linux y RedHat Linux. El software libre ha desarrollado ciertas ventajas prácticas que hacen que losusuarios estén congregándose hacia allí por razones puramente prácticas.

Las buenas consecuencias de esto son evidentes: mayor interés en el desarrollo desoftware libre, más clientes para empresas de software libre, y mayor capacidad paraanimar a las compañías a que desarrollen productos de software libre, en lugar deproductos de software propietario.

Pero el interés en el software crece más rápido que la conciencia acerca de la filosofíasobre la cual está basado, y esto crea problemas. Nuestra capacidad de enfrentar losdesafíos y amenazas que se describieron más arriba depende de la voluntad demantenerse firmes del lado de la libertad. Para asegurarnos de que nuestra comunidadtiene esta voluntad, necesitamos esparcir la idea entre los nuevos usuarios a medida queellos llegan a nuestra comunidad.

Pero estamos fracasando en esto: los esfuerzos realizados para atraer nuevos usuarios anuestra comunidad sobrepasan por lejos a los esfuerzos dedicados a la enseñanza cívicaacerca de nuestra comunidad. Necesitamos hacer ambas cosas, y es necesario quemantengamos ambos esfuerzos balanceados.

"Open Source" La enseñanza acerca de la libertad a los nuevos usuarios se hizo más

Page 61: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

19 de 26 18/04/2008 20:40

difícil en 1998, cuando una parte de la comunidad decidió dejar de usar el término"software libre" y usar "open source software" en su lugar.

Algunos de los que favorecieron este término tenían como objetivo evitar la confusión de"free" con "gratis"--una meta válida. Otros, sin embargo, apuntaban a apartar el espíritude principio que ha motivado el movimiento por el software libre y el proyecto GNU, yresultar así atractivos a los ejecutivos y usuarios comerciales, muchos de los cualessostienen una ideología que pone las ganancias por encima de la libertad, de lacomunidad, y de los principios. Por lo tanto, la retórica de "open source" se centra en elpotencial de realización de potente software de alta calidad, pero esquiva las ideas delibertad, comunidad y principio.

Las revistas sobre "Linux" son un claro ejemplo de esto--están llenas de propagandasacerca de software propietario que funciona sobre GNU/Linux. Cuando aparezca lapróxima Motif o Qt, ¿incentivarán estas revistas a los programadores a apartarse de ellas,o pondrán propagandas de las mismas?

El apoyo de las empresas puede contribuir a la comunidad de varias maneras; si todo lodemás se mantiene igual, esto es útil. Pero si ganamos su apoyo mediante el recurso dehablar menos de libertad y principio esto puede ser desastroso; hace que empeore eldesbalance previo entre el alcance y la educación cívica.

"Software libre" y "open source" describen la misma categoría de software, más o menos,pero dicen diferentes cosas acerca del software, y acerca de los valores. El proyecto GNUcontinúa utilizando el término "free software" [software libre] para expresar la idea deque la libertad, no solamente la tecnología, es lo importante.

¡Pruébelo! La filosofía de Yoda ("No hay 'para probar'") suena linda, pero no funcionaconmigo. He realizado la mayor parte de mi trabajo con ansiedad por saber si podríallevarlo a cabo, y con la inseguridad de que no sería suficiente alcanzar la meta si lolograba. Pero lo intenté igual, porque no había otro entre el enemigo y mi ciudad. Para mipropia sorpresa, algunas veces he tenido éxito.

Algunas veces he fallado; algunas de mis ciudades han caído. Luego he encontrado otraciudad amenazada, y me preparé para otra batalla. A lo largo del tiempo, aprendí a buscarlas amenazas y ponerme entre ellas y la ciudad, y llamar a otros hackers para que se unana mí.

En la actualidad, con frecuencia no soy el único. Es un consuelo y un placer cuando veoun regimiento de hackers excavando para mantener la trinchera, y caigo en cuenta queesta ciudad sobrevivirá--por ahora. Pero los peligros son mayores cada año que pasa, yahora Microsoft tiene a nuestra comunidad como un blanco explícito. No podemos darpor garantizado el futuro en libertad. ¡No lo dé por garantizado! Si usted desea mantenersu libertad, debe estar preparado para defenderla.

Por favor envíe sus preguntas (en inglés) sobre FSF & GNU a [email protected]. Tambiénhay otras maneras de contactar a la FSF.

Por favor envíe comentarios (en inglés) estas páginas a [email protected],envíe otras preguntas (en inglés) a [email protected].

Page 62: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

20 de 26 18/04/2008 20:40

Copyright (C) 1998 Richard Stallman

Está permitida la copia textual y distribución de este artículo en su totalidad por cualquiermedio, siempre y cuando esta nota se preserve.

Actualizado: $Date: 2003/02/18 20:33:43 $ $Author: luferbu $

Traducción: César Ballardini (Argentina) <[email protected]>

Revisión: - Ramsés Morales (Panamá) <[email protected]>- César Villanueva (Venezuela) <[email protected]>- Oscar Mendez Bonilla (México) <[email protected]>

Coordinación: Hugo Gayosso <[email protected]>

Actualizada: 30 Nov 1999 Cesar Javier Bolaños Vizcarra (México) < [email protected]>Actualizada: 08 Feb 2003 Luis Bustamante

2.3 Editor de textos

Los editores o procesadores de texto son unos de los programas más importantes y usuales en lautilización de cualquier ordenador personal. La posibilidad de escribir largos o repetitivos documentos,corregirlos, modificarlos e imprimirlos es una ventaja sustancial del ordenador sobre la máquina deescribir.

Los procesadores o tratamientos de textos son programas que permiten realizar todas las operacionesnecesarias para crear, guardar, recuperar, modificar e imprimir un texto. Al escribir con un procesador detextos, no hay que preocuparse del final de la línea, ni tampoco del fin de página, ya que el programa pasaautomáticamente a la línea siguiente o a la hoja siguiente cuando una esté completa. El propio procesadordelimitará el tamaño de la hoja, líneas por página.

Mediante sencillos procedimientos podemos mover, borrar, subrayar o repetir párrafos, frases y palabrasdentro de un texto. Una vez finalizada la manipulación del documento, podemos guardarlo en un soportemagnético u óptico, imprimirlo o ambas cosas. (Cuando se edita o crea un texto, éste reside en la memoriainterna, luego solo permanece temporalmente, perdiéndose al desconectar el equipo. Para evitar lapérdida, antes debe guardarse en un soporte, si deseamos conservarlo).

Los procesadores tienen acceso y comunicación con otros programas: bases de datos, hojas de cálculo,diccionarios, otros archivos, etc, aunque esto ya no es imprescindible en los entornos Linux o Windows,dada las facilidades que ofrecen para la interrelación entre programas.

Todos los procesadores de textos permiten establecer cabeceras y piés de página, definir la anchura deldocumento, el número de caracteres por línea, definir longitud de páginas, marcar márgenes y tabuladores,mover, copiar o borrar bloques de textos, definir atributos de texto (negrita, subrayado ...).Tambiénofrecen la posibilidad de crear de forma sencilla tablas, gráficos, dibujos e insertar incluso imágenes. Esnormal la la posibilidad de visualizar el documento en pantalla en su formato definitivo, es decir tal ycomo va a imprimirse. Esta muestra previa es muy interesante para comprobar su aspecto final sinnecesidad de imprimirlo; se conoce como WYSIWYNG (se obtiene lo que se ve). Un programa que no esWYSIWYNG, aunque es el más potente de todos es Tex, escrito por Donald Knuth de la Universidad deStanford (EE.UU.), muy utilizado por los matemáticos y científicos en general, contando con muchosdefensores.

Page 63: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

21 de 26 18/04/2008 20:40

Respecto a la seguridad, guardan automáticamente una copia del documento anterior; otros tienen clavesde acceso (PASSWORD) que protegen el texto, permitiendo su manipulación sólamente a los usuariosque conozcan la contraseña. Sin embargo Microsoft WORD tiene niveles de seguridad muy deficientes.

Los procesadores de texto tienen la posibilidad de disponer de los tipos de letras del respectivo sistemaoperativo, aunque es el tipo de impresora la que realmente determina la variedad y calidad que se puedeutilizar.

Los procesadores actuales cuentan con programas auxiliares como los diccionarios ortográficos, desinónimos o bilingües. Los ortográficos sirven para revisar el documento completo detectando los erroresde mecanografía y faltas de ortografía. Los de sinónimos (tesauros) permiten consultar posiblesalternativas a una palabra. Los diccionarios bilingües permiten buscar la palabra en otro idioma. Otrasposibilidades hasta hace poco tiempo consideradas como avanzadas son: editores de fórmulas, posibilidadde definir macros, sombreados de marcos, escritura en columnas.

Es también muy importante la existencia de una ayuda lo más sencilla y completa posible que evite laconsulta constante del manual. Algunos programas incluyen discos tutores y libros de aprendizaje conejemplos.

Otros programas interesantes son los comprobadores de estilo que comparan los textos con una serie dereglas gramaticales. Detectan errores de puntuación, mayúsculas, palabras repetidas, palabras en desuso.Los procesadores de textos son programas de usurario que permiten realizar todas las operacionesnecesarias para crear, guardar, recuperar, modificar e imprimir un texto.

El procesamiento de textos no es escribir

Aunque se piense que el ser un buen mecanógrafo es importante para escribir en un programa editor detextos, hay algunas aptidudes de la mecanografía que son contraproducentes. Seguidamente se listan losnuevos hábitos a tener en cuenta al pasar al uso de un editor de textos:

Utiliza la tecla intro (o retorno de carro) sólo cuando debas. Los ajustes de línea se producenautomáticamente.

Utiliza guías de tabulación y márgenes, no la barra espaciadora para alinear columnas

No subrayes. Utiliza cursivas y negritas para enfatizar el texto.

Utiliza sólo un espacio después de un punto. Se deben evitar los espacios dobles

Benefíciate de los caracteres especiales. Caracteres no comunes de las máquinas de escribir hacenque los escritos parezcan más profesionales.

Nuevas herramientas para la manipulación de textos

Los procesadores de textos han evolucionado rapidamente, las nuevas tendencias han dado lugar agrandes cambios:

Procesamiento de textos escritos a mano. Es algo que requiere programas muy complicados, peroactualmente existen los ordenadores denominados tablet PC, basados en las modernas Otro ejemploson los equipos denominados PDA (asistente personal digital) como por ejemplo los Palm, en losque se introduce el texto con una especie de lápiz.

Procesamiento de texto con el habla. Hablando frente a un micrófono se le dice al ordenador lo que

Page 64: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

22 de 26 18/04/2008 20:40

debe escribir e incluso se le pueden dar órdenes de cómo hacerlo. Los programas de reconocimientode voz buscan patrones en las ondas de sonido interpretando las palabras. Actualmente hay algunosdisponibles, con resultados buenos, siempre que se les haga un aprendizaje previo para cadainterlocutor. El más conocido es Voice Type de IBM.

Procesadores web en línea (online). El usuario usa un programa residente en un servidor, a través deinternet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los másconocidos son: Zohowriter, AjaxWrite, Google Docs , proveniente de la adquisición de Writely porGoogle y gOFFICE. Algunos incorporan otras aplicaciones ofimáticas.

Un poco de historia sobre Tex

La aparición de las computadoras ha introducido a los autores de artículos, informes olibros científicos (o a sus secretarios/as) en el mundo de la edición. La edición de trabajosen la mayor parte de las disciplinas de carácter humanístico-lingüístico no presentadificultades importantes. Sin embargo en textos científicos de matemáticas, física, etc. lasituación es diferente debido a la necesidad de usar fórmulas o gráficos complicados.

Hasta hace bien poco tiempo era frecuente encontrar trabajos mecanografiados con lasfórmulas escritas a mano. Con la llegada de los ordenadores personales y el uso desistemas que operan en un entorno gráfico (Windows, Mac, X-Windows,...) algunos deesas dificultades han quedado obsoletas, pero han aparecido otras:

- La gran variedad de editores existentes en el mercado, con las ventajas parciales deunos y otros o las preferencias de los autores, dificulta el intercambio de originales,incluso aunque los autores trabajen sobre un mismo sistema operativo. La frenética (einteresada) carrera de las "versiones" o la existencia (cuando están disponibles) de"conversores" que nunca acaban de funcionar satisfactoriamente, no contribuye a mejorarel panorama.

- La posibilidad de intercambio de originales entre autores que utilizan entornosoperativos diferentes (MSDOS, OSDOS, UNIX, VMS, MAC,..) es prácticamenteinexistente. En el mejor de los casos será posible exportar a un formato "solo texto" conel coste de reducir las prestaciones del editor a las de una vulgar máquina de escribir.

- El hecho de la creciente globalización que en nuestro mundo se da en todos los ámbitosde la actividad humana, requiere y genera recursos de interconectividad, trabajo enequipo (a veces desde lugares geográficamente alejados), etc. Pero las enormesposibilidades que hoy existen para la interconectividad de los ordenadores a través de lasredes locales o internacionales tiene como handicap lo expresado en los dos puntosanteriores. Incluso en el limitado ámbito del "sólo texto", quienes han tenido algunaexperiencia conocen bien que los caracteres con algún tipo de acento se comportan deforma impredecible al viajar por las redes.

En los años 1970 la American Mathematical Society encargó a Donald E. Knuth,profesor de la Universidad de Stanford, la creación de un sistema para escribir textoscientíficos (especialmente matemáticos), que fuera cómodo y transportable entreplataformas. A partir de las ideas de Gutemberg y utilizando las computadoras comoherramientas, Knuth creó el TeX que muchos consideran ahora como la aportación másimportante habida en este campo desde la imprenta de Gutemberg.

Prácticamente el cien por cien de los departamentos de matemáticas en todas las

Page 65: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

23 de 26 18/04/2008 20:40

universiades utilizan TeX para escribir en sus publicaciones y trabajos científicos, buenaparte de las revistas mas importantes especializadas en matemáticas utilizan TeX (desdeluego todas las que publica la AMS) y algunas solo publican originales que les seanremitidos en este formato. Los ficheros con formato TEX viajan constantemente por lasredes informáticas de todo el mundo como mensajeros de investigaciones realizadas yresultados científicos obtenidos.

Implementado inicialmente en máquinas grandes con sistema propio, el TeX fueposteriormente compilado en los diferentes plataformas y sistemas. Comercializadodurante el tiempo necesario para amortizar la inversión, Donald E. Knuth y la AmericanMathematical Society pusieron de forma gratuita el programa fuente a disposición de lacomunidad científica internacional. Siguiendo su ejemplo, muchas personas hancontribuido (y contribuyen) desinteresadamente a implementar módulos adicionales alprograma original. Hay incluso una asociación de usuarios de TeX la "TeX Users Group"para intercambiar información sobre problemas comunes y soluciones. En colaboracióncon ellos la AMS publica desde 1980 una revista llamada TUGboat sobre estos temas.

Actualmente está en fase de elaboración, entre todos los usuarios que deseen participar,la versión 3 del dialecto LaTeX , el más extendido de los dialectos del TeX, coordinadapor un equipo "The LaTeX team" que pone libremente a disposición de la comunidadcientífica, semestralmente en servidores Internet, los progresos que se van realizando conlas ideas y colaboraciones de todos. La aproximación asintótica a esa versión 3 se llamaLaTeXe.

El TeX es un compilador, no es un editor de textos. De hecho, los autores puedenemplear para crear los textos TEX su editor preferido y esa facilidad también hacontribuido a su difusión.

2.4 Hojas de cálculo

Las hojas de cálculo (hojas electrónicas o planillas) nacieron cuando surgió la necesidad de adaptar lossistemas de planificación utilizados en los grandes ordenadores a los nuevos microordenadores. Son unacombinación de calculadora, lápiz y papel, que unido a la potencia y capacidad de almacenar datos de losordenadores, las convierten en una herramienta de primerísima importancia en el mundo empresarial.

En 1961 se desveló el concepto de una hoja de cálculo electrónica en el artículo "Budgeting Models andSystem Simulation" de Richard Mattessich. Pardo y Landau merecen parte del crédito de este tipo deprogramas, y de hecho intentaron patentar (patente en EE.UU. número 4398249) algunos de losalgoritmos en 1970. La patente no fue concedida por la oficina de patentes por ser una invenciónpuramente matemática. Pardo y Landau ganaron un caso en la corte estableciendo que "algo no deja de serpatentable solamente porque el punto de la novedad es un algoritmo". Este caso ayudó al comienzo de laspatentes de software. La primera hoja de cálculo comercializada masivamente (Visicalc, posteriormentecomprada por Lotus) nació en 1977 de una idea de un estudiante, Dan Bricklin, de administración deempresas de la Universidad de Harvard (EE.UU.).

Los cálculos empresariales manejan unas cantidades de datos que suelen variar dependiendo de lossupuestos, por lo que hasta la invención de la hoja electrónica se había desechado aplicar la informática aese entorno de trabajo, donde cada caso originaría un programa distinto.

La hoja de cálculo se presenta como una tabla o matriz de dos dimensiones (actualmente existen de tres)que consta de un número de filas y columnas variable según el modelo del que se trate. (Ej. en LOTUS123, una de las primeras, tiene 8192 filas y 256 columnas, en total más de 2000000 de celdas). Con los

Page 66: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

24 de 26 18/04/2008 20:40

datos se pueden representar variados tipos de gráficos, de gran utilidad en ambientes empresariales.

Las filas son los datos horizontales y las columnas los verticales. El lugar donde se produce laintersección de una fila y una columna se denomina celda. Las columnas habitualmente se nombran conletras (A,B, ... AA, AB, ....) y las filas desde 1 en adelante.

Hojas de cálculo web (online)

Análogamente a como sucede con los editores de textos, el usuario emplea un programa residente en unservidor, a través de Internet, no siendo preciso el disponer del editor de textos en el propio ordenador.Los más conocidos son: EditGrid, ThinkFree, IRows, GoogleDocs, Zohowriter, Xcellery.

Prácticas de ofimática de la asignatura Introducción a la Informática:

- Uso de Google Docs- Prácticas con Openoffice

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en mis webs

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana

Actualización en FisicaBiografía de Edward Lorenz

Actualización en Avisos.II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.Tutorial sobre la nueva versión de Google Docs

Actualización en Software.Tutorial sobre el programa HTTrackl

Actualización en Avisos.

Page 67: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

1 de 32 18/04/2008 20:35

Introducción a la Informática. Estudios GAP,

facultad Derecho

Capítulo 3. La información

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Informática

Page 68: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

2 de 32 18/04/2008 20:35

Ciencia en generalBiologíaCriminología

InicioContacte

IntroducciónLas ondas, portadoras de la informaciónLa información como magnitud fundamentalInformación y mensajes

Selecciona un texto ypulsa aquí para oírlo

Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsaren la esquina inferior derecha

3.1 Introducción

Información es una de las palabras más empleada en los entorrnos tecnológicos actuales tiene unosorígenes que en nada se parecen al significado actual. En latín in-formare era dar forma (ej.:: informareeffigiem significa hacer el retrato de persona u objeto), y también significaba dar forma mental, es decirhacerse una representación o concebir una idea a partir de algo.

En el siglo XVII ya aparece el término información en castellano, cuyo sentido era de averiguación legal(por ejemplo, de delitos), y hasta el siglo XIX no adquiere el significado de educación o instrucción.Como sucedía habitualmente, mientras tanto el francés llevaba la palabra hasta el inglés, donde se en elsiglo XIV aparece con el significado de "comunicación del conocimiento". En el siglo XX muchaslenguas compartían ya la palabra en este último sentido.

Bajo el término información consideramos cualquier conocimiento susceptible de ser transmitido. Sinemabrgo en los entornos tecnológicos información es algo estructurado: "datos ya sea en la forma denúmeros, gráficos o palabras que han sido organizados, sistematizados y presentados de modo que lospatrones subyacentes queden claros", según Bryan Pfaffenberger, en su obra "Diccionario para usuarios decomputadoras e internet, México, 1998".

R. W. Hamming (1915-1998) ha calculado que, desde los tiempos del físico Isaac Newton (1642-1727), elacervo de conocimiento se viene duplicando aproximadamente cada 17 años, lo que equivale a decir queaumenta exponencialmente y se desglosa en miles de ramas especializadas. Aunque por ahora no parezcaser capaz de dar respuestas convincentes a sus preguntas fundamentales, el saber acumulado por loshumanos alcanza unas cotas asombrosas de complejidad y ha transformado, sobre todo en los últimos 200años, casi todos sus conceptos y formas de vivir, incluyendo sus relaciones con ellos mismos, con losdemás seres vivos, con la Naturaleza, hasta con el espacio y el tiempo.

Seguidamente se comentan algunos ejemplos de transmisión de la información en la naturaleza, casos deseres vivos que nos encontramos en la vida diaría.

Las abejas

Si ponemos un recipiente con un jarabe dulce en las proximidades de una colmena, en cuanto una abejaaccede a él y lo prueba, pasa poco tiempo antes de que lleguen gran parte de las restantes de la mismacolmena. De alguna forma, la primera en acudir ha transmitido la información sobre la existencia del

Page 69: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

3 de 32 18/04/2008 20:35

jarabe a las otras. El científico austríaco C. Frisch (1886-1982) realizó una serie de experimentos sencillosde los que dedujo la forma en que se trasmitía la información, como se indica seguidamente.

Si el jarabe se ha situado a menos de 100 m de la colmena, la abeja que llega con la noticia transmite lainformación mediante un baile circular. Pero si el jarabe se pone a más distancia, el baile cambia porcompleto, la abeja corre un poco en línea recta, rápidamente meneando el abdomen por los lados, despuésde una vuelta completa a la izquierda, de nuevo corre en línea recta y da una vuelta entera por la línea deun arco de circunferencia, pero hacia la derecha. Además el ritmo del baile depende de la distancia, a 100m la abeja en 15 s hace 10 ciclos enteros, a 200 m hace siete ciclos, a 1000 m hace cinco ciclos y a seiskm sólo hace dos. El baile contiene la información que indica en la dirección en la que se debe volar.Como la información la da dentro de la colmena, efectúa la parte rectilínea de su baile con un ángulodeterminado respecto a la fuerza de la gravedad.

Marcando abejas, se ha comprobado que el 88% de ellas, con la información recibida de la que descubrióel jarabe, llegan al sitio donde se ncuentra.

Las hormigas y los escarabajos

Observando la vida de las hormigas, se descubrió que a las muertas otras las transportan, fuera delhormiguero, en cuanto se transmite de alguna forma la información de que está muerta, que no suele serde inmediato, es decir que una hormiga puede estar muerta varios días bajo la indiferencia del resto, hastaque aparece de golpe cierta señal y las hormigas la llevan a un lugar alejado.

La explicación está en unas sustancias conocidas en biología como feromonas (tambiénresponsables de la atracción entre distintos sexos, y que se suelen vender en tiendas de artículos demagia) en el momento en que se desprende la feromona característica de que una hormiga estámuerta el resto la llevan fuera del hormiguero. Si a una hormiga viva se le impregna de la feromonacorrespondiente, el proceso es como si estuviera muerta y aunque vuelva al hormiguero repetidas veces, lasacan fuera mientras que persista la feromona. Estudios recientes indican el posible uso de estasferomonas de hormiga para tratar la enfermedad de Alzheimer. Según algunas informacionespseudocientíficas en la especie humana se da el caso curioso de que las mujeres rubias y pelirrojas tienenmás cantidad de una feromona determinada, con lo cual suelen ser más atractivas para los hombres y lasque se tiñen el pelo no consiguen este efecto.

Por lo que respecta a los escarabajos descortezadores del pino, es de gran interés el estudio de lacomunicación química de esta especie de gran importancia como plaga forestal, comenzando desde elaislamiento e identificación de feromonas y atrayentes volátiles del árbol hospedador, estudio de losmecanismos presentes durante el proceso de colonización, estudio de relaciones interespecíficas a nivel desemioquímicos hasta el diseño de las técnicas para el uso de feromonas con fines de control.

Las mariposas

El lenguaje de las feromonas y olores está muy difundido en el mundo de los animales. Entre ellos losmás fuertes y de largo alcance son los relacionados con instinto de la reproducción. Por ejemplo lahembra de la mariposa llamada "los grandes ojos del pavo real" manda sus señales hasta una distancia de20 km, mediante un transmisor químico de potencia ínfima. La industria de la perfumería no está encondiciones de competir con la naturaleza, el olor de los perfumes como mucho se aprecia a una decenade metros.

Los peces

En el año 1942, las falsas alarmas del sistema norteamericano de defensa de costas en el Atlántico, fueronla causa del descubrimiento de los sonidos que emiten unos peces, conocidos como tamborileros. Seestableció que "suenan" aproximadamente en el mismo rango que la voz humana, de 5000 a 10000 Hz

Page 70: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

4 de 32 18/04/2008 20:35

(vibraciones por segundo). Unas especies emiten un chirrido, otras murmullos, otras golpes sueltos y asíse pueden clasificar en muchos tipos.

Se realizó el siguiente experimento: en un acuario se introdujo un hidrófono y grabaron en cinta lossonidos producidos por los peces al masticar la comida, posteriormente reprodujeron estos sonidos en elacuario y los peces se acercaron al altavoz pensando que allí había comida.

Los sonidos no son la única forma de transmitir información por parte de los peces. Los que habitan engrandes profundidades, tienen su fuente de luz. Esta consiste en faroles biológicos con lentes, reflectores yhasta diafragmas, estos impulsos de luz pueden tener distintas frecuencias y diversas duraciones.

En África los peces de la familia mormínidos, que habitan en ríos turbios y agitados, emplean impulsoseléctricos para las comunicaciones. Estos peces tienen una especie de radares portátiles. Sus cuerpos sondipolos eléctricos, la cola tiene carga negativa y la cabeza positiva. Generando un campo eléctrico de unafrecuencia dada, de forma que los objetos que se encuentran a su alrededor deforman el campo del dipolo,detectándolos de esta forma.

Las serpientes

Los zoólogos desde hace tiempo han comprobado que ciertas serpientes venenosas, como por ejemplo elancistrodon (conocida como mocassin), tienen cuatro fosas nasales, las complementarias forman dosagujeos profundos. En estos hoyos se ha descubierto una membrana que los divide en dos cámaras, y queestá atravesada por un sinfín de terminaciones nerviosas, se ha comprobado que son termolocalizadores.Perciben la irradiación de calor, por lo que determinan la dirección hacia su origen.

Las serpientes tienen una vista muy débil, un olfato que casi no vale nada y un oído muy malo. Por esodurante el proceso de la evolución se desarrolló el sistema localizador de calor. Análogo a las cámaras defotografíar que captan imágenes en la frecuencia del infrarrojo del espectro electromagnético.

El hombre

Según una hipótesis, nuestro antepasado común con los monos, dryopithecus, vivía en los árboles, sealimentaba de vegetales y bajaba con poca frecuencia a la tierra, pues era peligrosa para él. Millones deaños vivió en un laberinto de ramas y su organismo se adaptó a esta forma de vida en los árboles. Estossaltos de rama en rama, exigían no sólo músculos, sino vista aguda, cálculo y orientación rápida. Los ojosque en la mayoría de los animales miraban en diferentes direcciones, comenzaban a aproximarse y a mirarhacia delante, se les creó la visión del volumen y del color. Se les complicó el cerebro y el sistemanervioso.

El intercambio de información en estos colectivos se supone que era elemental, contactoscariñosos o bruscos, mímica y gestos y cierta cantidad de sonidos inarticulados. Estos sonidosformaban de 10 a 15 combinaciones a las que condicionalmente llamaremos palabras.

El cambio de clima provocó que los dryopithecus bajaran a la tierra, tomando una posición casi vertical(así podían observar mejor el terreno) y las extremidades delanteras se quedaron casi sin ocupación. Lalucha por la existencia pronto les encontró empleo, armadas con una piedra o un palo se convirtieron enun recurso para conseguir alimentos y para defenderse. Lo demás lo hizo el trabajo. Se perfeccionó elcerebro y en respuesta el cerebro hizo más hábiles a las manos del hombre.

El trabajo era colectivo y por lo tanto exigía comunicación. Las muecas y sonidos inarticuladoseran insuficientes, siendo reemplazados a lo largo de la evolución por la palabra oral y laescritura. Transición que duró muchos miles de años.

La población del mundo aumentaba rápidamente, formándose tribus y pueblos aislados, apareciendo la

Page 71: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

5 de 32 18/04/2008 20:35

necesidad de la transmisión de la información a largas distancias. Para este propósito se han empleadomuchos medios, corredores incansables, mensajeros a caballo, combinaciones de hogueras (indios),tambores gigantes, palomas mensajeras.

Llegó un momento en que esto era insuficiente, la vida exigía una transmisión de la información másrápida. La electricidad hizo la revolución, apareció el telégrafo por cable. El paso siguiente fue el inventodel teléfono, en la exposición mundial de París miles de personas hacían cola para hablar a través de élcon otros visitantes.

Atribuyen la invención del teléfono a un italiano

La Cámara de Representantes (Diputados) de los Estados Unidos decidió darle el créditode la invención del teléfono, hasta ahora atribuida al estadounidense de origen escocésAlexander Graham Bell, al italiano Antonio Meucci.

"La vida y obra de Antonio Meucci deben obtener el justo reconocimiento, y su trabajoen la invención del teléfono debe serle atribuido", dice el texto, que fue aprobado porsimple exclamación a partir de la propuesta de un legislador republicano de origenitaliano, Vito Fosella, del estado de Nueva York. De este modo, los legisladores dieronpor terminada una discusión histórica.

La resolución es una revancha póstuma para Meucci, un florentino que emigró primero aCuba y luego a Estados Unidos. Meucci tiene en Staten Island, estado de Nueva York, unmuseo, el "Garibaldi-Meucci", que es una especie de templo de la italianidadneoyorquina.

Emily Gear, la directora del museo, dijo: "El teléfono lo inventó él, pero no tuvo suerte".Su historia, siguió, "refleja el drama de tantos inmigrantes todavía hoy, discriminadosporque no pueden hablar la lengua del país que los hospeda".

Según sostiene la Sociedad Histórica Italiana en América, la fama y la fortuna le fueronvedadas a este inmigrante florentino porque no contó con los 250 dólares necesarios parapatentar su invento.

Meucci descubrió los principios que guían el funcionamiento del teléfono en 1849 ydesarrolló un aparato que funcionaba en 1859. En 1860 lo presentó en un diario local,escrito en italiano. Y el 28 de diciembre de 1871 dejó registrado su primer intento desolicitud provisoria, cinco años antes de que Bell llenara los papeles. Su patentetemporaria N° 3.335 se venció al no poder afrontar los costos del trámite.

El juicio que inició Meucci contra la Compañía Bell fundada por Alexander no llegó abuen puerto. Los papeles de su patente temporaria se perdieron misteriosamente.

Según la resolución que aprobaron los legisladores la semana pasada, la patente fueacordada a Bell, quien trabajaba en el laboratorio en el que Meucci había depositado sumaterial.

Siguiendo el proceso por fraude, en 1887 las autoridades intentaron anular la patenteentregada a Bell, pero en 1889 después de la muerte de Meucci, ocurrida en 1896 el casofue cerrado.

Tampoco se conoció jamás quién fue el comprador del primer aparato creado por él, quevendió por 6 dólares cuando estaba necesitado. "Dejémosle a Meucci el honor de ser

Page 72: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

6 de 32 18/04/2008 20:35

reconocido como ''el Padre del Teléfono''. Dejemos Bell que tenga el dinero", dijo JohnLa Corte, presidente de Sociedad Histórica Italiana en América.

El paso siguiente fue la transmisión de señales sin el uso de cables, el siete de mayo de 1895 Popov creóla radio. Pero surgió un problema, el espectro de ondas que pueden llevar la información a cualquierpunto del planeta, las ondas cortas, sólo pueden transmitir pequeñas cantidades de información y ademásno en cualquier hora del día y tiempo del año. Mientras que las ondas ultracortas que transmiten grancantidad de información, sólo se propagan dentro de los límites de la visión directa.

La solución al problema fueron los satélites artificiales de la Tierra. Con sólo tres satélites a una distanciade 36000 km y equidistantes entre sí se puede solucionar el problema de las comunicaciones (excepto laszonas muy próximas a los polos).

Cada día, cada uno de nosotros se ocupa de transmitir información por el tiempo, pero sólo en un sentido,del presente al futuro. Por ejemplo, si apuntamos un número de teléfono en una agenda, estamostransmitiendo esa información al futuro, esta transmisión durará el tiempo que exista la agenda. Elperiódico de hoy, que como es normal trae malas noticias, se convierte en un transmisor de datos alfuturo. Si alguien dentro de 30 años, desea enterarse de lo que pasó hoy, podría encontrarlo en unahemeroteca. Por consiguiente, habiendo registrado la información, la ponemos en poder de un futuro,lejano o cercano, en dependencia del tipo de dispositivo de memoria que empleemos.

¿Es posible tener información del futuro, por ejemplo como vivirá la humanidad en el año 2040? Esposible una solución, mediante el estudio de tendencias del desarrollo de la humanidad en el pasado,suponiendo su validez para el futuro. A veces estas predicciones no son fiables.

Otra solución (no es real, es una paradoja) es tripular una nave a velocidades próximas a la de la luz.Según la teoría de Albert Einstein (1879-1955), la marcha del tiempo al aumentar la velocidad delmovimiento se retrasa, mientras que en la Tierra todo seguirá a su ritmo habitual. Al regresar la naveespacial, se tendrá el planeta con cientos o miles de años transcurridos, por lo que no encontrará a susfamiliares, aunque sobreviva el tripulante de la nave, pues todos sus procesos biológicos se habránralentizado. Por ahora sólo es una realidad la transmisión de información del pasado y del presente haciael futuro.

El primer dispositivo de memoria fue el cerebro de los animales, que apareció en el proceso de evoluciónde muchos millones de años. Sobrevivía aquel que mejor recordaba el lugar donde se encontraban lospeligros, los refugios, los alimentos.

El hombre gracias al trabajo comenzó rápidamente a perfeccionar su cerebro y por lo tanto su memoria.Existen estimaciones del volumen de la memoria humana, que la consideran superior a la información

contenida en una gran biblioteca (que puede ser de 1013 bit). La velocidad de percepción de lainformación por el hombre no sobrepasa los 25 bit por segundo lo que equivale a una palabra por

segundo. Si un individuo capta información durante 70 años, y diez horas diarias, no cogerá más de 3*109

bit.

El mito del diez por ciento

Alguien le robó la mayor parte del cerebro y usted probablemente no lo sabía. Bueno, nosignifica exactamente que le hayan quitado el cerebro, pero han decidido que Ud. no lousa. Se trata del viejo mito, escuchado una y otra vez, que dice que la gente usa sólo eldiez por ciento del cerebro.

Page 73: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

7 de 32 18/04/2008 20:35

Mientras que para aquellos que repiten ese mito esto probablemente sea verdad, losdemás felizmente usamos todo el cerebro.

El mito y los medios

Ese remanido supuesto del diez por ciento aparece todo el tiempo. El año pasado, losavisos publicitarios de la revista nacional para la U.S. Satellite Broadcasting mostraban eldibujo de un cerebro. Debajo figuraba la leyenda: Ud. sólo usa el 11 por ciento de supotencial. Bien, estuvieron más cerca que el mito del diez por ciento, pero todavía lesfaltó un 89. En julio de 1998, la cadena de televisión ABC emitió unos spotspromocionales del programa The Secret Lives of Men (Las vidas secretas de loshombres), para la temporada de otoño. El spot consistía en una propaganda en la que sepodía leer, Los hombres sólo usan el diez por ciento del cerebro ocupando toda lapantalla.

Una de las razones por las cuales este mito ha permanecido, es que ha sido adoptado porvidentes y otros integrantes del mundo paranormal para explicar los poderesparapsíquicos. En más de una ocasión he escuchado a videntes que le dicen a la audienciaSolamente usamos el 10 por ciento de la mente. Si los científicos no saben lo quehacemos con el 90 por ciento restante, ¡entonces debemos estar usándolo para lospoderes parapsíquicos! En Reason To Believe: A Practical Guide to Psychic Phenomena(Razón para creer: guía práctica para los fenómenos parapsíquicos), el autor MichaelClark menciona a un hombre llamado Craig Karges. Karges cobra un montón de dineropor su programa Intuitive Edge (Al filo de la intuición), el cual está diseñado paradesarrollar habilidades parapsíquicas naturales. Clark cita a Karges diciendo:Normalmente utilizamos sólo del 10 al 20 por ciento de la mente. Piense cuán diferentesería su vida si Ud. pudiera usar ese otro 80 ó 90 por ciento, que conocemos con elnombre de mente subconsciente (Clark 1997, 56).

También ésta fue la razón que dio Caroline Myss intentando explicar sus poderesintuitivos en una sección de Eye to Eye with Bryant Gumbel (Ojo a ojo con BryantGumbel, o Frente a frente con Bryant Gumbel), que se emitió en julio de 1998. Myss, queha escrito libros sobre el desarrollo de los poderes intuitivos, dijo que todo el mundotiene dones intuitivos, y lamentó que usáramos tan poquito del potencial de la mente.Para empeorar las cosas, apenas una semana antes, en el mismo programa, se habíapresentado información correcta acerca del mito. Entre el programa y la publicidad,aparecía en pantalla un spot con una breve encuesta: ¿Qué porcentaje del cerebrousamos? Las respuestas, tipo multiple-choice (de elección múltiple) iban desde el 10hasta el 100 por ciento. Apareció la respuesta correcta, lo cual me alegró. Pero si losproductores sabían que lo que había dicho una de las entrevistadas era clara ymanifiestamente erróneo, ¿por qué permitieron que saliera al aire? ¿El cerebro derechono sabe lo que está haciendo el cerebro izquierdo? Tal vez la entrevista a Myss era unarepetición, en cuyo caso los productores presumiblemente chequearon los hechos despuésde que se emitió al aire y sintieron la responsabilidad de corregir el error en la emisión dela semana siguiente. O posiblemente las emisiones se difundieron en secuencia y losproductores simplemente no se preocuparon y emitieron a Myss y a su desinformación detodos modos.

Incluso Uri Geller, quien construyó su carrera tratando de convencer a la gente de quepodía doblar metales con la mente, salió al ruedo con esta perlita. Esto aparece en laintroducción de su libro Uri Gellers Mind-Power Book (El libro de los poderes mentalesde Uri Geller): Nuestras mentes son capaces de proezas notables, increíbles, y todavía no

Page 74: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

8 de 32 18/04/2008 20:35

las utilizamos en su plenitud. De hecho, la mayoría de nosotros usamos sólo cerca del 10por ciento del cerebro, con suerte. El otro 90 por ciento está lleno de habilidades ypotenciales aún no descubiertas, lo cual significa que nuestras mentes operan en formamuy limitada en lugar de funcionar a pleno. Creo que alguna vez tuvimos pleno podersobre nuestra mente. Lo hacíamos para sobrevivir, pero a medida que el mundo sesofisticó y se hizo más complejo nos olvidamos de muchas habilidades que alguna veztuvimos (énfasis en el original).

Evidencia en contra del mito del diez por ciento

El argumento que dice que los poderes parapsíquicos provienen de la vasta parte delcerebro no utilizada se basa en la falacia lógica del argumento por ignorancia. En estafalacia, la falta de pruebas para sostener una posición (o simplemente la falta deinformación) se usa para tratar de apoyar una suposición determinada. Aunque fueracierto que la mayor parte del cerebro humano no se usa (lo cual no es cierto), eso deninguna manera implica que haya alguna capacidad extra que pueda darle a la gentepoderes parapsíquicos. Esta falacia surge constantemente en las afirmacionesparanormales, y prevalece especialmente entre los partidarios de los OVNI. Por ejemplo:dos personas ven una extraña luz en el cielo. El primero, un creyente en los OVNI, dice,¡Mira allí! ¿Puedes ex-pli-carme eso? El escéptico contesta que no, que no puede. Elcreyente en los OVNI se regocija. ¡Ja! ¡No sabes lo que es, por lo tanto debe tratarse deextraterrestres! dice, argumentando desde la ignorancia.

Lo que sigue son dos de las razones por las cuales el mito del diez por ciento resultasospechoso. (Para un análisis más extenso y detallado del tema, véase el capítulo deBarry Beyerstein en el nuevo libro Mind Myths: Exploring Everyday Mysteries of theMind, 1999 [Mitos de la mente: explorando los misterios cotidianos de la mente]).

1) Las técnicas de investigación por imágenes tales como los PET (Tomografía poremisión de positrones) y la FMRI (resonancia magnética funcional por imágenes)muestran claramente que la mayor parte del cerebro no permanece inactiva. En verdad,aunque ciertas funciones menores pueden utilizar sólo una pequeña parte del cerebro enun momento determinado, cualquier conjunto de actividades o patrones de pensamientocomplejos usarán muchas partes del mismo. Así como una persona no utiliza todos losmúsculos a la vez, tampoco utilizan todo el cerebro a la vez. Para ciertas actividades,tales como comer, mirar televisión, o leer The Skeptical Inquirer, usted puede usar unaspocas partes específicas del cerebro. Sin embargo, en el transcurso del día se utilizaráncasi todas las partes del cerebro.

2) El mito presupone una localización extrema de las funciones cerebrales. Si las partesusadas o necesarias estuvieran dispersas por todo el órgano, esto implicaría que de hechose necesita gran parte del cerebro. Pero el mito implica que la parte utilizada del cerebroes un área discreta, limitada, y la parte no utilizada es como un apéndice o amígdala, queocupa espacio pero es esencialmente innecesaria. Pero si todas esas partes del cerebro nose usan, el hecho de remover o dañar las partes no usadas no conllevaría grandes efectoso ni siquiera se notaría. Sin embargo las personas que han sufrido traumas cerebrales, uninfarto, u otro daño cerebral, frecuentemente se encuentran severamente impedidos. ¿Haescuchado Ud. a algún médico decir, afortunadamente cuando la bala penetró en elcráneo, solamente dañó el 90 por ciento del cerebro, que no usaba? Por supuesto que no.

Variantes del mito del diez por ciento

El mito no es simplemente algo estático o un malentendido. Tiene diversas formas, y su

Page 75: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

9 de 32 18/04/2008 20:35

adaptabilidad le da una vida más prolongada que la que tiene un spam laqueado. En suversión básica el mito afirma que años atrás un científico descubrió que nosotrosutilizamos verdaderamente sólo el 10 por ciento del cerebro. Otra variante se refiere aque sólo el 10 por ciento del cerebro ha sido mapeado, y que esto se malinterpretómapeado por usado. Antes, Craig Karges había presentado una tercera variante. Ésta diceque, de alguna manera, el cerebro se encuentra ingeniosamente dividido en dos partes: lamente consciente que se usa del 10 al 20 por ciento del tiempo (presumiblemente a plenacapacidad); y la mente subconsciente, en donde el restante 80 ó 90 por ciento del cerebropermanece inutilizado. Esta descripción revela un profundo malentendido de lainvestigación de las funciones cerebrales.

La larga vida del mito se debe en parte a que si una variante resulta incorrecta, la personaque cree en ella puede simplemente cambiar la razón de su creencia y apoyarse en otrabase, mientras la creencia misma permanece intacta. Así, por ejemplo, si a un individuose le muestra un examen PET en donde se observa actividad en todo el cerebro, todavíapuede seguir argumentando que lo del 90 por ciento se refiere a la mente subconsciente, ypor lo tanto la figura del mito queda a salvo.

Independientemente de la variante, el mito se repite y se expande, sea por gente bienintencionada o por aquellos que mienten deliberadamente. La creencia que permanece es,entonces, lo que Robert J. Samuelson denominó un psico-hecho (psycho-fact), unacreencia que, a pesar de no estar sólidamente basada en los hechos, se toma como realporque su constante repetición cambia la manera en que experimentamos lo que vivimos.El lego va a repetirlo una y otra vez hasta que, tal como sucede con la advertencia de notirarse al agua después de comer, termine por convertirse en una creencia ampliamentedifundida. (Triumph of the Psycho-Fact, Newsweek, May 9, 1994.)

Los orígenes del mito no son del todo claros. Beyerstein, del Laboratorio decomportamiento cerebral de la Universidad Simon Fraser en British Columbia, lo harastreado hasta principios del siglo veinte. En una reciente columna de la revista NewScientist también se sugirieron otras fuentes, incluyendo a Albert Einstein y DaleCarnegie (Brain Drain 1999). Probablemente tenga un sinnúmero de fuentes,principalmente la malinterpretación o malentendido de los hallazgos científicos legítimosasí como los gurúes de autoayuda.

El más poderoso atractivo del mito es probablemente la idea de que podemos desarrollarpoderes parapsíquicos o al menos lograr ventajas competitivas tales como mejorar lamemoria y la concentración. Todo esto se encuentra a nuestra disposición, como dicenlos avisos, si aprovechamos el más poderoso de nuestros órganos, el cerebro.

Ya es tiempo de desechar este mito, aunque si ha sobrevivido casi un siglo, seguramentecontinuará vivo en el próximo milenio. Quizá la mejor manera de combatirlo seacontestar a nuestro interlocutor, cuando lo mencione, Ah, ¿y qué parte no usas?

Benjamin Radford

The Skeptical Inquirer, March-April 1999

Traducción de Alejandro Borgo. Benjamin Radford es Jefe deb Edición de la revista TheSkeptical Inquirer y es graduado en psicología.

Agradecimientos

Page 76: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

10 de 32 18/04/2008 20:35

Estoy en deuda con el Dr. Barry Beyerstein por sus sugerencias y ayuda en lainvestigación.

Referencias

Beyerstein, Barry. 1999. Whence cometh the myth that we only use ten percent of ourbrains? In Mind-myths: Exploring Everyday Mysteries of the Mind and Brain, edited bySergio Della Sala. New York: John Wiley and Sons.

Brain Drain. 1999. The Last Word (column). New Scientist 19/26 December 1998-2January 1999.

Clark, Michael. 1997. Reason to Believe. New York: Avon Books.

Geller, Uri, and Jane Struthers. 1996. Uri Gellers Mind-power Book. London: VirginBooks.

Fuente: Sin dioses

El siguiente vídeo trata sobre el asunto del mito del 10% del cerebro, por parte del profesor Carlos J.Álvarez, psicólogo de la Universidad de La Laguna. (Fuente: Magonia)

A pesar de la perfección de la memoria humana, esta tiene defectos, el principal es que su contenido no setransmite por vía biológica a los descendientes, sino que se destruye al morir las células del encéfalo. Otrodefecto es que no siempre se consigue en el momento necesario reproducir y emplear la informaciónpreviamente memorizada.

Los humanos hablaron durante unos doscientos mil años antes de que plasmaran sus ideas para laposteridad. Cuando los habitantes de Mesopotamia, conocidos como sumerios, rasparon unos símbolossobre unas tablas de arcilla hace 5000 años, sin saberlo iniciaron una nueva era de la humanidad, lo queconocemos como historia. La presencia de fuentes escritas denota la línea técnica divisoria entre lo que

Page 77: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

11 de 32 18/04/2008 20:35

los expertos clasifican como prehistoria. La escritura apareció casi al mismo tiempo en diversos lugares, ypor las mismas razonesr, fue creada cuando las civilizaciones comenzaron a crecer lo suficiente comopara querer llevar un control del concepto que comenzó a tomar importancia con la sociedadessedentarias, agricultoras, el concepto de la propiedad.

Nuestros antepasados lejanos para superar estos defectos emplearon unos dispositivos de memoria muysimples, cortaban ramas, amontonaban piedras, hacían cortes en los árboles. La lucha por laexistencia les obligó a encontrar métodos más perfectos. Los indios empleaban conchas decolores, los incas cartas de nudos llamadas quipos. Aparecieron los petroglifos, signos eimágenes grabados en las piedras.

En el cuarto milenio antes de nuestra era aparecieron las escrituras del antiguo Egipto, losjeroglíficos. Otros dispositivos de memoria fueron placas de arcilla, pieles, papiro,pergamino, cortezas de abedul y posteriormente el papel.

Jeroglífico

El paso siguiente fue el invento de la imprenta por el alemán Johannes Gutenberg (1398-1468). A suayuda llegó la fotografía y más recientemente el cine. Más tarde se inventaron dispositivos para grabar yreproducir los sonidos. Al principio era un sencillísimo fonógrafo, siendo desplazado por el magnetófonoy sus posteriores versiones actuales.

La aparición de los ordenadores exigió la creación de dispositivos de memoria de elevadas capacidades,que han ido evolucionando con el tiempo: tarjetas perforadas, relés electromagnéticos, núcleos de ferrita,discos magnéticos, memorias de semiconductores, discos ópticos, memorias holográficas yexperimentalmente memorias de bacterias y de nanotubos. Sin embargo actualmente no se han logradomemorias del tipo de la humana, tanto por su arquitectura como por su capacidad.

3.2 Las ondas, portadoras de la información

La primera posibilidad del hombre de transmitir la información aparece junto con el primer grito que da alnacer, después empleamos este medio toda la vida.

Hay quien piensa que cualquier información de por sí misma tiene la propiedad de pasar por el espacio sinayuda de algún portador que circule. El sonido viaja por el espacio debido a las oscilaciones del aire. Elque habla, con sus cuerdas vocales hace oscilar el aire, que transmite esta información a las siguientescapas de aire y así sucesivamente, si creamos un vacío alrededor de un orador, por ejemplo de los que leenmonótonamente una conferencia, ya no se le oirá, y el auditorio podrá dedicarse a dormir.

Aproximadamente lo mismo ocurre al difundir cualquier información en el espacio. Un barco que pasalejos se detecta en la orilla por las olas que llegan, las han traído las oscilaciones de las partículas de agua.

La información se transmite en el espacio solamente con la ayuda de un proceso que se propague en elespacio. A este proceso oscilatorio móvil lo llamamos ondulatorio. En función del medio ambienteoscilante, las ondas pueden ser de mar, de sonido, de radio, etc. Estas ondas son los mensajeros quedifunden la información por el espacio, hay algunas que van a la máxima velocidad posible, la velocidad

Page 78: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

12 de 32 18/04/2008 20:35

de la luz, mientras que otras transmiten la información muy despacio, como por ejemplo las ondas en loslíquidos viscosos. Este movimiento ondulatorio aparece en casi todas las ramas de la Física.

El movimiento de una onda únicamente depende del tipo de onda y del material a través del cual sepropaga, pero no depende del movimiento del cuerpo que provoca la onda. Cuando una fuente emisoralleva una velocidad mayor que la velocidad de la onda se produce una onda de choque (utilizadas paradesintegrar cálculos renales con equipos de litotricia), como por ejemplo los estampidos sónicos de losaviones y la radiación de Vavilov-Cherenkov. Una onda de choque transporta toda la energía ondulatoriaemitida a lo largo de la trayectoria del movimiento de la fuente en un estallido violento.

Supongamos un muelle metálico muy largo (el juguete conocido en EE.UU como "slinky") y lo ponemosde lado a lado de una habitación. Entonces agrupamos con la mano unas cuantas espiras, cerca de uno delos extremos del muelle.

Este grupo de espiras comprimidas parece moverse como un rizo hacia el otro lado del muelle. Viaja deesta forma hasta el extremo más alejado, una vez allí parece rebotar y vuelve al punto en el que se inicióel proceso. Este proceso se repite sucesivas veces, pero la región comprimida se hace más ancha y sucontorno menos definido. Al final es difícil reconocer esta región. El movimiento se ha extendido a todoel muelle y se observa un temblor y una agitación general, al final el muelle permanece en reposo.Cualquiera que efectúe el proceso antes descrito con el muelle debe de comprobar que algo se muevehacia delante y atrás en el muelle. Sin embargo ni un solo trozo de metal se ha desplazado más de unospocos centímetros de su posición inicial. ¿Qué fue lo que se movió a través de la habitación?

Lo que se movió fue la silueta de espiras del muelle, la región en donde estas espiras estaban más juntasde lo normal. Cualquier silueta o forma que se desplace se puede llamar una onda.

OndasPodemos ser más precisos y definir como perturbación cualquier distribución de las partes de un sistemaque sea diferente de su condición de reposo natural. Una onda física es una perturbación que se muevedebido al efecto que las partes del sistema ejercen entre sí.

Una onda se puede utilizar para enviar información. Supongamos que apagamos las luces, y que en cadaextremo del muelle se pone una persona. Las señales se envían mediante la contracción de espiras en unextremo, notándose en el otro extremo la región comprimida. Una vez finalizado el movimiento se puedeenviar otra señal. Para enviar mensajes largos se puede utilizar un código semejante al Morse.

La onda que se enviaba a través del muelle, se producía comprimiendo algunas espiras del muelle. Lasondas en las que la perturbación coincide con la dirección del movimiento se conocen como ondaslongitudinales o de compresión. Sin embargo las conocidas como ondas transversales, la perturbaciónforma un ángulo recto con la dirección de propagación de la onda. Las ondas sonoras son longitudinales,mientras que las que se producen en la superficie del agua son en su mayor parte transversales. Las ondasluminosas son transversales.

Page 79: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

13 de 32 18/04/2008 20:35

Hasta el momento se han comentado ondas en las que la perturbación inicial dura muy poco tiempo, y enlas que la perturbación no se volvía a repetir. Se conocen como pulsos. Cuando una perturbación queproduce la onda se repite a intervalos regulares de tiempo, se tiene un tren de ondas. Por ejemplo, alcantar se produce un tren de ondas sonoras. Los trenes de ondas difieren entre sí en la rapidez con que serepiten los pulsos. El tiempo transcurrido entre la repetición de los pulsos recibe el nombre de período,que se representa por T. La frecuencia es el número de repeticiones por segundo y se representa por laletra f.

La relación entre la frecuencia y el período de un tren deondas regular es muy simple. El producto de la frecuenciapor el período es siempre igual a uno. El producto de lalongitud de onda por la frecuencia es igual a la velocidadde propagación de la onda. La unidad de frecuencia es elHercio (Hz), que corresponde a un ciclo por segundo.

Una forma de crear un tren de ondas sonoras es darpalmadas rítmicamente. Cada palmada envía un pulso sonoro. Al dar palmadas sucesivas se crea un trende ondas. Si entre cada una transcurre un segundo, el período será de un segundo y la frecuencia unHercio. Al dar la segunda palmada, el pulso sonoro producido por la primera se habrá desplazado unadistancia considerable, si la velocidad del sonido es de 350 m/s, el primer pulso lleva una adelanto de 350m respecto al siguiente. Si se da una palmada cada segundo, se produce un tren de pulsos sonorosespaciados 350 m entre sí.

La longitud de onda es la distancia entre dos pulsos consecutivos, por lo que en este caso la longitud deonda será de 350 m. Si se dan dos palmadas por segundo, la longitud de onda será de 175 m. Entonces sellega a la conclusión de que el producto de la longitud de onda por la frecuencia de cualquier tren deondas es igual a la velocidad de propagación de la onda.

El efecto Doppler

En una autopista, si estamos parados, es habitual oír el sonido de los vehículos que circulan por ella,procedentes de los ruidos de los motores. Es fácil advertir la variación del sonido cuando nos adelantaotro vehículo. Es obvio que la mayoría de los vehículos no disminuyen su velocidad al sobrepasarnos. Eltono varía en función de la trayectoria seguida hasta llegar a nuestros oídos. Este desplazamiento de lafrecuencia se llama efecto Doppler, muy utilizado en diversos campos, por ejemplo en los radares de laGuardia Civil, astronomía y medicina (ecografías abdominales, patologías del sistema circulatorio,patologías testiculares).

Este efecto se debe al cambio de frecuencia de una onda, debido al movimiento de la fuente que emite lasondas, o al del observador que recibe la energía de la onda.

Si se considera un coche desplazándose a la velocidad de 35 m/s, y cuyo conductor hace sonar el claxoncada segundo, al pitar por segunda vez, el pulso primero se ha desplazado 350 m (la velocidad delsonido), pero durante este tiempo el coche se ha desplazado 35 m desde el lugar de partida. Los dospulsos mantendrán una distancia de 315 m entre sí. Un observador alejado recibirá más de un pulso porsegundo. La distancia de cada pulso es 315 m y la velocidad en el aire es 350 m/s. El tiempo transcurridodesde que el observador escucha un pulso sonoro y el siguiente es 315/350 ó 0.9 s. Si el claxon continúapitando se pueden llegar a oír diez pitidos en nueve segundos. En general se puede decir que: unobservador situado frente a una fuente sonora en movimiento recibirá los pulsos sonoros con unafrecuencia mayor que la emitida por la fuente. En caso de alejamiento la frecuencia será más baja.

Si estamos al aire libre y alguien nos llamadesde lejos, normalmente podemos

Page 80: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

14 de 32 18/04/2008 20:35

distinguir la dirección en que nos llega elsonido. Esto nos indica que se propaga enlínea recta. Por otra parte, si alguien salede la habitación en que nos encontramos ynos llama desde el pasillo, seguimosescuchando su voz. Entre ambos puedehaber una pared que nos sirva de pantallapara las ondas sonoras. El sonido es capazde encontrar un camino a través de lapuerta abierta y alcanzar nuestros oídos;en este caso su trayectoria no es unalínearecta. Esto indica que las ondassonoras pueden bordear obstáculos. Seconoce como difracción el procesomediante el cual las ondas vencenobstáculos. En cualquier caso la magnitudde la difracción depende de la relaciónexistenteentre el tamaño de los obstáculosy la longitud de onda de la onda.

Cuando las ondas encuentran en sucamino obstáculos del mismo tamaño omás pequeños que su longitud de onda,tienden a bordear el obstáculo.

Una onda electromagnética es un conjuntode voltajes en el espacio, que se muevecon el tiempo. La teoría básica de laelectricidad y el magnetismo,(para quien

no conozca los conceptos básicos de las magnitudes más habituales en electricidad se indican en elsiguiente enlace) debida a James Clerk Maxwell, indica que para crear ondas electromagnéticas se han deacelerar cargas eléctricas. Una vez formadas, esta teoría también predice su comportamiento. Se propaganen el espacio libre con la velocidad de 300000 km/s, y en otros materiales a velocidades inferiores.

Las ondas electromagnéticas se pueden detectar debido a la energía que transportan. Estos detectorespueden ser muy variados, como por ejemplo los electrones que se encuentran en la antena de un coche, obien las cargas eléctricas que poseen los átomos de la retina de nuestros ojos.

El espectro de ondas electromagnéticas es muy amplio, varía desde las ondas de radio, de muy bajafrecuencia, hasta rayos gamma, cuya longitud de onda es más pequeña que el núcleo de un átomo.

Una representación esquemática y animada muy buena del espectro electromagnético se encuentra en :Atlas of Electromagnetic space

Page 81: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

15 de 32 18/04/2008 20:35

Page 82: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

16 de 32 18/04/2008 20:35

La longitud de onda es la característica fundamental de estas ondas. Un sistema eficaz para detectar oproducir estas ondas debe ser un dispositivo del mismo tamaño que la longitud de onda delas ondas que sequieren producir o detectar. Por ejemplo, una antena de radio es demasiado grande para generar ondas deluz visible, los átomos de nuestros ojos son demasiado pequeños para detectar ondas de radio.

Se ha de cosniderar que las radiaciones más energéticas son ionizantes y por lo tanto susceptibles degenerar cáncer, dentro de este grupo se encuentran los Rayos, Rayos Gamma y parte del espectro de laradiación ultravioleta (UV). Contrariamente a las afirmaciones alarmistas e injustificadas de grupos"ecólatras", los teléfonos móviles y sistemas de internet medante Wifi no son perjudiciales para la salud,pues su rango de frecuencias cae dentro del grupo de las no ionizantes. El informe Moulder es muycompleto y aclaratorio sobre el asunto.

Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)

Page 83: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

17 de 32 18/04/2008 20:35

Ondas de radio AM y FM. Una señal de radio que transmite siempre la misma onda no transportamucha información. Pero al menos informa al receptor de que la estación que envía la señal está enfuncionamiento. Para obtener más información, hay que variar y comprender la señal que se detecta. Es elproceso de la modulación.

El tipo de modulación más simple consiste en variar la duración de los intervalos de tiempo entre señales.Puede transmitirse una secuencia de trenes de ondas más largos o más cortos mediante el código morse oalgún otro conocido. A principios del siglo XX la primera utilidad de las señales electromagnéticas fue elenvío de mensajes telegráficos a través del océano para grandes distancias.

Es muy fácil variar gradualmente la intensidad de la señal desde su valor máximo al mínimo, a lo largo demuchos ciclos de la onda repetitiva elemental, este método se conoce como modulación de la amplitud(AM).

Un parámetro importante es el porcentaje de modulación, que indica la amplitud mínima o nivel cero dela onda modulada. Una modulación al 100% indica que la amplitud mínima será cero. Se puede demostrarmatemáticamente que la onda modulada final se puede descomponer en tres señales: una de frecuenciaigual a la portadora y otras resultado de sumar y restar la frecuencia de la moduladora a la de la portadora.Es decir, si tuviéramos una portadora de 500 KHz y la onda moduladora posee una frecuencia máxima de20 KHz (como las señales musicales) obtendremos tres ondas: una de 500 KHz y dos bandas laterales de480 KHz y 520 KHz.

Esto es importante para saber el ancho de banda que ocupa la transmisión (en este caso 20+20=40 KHz).

Con este sistema pueden aparecer algunos problemas, la intensidad de la señal puede variar por razonesdistintas a las de la modulación que provoca la emisora, las cargas de la atmósfera pueden crear efectos nodeseados. Esto provoca distorsión y ruido en el receptor.

Page 84: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

18 de 32 18/04/2008 20:35

Para evitar el problema previo, se utilizan ondas de frecuencia modulada (FM), muy popular en laactualidad. En este sistema la onda que transporta la información no posee una frecuencia única. Sufrecuencia varía en función de la intensidad de la señal de modulación. Para descifrar estas señales hacefalta un circuito más complicado que las de AM, pero la distorsión atmosférica afecta poco en latransmisión, por lo que la calidad de recepción es mucho mejor.

Supongamos que tenemos una señal moduladora cuya máxima amplitud es de 1V (valor de pico) y unaonda portadora de 1000 KHz. Si suponemos que para este valor de amplitud la frecuencia de la portadorase desvia 15 KHz (simétricamente, es decir +15 KHz y -15 KHz), conforme oscile la señal moduladora lafrecuencia de la portadora oscilará entre 985 KHz y 1015 KHz, ocupando un ancho de banda de 30 KHz.

En este sistema de modulación también tenemos un problema práctico, y es que rara vez el ancho debanda de la transmisión es inferior a diez veces el de la señal moduladora.

Internacionalmente se han dividido todo el espectro de frecuencia en las denominadas bandas defrecuencia. Esto se hace así para poder delimitar el acceso de los usuarios a estas bandas. Hay quemencionar que este clasificación no es global y que algunos paises difieren en su delimitación, pero engeneral podemos aceptarlas como generales.

Denominación Siglas Margen de frecuencias

Frecuencias muy bajas VLF 3 - 30 KHz

Frecuencias bajas LF 30 - 300 KHz

Frecuencias medias MF 300 - 3000 KHz

Frecuencias altas HF 3 - 30 MHz

Frecuencias muy altas VHF 30 - 300 MHz

Frecuencias ultra altas UHF 300 - 3000 MHz

Frecuencias super altas SHF 3 - 30 GHz

Frecuencias extra altas EHF 30 - 300 GHz

Las bandas de frecuencia más baja se reservan para las emisoras que transmiten en AM, mientras que lasde FM transmiten sobre los 100 MHz. La única banda que está libre para cualquier uso (comoradiocontrol) y para cualquier persona es la banda de los 27 MHz, pero debido a esto está bastantesaturada y sólo es conveniente utilizarla para practicar con montajes caseros y sistemas de poco alcance(no más de 100m).

3.3 La información como magnitud fundamental

La información nos sale al paso en cualquier momento, ya sea en sistemas técnicos como en los naturales:en la elaboración de datos, en la tecnología de las comunicaciones y en la de regulación, en las lenguasnaturales, en los sistemas de comunicación biológicos, incluso en la transmisión de informaciones en lacélula viva. La información se ha convertido, pues, en la tercera magnitud básica universal. Debido alenorme desarrollo realizado por la tecnología de ordenadores, el sector de la informática ha alcanzado una

Page 85: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

19 de 32 18/04/2008 20:35

importancia que era escasamente predecible. Además la palabra información se ha convertido en unaexpresión aplicable a las más diversas disciplinas. Alcanzando al mismo tiempo una importancia esencialen los sectores más dispersos como por ejemplo, la técnica, la biología y la lingüística. Por lo tanto elconcepto de información requiere un tratamiento profundo, especialmente en el sentido de precisar susignificado, definir sus características más primordiales y formular teoremas.

Algunos ejemplos de la vida real:

Un organismo vivo recibe toda la información hereditaria de susprogenitores. El catálogo entero de detalles de una futura persona está"embalado" en un volumen increíblemente pequeño, en un óvulo, cuyodiámetro es tan sólo de una décima parte de milímetro.

Todo lo vivo está compuesto de células, cuyo elemento básico es el núcleo,donde se encuentra la información hereditaria. Cualquier ser vivo nace comoresultado de la reproducción de muchísimas copias de una célula inicialfecundada, proceso que se desarrolla a gran velocidad, se puede tener una

idea considerando que a partir de la célula inicial se llegan a 26 1012 célulasen un recién nacido.

Los núcleos de todas las células contienen los denominados cromosomas, en número constante para cadaespecie, el hombre 46, el mosquito zumbador 6, la carpa 104 y el chimpancé 48. En los cromosomas estánlas moléculas de ácido desoxirribonucleico (DNA o ADN), descubierto 1869 por un médico alemánllamado Friedrich Miescher (1844-1895), al que la evolución ha confiado la misión de ser el portador dela información genética puesto que tiene gran capacidad para duplicarse.

El ADN está formado por los nucleótidos, y cada uno de ellos consta de moléculas de azúcardesoxirribosa (D), de un grupo fosfato (F) y de una de las cuatro bases nitrosas: adenina (A),timina (T), citosina(C) o guanina (G). Dos cadenas de ADN se unen en una espiral doble como si seenrollasen la una en la otra, las bases nitrosas se encuentran en el espacio interior entre las espiras y estánunidas entre sí con enlaces de hidrógeno. La Adenina siempre hace pareja con la timina y la guanina conla citosina. El número de nucleótidos en la molécula de ADN es de muchos miles.

El mecanismo de duplicación del ADN, se puede describir de la siguienteforma. Los enlaces de hidrógeno que unen las dos espirales de ADN sedesgarran al dividirse las células. La espiral doble se desenrolla, y en cadaespiral separada, inmediatamente se construye otra nueva,complementaria. En lugar de una se han formado dos nuevas espiralesdobles de moléculas de ADN absolutamente idénticas a la inicial, y asísucesivamente. De esta forma se transmite la información.

Las moléculas de ADN constituyen la mayor densidad de informaciónconocida, El tamaño es de 2 nm de diámetro y 3.4 nm de altura por cada

espira de la hélice. Lo cual implica un volumen de 10.68 10-21 cm3 porespira. En cada espira se encuentran 10 letras del alfabeto químico

(nucleótidos) resultando una densidad de información de 0.94 1021 letras

por cm3. No obstante en el alfabeto genético existen sólo cuatro basesnucleótidos: adenina, timina, guanidina y citosina. El contenido deinformación de una de estas letras es de 2 bit por nucleótido. La densidad de información es por lo tanto

1.88 1021 bit/cm3.

Si se supone que el hombre tiene menos de cienmil genes (actualmente se estima en 30000) y se quisiera

Page 86: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

20 de 32 18/04/2008 20:35

codificar la información hereditaria en el sistema binario, se tendrían del orden de 2 107 bit. Si se grabalainformación en cinta magnética, la longitud sería de dos kilómetros, mientras que si se desenrolla laespiral hereditaria del ADN y se estira en línea recta, la longitud sería solamente de unos dos metros. Locual da idea de lo compacto que es el embalaje de la información hecho por la naturaleza.

Aovillando, que es ADN

Preguntaba Rigel, hace algunas entradas, ¿Cómo se almacenan los kilómetros de escaleraadenosa en sitio tan chiquitito como es una célula?

Me gusta la pregunta. Me gusta porque me da pie a desvariar un poco sobre un par decosas, y a asustaros con numeritos, que es algo que siempre alegra mi malvado y negrocorazón.

Procedamos al susto:

La "escalera adenosa" de una célula no alcanza el kilometraje ni de lejos. Haciendo unospocos cálculos, que os ahorro, se ve que si estiramos todo el genoma humano, contenidoen el núcleo de una célula, tenemos un filamento de poco menos de unos dos metros delargo.

-- Oiga, ¿y de gordo, cuánto?-- Dos nanómetros. O sea, dos milmillonésimas de metro.-- ¿Mande?-- Digámoslo así: ¿ve la división en milímetros de una regla?-- Bueno, con las gafas y tal...-- Pues imagine ese milímetro, dividido un millón de veces. ¿Puede?-- No.-- Ni yo. Así de chiquitito es un nanómetro.-- Caray.-- Y que lo diga.Sea como sea, dos metros de hilito no son cosa nimia que empaquetar. Si se limitaran aestar enrollados sobre sí mismos, sería un desastre. Hay que tener en cuenta una cosaimportante: el genoma no es una cosa que simplemente "está ahí". Es una parte muydinámica de la célula, que tiene que acceder continuamente a la información contenida enella; ahora este gen, ahora el otro, ahora este trozo de aquí, ahora el de allá. La visión delos cromosomas como esas X gorditas que se ve en los libros sólo ocurre cuando la célulaestá ocupada en dividirse. El resto del tiempo, el ADN es un ovillo medio suelto de ADNy proteínas que se conoce como "cromatina" y cuya estructura es muy complicada y tienevarios niveles de empaquetamiento.

Matemáticos, a mí: leí hace tiempo que el tipo de empaquetamiento que usa el ADN es elmás eficiente que existe. No lo sé. Pero sé que a la célula le va muy bien. Paso adescribirlo, poco a poco.

La hebra de ADN desnudita se enrolla en torno a una especie de "carrete" proteicoformado por cuatro proteínas llamadas histonas, cuya importancia es imposible exagerar.Esto es lo que se llama "estructura en collar de perlas", por razones obvias. Hay unaquinta histona por ahí, enzarzada con el trozo de ADN que enlaza cada una de las"perlas", pero esto es hilar finito. El collar, como véis ahí en el dibujito, es de unos 11nanómetros de grosor: ni siquiera el doble que el ADN desnudo.

Page 87: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

21 de 32 18/04/2008 20:35

Sigo: el "collar de perlas" se enrosca sobre sí mismo en lo que se llama un "solenoide",de nuevo por razones obvias. La estructura tiene ahora 30 nanómetros de grosor, ¡larepera!

El solenoide, a su vez, conservala flexibilidad y característicasde un hilo (una fibra decromatina), que a su vez seenrosca más sobre sí mismo, enplan cable de teléfono, hastaformar la hebra del cromosoma.En este punto la hebra tiene 700nanómetros de grosor. Elcromosoma completo, con susdos cromátidas y tal, es de unos1400 nanómetros de grosor.Tres órdenes de magnitud másque la hebra desnuda. ¿Esto esmucho, o poco? Extrapolemos:si partimos de un hilito de unmilímetro de grosor(proporcionalmente tan largocomo el ADN de uncromosoma), y loempaquetamos como uncromosoma, el paqueteresultante tendrá un metro ypico de grosor. No está mal.

¿Y qué tal en cuanto a lalongitud? ¿Cuánto hemosconseguido acortar la hebrapara que quepa en el núcleo?Vamos a verlo: este sistema deempaquetamiento consigue quela longitud de la hebra de ADNse reduzca cincuenta mil veces. Que se dice pronto. Si queréis os asusto con másnumeritos: el cromosoma más largo del genoma humano mide 263 millones de pares debases (todo el genoma son unos tres mil millones). Estiradito, eso son, a grosso modo,nueve centímetros. Tras el empaquetamiento, no llega a las veinte diezmilésimas demilímetro de largo.

Así que, ¿cómo se almacena el ADN en la célula? Pues, la verdad... la mar de bien.

Y como fin de fiesta, para aquellos a los que les dé pereza lo negro, todo lo anterior estáperfectamente explicado en este bello dibujo, que además (astucia supina) es un enlace auna página anglosajona donde se explican más cosas aún. El que no sepa más decromatina después de esto, es ya porque no quiere. De nada.

La Biblioteca de Babel Toda la materia viva, desde el virus más primitivo hasta elhombre son cadenas transportadoras para transmitir la información hereditaria, sonsistemas de comunicaciones perfectamente construidos, que tienen una asombrosaexactitud para transmisión de sus datos, con una gran defensa contra la acción de

Page 88: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

22 de 32 18/04/2008 20:35

diferentes interferencias, y realizados en unas dimensiones increíblemente pequeñas.

El ADN "cumple" 50 años

La determinación de que el ADN transmite información genética de un individuo a sudescendencia se concretó hace ahora 50 años. Durante este tiempo, el interés por estasustancia química de la que están hechos nuestros genes y, p or tanto, el libro deinstrucciones para fabricar a un ser vivo, no ha hecho más que aumentar, hasta el puntode que la estructura del ADN (de doble hélice) se ha convertido en un icono en el mundocientífico.

Redacción Ondasalud.com

La determinación de la estructura en doble hélice del ADN se considera uno de los hitoscientíficos del siglo XX. James Watson y Francis Crick la publicaron por vez primeravez en la revista Nature y ahora, cincuenta años más tarde, este medio festeja el hallazgoque culminó con la concesión del Premio Nobel de 1962 en Medicina y Fisiología a lacélebre pareja.

¿Por qué se celebra el quincuagésimo aniversario del descubrimiento de la estructura dedoble hélice del ADN y no otros hallazgos científicos?

Para Robert Olby, del Departamento de Historia y Filosofía de las Ciencias de laUniversidad de Pittsburgh, en Estados Unidos, para entender la magnitud de esteacontecimiento científicos "primero tenemos que situarnos en 1953, otro mundo, en elque la revista científica aún no utilizaba la abreviatura de ADN para el ácidodesoxirribonucleico".

Antecedentes

A principios de la década de 1950 existía un programa científico de investigación delADN. "Estos estudios incluían el análisis de las propiedades físicas del ADN y seanalizaba si su composición era igual para todas las células del organismo. Y también sediscutía sobre el daño de los rayos ultravioleta, entre otros factores, sobre este materialgénetica.

La mayoría de los investigadores eran bioquímicos y químicos y estaban especialmenteinteresados en dos aspectos: las mutaciones genéticas y cómo las proteínas realizaban elproceso de la síntesis, un tema especialmente importante para el crecimiento, la nutricióny la investigación en cáncer. "La progresiva investigación condujo a que ya en 1952 seviera al ADN como material hereditario".

Pero hacía falta mucha más información para convencer a toda la comunidad científica.¿Cómo justificar desde un punto de vista químico el papel del ADN en la herencia?, sepreguntaban. La respuesta la aportó el trabajo de James Watson y Francis Crick.Describieron los pares de bases, donde la adenina fabrica uniones de hidrógeno contimina, y la guanina con citosina (las famosas cuatro letras A, T, C y G que forman elgran libro del genoma). "Este emparejamiento sugería un posible mecanismo de copiadopara el material genético", escribieron en su artículo y, dos meses después añadieron:"Hasta ahora no se había presentado ninguna evidencia que mostrara de qué forma puedeconsumarse el proceso esencial para el material genético, la duplicación exacta".

Page 89: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

23 de 32 18/04/2008 20:35

La constatación de que el descubrimiento de Watson y Crick era sumamente importantela suministraron Matthew Meselson y Franklin Stahl en 1958 al probar la naturaleza de lareplicación del ADN.

La investigación siguió su curso hasta llegar al punto y seguido de esta bonita historiaque fue la concesión del Premio Nobel de Medicina en 1962 a Watson, Crick y Wilkins.

Un retrato idealizado

La estructura de doble hélice que se ha popularizado hasta superar el entorno científico esuna representación muy estética del ADN. En realidad, el aspecto del ADN es bastantediferente. Sin destruir la visión idealizada del modelo icónico propuesto por Watson yCrick, un científico relata en Nature que "en honor a la verdad, debemos explicar que lamayoría del ADN celular está comprimido en paquetes enmarañados y apelmazados quede alguna manera lo exponen de forma meticulosa al control regulador genético".

Según refleja este artículo, la doble hélice es una de las razones del éxito de los trabajosrealizados sobre el ADN. "Ahora bien, no nos tenemos que dejar engañar por este retratoidealizado y debemos ser conscientes de la complejidad que posee la estructura de ADNy, por ello, reconocer el trabajo tan importante de sus descubridores".

Ejemplos de la vida real

Supongamos un ejemplo de la vida real, se va por una carretera y se llega a una bifurcación. Si se deseasaber por ejemplo cual de las dos conduce a Murcia, lo lógico ería ver los rótulos indicativos que suelenexistir en las carreteras, pero en este caso sólo hay grandes carteleras publicitarias (aunque estánprohibidas, pero como el alcalde se preocupa de pocas cosas), por lo tanto la información recibida es nula,igual a cero. Si vemos a otro coche que se acerca, se puede preguntar al conductor sobre cual de las dosvías conduce a Murcia, respondiendo por ejemplo, la de la derecha. Esta información recibida permitehacer una elección entre dos posibilidades, es decir entre las dos posibles salidas. Se ha recibido un bit deinformación.

Otros ejemplos habituales pueden ser:

¿Cuánta información obtenemos cuandonos dicen que cierta persona tiene el pelo oscuro, o que esuna mujer? Parece de locos intentar cuantificar de forma precisa este concepto, pero lo vamos ahacer partiendo precisamente de su idea intuitiva.

Lo primero que debe quedarnos claro es que el hecho de obtener información es equivalente al dedisminuir la indeterminación con respecto a algo, de tal forma que se obtiene tanta más informacióncuanto más disminuya el grado de incertidumbre que tenemos de cierto fenómeno.

Veamos esto con un ejemplo, si nos dicen las siguientes frases:

- La persona que describo tiene el pelo oscuro.

- La persona que describo es mujer.

En la primera frase se nos da un dato de todos los posibles (claro, castaño, pelirrojo, rubio, canoso), aligual que en la segunda, (hombre, mujer, lesbiana, "gay", bisexual), por tanto la primera y la segunda nosdan igual información, sin embargo si en el segundo caso simplificamos y sólo consideramos dosposibilidades (hombre, mujer), obtenemos más información al disminuir mucho más la incertidumbre queteníamos con respecto a la persona.

Page 90: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

24 de 32 18/04/2008 20:35

Otro ejemplo: El alfabeto español se compone de 27 letras. Si un ordenador genera letras al azar, lainformación que nos suministra el conocer que letra ha salido será mayor que en cualquiera de los casosanteriores porque el número de estados posibles es mayor (27).

Conclusión: La cantidad de información que obtenemos con un mensaje es directamente proporcional alnúmero de estados posibles de la cuestión planteada.

Los matemáticos y los físicos se han puesto de acuerdo que es lógico y cómodo tomar por unidad deinformación una dosis de información tal que disminuye nuestra ignorancia en dos veces y permite haceruna elección entre dos posibilidades equitativas. Claro está que se ignora la importancia de esta elección.

Un caso más complicado es la elección entre cuatro salidas posibles. Por ejemplo, si hace falta prever enqué trimestre se desean las vacaciones, se seguiría el proceso siguiente:

- ¿En qué mitad del año? En la primera- ¿En que trimestre de la primera mitad del año? En el segundo

Otro ejemplo es el esconder una moneda debajo de una de entre cuatro tazas. ¿Cómo encontrar la monedacon sólo dos preguntas a las que se contesta si o no?

- ¿Se encuentra la moneda debajo de la primera o de la segunda taza? No- ¿Se encuentra la moneda debajo de la cuarta taza? No

La moneda, necesariamente ha de estar debajo de la tercera taza.

De los dos ejemplos previos, se deduce que al hacer una elección entre cuatro opciones posibles, hacenfalta dos unidades de información y no una.

Si se escondiera la moneda debajo de una de entre ocho tazas, para encontrarla harían falta tres unidadesde información. Así de forma sucesiva, aunque al aumentar el número de tazas es más probable querompamos alguna buscando la moneda. Se puede observar una dependencia entre la cantidad de variantesN, u orígenes, y la cantidad de unidades de información J, necesarias para tomar una decisión,

N=2J

y tomando logaritmos, se tiene

J=log N

Esta fórmula fue propuesta en 1928 por Hartley, y dice, la información necesaria para la elección entre Nvariantes equitativas es igual al logaritmo del número de variantes.

La función logarítmica crece muy despacio al aumentar el número, esto implica que la cantidad necesariade información crece muy despacio al aumentar el número de variantes. Por ejemplo, para tomar unadecisión entre 512 variantes, sólo hacen falta 9 unidades de información, y si N es 4096, hacen falta 12.Un ejemplo real de esta dependencia logarítmica es cuando un juez de instrucción, recibiendo del acusadoávidas contestaciones sólo en forma de las unidades de información "si" o "no", rápidamente aclara unasunto. Sin duda, a él ayuda la dependencia logarítmica previamente deducida.

Si en la fórmula ponemos N = 2 (log 2 = 1), se obtiene la dosis que tiene la unidad de información que harecibido el nombre de bit.

Claude E. Shannon fue el primero que formuló una definición matemática del concepto de información ensu trabajo " A mathematical theory of communication" (1948). La medida que él utilizó, elbit (binary digit), brindó la ventaja de permitir la definición cuantitativa de causalidades

Page 91: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

25 de 32 18/04/2008 20:35

que hasta ahora no había sido posible expresar de una forma matemática exacta. Ladesventaja, no obstante, es evidente: la información según el concepto de Shannon, noimplica su contenido intrínseco, sino que se limita a un aspecto especial, que essignificativo sobre todo para su transmisión y registro desde el punto de vista técnico. Eneste caso, no se tiene en cuenta que un texto sea razonable, comprensible, correcto o incorrecto osimplemente no tenga significado alguno. Se desatienden aquí también cuestiones importantes como elsaber de dónde procede la información (emisor) y a quien va destinada (receptor).

Para la definición "información" de Shannon no tiene transcendencia alguna si una serie de letrasrepresenta un texto de alto contenido temático o si, por el contrario, constituye el resultado de un juego dedados. Efectivamente, y aun bajo el riesgo de parecer paradójico, puede afirmarse que una serie de letrasgeneradas al azar ofrece, desde el punto de vista teórico informático, un contenido máximo deinformación, mientras que un texto cuyo lenguaje sea congruente, el valor correspondiente es menor.

La definición informática de Shannon se limita a un aspecto de la información, esto es, el hecho de que através de ella se exprese algo nuevo. Nuevo implica el mayor efecto de sorpresa que se obtiene al aparecerun signo menos usual. Información es, por lo tanto en este caso, la medida de improbabilidad de unacontecimiento. Por esta razón, a un signo con alto grado de improbabilidad se le concede un mayorcontenido informativo.

Antes de que un emisor de signos origine un signo, existe la duda de que signo especial va a emitirse deentre los signos disponibles. Esta inseguridad desaparece tras haber recibido la señal. Según la forma dediscernir de Shannon se define lo siguiente: Información es la inseguridad que desaparece al recibirse laseñal correspondiente. Teniendo en cuenta que Shannon sólo está interesado en determinar laprobabilidad de aparición de los signos, automáticamente sólo registra el carácter estadístico de lainformación. Con ello, el concepto de la palabra información queda reducido a su aspecto carente designificado. Según Shannon el contenido de la información queda definido de forma que reúna lassiguientes propiedades:

Condición de adición: El contenido de información de unos signos o series de signosindependientes el uno del otro, debe sumarse. Esta condición concibe la información como algocuantitativo.

Condición de probabilidad: El contenido de información atribuido a un signo, o serie designos debe aumentar con el aumento progresivo de la sorpresa. El efecto de la sorpresa para la letraw, con menor probabilidad de aparición, es mayor que el de la letra e, con mayor probabilidad deaparición. De ello se deduce, cuanto menos probable sea un signo, tanto mayor será su contenido deinformación.

3.4 Información y mensajes

El interés más evidente de la medida de la cantidad de información aportada por el resultado de unaexperiencia, aparece cuando se trata de transmitir este resultado a distancia. A continuación se describe unejemplo muy ilustrativo, supongamos que tu trabajas en una oficina en un pequeño grupo formado porcuatro empleados y el jefe. Este último por comodidad empleó para llamar a sus empleados un sistema decomunicación muy sencillo: un timbre suena y en un panel se enciende una de las cuatro lámparas en lasque están escritas las primeras letras de los nombres de los empleados. Estas son A(Antonio), M(María),P(Procopio) y U(úrsula). Supón que tu código sea A. Los primeros meses se desarrollaba un proyectoconjunto con la participación por igual de los cuatro y por lo tanto las llamadas del jefe implicaban que lascuatro luces se encendieran con la misma frecuencia. (La información era el log 4, es decir 2 bit). Laprobabilidad de que aparezca la luz en tu lámpara o en cualquier otra, es .25

Page 92: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

26 de 32 18/04/2008 20:35

En un momento tu hiciste una proposición muy original al jefe, y desde entonces casi se encendíasolamente la lámpara A. Esto hizo que en cuanto sonaba el timbre acudías a la llamada del jefe, sin nisiquiera mirar la lámpara que se encendía. Haciendo cálculos se llegó a que la probabilidad de queapareciera la A era .97, mientras que para cada uno de los otros tres empleados era .01, evidentemente lasuma de las tres probabilidades es la unidad.

Se aprecia fácilmente que cuantas más señales o códigos de igual probabilidad se emplean, tanto menor esla probabilidad de cada uno de ellos. Según Shannon, para las señales de igual y diferente probabilidad lacantidad de información en su envío o código se determina por la probabilidad de su aparición. Estadependencia es también inversa: cuanto más frecuentemente aparece el código, tanto menos informaciónlleva. Por eso tu no mirabas la lámpara al sonar el timbre, a pesar de que de cada 100 llamadas había tresque no eran tuyas. La aparición de la luz en la lámpara A era segura y la cantidad de información quellevaba esa luz disminuyó mucho, hasta log(1/.97), igual a 0.04 bit. Mientras que la información de lasseñales poco frecuentes aumentó considerablemente a log(1/0.01)=3.32 bit.

La lotería puede ilustrar esto, supongamos un sorteo, el individuo mira la lista de los número premiados,después de estar un rato buscando ya ha perdido la esperanza y cada nueva búsqueda no le aporta ningunainformación, de repente se pone radiante, ganó un millón de euros , si sólo hay un premio como este porcada millón, recibió de golpe una información de log(1/.000001) lo que equivale a 20 bit.

Volvamos a la oficina, pasado cierto tiempo la situación cambió por completo, poco a poco la lámpara Adejó de encenderse. Entonces al comprobar que al sonar el timbre ya no aparecía la luz de la letra A, tetapaste los oídos con algodón. En esta situación el encenderse la luz de la A, supone una gran cantidad deinformación, lo que pasa es que no las notas al tener tapados los oídos, y son los compañeros quienes te loindican.

Fórmula de Shannon

Shannon dio una receta generalizada: hay que calcular la información comunicada por cada código (eneste caso cada lámpara) y mediarla por todos los códigos (por todas las lámparas). Pero no hay quemediarla del modo corriente, sino por las reglas de las magnitudes causales: la información comunicadapor cada código se multiplica por la probabilidad de su aparición y se suman todos los productosrecibidos.

De esta forma se llega a la siguiente fórmula,

H = p1*log(1/p1)+p2*log(1/p2)+ .. pm*log(1/pm)

donde H es la entropía, las p son las probabilidades de que aparezcan los códigos y m el número total decódigos.

En el caso de las luces, para la situación en la que el jefe llamaba continuamente, se tendría,

H = .01*log(1/.01)+ .01*log(1/.01)+ .01*log(1/.01)+.97*log(1/.97) = 1.38 bit

es evidente que para el período en que las cuatro luces se encendían con igual probabilidad, con estaexpresión se llega a 2 bit, como se dedujo de la fórmula de R. Hartley.

Así la diferente probabilidad de la aparición de luz en las lámparas llevó a la disminución de lainformación que comunica el tablero de señales, es decir a la disminución de la entropía.

Información y significado

Page 93: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

27 de 32 18/04/2008 20:35

Existe una clase muy amplia de fenómenos observables que se pueden asociar a cantidades numéricas, o auna sucesión de cantidades numéricas, distribuidas en el tiempo. Su estudio pertenece a la estadística.estas cantidades, o sus medidas estadísticas, dan información sobre los fenómenos observados.

En una línea telefónica, o en un circuito de televisión, o en un radar, tenemos unas cantidades, lasmedidas de los voltajes de la corriente eléctrica que en un cierto momento fluyen por el lugar dondehacemos la medida, que varían muy rápidamente en el tiempo y que son susceptibles de ser estudiadasdesde un punto de vista estadístico. Los receptores telefónicos, los filtros de onda, las redes demodulación de frecuencias, etc., han de poder procesar la información inherente a los cambios de voltaje aun ritmo tan rápido como la variación de éste.

La información se ha de poder registrar, conservar, trasmitir y usar. Las ideas fundamentales sobre lacuestión de medir la información, pueden ser atribuidas a Claude E. Shannon, aunque hay otras personasque ayudaron a aclarar algunos conceptos fundamentales, como por ejemplo Norbert Wiener.

Una teoría de la información es, de hecho, una teoría de la medida de la información como consecuenciade la idea de que ésta es medible. En 1922, R.A. Fisher proponía una definición cuantitativa de lacantidad de información contenida en datos experimentales susceptibles de tratamiento estadístico. Mástarde, el desarrollo de las telecomunicaciones impuso la necesidad de medir la información transmitida através de un canal, en este caso el hilo metálico.

La cronología del desarrollo del estudio de la teoría de la información podría resumirse del siguientemodo:

1928, R. Y. Hartley, en el congreso internacional de telefonía y telegrafía, propuso unmétodo de comparación de los distintos sistemas transmisores de información.

1948, C.E. Shannon, partiendo del problema concreto de la transmisión por hilo, halla lamedida de la cantidad de incertidumbre asociada a un campo de probabilidades finito,inspirada en el modelo de entropía termodinámica de Boltzmann (1894). Fue él mismoquien dio las nociones de fuente, canal, perturbación, etc., así como algunos de losteoremas fundamentales de la codificación que son la base de esta teoría de lainformación que nos disponemos a estudiar.

1953, B. McMillan reemprendió los trabajos de Shannon e introduce las definicionesmatemáticas de fuente de información y canal de transmisión. Pasa de las fuentes deMarkov a las fuentes ergodinámicas (existencia del vector de probabilidades de estadoestacionarias).

1954, A. Feinstein dio la primera demostración completa del teorema de codificación,enunciado por Shannon para los canales sin memoria.

1956, A.L Khintchine elaboró el primer tratamiento matemático riguroso y completo dela teoría de la información para los canales estacionarios ergódicos y para los canales conmemoria finita y sin anticipación.

1962, M.L. Minsky desarrolló las ideas de R.J.Solomonoff sobre la teoría algoítmico dela información basada en la complejidad asociada a la realización de un cierto algoritmo,por medio de una cierta máquina de Miring. Posterior-, mente, esta teoría se ha idodesarrollando por otros autores como A.N.KoImogorov, P.Martin-L5f y G.J.Chaitin.

1963, S. Winograd y J.D. Cowan publicaron un buen trabajo sobre la teoría de autómatasfiables, construidos a partir de partes no fiables, estableciendo una conexión entre la

Page 94: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

28 de 32 18/04/2008 20:35

teoría de la comunicación de Shannon y la de autómatas, desarrollada anteriormente porVon Neumann.Durante los años sesenta del siglo pasado se lleva a cabo una revisión de la teoría de lainformación de Shannon para contemplar aspectos semánticos de la información. Talesrevisiones son los trabajos de Rényi, Forte, Kampé de Fériet, Aczel, etc..

Un equipo de científicos japoneses "escribió" y recuperó una fórmula física en el

genoma de un tipo de bacteria. La técnica podría abrir el camino para usar el ADN

de animales o plantas para almacenar mucha información en poco espacio. Según

los investigadores, el ADN sería un material más resistente que los CD, DVD y los

discos duros que suelen romperse fácilmente.

(Agencia CyTA-Instituto Leloir. Por Bruno Geller) - Los CD, DVD y los discos durosson soportes físicos que pueden almacenar una gran cantidad de información, sinembargo, tienen la desventaja de que pueden romperse fácilmente. Por ese motivo,científicos de diversos países pretenden crear a partir de materia biológica dispositivos dealmacenamiento de memoria más resistentes, que podrían durar miles de años. Estoquizás no sea importante para la finita vida de un individuo, pero tal vez sí podría serlopara la humanidad.

Investigadores del Instituto para las Biociencias Avanzadas de la Universidad Keio,Japón, crearon un método para guardar información en el ADN de un organismo vivienteque podría ser transmitida a la descendencia, según revela la revista científica TheJournal of the American Chemical Society.

Los creadores de la técnica, encabezados por el doctor Yoshiaki Ohashi, insertaron en elADN de la bacteria Bacillus subtilis el mensaje "E=mc², 1905" que corresponde a laecuación de la Teoría de la relatividad formulada por el físico Albert Einstein en el año1905.

El mensaje fue traducido al sistema binario que en matemática es un sistema denumeración en el que los números se representan utilizando las cifras cero y uno (0 y 1)de acuerdo con determinado orden y que es utilizado por las computadoras para realizarsus operaciones. Mediante la combinación de esos números, que también puedenrepresentar letras, es posible crear el mensaje "E=mc², 1905", así como cualquier otro.

El experimento

Ohashi y sus colegas utilizaron la adenina (A), la guanina (G), la citosina (C) y la timina(T) -cuatro unidades básicas que conforman junto a otros elementos el ADN- para crearel mensaje. La unión de las bases representaban los números del sistema binario que a suvez representaban las letras y números del mensaje.

Una vez creado el mensaje mediante la unión de las bases del ADN, fue insertado en elgenoma de la bacteria Bacillus subtilis. Días después, los investigadores recuperaron elmensaje tras descifrar la región del genoma donde fue inscripta la información.

Según Ohashi, la secuencia de nucleótidos ?compuestos por las bases de ADN- quepuede ser artificialmente insertada en el ADN de organismos vivientes puede ser unaalternativa viable para almacenar información por dos razones: el ADN es un materialresistente y por otro lado la información podría ser transmitida por herencia a lassucesivas bacterias durante miles de años.

Page 95: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

29 de 32 18/04/2008 20:35

Sin embargo, quedan varias cuestiones por resolver. Si bien las bacterias heredan copiasidénticas de genes de sus precursoras, como si fueran clones, el ADN de las bacteriaspuede experimentar mutaciones que podrían modificar la información guardada. En esesentido, los autores del trabajo consideran necesario desarrollar técnicas que de formasimultánea descifren el mensaje e interpreten la lógica de las mutaciones.

Si esa mutación no se produjera, una persona que no conoce la información "E=mc²,1905" inscrita en el genoma de la bacteria, sería capaz de descifrarlo simplementecomparando el genoma normal con el genoma de la bacteria genéticamente modificada:las diferencias revelarían el mensaje encriptado.

Bibliotecas y computadoras del futuro

Cabe preguntarse si en el futuro la humanidad dispondrá de bibliotecas vivientescompuestas de bacterias, insectos o plantas cuyos genomas modificados albergaránnovelas, diccionarios o enciclopedias, entre otros datos. Con esas técnicas, más de unapersona podría poner su biografía a salvo de la curiosidad ajena o bien enviar un mensajede amor inscrito en el genoma de una rosa.

¿Cuándo llegara la era de las computadoras compuestas por millones de moléculas deADN capaces de almacenar más información que un chip convencional, dotadas deneuronas artificiales que imiten o superen el funcionamiento del cerebro humano?¿Habrá sistemas informáticos basados en una combinación de material biológico concircuitos electrónicos y silicio? Expertos en informática y de otras disciplinas estántrabajando en esa dirección

Enlaces recomendados:Límites en la compresión de la información

¡Más barata! ¡Más barata! (1ª parte)

Información a precio ~0: revolución social, peligros y soluciones

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en mis webs

Page 96: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

1 de 31 18/04/2008 20:25

Introducción a la Informática. Estudios GAP,facultad Derecho

Capítulo 4. Historia de la Informática

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismo

Page 97: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

2 de 31 18/04/2008 20:25

DivulgaciónInformáticaCiencia en generalBiologíaCriminología

InicioContacte

AntecedentesCálculo matemáticoLas generaciones de ordenadoresHistoria de los ordenadores personalesHistoria de internet

Selecciona un texto ypulsa aquí para oírlo

Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsaren la esquina inferior derecha

4.1 Antecedentes

El ser humano siempre ha necesitado medios para hacer cálculos y procesar la información. Lacomplejidad de estos se ha ido acrecentando con el tiempo, conforme surgían nuevas necesidades, y haestado subordinada a los progresos de la tecnología. En cuanto al cálculo, primero surgieron losinstrumentos aritméticos, como el ábaco, a partir de los que se ha llegado a las calculadoras y ordenadoresactuales.

El origen del procesamiento automático de la información, se remonta al año 1896 cuando HermanHollerith (1860-1929) fundó una empresa que daría lugar a IBM. Actualmente casi todas las necesidadesde cálculo, se han visto satisfechas con los ordenadores.

Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuantoson muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción delprimer ordenador. Desde tiempo inmemorial los hombres se han valido de instrumentos pararealizar cálculos y para almacenar y procesar información. La primer herramienta que servía para contar yal mismo tiempo para representar las cantidades contadas fueron los dedos, dando origen al sistemadecimal de numeración.

El hombre primitivo usó piedrecillas para representar números y hacer sumas sencillas. 500 años a.n.e.,surgió el ábaco inventado y reinventado por culturas distintas en el espacio y en el tiempo, como losaztecas y los sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en cada columna. Enel chino el tablero está dividido en dos zonas, "cielo" y "tierra", con dos ycinco bolas respectivamente. El japonés consta de cuatro y una bolarespectivamente. En Japón existe un Instituto de Investigación del ábaco yun Comité Central de Operadores de ábacos. El 12 de noviembre de 1946compitieron, el soldado Wood del ejército de EE.UU., que era el operadorde máquinas de calcular más experto, con una calculadora eléctrica de lasde su época y Kiyoshi Matsuzaki del Departamento de Ahorros delMinisterio de Administración Postal, dotado de un ábaco. Se trataba de resolver cinco cálculoscomprendiendo las cuatro operaciones elementales, la victoria fue para el japonés, por cuatro frente a uno.

Page 98: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

3 de 31 18/04/2008 20:25

En la página Molecular Expressions se muestra un ábaco en el que es posible simular operaciones reales.

EL ÁBACOConsiderado como el instrumento más antiguo de cálculo, adaptado y apreciado endiversas culturas. El origen del ábaco esta literalmente perdido en el tiempo. En épocasmuy tempranas el hombre primitivo encontró materiales para idear instrumentos de conteo.Es probable que su inicio f uera una superficie plana y piedras que se movían sobre líneasdibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra enChina, donde el uso de este instrumento aun es notable al igual que en Japón.

La palabra ábaco es latina y tiene sus orígenes del griego "abax" o "abakon", que significa"superficie plana" o "tabla", es posible que se ha originado de la palabra Semítica Abaqque significa "polvo". Otros nombres son: del ábaco Chino es "Suan Pan", el Japonés es"Soroban", en Corea "Tschu Pan", en Vietnam "Ban Tuan" o "Ban Tien", en Rusia"Schoty", Turquía "Coulba" y Armenia "Choreb".

Debido a que gran parte de la aritmética se realizaba en el ábaco, el término ábaco hapasado a ser sinónimo de aritmética, y encontramos tal denominación en Leonardo de PisaFibbonacci (1170-1250) en su libro "Liber Abaci" publicado en 1202, que trata del uso delos números indo-arábigos.

Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeasdesapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fueimposible encontrar rastro de su técnica de uso. Las evidencias del uso del ábaco soncomentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322)escribió la necesidad del uso de piedras para realizar cálculos difíciles de realizar en lacabeza. Y los métodos de calculo encontrados en los comentarios de Herodoto (484-425),hablando de los egipcios decía: “Los Egipcios mueven su mano de derecha a izquierda enlos cálculos, mientras los Griegos lo hacen de izquierda a derecha".

Algunas de la evidencias físicas de la existencia del ábaco se encontraron en épocasantiguas de los Griegos por las excavaciones arqueológicas. En 1851, se encontró una granánfora de 120 cm. de alto, se la denominó como "Vaso de Darío" y entre los dibujos tieneuna figura que representa un contador que realiza los cálculos. La segunda muestraarqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis, eltablero de Salamis probablemente usado en Babilonia 300 a.n.e., es una gran pieza demármol de 149 cm. de largo por 75 cm. de ancho, con inscripciones que se refieren aciertos tipos de monedas de la época, este tablero esta dividido en dos partes.

Se sabe que los Romanos empleaban su ábaco con piedra caliza o mármol, para las cuentasa las que denominaron "calculi" esta palabra es la raíz de la palabra cálculo".

En el siglo XIII se estandarizó una mesa de ábaco en Europa, consistiendo en una mesacubierta de paño en la que se dibujaban unas líneas con tiza o tinta. Existieron dos intentospor reemplazar la mesa de ábaco por otros más modernos. El primero fue ideado por elfilósofo romano Boethuis, quien escribió un libro sobre geometría dedicando un capítulo aluso del ábaco, describió como en lugar de emplear cuentas se podía representar el numerocon sólo una cuenta que tuviese los dígitos del 1 al 9 marcados. El segundo intento fuerealizado por el monje Gerbert de Avrillac (945-1003), quien fue papa con el nombre deSilvestre II. Tomó ideas del libro de Boethius, y describió el uso de una nueva forma deábaco en el año 1000. Ninguno de estos dos ábacos fueron populares.

La mesa de ábaco fue usada extensamente en Bretaña, al igual esta fue abandonada por la

Page 99: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

4 de 31 18/04/2008 20:25

mayoría de la gente. El libro "The Grounf of Artes" escrito por Robert Recorde(1510-1558) en 1542, claramente muestra el método de aritmética con la mesa de ábaco.

Conforme los numerales indo-arábigos aparecieron en Europa el uso de la mesa de ábacodesapareció por completo, cuando los soldados de Napoleón invadieron Rusia en 1812,trajeron ábacos como trofeos o recuerdos del país.

En otras partes del mundo, se encuentra en China la primera evidencia del inicio del ábacochino que se descubrió, fueron cuentas de cerámica hechas en el occidente de la DinastíaZhou1 con más de 3000 años. Respecto a los materiales históricos a mano, el libro queregistra el comienzo del cálculo con un ábaco se llama Crónica Aritmética escrito por XuYue en el oriente de la Dinastía Han (206-220), hace 2000 años. Esto indica que el ábacotenia una cuenta en la parte superior y cuatro en la inferior.

Los ábacos modernos existieron en la Dinastía Song (960-1279) lo que puede serverificado por alguna evidencia, por ejemplo, en una pintura de Wang Xhenpeng's,muestra el uso extenso entre la gente del sur de la Dinastía Song.

Durante la Dinastía (mongol) Yuan (1279-1368)los ábacos tuvieron una etapa donde sefueron popularizando paulatinamente en todo el país, posteriormente entró en la etapa en laque su uso ya era algo común a mediados de la Dinastía Ming (1368-1644) y la técnica deuso paso a ser un sistema algorítmico completo. Un libro escrito por Wu Ching-Hsin-Minen 1450, tiene descripciones acerca de el ábaco, así como una gran numero de librospublicados a finales de la Dinastía Ming, que aseguran el hecho que el ábaco entró en eluso popular. Existen dos trabajos representativos en el cálculo del ábaco en la DinastiaMing. Uno fue Wang Wensu's Principios matemáticos 1524, y el otro es Cheng Dawei'sreglas generales del método de conteo 1592, los cuales plantearon un mayor papel enextender el uso del ábaco. Durante el período de la Dinastía Ming, el ábaco chino sepropagó hacia Corea en el 1400 y en Japón en el 1600, así como al sureste de Asia.

Durante la Dinastia Ming había un solo tipo de ábaco en China, con una cuenta en la partesuperior y cinco en la parte inferior, fue encontrado en la tumba de Lu Weizhen(1543-1610). Después de la Dinastía Qing (1644-1912), el ábaco contó con dos cuentas enla parte superior y cinco en la parte inferior, fue extensamente usado como actualmente hasido, mientras que el ábaco japonés se diseñó empleando una cuenta en la parte superior(cielo) y cuatro en la inferior (tierra).

A finales de la edad media los mongoles propagaron el uso del ábaco en Rusia, queprovenía de los chinos y los tártaros.

Un hecho muy importante del uso y la potencia del ábaco fue que el 12 de Noviembre de1946, una competencia, entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés decomunicaciones utilizando un ábaco japonés y el americano Thomas Nathan Wood de laarmada de ocupación de los EE.UU. con una calculadora electromecánica, fue llevada acabo en Tokyo, bajo patrocinio del periódico del ejército americano (U.S. Army), Stars andStripes. Matsuzaki utilizando el ábaco japonés resultó vencedor en cuatro de las cincopruebas, perdiendo en la prueba con operaciones de multiplicación.

El 13 de Noviembre de 1996, los científicos Maria Teresa Cuberes, James K. Gimzewski,y Reto R. Schlittler del laboratorio de IBM de Suiza de la división de investigación,construyeron un ábaco que utiliza como cuentas moléculas cuyo tamaño es inferior a lamillonésima parte del milímetro. El "dedo" que mueve las cuentas moleculares es similar auna aguja cónica que en su extremo más puntiagudo alberga un átomo.

Page 100: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

5 de 31 18/04/2008 20:25

1) Las fechas de inicio de la dinastía Zhou son dudosas, y varían entre los años 1122, 1050y 1027 a.n.e., cuando al parecer expulsaron a la débil dinastía Shang. En cuanto a la fechade su fin, casi todo el mundo coincide en señalar el año 221 a.n.e.

Artículo escrito por Manuel Bernal

Antes de aparecer las calculadoras surgieron otros dispositivos de entre los que cabe comentar dos, en losque el matemático escocés John Neper (1550-1617) tuvo un papel destacado. Es conocido por lainvención de los logaritmos en 1614, que dieron origen a la regla de cálculo, cuya paternidad es tema decontroversia, no obstante el primero en usarla, en 1621, fue el sacerdote inglés William Oughtred(1575-1660). En 1617 Neper dio a conocer un instrumento sencillo para realizar multiplicacionesbasándose en sumas, llamado rodillos de Neper, idea que aparecía varios siglos antes en libros árabes.

La necesidad de calcular sin errores dio lugar a la calculadora, la mecánica es una especie de ábaco, perocon ruedas dentadas en lugar de varillas y bolas, dotada de un mecanismo para el transporte de lasunidades que se lleven, de una posición digital a la siguiente más significativa.

Hasta hace pocas décadas se creía que el filósofo francés Blas Pascal(1623-1662) había sido el creador de la calculadora. Pascal diseñó su "machinaarithmetica", posteriormente denominada Pascalina, a la edad de 19 años, paraque su padre que era recaudador de impuestos tuviera tiempo libre para jugarcon él a la paume.

Leonardo Da Vinci (1452-1519) diseñó una sumadora que fue reconstruida en 1967 a partir de uno de suscódices. En 1935 el historiador Franz Hammer, revisando la correspondencia del astrónomo JohannesKepler descubrió que el alemán Whilem Schickard (1592-1635) había inventado una calculadora que erauna combinación de los rodillos de Neper con una sumadora-restadora similar a la de Pascal, obviamenteno sólo era superior a la pascalina, sino que se construyó el año en que nació Pascal.

El primero en construir una calculadora, en 1671, fue el filósofo y matemático alemán Gottfried Leibniz(1646-1716),inventor junto con Isaac Newton del cálculo infinitesimal, aunque de forma independiente.Fue denominada calculadora universal, su elemento característico era un tamborcilíndrico con nueve dientes de longitud variable, llamado rueda escalonada, quese encuentra en prácticamente todas las calculadoras mecánicas posteriores,incluso las del siglo XX. Las técnicas de producción tan poco eficientes deaquella época, impidieron que el invento de Leibniz se fabricara masivamente. Sellegaron a construir 1500 unidades, pero hubo que esperar hasta 1820 para queCarlos Thomas, director de una aseguradora diseñara un modelo capaz de serproducido a bajo coste y a escala industrial.

En 1872 el estadounidense Frank Baldwin construyó una calculadora a la que años más tarde le añadió ladenominada rueda Odhner. Esta fue la antecesora de la clásica calculadora de sobremesa, con manecillalateral, difundida universalmente desde 1910 y que todavía se encuentra en rastros. De ella deriva lapopular caja registradora inventada en 1879 por James Ritty, comercializada bajo la marca National y unasumadora provista de impresora inventada por William Borroughs (1855-1898) en 1884, fundador de laempresa que llevó su apellido.

En 1878 el periodista y escritor gallego, afincado en EE.UU., Ramón Verea García (1833-1899) patentóen Nueva York una calculadora por la que se le otorgó la medalla de oro de la exposición de Matanzas(Cuba). Aseguraba que no había fabricado la máquina para patentarla y venderla, sino para demostrar queera posible que un español pudiera inventar tan bien como un norteamericano. A partir de entonces sólo

Page 101: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

6 de 31 18/04/2008 20:25

se dedicó al periodismo, combatiendo la política de colonialismo de EE.UU., por lo que tuvo que exiliarseen Guatemala y posteriormente en Argentina.

4.2 Cálculo matemático

Una calculadora no es un dispositivo automático, lo cual implica que requiere la acción constante de unoperador, que es un obstáculo para la velocidad y fiabilidad de los resultados.

En 1812 el matemático inglés Charles Babbage (1792-1871), habiendo constatado que las tablastrigonométricas estaban plagadas de errores al haber sido calculadas a mano,concibió la denominada máquina de diferencias, un instrumento mecánico paracalcular e imprimir tablas de funciones. En realidad se trataba de una máquinaque calculaba el valor numérico de una función polinómica sobre una progresiónaritmética, pues las funciones se pueden aproximar por polinomios.

Tras una serie de fracasos, en 1832 Babbage desarrolló el proyecto de la máquinaanalítica. Se trataba de un ordenador mecánico de propósito general, preparadopara realizar cualquier tipo de cálculo mediante un programa adecuado. Suselementos fundamentales serían: una memoria para 1000 números de 50 cifras,una unidad aritmético lógica para los cálculos, una unidad de control para que las operaciones serealizasen en el orden correcto, lectoras de fichas perforadas (que ya se usaban desde hace un siglo en lostelares) para la entrada de datos y una impresora para la salida de resultados.

Una amiga y colaboradora, la señorita Ada Augusta Byron (1815-1852), condesa de Lovelace, publicóuna serie de programas para resolver ecuaciones trascendentes e integralesdefinidas, con la máquina analítica. En dichos programas se hacía uso debifurcaciones, hacia delante y atrás y de bucles. Fue la primera programadora de lahistoria, por eso el departamento de Defensa de EE.UU. denominó ADA al lenguajede programación oficial en sus dependencias.

Es sorprendente que a alguien se le ocurriera diseñar un ordenador hace más de unsiglo y medio. Aunque nunca se llegó a construir esta máquina por falta de precisiónen algunas piezas. Babbage tenía manía a los organilleros, y al morir los periódicoslondinenses destacaron ese detalle.

Entre sus sucesores destaca el ingeniero santanderino Leonardo Torres Quevedo (1852-1936). Logrórenombre universal gracias a sus inventos. Construyó transbordadores (uno en las cataratas del Niágara),un aparato teledirigido por ondas de radio, un globo dirigido y semirrígido, usado por franceses e inglesesdurante la Primera Guerra Mundial y un sinfín de máquinas para cálculo científico. De estos destacan losaritmómetros en los que introdujo la aritmética de punto flotante, eran máquinas de cálculo matemáticosobre la base de relés, y dotadas de memoria, que se gobernaban a distancia mediante una máquina deescribir, la cual servía para entrar operandos, operaciones y para obtener los resultados. Asimismo realizóestudios sobre los hoy denominados robots, y sus aplicaciones en la industria, por lo cual no sólo esconsiderado un precursor de la informática sino también de la cibernética; como ejemplo prácticoconstruyó una máquina de jugar al ajedrez, un autómata capaz de dar mate de rey y torre contra rey y quereaccionaba ante las jugadas irreglamentarias del contrario.

En los años 1920 tuvo en sus manos de dar a España la primacía en la informática, si no sucedió fueporque en aquella época no hacía falta. La necesidad de un ordenador surgió con la Segunda GuerraMundial, por lo que se construyeron los primeros ordenadores basándose en los trabajos de Babbage y deTorres Quevedo.

4.3 Las generaciones de ordenadores

Page 102: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

7 de 31 18/04/2008 20:25

Informática se puede considerar como "Tratamiento automático de la información" la primera personaque construyó una máquina (que todavía no era un ordenador) fue el americano Herman Hollerit(1860-1929). En 1886, cuando trabajaba para la oficina del censo en EE.UU. se percató de que elprocesamiento de los datos del censo del año 1880, no se había terminado en el momento de hacer el de1890. Para resolver el problema diseñó una tarjeta que se debía perforar con los datos de cada uno de losencuestados. Estas fichas se introducían en una lectora que detectaba las perforaciones mediante un bañode mercurio (Hg), que al introducirse por los agujeros provocaba contactos eléctricos. Finalmente losdatos se registraban en una tabuladora. Con ello se multiplicó por 100 la velocidad de proceso, 200 fichaspor minuto.

Hollerit fundó su propia empresa, la Tabuling Machine Co. (1896),posteriormente convertida en laComputing Tabulating Recording (1911), tras pasar a manos de Thomas Watson se denominó en 1924International Bussiness Machines (IBM).

Otra gran empresa, Unisys, tiene su remoto origen en esta época. Al dejar Hollerit laOficina del Censo, lo sustituyó James Powers, quien fundó en 1911 la PowersAccounting Machine Co., que pasó a formar parte en 1927 de la Remington-RandCorporation. Esta empresa años más tarde construyó los primeros ordenadoresUnivac.

Hasta 1950 las empresas fundadas por Hollerit y Powers se dedicaron a lafabricación de tabuladoras para la gestión de grandes empresas y organismosoficiales. La primera tabuladora llegó a España en 1925 y se instaló en la entoncesdenominada Compañía Telefónica Nacional de España (actualmente Telefónica deEspaña S.A.). En 1926 se instaló otra en el ayuntamiento de Barcelona. A finales delos años 1950 había unas 70 en toda España.

Ordenadores de Primera Generación

Los primeros ordenadores fueron electromecánicos (en base a relés). Aunque Jorge Stibzconstruyó en 1949 en los laboratorios Bell una máquina programable que trabajaba connúmeros complejos, el Complex Calculator, se considera que el primer ordenador fuedesarrollado en 1941, el Z3 del alemán Konrad Zuse (1910-1995), cuya empresa fueadquirida por Siemens. Le siguió en 1944 el Mark I de Howard Aiken (1900-1973) yGrace Hopper (1906-1992), construido en la Universidad de Hardward con lacolaboración de IBM. Pesaba cinco toneladas y tenía más de 750000 piezas y 800 km decable.

Durante la década de 1950 Aiken trabajó activamente con investigadores españoles del Instituto deElectricidad y Automática del CSIC, fundado por Torres Quevedo.

La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadoreselectrónicos. El primero fue fabricado en 1945,el ENIAC (Electronic Numerical Integrator andCalculator) de los estadounidenses John Eckert (1919-1995) y John Mauchly(1907-1980) que se usó en el cálculo de trayectorias de proyectiles. Acabada laguerra se utilizó para calcular el número pi con unos 2000 decimales, y parahacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos ypesaba 30000 kg. Era 300 veces más rápido que el Mark I y costaba 400000dólares frente a los cinco millones del Mark I. Sin embargo sólo tenía 20registros de memoria, de 10 dígitos; estaba pues muy lejos de cualquier ordenador personal. En un test deprueba en febrero de 1946 el Eniac resolvió en dos horas un problema de física nuclear que previamentehabría requerido 100 años de trabajo humano. Lo que lo caracterizaba como a los ordenadores modernosno era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitíarealizar tareas que previamente eran imposibles.

Page 103: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

8 de 31 18/04/2008 20:25

Antes del ENIAC, en 1940 se crearon otras máquinas electrónicas, un pequeño calculador delfísico John Atanasoff (1903-1995) que no era automático niprogramable y varias máquinas británicas para descifrar los

mensajes del ejército alemán, por ejemplo, en 1943 el Colossus. La batallalegal por la palabra "Computer" la ganó en el año 1973 póstumamenteAtanasoff.

Echerk y Mauchly crearon la Electronic Control Co, que en 1950 fueadquirida por la Remington-Rand, allí diseñaron el primer ordenadorelectrónico de gestión, el UNIVAC (UNIversal Automatic Computer). Elaparato tuvo gran éxito y copó el mercado, que hasta entonces había sido feudo de IBM. En respuestaIBM creó una serie de ordenadores excelentes, como el IBM 705, en 1952, desbancando a Univac,mediante una publicidad agresiva. El UNIVAC II no salió hasta 1958, cuando IBM ya había recobrado elliderato. De poco les había servido una fusión con Sperry Giroscope Co (1955) para crear la Sperry RandCorporation.

En 1945 mientras se construía el ENIAC, se incorporó alequipo el prestigioso matemático húngaro Johannes VonNeumann (1903-1957), quien propuso que los programasse almacenasen en la memoria como sifuesen datos, y no en una memoriaespecial, como se hacía desde el diseñode Babbage, equipo que se iba a llamarEDVAC. Los informes fueron tanprecisos que otros se adelantaron y así elprimer ordenador tipo Von Neumann fueel EDSAC (Electronic Delay Storage

Automatic Calculator) construido el año 1949 por Maurice Wilkes (1913-) en la Universidad deCambridge. De esta generación sólo llegó uno a España, un IBM 650, contratado por RENFE en 1958.

Ordenadores de segunda generación

Se considera el inicio en 1958 con la sustitución de los tubos de vacío por los transistores. Los primerosordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM ySperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962),respectivamente. Bull comercializó los Gamma 30 y 60. Durante estaépoca se introdujeron las unidades de cinta y discos magnéticos, y laslectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismoaparecieron algunos lenguajes de programación, COBOL (1959), Algol(1960), el LISP(1962) y FORTRAN que fue creado en 1954 para IBM,por John Backus (1924-2007).

El segundo ordenador instalado en España, y primero de la segunda generación llegó en 1959, era unUNIVAC UCT, contratado por la antigua Junta de Energía Nuclear, actualmente CIEMAT. La era de lainformática llegó realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presentó unIBM 1401.

Los primeros se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), GaleríasPreciados (Actualmente propiedad de El Corte Inglés S.A.) y Ministerio de Hacienda. En 1967 IBM donóa la Universidad Complutense de Madrid un ordenador científico, modelo 7094.

Ordenadores de tercera generación

Page 104: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

9 de 31 18/04/2008 20:25

La principal característica de esta generación fue el uso del circuito integrado, que se incorporó amediados de los años 1960. Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000millones de dólares de aquella época (1964) y sobre todo la IBM 370 (1970), el producto más

famoso de esta generación. Sperry Rand, en 1965 introdujo la famosa serie 1100.

Durante esta época surgieron la multiprogramación y el tiempo compartido. También tuvo lugar ladenominada "crisis del software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y seestandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). Tambiéndatan de esta generación el BASIC (1964) y el Pascal (1971).

En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, yprácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores edistribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del norte y algunascajas de ahorros.

Los miniordenadores surgieron a finales de los 60, como elemento de transición entre las generacionestercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes ymedianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11de la desparecida Digital Equipment Corporation.

Ordenadores de cuarta generación

El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con ciertacontroversia, el microprocesador Intel 4004, desarrollado por Intel en 1971. Elprimer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecidaempresa MITS. Microsoft tuvo el acierto de construir un intérprete BASIC para él,MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable,dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC, quea su vez lo adquirió a otra empresa. Las imágenes siguientes muestranmicroprocesadores bajo distintas escalas de ampliación.

Page 105: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

10 de 31 18/04/2008 20:25

En 1971 apareció el PET 2001 de Commodore, empresa absorbida por la holandesa Tulip, el TRS 80 deRadio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: Steven Jobs (1955-)y Stephen Wozniak (1950-). A partir de 1980 se produce una eclosión de marcas. Destaca el SinclairZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxitovendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la

informática, aunque sigue con equipos musicales y antenas de televisión, demuy baja calidad. En Agosto de 1981 se presentó el IBM PC, que dio lugar a ladifusión masiva de la informática personal.

Sin embargo la microinformática, contrariamente a lo que se cree, no comenzóen EE.UU, pues en el año 1973 se creó en España, con la invención del primerordenador personal, el Kentelek 8, a cargo de la empresa Distesa (de laeditorial Anaya), el creador fue Manuel Puigbó Rocafort. Jordi Ustrell diseñoposteriormente otro ordenador personal par la empresa catalana EINA. Por esta

época también surgieron en Francia los microordenadores Micral

Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estasúltimas al primer ordenador transcurrieron dos siglos y desde el Mark I al primer microordenador pasaron28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar.

Ordenadores de quinta generación

En octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de unainiciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en laprimera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación.

Los ordenadores de esta generación deberían de ser capaces de resolver problemas muy complicados,algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de laspersonas para ser resueltos. Deberían de ser capaces de trabajar con grandes subconjuntos de los lenguajesnaturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadoresde esta generación se están diseñando para ser manejados por personas no expertas en informática.

Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un grannúmero agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferenciay una interfaz de usuario inteligente.

Los avances se sitúan en materia de teleinformática, y una progresiva disminución de tamaño y coste delequipo, así como de técnicas de programación y desarrollo de inteligencia artificial, y de control deprocesos (robotización).

A los 10 años, se vio el fracaso del proyecto, actualmente no están desarrollados estos ordenadores,aunque se trabajó en distintos países, cuyos programas de investigación más importantes fueron:

EE.UU.: Proyectos DARPA y MCCUnión Europea: Proyecto SpritReino Unido: Proyecto AlveyJapón: Proyecto ICOT

4.4 Historia de los ordenadores personales

Diseño del primer PC de IBM

El IBM PC, presentado en agosto de 1981, fue un equipo cuyo objetivo era el mercado doméstico, con locual se comprenderán fácilmente las limitaciones existentes en la primera generación.

Page 106: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

11 de 31 18/04/2008 20:25

Externamente estaba integrado por tres piezas, la unidad central, de sobremesa y de gran tamaño, lapantalla, monocroma y de modo texto y un teclado. A esto se podía añadir una impresora de nueve agujas,con la marca IBM pero fabricada por la japonesa Epson.

Por lo que respecta al microprocesador se trataba delIntel 8088, una versión, con el bus recortado a la mitadde ancho, del 8086. Esta CPU suponía un avancerespecto a los microordenadores comercializados en esaépoca, pues todos eran de 8 bit, a excepción del OlivettiM20, que incluía una CPU Zilog 8000 de 16 bit, aunqueel 8088 no era un auténtico 16 bit.

El usar la CPU Intel 8088, con bus externo de 8 bit, teníauna explicación, poder emplear todos los "chips" deacompañamiento (que en aquella época eran bastantes)existentes en el mercado, a precio barato, de 8 bit. Si sehubiera empleado la CPU Intel 8086, como hicieron deinmediato otras empresas como Olivetti en su M24 y ladesaparecida Victor, todos estos chips habrían de ser de16 bit, con un precio muy elevado en aquella época.

Así se concluye que IBM, buscó el fabricar un equipo novedoso en su CPU, aunque limitando al máximoel precio de sus componentes, para mantener un producto de calidad alta, prestaciones superiores frente alos productos domésticos de la competencia, y a un precio que le permitiera mantener los grandesmárgenes comerciales.

El siguiente vídeo muestra uno de los primeros PCs de IBM, el 5150 mostrando la ejecución de unprograma escrito en ensambaldor para el Intel 8088.

La configuración básica estaba integrada por:

CPU Intel 8088 a 4.77 MHz64 kO RAM

Page 107: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

12 de 31 18/04/2008 20:25

Controladora de vídeo modo textoControladora de impresora (Centronics)Monitor exclusivamente de modo textoCinta de casette para almacenar datos y programasLenguaje BASIC en ROMTeclado, de 84 teclas

Sin embargo esta versión no se llegó a comercializar pues se sustituyó la unidad de casette por una dedisco flexible de 160 kOctetos de capacidad, y como es lógico con su controladora. A su vez se introdujoel sistema operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en aquella época sóloera conocida por su lenguaje BASIC) a IBM.

La gran ventaja de este equipo era su facilidad de ampliación debido a los "slots" o zócalos de quedisponía, lo cual dio origen a que un gran número de empresas independientes crearan tarjetaselectrónicas adaptables, que realizaban funciones no disponibles en el PC o que mejoraban las existentes.Estos zócalos constituyen el tan conocido BUS de expansión del PC, que dio lugar al BUS AT, unestándar a nivel microinformático, conocido como Bus ISA. Se define como ancho de banda del bus, lacantidad de bits que puede transportar por unidad de tiempo, siendo inferior a 4 MO/s.

El éxito de este equipo fue superior al previsto por IBM, prueba de ello es que no estuvo disponible enEuropa hasta casi dos años después de su lanzamiento en EE.UU., momento en que se empezó a fabricaren Escocia (R.U.). Este éxito se debió a la gran fama de IBM, pués en esa época había equipos muy

superiores, como los antes citado de Olivetti y Victor, y a precios más asequibles.

Dado que las especificaciones técnicas fueron hechas públicas por IBM, esto dio origen, comose ha comentado previamente, al nacimiento de gran cantidad de empresas que crearon tarjetas adaptablesal bus. Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC perdía la horaal apagarlo, tajetas de vídeo con posibilidades gráficas y que por lo tanto soportaban un monitor gráfico ya veces en colores, tarjetas de comunicaciones como por ejemplo tipo modem o telex, y otras muchasposibilidades.

IBM reaccionó con alguna lentitud, presentando algunas mejoras en su PC, conocido como IBM PC XT,en el que incorporó un disco duro de 20 MO con interface MFM (actualmente desaparecida), con sucontroladora, y una tarjeta de vídeo que soportaba monitores en color y gráficos, pero con una resoluciónbaja (640*200 puntos), que para lo único que servían era para destrozar la vista de los usuarios. A su vezincluyó disqueteras para soportes con capacidad de 360 kO.

Simultáneamente aparecieron los primeros microordenadores clónicos y compatibles. Por ejemplo, enEE.UU. Olivetti Docutel presentó el Olivetti PC, una copia casi idéntica del IBM PC XT, aunque conmejores prestaciones y precio más bajo; en Europa apareció el Olivetti M24, con CPU Intel 8086, y busesde 16 bit, lo cual lo hizo muy superior al XT de IBM, siendo un gran éxito a nivel mundial (secomercializó con otras marcas: AT&T, Toshiba, Logabax, Xerox, Hermes ...). A su vez la francesa Bullpresentó un clónico del IBM PC XT, copia exacta, aunque lo raro es que tenía prestaciones inferiores alde IBM; cosa incomprensible. De esta forma fueron apareciendo equipos que intentaban superar a los deIBM, pero aun no había dado comienzo la época de los clónicos a bajo precio y montados en base a piezasfabricadas en Formosa y otros países asiáticos.

La gran difusión de estos equipos, hizo que aparecieran gran cantidad de programas, lo cual reforzó elliderazgo de los PC's de IBM.

También surgió un equipo de IBM conocido como portable (no portátil), que además de ser bastantevoluminoso, no tenía autonomía eléctrica, es decir había que enchufarlo a la red. Otro inconveniente fueque la pantalla era de tubo de rayos catódicos, como los ordenadores de sobremesa, aunque de pequeñasdimensiones, pero con toda la problemática que conllevan para su transporte. Este equipo no era muy

Page 108: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

13 de 31 18/04/2008 20:25

asequible ni en precio ni en portabilidad, por lo que otras empresas intentaron mejorarlo, así surgió, coneste propósito, Compaq, empresa comprada por Hewlett Packard.

El PC AT de IBM

Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y poco a nivel doméstico, y que porotra parte la competencia ofrecía equipos con más prestaciones más baratos y totalmente compatibles,decidió sacar una versión mejorada de sus PC's, que denominó AT (Tecnología Avanzada). Este incluíauna CPU de 16 bit, superior a la 8086, era la 80286 de Intel, cuya principal diferencia repecto a la 8086era el bus de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha más memoria,aunque en aquella época no era una gran necesidad.

Otra diferencia fundamental, era que los "slots" de expansión constituían un bus de 16 bit, lo cual permitíautilizar las tarjetas de los XT, a 8 bit, y las nuevas que se crearan para él. Este bus AT se ha convertido enun estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez la frecuencia de reloj pasó aser de 6 u 8 MHz, frente a los 4.77 del PC original.

Dado que Intel dió licencias para que sus CPU's fueran fabricadas por otras empresas (Fujitsu, Siemens,AMD, Harris, ...), se abarataron los costes de tal forma, que apareció el fenómeno de los clónicos talcomo lo conocemos actualmente, lo cual perjudicó mucho a IBM, pués el mercado no sólo se distribuíaentre IBM y las marcas de prestigio que comercializaban compatibles (Olivetti, Bull, Compaq, Xerox,AT&T, Philips, NCR y algunas otras), sino que empresas con pocos medios y con gastos nulos deinvestigación, pues gran parte del producto lo copiaban ilegalmente, podían ofrecer equipos clónicos aprecios imbatibles, aunque la mayoría de las veces con una calidad y seguridad para el usuario ínfimas.

La arquitectura de un AT estaba compuesta por:

Fuente de alimentación conmutadaPlaca base o placa madre, que incorpora:CPU Intel 80286 con frecuencia de reloj desde 6 hasta 20 MHzMemoria RAM de 1 MO. ampliableConjunto de chips (ChipSet), que gestionan el sistemaTarjeta controladora de vídeo, gráfico y color (640*200)Tarjeta comunicaciones RS 232CTarjeta controladora impresora (Centronics)Tarjeta controladora de dos discos duros MFM y dos disqueterasTarjeta para ampliación de memoriaBus con los "slots" de expansiónBus Local PC Reloj en tiempo real, con bateríaTeclado mejorado de 104 teclas

Parte o en algunos casos todas, las tarjetas indicadas hubo fabricantes que las incluyeron el la placa base,dejando así más zócals libres en le BUS AT, para posteriores ampliaciones.

Los IBM PS/2

Ante la situación de competencia en la que se vió inmersa IBM, actuó de dos formas, la primera fue exigira todos los fabricantes que le habían copiado sus productos el pago de los "royalties" corrspondientes, a locual, dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una nueva línea de equipos,legalmente muy difíciles de copiar por su gran detalle de patentes. De esta forma nacieron los IBM PS/2.

Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir CPU Intel 386, muy mejorado,en el que se introducian las tarjetas de expansión, pues IBM lo cambió por completo, llamándole"Microchannel", lo cual dió lugar a los equipos con arquitectura MCA (Arquitectura Microcanal). Otra

Page 109: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

14 de 31 18/04/2008 20:25

innovación fue el cambio de tipo de monitores, y por lo tanto de controladora, se introdujeron losmonitores analógicos, con una resolución superior a los previamente empleados (digitales) y con unavariedad de colores muy superior. Estas dos innovaciones supusieron que no valía nada de lo anterior yque además los clónicos, en principio se verían desplazados del mercado.

A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con mejoras significativas frente a suspredecesoras.

La arquitectura MCA fue comercializada por algunos fabricantes aparte de IBM, como por ejemploOlivetti, pero con muy poco éxito. Además dado que estos equipos, incluso los de IBM se difundieronpoco todas las tarjetas de ampliación diseñadas para ellos eran caras, lo cual hacía de esta arquitectura unproducto poco atractivo.

Simultáneamente a la aparición de estos equipos se comercializó un nuevo sistema operativo denominadoOS/2, desarrollado entre IBM y Microsoft, aunque las versiones posteriores fueron creadas por IBM;actualmente ya no se comercializa.

A su vez Compaq creó un bus específico para sus equipos de gama alta, el denominado Triflex, quecomprende tres buses interconectados, uno de 128 bit para la memoria, otro de 64 bit para uno o dosmicroprocesadores 486 (a 267 MO/s) y un bus EISA (que se describirá en el apartado siguiente).

El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM, está claro, pués una nuevageneración de equipos que comercializó posteriormente, para uso doméstico, los PS/1, no utilizabanarquitectura MCA. A su vez como no logró frenar el avance de los clónicos, IBM decidió comercializarclónicos de países asiáticos, con la marca Ambra, lo cual acabó en fracaso al poco tiempo.

Actualmente IBM ha vendido la división de PC's a la empresa china Lenovo, debido a los bajos márgenesde beneficios.

EL BUS EISA

Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores, ASTResearch, Compaq Computer, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE y Zenith DataSystems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera compatiblecon él, esto dio origen al bus EISA (Extendido ISA). Sus características eran: 32 bit, ancho de banda de33 MO/s y frecuencia de reloj 8 MHz.

EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar de susventajas sobre ISA y a valer las tarjetas de expansión existentes, lo cual repercutió en que no se abarataranlos precios.

De forma que en el año 1992 la situación era la siguiente:

Bus ISA, un auténtico cuello de botellaBus MCA, muy restringido y sin difusión al gran públicoBus EISA, sólo usado en equipos de gama alta

Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo cual daría origen a otros buses.

Bus Local VESA

Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA era cuello de botella, lasolución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como buslocal. Este ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX y 32 bit en un

Page 110: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

15 de 31 18/04/2008 20:25

386DX o 486), por lo que eran realidad las velocidades elevadas. Lo ideal es conectar a este bus lascontroladoras de vídeo y de disco duro, mientras que otras tarjetas que no requieren grandes velocidadesse mantienen en el bus ISA.

Surgieron algunos problemas, pues la CPU no puede soportar la conexión directa de más de dos o trestarjetas, además el diseño de la placa base ha de hecerse de forma que las distancias sean mínimas paraevitar retrasos. También es conveniente usar memorias caché.

Su principal ventaja es que cuadruplican el ancho de banda, llegando a 133 MO/s.

VESA es el acrónimo de la Asociación de Fabricantes de Controladoras de Vídeo (Video ElectronicsStandars Association), que agrupa a más de 120 fabricantes, y fueron los que lo propusieron, disponibledesde finales de 1992 y desde 1996 fuera de uso.

Este bus va a la misma velocidad que el procesador, siendo una solución sencilla, que no incluye soportede DMA ni de interrupciones, lo que obliga a la mayoría de las tarjetas a estar conectadas a los dos buses,el ISA y el VESA, para aprovechar del primero las caracteristicas de E/S y del segundo el ancho de banda.

Al salir al mercado las placas madre con bus VESA, su precio era algo superior al de las con bus ISA,hubo una época en que dominaron el mercado, pero han desaparecido del mercado, frente al bus PCI. Paraequipos Pentium sólo se llegaron a fabricar algunas placas VESA.

Bus Local PCI

Introducción

PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel. En 1992 Intel y otrascompañías formaron el PCI Special Interest Group para promocionar, supervisar y mejorar el desarrollode PCI como estándar de bus local abierto y no propietario. Este grupo cuenta con más de 160 fabricantes.Es una solución completa, dado que a diferencia del VESA incluye ventajas como el soporte deinterrupciones y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo tanto un costesuperior.

Las especificaciones del bus local PCI ofrecen un número de beneficios clave:

Altas prestacionesCompatibilidadIndependencia del procesador.Flexibilidad de plataformaBus Local PC rentabilidadSoporte futuro

Altas prestaciones Al contrario del bus local VESA que sólo está pensado para acelerar lasaplicaciones gráficas, PCI es una solución de sistema global. Proporcionamayores prestaciones para los adaptadores de redes, unidades de disco duro, vídeo animado, gráficos yotros periféricos que requieren gran velocidad.

Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho de bandade 132 MO/s, frente a 5 MO/s del bus ISA.

Otras características para permitir operaciones simultáneas, mantener el bus lleno de datos y minimizarlos estados de espera de la CPU, son:

Page 111: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

16 de 31 18/04/2008 20:25

Ráfagas Lineales.

Es un método de transferencia de datos que asegura que el bus siempre tenga datos. Estasráfagas permiten utilizar más ancho de banda para enviar datos en vez de direcciones.

Además PCI es único, pues soporta tanto lecturas como escrituras en ráfaga, muy importantecon aceleradores gráficos, cuando más del 90% de los accesos de datos de la CPU, sonescrituras a la memoria de vídeo desde la memoria principal. Aunque en los nuevos diseñosse está dando otro tratamiento más eficaz a los sistemas gráficos.

Baja latencia de acceso

Los dispositivos diseñados para soportar PCI tienen una baja latencia de acceso, lo quereduce en más de un orden de magnitud el tiempo requerido para que un periférico obtenga elcontrol del bus después de requerir el acceso. Por ejemplo una tarjeta de red Ethernet, puedetener grandes ficheros de datos llegando a su tampón. Esperando acceder al bus, la tarjeta nopuede transferir los datos de los ficheros a la CPU lo bastante rápido para evitar unasobrecarga del tampón, lo que obliga a almacenar en una RAM adicional los contenidos delos ficheros. Como los dispositivos PCI soportan tiempos de acceso, la tarjeta de red puedeenvBus Local PCiar datos más rapidamente a la CPU, redundando en un precio inferior al nonecesitarse RAM adicional.

Concurrencia y Maestros de Bus

Las mejoras de prestaciones también se logran mediante la posibilidad de PCI de ser maestrode bus y permitir la concurrencia. En la mayoría de los buses existe el dominio de bus, quepermite a cualquiera de un número de periféricos inteligentes tomar l control del bus paraacelerar las tareas de proceso intensivo de alta prioridad. La posibilidad de concurrencia,única de PCI, asegura que el microprocesador opera simultáneamente con estos maestros, envez de esperarlos.

Compatibilidad

Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y a veces también se encuentranplacas que incluyen el VESA. A su vez cualquier tarjeta PCI funcionará con cualquier sistema compatiblePCI, sin que importe el tipo de bus de expansión o Bus Local PCde CPU en uso.

Independencia del procesador

La arquitectura independiente del procesador de PCI dispone de un diseño único de tampón intermediarioentre el subsistema de la CPU y los periféricos. Lo normal es que si se añaden a la CPU más dispositivos,se degradan las prestaciones y baja la fiabilidad. El uso del tampón permite a los usuarios ampliar susistema al añadir múltiples dispositivos periféricos e introducir variaciones de prestaciones a diferentesvelocidades de reloj. El diseño independiente del microprocesador aseguran que los diseños de las placasno se quedarán obsoletos.

Soporte de plataforma flexible PCI proporciona una solución de bus local económica para cualquier tipo de equipo, no sólo los normales,sino para los servidores y los portátiles

Rentabilidad

PCI se diseñó con un objetivo de bajar los costes globales de los desarrollos. Utiliza "chips", ya seanfabricados por Intel o por otras empresas como VIA y Opti, altamente integrados, para incorporarfunciones de sistema como controladores de DRAM y caché, eliminando costes y espacio asociados conla circuitería de soporte, Frente a los chips VESA con 80 patillas, los PCI son más pequeños, puesmultiplexan los buses de datos y direcciones.

Page 112: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

17 de 31 18/04/2008 20:25

NombreNºbit

V. MHz

Ancho MO/s

ISA 16 8 <4

MCA 32 10 33

VESA 64 =CPU 133

PCI 32 33 133

PCI-E 32 >338 GO/s

Desarrollos posteriores del bus PCI Dado que la arquitectura de este bus es muy flexible, se efectuó un desarrollo específico para equipos deaplicaciones industriales. Empresas de dicho entorno crearon unas especificaciones dando lugar aldenominado Compact PCI, que ofrece la posibilidad de diseñar ordenadores con dimensiones reducidas,(placas de 160 * 100 mm) soportando ambientes agresivos. Otra de las ventajas es que se pueden crearpuentes con otros buses estándares en la industria, como VME y STD.

La versión 2.2 de las especificaciones, ofrece como novedad más importante, que los nuevos equipos deacuerdo con esta versióm, permiten el intercambio de placas en el bus, sin necesidad de apagar elordenador. La última versión está operativa desde junio de 2004 y se denomina PCI Express, siendo muysuperior en prestaciones respecto al bus AGP, que se creó para mejorar la velocidad de acceso de loscontroladores gráficos al micrprocesador del ordenador.

Comparación entre buses

Bus 1394 FireWire

En 1995 el "Institute of Electrical and Electronics Engineers (IEEE)"estableció las bases de un nuevo estándar, el bus serie de elevadaspretaciones IEEE1394. Desde 1986 se ha tendido a unificar losdiferentes buses en serie, la aparición de nuevos dispositivos grandesconsumidores de un gran ancho de banda, como los DVD, ha dadolugar al nacimiento de las especificaciones del bus Firewire. Estanorma se puede resumir en los siguientes puntos:

Transferencia de datos en tiempo real para aplicacionesmultimedia.Flujos de transferencia de hasta 200 MO/s, ampliable en elfuturo hasta 800 MO/s.Conexión en caliente (sin desconectar la alimentación eléctrica), sin pérdida de datos.Topología de red flexible, incluyendo al de bus y en grafo.Sin necesidad de terminadores en los extremos.Conectores comunes para todos los componentesPosibilidad de conectar entre sí hasta 63 dispositivos

Presenta ventajas frente al resto de buses, incluso frente al USB, aunque no puede competir en precio.Frente al bus PCI, de momento es más lento. Los productos más usuales con este bus son, cámarasdigitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape), CD's, ZIP's,sistemas de almacenamiento magnetoópticos e impresoras.

Tutoriales y recursos sobre IEEE1394

Fundamentos de Firewire. Proporcionados por Embedded Systems Programming. Ofrece una visiónde esta tecnología.IEEE 1394-1995 Sumario del estándar. Autor Michael D. Johas Teener of Zayante (formato PDF).P1394a & P1394b Sumario.IEEE 1394 visión técnica. Proporcionada por Texas Instruments.1394 Open Host Controller Interface.Visión de FireWire/1394 . Proporcionada porAdaptec.

USB - Universal Serial Bus

Page 113: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

18 de 31 18/04/2008 20:25

Este bus serie, creado por un amplio consorcio de empresas, permite conectar más que ordenadores yperiféricos. Puede conectarse con hasta 127 dispositivos como fotografía digital, monitores, teclados,ratones impresoras y escáneres. Está reemplazando rapidamente a otras interfaces como la centronics y laserie RS 32C.

El estándar más reciente es el 2.0, que permite una velocidad de transmisión desde 12 Mb/s hasta 480MB/s y es compatible con la versión previa. La conexión se transmite mediante un par de cables, de hastacinco metros de longitud, mientras que por otro par circula la información de retorno.

4.5 Historia de Internet

La agencia ARPA y su misión

En 1958 se organizó en los EE.UU. la agencia gubernamental de investigación, ARPA (AdvancedResearch Projects Agency) creada en respuesta a los desafíos tecnológicos y militares de la U.R.S.S. de lacual surgirán una década mas tarde los fundamentos de la futura red Internet. La agencia, bajo control delDepartamento de Defensa se organizó en forma independiente de la comunidad de investigación ydesarrollo militar.

Su misión durante las próximas décadas la llevará a desarrollar y proveer aplicaciones tecnológicas noconvencionales para la defensa de EE.UU. ampliando la frontera tecnológica a favor de una organizaciónreducida en número, pero flexible, libre de condicionamientos y dotada de científicos de elite. ARPA serála responsable de una gran parte de la investigación en ordenadores y comunicaciones de carácterinnovador en EE.UU. durante los próximos años.

Inicio. Los grandes ordenadores

Como se ha visto, hacia la década de 1960, los ordenadores eran máquinas grandes e inmóbiles, no podíancomunicarse entre ellas y la transmisión entre usuarios tampoco era posible. Para usar un ordenadordiferente del propio, el usuario debía trasladarse físicamente al otro o usar soportes de almacenamientocon los programas y datos a usar. Científicos de diferentes universidades estaban frustrados, compartirinformación con sus colegas era una labor muy ardua y compleja. Los investigadores más afortunadoseran capaces de comunicarse mediante terminales que usaban modems. Pero el uso de teléfono eracostoso, y los científicos trataron de encontrar mecanismos más eficientes de usar las líneas telefónicaspara transmitir datos. Un sistema, llamado multiplexor permitía a cada uno tener una fracción de tiempoen la línea telefónica.

1962 Se pueden enviar mensajes.

Hacia finales de la década de 1960, durante la Guerra Fría, Paul Baran y sus colaboradores en RandCorporation mantenían sus mentes fijas en un problema: Si las redes de ordenadores fueran dañados poruna guerra nuclear, ¿cómo podría el ejército estadounidense continuar comunicándose?

Una de las respuestas fue mediante una nueva forma de multiplexor que debería descomponer cadacomunicación en pequeños segmentos llamados "mensajes". Una red - consistente en ordenadoresconectados por líneas telefónicas - debería enviar esos mensaje rápidamente. Cada mensaje deberíacontener información de la ruta a seguir, de modo que cada máquina del sistema debería saber a dondeenviar cada mensaje. Esta combinación de mensajes titulados más componentes de red pequeñospermitiría que la información siempre estaría disponible y que la red siempre se mantendría funcionando.

El Sistema de Baran no fue del todo intuitivo, ingeniosamente descartó la noción de que el camino máscorto entre dos puntos es la línea recta, en cambio, estuvo diseñado para el mejor servicio posible, lo más

Page 114: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

19 de 31 18/04/2008 20:25

duradero posible, para el mayor número de usuarios posible y bajo las peores condiciones imaginables.

Esta técnica se denominó "conmutación de paquetes". Los primeros nodos de conmutación fueroncreados bajo la dirección de Donald Davies en el Laboratorio Nacional de Física, Inglaterra.

Los laboratorios de red en 1960 eran locales, operaban solamente en un edificio. Grandes aplicacionesempezaron a aparecer con el nuevo invento.

1963 La Red Intergaláctica de ordenadores.

JCR Licklider, pionero de la computación, tuvo por primera vez una visión de algo parecido a un sistemaInternet. El líder de la Oficina de tecnología de procesamiento de Información de la Agencia Americanade Proyectos de Investigación Avanzados (ARPA) envió un memorando premonitorio a los "Miembros yafiliados de la Red Intergaláctica de Computadoras"

En esta comunicación Licklider sostenía que los ordenadores podrían ayudar a los investigadores acompartir información. También predijo un día en el que comunidades de personas con intereses comunespodrían comunicarse con otros - Presentaba una visión nueva.

En el laboratorio de Lincoln en Massachussets el experto en ordenadores Larry Roberts tuvo una visiónsimilar. Roberts vislumbró los beneficios potenciales de las redes de ordenadores trabajando juntos; comoLicklider, él creía que el trabajo de red debería constituir una comunidad de uso de sistemas informáticos.

Trabajando con Thomas Marill, Roberts usó una línea telefónica dedicada para conectar su computadorTX-2 al ordenador de Systems Development Corporation en Santa Mónica.

Mientras este enlace rudimentario permitió a su ordenador ingresar en el otro y ejecutar programas eneste, se hizo, pero con costos prohibitivos y no prácticos. Pero era sólo el inicio.

1969 Cuestiones clave

En 1966 la oficina de Tecnología de procesamiento de Información de ARPA proporcionó facilidades a17 centros en todo EEUU. Para una afortunada minoría ARPA cubría los costos de líneas telefónicas alarga distancia para que los investigadores clave puedan usar recursos de ordenadores directamente desdesus oficinas. Bob Taylor uno de aquellos pocos afortunados.

Un Psicólogo que trabajaba con J.C.R. Licklider en IPTO, Taylor, tenía tres terminales en su oficina.Cada con una línea telefónica separada que conectaba a un ordenador distante. Las tres terminales deTaylor lo conectaban con: MIT, Berkeley y la Corporación de Desarrollo de Sistemas en Santa Mónica,respectivamente.

Pero Taylor no estaba conforme. Un día, sentado frente a sus tres ordenadores, se preguntó ¿Por quénecesitaba él todo aquello? Por qué no se hacía que un terminal pudiera conversar a todos los ordenadoresa través del país o una red que conecte a ellos. ¿Porqué un terminal no podría hacer todo esto?

Las bases de Internet fueron planteadas.

1969 - Nacimiento de ARPANET

ARPA dio la respuesta a las preguntas clave de Bob Taylor, encargó la construcción de una red deordenadores experimental. Basados en la tecnología de intercambio de paquetes de Paul Baran, esta Redde la Agencia de Projectos de Investigación Avanzada (Advanced Research Projects Agency Network) oARPANET, ayudaría a los investigadores a trabajar más eficazmente y explorar rumbos para las redes decomputadoras.

Page 115: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

20 de 31 18/04/2008 20:25

Una compañía de Cambridge, Mass., llamada Bolt, Beranek and Newman ganó el contrato para construirlos conmutadores de paquetes, o Interface Message Processors (IMPs), que serían usados como nodos deordenadores para esta nueva RED.

En Setiembre de 1969, el primer IMP llegó a la UCLA, un centro de investigación fundado por ARPA.Los científicos de Computadoras Len Kleinrock y los estudiantes graduados Vinton Cerf llamaron a lamatriz de UCLA; su curiosidad sobre la arquitectura de la red los llevó a la creación del Centro deMedición de Red de ARPA. EL equipo haría el seguimiento de todo lo que podría hacer la comunidadARPA

Pocas semanas después los IMPs fueron cambiados al Instituto de Investigación Stanford en Menlo Park,California. El cual proveía el nuevo Centro de Información de Red; la Universidad de California en SantaBárbara la cual alojó el sistema Interactivo en l ínea UCSB; y la Universidad de Utah en Salt Lake City,donde ordenadores para gráficos estaban en su inicio. Una vez que ellas hubieron conectado por medio delíneas telefónicas, los IMPs en estos cuatro sitio empezaron a intercambiar paquetes a larga distancia ynació ARPANET

Las cosas ya no volverían a ser las mismas

1972 Comienza la fiesta de Arpanet

La Red ARPANET inicialmente brindó tres servicios: Acceso a ordenadoras remotos y otros dispositivoscomo un terminal de usuario remoto (actualmente denominado Telnet), compartir información a través dela transferencia de archivos, e impresión remota o salida a impresoras en otras ubicaciones.

Sorprendentemente, el e-mail entre ordenadores conectados no estuvo entre la oferta inicial. "Nosabíamos que e-mail era importante" confesó después Vint Cerf de UCLA "No estábamos seguros de quées lo que ocurriría con el tiempo", no fue sino hasta años después que primer mensaje de e-mail deARPANET fue enviado.

A medida que ARPANET crecía, hacia 1971, fue expandida hasta 15 nodos y en 1972 incluía 37, losmiembros no estaban satisfechos.

ARPANET tuvo su presentación en octubre del año siguiente, cuando ARPANET IMP y un terminalmultiplexor fueron configurados en la Conferencia Internacional en Comunicaciones de Computadora. EnWashington DC. "Esta fue la primera demostración en público de los que podía hacer la conmutación depaquetes, y esto haría que la gente tome esta tecnología seriamente", dijo Bolt, Beranek and Newman'sAlex McKenzie.

El evento fue un éxito, los expertos dijeron que el potencial de la Red estaba en crecimiento. En la décadasiguiente en un ordenador se conectaba a la red cada 20 días con la posibilidad de que cientos o miles depersonas compartieran una de cualquiera de esos equipos.

La comunidad informática se empezó a hablar abiertamente de una red global.

1981 El clan del ARPANET

Las dos redes más importantes formadas para centros de educación y enseñanza fueron CSNET(Computer Science NETwork; posteriormente the Computer+ Science Network), and BITNET ("BecauseIt's Time" or "Because It's There" NETwork). Muchas otras redes para propósitos especiales sedesarrollaron en todo el mundo como la red de paquetes por satélite, paquetes para la comunicación de lavoz y las paquetes de radio.

Page 116: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

21 de 31 18/04/2008 20:25

Por enlazar usuarios con intereses comunes, ARPANET y sus redes compañeras tuvieron un importanteimpacto técnico y social. Quienes compartían entusiasmos extracurriculares formaron la "comunidadvirtual de interés", usuarios con una curiosidad común dentro de Internet misma que formaron los "netcommunities" para explorar todo desde algoritmos de rutas hasta la demografia de la red.

Los científicos empezaron a comunicarse colectivamente por medio de las listas de correo electrónicorápidamente desarrolladas. Miles de discusiones florecieron sobre todos los tópicos inimaginables. Anadie sorprendió que uno de los primeros y mejor enterados grupos de discusión fue los "sf-lovers"conformado por los admiradores de la red de ciencia ficción.

1983 TCP/IP: el Esperanto de la computación.

El desarrollo de redes fuera de ARPANET creó nuevos competidores. Tenían dificultades eninterconectarse, debido no precisamente al hardware (diferentes ordenadores podían utilizar ARPANET)sino más bien a la incompatibilidad en los protocolos de comunicación. Aun el satélite del propio ARPAy las redes de paquetes de radio no podían conectarse a ARPANET

Ante esto ARPA auspició el desarrollo de un nuevo estándar de comunicación llamado TransmissionControl Protocol/ Protocol Internetwork (TCP/IP), que fue un conjunto de protocolos que permitían laconexión de las redes, ordenadores de diferentes redes podrían ahora comunicarse una con otra. Cada redutilizó IP para comunicarse con las otras. Debido a que los científicos se referían a la "red de redes" como"Internet" este nuevo grupo de redes que utilizaban TCP/IP empezó a ser conocido como Internet.

El Nacimiento de "Internet

A finales de la década de 1970 muchas redes de investigación, del gobierno y educativas utilizabanTCP/IP. Pero el ARPANET y la red de información de defensa no realizaron el cambio oficialmente sinohasta el uno de enero de 1983. Fecha del nacimiento oficial de Internet

Tanto ARPANET como Internet continuaron su desarrollo en tamaño e importancia. Proporcionaronmedios para la comunicación y cierta forma de convivencia entre los científicos de todo el mundo,permitiéndoles trabajar juntos, compartir información y la utilización de fuentes distantes.

1988 Intrusos en Internet.

A pesar de su gran crecimiento, Internet permaneció siendo desconocida para el publico hasta Octubre de1988 cuando un programa intruso o "worm" origino algo devastador.

Internet worm empezó su vida como un simple programa lanzado por el estudiente Robert Morris Jr. Másdestructivo que un virus de computadora el "worm" activaba el envío de copias de si mismo por Internet aotros ordenadores donde a su vez cada copia se multiplicaba. Antes que el "worm" fuera exterminadomiles de ordenadores habían sido sobrecargadas o fueron deliberadamente desactivadas por cuestiones deseguridad.

Por primera vez, pero difícilmente la ultima, Internet apareció en las noticias.

Desde ese entonces programadores y expertos en seguridad crean nuevas herramientas para combatircualquier escalada de guerra tecnológica y en búsqueda de informes y problemas de abuso de la red.

1990 Archie aparece en escena

Como es de suponer el crecimiento del número de usuarios y el volumen de información disponible habíaoriginado una especie de jungla de información, en la que no existía mapa o referencia alguna. A finalesde los 80 y principios de los 90 desconcertados usuarios idearon herramientas para localizar y ordenar la

Page 117: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

22 de 31 18/04/2008 20:25

información.

Estos lineamientos ayudaron a su vez a otros usuarios a encontrar el camino y transformaron a Internet enun mundo amigable para el usuario.

"Archie fue el primero de estos programas que permitía a los usuarios obtener una lista de direcciones deInternet "FPT holdings" con una simple consulta.

1990 FIN DE ARPANET

El uno de junio de 1990 ARPANET fue desinstalado. Los lugares donde ARPANET había sidooriginalmente conectado fueron reemplazados por otras redes nuevas en Internet.

1991 El más popular "Gopher" "Archie" fue seguido por Gopher quien se convirtió en el "Navegador enInternet" más popular. Les permitía a los propietarios de la información organizar sus datos en menús.

Los usuarios podían entonces ver, desplazarse y hacer selecciones desde ese menú

El éxito de Gopher fue tremendo, en dos años miles de servidores Gopher se unieron a la red en todo elmundo, cada uno con su colección de directorios, archivos y punteros a información en otros Gophers.

Pero su éxito creaba un problema obvio: ¿Cómo encontrar algo en el "gopherespacio" ya que el planoriginal no contemplaba un índice?

La solución fue una solución similar al Archie, llamado Verónica (Very Easy Rodent Oriented Net-wideIndex to Computarized Archieves) desarrollado por dos estudiantes, la base de datos Verónica tenía hacia1993 más de un millón de entradas desde el menú Gopher.

1992 Tejiendo la Red

Mientras tanto, en Suiza, Tim Berners-lee ideó una manera de organizar la información basada en Internety los recursos que él necesitaba para sus investigaciones . Llamó a su sistema el World Wide Web,conocida también como WWW o W3.

Para conectar piezas individuales de información, Berners-Lee usó hipertextos, que contienen punteros ydirecciones a otros temas.

Señalando un hipertexto el usuario le dice a su ordenador "toma la dirección asociada y vamos para allá")Las direcciones en un documento Web, llamados URL (Universal Resource Locator) apuntan a enlaces encualquier lugar de Internet.

Berners-Lee diseñó la Web para investigadores en alta energía. El WWW también empezó a ser usadopara navegar y ver su propia información en Línea.

1993 Mosaic

Marc Andersen, del National Center for Supercomputing Applications (NCSA) diseñó MOSAIC, unnavegador por el Web que hizo más accesible y amigable.

MOSAIC permite a los usuarios recuperar elementos multimedia con una simple pulsación de ratón y nonecesitan elaborar documentos complicados para publicar gráficos, imágenes, etc.

La combinación de Web y Mosaic y programas similares como Netscape Internet Navigator y Opera hantransformado la apariencia de la red, formando una red mundial de texto y recursos, la red empezó a

Page 118: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

23 de 31 18/04/2008 20:25

incorporar multimedia e información a color.

Desde 1997. La red hoy

A lo largo de su historia, Internet se ha transformado a sí mismo no sólo para las necesidades y deseos desus usuarios, sino la visión de sus pioneros como Paul baran, J.C.R. Licklider y (más recientemente) TimBerners-Lee y Marc Andersen. Su trabajo ha permitido a la gente a través del mundo formar parte de estacomunidad Global.

Durante los últimos años, Internet se ha ido haciendo virtualmente accesible para cualquier persona. Másdel 80% de los estadounidenses puede tener acceso a internet por 20 US$ mensuales, este uso estáincrementándose exponencialmente. Se han creado abundantes empresas proveedoras de acceso aInternet, quienes ofrecen el acceso con tarifa plana.

En España ha disminuido de forma considerable el precio de las conexiones teléfonicas a Internet y se hamejorado la calidad con la implantación de operadoras de cable por televisión.

Internet se ha convertido en una oportunidad de negocio. Las empresas están tratando de determinar cuálserá el modo en que este mundo virtual recibirá los productos y usuarios mañana. A su vez se haconvertido en un intercambio anárquico de información, es un fenómeno cultural vertiginoso del cambiodel mismo mundo.

Unos 446 millones de personas usaban internet a fines de 2001 a nivel mundial y cerca de la cuarta parteestaba en Estados Unidos mientras que sólo el 4% en América Latina. Existen 133.4 millones deinternautas en América del Norte (30% del total), 139.3 millones en Europa (31%), 145.9 millones enAsia Pacífico (32%), 22 millones en América Latina (4%) y 5.3 millones en Africa (1.2%), según elestudio de la empresa eMarketer. Cerca de 119 millones de ellos (26%) están en EE.UU. Las estadísticasactualizadas de toda América se encuentran en el enlace: Éxito exportador.

En España, la Asociación de Usuarios de Internet , mantiene datos actualizados sobre uso en España.

Lo más reciente

En enero de 2003, la empresa aérea Lufthansa probó el acceso a internet en el trayecto a Washington,gracias a la incorporación de servicios inalámbricos de banda ancha en los aviones. No pasó de ser algoexperimental. En abril de 2008 la aerolínea francesa Air France ha incorporado en algunas rutas estasprestaciones para los usuarios en general.

Actualmente se empieza a difundir un nuevo concepto de internet, la web 2.0, se refiere a la transicióndesde las webs tradicionales a aplicaciones web residentes en sevidores y destinadas a usuarios. Lospropulsores de este pensamiento esperan que los servicios de la Web 2.0 sustituyan a las aplicaciones deescritorio en muchos usos. Actualmente ya se están dando los primeros pasos para la implantación de laweb semántica, que se concoe como Web 3.0

Enlaces recomendados:- Web 2.0 Enlaces de interés- Las 20 herramientas Web imprescindibles

Primer apretón de manos a través de

Page 119: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

24 de 31 18/04/2008 20:25

Internet

Por Glenys ÁlvarezEl mundo virtual se anota un rotundo éxito con el primer experimento sobre tecnologíaháptica. Esta nueva ciencia se encarga del estudio del tacto y su manipulación a través deaparatos electromecánicos. Uno de los primeros laboratorios hcpticos se originó en elInstituto de Tecnología de Massachussets (MIT) y fue fundado por MandayamSrinivansan, quien lo bautizó como el Laboratorio del Tacto. Srinivansan ha estadotrabajando con unos nuevos aparatos llamados "fantasmas", creados por la compañíaSensable Technologies. Los fantasmas tienen como misión transmitir seccales táctilesentre personas que comparten el mismo espacio virtual. Estos robots logran semejantehazaña transmitiendo impulsos pequeños en frecuencias sumamente altas a través de lared. En mayo pasado, el doctor Srinivansan, junto a un equipo de la Universidad deLondres dirigido por el profesor Mel Slater, consiguió darse el primer apretón de manos enel mundo virtual. Un evento bastante precoz dado el corto tiempo que tenemos utilizandoel Internet.

Sin embargo, a veces parece que los científicos trabajan con resultados que se parecen másal mundo del futuro que a la realidad actual. Este novedoso ensayo es el comienzotriunfante de una nueva era en Internet que aún nos parece rústica, como las pantallasverdes de los primeros ordenadores. A pesar de que este nuevo avance tecnológico fue unéxito contundente, los investigadores aseguran que aún es muy temprano paracomercializarlo ya que se necesitan elementos que aún no están disponibles para el públicoen general. Entre estos obstáculos se encuentran las limitaciones en la velocidad, en laanchura de la banda y en el tipo de fibra óptica que se utilizó para este peculiar ensayo. Noobstante, una vez se sobrepasen todos estos obstáculos, las personas del futuro seráncapaces de sentir y tocar a través del Internet.

Mientras tanto, la nueva tecnología aún está en pañales, pero en paños que han funcionadomuy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fueuna fibra óptica diferente con banda extremadamente ancha. Pero lo más importante era lavelocidad, la rapidez con que pudiesen ser enviados los datos a través de estas fibras. Loscientíficos necesitaban un retraso de nO más de 130 milisegundos para que ambosparticipantes pudiesen sentir los impulsos enviados por el otro. Los equipos utilizaron unacomputadora y un aparato que se asemeja a un brazo robótico y que sustituyó al ratónclásico de ordenador. Este brazo tiene al final una pieza que se asemeja a un lapicero olápiz que el usuario tiene que agarrar para sentir lo que está pasando en el mundo virtual.El robot lo que hace es enviar impulsos de tacto que recoge la fuerza precisa de los dedosde la persona que lo sostiene. Estos impulsos son enviados lo más rápido posible hasta elotro lado, en datos que el fantasma del usuario receptor puede leer e interpretar.

"La persona no sólo es capaz de sentir el toque del otro sino que además podrá destacarciertas cualidades del objeto que está tocando. Sabrá si su textura es suave o dura, si ustedestá en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primeroque necesitaron los equipos para funcionar fue una fibra óptica diferente con bandaextremadamente de madera el objeto o si es carnoso", explicó para la BBC el profesorbritánico, Mel Slater. Durante el experimento, el objetivo no sólo fue un apretón de manosvirtual sino que también se llevó a cabo una actividad cibernética a través del tacto. Losinvestigadores crearon una habitación virtual que iban a compartir los científicos enLondres y en Boston. Dentro de esta "ciberhabitación" se encontraba un cubo negroenorme que los investigadores tencan que levantar y mover utilizando el brazo robótico.

Page 120: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

25 de 31 18/04/2008 20:25

"La persona del otro lado siente si estoy halando o empujando el cubo y el secretoprincipal de todo esto es la velocidad. Si los datos no son enviados de forma continua, elrobot no entenderá los impulsos como son lute;n está en pañales, pero en paños que hanfuncionado muy bien hasta el momento. Lo primero que necesitaron los equipos parafuncionar fue una fibra óptica diferente con banda extremadamente eídos por el fantasmaque los envía. Es interesante lo que hemos logrado ya que el sentido del tacto ha sido elmás difícil de reproducir en el Internet. Se ha conseguido utilizando una velocidad de másde 1000 Hertz. Así, de la misma forma en que el cerebro interpreta imágenes fijas como siestuvieran en una película en movimiento, similarmente los fantasmas integran losimpulsos recibidos para producir una sensación continua de tacto", explicó Slater.

A pesar de que el experimento se llevó a cabo por primera vez el pasado mayo, fue sólo enesta semana que los científicos lo hicieron úblico durante una conferencia. La reunión selleva a cabo en Estados Unidos, específicamente en la Universidad del Sur de California yestá dirigida por el proyecto Internet2. Internet2 es un esfuerzo tecnológico de 200universidades para mejorar la tecnología, está en pañales, pero en paños que hanfuncionado muy bien hasta el momento. Lo primero que necesitaron los equipos parafuncionar fue una fibra óptica diferente con banda extremadamente gía virtual, el mundotridimensional cibernético y la interacción entre hombre y máquina a través de la red.Actualmente, el proyecto está poniendo mucho énfasis en el desarrollo de técnicas para lamanipulación háptica a través de sistemas computacionales.

El cubo negro y la habitación cibernética

Para probar sus brazos robóticos, los equipos crearon un cuarto virtual donde ambosusuarios realizarían el experimento. Dentro del cuarto, los investigadores crearon un cubonegro y grande que los sujetos tenían que levantar y mover. El truco estaba en que losmovimientos iban a ser originados por lo que la otra persona sentía que el compañeroestaba haciendo. Los usuarios entraron al cuarto virtual y, cada uno desde su escritorio,agarró el brazo robótico o fantasma, por la parte posterior donde tiene el pequeño lapicero,y comenzón está en pañales, pero en paños que han funcionado muy bien hasta elmomento. Lo primero que necesitaron los equipos para funcionar fue una fibra ópticadiferente con banda extremadamente te; a trabajar. En seguida, la otra persona sentía si sucompañero de juego estaba empujando el cubo o si lo jalaba, de esta forma, éste está enpañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero quenecesitaron los equipos para funcionar fue una fibra óptica diferente con bandaextremadamente l podría coordinar sus movimientos de acuerdo con lo que el otro hacía.Así, ambos equipos consiguieron manipular el enorme cubo a través de sensacionestáctiles que llegaban desde casi cinco mil kilómetros de distancia. Los investigadorestambién se saludaron utilizando el tacto que leían sus fantasmas. Mel Slater, director delequipo londinense aseguró que no sólo es posible sentir el toque de la persona desde elotro ordenador, sino que también es posible diferenciar cualidades de los objetos. "Puedessentir si la cosa es de madera o si es de carne, si es suave o dura, si empuja o no. Ha sidouna experiencia extraordinaria", concluyó Slater.

Sindioses.org

Se permite la reproducción de este ensayo para fines educacionales y/o científicos siempre y cuandose mencione claramente nuestro sitio web, así como el nombre del(a) autor(a) del mismo. Se prohibe

su reproducción con fines comerciales. /font>

Page 121: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

26 de 31 18/04/2008 20:25

Internet multiplica por 3500 veces la velocidad de transmisión de datos

Por primera vez en la historia se ha conseguido enviar mediante fibra óptica 6.7 gigas deinformación, que es el equivalente a dos películas de DVD, un total de cuatro horas de visionado, através de 11000 kilómetros en menos de un minuto.

Según relata la revista Wired, la información fue enviada sin comprimir a 923 megabits por segundodurante 58 segundos desde California hasta Holanda, lo que supone una velocidad 3500 vecessuperior a la conexión doméstica de banda ancha.

Aunque desde 1984 se duplica cada año la velocidad de transmisión de datos a través de Internet, enesta ocasión se ha producido un salto sin precedentes que centuplica las posibilidades operacionalesde la red de redes.

Para los científicos del Centro de Acelerador Lineal de Stanford, artífices de la proeza, en el futurolas aplicaciones de este sustancial aumento de la velocidad de transmisión tendrá múltiplesaplicaciones prácticas.

Colectivos beneficiados

Entre ellas destacan la posibilidad de que un equipo de médicos pueda discutir en tiempo real, através de Internet, el diagnóstico de un paciente en situación de riesgo e incluso analizar susradiografías.

También tendrá aplicaciones en el campo de la física de partículas, toda vez que diferentes grupos deinvestigación podrán colaborar entre ellos sin necesidad de realizar viaje alguno, utilizando estavelocidad de transmisión para la transferencia de datos.

Otros campos que se beneficiarán directamente de esta tecnología son las investigaciones que sedesarrollan en el marco del Genoma Humano, así como en astronomía.

El Proyecto Genoma Humano podría transferir sus enormes bases de datos más rápidamente sobreInternet. De la misma forma, los astrónomos podrán compartir datos de telescopios localizados endiferentes partes del mundo y los físicos de partículas intercambiar en tiempo real datos delaboratorios muy distantes entre sí.

Impacto generalizado

El impacto también puede ser generalizado, ya que la demanda de banda ancha en Internet tienegrandes expectativas a las que el experimento de Stanford podría dar satisfacción.

Un estudio de IDC revela al respecto que el crecimiento de las conexiones de banda ancha podríaduplicarse en los próximos cinco años, lo que supondría pasar de los 180 petabits actuales a los 5200petabits en 2007.

Para hacernos una idea de lo que esto significa, IDC desvela que en la actualidad la Biblioteca delCongreso de Estados Unidos, accesible desde Internet, representa una capacidad de memoria de 10Terabytes y que, si sus previsiones se cumplen, en 2007 el tráfico diario de Internet será 64000 vecesmayor que el peso que representa hoy la Biblioteca del Congreso.

Dado que la carga necesaria para soportar este tráfico será colosal, han surgido dudas sobre lacapacidad de Internet para aceptarla, por lo que el experimento de Stanford puede venir en ayuda deesta hipótesis de desarrollo de la red de redes.

Page 122: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

27 de 31 18/04/2008 20:25

Premiados los creadores de internet

Internet ha revolucionado completamente los procesos de transmisión de la información, permitiendoque ésta fluya sin restricción por todo el mundo. Este trascendental proceso de investigación ydesarrollo ha sido liderado por diferentes personas y equipos que, con una gran visión de futuro, handiseñado y establecido los protocolos, la tecnología de interconexión y los servicios de accesibilidadque han hecho posible lo que hace sólo unos años era una utopía. Los trabajos de Lawrence Roberts,Robert Kahn, Vinton Cerf y Tim Berners-Lee constituyen, en este sentido, un definitivo avance alservicio de la humanidad.

El jurado del Premio Príncipe de Asturias de Investigación Científica y Técnica 2002, reunido enOviedo, concedió dicho premio a los creadores de internet.

Vinton Cerf (1943-)

Fue el creador, junto con Robert Khan, del protocolo TCP/IP, usado actualmente para la conexión deordenadores en internet, sin el cual no habrían alcanzado el desarrollo actual las redes deordenadores. Vinton diseñó entre 1982 y 1986 el primer servicio de correo electrónico de internet,denominado MCI MAIL, precursor de los sistemas actuales.

Actualmente colabora con la NASA (EE.UU.) en el diseño de una ampliación de internet a nivelinterplanetario.

Lawrence Roberts (1937-)

Fue el responsable de la sistematización de las fórmulas que permiten el enrutamiento y localizaciónde los servidores en las redes. Trabajó en una de las primeras empresas que usaron la conmutación depaquetes, desarrollando el protocolo X25.

Actualmente dirige la empresa Caspian Networks, dedicada a la investigación sobre redes. Susproyectos están dirigidos a la optimización y mejora de internet.

Robert Khan (1938-)

Fue coinventor de los protocolos TCP/IP que simplificaron la conexión de ordenadores de muydistintas características. Fue el responsable de la puesta en marcha de la Agencia de ProyectosAvanzados para la Defensa de EE.UU: (DARPA). Organizó la primera demostración pública deArpanet, en Octubre de 1972, en Washington D.C, Este mismo año pasó a ser director del IPTO,dependiente de DARPA; desde este lugar inició el programa multimillonario del gobiernonorteamericano: Strategic Computing Program, lo que supondrá el mayor paso dado hasta aquelentonces en la investigación informática.

Actualmente trabaja en la tecnología IP, en su nuevo formato IPv6, que permite un rango muysuperior, frente a la actual, de direcciones.

Tim Berners-Lee (1955-)

Físico del Reino Unido, cuando trabajaba en el CERN en Ginebra (Suiza), en un laboratorio departículas elementales, se le ocurrió en 1990 aplicar las ideas del hipertexto a las redes deordenadores, dando lugar a "World Wide Web", dando lugar a la gran difusión que ha logrado

Page 123: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

28 de 31 18/04/2008 20:25

internet.

Desde 1994 trabaja en la organización W3C (World Wide Web Consortium) que dicta estándaressobre la red.

Enlaces de interés dentro de esta web:

Historia de los primeros lenguajes de programación

La prehistoria de la informática

Los primeros ordenadores

Historia de la Informática. La era electrónica

Historia de los miniordenadores

Historia de la microinformática

La informática en un garage

Historia de la microinformática 1981-1983

El nacimiento de la informática en Gran Bretaña

Lenguaje FORTRAN

Enlaces de interés:

Asociación Técnicos de Informática. Una breve historia de internet

Arroyo Galán, Luis. Hitos, museos y referencias.

AúnMás.com. Enciclopedia Latinoamericana.

Bernal, Manuel. Encicloperdia personal de computación

Brian RANDELL. Le projet COLOSSUS et la Seconde Guerre mondiale

Ciberhábitat. Ciudad de la informática. México

Creadores de los lenguajes de programación

Lurueña Jiménez, Sonia. Historia de la informática

Page 124: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

29 de 31 18/04/2008 20:25

Marco Such, Manuel. Historia de la informática y metodología de la ciencia. Universidad de Alicante

Portilla, Jorge. Informática empresarial *

Red Iris. Universidades españolas

Serrano Cinca, Carlos. Universidad de Zaragoza

Wikipedia. Enciclopedia libre

Yo NO odio a Bill Gates (I) (Kriptópolis)

Yo NO odio a Bill Gates (II) (Kriptópolis)

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en todas mis páginas

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana

Actualización en FisicaBiografía de Edward Lorenz

Actualización en Avisos.II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.Tutorial sobre la nueva versión de Google Docs

Actualización en Software.Tutorial sobre el programa HTTrackl

Actualización en Avisos.II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html

XML Powered by FeedSweep

Biografías de

informáticos

Von Neumann

Page 125: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

1 de 34 18/04/2008 20:21

Introducción a la Informática. Estudios GAP,

facultad Derecho

Capítulo 5. Sistemas de numeración

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Informática

Page 126: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

2 de 34 18/04/2008 20:21

Ciencia en generalBiologíaCriminología

InicioContacte

IntroducciónCódigos de entrada/salidaSistemas de numeración más usualesRepresentación interna de la informaciónDetección de errores en la información codificada

5.1 Introducción

Como se ha visto, un ordenador es una máquina que procesa información. La ejecución de un programaimplica la realización de unos tratamientos, según especifica un conjunto ordenado de instrucciones (esdecir, un programa) sobre unos datos. Para que el ordenador ejecute un programa es necesario darleinformación de dos tipos:

Instrucciones que forman el programa

Los datos con los que debe operar ese programa

Uno de los aspectos más importantes relacionado con la información, es cómo representarla.Normalmente se le da al ordenador en la forma usual escrita que utilizan los humanos, es decir, con ayudade un alfabeto o conjunto de símbolos, los caracteres.

Los caracteres que se utilizan para la representación externa son:

Numéricos: Constituidos por las diez dígitos en el sistema decimal

Alfabéticos: Letras mayúsculas y minúsculas

Especiales: Son símbolos no incluidos en los grupos anteriores, como: ), (, *, /, +, -, [, ]...

Al conjunto de los dos primeros grupos se le denominan caracteres alfanuméricos.

Veremos cómo estos caracteres usados en la representación externa son representables en los ordenadores.Este paso de una representación a otra se denomina codificación y el proceso inverso decodificación.

Por lo tanto hay dos niveles en la representación de la información

Nivel de representación externa: Usada por las personas e inadecuada para el ordenador

Nivel de representación interna: Adecuada al ordenador y no inteligible directamente por el serhumano.

Las informaciones más complejas se reducirán a un conjunto de informaciones elementales por técnicasde codificación.

Los elementos básicos que constituyen un ordenador son de naturaleza binaria, ya que sólo puedenadoptar dos valores, 0 y 1 (corresponden a dos niveles de tensión, dos valores de corriente, dos situaciones

Page 127: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

3 de 34 18/04/2008 20:21

de una lámpara... ). Al tener que traducir toda la información suministrada a ceros y unos es necesarioestablecer una correspondencia entre el conjunto de todos los caracteres:

{A, B, C, D,...Z, a, b, c,...z, 0, 1,...9, /, +,...}

y el conjunto binario:

{0, 1}n

de forma que a cada elemento del primero le corresponda un elemento distinto del segundo.Estos códigos de transformación se denominan códigos E/S (entrada/salida) o externos y se pueden definirde forma arbitraria. Las operaciones aritméticas con datos numéricos se suelen realizar en unarepresentación más adecuada para este objetivo que la del código de E/S. Por ello en el propio ordenadorse efectúa una transformación entre códigos binarios, obteniéndose una representación fundamentada enel sistema de numeración en base dos, que al ser una representación numérica posicional es muy apta pararealizar operaciones aritméticas.

5.2 Códigos de entrada/salida.

Los códigos de E/S o externos son códigos que asocian a cada carácter una combinación de bit. En otraspalabras, un código de E/S es una correspondencia entre los conjuntos:

A = {0, 1,...9, A, B,...Z, a, b,...z, *, +, /...}

y

B = {0, 1}n

Si se usa un número fijo, n, de bit para codificar los símbolos de A, el valor mínimo de n dependerá delnúmero m de elementos de A. Así:

Con 2 bit (n=2) podemos hacer 4 combinaciones distintas y se pueden codificar hasta 4 símbolos(m=4) distintosCon 3 bit (n=3) podemos hacer 8 combinaciones distintas y se pueden codificar hasta 8 símbolos(m=8) distintosCon 4 bit (n=4) podemos realizar 16 combinaciones distintas y se pueden codificar hasta 16símbolos (m=16) distintos ....

Con n bit pueden codificarse m = 2n símbolos distintos.

Así se verifica que para codificar m símbolos distintos necesitamos n bit, siendo,

n = log2 m = 3.32 * log m

Es decir, n debe ser el menor entero que verifique la relación anterior.Ejemplo: Para codificar las 10 cifras decimales (0, 1,...,9) se necesitarán:

n = 3.32 * log (m) = 3.32 * log (10) = 3.32 bit

es decir 4 bit(ya que con 3 sólo podremos codificar 8 símbolos).Dos codificaciones posibles son las siguientes:

Símbolos Código 1 Código 2

0 0000 0000

Page 128: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

4 de 34 18/04/2008 20:21

1 1000 0001

2 0100 1001

3 1100 1000

4 0010 0101

5 1010 0100

6 0110 1100

7 1110 1101

8 0001 0011

9 1001 0010

Pueden hacerse codificaciones con más bit de los necesarios; es decir, podríamos establecer códigos deE/S de forma totalmente aleatoria. Obviamente existen códigos normalizados que suelen ser utilizadospor los constructores de ordenadores. Estos códigos son conocidos como:

BCD de intercambio normalizado.EBCDICASCII

BCD DE INTERCAMBIO NORMALIZADO

Usualmente este código utiliza 6 bit, con lo que se pueden representar, m = 26 = 64 caracteres. A veces seañade a su izquierda un bit adicional para verificar posibles errores en la transmisión del código (queveremos más adelante) de forma que el carácter queda representado por n = 7 bit.

bit de verificación

6 5 4 3 2 1 0

Los bit 4, 5 son conocidos como bit de zona. Los bit de zona indican el tipo de carácter representado.Ejemplo: 00 para los numéricos. Los bit 0, 1, 2, 3 son conocidos como bit de posición, que coinciden paralos caracteres numéricos con la representación en binario natural y para el 0 con la representación del 10.

CODIGO EBCDIC (Extended Binary Coded Decimal Interchange).

Utiliza n = 8 para representar cada carácter, pudiendo codificar hasta m = 28 = 256 símbolos distintos.

CODIGO ASCII (American Standard Code for Information Interchange)

Utiliza 7 bit y es de los más utilizados. Normalmente se incluye un octavo bit para detectar posibleserrores de transmisión o grabación. Si el octavo bit se emplea para representar más caracteres como letrasgriegas y símbolos semigráficos, se tiene el denominado ASCII extendido, usado en el PC de IBM ycompatibles.

5.3 Sistemas de numeración más usuales

Los ordenadores suelen efectuar las operaciones aritméticas utilizando una representación para los datosnuméricos basada en el sistema de numeración en base 2 (binario natural). También se utilizan los

Page 129: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

5 de 34 18/04/2008 20:21

sistemas de numeración octal y hexadecimal, para obtener códigos intermedios. Un número expresado enuno de estos códigos puede transformarse a binario y viceversa.

LOS SISTEMAS DE NUMERACION A LO LARGO DE LA HISTORIA

Seguidamente se comentan los sistemas de numeración que distintas culturas han usado alo largo de la Historia

· Introducción. El Concepto de Base· Sistemas de Numeracion Aditivos

o Egipcio

o Griego· Sistemas de Numeración Híbridos

o Chino· Sistemas de Numeración Posicionales

o Babilónico

o Maya

Enlace recomendado: Sistema de numeración romano

Introducción. El concepto de base

Cuando los hombres empezaron a contar usaron los dedos, guigarros, marcas enbastones, nudos en una cuerda y algunas otras formas para ir pasando de un número alsiguiente. A medida que la cantidad crece se hace necesario un sistema de representaciónmás práctico.

En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuandose alcanza un determinado número se hace una marca distinta que los representa a todosellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzarpor segunda vez el número anterior y se añade otra marca de la segunda clase. Cuando sealcanza un número determinado (que puede ser diferente del anterior constituyendo labase auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, seañade una de tercer orden y así sucesivamente.

La base que más se ha utilizado a lo largo de la historia es 10 según todas las aparienciaspor ser ese el número de dedos con los que contamos. Hay alguna excepción notablecomo son las numeración babilónica que usaba 10 y 60 como bases y la numeraciónmaya que usaba 20 y 5 aunque con alguna irregularidad.

Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades,decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy.Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos hanvisto impedido su avance científico por no disponer de un sistema eficaz que permitieseel cálculo.

Casi todos los sistemas utilizados representan con exactitud los números enteros, aunque

Page 130: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

6 de 34 18/04/2008 20:21

en algunos pueden confundirse unos números con otros, pero muchos de ellos no soncapaces de representar grandes cantidades, y otros requieren tal cantidad de símbolos quelos hace poco prácticos. Pero sobre todo no permiten en general efectuar operaciones tansencillas como la multiplicación, requiriendo procedimientos muy complicados que sóloestaban al alcance de unos pocos iniciados. De hecho cuando se empezó a utilizar enEuropa el sistema de numeración actual, los abaquistas, los profesionales del cálculo seopusieron con las más peregrinas razones, entre ellas la de que siendo el cálculo algocomplicado en sí mismo, tendría que ser un metodo diabólico aquel que permitieseefectuar las operaciones de forma tan sencilla.

El sistema actual fue inventado por los hindús y transmitido a Europa por los árabes. Delorigen hindú del sistema hay pruebas documentales más que suficientes, entre ellas laopinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevosistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolodel cero, lo que permite un sistema en el que sólo diez simbolos puedan representarcualquier número por grande que sea y simplificar la forma de efectuar las operaciones.

Sistemas de numeracion aditivos

Para ver cómo es la forma de representación aditiva consideremos el sistema geroglíficoegipcio. Por cada unidad se escribe un trazo vertical, por cada decena un símbolo enforma de arco y por cada centena, millar, decena y centena de millar y millón ungeroglífico específico. Así para escribir 754 usaban siete geroglíficos de centenas cincode decenas y 4 trazos. De alguna forma todas las unidades están fisicamente presentes.

Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades,decenas... como sean necesarios hasta completar el número. Una de sus características espor tanto que se pueden poner los símbolos en cualquier orden, aunque en general se hapreferido una determinada disposición. Han sido de este tipo las numeraciones egipcia,sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de losgriegos, armenios, judios y árabes.

El sistema de numeración egipcio

Desde el tercer milenio a.n.e. los egipcios usaron un sistema deescribir los números enbase diez utilizando los geroglíficos para representar los distintos órdenes de unidades.Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamentede izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figurassegún el caso. Al ser indiferente el orden se escribían a veces según criterios estéticos, ysolían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales,prisioneros, vasijas etc.) cuyo número indicaban. Estos signos fueron utilizados hasta laincorporación de Egipto al imperio romano. Pero su uso quedó reservado a lasinscripciones monumentales, en el uso diario fue sustituido por la escritura hierática ydemótica, formas más simples que permitian mayor rapidez y comodidad a los escribas

En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi seintrodujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000......con lo que disminuye el número de signos necesarios para escribir una cifra.

El sistema de numeración griego

El primer sitema de numeración griego se desarrolló hacia el 600 a.n.e. Era un sistema debase decimal que usaba unos símbolos para representar esas cantidades. Se utilizaban

Page 131: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

7 de 34 18/04/2008 20:21

tantas de ellas como fuera necesario según el principio de las numeraciones aditivas. Pararepresentar la unidad y los números hasta el cuatro se usaban trazos verticales. Para elcinco, 10 y 100 las letras correspondientes a la inicial de la palabra cinco (pente), diez(deka) y mil (khiloi). Por este motivo se llama a este sistema acrofónico.

Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al decinco, usando un principio multiplicativo. Progresivamente este sistema ático fuereemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto conalgunos otros símbolos. De esta forma los números parecen palabras, ya que estáncompuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar lascifras que corresponden a las letras que las componen. Esta circunstancia hizo apareceruna nueva suerte de disciplina mágica que estudiaba la relación entre los números y laspalabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistemasimilar, el estudio de esta relación ha tenido una gran importancia y ha constituido unadisciplina aparte: la kábala, que persigue fines místicos y adivinatorios.

Sistemas de numeración híbridos

En estos sistemas se combina el principio aditivo con el multiplicativo. Si pararepresentar 500 los sistemas aditivos recurren a cinco representaciones de 100, loshíbridos utilizan la combinación del 5 y el 100. Pero siguen acumulando estascombinaciones de signos para los números más complejos. Por lo tanto sigue siendoinnecesario un símbolo para el 0. Para representar el 703 se usa la combinacion del 7 y el100 seguida del 3.

El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se danasí los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc serepiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolospor supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc..Pero para ello es necesario un cero, algo que indique que algún orden de magnitud estávacío y no se confundan el 307 con 370, 3070 ... Además del chino clásico han sidosistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente hindú cómo eltamil, el malayalam y el cingalés.

El sistema de numeración chino

La forma clásica de escritura de los números en China se empezó a usar desde el 1500A.N.E. aproximadamente. Es un sistema decimal estricto que usa las unidades y losdistintas potencias de 10. Utiliza ideogramas y usa la combinación de los números hastael diez con la decena, centena, millar y decena de millar para según el principiomultiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,yaque 5 10 7 igual podría representar 57 que 75.

Tradicionalmente se ha escrito de arriba abajo aunque también se hace de izquierda aderecha. No es necesario un símbolo para el cero siempre y cuando se pongan todos losideogramas, pero aún así a veces se suprimían los correspondientes a las potencias de 10.

Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documentoimportantes se usaba una grafía más complicada con objeto de evitar falsificaciones yerrores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hastados grafías diferentes en usos domésticos y comerciales, aparte de las variantesregionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muyparecido al actual que desde que incorporó el cero por influencia india en siglo VIII en

Page 132: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

8 de 34 18/04/2008 20:21

nada se diferencia de este.

Sistemas de numeración posicionales

Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posiciónde una cifra nos dice si son decenas, centenas ... o en general la potencia de la basecorrespondiente. Sólo tres culturas además de la india lograron desarrollar un sistema deeste tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. Laausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción delmismo. Los sistemas babilónico y maya no eran prácticos para operar porque nodisponían de simbolos particulares para los dígitos, usando para representarlos unaacumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por suparte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás delas veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números alcalendario, una de sus mayores preocupaciones culturales.

Fueron los hindúes antes del siglo VII los que idearon el sistema tal y como hoy loconocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos yel cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómoárabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto enposiciones intermedias como finales se originó en India. Los árabes transmitieron estaforma de representar los números y sobre todo el cálculo asociado a ellas, aunquetardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia aalgo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin estaforma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podidoavanzar.

El sistema de numeración Babilónico

Entre la muchas civilizaciones que florecieron en la antigua Mesopotamia sedesarrollaron distintos sistemas de numeración. Inventaron un sistema de base 10, aditivohasta el 60 y posicional para números superiores. Para la unidad se usaba la marcavertical que se hacía con el punzón en forma de cuña. Se ponían tantos como fuerapreciso hasta llegar a 10, que tenía su propio signo. De este se usaban los que fueranecesario completando con las unidades hasta llegar a 60. A partir de ahí se usaba unsistema posicional en el que los grupos de signos iban representando sucesivamente elnúmero de unidades, 60, 60x60, 60x60x60 y asi sucesivamente como en los ejemplosque se acompañan.

El sistema de numeración Maya

Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad serepresentaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era unaraya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Parael 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas.Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cadauno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en elque hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según ellugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe aarriba abajo, empezando por el orden de magnitud mayor.

Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo

Page 133: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

9 de 34 18/04/2008 20:21

para el cero, con el que indicar la ausencia de unidades de algún orden, se haceimprescindible y los mayas lo usaron, aunque no parece haberles interesado el conceptode cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia deotro número.

Pero los científicos mayas eran a la vez sacerdotes ocupados en la observaciónastronómica y para expresar los número correspondientes a las fechas usaron unasunidades de tercer orden irregulares para la base 20. Así la cifra que ocupaba el tercerlugar desde abajo se multiplicaba por 20x18=360 para completar una cifra muy próximaa la duración de un año.

El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadíanalgunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de lasunidades de tercer orden del sistema numérico. Además de éste calendario solar, usaronotro de carater religioso en el que el año se divide en 20 ciclos de 13 días.

Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque losconocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron unamatemática más allá del calendario

5.3.1 Representación posicional de los números

Se define un sistema de numeración: como el conjunto de símbolos y reglas que se utilizan para la

representación de cantidades. En ellos existe un elemento característico que define el sistema y se

denomina base, siendo ésta el número de símbolos que se utilizan para la representación.

Un sistema de numeración en base "b" utiliza para representar los números un alfabeto compuesto por bsímbolos o cifras. Así todo número se expresa por un conjunto de cifras, teniendo cada una de ellas dentrodel número un valor que depende:

De la cifra en sí De la posición que ocupe dentro del número

En el sistema de numeración decimal (base 10), que habitualmente se utiliza, b = 10 y el alfabeto portanto, está constituido por 10 símbolos: {0, 1, 2..., 9}

Por ejemplo, el número 3278.52 puede obtenerse como suma de:3000 200 70 8

0.5 0.02

3278.52

por tanto se verifica que:

3278.52 = 3 * 103 + 2 * 102 + 7 * 101 + 8 * 100 + 5 * 10-1 + 2 * 10-2

Page 134: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

10 de 34 18/04/2008 20:21

Cada posición, por tanto, tiene un peso:

Posición 0 Peso b0

Posición 1 Peso b1

Posición 2 Peso b2

Posición 3 Peso b3

....

Posición -1 Peso b-1

Posición -2 Peso b-2

.....

Generalizando se tiene que la representación de un número en una base b :N = ...n4 n3 n2 n1 n0 n-1 n-2 ...

es una forma abreviada de expresar su valor, que es:

N = n4 b4 + n3 b

3 + .... + n-1 b-1 + n-2 b

-2

Ejemplo en base 8:

b = 8. Los símbolos que se usan son:{0, 1, 2, 3, 4, 5, 6, 7}

El valor decimal del número octal 175.378 será:

175.378)8 = 1*82 + 7*81 + 5*80 + 3*8-1 + 7*8-2 + 8*8-3 =

125.4882812)10

5.3.2 Sistema de numeración en base dos.

El sistema de numeración en base dos, fue introducido por Gottfried Wilhelm Leibniz (1646-1716) en elsiglo XVII, siendo el más adecuado para usar en las máquinas electrónicas, debido a que utilizanesencialmente sistemas de dos estados, encendido y apagado. En el sistema binario los datos serepresentan en un sistema que sólo admite dos estados, 0 y 1.

Las operaciones aritméticas se suelen realizar usando una representación de datos y resultados en binarionatural.

A) Definición del sistema binario.

Page 135: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

11 de 34 18/04/2008 20:21

En el sistema de numeración binario b=2 y el conjunto de símbolos usados es: {0, 1}

Una muestra de los números enteros binarios que se pueden formar con 3 bit y que corresponden a lascifras decimales {0, ...,7} es:

Binario Decimal

000 0

001 1

010 2

011 3

100 4

101 5

111 6

111 7

B) Transformaciones entre bases binaria y decimal.

Se puede transformar un número binario a decimal sin más que usar la expresión vista anteriormente:

.n4 n3 n2 n1 n0 n-1 n-2...)2 = ...n4 24 + n3 2

3 + n2 22 + n1 2

1 + n0 20+ n-1 2

-1 + = N)10

Ejemplo:

Transformar a decimal los siguientes números binarios:

110100)2 = 1*25 + 1*24 + 0*23 + 1*22 + 0*21 + 0*20 = 25 + 24 + 22 =

52)10

0.10100)2 = 0*20 + 1*2-1 + 0*2-2 + 1*2-3 + 0*2-4 + 0*2-5 = 2-1 + 2-3 = 0.625)10

10100.001)2 = 1*24 + 1*22 + 1*2-3 = 20.125)10

Para transformar un número decimal a binario:

a) La parte entera del nuevo número (binario) se obtiene efectuando divisiones enteras (sin obtenerdecimales) por dos, de la parte entera del número decimal de partida y de los cocientes que sucesivamentese vayan obteniendo. Los restos de estas divisiones y el último cociente (que serán siempre ceros y unos)son las cifras binarias. El último cociente será el bit más significativo y el primer resto el bit menossignificativo (más a la derecha).

Ejemplo:

26)10 es en binario:26 | 2_

0 13 | 2_ 1 6 | 2_

0 3 |2_ 1 1

Page 136: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

12 de 34 18/04/2008 20:21

26)10 = 11010)2

b) La parte fraccionaria del número binario se obtiene multiplicando por 2 sucesivamente la partefraccionaria del número decimal de partida y las partes fraccionarias que se van obteniendo en losproductos sucesivos. El número binario se forma con las partes enteras (que serán ceros y unos) de losproductos obtenidos.

Ejemplo:

Transformar a binario natural el número decimal 0.1875

0.1875 0.3750 0.7500 0.5000 * 2 * 2 *2 * 2 --------- ---------- ---------- ---------- 0.3750 0.7500 1.5000 1.0000

0.1875)10 = 0.0011)2

Ejemplo:

Transformar a binario el número decimal 74.423

a) Parte entera: 74 | 2_ 0 37 | 2__ 1 18 | 2__ 0 9 | 2_ 1 4 | 2__ 0 2 | 2__ 0 1

b) Parte fraccionaria:

0.423 0.846 0.692 0.384 0.768 *2 * 2 * 2 * 2 * 2 -------- --------- --------- --------- --------- 0.846 1.692 1.384 0.768 1.536

Es decir:

74.423)10 = 1001010.01101...)2

Page 137: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

13 de 34 18/04/2008 20:21

Ejemplo, programa en C, para convertir de base 10 a base 2

1) Se divide el numero entre la base y se va guardando el residuo,

el resultado de la división se vuelve a dividir entre la base y se

guarda el residuo; esto se efectúa tantas veces hasta que el

resultado de la división sea cero.

Ejemplo: convertir 14 en base 10 a base 2

14/ 2= 7 sobran 0

7 / 2= 3 sobran 1

3 / 2= 1 sobran 1

1 / 2 =0 sobran 1

Ahora lo vamos a poner en una tabla con subindices

c0 b c0 r0

14 2 7 0

c0 b c1 r1

7 2 3 1

c1 b c2 r2

3 2 1 1

c2 b c3 r3

1 2 0 1

¿Qué observamos? Es posible utilizar un arreglo de vectores de:

c0,c1,c2,c3 r0,r1,r2,r3 b se mantiene constante. En la primera

columna se observa que en el tercer renglón se repite un valor de

c0 porque es el resultado de la división, que luego se debe

utilizar, nuevamente para hacer la siguiente división.

¿Hasta donde dejar de hacer divisiones? Hasta que c[i] se haga

cero, en este caso c3=0. Y por lo tanto ya terminamos.

¿Ahora como hacemos para que vayan cambiando los subíndices?

primera iteración c0 b c0 r0 Haríamos un "for del índice de 0 a 3"

segunda iteración c0 b c1 r1 Sin embargo los que estan obscuros

perjudican

tercera iteración c1 b c2 r2 nuestro for, lo que podemos mejorarlo

de este

tercera iteración c2 b c3 r3 modo: c[0]= c[1]- 1. Y con esto

quedaria asi:

co b co ro

c1-1 b c1 r1

Page 138: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

14 de 34 18/04/2008 20:21

c2-1 b c2 r2

c3-1 b c3 r3 si hago el numero= c0;

Que así con un solo for (i=0;i<=3;i++){

c[i]=c[i-1]/b;

r[i]=fmod(c[i-1],b)

El fmod saca el residuo de la division(a,b) a/b= residuo.

.requiere #include <math.h>

}

¿Cómo lo mandamos a imprimir el resultado?: r4r3r2r1= 1110 base2 =

14 base10

hacemos otro for para el subindice de r[i] desde i=4 hasta i=0

for (i=4; i<=0;i--){

printf("%d", r[i]);

}

#include <stdio.h>

#include <conio.h> #include <math.h>

int c[50], r[50]; /* es mejor poner más de lo necesario */

int i,b;

main()

{

clrscr();

/* Datos */

b=2;

c[0]= 14;

i=1;

/* conversion */

for(;;)

{ c[i]= c[i-1]/b;

r[i]= fmod(c[i-1],b);

if (c[i]==0) break;

i=i+1;

}

for(;;) /* impresión de resultado de atrás para adelante */

Page 139: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

15 de 34 18/04/2008 20:21

{

if (i==0) break;

printf(" %d",r[i]);

i=i-1;

}

}

C) Operaciones aritméticas y lógicas con variables binarias

Una variable binaria puede representar, una cifra de un número en el sistema de numeración en base dos.Las operaciones aritméticas básicas con variables binarias naturales son la suma, resta, multiplicación ydivisión. Estas operaciones son análogas a las realizadas en decimal pero usando ceros y unos.

Tabla de operaciones aritméticas:

Suma aritmética

A B A + B

0 0 0

0 1 1

1 0 1

1 1 0 y llevo 1

Producto aritmético

A A * B

0 0 0

0 1 0

1 0 0

1 1 1

Resta aritmética

A B A-B

0 0 0

0 1 1 y debo 1

1 0 1

1 1 0

División aritmética

A B A/B

0 0 -

0 1 0

1 0 -

1 1 1

Ejemplo:

1110101 1101010 1101010 1110110 - 1010111 * 11 ------------- ------------- ------------ 11101011 0010011 1101010 + 1101010 --------------- 100111110

Las operaciones lógicas o booleanas con variables binarias son la suma lógica (+), llamada también

Page 140: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

16 de 34 18/04/2008 20:21

función OR, el producto lógico (llamado también AND y la complementación (-) o negación o NOT.

Un tutorial sobre lógica se puede ver en el siguiente vídeo:

Online Videos by Veoh.com

Las tablas son las siguientes:

Suma lógica (OR)

A B A + B

0 0 0

0 1 1

1 0 1

1 1 1

Producto lógico (AND)

A B A * B

0 0 0

0 1 0

1 0 0

1 1 1

Complementación (NOT)

A -A

0 1

1 0

Es frecuente también la utilización de las operaciones combinadas como NAND (AND y NOT) y NOR(OR y NOT). Las tablas son las siguientes:

NAND

A B A * B -(A*B)

0 0 0 1

0 1 0 1

1 0 0 1

NOR

A B A + B - (A + B)

0 0 0 1

0 1 1 0

1 0 1 0

Page 141: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

17 de 34 18/04/2008 20:21

1 1 1 0 1 1 1 0

Veamos ahora por qué resulta más sencillo operar con el sistema binario que con el decimal.

Se ha visto la simplicidad de las operaciones aritméticas en binario. Los ordenadores funcionan concircuitos que pueden representar los dos estados del sistema binario (0 y 1) abriéndose o cerrándose elcircuito.

Al conectar dos circuitos según el esquema, y hacer pasar una corriente eléctrica por A se puede conseguirque el estado del conductor C represente el resultado de la operación AND lógica.

1 1 ---------------*------------------ C toma el valor 1 A B

0 1 ---/ /---------*------------------ C toma el valor 0 A B

1 0 ---------------*-------/ /------ C toma el valor 0 A B

0 0 --/ /---------*-------/ /------- C toma el valor 0 A B

De forma parecida se construye la función OR lógica:

A = 1

------------------- |------------------- C=1

------------------- B = 1

Page 142: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

18 de 34 18/04/2008 20:21

A = 1 ------------------- |------------------- C=1

----/ /---------- B = 0

A = 0

----/ /---------- |------------------- C=1

------------------- B = 1

A = 0 -----/ /---------- |------------------- C=0

----/ /---------- B = 0

Estos ejemplos ilustran cómo basándose en circuitos e impulsos eléctricos un ordenador puede realizaroperaciones aritméticas y lógicas. El motivo por el que los ordenadores electrónicos trabajan en el sistemabinario se puede deducir de los ejemplos vistos. Queda imaginar la complejidad que supondría trabajar enel sistema decimal (con circuitos 10 veces más complejos para representar operaciones de 2 dígitos).

Una puerta es un circuíto electrónico que produce una señal de salida que es una operación booleanasencilla de las señales de entrada. Las puertas básicas usadas en lógica digital son AND, OR, NOT, XOR,NAND y NOR. cada puerta se define de tres formas: símbolo gráfico, notación algebraica y tabla deverdad, como se muestra seguidamente:

Page 143: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

19 de 34 18/04/2008 20:21

D) Representación en complementos

Para representar un número negativo se puede utilizar el complemento de ese número a la base. De estaforma las sumas y restas quedan reducidas a sumas. Este sistema de representación es de sumo interés enel caso de los ordenadores ya que al usarlo se reduce la complejidad de los circuitos.

El complemento a la base de un número, es el número que resulta de restar a cada una de las cifras delnúmero N a la base menos uno del sistema que se esté utilizando y posteriormente sumar uno a ladiferencia obtenida.

Ejemplo:

En base 10: Base menos uno del sistema: 9 Representar el número 63 en complemento a la base.

N = 63 99 36 -63 + 1 ------ ------ 36 37

Es decir, el complemento a 10 (base)del número 63 es 37.

En base 2:

Base menos uno: 1

Page 144: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

20 de 34 18/04/2008 20:21

Complemento a 2 del número 10010 es 01110 11111 01101 - 10010 + 1 ------------- ------------- 01101 01110

Complemento a 2 del número 101010 es 010110

111111 010101 101010 + 1 ----------- ------------ 010101 010110

Observamos que para transformar un número binario N a complemento a 2 basta con cambiar los 0 por 1y los 1 por 0 de N y sumar 1 al resultado.

Veremos ahora que la utilidad de esta representación es para convertir la realización de las restas a sumas,lo cual simplifica el diseño del procesador.

Ejemplo: Base 10

Supongamos que se ha de realizar la siguiente operación: 77 - 63

Se puede hacer de dos formas diferentes:

a) Directamente: 77 - 63 = 14 b) Utilizando el complemento a 10 del substraendo:

Complemento a 10 del substraendo 63 es 37

99 36 -63 +1 ---- ----- 36 37

77 +37 ----- 114 - (No se considera)

El resultado es 14

Es decir, para restar basta con sumar el minuendo con el complemento a la base del substraendo y sinconsiderar el acarreo.

Ejemplo: Base 2

Page 145: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

21 de 34 18/04/2008 20:21

Supongamos se ha de efectuar la siguiente resta:

11001 - 10010

Se puede hacer de dos formas:

a) Directamente:

11001 -10010 -------- 00111

b) Usando el complemento a 2 del substraendo:

El substraendo es 10010. Su complemento a 2 se obtiene cambiando 0por 1 y 1 por 0. 01101 y sumándole 1

01101 + 1 -------- 01110

Ahora sumamos al minuendo el complemento a 2 del substraendo:

11001 +01110 --------- 100111 - (No se considera)

E) Códigos intermedios

Los códigos intermedios se basan en la facilidad de transformar un número en base 2 a otra base que seapotencia de 2 y viceversa. Usualmente se usan como códigos intermedios los sistemas de numeración enbase 8 y en base 16 (conocidos como octal y hexadecimal).

a) OCTAL.

En la base octal, b = 8 y el conjunto de símbolos utilizados es: {0, 1,..., 7}

Para convertir un número octal a binario sólo debemos sustituir cada dígito octal por su equivalentebinario.

Equivalencias

OCTAL BINARIO

0 000

Page 146: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

22 de 34 18/04/2008 20:21

1 001

2 010

3 011

4 100

5 101

6 110

7 111

Ejemplo:

6 se sustituye por 110

2 se sustituye por 010

537.24)8 = 101 011 111 . 010 100)2

que equivale según la tabla, a: 5 3 7 . 2 4

La conversión de binario a octal se realiza juntando en grupos de tres dígitos binarios, comenzando por laizquierda desde el punto decimal y sustituyendo cada grupo por el correspondiente dígito octal.

Ejemplo:

El número binario 10001101100.11010)2 es en octal10 001 101 100 . 110 10 = 2154.64)8

Para pasar un número de octal a decimal aplicamos la expresión:

N)8 =...n4 b4 + n3 b

3 + .... + n-1 b-1 + n-2 b

-2...)10

con b = 8.

Ejemplo:

Para pasar el número octal 1367.25)8 a decimal:

1367.25 = 1*83 + 3*82 + 6*81 + 7*80 + 2*8-1 + 5*8-2 = 759.328125)10

Para pasar un número entero decimal a octal se hacen sucesivas divisiones enteras del número y lossubsiguientes cocientes por 8 (al igual que en binario). Para transformar la parte fraccionaria de unnúmero decimal a octal se hacen sucesivas multiplicaciones por 8 (de la misma forma que en binario).

Ejemplo:

Para pasar el número decimal 760.33)10 a octal:

760 | 8__ 40 0 95 | 8__ 15 7 11 | 8__ 3 1

Page 147: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

23 de 34 18/04/2008 20:21

0.33 0.64 0.12 0.96 *8 * 8 * 8 * 8 ------ ------- ------- ------- 2.64 5.12 0.96 7.68

El número en octal es 1370.2507

b) HEXADECIMAL

Para representar un número en base hexadecimal (b = 16) es necesario disponer de un conjunto o alfabetode 16 símbolos. Se suele usar el conjunto:

{0, 1, 2,..., 9, A, B, C, D, E, F}

Podemos hacer las conversiones de binario a hexadecimal y viceversa en forma análoga al sistema octal.Ahora bien, aquí utilizaremos grupos de 4 bit en lugar de grupos de 3 bit.

Equivalencias

HEX BINARIO DECIMAL

0 0000 0

1 0001 1

2 0010 2

3 0110 3

4 0100 4

5 0101 5

6 0110 6

7 0111 7

8 1000 8

9 1001 9

A 1010 10

B 1011 11

C 1100 12

D 1101 13

E 1110 14

F 1111 15

Ejemplo:

Pasar el número binario 010010111011111.1011101)2 a hexadecimal.010 0101 1101 1111 . 1011 101)2 = 25DF.BA)16

Ejemplo:

Pasar el número 1ABC701.C4)16 a binario:0001 1010 1011 1100 0111 0000 0001 . 1100 0100 2

1 A B C 7 0 1 C 4

Page 148: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

24 de 34 18/04/2008 20:21

El número binario resultante es: 0001101010111100011100000001.11000100)2

Para transformar un número hexadecimal a decimal aplicamos la expresión siguiente con b=16.

N)16 =...n4 b4 + n3 b

3 + .... + n-1 b-1 + n-2 b

-2...)10

Ejemplo:

Pasar el número hexadecimal A798C.1E)16 a decimal.

10*164 + 7*163 + 9*162 + 8*161 + 12*160 + 1*16-1 + 14*16-2 = =686476.1171)10

Para pasar un número de decimal a hexadecimal se hace de forma análoga a los casos binario y octal: laparte entera se divide por 16, así como los cocientes enteros sucesivos, y la parte fraccionaria semultiplica por 16, así como las partes fraccionarias de los productos sucesivos.

Ejemplo:

El número 4573.79)10 se corresponde enhexadecimal: 4573 |16 137 093 285 |16 13 125 13 17 |16 1 1

0.79 0.64 0.24 * 16 * 16 * 16 ------ ----- - ----- 474 384 144 +79 +64 +24 ----- ---- ----- 12.64 10.24 3.84 C A 3

El número en hexadecimal es 11DD.CA3)16

5.4 Representación interna de la información.

En la memoria y el procesador central la información se transmite y procesa en unidades denominadaspalabras. La organización de las palabras depende del ordenador, siendo usuales las longitudes: 8, 16, 32,36, 60 y 64 bit, aunque hay hasta de 512 bit.

Page 149: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

25 de 34 18/04/2008 20:21

La memoria principal se encuentra organizada en palabras, cada una de las cuales tiene asignada unadirección. Los intercambios de información entre el procesador y la memoria se hacen en unidadesdenominadas palabras y no en caracteres (octetos) o en bit.

Normalmente para aprovechar la memoria, la longitud de la palabra debe ser un múltiplo entero delnúmero de bit usados para representar un carácter.

Los datos se introducen inicialmente en el ordenador según un código de entrada/salida (que ya hemosvisto), tanto si éstos son de tipo alfabético como de tipo numérico.

Los datos de tipo numérico se utilizan normalmente para operar aritméticamente con ellos, y larepresentación simbólica obtenida con el código de E/S no resulta adecuada para realizar este tipo deoperaciones. Resulta más adecuado operar en un sistema de numeración que en un código de E/S.

Por los motivos anteriores, y teniendo en cuenta que la ALU opera con palabras, se realiza una conversiónde notaciones pasando de la representación simbólica de E/S a otra notación que denominamosrepresentación interna.

TIPOS DE INFORMACION.

En un sistema de procesamiento de la información es necesaria la codificación de tres clases deinformación:

1 Información numérica:

EnterosRealesComplejosLógicos

2 Información no numérica (o alfanumérica):

Caracteres3 Instrucciones del programa

A) Datos de tipo complejo

Los datos de tipo complejo se representan por parejas de números reales almacenados en posicionesconsecutivas de memoria. Es decir, pueden considerarse como un caso particular de números reales.

B) Datos de tipo lógico

Representan un valor del Algebra de Boole binaria, es decir, 0 (falso) ó 1 (verdad).

C) Representación en punto fijo

El nombre de esta representación surge al considerar el punto fraccional, situado en una posición fija. Elpunto fijo es utilizado para la representación de números enteros, suponiéndose el punto fraccionalubicado a la derecha de los bit. Cualquiera de los sistemas de representación de enteros es unarepresentación de punto fijo. Tambien, se puede utilizar la representación en punto fijo para representarfracciones binarias escalando los números, de modo que el punto fraccional quede ubicado implícitamenteen otra posición entre los bit, y en el caso límite a la izquierda de todos ellos describiendo un númerofraccional binario puro (menor a 1).

Page 150: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

26 de 34 18/04/2008 20:21

a) El signo se representa en el bit situado más a la izquierda de la palabra. Este bit es 0 si el númeroes positivo ó 1 si el número es negativo.

b) El valor absoluto:b1) Números positivos: Se almacenan directamente el número en binario natural.b2) Números negativos: Dependiendo del ordenador se almacena el complemento a 2 delnúmero binario natural o la magnitud del número en binario natural.

Ejemplo de representación interna de datos de tipo entero en un ordenador de palabras de 4 bit:

DECIMALSIGNO YMAGNITUD

COMPLEMENTO A2

7 0111 0111

6 0110 0110

5 0101 0101

4 0100 0100

3 0011 0011

2 0010 0010

1 0001 0001

+0 0000 0000

-0 1000 ----

-1 1001 1111

-2 1010 1110

-3 1011 1101

-4 1100 1100

-5 1101 1011

-6 1110 1010

-7 1111 1001

-8 ----- 1000

D) Representación en punto flotante

El punto flotante surge de la necesidad de representar números reales y enteros con un rango derepresentación mayor que el que ofrece la representación en punto fijo y posibilitar al ordenador eltratamiento de números muy grandes y muy pequeños. Estas ventajas que ofrece el punto flotante traencomo contraprestación una disminución en la precisión de los números representados.

En su representación se utiliza la notación científica o exponencial matemática en la que una cantidad serepresenta de la siguiente forma:

n° = mantisa * base de exponenciación exponente

Un número en esta notación tiene infinitas representaciones, de las que se toma como estándar ladenominada normalizada, que consiste en que la mantisa no tiene parte entera y el primer dígito o cifra ala derecha del punto decimal es significativo (distinto de 0), salvo en la representación del número 0.

Page 151: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

27 de 34 18/04/2008 20:21

Ejemplo

835.4 = 8354*10^-1 = 835.4 * 10^0 = 83.54 * 10^1 = 8.354 * 10^2 = .8354 * 10^3

Representación del número decimal 835.4 con base de exponenciación 10. siendo está última expresión laque corresponde al número normalizado.

En este sistema de codificación, se dividen los bit disponibles en la palabra o doble palabra del ordenadorentre la mantisa y el exponente, teniendo una base de exponenciación determinada (2 o potencia de 2).Normalmente la definición de la coma flotante sigue las siguientes reglas:

El exponente se representa en uno de los siguientes sistemas de codificación: módulo y signo o

exceso a 2 n-1, siendo siempre un número entero. En este sistema de codificación el exponentetambién recibe el nombre de característica.La mantisa es un número real con el punto decimal implícito a la izquierda de sus bit, representadanormalmente en uno de los siguientes sistemas de codificación: módulo y signo, complemento a 1 ocomplemento a 2.La base de exponenciación es una potencia de 2 determinada por el fabricante del equipo (2, 8 o16).

Existen muchas formas de representación en punto flotante, variando la longitud de la palabra delordenador, la base de la exponenciación, el número de bit reservados para la mantisa y para el exponente,el sistema utilizado para representar la mantisa y el exponente, etc.. El punto flotante se defineparticularmente en cada caso. Las definiciones más comunes son las siguientes:

a) para simple precisión (32 bit)

signo exponente mantisa31 30 23 22 0

b) para doble precisión (64 bit)

signo exponente mantisa63 62 52 51 0

El rango de representación en la coma flotante debe ser analizado teniendo en cuenta los máximos ymínimos valores representables tanto con signo positivo como negativo:

mínimo número negativo = -(mantisa máxima) * basemáximo exponente

máximo número negativo = -(mantisa mínima) * base-maximo exponente

mínimo número positivo = mantisa mínima * base-máximo exponente

máximo número positivo = mantisa máxima * basemáximo exponente

Conviene observar que existen cuatro zonas de números que no pueden ser representados mediante undeterminado formato de coma flotante. Estas zonas están ubicadas cercanas al 0, tanto para valorespositivos como negativos (subdesbordamiento positivo o negativo), como para valores grandes (positivos)o pequeños(negativos) que exceden el rango de representación.

Page 152: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

28 de 34 18/04/2008 20:21

Ejemplo

Un ordenador utiliza el siguiente formato para registrar números en punto flotante:

los bit del 23 al 30 se utilizan para representar el exponente en exceso a 128 (27)

los bit del 0 al 22 se utilizan para representar la mantisa normalizada para el sistema Módulo ysigno

el bit 31 se utiliza para representar el signo de la mantisa (0 para el +)

la base de exponenciación es 2

el 0 se representa con todos los bit en 0.

Representar en este formato el número 12:

12 en notación normalizada de base 2 es 0.75 * 24

el exponente de valor 4 en exceso a 128 es: 10000100

la mantisa 0.75 en binario es 0.11

de donde la representación del número 12 quedará como:

0 10000100 11000000000000000000000signo (+) exponente 4 mantisa 0.75

Representar en el formato definido el 12. En este caso la notación normalizada solo sufre cambio en el

signo de la mantisa (-0.75 * 24), la expresión quedará ntonces:

1 10000100 11000000000000000000000signo (-) exponente 4 mantisa 0.75

El rango de representación de este formato en coma flotante será:

mínimo negativo = -(1 - 223)*2127 = -2127 = 1.701411834605 * 1038

máximo negativo = -0.5 * 2-128 = -2-129 = -1.469367938528 * 10 -39

mínimo positivo = 0.5 * 2-128 = 2-129 = 1.469367938528 * 10-39

máximo positivo = (1 - 223)*2127 = 2127 = 1.701411834605 * 1038

E) Datos de tipo carácter

Los datos de tipo carácter, representan sencillamente cadenas de caracteres representados según el códigode E/S.

Page 153: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

29 de 34 18/04/2008 20:21

A las representaciones de los caracteres se les imponen las siguientes condiciones:

Deben englobar las 26 letras del alfabeto latino, los 10 dígitos y un cierto número de caracteresgráficos (operadores) y signos de puntuación.Deben permitir añadir nuevos caracteres específicos.Deben incluir un sistema de redundancia que permita la detección de errores en el curso de latransmisión.Los subconjuntos de letras y números deben estar ordenados y ser coherentes. Estarán en dosgrupos diferentes y ordenados.

F) Codificación de instrucciones

Las instrucciones llevan cierto número de informaciones:

Código de operación.Dirección de operandos/resultados.Condiciones de direccionamiento, etc.

A cada una de estas informaciones se le asocia una zona formada por un número de bit suficientes paracodificar los diferentes estados posibles de la instrucción.

Así una zona de código de operación de 6 bit permite codificar 26 = 64 operaciones diferentes, y si una

zona de direcciones es de 16 bit permitirá direccionar una memoria de 216 direcciones.

5.5 Detección de errores en la información codificada

Hemos visto anteriormente que si representamos cada carácter por un número fijo de bit, para representarm símbolos distintos necesitamos al menos n bit, siendo n el menor número entero que verifica la relación

n = log2 m = 3.32 * log m

También hemos observado que a veces no es necesario utilizar todas las combinaciones posibles de los nbit. Cuantas menos combinaciones se desperdicien decimos que el código es más eficiente.

Un código que es poco eficiente se dice que es redundante. La eficiencia de un código se expresa como elcociente entre el número de símbolos que representa y el número total posible,

Eficiencia = m/m´= m/2n

así se tiene para el ASCII una eficiencia de 95/27, que es 0.742, con R=25.8% y para el ASCII extendido

la eficiencia es 95/28, que es 0.371, con R=62.9%, donde R es la redundancia, que se calcula, R=(1-þ)*100%

A veces las redundancias se introducen deliberadamente para poder detectar posibles errores en latransmisión o grabación de información.

Así por ejemplo, si necesitamos transmitir 8 símbolos (A, B, C,...,H) y si se hace con un código sinredundancias, necesitamos n = 3 bit, y un código posible puede ser:

ALFABETO CÓDIGO

Page 154: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

30 de 34 18/04/2008 20:21

A 000

B 001

C 010

D 011

E 100

F 101

G 110

H 111

En el caso de que por algún error uno de los bit varíe obtenemos otro símbolo del alfabeto, queconsiderado aisladamente no puede ser detectado como erróneo. Si se usase un código redundante, talcomo el siguiente:

ALFABETO CÓDIGO

A 0000

B 0001

C 0010

D 0011

E 0100

F 0101

G 0110

H 0111

existirían algunas posibilidades de detectar errores. Así por ejemplo, si se transmite el símbolo H, esto es0111, y por un error la transmisión cambiara el primer bit, esto es se recibiese 1111, podría detectarse elerror ya que 1111 no corresponde a ninguno de los símbolos posibles.

Usualmente las redundancias se introducen deliberadamente y de acuerdo con algún algoritmopredeterminado. Uno de estos algoritmos añade al código inicial da cada carácter un nuevo bitdenominado bit de paridad. Existen dos criterios para introducir este bit:

Bit de paridad, criterio par: se añade un bit (0 ó 1) de forma tal que el número total de unos delcódigo que resulte sea par.Bit de paridad, criterio impar: Se añade un bit (0 ó 1) de forma tal que el número total de unos delcódigo que resulte sea impar.

Ejemplo:

Código inicial Código con bit de paridad par

100 0001 0100 0001 - 101 1011 1101 1011 - 101 0000 0101 0000 -

Page 155: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

31 de 34 18/04/2008 20:21

110 1000 1110 1000

- Código con bit de paridad impar

100 0001 1100 0001 - 110 0101 1110 0101 - 010 0000 0010 0000 - 000 0000 1000 0000 -

El bit de paridad se introduce antes de transmitir o grabar la información. Por ruido o interferencias en latransmisión o defecto del soporte de la información puede eventualmente cambiar un bit (de 1 a 0 ó de 0 a1). Si en el receptor o al leer la información se comprueba la paridad, se detectaría el error, ya que elnúmero de unos dejaría de ser par (en el criterio par) o impar (en el criterio impar).

En el caso de transmisión de datos, automáticamente se podría provocar una nueva transmisión delcarácter erróneo. Obviamente si se produjese el cambio simultáneo de dos bit distintos no se detectaría elerror de paridad, ahora bien, esta eventualidad es mucho menos probable que la de que cambie un sólo bit.

Códigos de barras

Otro caso habitual donde aparece información redundante con la finalidad de verificar errores, es en loscódigos de baras, habituales en cualquier producto que se comercialice masivamente. En 1974 los 12países que entonces formaban la Unión Europea decidieron adoptar un sistema de codificación para losproductos, similar al sistema UPC de Estados Unidos de Norteamérica. Así surgió el código EAN(European Article Numbering), sistema que han adoptado más de 100 países y cerca de un millón deempresas.

El más usual es EAN 13, formado por 13 dígitos agrupados en cuatro partes: prefijo, código empresa,código producto y dígito de control. El prefijo asignado por EAN internacional a AECOC es el 84, demodo que la mayoría de las empresas que forman parte del sistema EAN a través de AECOC utilizan estenúmero. El código de empresa (fabricante o cadena de distribución) está formado por un número de entre5 y 8 dígitos. El código del producto completa los primeros 12 dígitos y el último dígito es de control. Porejemplo, un tarro con garbanzos cocidos marca Eroski, lleva el siguiente código 8480010021967, donde84 significa España, 80010 es el número que tiene asignado la cooperativa Eroski, 02196 corresponde aese tipo de garbanzos, siendo una clasificación interna del distribuidor y 7 es el código de control.

En el momento de la venta, el terminal punto de venta (TPV), realiza las siguientes operaciones:

1. Suma los dígitos de las posiciones pares: 4+0+1+0+1+6 = 122. Multiplica el resultado por 3: 12x3= 363. Le añade los dígitos de las posiciones impares: 36+8+8+2+9=634. Resta la suma obtenida del siguiente múltiplo de 10: 70-63=7

Si el resultado coincide con el dígito de control, como es el caso, el ordenador enviará el precio al TPV.

fresqui del.icio.us meneame

Page 156: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

32 de 34 18/04/2008 20:21

Buscar en la web

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana

Actualización en FisicaBiografía de Edward Lorenz

Actualización en Avisos.II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.Tutorial sobre la nueva versión de Google Docs

Actualización en Software.Tutorial sobre el programa HTTrackl

Actualización en Avisos.II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html

XML Powered by FeedSweep

Enlaces de interés

Skip Navigation

InicioDivulgaciónFísicaReligionesFraudes médicosFraudes nutriciónFraudes psicologíaInformática

Fraudes en psicología

Los psicólogos de lo paranormal (abduciones) L.A. GámezTeoría de recuperación de recuerdos y síndrome de falso recuerdo. John HochmanLa psicología científica y las pseudopsicologías. Carlos Álvarez GonzálezPsicología para escépticosLa psicología científica y los cuestionamientos al psicoanálisis

Page 157: Apuntes de introduccion a la informatica
Page 158: Apuntes de introduccion a la informatica
Page 159: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

1 de 35 18/04/2008 20:14

Introducción a la Informática. Estudios GAP,facultad Derecho

Capítulo 6. Periféricos de un ordenador

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Ciencia en general

Page 160: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

2 de 35 18/04/2008 20:14

BiologíaCriminología

InicioContacte

IntroducciónDispositivos de entradaDispositivos de salidaDispositivos de memoria secundariaCalidad en ordenadores personales

Selecciona un texto ypulsa aquí para oírlo

6.1 Introducción

Se denominan periféricos tanto a los dispositivos a través de los cuales el ordenador se comunica con elmundo exterior, como a los sistemas que almacenan la información, sirviendo de memoria auxiliar de lamemoria principal, independientemente de que se encuentre en el exterior o interior de la carcasa.

La memoria masiva o auxiliar trata de suplir las deficiencias de la memoria central (RAM): bajacapacidad y que la información almacenada se pierde al desconectar la alimentación eléctrica. En efecto,los dispositivos de memoria masiva auxiliar (actualmente discos magnéticos y ópticos) tienen mucha máscapacidad que la memoria principal, y en ellos se puede grabar la información durante mucho tiempo.

Según la definición de periférico dada anteriormente, éstos están constituidos por unidades de entrada,unidades de salida y unidades de memoria masiva auxiliar. Estas últimas también pueden considerarsecomo de E/S, ya que el ordenador central puede escribir (dar salida) sobre ellas, y la información escritapuede ser leída, es decir, ser dada como entrada. Ahora bien, la información grabadas en estos soportes noes directamente inteligible para el usuario, esto es, no puede haber una intercomunicación directausuario-ordenador como la que hay a través de un teclado/pantalla.

El ordenador es una máquina que no tendría sentido si no se comunicase con el exterior, es decir, sicareciese de periféricos. Por lo que debe disponer de:

Unidad(es) de entrada, a través de la(s) cual(es) introducirle los programas que queramos queejecute y los datos correspondientes.

Unidad(es) de salida, con la(s) que la ordenador da los resultados de los programas.

Memoria masiva o auxiliar, que facilite su funcionamiento y utilización.

Los dispositivos de entrada/salida (E/S) transforman la información externa en señales codificadas,permitiendo su transmisión, detección, interpretación, procesamiento y almacenamiento de formaautomática. Los dispositivos de entrada transforman la información externa (instrucciones o datostecleados) según alguno de los códigos de entrada/salida (E/S). Así el ordenador recibe dicha informaciónadecuadamente preparada (en binario). En un dispositivo de salida se efectúa el proceso inverso, lainformación binaria que llega del ordenador se transforma de acuerdo con el código de E/S en caracteresescritos inteligibles por el usuario.

Hay que distinguir claramente entre periféricos de un ordenador y máquinas auxiliares de un determinado

Page 161: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

3 de 35 18/04/2008 20:14

servicio informático, las máquinas auxiliares no están físicamente conectadas al ordenador (sufuncionamiento es autónomo) y sirven para preparar o ayudar en la confección o utilización de lainformación que se da a, o produce, el ordenador. Por ejemplo, hace algunos años existian máquinasautónomas para perforar tarjetas, para grabar cintas magnéticas manualmente a través de un teclado, paraseparar el papel continuo producido por un programa a través de la impresora, etc.

Tampoco hay que confundir periférico con soporte de información. Por soporte de información seentiende aquellos medios físicos sobre los que va la información. Por unidades o dispositivos periféricosse entiende aquellos elementos encargados de transcribir la información al correspondiente soporte.

Ejemplos:

- Los disquetes son soporte de información, mientras que la unidad lectora o disquetera, es unidadperiférica.

- El papel impresora es soporte de información y la impresora unidad periférica.

Conexión de periféricos al ordenador

Las unidades funcionales del ordenador, así como éstas con los periféricos se comunican por grupos depistas denominados buses. Hay de dos tipos, serie y paralelo.

Los periféricos se interconectan al bus del sistema directamente o bien a través de unos circuitosdenominados interfaces. Hay una gran diversidad de periféricos con distintas características eléctricas yvelocidades de funcionamiento. Las interfaces son para adaptar las características de los periféricos a lasdel bus del sistema.

Características generales de los periféricos

Cada periférico suele estar formado por dos partes diferenciadas en cuanto a su misión y funcionamiento:una parte mecánica y otra electrónica.

La parte mecánica está formada básicamente por dispositivos electromecánicos (conmutadoresmanuales, motores, electroimanes, etc.) controlados por los elementos electrónicos. Esta partedetermina la velocidad de funcionamiento.

La parte electrónica gestiona el funcionamiento de los procesos.

Desde el ordenador se actúa sobre los periféricos a iniciativa de las instrucciones de los programas. Parapoder utilizar eficazmente una ordenador, su sistema operativo contiene rutinas específicas para la gestiónde los periféricos. Sin estas rutinas sería extremadamente complejo utilizar un periférico desde unlenguaje de alto nivel.

Algunos periféricos tienen la posibilidad de hacer autónomamente determinadas operaciones. Estasoperaciones pueden ser desde autocomprobar su funcionamiento físico, hasta funciones más complejascomo rebobinar una cinta magnética, dibujar en un registrador gráfico la información contenida en unacinta magnética o imprimir una imagen desde la tarjeta de la máquina de fotografíar digital.

Clasificación de los periféricos

Los periféricos se dividen en tres categorías, ya conocidas:

Page 162: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

4 de 35 18/04/2008 20:14

Unidades de entrada.Unidades de salida.Unidades de memoria masiva auxiliar.

No necesariamente las distintas unidades están físicamente individualizadas en módulos independientes,pudiendo, por ejemplo, estar montadas una unidad de entrada y una unidad de salida conjuntamente. Asíun terminal interactivo suele estar constituido por un teclado (unidad de entrada) y una pantalla (unidad desalida). A veces se dice que estas unidades son de tipo mixto. Incluso hay dispositivos de entrada queúnicamente tienen sentido actuando conjuntamente con un dispositivo de salida (Ej.: lápiz óptico).

Las unidades de memoria masiva pueden considerarse como unidades de E/S mixtas. Así una unidad decinta magnética, cuando lee información de una cinta, actúa como dispositivo de entrada; cuando escribeo graba información procedente de la ordenador central, actúa como unidad de salida.

6.2 Dispositivos de entrada

Los periféricos más usuales son los siguientes:

Teclado Ratón (mouse) "Joystick " o palanca manual de control Lápiz óptico Lector óptico Lector de caracteres imanables Lector de bandas magnéticas Lector de tarjetas "Chip" o inteligentes ("Smart Card") Lector de marcas Lector de caracteres manuscritos Lector de códigos de barras Reconocedores de voz Sistemas biométricos Digitalizador o tableta gráfica Pantalla sensible al tacto Scanner o rastreador Sistemas de radiofrecuencia (RFID)

TECLADO

Es un dispositivo análogo al de una máquina de escribir, correspondiendo cada tecla a uno o varioscaracteres, funciones u órdenes. Para seleccionar uno de los caracteres de una tecla puede ser necesariopulsar simultáneamente dos o más teclas.

Al pulsar una tecla se cierra un conmutador que hay en el interior del teclado, esto hace que unos circuitoscodificadores generen el código de E/S correspondiente al carácter seleccionado, apareciendo éste en lapantalla si no es un carácter de control.

Los teclados contienen los siguientes tipos de teclas:

Teclado principal: Contiene los caracteres alfabéticos, numéricos y especiales, como en unamáquina de escribir convencional con alguno adicional. Hay teclados que también incluyen aquí

Page 163: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

5 de 35 18/04/2008 20:14

caracteres gráficos.

Teclas de desplazamiento del cursor: Permiten mover el cursor en los cuatro sentidos, borrar uncarácter o parte de una línea.

Teclado numérico: Es habitual en los teclados de ordenador que las teclas correspondientes a loscaracteres numéricos (cifras decimales), signos de operaciones básicas (+, -, ...) y punto decimalestén repetidas para facilitar al usuario la introducción de datos numéricos.

Teclas de funciones: Son teclas cuyas funciones son definibles por el usuario o por un programa.

Teclas de funciones locales: Controlan funciones propias del terminal, como impresión delcontenido de imagen cuando el ordenador está conectada a una impresora.

En algunos teclados la transmisión no se efectúa pulsación apulsación sino que se dispone de un almacén de reserva o buffer(tampón) y el envío se efectúa a la vez para todo un conjunto demensajes completos cuando el usuario pulsa una tecla especialdestinada a activar dicha transmisión. Esta tecla recibe distintosnombres como Return, Enter, Transmit, Intro, Retorno de carro.

Entre las posibles características técnicas a contemplar al evaluar la mejor o peor adaptabilidad de unteclado a nuestras necesidades, podemos citar el número de caracteres y símbolos básicos, sensibilidad ala pulsación, tipo de contactos de las teclas (membrana o mecánico), peso, tamaño, transportabilidad.Actualmente se comercializan teclados ergonómicos, con una disposición algo original, aunque se handifundido poco, y hay discusiones sobre si es cierta la ergonomía que propugnan.

Se pueden encontar teclados con funcionalidades extras, ya sean individualmente o en conjunto, comolector de banda magnética, lector/grabador de tarjeta inteligente, conexión para escaner, detectorbiométrico, con iluminación, entre otras posibilidades.

Para aplicaciones industriales y militares existen teclados totalmente sellados que soportan ambientesagresivos, como por ejemplo aire, agua y atmósferas de vapores. Cumplen con la normativa IP65.

Entre los tipos de teclados más novedosos se encuentran los que son totalmente flexibles y losdenominados virtuales, que generan una simulación mediante un láser.

RATÓN

El ratón es un pequeño periférico que está constituido por una esfera que puede girar libremente, seacciona haciéndola rodar sobre una superficie plana. Los modernos se basan en

Page 164: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

6 de 35 18/04/2008 20:14

un sistema óptico de diodo o láser de infrarrojo en lugar de la bola.

En el momento de activar el ratón, se asocia su posición con la del cursor en lapantalla y si lo desplazamos sobre una superficie, el cursor seguirá dichosmovimientos. Actualmente es imprescindible en los entornos gráficos, comoKDE-Linux y Windows.

Una variación del ratón es la conocida como "trackball" que consiste en unabola fija que se hace girar con los dedos. Presenta algunas ventajas sobre losratones tradicionales.

La interface de conexión con el ordenador, tanto del teclado como del ratón es a través de la interfaceUSB con cable o mediante sistemas inalámbricos infrarrojos o de radiofrecuencias, aunque hasta hacepoco tiempo era mediante interfaces específicas.

Dado que bajo los entornos de usuario gráficos actuales se emplea constantemente el ratón, se ha deseleccionar uno de muy buena calidad, pues sino duran sólo unos pocos meses.

La tecnología más moderna respecto a los ratones es la basada en unláser VCSEL (vertical-cavity surface-emitting laser), alcanzándoseresoluciones de hasta 2000 puntos por pulgada (una pulgada son 2.54cm). Estos láseres VCSEL también son de utilidad para una nuevageneración de ordenadores y sistemas de comunicación fotónicos entretarjetas y entre "chip" con velocidades de hasta 2.5 Gb/s.

LÁPIZ OPTICO

Físicamente tiene la forma de una pluma o lápiz grueso, de uno decuyos extremos sale un cable para unirlo al monitor. Contiene unpulsador, transmitiéndose información hacia el monitor sólo en el casode estar presionado. Al activar el lápiz óptico frente a un punto de la

pantalla se obtienen las coordenadas del sitio donde apuntaba el lápiz.

JOYSTICK. (Palanca manual de control)

La palanca manual de control (en inglés "joystick") está constituida por un dispositivo con una palanca omando móvil. El usuario puede actuar sobre el extremo de la palanca , y a cadaposición de ella le corresponde sobre la pantalla un punto. Dispone de un pulsadorque debe ser presionado para que exista una interacción entre el programa y laposición de la palanca. La información que transmite es analógica.

Su uso ha sido popularizado por los video-juegos y aplicaciones gráficas.

LECTOR DE MARCAS

Hay ciertos documentos o productos que se utilizan en la vida ordinaria en gran cantidad y que pueden sercontrolados por ordenador, introduciendo con gran rapidez y sin error sus características sin necesidad deteclear el código o información que los identifica. Esto es así porque en su superficie llevan impresoscaracteres, barras o marcas predefinidas, que pueden ser detectados por dispositivos especiales.

Ejemplos de estos productos y documentos: cheques bancarios, productos farmacéuticos, artículos desupermercados, quinielas, exámenes de respuesta múltiple, etc. En la mayoría de los sistemas existe unconjunto de caracteres o patrones predefinidos.

Page 165: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

7 de 35 18/04/2008 20:14

Las lectoras, analizan los datos carácter a carácter y detectan si cada zona de identificación está impresa ono. A cada carácter, se le hace corresponder una secuencia ordenada de ceros y unos. El dispositivo deentrada compara esta secuencia con la de los patrones que tiene almacenados.

Los lectores ópticos suelen contener una fuente de luz que ilumina intensamente el dato a leer, un sistemaóptico de ampliación de imagen y los elementos necesarios para identificar el carácter.

LECTOR DE CARACTERES MAGNÉTICOS

Los caracteres magnéticos se utilizan en cheques bancarios, y en las etiquetas de algunos medicamentosen algunos países, pues en España se usa el código EAN. En estos documentos se imprimen, de acuerdocon unos patrones, los caracteres que identifican el talón. La tinta utilizada es imanable (contiene óxido dehierro) y además es legible directamente. La impresión se hace con una máquina auxiliar denominadainscriptora electrónica.

Este dispositivo ofrece una serie de ventajas como:

Permitir la captación directa de datos.Los documentos no necesitan cuidados especiales, se pueden doblar, escribir encima con tinta nomagnética.Se consiguen velocidades de lectura muy apreciables.Los caracteres usados son legibles.

Los inconvenientes que presentan son:

Alto costo.Impresión cara y específica.

DETECTOR DE BANDAS MAGNÉTICAS

Utiliza señales electromagnéticas para registrar y codificar información en una banda imanada que puedeser leída por una máquina, para identificación instantánea. La aplicación más difundida quizás es la de lastarjetas de crédito y débito. Las instituciones financieras han preferido hasta hace poco tiempo estatecnología pues la reproducción era difícil de lograr, aunque la tendencia es a sustituirlas por tarjetas con"chip" que son mucho más seguras. Se dice que las bandas magnéticas se utilizan para la identificación de

personas, mientras que los códigos de barras se aplican en la identificación deproductos. Las bandas magnéticas tienen excelentes posibilidades en aplicaciones decorta duración tales como en pasajes de avión, donde la vida esperada del pasaje es delorden de las 24 horas. En los Estados Unidos se pueden encontrar licencias de conducircon bandas magnéticas. Asimismo documentos de identidad de instituciones educativas.Algunas tarjetas "prepagadas" para hacer llamadas telefónicas son otro ejemplo de la

aplicación de las bandas magnéticas.

La codificación de bandas magnéticas, de acuerdo a las normas ISO BCD, se hace en hasta treslocalizaciones, pistas o "tracks" contenidos en la banda magnética. Dependiendo del "track" leido, sepuede almacenar desde 79 caracteres alfanuméricos (Pista 1), a 40 caracteres numéricos (Pista 2), hasta107 caracteres numéricos (Pista 3). Las normas ISO generalmente se aplican a tarjetas de crédito y débito.

Las bandas magnéticas se leen mediante dispositivos de lectura manuales, similares a un lápiz, o pordetectores situados en los dispositivos en los que se introducen las tarjetas, incluso disponibles en algunosteclados. La ventaja de este método es que la información es difícil de alterar una vez que se ha grabado

Page 166: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

8 de 35 18/04/2008 20:14

en la banda, salvo que se le aplique un campo magnético de intensidad adecuada. Esto proporciona uncierto grado de seguridad frente a los sistemas convencionales.

LECTOR DE TARJETAS "CHIP" O INTELIGENTES

Son tarjetas análogas en dimensiones a las de crédito, pero que incorporan un circuito electrónico y unapequeña memoria. Se comercializan de dos tipos, por lo que respecta a la comunicación, mediantecontactos o inalámbricos, como por ejemplo las tarjetas bonobus del transporte público en Murcia. Lasmás modernas pueden incluir un sistema operativo, y lenguaje de programación como por ejemplo Java.

Un ejemplo de aplicación novedosa de este sistema, el el proceso de votaciones en Lisboa, usando unatarjeta tipo "chip card" en lugar de las papeletas tradicionales. El prototipo de este Sistema de VotoElectrónico (SVE) ha sido desarrollado por Omron Electronics. Cada elector dispone de una tarjetainteligente, que introduce en el dispositivo de lectura, apareciendo en una pantalla táctil la relación decandidatos, procediendo el votante a efectuar la selección. Seguidamente dispone de 5 segundos por sidesea cambiar o anular su voto. El elector saca su tarjeta con la información de a quien ha votado, yseguidamente la inserta en un sistema electrónico que efectúa la lectura.

LECTOR OPTICO

En este apartado únicamente se hace referencia a los detectores de marcas, detectores de barras ydetectores de caracteres manuscritos e impresos.

LECTOR DE MARCAS

Los lectores ópticos de marcas son sistemas que aceptan información escrita a mano y latransforman en datos binarios inteligibles por el ordenador. El usuario se limita a marcar con sulápiz ciertas áreas preestablecidas del documento que representan posibles opciones. Estosdocumentos pueden ser leídos posteriormente, a gran velocidad, por un ordenador con un lectoróptico de marcas, que detecta las zonas preestablecidas que están marcadas. Esta forma deintroducir dstos es útil, por ejemplo, para corregir exámenes de tipo test, escrutar quinielas, valorarencuestas, etc.

Una variante sencilla de este sistema la constituye el método de reconocimiento de marcas. En estecaso el dispositivo de lectura puede reconocer cuándo ciertas áreas se han ennegrecido con un lápizu otro instrumento de escritura. Entre los documentos sometidos a esta forma de lectura seencuentran los cupones de las quinielas, los formularios para la lectura de los contadores de gas yluz, y los cuestionarios con respuesta de elección múltiple. Los métodos de OCR y dereconocimiento de marcas tienen la ventaja de que se pueden emplear para leer los datosdirectamente de los documentos originales, pero son lentos y sensibles a los errores, encomparación con otros métodos.

Una aplicación nueva es el sistema implantado por la Seguridad Social. Los médicos disponen deuna terminal portátil PDT 3100 de Symbol Tecnologies, lector de banda magnética e impresoratérmica para etiquetas. El médico genera una etiqueta para la receta, con su identidad, detalles delpaciente. En la farmacia se añade a la receta el código de barras del medicamento. Posteriormentetoda esta información se procesa, y ayuda a evitar el abundante fraude que se da en la medicina .

DETECTOR DE CARACTERES MANUSCRITOS E IMPRESOS

Los lectores ópticos de caracteres pueden detectar caracteres (alfabéticos y/o numéricos), o bienimpresos o mecanografiados, o bien manuscritos.

Page 167: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

9 de 35 18/04/2008 20:14

Los lectores de caracteres impresos suelen utilizar patrones normalizados.

Los lectores de caracteres manuales son mucho más complejos, sirviendo frecuentemente sólo paradetectar unos pocos caracteres. Usualmente en el manual del dispositivo se indica la caligrafía"preferida" por el dispositivo.

El reconocimiento óptico de caracteres (OCR) está basado en el uso de un dispositivo deexploración óptica que puede reconocer la letra impresa. Muchos documentos comerciales, comolas facturas de gas, luz o teléfono, disponen de una banda que figura en la parte inferior que sepuede leer mediante un dispositivo de OCR. Los nuevos pasaportes de la Comunidad Europeadisponen de una página de texto OCR en la que se incluyen todos los detalles del titular delpasaporte. Se emplea un tipo de impresión especial para facilitar su lectura (algunos dispositivos deOCR pueden leer tipos de imprenta comunes, y otros, como los empleados por las administracionespostales para los procesos de clasificación, pueden reconocer la letra manuscrita siempre que éstasea suficientemente clara).

DETECTOR DE BARRAS

En la actualidad han adquirido un gran desarrollo los lectores de códigos de barras. Estos se usan encentros comerciales. En el momento de fabricar un producto se imprime en su envoltorio unaetiqueta con información sobre según un código formado por un conjunto de barras separadas porzonas en blanco.

La forma de codificar cada dígito decimal consiste en variar el grosor relativo de las barras negras yblancas adyacentes. Con estas marcas se puede controlar fácilmente por ordenador las existencias yventas de una determinada empresa, e incluso gestionar los pedidos a los suministradores de formatotalmente automática, lo cual genera un ahorro de costes considerable.

El cajero o cliente pasa un lector óptica por la etiqueta, introduciéndose así, sin necesidad deteclear, y con rapidez, la identificación del artículo. El ordenador contabiliza el producto comovendido y lo da de baja en la base de datos de existencias.

El lector óptico suele formar parte de una caja registradora que en realidad es un terminalinteractivo denominado terminal punto de venta (TPV).

Los códigos de barras se han transformado en la forma estándar de representar lainformación en los productos de mercado en un formato accesible para lasmáquinas. Un código de barras consiste en un conjunto de barras verticalespintadas en negro (o en un color oscuro) sobre un fondo claro. Los caracteres secodifican empleando combinaciones de barras anchas y estrechas y siempre se incluyen caracteresde comprobación.

Un lector de código de barras interpreta la secuencia de barras y produce el conjunto de caracteresequivalente. Los lectores de códigos de barras tiene la forma de un lápiz, que sepasa sobre el código o bien son dispositivos mayores de carácter fijo, quedisponen de una ventana sobre la que se pasa el producto cuyo código se quiereleer. En este último tipo la lectura se realiza mediante un haz láser. Los lectoresde códigos de barras se incorporan generalmente a algún tipo de terminal, comoen el caso de los más recientes tipos de cajas registradoras para supermercados(TPV). Las experiencias hasta la fecha indican que los códigos de barras constituyen un método decodificación bastante rápido y fiable a un precio asequible.

Page 168: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

10 de 35 18/04/2008 20:14

RECONOCEDORES DE VOZ

Uno de los campos de investigación actual relevantes relacionados con la informática es elreconocimiento de la voz. Se pretende una comunicación directa del hombre con el ordenador, sinnecesidad de transcribir la información a través de un teclado u otros soportes intermedios.

Usualmente los dispositivos de reconocimiento de la voz o de la palabra tratan de identificar fonemas opalabras dentro de un repertorio o vocabulario muy limitado. Un fonema es un sonido simple o unidad dellenguaje hablado. Un sistema capaz de reconocer, supongamos, siete palabras, lo que hace al detectar unsonido es extraer características o parámetros físicos inherentes a dicho sonido, y compararlos con losparámetros (previamente memorizados) de las siete palabras que es capaz de reconocer. Si, comoresultado de la comparación, se identifica como correspondiente a una de las siete palabras, se transmite ala memoria intermedia del dispositivo el código binario identificador de la palabra. Si el sonido no seidentifica, se indica esta circunstancia al usuario (iluminándose una luz, por ejemplo) para que el usuariovuelva a emitir el sonido.

Existen dos tipos de unidades de reconocimiento de voz:

Dependientes del usuario: En estos sistemas es necesario someter al dispositivo a un período deaprendizaje o programación, al cabo del cual puede reconocer palabras del usuario. En el período deaprendizaje el sistema retiene o memoriza las características o peculiaridades de los sonidosemitidos por el locutor, y que luego tendrá que identificar.

Independientes del usuario: Estos sistemas están más difundidos, pero el vocabulario que reconocensuele ser muy limitado. Los parámetros de las palabras que identifican vienen ya memorizados aladquirir la unidad. Son utilizados, por ejemplo, para definir el movimiento de cierto tipo de robots.En este caso el operador da verbalmente órdenes elegidas de un repertorio muy limitado, comopuede ser: para, anda, arriba, abajo,... La unidad cuando capta un sonido comprueba si correspondea uno de los del repertorio. En caso de identificación se transmite a la ordenador central lainformación necesaria para la ejecución del programa que pone en marcha y controla la acciónrequerida.

SISTEMAS BIOMÉTRICOS

No se debe confundir con la biometría, que es una técnica estadística empleada por biólogos. Lastecnologías de identificación biométricas no son nuevas (se puede mencionar como ejemplo a laidentificación de huellas dactilares) pero en cuanto a sofisticación tecnológica es un campo muy ampliopara explorar. Estas tecnologías se utilizan generalmente para aplicaciones de control de acceso yseguridad. Información sobre alguna característica fisiológica es digitalizada y almacenada en elordenador, esta información se emplea como un medio de identificación personal.

Algunas de las técnicas biométricas son:

Reconocimiento de iris: Aparentemente dos personas no pueden tienen el mismo patrón deformación del iris. La "morfogenesis caotica" del iris es un proceso de cambio del patrón deliris durante le primer año de crecimiento del ser humano.Reflexión retinalGeometría de la manoGeometría facialTermografía facial: Un termograma facial es la representación gráfica de las emanaciones decalor del rostro. Ante fluctuaciones de temperaturas el patrón calorífico del rostro se

Page 169: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

11 de 35 18/04/2008 20:14

mantiene invariable.Huellas dactilaresPatrón de voz

Una técnica novedosa es el uso de las uñas de las manos como sistema biométrico y también comomemoria óptica y otra técnica futura es basándose en la fotónica.

PANTALLA SENSIBLE AL TACTO

Son pantallas que pueden detectar las coordenadas (x,y) de la zona de la propia pantalla donde se acercaun puntero. Este es un sistema muy sencillo para dar entradas o elegir opciones sin utilizar el teclado.Antes de la introducción del PC de IBM, los equipos Hewlett Packard bajo MS-DOS, venían con unapantalla de este tipo, aunque dejaron de comercializarse al poco tiempo debido a su precio abusivo.

Se utiliza para la selección de opciones dentro del menú o como ayuda en el uso de editores gráficos. Confrecuencia se ve en los denominados kioskos informativos, cada vez más difundido en grandes empresas,bancos y en puntos de información urbana. Existen pantallas con toda su superficie sensible, y otras en lasque sólo una parte de ella lo es.

DIGITALIZADOR

Los digitalizadores o tabletas digitalizadoras o tabletas gráficas son unidades de entrada que permitentransferir directamente al ordenador gráficos, figuras, planos, mapas, o dibujos en general. Esto se hacepasando manualmente una pieza móvil por encima de la línea a digitalizar y automáticamente setransfieren las coordenadas (x,y) de los distintos puntos que forman la imagen. Es decir, con eldigitalizador, partiendo de un dibujo se obtiene una representación digital de él, en el interior delordenador.

Un digitalizador consta de tres elementos:

Tabla: Donde se ubica el dibujo a digitalizar (puede ser opaca o transparente).

Mando: Con el que el usuario debe recorrer el dibujo. Suele tener forma de lápiz o cursor, y estáunido al resto del sistema por un cable flexible. En el último caso el cursor tiene una ventanacerrada con una lupa, en cuyo interior se encuentra embebida una retícula en forma de cruz paraseñalar o apuntar con precisión el punto a digitalizar. El mando puede disponer de uno o variospulsadores para controlar la modalidad de funcionamiento, forma de transmisión y selección deopciones del programa que gestiona la digitalización.

Circuitos eléctrónicos: Controlan el funcionamiento de la unidad.

ESCANER

Es un dispositivo parecido a una fotocopiadora digital, se emplea para introducir imagenes en unordenador. Las imagenes que se desee capturar deben estar correctamente iluminadas para evitar brillo ytonos no deseados. Son dispositivos de entrada de datos de propósito especial que se empleanconjuntamente con programas para gráficos o de OCR y pantallas de alta resolución. La mayor partecapturan imagenes en color.

Page 170: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

12 de 35 18/04/2008 20:14

Los programas que controlan el escaner suelen presentar la imagen capturada en la pantalla. Los coloresno tienen porqué ser necesariamente los originales, es posible capturar las imagenes en blanco y negro otransformar los colores mediante algún algoritmo interno o modificar y mejorar la imagen. Sin embargo, yen general, los colores que produce un scanner suelen ser los correctos.

SISTEMAS DE RADIOFRECUENCIA (RFID)

La tecnología de identificación por radio frecuencia (RFID) es un método electrónico de asignar uncódigo de información a un producto, proceso o persona y usar estos datos para identificar o acceder ainformación adicional al respecto.

Los sistemas de identificación por radio frecuencia consisten generalmente de dos componentes:

El "transponder" que esta de alguna manera unido al elemento a ser identificado.

El lector que detecta la identidad del "transponder".

En algunos casos los transponders pueden ser programados para retransmitir un dato que representa suidentidad. En otros casos tiene un funcionamiento discreto (ON/OFF) como los antirrobo que se ponen enlas prendas de vestir de los comercios.

El funcionamiento de los dispositivos de RF/ID se realiza a frecuencias entre los 50 KHz y 2.5 GHz y abaja potencia. Las unidades que funcionan a bajas frecuencias (50 KHz-14 MHz) son de bajo costo, cortoalcance, y resistentes al "ruido" entre otras características. No se requiere de licencia para operar a esterango de frecuencia. Las unidades que operan a frecuencias mas altas (14 MHz-2.5 GHz), son el otro ladode la medalla.

La tecnología del transponder se basa en la aplicación de un transmisor/receptor encapsulado en un "tag".El receptor se activa por medio de una señal enviada por el lector (sistema pasivo). Ellector genera un campo magnético cuya señal de RF es captada por el receptor del "tag".Este a su vez activará al transmisor el cual enviará un mensaje codificado único, que esdecodificado por el lector y almacenado en el ordenador.

Esta tecnología encuentra aplicación en identificación de especies animales, vehículos enmovimiento, bonos de transporte público, contenedores de basura, parihuelas (pallets),paquetes, control de máquinas herramientas, identificación de líneas de tuberías, controlde inventario de balones (botellas) de gas, control de activos, identificación de animales,identificación de personas, identificación de vehículos robados, monitoreo de líneas deproducción. control de acceso (por ej., en Murcia, en zonas peatonales, coches de

Page 171: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

13 de 35 18/04/2008 20:14

residentes), producción de carrocerías, identificación de partes, análisis de aguas,monitoreo de estacionamiento de vehículos, identificación de antiguedades, control deinventario, control de desechos tóxicos (y desechos en general), identificación de análisis de sangre.

Enlace recomendado: Telepeaje en las autopistas españolas

La siguiente es una lista de algunos intentos de normalizar la tecnologia RF/ID en la industria:

US Military X3T6 CommitteeAmerican Railroad AsociationAutomatic Identification Manufacturers (AIM), Small Animal Task ForceInternational Airline Transport Association (IATA), Identificacion de equipajeISO: RF/ID para animalesISO 11784: 1996 Code StructureISO 11785: 1996 Technical Concept

Una aplicación que se está desarrollando de forma experimental, es para la gestión de equipajes enaeropuertos. Se están usando "tags" de bajo costo, integrados en las etiquetas con códigos de barras que seadhieren a los equipajes. En un futuro próximo pueden reemplazar a los códigos de barras disponibles enlos productos de consumo habitual, incluos puedne venir impresos en telas.

Otra aplicación útil, es el sumnistro de combustible a vehículos en estaciones de servicio. TexasInstruments ha puesto he marcha unos "tags" con un código deidentificación del cliente, enlazado con una tarjeta de pago. Milisegundosdespués de llegar al suministrador, el código se captura y autentifica, seactiva el dispensador de combustible y se realiza la compraelectrónicamente, sin necesidad de efectivo, cheques o tarjetas.

En Murcia se utilizan para gestión de accesos, por parte de residentes, acalles peatonales y en los bonos de transporte en los autobuses urbanos.

Todavía no hay un concenso en cuanto a la estandarización de la tecnología RFID. Cuando eso suceda selogrará un tag genérico y un lector que en circunstancias ideales podría adquirirse de distintosproveedores.

6.3 Dispositivos de salida

SINTETIZADOR DE VOZ

Las unidades sintetizadoras de voz son dispositivos que dan los resultados de un programa emitiendosonidos (fonemas o palabras) similares al habla humana. Estos periféricos suelen incluir unmicroprocesador, memoria con programas y datos, un conversor D/A (digital-analógico), un amplificadorde audiofrecuencia y altavoz.

La mayor parte de los sintetizadores de voz tienen memorizados digitalmente cada uno de los fonemas opalabras que son capaces de emitir. Los datos que recibe un sintetizador procedentes del ordenadorcorresponden a la identificación de los fonemas o palabras a emitir. Una vez que se analiza el dato, seactiva una rutina encargada de generar el sonido correspondiente.

Los sonidos resultan "metálicos". Por lo general, estos sistemas incluyen programas que enriquecen lasposibilidades de los mismos, como generar frases o combinaciones de palabras, incluso hay sistemas quetraducen cantidades.

Page 172: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

14 de 35 18/04/2008 20:14

VISUALIZADORES ("DISPLAYS")

Los visualizadores son pequeñas unidades de salida que permiten al usuario leer una instrucción, un datoo un mensaje.

Los caracteres se forman partiendo de estructuras en módulos, cada uno de los cuales sirve para visualizarun carácter. Cada módulo contiene una serie de segmentos, siendo los más habituales de siete. Un carácterconcreto se visualiza activando determinados segmentos, dependiendo de la forma del símbolo.

El visualizador es el elemento de salida típico de las calculadoras de bolsillo y de los relojes digitales.

TRAZADOR DE GRAFICOS

Los trazadores de gráficos ("plotters") son dispositivos de salida que realizan dibujos sobre papel. Tienengran importancia ya que con ellos se obtienen directamente del ordenador planos, mapas, dibujos,gráficos, esquemas e imagenes en general.

El funcionamiento de un plotter se controla desde programa. El usuario puede incluir en su programainstrucciones para realizar las representaciones que desee con sus datos.

Los registradores gráficos se fundamentan en el desplazamiento relativo de un cabezal con el elemento deescritura, con respecto al papel. Dependiendo del tipo de gráfico se moverá sólo la cabeza, o la cabeza y elpapel. Según la forma en que se realiza el dibujo, los registradores se pueden clasificar en tres tipos:

De pluma.Electrostáticos.De inyección

En los registradores de pluma el dibujo se realiza mediante un cabezal en el que se insertan los elementosde escritura: plumas, bolígrafos o rotuladores. Cada elemento de escritura puede subirse o bajarse hastaentrar en contacto con el papel, todo ello controlado por programa.

Page 173: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

15 de 35 18/04/2008 20:14

Los registradores electrostáticos son impresoras electrostáticas. El sistema de tracción de papel es similaral de una impresora convencional. El dibujo se realiza línea a línea. El elemento de escritura estáconstituido por una serie de agujas cuya densidad puede variar.

Por lo que respecta a los de inyección, trabajan de forma análoga a una impresora de tinta, que sedescriben en el apartado correspondiente.

MONITORES

Hasta hace poco tiempo el tipo más habitual de pantalla era la que vemos en los ordenadores desobremesa, la de tubo de rayos catódicos (TRC), aunque cada vez se difunden más las de cristal líquido,habituales en los equipos portátiles.

La imagen de una pantalla TRC se forma al incidir un haz de electrones sobre la superficie interna de lapantalla que está recubierta de un material fosforescente, analogamente acomo se forman las imagenes en un televisor. Un campo electromagnéticodesplaza el haz de electrones de izquierda a derecha y de arriba a abajo y,dependiendo de la intensidad con la que inciden los electrones en lapantalla así de brillante será cada punto generado. La imagen, para servisualizada durante un determinado tiempo debe ser repetida o refrescadaperiódicamente (al menos 25 veces por segundo). Estas pantallas sedenominan pantallas de barrido.

Una imagen de pantalla no es continua sino que se forma por multitud depuntos de imagen ("pixel"). La pantalla está dividida en celdas (mediante una rejilla metálica o si estecnología Trinitron mediante unos alambres), en cada una de las cuales puede ir un carácter. La celdaestá constituida por una matriz regular de puntos de imagen.

Las pantallas se clasifican, según la capacidad o no de mostrar colores, en:

Monocroma: Los colores usuales en una monocromática son el blanco, ámbar o verde.Color: El color de cada punto se obtiene con mezcla (RGB) de los colores rojo, verde y azul,pudiéndose programar la intensidad de cada color básico.

Según su capacidad de representación se pueden clasificar en:

De caracteres: Sólo admiten caracteres.Gráficas: Permiten trazados de líneas y curvas continuas.

En las pantallas de caracteres, la memoria de imagen (que es específica o una parte de la memoria RAM)almacena la información correspondiente a cada celda (códigos de caracteres y sus atributos). En lamemoria ROM están los patrones de los caracteres, representados como una matriz de puntos. Sedenomina generador de caracteres a esta memoria de sólo lectura. En las pantallas gráficas el usuario tieneacceso al punto de imagen, pudiendo representar en ellas imagenes configuradas no sólo con las formasde caracteres incluidos en la ROM. En este caso, la memoria de imagen contiene la informacióncorrespondiente a cada punto de imagen (intensidad, color y otros posibles atributos), en vez de lacorrespondiente a cada celda. Los dibujos, a pesar de estar formados por puntos de imagen presentan unaapariencia de líneas continuas. La calidad de la pantalla gráfica depende de la densidad de puntos deimagen.

Los principales parámetros que caracterizan a una pantalla son:

Tamaño: Se da en función de la longitud de la diagonal principal, y se tiene la mala costumbre dedarla en pulgadas, que no es una unidad del Sistema Internacional de Unidades (SI). Las más

Page 174: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

16 de 35 18/04/2008 20:14

habituales son las de 431.8 mm (17"), aunque en muchos países se están utilizando superiores.

Número de celdas o caracteres: Lo usual es una representación de 24 filas por 80 columnas decaracteres.

Resolución: Es el número de puntos de imagen en pantalla. No depende del tamaño de la pantalla.Usualmente se consideran básicamente tres tipos de resolución (hay resoluciones superiores):

CGA 640*200 puntosVGA 640*480 puntos

SVGA 1024*768 puntos

En las pantallas de TRC se han de considerar unas normas de seguridad, dado que estos dispositivosemiten radiaciones de diversos tipos. La radiación más conocida (por sus efectos perjudiciales para lasalud) es la de rayos X, problema que está solucionado, pues todos los monitores llevan cantidadsuficiente de plomo en el cristal, como para reternerla en su mayor parte. Otro tipo de radiación es laproducida por campos eléctromagnéticos a muy bajas frecuencias y a extremadamente bajas frecuencias(ELF y VLF), según algunas investigaciones (no hay evidencias claras), susceptibles de producir cáncer.Para evitar este tipo de radiaciones los monitores han de ser homologados MPR, normativa sueca muyrestrictiva, hay otra aún más restrictiva, propuesta por los sindicatos suecos, es la conocida como TCO,(disponible, por ejemplo en Philips). En resumen, cuando se adquiera un monitor se ha de considerar quecomo mínimo lleve la homologación alemana (TÜV) o sus equivalentes en EE.UU. (UL) o para Canadá(CSA), aparte si se quiere de baja radiación ha de llevar la MPR II o la TCO. Cualquier monitor que noesté homologado es un peligro para el usuario. Desde el uno de enero de 1996, es obligatoria en los paísesde la Unión Europea, la certificación CE, que implica unos mínimos de seguridad, aunque no es unamarca de calidad, ni implica la homologación MPR II.

Una solución es poner filtros para la pantalla, pero si se quiere uno realmente bueno y que ofrezca lamisma seguridad que un monitor de baja radiación su precio es tan elevado, que merece la pena cambiarde monitor.

Las pantallas de otras tecnologías como plasma, cristal líquido ycristal líquido orgánico, son mucho más seguras pues la radiaciónque emiten es mínima.

La tecnología de plasma fue introducida a principio de los años1960 por la empresa japonesa Fujitsu, aunque hasta hace muy pocotiempo no se han logrado con tecnologías asequibles de fabricar yde bajo consumo. Una pantalla de plasma tiene un fundamentoanálogo a los tubos fluorescentes, es una pantalla plana conmuchos alvéolos (uno por pixel) cubierto por un elemento químicodel grupo de las tierras raras, para que la luz emitida por el plasma, que es en el rango ultravioleta sereemita en el espectro visible. En base a alvéolos de los tres colores fundamentales (rojo, verde y azul) ymediante la variación rápida del tiempo de iluminación, se logra crear tonos intermedios, de formaanáloga al cine digital- Aunque se anucia muchos en televisores, esta tecnología noe s rentable, son deprecio elevado, consumen mucha electricidad y la vida es limitada, pueden deteriorarse alguno alvéolos ypor lo tanto perdiendo calidad de imagen

Una nueva tecnología que puede reemplazar a los monitores TRC es la denominada "Flat Panel Display"(FPD). Esencialmente estas pantallas son híbridas entre las convencionales de rayos catódicos y laspantallas FED ("Field Emission Display"). Usan películas de diamante/carbono, resultando unas pantallasplanas de alta calidad (más brillo y resoluciones que las actuales) y que se pueden fabricar en las mismas

Page 175: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

17 de 35 18/04/2008 20:14

plantas que actualmente producen TRC.

Lo más novedoso son las pantallas de ordenador táctiles para ciegos, desarrolladas en la universidad deMálaga.

Una nueva tecnología ha dado lugar a pantallas flexibles, usan tecnología OLED, qu epodría competir conlas de LCD en el negocio multimillonario de los monitores planos. La tecnología OLED no necesita serretroiluminada, así que que consumen menos y son más delgados que los LCDs.Sin embargo, los analistasestiman que pasarán 10 años antes de que las pantallas OLED tengan tamaño como para competir conLCDs. Ahora mismo, las pantallas OLED se utilizan en teléfonos móviles y en maquinillas de afeitareléctricas.

Las pantallas flexibles OLED están atrayendo la atención porla posibilidad de ser enrrolladas y transportadas. En un nivelmás práctico, también son interesantes para las empresasporque la aplicación de la tecnología OLED a un fondoplástico es un sistema de producción más barato.

La empresa holandesa Philips ha presentado pantallas planasenrrolables, con muchas posibles aplicaciones, como mapaselectrónicos y periódicos electrónicos. Constan de dos partes,el frontal visual, un biestable electroforético, fabricado por Eink en Inglaterra y la base electrónica de polímero desarrollada

por Philips. Sus dimensiones son, 100 micrometros de espesor y un radio de enrollamiento de 7.5 mm,pudiendo enrollarse hasta 10000 veces.

El principal problema en los dispositivos portátiles es la alimentación eléctrica, NEC Corporation (Japón)ha presentado baterías flexibles ultradelgadas, recargables en tan sólo 30 segundos. Están fabricadas conun cátodo de plástico, llamado "organic radical polymer (ORB)"

Enlaces recomendados:Nuevas tecnologías de televisión, plasma frente LCDMonitores TFT, puntos que marcan la diferencia

MICROFILM

La salida de datos en microfilm es una técnica de representar los datos de salida. Las técnicas COM seusan en los bancos para llevar los registros de los balances diarios de cuentas. Esto supone un gran ahorrode papel, al evitar las salidas por impresora, al tiempo que reduce problemas de almacenamiento. Cada"página" se representa en una pantalla y se fotografía mediante una cámara especial. La imagen de la

página mide alrededor de 1.5 cm2. La película se corta en microfichas del tamaño de una postalconteniendo cada una cien páginas. Se emplea un lector de microfichas para proyectar la imagenaumentada de una página cuando es necesario leerla.

IMPRESORAS

Las impresoras son periféricos que escriben la información de salida sobre papel. Su comportamientoinicialmente era muy similar al de las máquinas de escribir, pero hoy día son mucho más sofisticadas,incluso algunas son fotocopiadoras o fax, conectadas con el ordenador. Junto a las pantallas, losdispositivos más utilizados para poder ver en forma inteligible los resultados de un programa de

Page 176: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

18 de 35 18/04/2008 20:14

ordenador.

Las impresoras tienen dos partes diferenciadas: la parte mecánica (alimentación y arrastre) y la parteelectrónica.

Las impresoras tradicionalmente utilizaban papel continuo, en cuyos márgenes existen unos taladros. Eneste caso, el arrastre se efectúa por un tractor que dispone de unos dientes metálicos que encajan en lostaladros laterales del papel. Actualmente la mayoría no necesitan papel continuo, efectuándose el arrastrepor fricción o presión, como en el caso de las máquinas de escribir o en las fotocopiadorasconvencionales.

Clasificación y tipos de impresoras

Existen diversos criterios para clasificar las impresoras.

Calidad de impresión: Considera la calidad de presentación y de contraste de los caracteres impresos. Lasimpresoras se clasifican en :

Normales: Como las impresoras de línea, de rueda y térmicas.Semicalidad. Como algunas impresoras matriciales.Calidad: Como las de margarita (obsoletas), tinta y láser.

Fundamento del sistema de impresión

Hay impresoras que realizan la impresión por impacto de martillos o piezas móviles mecánicas, y otrassin impacto mecánico.

El fundamento de las impresoras por impacto es similar al de las máquinas de escribir. Sobre la superficiede la línea a imprimir en el papel se desliza una cinta entintada, y delante de ésta pasa una pieza metálicadonde está moldeado el juego de tipos de impresión. Cuando pasa el tipo a grabar sobre su posición en elpapel, se dispara un martillo que golpea la cinta contra el papel, quedando impreso en tinta sobre el papelel carácter en cuestión. En otras impresoras de impacto cada carácter se crea por el disparo de ciertasagujas metálicas que conforman el carácter con un conjunto de puntos.

Las impresoras de impacto son muy ruidosas y tradicionalmente han sido las más utilizadas. Entre ellas seencuentran las impresoras de rueda, bola, margarita, matriciales, cilindro y cadena.

Las impresoras sin impacto forman los caracteres sin necesidad de golpes y utilizan otros principiosfísicos para transferir las imagenes al papel. Son impresoras sin impacto las térmicas, de inyección detinta y las láser.

Forma de imprimir los caracteres

En cuanto a este aspecto, las impresoras se pueden clasificar en:

De caracteresDe líneasDe páginas

Impresoras de caracteres

Realizan la impresión por medio de un cabezal que va escribiendo la línea carácter a carácter. Elcabezal se desplaza a lo largo de la línea que se está imprimiendo, sólo de izquierda a derecha

Page 177: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

19 de 35 18/04/2008 20:14

(impresoras unidireccionales) o bien, para conseguir mayor velocidad, de izquierda a derecha y dederecha a izquierda sucesivamente (impresoras bidireccionales).

Impresoras de líneas

En estas impresoras se imprimen simultáneamente todos o varios de los caracteres correspondientesa una línea de impresión.

Impresoras de página

Aquí se incluyen un grupo de impresoras que actúan de forma muy similar a las máquinasfotocopiadoras. Se caracterizan por contener un tambor rotativo donde se forma con un polvilloespecial (tóner) la imagen de la página a imprimir. Esta imagen, por contacto y un proceso defijación se transfiere al papel.

Descripción de distintos tipos de impresoras

Impresoras de rueda

Son impresoras de impacto y de caracteres. El cabezal de impresión está constituido por una ruedametálica que contiene en su parte exterior los moldes de los distintos tipos. La rueda se desplazaperpendicularmente al papel a lo largo de un eje o varilla metálica paralela al rodillo donde seasienta el papel. La rueda está continuamente girando y cuando el tipo a escribir pasa delante de lacinta entintada se dispara, por la parte posterior al papel, un martillo que hace que el carácter seimprima en tinta sobre el papel. Una vez escrito el carácter, la rueda se desplaza a lo largo de lavarilla, hacia su derecha, o pasa a la línea siguiente. Estas impresoras están en desuso.

Impresoras de margarita (ya no se fabrican)

Fueron impresoras de buena calidad de impresión, sin embargo eran lentas. Los caracteres seencuentran modelados en la parte más ancha de los sectores (pétalos) de una rueda en forma demargarita. La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja demargarita del carácter a imprimir frente a la cinta entintada, golpeando un martillo al pétalo contrala cinta, escribiéndose el carácter. El juego de caracteres se puede cambiar sin más que sustituir lamargarita. Eran análogas a las máquinas de escribir.

Impresoras matriciales o de agujas

También denominadas de matriz de puntos. Los caracteres se forman por medio de una matriz deagujas que golpea la cinta entintada, trasfiriéndose al papel los puntos correspondientes a las agujasdisparadas.

Los caracteres son punteados, siendo su calidad muy inferior a los continuos producidos por unaimpresora láser. No obstante, algunos modelos de impresoras matriciales, tienen la posibilidad derealizar escritos en calidad de impresión, para ello, los caracteres se reescriben con los puntosligeramente desplazados, solapándose los de la segunda impresión con los de la primera, dando unamayor apariencia de continuidad.

Impresoras de tambor (ya no se fabrican)

De estas impresoras existieron dos dos tipos, de tambor compacto y de ruedas. Ambos tipos sonimpresoras de líneas y de impacto. La impresora de tambor compacto contiene una pieza metálica

Page 178: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

20 de 35 18/04/2008 20:14

cilíndrica cuya longitud coincide con el ancho del papel. En la superficie externa del cilindro otambor se encuentran modelados en circunferencias los juegos de caracteres, estando éstosrepetidos tantas veces como posiciones de impresión de una línea. El tambor está constantementegirando, y cuando se posiciona una generatriz correspondiente a una determinada letra, la "A" porejemplo, se imprimen simultáneamente todas las "A" de la línea.

Las impresoras de tambor de ruedas son similares, sólo que cada circunferencia puede girarindependientemente. Todos los caracteres de la línea de impresión se escriben a la vez,posicionándose previamente cada tipo en su posición correcta. En lugar de una cinta entintada, estasimpresoras suelen llevar una pieza de tela entintada del ancho del papel.

Impresoras de barras

Los caracteres se encuentran moldeados sobre una barra de acero que se desplaza de izquierda aderecha a gran velocidad, oscilando delante de la línea a escribir. El juego de caracteres estárepetido varias veces. Cuando los moldes de los caracteres a imprimir se posicionan delante de lasposiciones en que han de quedar en el papel se disparan por detrás de éste unos martillos,imprimiéndose de esta forma la línea. El número de martillos coincide con el número de caracterespor línea.

Impresoras de cadena

El fundamento es exactamente igual al de las impresoras de barra. Ahora los caracteres seencuentran grabados en los eslabones de una cadena. La cadena se encuentra cerrada y girandoconstantemente a gran velocidad frente a la cinta entintada.

Impresoras térmicas

Son similares a las impresoras de agujas. El calor se transfiere desde el cabezal por una matriz deresistencias en las que al pasar una corriente eléctrica se calientan, formándose los puntos en elpapel. Son habituales en lso acjeros bancarios y tikets de compra. Estas impresoras pueden ser:

De caracteres: Las líneas se imprimen con un cabezal móvil.De líneas: Contienen tantas cabezas como caracteres a imprimir por línea. Son más rápidos.

Impresoras de inyección de tinta

El descubrimiento de esta tecnología fue fruto del azar. Al acercar accidentalmente el soldador, porparte de un técnico, a un minúsculo cilindro lleno de tinta, salió una gota de tinta proyectada,naciendo la inyección de tinta por proceso térmico. La primera patente referente a este tipo deimpresión data del año 1951, aunque hasta el año 1983, en el que Epson lanzó la SQ2000, nofueron lo suficientemente fiables y baratas para el gran público. Actualmente hay variastecnologías, aunque son muy pocos los fabricantes a nivel mundial que las producen.

El fundamento físico consiste en emitir un chorro de gotas de tinta ionizadas que en su recorrido esdesviado por unos electrodos según la carga eléctrica de las gotas. El carácter se forma con la tintaque incide en el papel. Cuando no se debe escribir, las gotas de tinta se desvían hacia un depósito deretorno, si es de flujo contínuo, mientras que las que son bajo demanda, todas las usadas con losPC`s, la tinta sólo circula cuando se necesita. Los caracteres se forman según una matriz de puntos.Estas impresoras son bidireccionales y hay modelos que imprimen en distintos colores.

Page 179: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

21 de 35 18/04/2008 20:14

Un ejemplo de aplicación de la impresión con tinta es el marcado de lote y fecha de caducidad enbotellas de productos alimenticios. Este proceso se efectúa con el sistema de impresión mediantecirculación contínua Los equipo de marcado de botellas sufren una degradación progresiva en latinta que contienen, debida al proceso tecnológico de funcionamiento. el sistema de circulacióncontínua de tinta provoca que una partícula de tinta pase por el cabezal impresor gran cantidad deveces antes de ser proyectada. La tinta al sufrir presión, entrar en contacto con el aire y sufrir lacarga de las placas electrostáticas pierde propiedades eléctricas, se evapora parte del disolvente ysufre contaminación debida al polvo y humedad del aire. Este sistema incorpora un viscosímetroque controla la cantidad de disolvente que la tinta pierde al entrar en contacto con el aire y lacompensa añadiendo aditivo, que además de disolvente añade sales y otros elementos pararecuperar la tinta.

La contaminación que la tinta sufre con el contacto del aire, provoca peor calidad de impresión,llegando un momento en el que hay que cambiar la tinta. El equipo incorpora un depósito central decambio fácil e instantáneo que avisa con 24 horas de antelación al momento de sustitución. Eldepósito central incorpora el filtro principal de tinta, con lo que se cambia sin intervención cada vezque se repone el depósito.

Impresoras electrostáticas

Las impresoras electrostáticas utilizan un papel especial eléctricamente conductor (de color grismetálico). La forma de los caracteres se produce por medio de cargas eléctricas que se fijan en elpapel por medio de una hilera de plumillas que abarcan el ancho del papel. Posteriormente a estarformada eléctricamente la línea, se la hace pasar, avanzando el papel, por un depósito donde se lapulveriza con un líquido que contiene suspendidas partículas de tóner (polvo de carbón). Laspartículas son atraídas en los puntos que conforman el carácter. Estas impresoras de línea son muyrápidas.

Impresoras láser

Estas impresoras tienen una gran importancia por su elevada velocidad, calidad de impresión,relativo bajo precio y poder utilizar papel normal.

Su fundamento es muy parecido al de las máquinas de fotocopiar. La página a imprimir se transfiereal papel por contacto, desde un tambor que contiene la imagen impregnada en tóner.

Page 180: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

22 de 35 18/04/2008 20:14

La impresión se realiza mediante radiación láser, dirigida sobre el tambor cuya superficie tienepropiedades electrostáticas (se trata de un material fotoconductor, tal que si la luz incide sobre susuperficie la carga eléctrica de esa superficie cambia). Si es en colores, suelen llevar tres tóneres ytres tambores.

Impresoras LED

Son análogas a las laser, con la única diferencia que la imagen se genera desde una hilera de diodos,en vez de un laser. Al ser un dispositivo fijo, son más compactas y baratas, aunque la calidad espeor. Algunas de las que se anuncian como laser a precio barato, son de esta tecnología, porejemplo Fujitsu y OKI.

Enlace recomendado: Tecnologías de impresión en color

PARAMETROS QUE CARACTERIZAN A UNA IMPRESORA

Velocidad de escritura

Normalmente la velocidad de impresión se da en las siguientes unidades:Impresoras de caracteres: Caracteres por segundo (cps).Impresoras de líneas: Líneas por minuto (lpm).Impresoras de páginas: Páginas por minuto (ppm).

Caracteres por línea

Es el número máximo de caracteres que se pueden escribir en una línea.

Ancho del papel o longitud del carro

Se suele dar en pulgadas.

Densidad de líneas

Se expresa normalmente en líneas por pulgada e indica el espaciado entre líneas.

Tipos de letras

Una misma impresora puede escribir con distintos tipos de letras. Las de agujas usualmente puedenescribir en tamaño normal, comprimido y elongado. El cambio del tipo de letra se realiza por

Page 181: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

23 de 35 18/04/2008 20:14

programa.

Color

Es la posibilidad de imprimir en colores. Usualmente los colores se forman a partir de tres básicos(como en los monitores en color), pero a partir del cian, magenta y amarillo.

Resolución

Una gran parte de impresoras forman los caracteres por unión de puntos. La resolución se suele daren número de puntos por unidad de superficie.

6.4 Dispositivos de memoria secundaria

Una característica que distingue un soporte de almacenamiento de los de entrada o de salida (aparte de laposibilidad de realizar operaciones de entrada/salida indistintamente) es que en el soporte dealmacenamiento los datos son legibles sólo por la máquina y no lo son directamente por el hombre.Mientras los dispositivos de memoria permiten un acceso inmediato del programa a la información quecontienen, los de almacenamiento guardan la información en un soporte que no permite el accesoinmediato desde el programa y se requiere un paso previo de lectura (o entrada) que recupera dichainformación desde el almacenamiento y lo lleva a la memoria.

Si la memoria de los ordenadores tuviera gran capacidad y no fuera volátil no serían precisos sistemas dealmacenamientos externos. Si se han inventado distintos tipos de dispositivos de almacenamiento de losdatos es por la imposibilidad de disponer de memoria con capacidad suficiente. Sacrificando lainmediatez del acceso se obtienen capacidades muchísimo mayores a precios muy inferiores y contiempos de respuesta aceptables para cada tipo de aplicación. Los soportes magnéticos son el medio másusual de almacenar la información. Entre la variedad existente, destacan: cinta, disco y disquete.

Las principales características de estos soportes son:

Reutilizabilidad (salvo en los primitivos).Elevada capacidad de almacenamiento.No volátiles.Más económicos que la memoria central (RAM).

Dentro de los dispositivos de almacenamiento secundario hay que tener en cuenta en el momento de suelección las siguientes características:

Tiempo de acceso a los datos.Velocidad de transferencia de los datos.Capacidad total de almacenamiento.Tipo de acceso del dispositivo (secuencial o directo).Costo/bit del dispositivo.Densidad de almacenamiento.

Recientemente se han desarrollado soportes de almacenamiento de tecnología óptica que tienen mayoresdensidades de grabación que las magnéticas convencionales.

Page 182: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

24 de 35 18/04/2008 20:14

Se distinguen los siguientes tipos de dispositivos de almacenamiento:

DISCOS MAGNETICOS

Los discos magnéticos son los sistemas de almacenamiento que en la actualidad tienen más importancia,ya que constituyen el principal soporte utilizado como memoria masiva. A pesar de que son más costososque las cintas, son de acceso directo, y con ellos se consiguen tiempos medios de acceso mucho menoresque con las cintas.

Un disco está constituido por una superficie metálica o plástica recubierta por una capa de una sustanciamagnética. Los datos se almacenan mediante pequeños cambios en la imanación, en uno u otro sentido. El

plato o disco puede ser de plástico flexible o rígido, en el primer caso tenemos disquetes odiscos flexibles (en inglés floppy disk o diskettes) y en el segundo caso discos rígidos oduros.

Tanto en los discos rígidos como en los flexibles la información se graba en circunferenciasconcéntricas, no percibiéndose visualmente. Cada una de estas circunferencias constituye una pista. Asímismo el disco se consideradividido en arcos igualesdenominados sectores, de estaforma cada pista está compuesta desectores. Los sectores de las pistasmás exteriores son de mayorlongitud que las interiores, ahorabien el número de bits grabados encada sector es siempre el mismo,con lo que la densidad degrabación será mayor en las pistasinteriores que en las exteriores. Lossectores comienzan con unacabecera de identificación,indicando su dirección completa.Un cilindro es un conjunto depistas, una en cada disco, que son accesibles simultáneamente por el conjunto de cabezas.

La lectura y escritura en la superficie del disco se hace mediante una cabeza. Esta suele ser de tipocerámico, aunque inicialmente eran metálicas. La cabeza, en las unidades de cabezas móviles, estáinsertada en un extremo de un brazo mecánico, que se desplaza hacia el centro o hacia la parte externa deldisco, bajo el control de los circuitos electrónicos del periférico. El direccionamiento para leer o grabar unsector del disco se efectúa dando al periférico:

número de unidadnúmero de superficienúmero de pistanúmero del sector

El brazo sitúa rápidamente la cabeza encima de la pista correspondiente y espera a que el sector encuestión se posicione bajo la cabeza. En el acceso, por tanto, hay que considerar dos tiempos:

Tiempo de búsqueda de la pista (tb)Tiempo de espera al sector (te)

Page 183: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

25 de 35 18/04/2008 20:14

Luego el tiempo de acceso será ta = tb + te. En las unidades de cabezas fijas, hay una cabeza por pista ypor tanto ta = te. La unidad de transferencia de datos desde y hacia el disco es el sector.

Los disquetes suelen tener una o varias referencias físicas (orificios y muescas) para poder identificar lossectores y pistas. Esto se denomina sectorización hardware o física. En los disquetes de 133 mm sóloexiste un orificio de alineamiento y referencia. Este orificio, cuando el disco gira, es detectado por unconjunto fotodiodo/fototransistor utilizándose como punto de referencia para el acceso a las distintaspistas y sectores. Las unidades de discos rígidos suelen tener unas muescas que identifican los límites decada sector y el primer sector de la pista.

Antes de utilizar un disco es necesario efectuar en él unas grabaciones denominadas "dar formato" aldisco. Al formatear un disco se definen por software las pistas y sectores, además se inicializa undirectorio para la información sobre el contenido del disco (es como un índice). El formateo efectúa unasectorización que detecta y elimina para posteriores grabaciones, las zonas del disco deterioradas. Elformateo incluye tablas con los nombres de los ficheros grabados en él, fecha y hora en que se crearon oactualizaron por última vez, espacio que ocupan y direcciones físicas donde se encuentran.

Clasificación y tipos de discos

Básicamente existen cinco tipos de unidades de discos:

Discos de cabezas fijasPaquetes de discosDiscos cartuchoDiscos Winchester (disco duro)Disquetes y extraibles

A continuación se describen brevemente cada uno de ellos:

Discos de cabezas fijas

Son discos que tienen una cabeza individual de lectura/escritura para cada pista, con ello seconsigue un tiempo de acceso relativamente bajo, ya que este tiempo viene fijado únicamente por lavelocidad de giro del disco. Existen unidades con un sólo plato o con varios.

Paquetes de discos

Son unidades compuestas por varios platos que giran solidariamente alrededor de un eje común.Las cabezas le lectura/escritura son móviles, existiendo una por superficie. Estas se desplazansimultáneamente a gran velocidad radialmente buscando la pista en que se encuentra el sector quese debe escribir o leer. Todas las cabezas se mueven al unísono, y cada cabeza lee/graba en el sectorcorrespondiente a su superficie, trasfiriéndose la información en paralelo.

En un instante dado, por tanto, se leen/graban las mismas pistas de las distintas superficies. Cadagrupo de estas pistas se denomina cilindro de pistas, existiendo tantos cilindros como pistas.

Usualmente las superficies externas no se utilizan para grabar, así una unidad con seis platos puedeutilizar sólo 10 superficies.

Existen unidades de paquetes de discos en que éstos son intercambiables.

Page 184: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

26 de 35 18/04/2008 20:14

Discos-cartuchos

Consiste en único plato con dos superficies de grabación. Usualmente estas unidades son duales, esdecir, contienen dos subsistemas, uno de ellos con un plato fijo (donde se graba, por ejemplo, elsistema operativo) y el otro con un plato intercambiable. Para desmontar el disco intercambiable esnecesario esperar a que las cabezas se retraigan y el disco se pare.

Discos Winchester (disco duro)

Es un desarrollo más reciente. Es un disco pequeño pero de elevada precisión y con gran capacidadde almacenamiento. Está permanentemente montado en su unidad. Los platos de estas unidadesestán herméticamente cerrados y son fijos. El hecho de que estén cerrados es por reducir los efectosde la suciedad ambiental. No es necesario el retraimiento de las cabezas en reposo, existiendo unapista específica de "aterrizaje". Las cabezas van más próximas a la superficie que en las anterioresunidades, lográndose grandes densidades de grabación. Por tanto, en pequeñas superficies sepueden almacenar mucha información. Son los habituales en los ordenadores personales. El vídeomostrado a continuación visualiza un disco duro destapado trabajando.

Actualmente hay varios tipos de sistemas de almacenamiento orientado hacia las empresas congrandes volúmenes de información, principalmente debido a las redes de ordenadores, SAN(storage area network), DAS (disk attached storage) y NAS (network attached storage) son las trestecnologías que se están implantando, estando su precio al alcance de las pequeñas y medianasempresas (PYMES).

Nueva tecnología de cabezas HAMR

Actualmente el disco duro de menor capacidad que se puede conseguir para unordenador personal es de 100 GO, esta gran mejora de capacidad se debe al grandesarrollo de las tenologías en las cabezas lectoras/grabadoras.

Recientemente, Seagate una empresa muy conocida en el campo de los discos

Page 185: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

27 de 35 18/04/2008 20:14

duros, ha presentado una nueva tecnología para grabación de datos en soportesmagnéticos, "grabación magnética asistida por el calor", cuya sigla en inglés esHAMR, que posibilitará densidades del orden de decenas de terabit por centímetrocuadrado. Por ejemplo, en el disco duro de un ordenador portátil cabrá todo elcontenido de la biblioteca del Congreso de EE.UU.

Con las tecnologías actuales se ha alcanzado el límite físico y pronto el tamaño delbit almacenado en la superficie magnética será tan pequeño que se hará inestabledebido al fenómeno físico del superparamagnetismo. Los soportes magnéticos másestables (en base a hierro y platino autoordenado) no son aptos para las actualescabezas, por lo que esta nueva tecnología, en base a un láser, calienta la zonadonde se va a grabar un bit de información, al enfriarse posteriormente lainformación permanece grabada, siendo legible por las cabezas actuales.

Disquettes

Los disquetes son pequeños discos intercambiables, cuyos platos son flexibles, ya que estánonstituidos por un material plástico.

Los de 133 mm son también denominados minidisquetes, actualmente los más empleados son losde 90 mm, denominados microdisquetes.

La superficie se encuentra protegida por una funda recubierta internamente de un material quefacilita el deslizamiento rotacional del plato. En la funda hay una abertura radial que abarca a todaslas pistas; a través de esta ventana las cabezas de la unidad de disquetes acceden a la información.

La grabación, dependiendo del tipo de unidad, puede efectuarse en una única superficie, es decir, enuna sola de la caras, o en doble cara. También se puede efectuar en densidad normal (simpledensidad) o doble densidad.

Los disquetes hasta hace muy poco tiempo eran un elemento excelente para actuar como memoriamasiva auxiliar de microordenadors personales.

PARAMETROS QUE CARACTERIZAN EL COMPORTAMIENTO DE UN DISCO

Los principales parámetros que caracterizan el funcionamiento de un disco son:

Tipo de disco: Indica la tecnología y estructura física del mismo. Los tipos básicos son: discos decabezas fijas, paquetes de discos, cartuchos de discos, discos Winchester y disquetes.

Capacidad: Indica el contenido en octetos que es capaz de almacenar. La capacidad dealmacenamiento depende del tamaño de la superficie de grabación, número de superficies y tipo degrabación (simple o doble densidad).

Tamaño: Indica el diámetro del plato donde se encuentran las superficies imanables.

Tiempo medio de acceso: Es el tiempo medio que la cabeza lectora/grabadora tarda en acceder a unsector determinado.

Velocidad de transferencia: Indica el número de octetos que se transfieren por unidad de tiempo,

Page 186: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

28 de 35 18/04/2008 20:14

entre la ordenador central y el dispositivo o viceversa.

Velocidad de rotación: Es el número de revoluciones por minuto a que gira el plato que contiene lasuperficie imanable.

Número de superficies: Es el número de superficies grabables.

Número de cabezas: Es el número de cabezas lectoras/grabadoras de que consta la unidad.

Número de pistas: Es el número de circunferencias grabables. Se suele indicar el número de pistaspor superficie.

Número de sectores por pistas: Es el número de bloques o registros físicos que hay en una pista.

Número de palabras por sector: Es el número de palabras que pueden grabarse en un sector.

Bits por palabra: Indica el número de bits que utilizan las palabras grabadas.

Densidad máxima: Indica la máxima densidad de grabación en las pistas, es decir, la densidad degrabación en la pista más interiores. Este parámetro se indica en bits/pulgada o bits/cm.

Código de grabación: Es el código usado para la grabación magnética de la información. Desde elpunto de vista práctico interesa conocer si la grabación se efectúa en simple o doble densidad.

CINTAS MAGNETICAS

Es el medio más barato para almacenar grandes cantidades de datos. Las cintas están formadas por unasustancia plástica recubierta de material imanable, por su aspecto, recuerdan a las empleadas para lareproducción del sonido. Las cintas magnéticas se basan en los mismos principios que los discosmagnéticos. La lectura y grabación se efectúa haciendo pasar la cinta por unas cabezaslectoras/grabadoras. Usualmente se lee simultáneamente el contenido de varias pistas requiriéndose unelemento lector/grabador por pista. Por lo general el conjunto de bits que se leen simultáneamentecorresponde a un carácter con un bit adicional de paridad.

La grabación de una cinta se hace por bloques de caracteres de una longitud preestablecida. En el caso delas cintas, debido a la inercia, entre dos bloques consecutivos se desperdicia un determinado espacio quese denomina interbloque. Cada bloque contiene, además de los datos del usuario, líneas adicionalesredundantes para poder detectar automáticamente posibles errores de grabación y secuencias de caracteresy espacios identificadores de los límites del bloque. Los extremos inicial y final de la cinta contienen unasmarcas metálicas pegadas denominadas BOT (comienzo de la cinta) y EOT (fin de la cinta) paradetección automática del inicio y fin de la cinta.

La capacidad de una cinta depende fundamentalmente de su longitud, densidad de grabación, longitud debloque y formato de grabación. Las cintas magnéticas son un soporte de información barato y de grancapacidad, pero son muy lentas (acceso secuencial).

CD-ROM

La información se almacena en un disco compacto o "compact disc" (CD) en forma digital, de modosemejante a los de audio. Sobre una capa de plástico se graban, con un haz de láser, los agujeros o marcasque posteriormente detectará la unidad lectora (los CD creados de forma masiva se hacen a partir de unmolde con los datos de un disco maestro). La lectura se produce, y en su caso grabación, mediantetécnicas ópticas, con un láser de baja potencia, que garantiza que no va a sufrir ningún daño. Gracias a la

Page 187: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

29 de 35 18/04/2008 20:14

precisión de esta técnica, es posible disponer grandes cantidades de información en un espacio muyreducido. Cada bit en estos discos de llama pit.

Un inconveniente es que los primeros de estos dispositivos, una vez grabados no podían ser reutilizadospara escribir. Por lo que respecta a los CD-R, así denominados los grabables, se comercializan con preciosmuy asequibles, existiendo también regrabables, CD-RW. El fundamento de estos soportes es unasustancia que cambia de fase al ser irradiada con un laser más potente que el de los lectores de CDnormales, apareciendo entonces para la lectura como si hubiera pits análogamente a los CD generados apartir de un master. Actualmente en España estos soportes han de incluir un canon para la SGAE, queincluso en algunos casos supera al valor del soporte en sí.

Existe otro tipo de discos ópticos grabables por el usuario, son los conocidos como WORM, se grabanuna vez pero se pueden leer múltiples veces. Una evolución de estos son losconocidos como discos magnetoóptcos, compatibles con los anteriores pero queadmiten borrar la información lo cual permite la reescritura. Las capacidades son delorden de gigaoctetos.

La gran ventaja de los discos ópticos es la permanencia de la información durantetiempos muy superiores a la grabada en soportes magnéticos, sin embargo son máslentos, lo cual los hace poco adecuados bajo determinadas circunstancias.

Como ejemplo de la complejidad que suponen desde el punto de vista matemático estos sistemas ópticos,se muestra el sistema de corrección/detección de errores/borrones en un CD. El sistema dealmacenamiento y reproducción del CD fue diseñado, por Philips en junio de 1980.

La señal analógica que transmite el sonido es muestreada 44100 veces por segundo, y a cada muestra, se

le asigna un valor numérico (amplitud de la señal) entre 0 y 216 - 1. Este valor da un vector binario de 16

componentes, que se escribe como dos elementos de GF(28). Teniendo en cuenta que transmitiremos

señal estéreo, cada muestra estará formada por cuatro elementos de GF(28), dos para el canal derecho ydos para el canal izquierdo. La información es grabada después de haberla codificado concatenando dos

códigos RS.sobre GF(28), con intercalado. La longitud de estos códigos es n =28 - 1 = 255, su dimensiónes k = n - d + 1 = 251 y su distancia mínima es d = 5.

En el canal interno de la concatenación no se usa el código RS(255, d = 5), sino el código recortado hastauna longitud de n = 28. Por abuso de lenguaje diremos que utilizamos un código RS(28,d = 5), sobreGF(28). En el canal externo de la concatenación se usa el mismo código RS, recortado hasta longitud n =32; hablaremos del código RS(32, d = 5).

En el esquema de la figura se recogen los rasgos más característicos del proceso de concatenación.

La grabación en disco se hace en una pistaespiral-marcando, físicamente, áreas; planas y áreashundidas. Cada vez que ocurre una transición de una áreaplana a una área hundida, o viceversa, se lee un "1" y encaso contrario se leen "0", según la longitud de la zonarecorrida sin cambiar de área. Por ejemplo, en la figuraobservamos la secuencia 00 1000 1000000 100 100001000, grabada en el disco.

Page 188: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

30 de 35 18/04/2008 20:14

La transición entre áreas viene dada por los cambios de intensidad de la luz reflejada por el disco,proveniente de una fuente láser. Por razones técnicas, en cada área debe haber un mínimo de dos ceros yun máximo de diez. En principio, los bits que salen de la última matriz de intercalado del diagramaanterior no cumplen esta propiedad y, por tanto, antes de proceder a la grabación definitiva hay quearreglar la situación. Esto se consigue con la técnica EFM, que transforma cada símbolo de GF(28) en unasecuencia de 17 bits con las propiedades requeridas. Además, a cada trama de 544 bits se le añaden 27bits de sincronización y de direccionamiento, que permitirán la búsqueda rápida de la información.

En total, cada seis muestras iniciales (24 elementos de GF(28) = 192 bits) se transforman en 571 bitsgrabados en el CD. La tasa de transmisión de la información es de 192/571 aproximada a 1/3. (La tasa detransmisión de la información, considerando únicamente los códigos, vendría dada por k = (28/32)(24/28) = 3/4). Cada segundo de música necesita 44100 muestras, y cada una 571/6 bits. En definitiva, 4.2Mb/s. Cada disco tiene una capacidad de unos 20000 Mb que, traducido a tiempo, representa unos 80minutos de audición.

Funcionamiento de los dos códigos concatenados. Proceso CIRC (Cross Interleaved Reed-SolomonCode). El código RS(32,28) tiene una distancia mínima d = 5, puede corregir 2 errores o bien se puedeutilizar para corregir 1 error y detectar 3. En nuestro caso lo utilizaremos para corregir un único error. Sien el decodificador encontramos un error, lo corregimos. En caso contrario, damos como borrones los 28símbolos que salen del decodificador y entran en el canal externo.

El decodificador externo RS(28,24) tiene distancia mínima d = 5 y lo utilizaremos para corregir 4borrones. Tal como está montada la matriz de intercalación, es posible que este código corrija hasta unmáximo de 112 x 4 = 448 borrones de GF(28), es decir 3584 bits de datos, que quedan en 3072 bits deinformación real, equivalentes a unos 3 mm en una pista del CD.

Además, en el caso de que un vector a decodificar en el código externo tenga más borrones que los que sepueden corregir, se daría como nulo y, en su lugar, se haría la interpolación de las palabras anterior yposterior.

VIDEO DISCO VERSATIL (DVD) Es un sistema semajante a los CD-ROM, pero usando láser dedistinta fecuencia, lo cual da lugar a densidades de grabación más elevadas (técnicamente es posiblealcanzar los 50 GO), e incluso por una misma cara se pueden tener tres capas de grabación. Actualmentehay varias tecnologías de grabación, que como se puede ver en la siguiente tabla son incompatibles entresí, siendo un periférico habitual en los ordenadores personales.

Características DVD DVD-RAM DVD-R DVD-RW DVD+R DVD+RW

Capacidad una cara 2.6-4.7 3.95-4.7 4.7 4.7 4.7

Longitud onda láser 660-685 635-650 650 650 650

Distancia entre pistas (mm) 1.15-0.65 .74 .74 .74 .74

Tipo de soporte Cambio de fase Quemado Cambio de fase Quemado Cambio de fase

Modo de escritura Z-CLV CLV CLV CLV y CAV CLV y CAV

Máxima velocidad escritura 1x 2x 1x 2.4x 2.4x

Número escrituras 100000 1 1000 1 1000

1x=1.385 MOctetos/sTecnologías de giro: CAV=velocidad angular constante, CLV=velocidad lineal constante

Page 189: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

31 de 35 18/04/2008 20:14

El año 2006 vio la llegada al mercado de dos tecnologías basadas en el láser violeta de GAn/InGaN,"Blue-Ray Disc" (BRD) de Sony e "Hight Definition DVD" (HD-DVD) de Toshiba y NEC. Ambossistemas de almacenamiento compiten por el mercado de los DVD, que se piensa que en una década ya noexista, y también se pensaba que competirían entre sí al no ser compatibles, sin embargo en febrero de2008 Toshiba ha anunciado que deja de fabricar HD-DVD. Hay otra tecnología revolucionaria, la empresaInPhase Technologies ha comercializado el primer sistema de almacenamiento "Holographic-ROM"(H-ROM), que funciona con un láser rojo (como los DVD) o con un láser azul. Se logran capacidades de300 Goctetos (en el futuro 1.6 Teraoctetos) en un disco de 130 mm y con velocidad de transferencia de 20Moctetos/s. Por lo que respecta a futuros sistemas, es de destacar el desarrollo de científicos de Israel queusa óptica de dos fotones y como soporte una variación del polimetilmetacrilato, denominada ePMMA. Elsistema se fundamenta en 200 capas separdas 5 micrometros (micras) creadas mediante un láser rojo, y enlugar de los pits de los CD y DVD actuales, implementa un proceso de absorción no lineal de dos fotones.Cuando el láser se focaliza sobre una pequeña zona del disco los fotones excitan los cromóforos en lasmoléculas de ePMMA, conmutando entre dos estados, la lectura es análoga pero con luz que hacefluorescentes los cromóforos, siendo la cnatidad de fluorescencia dependiente de si está marcado el puntocomo "escrito" o "no escrito". Se espera que se comercialice el año 2010

Una nueva tecnología de almacenamiento, descubierta por investigadores de launiversidad japonesa Shizuoka, se basa en esferas de poliestireno, dopadas consustancias fluorescentes como rodamina, de 500 nm de diámetro colocadassobre una rejilla, dando lugar a una densidad de grabación doble respecto a la delos DVD y en un futuro se espera que llegue a ser 10 veces superior, reduciendoel diámetro de las esferas y apilándolas. Los datos se graban mediante luz verdey se leen mediante el análisis de luz roja reflejada.

Hay investigaciones con bacterias, la proteína bacteriorodopsina (bR) encontrada en la membranasuperficial de halobacterium halobium, y que suele habitar en ambientes salinos, absorbe la luz en unproceso análogo a la fotosíntesis. bR existe en dos estados intercambiables, que absorbe luz azul y verderespectivamente, lo cual permite almacenar información en un código binario. Disponiendo este productoen forma de cubo, y teniendo un laser para acceder a cambiar entre los dos estados, se pueden obtener"discos" con capacidades de muchos Gigaoctetos, por el precio de los de 1 Giga.

El principal problema es que no aguantan temperaturas superiores a 83 C, otro inconveniente es que noson muy rápidas. En los seres vivos su función es el bombeo de iones de hidrógeno al exterior de lascélulas. Lo cual puede dar origen al desarrollo de productos que ayuden a mejorar la salud de las personas.

Hay quienes se muestran pesimistas sobre la posible pérdida de información, por una parte debida a labaja duración de lso sistemas actuales de almacenamiento y por otra al cambio de stándares y falta futurade dispositivos de lectura para formatos binarios y soportes de almacenamiento que sean obsoletos. Unvídeo muestra, de forma pesimista, este posible problema futuro, el documental se denomina La oscuraera digital.

6.5 Calidad en ordenadores pesonales

Dícese de la totalidad de los rasgos y características de un producto o servicio que se sustenta en suhabilidad para satisfacer las necesidades establecidas implícitas.

En la informática personal hay una gran oferta y a precios muy dispares, esto se explica por las diferentescalidades. Las marcas más famosas, por ejemplo, Siemens y Toshiba suelen ser las que ofrecen productosmás costosos, sin embargo si se valora su calidad y seguridad, la relación calidad-precio es muy buena.Mientras que la mayoría de los denominados clónicos, suelen ser baratos, pero aunque con prestacionesiguales o superiores a los de las marcas más famosas, el cociente relación-precio es pésimo.

Page 190: Apuntes de introduccion a la informatica

Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

32 de 35 18/04/2008 20:14

Al adquirir un ordenador personal se ha de considerar la calidad de todos sus componentes, esto severifica observando las diversas homologaciones que llevan impresas, por ejemplo TÜV, RL, CSA, CE,... En los países de la Unión Europea, como mínimo han de incluir la homologación CE, que aunque no esesencialmente una indicación de calidad en el sentido amplio de la palabra, si lo es de seguridad en elcampo de la compatibilidad electromagnética, es decir que el ordenador no interfiere ni se ve afectado ensu funcionamiento, por los campos electromagnéticos procedentes de otros aparatos, como por ejemplolos teléfonos móviles celulares.

Enlaces recomendados:Las fuentes de alimentación y las directivas comunitariasLa industria de las TIC genera el 2% de las emisiones de CO2

A nivel internacional existen unas normas de homologación de los procesos de fabricación y ensamblaje,las conocidas normas ISO (de la Organización Internacional de Estándares), las más habituales son lasISO 9001, ISO 9002 e ISO 14001. El que los ordenadores se fabriquen o ensamblen en instalaciones quecuenten con algunas de estas homologaciones significan una mayor fiabilidad en los equipos.

Enlaces de interés:

Canadian Centre for Occupational. CanadáCUErgo. Universidad de Cornell. EE.UU.Ergonomía en Español. ChileErgoprojects. Ergonomía en tú idiomaNielsen Norman GroupTyping Injury FAQ

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en mis webs

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Page 191: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

1 de 18 18/04/2008 20:06

Introducción a la Informática. Estudios GAP,

facultad Derecho

Capítulo 7. Lenguajes de programación

Asignaturas

Introducción a la Informática

Introducción

Ofimática

La información

Historia de la Informática

Representación de la información

Periféricos de un ordenador

Lenguajes de programación

Sistemas operativos

Redes y comunicaciones

Informática Aplicada a la Gestión Pública

Introducción a la ingeniería del software

Metodologías de desarrollo

Metodologías habituales

Bases de datos. Introducción

Bases de datos. Organización ficheros

Bases de datos relacionales

Bases de datos comerciales

Introducción a internet

Intercambio electrónico de datos (EDI)

Comercio electrónico

Teletrabajo

Calidad

Informática Aplicada al Trabajo Social

Fundamentos de los ordenadores

Los ordenadores en la actualidad

Introducción al hardware

Fundamentos del software

Aplicaciones software

Diversos usos de los ordenadores

Comercio electrónico

Inteligencia artificial

Prácticas

Visión general de la informática

Internet

Editores de textos

Hojas de cálculo

Bases de datos

Lenguaje Pascal

Avisos

Escepticismo

Divulgación

Informática

Page 192: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

2 de 18 18/04/2008 20:06

Ciencia en general

Biología

Criminología

Inicio

Contacte

Conceptos generales

Metodologías de programación

Tipos de lenguajes

Anexo, lenguaje Pascal

Selecciona un texto ypulsa aquí para oírlo

7.1 Conceptos generales

Un ordenador consta de dos partes, una es la parte física, conocida como "hardware" y otra, la lógica

denominada "software". Ambas son imprescindibles para tener un ordenador en funcionamiento.

Respecto a la parte física dentro de esta web está disponible un esquema de sus componentes, en este

capítulo se estudiarán los integrantes del "Software". Así como la parte física es totalmente visible, la

parte lógica es intangible, aunque imprescindible para que un ordenador sea operativo.

El software se divide en dos grandes grupos, uno es el conocido como sistema operativo o sistema de

explotación y otra parte son los denominados lenguajes de programación. Aparte existen infinidad de

aplicaciones de "software" pero ya para casos concretos, como por ejemplo laplicaciones contables,

aplicaciones ofimáticas, paquetes estadísticos o los programas científicos.

Lenguajes de programación hay en gran cantidad, algunos han evolucionado a lo largo del tiempo y son

usados en el transcurso de muchos años, mientras que otros han sido operativos durante un período más o

menos largo y actualmente no se usan. Dada esta gran variedad de lenguajes, aquí no se pretende dar una

visión completa, sino una clasificación en diversos tipos y concretar alguno. Respecto al más

recomendado para el aprendizaje, el Pascal, se le dedica un apartado para quienes estén interesados en

aprender a programar en un lenguaje asequible.

En general un lenguaje es un método conveniente y sencillo de describir las estructuras de información y

las secuencias de acciones necesarias para ejecutar una tarea concreta. Pero este proceso se puede realizar

de muchas maneras distintas, por lo que habrá que disponer de clasificaciones. Una muy importante es

hacer dos grupos en base a su funcionamiento, esto es considerarlos como intérpretes y compiladores,

según se describe seguidamente.

Un lenguaje se dice que es un intérprete, por ejemplo los BASIC primitivos, cuando para ejecutar

un programa el lenguaje ha de leer y traducir al lenguaje específico de la máquina las instrucciones

una por una. Como es lógico el proceso se enlentece, por ejemplo si una operación está dentro de la

estructura conocida como ciclo y este se repite 100 veces, el lenguaje tiene que traducirlo 100 veces

al código de la máquina. No todo son desventajas, pues la parte buena de este tipo de lenguajes es

que los errores se pueden corregir al momento y seguir facilmente la ejecución del programa, por lo

cual son idóneos para aprender a programar, proceso en el que da lo mismo la lentitud.

Page 193: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

3 de 18 18/04/2008 20:06

Por contra un lenguaje se dice que es compilado cuando el programa entero se traduce mediante el

compilador de dicho lenguaje al lenguaje máquina correspondiente y el resultado se almacena de

manera permanente en un archivo. De esta forma el programa se ejecutará de forma mucho más

rápida que con un intérprete, sobre todo si hay estructuras que se repiten, caso de los ciclos. La

principal desventaja es cuando se produce un error, que muchas veces se detecta en el momento de

la ejecución, y la corrección no se puede hacer de inmediato sino que hay que realizar todo el

proceso de compilado desde el principio. Un ejemplo típico de lenguaje de este tipo el C ++,

ampliamente usado en el desarrollo de programas.

Hay un lenguaje difundido en el ámbito de la enseñanza, es el TurboPascal, cuya ventaja es que aunque se

trata de un compilador tiene un entorno de trabajo como si fuera un intérprete y cualquier error se puede

corregir al momento, reanudándose la ejecución del programa de inmediato.

Un ejemplo en la vida real que visualiza la diferencia entre un intérprete y un compilador es el siguiente,

supongamos que tenemos un libro escrito en una lengua distinta al castellano, son posibles dos procesos

de acceder a su contenido cuando se necesite su lectura, una es traducir en el momento de su empleo la

parte del libro que se necesite, pero sin pasarla a papel, sino simplemente mediante lectura traduciendo,

esto sería el proceso de interpretado, mientras que la otra opción sería traducir el libro entero al castellano

y dejar dicha versión escrita sobre papel, esto sería equivalente al compilado.

Page 194: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

4 de 18 18/04/2008 20:06

El proceso de compilado no es tan inmediato como parece, se describe seguidamente de forma muy

esquematizada:

1. Se escribe el programa (conocido como programa fuente) mediante un editor de textos y se

almacena en un fichero.

2. Este programa fuente es invocado por la primera etapa del compilador, que efectúa un análisis

léxico, se puede considerar como una interpretación del programa fuente preparándolo para un

tratamiento posterior con detalle. En esta etapa se ejecutan los tres procesos indicados

seguidamente:

Adaptar el código fuente a un formato independiente de la forma en que se haya introducido

en el sistema

Eliminación de información redundante como espacios y comentarios

Tratar las palabras clave y los símbolos para su paso a símbolos clave, conocido como

"tokens"

Por ejemplo, considerando un fragmento de código en BASIC (también existe compilador de

BASIC), se tendría,

200 FOR I=1 TO N STEP 1

210 LET A(I)=0: REM Inicializa la matríz

220 NEXT I

lo pasaría a:

[L45] [T16] I=1 [T17] N [T18] 1 \

[L46] [T09] X(I)=0 \

[L47] [T19] I \

3. Análisis sintáctico es el paso siguiente, el compilador determina la estructura, y de alguna forma

el significado del programa fuente. El conjunto del programa se analiza en bloques, que se

descomponen en instrucciones y se procede a identificar los elementos individuales. Como la

sintaxis está expresada mediante un conjunto de reglas, cada una indica como se construye una

estructura del programa a partir de otras estructuras de menor entidad. El proceso mediante el cual

el compilador aplica estas reglas es conocido como "parsing". Seguidamente se cita un ejemplo:

En notación BNF una regla sintáctica se puede escribir como,

<Línea programa::=<Número de línea <Palabra clave <Resto de la sentencia

y aplicándola a la línea 100 del ejemplo BASIC anterior, se tendría,

<Número de línea 100

<Palabra clave LET

<Resto de sentencia X=0

y por tanto:

<Línea de programa 100 LET X=0

Durante la compilación se genera gran cantidad de información, que se almacena en una estructura

Page 195: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

5 de 18 18/04/2008 20:06

de datos conocida como diccionario o tabla de símbolos, en algún momento del proceso se

necesitará la información guardada previamente. La mayor parte es información sobre variables, por

ejemplo para X en el programa anterior, se tendría en el diccionario,

Nombre de la variable Tipo Dirección

X N 3A2F

4. El paso siguiente es la generación de código, conocido como objeto Para ello se recorre el código

intermedio generado y se busca cada uno de los "tokens" en el diccionario, lo que permite insertar

las direcciones en el código máquina que se está generando. En el ejemplo que se está estudiando se

tendría:

Línea 200

LOA X N+1 Emplea el registro ínidice como contador

SIG CMP X N Compara con N

BGT FIN Al terminar vete a FIN

Línea 205

CLR A Pone a cero el acumulador

STD A D Y Copia el contenido del acumulador en Y+índice

Línea 210

INC X Incrementa el índice

BRN SIG Continúa el bucle

FIN

5. El proceso siguiente es la optimización de código objeto generado, con lo que se obtiene un

programa más eficiente. Generalmente donde se consiguen los mejores resultados es en los bucles,

cuyo objetivo es reducir al máximo el número de operaciones que se ejecutan en él.

6. Normalmente hay una etapa posterior conocida como "linkado " en la que el o los módulos

objetos generados previamente se unen entre sí y/o con otros módulos disponibles en librerías, para

formar un fichero que contiene un programa ejecutable directamente desde el sistema operativo, sin

necesidad de disponer del compilador correspondiente. Incluso se pueden unir programas escritos

en lenguajes distintos si los módulos objeto creado se han estructurado de forma adecuada. En

cualquier fase del proceso pueden detectarse errores que se podrán de manifiesto, implicando el

volver hasta el programa fuente, efectuar las correcciones pertinentes y repetir todo el proceso, lo

cual suele ser algo laborioso.

Primeras programadoras profesionales (foto ejército de EE.UU.)

7.2 Metodologías de programación

Actualmente se están produciendo cambios de gran alcance en la forma en que se desarrolla el "software"

para los equipos informáticos. Entre las causas de estos cambios se incluyen las siguientes:

Page 196: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

6 de 18 18/04/2008 20:06

El coste creciente de los desarrollos

La insatisfacción de los usuarios con la adecuación y calidad

La complejidad y tamaño creciente de los programas

La creciente dependencia de muchas organizaciones de sus sistemas informáticos, sin posibilidad

de abandonarlos

El avance hacia ordenadores con características "software" muy diferentes de los actuales.

Estas y otras presiones están provocando una reorganización de los métodos empleados en el desarrollo

de los programas para los ordenadores. Lo que se necesita son técnicas para la elaboración de productos

software muy largos y complejos, que satisfagan estándares muy estrictos de calidad y prestaciones, de

acuerdo con una planificación, control y presupuestos adecuados.

Los métodos de trabajo que se han desarrollado para responder a estas necesidades constituyen lo que se

ha dado en llamar "Ingeniería del Software". La Ingeniería del Software es una tarea de equipo, al

comenzar un proyecto de desarrollo, se constituyen una serie de equipos con una estructura paralela a la

del programa en sí. Se establece un calendario para el proyecto y se asignan costes a cada una de las partes

y etapas del proyecto. Cada equipo tiene un responsable, cuya tarea es la de comprobar que la

programación desarrollada por el equipo sea correcta, está estructurado con propiedad, dispone de las

interfaces para conectar con los programas desarrolladas por otros equipos y se desarrolla de acuerdo a las

previsiones de tiempo y coste.

La Ingeniería del Software se ocupa del ciclo de vida completo de un producto software, diseño,

desarrollo, uso y mantenimiento. El trabajo se hace buscando el mayor grado posible de estandarización y

los menores costes durante la totalidad del ciclo de vida de los programas. La Ingeniería del Software

implica que un programa bien estructurado satisfaga las siguientes condiciones:

El programa ha de tener una estructura general en forma de módulos, que a su vez estarán formados

por procedimientos o segmentos.

Debe existir un interfaz claramente definido entre los diversos módulos

Cada módulo debe de ser una combinación sencilla de construcciones elementales de un lenguaje

de programación

Debe existir una fuerte correspondencia entre la estructura de los módulos y la de los datos sobre

los que operan

Cada módulo debe dejar las estructuras de datos sobre las que opera en un estado consistente con su

definición

Un módulo no debe tener efectos secundarios

Por lo que respecta a las técnicas de diseño de programas, el método más simple y uno de los más

populares es el conocido como de "Refinamiento Progresivo". Se fundamenta en el uso de algoritmos

que se escriben en un lenguaje intermedio entre el castellano y un lenguaje de programación como el

Pascal, este lenguaje se denomina seudocódigo. El proceso se puede describir en términos de un lenguaje

de esta naturaleza:

Establecer todos los pasos del programa en un algoritmo breve de alto nivel

Repetir:

Expandir cada sentencia del algoritmo en detalle, especificando los pasos necesarios

Hasta que las tareas hayan sido especificadas con el detalle suficiente como para que pueda

generarse el código del programa.

Existen otras metodologías más depuradas como por ejemplo la conocida como "Descomposición

Funcional". A diferencia de la anterior en cada etapa se especifican las propiedades esenciales de las

estructuras de datos, y cada algoritmo se expresa como una función matemática que transforma esta

estructura de datos.

Page 197: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

7 de 18 18/04/2008 20:06

Una vez desarrollado un programa como es lógico se ha de comprobar su buen funcionamiento.

Actualmente en la mayoría de los casos se prueban con cualquier tipo de datos que pueden presentarse en

la realidad. Sin embargo este proceso nunca puede establecer si un programa es o no correcto, sin

importar cuantos conjuntos de datos de usen. Si un programa es de importancia crítica, como ocurre en el

presente con muchas aplicaciones comerciales, industriales o militares, es necesario tomar todas las

precauciones posibles para asegurar que están libres de errores.

Se están empezando a utilizar técnicas para asegurar que los módulos (y los algoritmos) son correctos,

que los consideran como teoremas matemáticos y entonces se emplean los mismos métodos que se

utilizan para demostrar los teoremas. Esta tarea es muy compleja y no siempre aplicable.

7.3 Tipos de lenguajes

Aparte de la clasificación vista previamente en compiladores e intérpretes, los lenguajes de programación

se clasifican en base a otros aspectos, de manera general en dos grandes grupos, Lenguajes de Alto Nivel

y Lenguajes de Bajo Nivel. El grupo de los de Bajo Nivel, como su nombre indica incluye los

relacionados íntimamente con la arquitectura de la máquina, por lo que generalmente son específicos de

una unidad central de procesamiento (CPU) y no son válidos para otra diferente.

Dentro de los de estos grupos está el lenguaje máquina, que es programar en el ámbito de la CPU, por lo

tanto usando ceros y unos, lenguaje muy dificil y propenso a errores. El otro más conocido dentro de esta

categoría es el Ensamblador, que utiliza mnemónicos a escala sencilla, y por lo tanto evita las secuencias

de ceros y unos. Aún así es bastante complicado y no es recomendable para usuarios sin amplios

conocimientos. En conclusión, un lenguaje de bajo nivel está orientado hacia la resolución de una

determinada máquina o clases de máquinas.

A diferencia de los del grupo anterior, un lenguaje de alto nivel es independiente del microprocesador del

ordenador que lo soporta, así por ejemplo un programa escrito en lenguaje C, se puede compilar sin

modificar para cualquier máquina, y en principio funcionará sin ningún problema.

Esto implica dos ventajas principales, una es que la persona que desarrolla los programas no ha de saber

nada acerca del ordenador en que se ejecutará el programa, la otra es que los programas son portables, es

decir el mismo programa (en teoría) ha de funcionar sobre distintos tipos de ordenadores.

El desarrollo de los lenguajes de alto nivel comenzó a mediados de los años cincuenta del siglo pasado, en

esta época se crearon los lenguajes COBOL, FORTRAN Y ALGOL60. Posteriormente se han ido

originándose otros muchos, de hecho varios miles, aunque sobreviven muy pocos.

Entre los lenguajes de alto nivel cabe destacar los siguientes:

JAVA

BASIC

FORTRAN

MODULA 2

Pascal

ADA

C

C ++

LOGO

LISP

PROLOG

Smalltalk

Page 198: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

8 de 18 18/04/2008 20:06

En conclusión un lenguaje de alto nivel está orientado hacia la resolución de una determinada clase de

problemas.

Otra forma de clasificar los lenguajes es en dos grandes grupos, declarativos e imperativos. Los

imperativos establecen cómo debe ejecutarse una tarea partiéndola en procedimientos que especifican

cada una de las tareas. Por el contrario los declarativos establecen estructuras de datos y las relaciones

entre ellos que son significativas para ejecutar una tarea determinada, al tiempo que indican cual es el

objetivo de dicha tarea. Un lenguaje típico de este grupo es el Prolog.

Anexo - Ejemplo de un lenguaje:Pascal

El Pascal recibe su nombre en honor del matemático y filósofo francésBlas Pascal (1623-1662). Se desarrolló entre los años 1968 y 1971.

En contraste con FORTRAN, COBOL O ALGOL 60, el Pascal es resultadodel trabajo de una sola persona, Niklaus Wirth (1934-), profesoruniversitario (actualmente jubilado) de Zurich (Suiza). A partir delAlgol60 diseñó un lenguaje adecuado para enseñar computación a losestudiantes universitarios. Según su creador su desarrollo se debe ados motivos principales. El primero es el de proporcionar un lenguajeadecuado para enseñar a programar de forma sistemática, a partir deunos cuantos conceptos fundamentales que se reflejen de forma claray natural en el lenguaje. El segundo es desarrollar implementacionesde este lenguaje que funcionen de forma fiable y eficiente sobre losordenadores disponibles actualmente.

Enlace recomendado:Curso de Pascal. Centro de Cálculo, Universidad de Zaragoza (PDF)

Partes de un programa en Pascal

Un programa se subdivide en varias partes:

- La cabecera, suele ser opcional, en ella se indica el nombre delprograma- Definiciones y declaraciones, son opcionales y pueden categorizarsecomo:

- Definiciones de tipos- Definiciones de constantes- Declaraciones de variables- Declaraciones de etiquetas- Definiciones de subprogramas

La cabecera

Independientemente de lo largo o pequeño que sea, todo programa

Page 199: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

9 de 18 18/04/2008 20:06

debe comenzar con una cabecera de programa. Esta cabecera es laprimera línea, comienza con la palabra clave Program seguida delnombre y terminada por ;.

Definiciones y declaraciones

Lo normal es que un programa necesite datos. Un dato es cualquierinformación que sea manipulada por un programa y necesite unespacio de almacenamiento en el ordenador al ejecutarse el programa.Los datos que no cambian nunca se denominan constantes, mientrasque los que cambian se conocen como variables. Para reservar espacioen la memoria se han de declarar mediante una declaración devariables. Los identificadores deben comenzar con un carácteralfabético o el símbolo de subrayado. El primer carácter puede estarseguido de hasta 126 adicionales, alfabéticos, numéricos o desubrayado.

Tipos En Pascal además de dar identificadores para las variables se debe deindicar el tipo de los datos que se usará para esa variable. El tipo deun dato tiene dos propósitos, una asignar cuánta memoria se va aasignar a un dato de tipo particular. El otro es prevenir un malemparejamiento de tipos.

En Pascal, los tipos pueden categorizarse en predefinidos y definidospor el usuario.

Los tipos predefinidos son:

Boolean, admite los valores FALSE y TRUEChar, son caracteres del conjunto de códigos ASCIIInteger, son números en el rango -32768 a 32767Byte, es un subrango del tipo Integer, de 0 a 255Real, son números reales en el rango 1E-38 a 1E+38

ConstantesSe usan para asociar un valor fijo a un identificador. Este puede estardefinido por el usuario o puede ser literal que describe un valor. Porotra parte las constantes definidas por el usuario, llamadas constantescon nombre deben definirse en la parte de definición de constante,como por ejemplo, const PUERTO = 98. Cons es la palabra reservadacorrespondiente. A su vez la constante se puede definir con tipo, comopor ejemplo, Const PUERTO: Integer 98;

VariablesCuando se declara una variable, se le asigna memoria,suministrándole un lugar para poner un tipo de dato. Una declaracióntambién suministra un nombre para ese lugar. La palabra clave es Var,pudiendo aparecer a continuación uno o más identificadores de

Page 200: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

10 de 18 18/04/2008 20:06

variables, separados por comas y los tipos se separan con dos puntos(:), a continuación se muestran ejemplos,

Var tipo_interes

cant_nominal

principal : Real;

año : Integer;

mes : Byte;

inchr : Char;

salida : Boolean;

Var tipo_interes, cant_nomina, principal: Real;

Constantes con tipo Pueden usarse para ahorrar memoria y como variables inicializadas. Acontinuación se da un ejemplo:

Const TEXTO="T";

MAYUSCULA="U";

peso : Byte = 80;

tipo_entrada : Char = MAYUSCULA;

Operadores Gran parte de la manipulación de datos en un programa se ejecutamediante operadores. Los operadores se clasifican en tres categorías,aritméticos, lógicos y relacionales.

El término expresión se refiere a una combinación de una o másconstantes literales o con nombre o identificadores de variables, conuno o más operadores.

Cuando aparece más de un operador hay un orden de precedencia, ysi es al mismo nivel la evaluación se efectúa de izquierda a derecha.Las precedencias son:

1 - (menos unario) 2 not 3 *, /,div,mod,and,shl,shr 4 *,-,or,xor 5 =,<,<,,<=,=,in

Sentencias La parte de sentencias es en donde se define la lógica de unprograma, es donde se manipulan los datos para obtener el resultadodeseado por el usuario del programa. Las sentencias se puedenclasificar en los tipos:

Sentencias de asignaciónSentencias compuestasSentencias de control de la lógica

Page 201: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

11 de 18 18/04/2008 20:06

Una sentencia de asignación consta de un identificador de variable (ofunción) seguido del operador de la asignación (:=) seguido de unaexpresión. A continuación se indican ejemplos,

salida:=FALSE

interes:=10

pago:=principal/periodo

Una sentencia compuesta se ha de identificar en el principio con Beginy al final con end;. Una sentencia de este tipo puede estar formadapor todos los tipos de sentencias incluyendo otras sentenciascompuestas.

Sentencias de control de lógica

- Bucle while. Ejecuta una sentencia repetidamente hasta que lacondición del bucle da FALSE. La forma es, While condicion Do sentencia

While condicion Do

Begin

sentencia 1

sentencia 2

......

End;

- Bucle Repeat-Until. Se usa cuando es necesario que el bucle seejecute al menos una vez. En este caso la verificaciónde la condiciónofrece esa posibilidad. La forma del bucle es,

Repeat

sentencia 1

sentencia 2

......

Until condicion

- Bucle For-Do. Es ideal para los casos en que está predeterminado elnúmero de veces que se ejecutará una sentencia. La forma es, For

contador:= exp1 To exp2 Do sentencia

For contador:=exp1 To exp2 do

Begin

sentencia1

sentencia2

.......

End;

- If-Then-Else. Esta sentencia ejecuta una, muchas o ningunasentencia dependiendo de la evaluación de la condición establecida. Laforma general es,

If condicion Then sentencia1 [Else sentencia2]

Page 202: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

12 de 18 18/04/2008 20:06

- Sentencia Case. La forma de esta sentencia es,

Case selector Of

Constante1 : sentencia1;

Constante2 : sentencia2;

Constanten : sentencian;

Else

sentencia;

Cuando se ejecuta una sentencia Case, el valor del selector, que esuna variable y puede ser cualquier tipo escalar excepto Real, se usapara determinar cuál, si la hubiera de las, sentencias del Case seejcuta. Las constantes asociadas con la sentencia deben de ser delmismo tipo que la variable selector

Subprogramas en Pascal

Los subprogramas son como pequeños programas dentro de unprograma, incluso se parecen a los programas por comenzar con unacabecera, ir seguida de las declaraciones y una parte de sentencias.Los subprogramas se encuentran en la parte de declaración delprograma, sin embargo operan en su propio entorno, separados perono siempre aislados del programa principal. Un subprograma puededeclarar variables que son sólo accesibles desde el subprograma,puede usar variables del programa principal y puede usar una mezclade los dos.

Los subprogramas son de dos tipos: procedimientos y funciones.

ProcedimientosLos procedimientos comienzan por la palabra reservada Procedureseguida de un identificador y un punto y coma. Después de lacabecera viene la parte de declaración. Al ejecutar un procedimientose crean en memoria las constantes y variables de la parte dedeclaración, pero después de que se haya terminado el procedimientodesaparecen, lo cual supone un ahorro de memoria.

A continuación de la declaración están las sentencias, entre laspalabras clave Begin y End y un punto y coma. Los procedimientos seactivan en el programa principal dando su nombre como una sentenciasimple.

Con frecuencia los procedimientos necesitan que se les dé uno o másvalores, que se conocen como parámetros. Estos se incluyen en lacabecera, dentro de los paréntesis que siguen al identificador. Lasdeclaraciones de parámetros son como las declaraciones de variablesen la forma y propósito. Cada identificador se separa por punto ycoma, cada uno se ha de definir como un tipo con nombre. Acontinuación se muestra un procedimiento que repite un carácter enpantalla, el número de veces que se desee,

Procedure Repite(caracter; Car, conta: Integer);

Page 203: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

13 de 18 18/04/2008 20:06

Var i:Integer;

Begin

For i:=1 to conta Do

Write(caracter);

End;

y así para invocar que aparezca la letra A 80 veces seguida enpantalla,

Repite ("A",80)

donde se han pasado dos parámetros. Estos parámetros pueden serde otro tipo, como variables, expresiones, como por ejemplo,

caracter:="A"; conta:=80;

Repite(LowerCase(caracter),conta);

donde LowerCase es una función que saca la letra minúscula de laindicada.

A su vez los parámetros se pueden pasar por valor o referencia. Si sepasa por valor, se transfiere una copia del valor del parámetro actualal procedimiento, el procedimiento no accede a la variable real y por lotanto no puede modificarla. Un procedimiento puede cambiar el valorde un parámetro por valor, pero a la vuelta al programa queda sinmodificar el valor actual del parámetro original.

Si se desea pasar un parámetro por referencia, el parámetro actualdebe ser una variable o una constante con tipo. Delante de ladeclaración del parámetro formal hay que poner la palabra clave Var.

Seguidamente se da un ejemplo para cada una de las dos formas depaso de parámetros,

a) Por valor

Procedure incrementa(mas_uno:Integer)

Begin

mas_uno:=mas_uno+1;

WriteLn(mas_uno);

End;

y al ejecutar las instrucciones siguientes,

avance:=1;

incrementa(avance);

WriteLn(avance)

la salida sería de 2 y 1.

Page 204: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

14 de 18 18/04/2008 20:06

b) Por referencia

Procedure incrementa(Var mas_uno:Integer)

Begin

mas_uno:=mas_uno+1;

WriteLn(mas_uno);

End;

y al ejecutar las instrucciones siguientes,

avance:=1;

incrementa(avance);

WriteLn(avance)

la salida sería de 2 y 2.

Funciones La diferencia entre un procedimiento y una función es que elidentificador de una función asume un valor cuando la función haterminado y devuelve este valor a la rutina que la llamó en sustitucióndel nombre de la función. En un sentido amplio el nombre de lafunción es también una variable. Todo lo indicado previamenterespecto a la definición de los procedimientos se aplica a las funciones.La palabra clave es Function. A continuación se indica un ejemplo defunción que convierte un parámetro de tipo Char a letra minúscula, sidicho parámetro está en el rango de la A a la Z.,

Function miniscula(caracter:Char);Char

Begin

If caracter in "A".."Z" Then

minuscula:=Char(Ord(caracter)+32)

Else

minuscula:=caracter;

End;

Otras posibilidades

El Pascal ofrece muchas más posibilidades, como por ejemplo ladefinición de tipos por el usuario, o el tipo Set (conjunto), de graninterés dado que no aparecen en la mayoría de los lenguajes. Otrotipo a destacar es el denominado puntero. La recursividad es unacaracterística de mucha utilidad, es decir que cierta instrucción sepuede llamar a si misma. Aquí no se tratan estas posibilidades aunquese usan ampliamente en la programación a escala avanzada en Pascal.

Bibliografía (Disponible en la Biblioteca Universitaria):

- Appleby, Doris, Lenguajes de programación : paradigma y práctica / Doris

Page 205: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

15 de 18 18/04/2008 20:06

Appleby, Julius J. Vandekopple 1998- Berger, Marc. Graficación por computador con Pascal / Marc Berger. --Argentina, etc. : Addison-Wesley Iberoamericana, cop. 1991- Biondi, Joëlle, Algorítmica y lenguajes / Joëlle Biondi, Gilles Clavel 1985- Burns, Alan Sistemas de tiempo real y lenguajes de programación -- Madrid :Addison-Wesley, cop. 2003- Cueva Lovelle, Juan Manuel...[et al.]. Introducción a la programaciónestructurada y orientada a objetos con Pascal -- Oviedo : Departamento deMatemáticas- Cuevas Agustín, Gonzalo. Teoría de la información, codificación y lenguajesCórdoba, Argentina : SEPA, Sociedad para Estudios Pedagogicos Argentinos ,cop. 1985- Lenguajes HTML, JAVA Y CGI : el diseño de páginas web para internet a sualcance. -- Madrid : Abeto, 1996- Findlay, W. Pascal : programación metódica W. Findlay, D. A. Watt. -- [2ªed.]. -- Madrid : Rueda, 1984- Grogono, Peter, Programación en PASCAL. -- Ed. revisada. -- Argentina, etc.: Addison-Wesley, cop. 1986- Sánchez Dueñas, G. Compiladores e intérpretes.Un enfoque pragmático 2ªed. Díaz de Santos, Madrid 1989- Algunos programas de uso común en Pascal. -- Madrid : McGraw-Hill, D.L.1982- Lenguajes HTML, JAVA Y CGI : el diseño de páginas web para internet a sualcance. -- Madrid : Abeto, 1996- TRUCS et astuces pour turbo Pascal. -- Paris : Micro-Application, 1986

Enlaces relacionados con la temática del capítulo:

- Artículos y tutoriales. Lenguaje Pascal- Bjarne Stroustrup's homepage!- El Máquinas- Hello World. ACM- Metodología y Tecnología de la Programación. Fac. Informática. Univ. Murcia- Raúl Monge Anwandter. Univ. F. Sanat María. Chile- Metodologías de Desarrollo de Software. Fac. Informática. Univ. Murcia- Metodología y Tecnología de la Programación I. Vicente López. ETSI. U A.Madrid- The Computer Language Benchmarks Game- The Languaje Guide- Vilecha.com. Tú albergue en la red

fresqui del.icio.us meneame

Page 206: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

1 de 17 18/04/2008 20:01

Introducción a la Informática. Estudios GAP,facultad Derecho

Capítulo 8. Sistemas operativos

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Informática

Page 207: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

2 de 17 18/04/2008 20:01

Ciencia en generalBiologíaCriminología

InicioContacte

Historia de los sistemas operativosClasificaciónSistemas operativos habituales

Selecciona un texto ypulsa aquí para oírlo

8.1 Historia de los sistemas operativos

En este capítulo se describe aquella parte del "software" de un ordenador que transforma el "hardware" enalgo útil: el sistema operativo. Para los fines de este capítulo es importante considerar un ordenador comoun conjunto de recursos, de tipo físico, lógico o una mezcla de ambos. Tomados como un todo estosrecursos proporcionan facilidades para el tratamiento y la entrada/salida de datos, así como para otrosaspectos del funcionamiento de un ordenador.

Para comprender qué es un sistema operativo, es necesario entender cómo han sido desarrollados, en esteapartado se esboza el desarrollo de los sistemas operativos desde los primeros hasta los actualesmultiprogramados y de tiempo compartido. A medida que nos adentremos en las distintas etapas, veremosque los componentes de los sistemas operativos evolucionaron como soluciones naturales a los problemasde los primeros sistemas informáticos.

LOS PRIMEROS SISTEMAS

Inicialmente lo único que existía era el "hardware" del ordenador. Los primeros ordenadores eranmáquinas muy grandes que ejecutaban su trabajo desde lo programado en una consola. El usuario escribíael programa y lo ejecutaba directamente desde la consola del operador, se debía de cargar manualmente enla memoria, bien fuera desde los conmutadores del panel frontal, desde cinta de papel o mediante tarjetasperforadas. Seguidamente se pulsaban los interruptores adecuados para cargar la dirección de inicio y paracomenzar la ejecución del programa. Se supervisaba la ejecución por medio de los indicadores luminososde la consola, si aparecía algún error se podía detener la ejecución, examinar el contenido de la memoria yde los registros y depurar el programa desde la consola. La salida generada se imprimía, o bien sealmacenaba en cinta de papel o tarjetas perforadas para su procesado posterior.

Con el tiempo se perfeccionaron tanto el "hardware" como el "software", aparecieron los lectores detarjeta muy rápidos, impresoras de línea de elevadas prestaciones en cuanto a velocidad y cintasmagnéticas. Se diseñaron programas ensambladores, cargadores y enlazadores para facilitar la tarea deprogramación.

Más tarde aparecieron compiladores para los lenguajes FORTRAN y COBOL, haciendo más sencillo elmanejo del ordenador por parte del usuario, pero más compleja su forma de operar. Por ejemplo paratrabajar con un programa en FORTRAN, el programador había de cargar primero en la máquina elcompilador FORTRAN, que estaba normalmente en una cinta magnética que se tenía que montar en unlector de cinta. El programa se leía a partir de tarjetas perforadas. A continuación de la compilación se

Page 208: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

3 de 17 18/04/2008 20:01

generaba una salida en ensamblador que para ensamblarse requería la carga desde otra cinta del lenguajeensamblador. A su vez el código generado era frecuente que se tuviera que enlazar con otro existente enlibrerías. Finalmente el programa en binario, quedaba listo para su ejecución y podía cargarse en memoriay si fuera necesario proceder a su depuración. Como se puede deducir, la ejecución de un programa podíaimplicar previamente un tiempo de preparación considerable. Además si se producía un error en cualquierpaso lo más probable era que habría que comenzar desde el principio.

MONITOR SIMPLE

Durante el tiempo de montaje de las cintas o mientras se operaba en la consola, la CPU del ordenadorpermanecía inactiva. Además los ordenadores eran muy caros, como ejemplo si se considera un IBM7094, que costaba dos millones de dólares y su esperanza de vida era de cinco años, el coste delinmovilizado era de 45.66 dólares por hora, trabajando 24 horas al día y 365 días al año. Además se hande considerar los costes de funcionamiento por energía, refrigeración, papel, programadores, etc. Todoello en una época en la que el salario mínimo era de un dólar por hora. Está claro que el tiempo deordenador era muy valioso, y los propietarios deseaban sacarle el máximo rendimiento. Para rentabilizarsu inversión debían maximizar la cuota de uso.

La solución fue doble, en primer lugar se contrataron operadores de ordenador profesionales, elprogramador entonces ya no tenía que tocar la máquina. Tan pronto como se terminaba un trabajo eloperador ponía en marcha el siguiente y se eliminaban los tiempos de inactividad basándose en el sistemade reservas. Además al tener los operadores más experiencia en los procesos implicados, como porejemplo el montaje de cintas, los tiempos se redujeron. Por supuesto que los operadores no podíandepurar los problemas que surgieran en los programas, por lo que en caso necesario se volcaban a unsistema de almacenamiento y se entregaban al programador. El segundo ahorro de tiempo fue debido a lareducción del tiempo de preparación. Los trabajos con necesidades similares se incluyeron en lotes y seejecutaban en le ordenador como un grupo. Por ejemplo si se recibían programas en diversos lenguajescomo FORTRAN y COBOL, no se ejecutaban en el orden de recepción, sino que se procesabanprimeramente todos los de un lenguaje y a continuación todos los del otro, con el consiguiente ahorro alcargar una sola vez cada compilador.

Pero aún había problemas, por ejemplo si un trabajo se detenía, los operadores tenían que darse cuentaobservando la consola, determinar por qué se había detenido la ejecución y obrar en consecuencia segúnel problema planteado. Durante este proceso la CPU volvía a estar inactiva. Para solventar estainactividad se introdujo el secuenciamiento automático de trabajos y con él se crearon los primeros yrudimentarios sistemas operativos. Fueron los programas residentes denominados monitores residentes,que secuenciaban automáticamente todos los programas que se ejecutaban en el ordenador. Para facilitarla secuenciación sin necesidad de la intervención de un operador se introdujeron las tarjetas de control,cuya idea es muy simple, además del programa o datos de un trabajo, se incluyen tarjetas especiales queson directivas para el monitor residente, indicándole qué programa tiene que ejecutar. Por ejemplo paraindicar que un programa está en FORTRAN, se acostumbraba a poner una tarjeta de control con el texto$FTN, y para terminar un trabajo se pondría otra con $END. Los sistemas así configurados son conocidoscomo batch o procesos por lotes.

PRESTACIONES

Los ordenadores, en especial los grandes, han sido máquinas muy caras, por lo que es lógico obtener lasmáximas prestaciones posibles. Los procesos por lotes mejoraron las prestaciones, sin embargo aunque eltrabajo realizado por los operadores se redujo, había una parte del proceso que era muy lenta encomparación con la velocidad de la CPU, este problema era originado por los sistemas de entradas ysalidas, siendo el caso más representativo el acceso a las cintas magnéticas, pues al ser dispositivosmecánicos la velocidad es muy baja comparada con los procesos electrónicos. Por ejemplo al trabajar parala ejecución de un programa, que como es lógico se cargaba desde cinta, se tenía la CPU inactiva el 93%del tiempo que duraba todo el proceso.

Page 209: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

4 de 17 18/04/2008 20:01

OPERACIONES "OFF-LINE"

Con el tiempo se crearon dispositivos de entrada/salida más rápidos, pero las velocidades de las CPU'screcieron aún a un ritmo mayor, por lo que el problema aumentó. Una solución fue la de reemplazar laslentas lectoras de tarjetas e impresoras de líneas, por unidades de cinta magnética. La mayoría de lossistemas de los años 1950 y 1960 trabajaban por lotes, que leían de tarjetas y escribían en impresoras. Sinembargo en lugar de hacer que la CPU leyera directamente tarjetas, estas se copiaban previamente en unacinta magnética, y cuando estaba llena se llevaba al ordenador. Si un programa necesitaba una entrada deuna tarjeta, se leía de la cinta, análogamente las salidas se llevaban a cintas y se imprimíanposteriormente.

Se desarrollaron dispositivos especializados con salida o entrada directa a cinta magnética. Incluso sellegaron a crear pequeños ordenadores para realizar dichas funciones, que eran satélites del equipoprincipal.

Otra solución a la lentitud de los procesos de entrada/salida fue el denominado "buffering". Este sistematrata de mantener continuamente ocupados tanto a la CPU como a los dispositivos de E/S. La idea es muysencilla, una vez que se han leído los datos y que la CPU va a operar con ellos, el dispositivo de entradaejecuta inmediatamente la siguiente lectura. La CPU y el dispositivo de entrada permanece ocupado. Consuerte, cuando la CPU esté libre para el siguiente grupo de datos, el dispositivo de entrada habrá acabadode leerlos. La CPU podrá iniciar el proceso de los últimos datos leídos, mientras que el dispositivo deentrada iniciará la lectura de los datos que siguen. Para la salida se puede realizar un proceso análogo. (Lapalabra buffer, en castellano se puede traducir como tampón).

Al introducirse como sistemas de almacenamiento los basados en disco, el sistema off-line se fueeliminando progresivamente, y se introdujo el sistema conocido como "spooling" (SimultaneousOperation On-Line), que consiste en usar el disco como tampón, cuya principal ventaja es que solapa laentrada/salida de un proceso con la computación de otros.

MULTIPROGRAMACIÓN

El aspecto más importante de la planificación de trabajo es la capacidad de multiprogramación. Lasoperaciones descritas previamente para procesos de E/S tienen sus limitaciones, un usuario, no puede engeneral mantener la CPU o los dispositivos de E/S ocupados todo el tiempo. La multiprogramación es unmétodo para incrementar el empleo de CPU, disponiendo en todo momento de algo que la CPU puedaejecutar. La idea ea la siguiente, el sistema operativo toma uno de los trabajos de un grupo de ellos yempieza a ejecutarlo, eventualmente el trabajo tendrá que esperar por algún motivo, como por ejemplopara montar una cinta, en un sistema sin multiprogramación la CPU quedaría inactiva.

Esta idea es bastante frecuente en otras situaciones, un abogado no tiene un solo cliente en un ciertomomento, por el contrario, varios clientes pueden estar en situación de recibir atención al mismo tiempo.Mientras un caso espera para ir a juicio, el abogado puede trabajar en otro caso. Con un número suficientede clientes un abogado nunca estará ocioso (Los abogados ociosos tienden a convertirse en políticos delPP, por lo que hay interés social en mantenerlos ocupados).

Page 210: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

5 de 17 18/04/2008 20:01

Los sistemas operativos multiprogramados son bastante sofisticados. Tener varios trabajos dispuestospara su ejecución, supone mantenerlos simultáneamente en memoria, y tener varios programas enmemoria al mismo tiempo requiere una gestión de la memoria. Además, si hay varios trabajos dispuestospara ejecución, hay que tomar alguna decisión para elegir entre ellos, mediante una planificaciónadecuada de la CPU. La multiprogramación es el tema central de los sistemas operativos modernos.

Los aspectos fundamentales a considerar son:

Gestión de la memoria La memoria total del ordenador se ha de compartir de forma adecuada entre todos losprogramas y datos que en cierto momento tenga cada usuario del equipo.

Planificación de la CPU Entre todas las tareas demandadas por los usuarios es posible establecer preferencias, lo cualimplica que la CPU se planifique dando más tiempo a algunos trabajos o a los usuarios enfunción de unos niveles de privilegios establecidos.

Control de concurrencia. El sistema operativo ha de gestionar adecuadamente todos los recursos del ordenador yordenar la concurrencia de demandas de una forma adecuada. Por ejemplo si varios usuariossolicitan al mismo tiempo el acceso a un disco, se habrá de gestionar de forma correcta estaconcurrencia para evitar bloqueos o situaciones impredecibles.

Protección En un sistema donde acceden muchos usuarios es lógico que exista un sistema de protecciónque permita asegurar que a los trabajos de uno no pueden acceder los otros usuarios, ya seapor motivos de seguridad (por ejemplo para evitar pérdidas de información) o deconfidencialidad.

Abrazo mortal Es un problema que no se plantea solamente en un entorno de sistemas operativos, sino quepuede aparecer en la vida real. Por ejemplo si dos personas han de cruzar un río, saltandoentre piedras puestas en él, y con la condición de apoyar un solo pie, se llega al abrazo mortalcuando dos personas empiezan a cruzar desde orillas opuestas y se encuentran en el medio,llega este momento cuando los dos intentan pisar la misma piedra. En general esta situaciónse produce cuando un sistema consta de un número finito de recursos para distribuir entre unnúmero dado de procesos en competencia.

TIEMPO COMPARTIDO

Page 211: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

6 de 17 18/04/2008 20:01

Cuando se desarrollaron los sistemas por lotes estos se definían por la agrupación de trabajos similares,que sólo permitían el acceso secuencial a la información. Al disponerse de discos, se hizo posible elacceso inmediato a todas las aplicaciones.

Un sistema por lotes tiene algunos inconvenientes, para el usuario, el principal es que los usuarios nopueden interactuar con sus trabajos mientras se están ejecutando, lo cual crea problemas caso de necesitardepurar un programa. Como consecuencia posteriormente a estos sistemas aparecieron los conocidoscomo interactivos o "hands-on", en los que el usuario da y recibe las instrucciones de forma inmediata. Enconsecuencia se puede experimentar fácilmente con cualquier programa.

Un sistema operativo de tiempo compartido utiliza la planificación de la CPU y la multiprogramaciónpara dotar a cada usuario de una pequeña parte del ordenador compartido. Permite que muchos usuarioscompartan el ordenador. Como cada acción o comando suele ser breve, basta con un tiempo de CPU cortopara cada usuario. Dado que el sistema cambia rápidamente entre usuarios, estos tienen la impresión deque cada uno de ellos dispone de su propio ordenador, cuando realmente un solo ordenador es compartidoentre muchos usuarios. Esta idea fue expuesta en 1960, pero al ser difíciles de construir estos sistemas, nose difundieron hasta principios de los 70.

TIEMPO REAL

Otro tipo de sistemas son los conocidos como en tiempo real, que se utilizan frecuentemente comodispositivos de control en aplicaciones especializadas. Por ejemplo unos sensores proporcionan datos alordenador, que los analiza y en consecuencia ajusta unos controles para modificar las entradas al sensor.Casos de este tipo se dan en aplicaciones científicas, médicas e industriales.

Un caso típico de equipo que funciona bajo tiempo real, es un "controlador miniatura", que consiste en unpequeño ordenador, diseñado en una placa de circuito impreso, que se embebe en una máquina ocualquier otro dispositivo, con finalidad de control. Estos dispositivos se usan en maquinaria defabricación, comprobación de equipamientos, telecomunicaciones, sistemas de control y seguridad,ventilación y aire acondicionado, monitorización del medio ambiente e investigación científica. Algunosejemplos reales se citan seguidamente:

HornosControl de señales de tráficoControl de satélitesEquipos musicalesVerificación de componentes de automociónControl de riego agrícola

Comparado con un PC, un ordenador de este tipo es menor, gasta menos energía y disipa menos calor. La

Page 212: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

7 de 17 18/04/2008 20:01

propiedad más importante es que pueden trabajar en ambientes hostiles.

8.2 Clasificación

El sistema operativo es parte fundamental de cualquier ordenador. A grandes rasgos un sistemainformático se puede dividir en:

HardwareSistema operativo o de explotaciónProgramas de aplicaciónUsuarios

El hardware facilita los recursos básicos de computación, mientras que los programas de aplicacióndefinen cómo hay que utilizar estos recursos para resolver los problemas de los usuarios. Puede habermuchos usuarios diferentes tratando de resolver problemas distintos. Consecuentemente es habitual laexistencia de distintos programas de aplicación. El sistema operativo controla y coordina el uso delhardware por parte de los distintos programas de aplicación de los diversos usuarios.

Un sistema operativo es similar a un gobierno. Los recursos básicos de un sistema informáticos son elhardware, el software, los datos y por supuesto los usuarios. El sistema operativo facilita los medios parael uso adecuado de estos recursos durante la operación del sistema informático, al igual que un gobierno,el sistema operativo no realiza por sí mismo una función útil, simplemente crea el entorno en el que otrosprogramas puedan hacer un trabajo.

También se puede considerar un sistema operativo como un asignador de recursos. Un sistemainformático tiene muchos recursos susceptibles de ser requeridos para resolver problemas. El sistemaoperativo actúa como gestor asignando los recursos a programas y usuarios específicos, según lasnecesidades, para que realicen sus tareas.

Otra concepción ligeramente diferente de un sistema operativo se basa en la necesidad de controlardistintos dispositivos de entrada/salida y los programas de usuario. Un sistema operativo es un programade control.

Page 213: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

8 de 17 18/04/2008 20:01

En general no existe una definición completamente adecuada de un sistema operativo. Existen por queson una vía razonable para resolver el problema de crear un sistema informático manejable. En general esmás fácil definir los sistemas operativos por lo que hacen mas que por lo que son.

Los sistemas operativos se pueden clasificar en cuatro grupos:

Por lotes (batch) Son los primitivos, de la época en que se manejaban tarjetas perforadas.

Interactivos monousuarios

Permiten que el usuario del equipo pueda interaccionar en cualquier momento con el proceso queesté ejecutando. Sólo permiten que trabaje un usuario en un momento dado.

Tiempo compartido

Permiten el acceso al ordenador a un número variable de usuarios de forma concurrente, y dada lagran velocidad del ordenador, es como si estuviera trabajando simultáneamente para todos ellos.

Tiempo real

Se utilizan ampliamente en aplicaciones industriales y de control. El sistema responde de formainmediata a entradas del exterior.

8.3 Sistemas operativos habituales

En el inicio de la informática cada fabricante tenía sus propios sistemas operativos que no erancompatibles con los de otros, incluso dentro de un mismo fabricante podían coexistir varios, caso típicode IBM. Estos se conocen como sistemas propietarios.

La tendencia actual es hacia los llamados sistemas abiertos, lo cual indica que estos sistemas operativostrabajan sobre una gran variedad de máquinas con independencia del fabricante del equipo. La granventaja es el ahorro a todos los niveles, pues por ejemplo una empresa con ordenadores de distintosfabricantes puede tener totalmente uniformado todo su software.

A continuación se comentan los sistemas operativos más difundidose en los últimos 25 años.

MS-DOS

Fue un sistema operativo adaptado por Microsoft para IBM (PC-DOS), y en concreto para el modelo PC,aunque se popularizó rápidamente siendo el más usado a nivel personal. Fue desarrollado en el año 1979por Tim Paterson que trabajaba en Seatle Computer Products, y adquirido por Microsoft Corporation. Enla bitácora Pmurillo se puede ver la historia de la elección de IBM para su nuevo ordenador personal.

El espíritu del MS-DOS fue el de proporcionar una base flexible para el software de un microordenador.Tiene un núcleo con un conjunto de comandos residentes y una capa con comandos transitorios que secargan en memoria cuando se necesita su ejecución para a continuación abandonarla.

Dado que el entorno es poco amigable se crearon añadidos que proporcionan un ambiente de trabajo másfácil, el que ha tenido más éxito es WINDOWS (no estrictamente por razones de calidad), que ofrece unentorno gráfico de ventanas y sencillez de manejo mediante un ratón, basado en desarrollos de la empresaXEROX.

La principal desventaja de MS-DOS es que es monousuario y monotarea, es decir que sólo puede trabajar

Page 214: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

9 de 17 18/04/2008 20:01

un usuario (no admite terminales) y que a su vez este sólo puede ejecutar un programa al mismo tiempo,aunque este último problema se resuelve con el entorno Windows. Actualmente ha quedado obsoleto,aunque se comercializa en algunos países de Asia, pues a partir del Windows XP ya son en sí sistemasoperativos completos (aunque siguen siendo muy deficientes) y no necesitan para funcionar el MS-DOS.

UNIX

UNIX fue diseñado en los laboratorios Bell de la empresa AT&T, para su empleo en ordenadores marcaDigital. Dadas sus características pronto se difundió ampliamente en ambientes universitarios, por lo queen el prrincipio se consideró como un sistema operativo orientado hacia ambientes de investigación y noen aplicaciones de gestión. Actualmente está muy difundido en todo tipo de equipos aunque se ha perdidola estandarización habiendo muchas versiones diferentes poco compatibles entre si. Otra versión es elSolaris de la empresa SUN. Una ventaja sobre otros sistemas operativos es que este sistema esmultiusuario, por lo que un equipo admite gran cantidad de terminales trabajando simultáneamente,además de la robustez y seguridad.

LINUX

Linux es básicamente un sistema operativo compatible con UNIX, que opera bajo equipos compatiblescon el estándar del mercado y grandes sistemas informáticos. Su ventaja principal es que su costo esprácticamente nulo, y es "software" libre, que significa que lo podemos dsitribuir y modificar libremente,según la licencia GNU.

EL núcleo fue escrito por Linus Torvalds (1969-), como un sistema operativo abierto yestandar, siendo desarrollado y ampliado posteriormente por muchos programadores, deforma independiente. El código fuente, gestores de dispositivos y utilidades están disponiblesgratuitamente.

Actualmente supone una gran competencia para Windows, más que para UNIX, de hecho en el futuropuede desbancarlo, no sólo por ser gratis y disponer de los fuentes, sino por superioridad y más seguridad.

Diversas administraciones públicas, como por ejemplo la Junta de Andalucía y la de Extremadura, enEspaña, y otras a nivel mundial lo están considerando como estándar, lo cual implicará una ampliautilización en el futuro.

Un grupo de profesores de la Universidad de Murcia, está desarrollando una versión para la enseñanza,denominada CALDUM.

Como ejemplo de la gran difusión del Linux, se tiene el caso de IBM que junto con Citizen han creado unreloj con este sistema operativo y masa inferior a 250 gramos. Comercialmente se conoce comoWatchPad, e incluye tecnología de voz y conectividad por infrarrojos. Para interactuar con él es medianteuna pantalla táctil de cristal líquido QVGA. También se ha incorporado a los teléfonos móviles como porejemplo el proyecto Android de Google, para dotar a los móviles celulares de un sistema operativo libre ygratuito, a direnecia de otros que se usan actualmente como Symbian y Windows Mobile.

Como ejemplo de la difusión que está tomando Linux, en la siguiente tabla se muestran los sistemasoperativos que gestionan las 500 computadoras más potentes a nivel mundial (datos año 2007)l.

Page 215: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

10 de 17 18/04/2008 20:01

Extracto del TOP 500

Nro. Fabricante Ordenador Procesadores SO

1 IBM eServer Blue Gene 131072 CNK/Linux

2 IBM eServer Blue Gene 40960 CNK/Linux

3 IBM eServer pSeries p5 575 1.9 GHz 12208 AIX

4 SGI SGI Altix 1.5 GHz 10160 Linux

5 Bull NovaScale 5160, Itanium2 1.6 GHz 8704 Linux

6 Dell PowerEdge 1850, 3.6 GHz 9024 Linux

7 NEC/SunSun Fire X4600 Cluster, Opteron2.4/2.6 GHz

10368 Linux

8 IBM eServer Blue Gene 16384 CNK/Linux

9 Cray Red Storm Cray XT3, 2.0 GHz 10880 UNICOS/Linux

10 NEC Earth-Simulator 5120 Super-UX

11 IBM JS20 Cluster, PPC 970, 2.2 GHz 4800 Linux

12 IBM eServer Blue Gene 12288 CNK/Linux

13 Cray Cray XT3, 2.4 GHz 5200 UNICOS

14 CDC Intel Itanium2 Tiger4 1.4GHz 4096 Linux

15 IBM eServer Blue Gene 8192 CNK/Linux

16 IBM eServer Blue Gene 8192 CNK/Linux

17 IBM eServer Blue Gene 8192 CNK/Linux

18 IBM eServer Blue Gene 8192 CNK/Linux

19 IBM eServer Blue Gene 8192 CNK/Linux

20 Cray Cray XT3, 2.6 GHz 4096 UNICOS

130 Dell PowerEdge 1855, 3.2 GHz 900Windows Compute ClusterServer 2003

En la tabla (fuente: blog de Javier Smaldone, bajo licencia Creative Commons) podemos ver las 20primeras entradas de la lista, con el añadido del primer sistema no-Unix, que aparece en la posición 130(es un sistema Windows). Podemos ver que 16 de las primeras 20 computadoras corren Linux, lo querepresenta un 80%.

LINUX, UNA REVOLUCIÓN IMPREVISTA

Este sistema operativo, que nació en 1991, se enfrenta a Windows con una filosofía decódigo abierto y uso libre

Cuando Linus Torvalds, el estudiante finlandés que creó Linux publicó su autobiografíala tituló Just for fun. Algo así como Sólo como diversión. Y el subtítulo todavía era másclaro: La historia de un revolucionario accidental. Es decir, la contundente emergencia deLinux en el mercado de los sistemas operativos, con una filosofía que contradice a la deMicrosoft y le planta cara, no estaba en los planes de aquel chico que lanzó en 1991 loque sería Linux, un sistema operativo de código abierto, que permite conocer sus tripastécnicas y modificarlo.

Page 216: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

11 de 17 18/04/2008 20:01

..... Doce años más tarde, sin embargo, grandes empresas como IBM, HP o Oracleanuncian productos con Linux y el diario Wall Street Journal lo incluye como una de lasdiez tecnologías que "usted debe conocer". Como teorizan en el diario, "Linux podíahaberse quedado como una herramienta para rebeldes del software", pero es una"revolución del código abierto que sacude el mercado".

En 1991, Torvalds; empieza en los foros de Internet a dar noticias sobre lo que estáhaciendo y pide ayuda-"Hola ( ... ). Estoy trabajando en un libre sistema operativo (unhobby, que no será grande y profesional como gnu)". Miles de programadoresparticiparon y participan sin cobrar en el desarrollo de este programa.

Unix reinaba en la informática corporativa. Apple tenía una robusta herramienta, perosólo trabajaba sobre máquinas de su marea. Las escuelas de negocios todavía discutenhoy el impacto que tuvo para Apple retener su sistema operativo vinculándolo a sumáquina en un binomio cerrado.

Apple se ha quedado con una modesta cuota de mercado de usuarios, eso sí, entusiastas.IBM abrió su arquitectura a otros fabricantes de ordenadores y desató su propiacompetencia. Mientras, Bill Gates había comprado por 50.000 dóla-res el esqueleto de unsistema operativo, DOS, y reinaba en el universo del PC personal. Menos amiga-ble queel sistema operativo de Apple, tenía la ventaja de que funcionaba sobre ordenadorescompatibles con el diseño de IBM. Luego vendría Windows.

Cuando Torvalds escribe que está trabajando sobre un sistema operativo libre (free) seestá apuntando a un movimiento lanzado en 1983 por Richard Stallman conocido comoProyecto GNU. La idea era que el software debia ser abierto y gratuito licencia GPL).Esta licencia permite usar el programa sin restricciones, redistribuirlo sin limitaciones,modificarlo y distribuir las modificaciones. Con Microsoft o cualquier programa bajolicencia propietaria, los clientes adquieren la licencia al usar un programa, pero tienenvetado escudriñar su panza, la arquitectura de su código, y, obviamente su redistribución.Linux sigue bajo la licencia GPL con que nació.

No obstante, sí se pueden añadir ejecutables propietarios, con código cerrado, que nosupongan cambiar Linux sino trabajar sobre él. Es decir, cuando una empresa comoOracle ofrece sus productos que trabajan sobre Linux Oracle sigue siendo propietaria deestos productos porque no alteran Linux sino que lo usan de plataforma.

En 1995 se fundan compañías, como Red Hat, que comercian con Linux. La preguntairremediable es: ¿cómo alguien piensa hacer negocio con un programa con licenciagratuita? Estas empresas pueden comercializar la edición de] programa en un CD conmanual de instrucciones o la instalación y mantenimiento del mismo a un cliente. RedHat, por ejemplo, obtiene ingresos también con cursos de Linux que certifican al alumnocomo conocedor del sistema. Cada vez más empresas desarrollan sobre Linux ejecutablesde los que son propietarios.

Ahora, Linux es una palabra que preocupa a Microsoft porque gana adeptos más allá decomunidades ilustradas. Sus mejores propagandistas son las corporaciones que loadoptan y las empresas informáticas que lo ofertan. Tras abrirse a Linux el mundoempresarial, ahora empieza su penetración en el mundo doméstico, temeroso de suesoterismo. Un obstáculo era su fama de antipático en el manejo. ¿Un juguete para chicoslistos? Linux inicialmente obligaba a dar órdenes escritas a la máquina. Posteriormenteaparecieron interfaces más convivenciales para usuarios acostumbrados a la rutina de lasventanas (windows).

Page 217: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

12 de 17 18/04/2008 20:01

Otro factor que ayuda a esta popularización son las políticas de algunas administracionesen favor del software libre. Desde Brasil a Alemania, pasando por el Gobierno extremeñoo el PP valenciano, se han pronunciado en favor del software libre. Argumentos: lasadministraciones no tienen por qué pagar para conseguir algo que es gratuito y, no eslógico usar una herramienta tan crítica cuvo secreto está en otras manos. Microsoft, quehabía desdeñado la emergencia de Linux reacciona. En un informe a la autoridad bursátilnorteamericana de diciembre de 2002, la propia compañía escribe: la popularización delmovimiento del código abierto supone "una significativa amenaza al modelo de negociode la compañía, incluyen~ do los esfuerzos de sus defensores para convencer a losgobiernos que opten por el código abierto". Microsoft advierte que si esta opción ganaadeptos, Ias ventas de la compañía pueden bajar, tendrá que reducir los precios que cargasobre sus productos y, los ingresos y márgenes pueden declinar".

Microsoft ha replicado con su política de código compartido por la que, a las agencias deseguridad de determinados países y tras suscribir un acuerdo bilateral, les abre el códigode Windows. Microsoft predica que los gobiernos han de ser neutrales frente al dilema delicencia propietaria o libre y tomar sus decisiones sólo en función del rendimiento de losprogramas.

Microsoft se apoya en una consultoría externa para argumentar que Linux es gratis, deentrada, pero resulta más caro a la larga por costes de mantenimiento e ineficiencias. Locierto es que aquella inocente diversión de un estudiante preocupa a una compañía que hainstalado Windows en el 95% de los PC.

Todo el artículo en El País - Negocios...

Software libre La industria Linux responde a Microsoft

Marimar Jiménez y Javier F. Magariño (Cinco Dias, 17 mayo 2003)

Medio centenar de empresas españolas viven del software libre, con unas ventas mediasde 450000 euros, no somos un puñado de voluntarios sin sueldo. Y si no que se lopregunten a las personas que trabajan desarrollando software libre en HP, IBM, SunMicrosystems, Wall Street o en universidades de prestigio de todo el mundo. Todos estánpagados, espeta Juan Tomás García, presidente de la asociación española de usuarios ydesarrolladores de software libre Hispalinux. Esta declaración defensiva se produce unosdías después de que Steve Ballmer, presidente de Microsoft, visitara España con motivodel lanzamiento en nuestro país de Windows Server 2003. La mano derecha de Bill Gatesadvirtió ante un foro repleto de directivos del error que supone introducir aplicaciones decódigo abierto en las empresas: 'Al ser un grupo de desarrolladores que trabaja gratis, suactividad se convierte en algo muy impredecible'. Y añadió que el avance de Linux 'nogenera ni puestos de trabajo ni inversiones en I+D'.

Estas duras críticas chocan, en cambio, con la preocupación que parece vivirse en el senode la compañía de Redmond. Hace tres días, el diario International Herald Tribunepublicaba el contenido de un correo interno del director ejecutivo de ventas de Microsoft,Orlando Ayala, en el que apostaba por una guerra de precios, al autorizar a sus directivos

Page 218: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

13 de 17 18/04/2008 20:01

a hacer fuertes recortes en los mismos: 'Bajo ninguna circunstancia debemos perderfrente a Linux', arengaba en el e-mail Tras la conocida decisión de divulgar el códigofuente de Windows y donar importantes sumas de dinero a la comunidad educativa, lanueva política de Microsoft parece incluir importantes descuentos, que estaríanrespaldados por un fondo especial de nueva creación.

'Los nervios de Ballmer no son para nosotros sino la mejor de las señales, la que nosindica que vamos por el buen camino, que estamos consiguiendo resultados, que estamosvenciendo', asegura Javier Cuchí, representante de Hispalinux. Cuando este experto hablaen plural se refiere a todo un colectivo de desarrolladores y de empresas cuyo negociogira en parte o totalmente alrededor del software libre. 'No es cierto que estasherramientas no generen una industria. Otra cosa es que aún sea incipiente', dice JesúsGonzález Barahona, profesor del área de telemática de la Universidad Juan Carlos I. Y esque no es lo mismo software libre que gratuito.

En España se calcula que hay en torno a medio centenar de empresas ligadas aldesarrollo, implantación y mantenimiento del software libre. Generalmente sonpequeñas: sus plantillas van de los 4 a los 50 empleados y sus ventas oscilan entre los300000 y 600000 euros, aunque hay alguna excepción. La compañía Ándago, fundada enenero de 1996 y con 45 trabajadores, tuvo unos ingresos cercanos a los tres millones deeuros en 2002. 'Aún no hemos alcanzado los beneficios, pero la previsión es lograrlos alo largo de este ejercicio', cuenta su presidente, José María Olmo. El pasado año, Ándagosufrió la crisis económica, ya que sus principales clientes eran operadores detelecomunicaciones que frenaron en seco sus inversiones tecnológicas. Hoy dirige susservicios y consultoría hacia otros sectores como la banca y la administración.

El empuje de pymes como Ándago, Disoft, Igalia, Internet Web Serveis o YacoIngeniería, por citar algunos ejemplos, empieza a consolidar una red de entidades quefomenta el software no propietario en España. De hecho, a la vuelta de un mes, unaveintena de ellas presentará la Asociación de Empresas de Software Libre (Aesli). 'Elobjetivo es fomentar la idea de que detrás de Linux hay iniciativas empresariales',comenta una de las promotoras, Alicia Zurita. Ella, junto a David Aycart, fundó Eswareen 1999. La compañía, con 24 empleados, enfoca su actividad hacia la venta de software,formación y consultoría. 'La situación que describe Ballmer es de hace seis años. Resultaabsurdo que desprecie así una tecnología aceptada por toda la industria', defiende Aycart.

En España, algunas Administraciones públicas como la extremeña, la andaluza, la deValencia o Aragón han apostado abiertamente por esta corriente, con el convencimientode que les permitirá crear una industria local de aplicaciones informáticas. ¿Ocurrirárealmente? 'Lo cierto es que, de otra forma, no se generaría', apunta Barahona.

Roberto Di Cosmo es un investigador italiano en ciencias de la computación, que se encuentra radicadoen Francia y es docente de la Universidad Paris 7.

Además de su extensa labor científica, es un entusiasta promotor del Software Libre y luchador en contrade las patentes de software (y como si esto fuera poco, ¡es un tipo muy divertido también !).

Su artículo "Trampa en el Cyberespacio" es un pequeño ensayo en donde analiza la situación actual de lainformática en lo que se refiere al software propietario. Es un excelente documento (muy legible, además)para entender los peligros que entrañan los manejos de algunas empresas de software (con Microsoftcomo el caso más notable).

Page 219: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

14 de 17 18/04/2008 20:01

Roberto tiene gran cantidad de material en su sitio web (http://www.dicosmo.org) y además lidera unproyecto de desarrollo de DemoLinux, una distribución de Linux que solo requiere de un CD booteablepara funcionar (http://www.demolinux.org).

Para quienes lean inglés, recomiendo ampliamente su libro "Hijacking the World. The Dark Side ofMicrosof". En su sitio hay un enlace para comprarlo (cuesta unos 9 dólares en versión electrónica).Quienes no lean inglés (o tengan problemas para comprar un libro a 9 dólares a través de Interne), puedendisfrutar de la traducción al castellano del primer capítulo (publicada por el semanario uruguayo Brechaen un artículo titulado "La democracia en peligro".

Trampa en el Cyberespacio Versión HTML(online). Tamaño: 72k

Bibliografía (disponible en la Biblioteca Universitaria):

- Lucas, H y otros. Sistema operativo UNIX. Paraninfo S.A. Madrid 1986- Milenkovic, Mila. Sistemas Operativos. Concepto y diseño. Mc Graw Hill. Madrid 1998- Stallinger, William. Sistemas operativos 4ª ed. Prentice Hall, Madrid 2001- Tanembaun Andrew S. Sistemas operativos modernos. Prentice Hall, México 1992- Programación en Linux con ejemplos. Prentice Hall. Buenos Aires 2000

Enlaces de interés en internet:

Can We Make Operating Systems Reliable and Secure?Debian. Linux Fundación Vía Libre. ArgentinaSourceforge.netUniv. Pontificia de Salamanca. Sistemas operativos

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Page 220: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

15 de 17 18/04/2008 20:01

Búsqueda en mis webs

Loading...

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana

Actualización en FisicaBiografía de Edward Lorenz

Actualización en Avisos.II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.Tutorial sobre la nueva versión de Google Docs

Actualización en Software.Tutorial sobre el programa HTTrackl

Actualización en Avisos.II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html

XML Powered by FeedSweep

Enlaces de interés

Skip Navigation

InicioDivulgaciónFísicaReligionesFraudes médicosFraudes nutriciónFraudes psicologíaInformática

Fraudes en psicología

Los psicólogos de lo paranormal (abduciones) L.A. GámezTeoría de recuperación de recuerdos y síndrome de falso recuerdo. John HochmanLa psicología científica y las pseudopsicologías. Carlos Álvarez GonzálezPsicología para escépticosLa psicología científica y los cuestionamientos al psicoanálisisEnciclopedia de las alegaciones, fraudes y engaños de lo oculto y lo sobrenaturalEl ruido electromagnético y los lugares embrujadosLaberinto postmoderno

ABC - El (c)olor del colonialismocon la tecnología

de

Page 221: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

16 de 17 18/04/2008 20:01

Escepticismo en España

ARP-SAPCCírculo escépticoMagonia

Escepticismoen América

Pensar. ArgentinaEscépticos. ColombiaArev. VenezuelaJames Randi. EE.UU.CSI. EE.UU.

Sugerencias

y consultas

Nombre: eMail: Tel (opcional):

Consulta o sugerencia:

Protección de datos: los datos proporcionados sólo se utilizan para responder. No se almacena ninguna información

Enviar consulta

Rafael Menéndez-Barzanallana AsensioDepartamento Informática y Sistemas. Universidad de MurciaBajo Licencia Creative CommonsActualizado 2008/03/18

Page 222: Apuntes de introduccion a la informatica
Page 223: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

1 de 29 18/04/2008 19:49

Introducción a la Informática. Estudios GAPfacultad Derecho

Capítulo 9. Redes y comunicacaciones

AsignaturasIntroducción a la Informática

IntroducciónOfimáticaLa informaciónHistoria de la InformáticaRepresentación de la informaciónPeriféricos de un ordenadorLenguajes de programaciónSistemas operativosRedes y comunicaciones

Informática Aplicada a la Gestión PúblicaIntroducción a la ingeniería del softwareMetodologías de desarrolloMetodologías habitualesBases de datos. IntroducciónBases de datos. Organización ficherosBases de datos relacionalesBases de datos comercialesIntroducción a internetIntercambio electrónico de datos (EDI)Comercio electrónicoTeletrabajoCalidad

Informática Aplicada al Trabajo SocialFundamentos de los ordenadoresLos ordenadores en la actualidadIntroducción al hardwareFundamentos del softwareAplicaciones softwareDiversos usos de los ordenadoresComercio electrónicoInteligencia artificial

PrácticasVisión general de la informáticaInternetEditores de textosHojas de cálculoBases de datosLenguaje Pascal

AvisosEscepticismoDivulgación

Informática

Page 224: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

2 de 29 18/04/2008 19:49

Ciencia en generalBiologíaCriminología

InicioContacte

IntroducciónRedes de ordenadores y sus tiposTelefoníaSistema de posicionamiento global

Presentación de resumen

Selecciona un texto ypulsa aquí para oírlo

Importante: las imágenes miniatura se amplían pulsando sobre ellas.

9.1 Introducción

Este capítulo está orientado a usuarios de ordenadores sin conocimientos previos en redes ycomunicaciones. No ofrece un tratamiento exhaustivo de las redes de ordenadores, sin embargo aportauna base suficiente sobre los conceptos generales y tecnologías comunes.

Durante el siglo pasado se desarrollaron una gran variedad de redes de comunicaciones, hasta alcanzar lasituación actual, en la que rodean la Tierra y se extienden por el espacio. La radio, la televisión, elteléfono e internet, permiten que millones de personas estén en contacto, a menudo salvando grandesdistancias.

Enlaces recomendados:Televisión Digital Terrestre (TDT)11 mitos de la televisón en alta definición desmentidos

Aunque los primeros sistemas de comunicación, como el telégrafo , utilizaban un código digital (códigoMorse) para transmitir la información, el mayor peso de los desarrollosnecesarios para dar lugar a estas redes de comunicación ha ido dirigidohacia la transmisión de voz e imagen, de forma analógica. Con la llegadade los ordenadores, la situación ha cambiado de nuevo, la información seenvía en forma digital. La combinación de ordenadores y redes decomunicaciones es una de las principales áreas de desarrollo en laactualidad, teniendo un impacto tan profundo en el estilo de vida demillones de personas como lo tuvieron la radio y el teléfono en su

momento.

Un proceso cualquiera de comunicación está constituido por un EMISOR que envía INFORMACIÓN através de un CANAL de transmisión, que es recibida por un RECEPTOR. Podemos por tanto, hablar decomunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc.

La información no es transmitida tal como la emitimos, sino que se utilizan unos CÓDIGOScomprensibles por el emisor y el receptor, y que se comunica mediante SEÑALES físicas. Los códigos

Page 225: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

3 de 29 18/04/2008 19:49

serán el lenguaje utilizado y las señales las ondas sonoras, luminosas, etc. En muchos casos, la utilizaciónde códigos y señales exigirá que la información sea CODIFICADA en la transmisión yDECODIFICADA en la recepción. Es decir, pueden ser codificadores/decodificadores los sentidos, lostraductores, etc.

El objetivo de un proceso de comunicación es que la información que se desea transmitir sea idéntica a laque se recibe. Si falla cualquiera de los elementos que intervienen (transmisor, canal de transmisión oreceptor), se producen pérdidas de información; para intentar evitarlo, se repiten los mensajes en sutotalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) que permitanreconstruirla. La comunicación suele ser en ambas direcciones alternativa o simultáneamente,convirtiéndose en este caso el transmisor en receptor y viceversa. Lo dicho de una forma general se puedeextrapolar a la informática con la intervención de diferentes máquinas que comunicarán las informacionesa diversos tipos de receptores.

Las principales razones de ser de las comunicaciones informáticas son:

Necesidad de enviar y recibir datosCompartir recursos. No todos los usuarios de un sistema informático van a poder disponer de unsistema adecuado a sus necesidades, por lo que es útil compartir tanto los equipos como losprogramasCompartir carga. Consiste en distribuir el trabajo que supone el proceso de datos entre variosordenadores (caso de un banco en hora punta, el ordenador central se puede pedir a otro que leayude, distribuyendo así la carga de trabajo).

Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones. Veremos cómo esposible conectar ordenadores y terminales. Un terminal puede ser "tonto" o inteligente, el primeroconsiste en un monitor y un teclado, y el segundo es un ordenador completo, es decir, se diferencian enque el terminal inteligente posee capacidad de proceso de información de forma autónoma.

Las redes se distinguen primeramente por la distancia existente entre sus terminales, clasificándose en:

WAN: Redes de Area Remota que interconexionan sistemas geográficamente dispersos.LAN: Redes de Area Local que conectan sistemas próximos.PAN: Redes de Area Personal, que conectan sistemas muy próximos.

Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial y fibra óptica).No se puede hablar de uno mejor que otro, sino de cuál es el más adecuado a cada necesidad y dependeráde las prestaciones, coste, fiabilidad de instalación y capacidad de integración con otros sistemas.

Se diferencian también por la velocidad de transmisión. Esta se mide en bits por segundo frecuentementeconfundida con baudios. El baudio es una unidad de velocidad de señalización, o de modulación, igual alnúmero de condiciones discretas o símbolos que se suceden en la línea, por segundo. La velocidad detransmisión en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo representaun bit. Un baudio es el inverso del intervalo del pulso más corto de señalización medido en segundos.

Un modem a una velocidad de 2400 bit/s, mediante un sistema de modulación cuaternario por modulaciónde fase, transmite 1200 símbolos por segundo, y por lo tanto la velocidad de modulación es de 1200baudios. Un sistema que no emplee bit de parada ni de arranque tiene una velocidad de transmisión enbit/s igual a la velocidad de modulación en baudios. Un sistema de transmisión de 5 bit, con un pulso dearranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter de 100 ms,tiene una velocidad de señalización o modulación de:

1/(13.5*10-3) = 74 baudios

y una velocidad de transmisión de:

Page 226: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

4 de 29 18/04/2008 19:49

5/(100*10-3) = 50 bit/s

Las líneas pueden ser de los tipos siguientes:

Líneas de banda estrecha (banda baja),Líneas de banda de voz (banda media),Líneas de banda ancha (banda alta).

El intercambio de información entre los distintos dispositivos tiene que estar regido por unosPROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas comunespara establecer la comunicación tanto para el receptor como para el emisor. En el inicio de la industriainformática, cada fabricante intentaba idear una serie de procedimientos, con los cuales podía controlar lainformación y así monopolizar el mercado de las ventas de los distintos elementos que componen lainformática. Con el paso del tiempo esta industria se ha extendido tanto, que surgió la necesidad decompatibilizar los procedimientos de la información. Actualmente existen asociaciones de fabricantes deordenadores, y organizaciones internacionales como por ejemplo ISO, que establecen unasrecomendaciones sobre los procedimientos normalizados de comunicación, que van a gobernar eseintercambio de información. Un protocolo es pues, un conjunto de procedimientos normalizados oestandarizados que gobiernan el intercambio de comunicaciones, acuerdos o convenios que se adoptanpara poder establecer una comunicación correcta; afectan a las frecuencias de las señales, reconocimientode la conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de lasoperaciones, establecimiento de los caminos por lo que irán los mensajes, asegurar que los datos han sidorecibidos, etc.

9.2 Redes de ordenadores y sus tipos

Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos,interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con losdemás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores,terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros.

En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes,mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.

Como se ha visto las redes aportan beneficios, los más habituales son:

A) Compartir información de forma flexible

Una red de ordenadores permite a los usuarios compartir casi instantáneamente y sin esfuerzo lainformación.

Por ejemplo, un editor de libros, escritores, asociaciones de editores y artistas pueden necesitartrabajar conjuntamente en una publicación. Mediante una red pueden compartir los mismosarchivos electrónicos, cada uno desde su ordenador y transferir y copiar archivos. Estos puedenañadir material simultáneamente a los ficheros, o eliminar partes, sin interrumpir el trabajo de losdemás. Las ventajas son evidentes, como por ejemplo con el programa Google docs.

B) Libertad para elegir la herramienta adecuada

Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de compartirinformación inherente a la red. Esto permite trabajar con el equipamiento que más satisfaga a lasnecesidades del usuario. Por ejemplo en una red abierta a los estándares internacionales, puedenestar trabajando unos usuarios bajo Windows, mientras que otros lo pueden estar haciendo

Page 227: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

5 de 29 18/04/2008 19:49

simultáneamente bajo Linux, en estaciones de trabajo o desde otros PCs.

C) Reducción de costos al compartir equipamiento

Una razón muy importante para disponer de una red de área local es el compartir equipamiento, locual implica grandes beneficios. Por ejemplo, en una red de veinte microordenadores, se puededisponer de una impresora laser en color, para todo el conjunto, por lo que el ahorro seríaconsiderable frente a la opción de que los veinte equipos no estuvieran conectados en red, e inclusodado el coste de este tipo de impresoras sería económicamente inviable el que cada usuario tuvierauna de estas impresoras.

Lo mismo que se ha visto en el caso previo, de la impresora de alta calidad, se puede concluir deotros dispositivos, como por ejemplo un grabador holográfico, un escaner de alta velocidad o unsistema de fax. En una situación de red se puede compartir cada uno de estos equipos, mientras queaisladamente sería improbable el que dispusiera cada usuario de ellos.

D) Uso flexible de la potencia de computación

Una de las ventajas más claras de una red, es la posibilidad de usar la potencia de un equipo de lared, distinto al que estamos trabajando. Por ejemplo si se han de realizar cálculos matemáticos o deingeniería complicados, se podrá acceder desde un punto de red, al equipo de dicho entorno quetenga potencia y rapidez suficiente para realizarlos en un tiempo razonable.

Otra alternativa es el procesamiento paralelo, es decir resolver el problema de cálculo mediante eltrabajo simultáneo de varios equipos de la red. Algunos programas son demasiado complicadospara poder ejecutarse en microordenadores individuales, o tardarían mucho tiempo, pero medianteel procesamiento paralelo entre los diversos equipos de la red se aceleraría mucho el cálculo. Unejemplo es el proyecto BOINC, para compartir ordenadores de forma desinterasada, y otro recientees el buscador Wikia.

E) Comunicación efectiva y fácil con todo el mundo

Mediante las redes de área geográficas, se pueden interconectar redes de área local a escalamundial. De esta forma se puede transferir información, prácticamente de forma instantánea, acualquier lugar, como por ejemplo los correos electrónicos.

Topología de red y tipos de redes

Datos frente a Información, rutinariamente se intercambian ambos términos, técnicamente no son lomismo. Datos son entidades con un significado dado, son la forma de representar la información, pero nola información en sí misma. Para propósitos habituales la información son datos decodificados en formalegible. Por ejemplo, los datos de un fichero se pueden decodificar y mostrar en una pantalla de ordenadoro trasladarlos a una impresora.

¿Cómo se transfieren los datos en una red?, para transferir señales entre ordenadores se necesitan: unmedio de transmisión para portar las señales y dispositivos para enviar y recibir las señales.

A) Medios de transmisión de la red

Las señales eléctricas se generan como ondas electromagnéticas (señales analógicas) o como unasecuencia de pulsos de voltajes (señales digitales). Para propagarse, una señal debe viajar a travésde un medio físico, el llamado medio de transmisión. Hay dos tipos de medios de transmisión,guiados y no guiados.

Page 228: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

6 de 29 18/04/2008 19:49

Los medios guiados se fabrican de forma que las señales se confinan a un canal de transmisiónestrecho y en el que se puede predecir su comportamiento. Son habituales, los cables de partrenzado (como los telefónicos), cables coaxiales (como los de las antenas de televisión) y cables defibra óptica.

Los medios no guiados son partes del entorno natural, a través de los que se transmiten las señalesbajo forma de ondas. Las frecuencias habituales se corresponden con el espectro de radioondas(VHF y microondas) u ondas de luz (infrarrojo o visible).

Para planificar una red de ordenadores, se exige un medio de transmisión, o combinación de ellos,basándose en las circunstancias físicas, la construcción de la red y las prestaciones que se requierende ella. Un objetivo habitual es guardar el coste al mínimo, sobre la base de las necesidadesplanteadas.

B) Dispositivos de transmisión y recepción

Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen yreciban las señales a través del medio elegido. Estos pueden ser, adaptadores de red, repetidores,concentradores, transmisores diversos y receptores.

Adaptadores de red

Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que se instaladirectamente en un zócalo de expansión, otros están diseñados para microordenadoresportátiles, por lo que consisten en un dispositivo pequeño, que se conecta a la salida deimpresora o a una ranura PCMCIA, sin embargo los nuevos ordenadores lo llevan incluido enla placa base. Estos adaptadores se fabrican en diversas versiones, de forma que se puedanconectar a cualquier tipo de medio guiado. También se pueden conectar a dispositivos quepuedan transmitir mediante medios no guiados.

Repetidores y Hubs

Se usan para incrementar las distancias a las que se puede propagar una señal de red. Cuandouna señal viaja a través de un medio encuentra resistencia y gradualmente se hace más débil ydistorsionada. Técnicamente este proceso se denomina atenuación.

Puentes (Bridges)

Permiten conectar una LAN a otra red con diferentes protocolos en los niveles físico y deenlace, pero siempre que en los niveles superiores usen los mismos protocolos.

Pasarelas (Gateways)

Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean paraconexión entre diferentes redes locales, o entre locales y ampliadas (WAN).

Concentradores

Se usan en redes para proporcionar un punto común de conexión para dispositivos. Todos losconcentradores tienen repetidores

Transmisores de microondas

Page 229: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

7 de 29 18/04/2008 19:49

Los transmisores y receptores de microondas, especialmente satélites, se usan para transmitirseñales a grandes distancias a través de la atmósfera. En EE.UU. las principales bandas demicroondas autorizadas para telecomunicaciones fijas están en el rango de frecuencias de dosa 40 GHz. Las licencias están concedidas para subrangos inferiores, por ejemplo el GobiernoFederal tiene una en el rango de 7.125 a 8.40 GHz, mientras que el rango de 10.550 a 10.680está adjudicado a usuarios privados. A continuación se muestra un esquema del espectroelectromagnético completo:

Lasiguientefiguramuestraelprocesode

transmisión que sufren las microondas en la atmósfera:

Transmisores infrarrojos y láser

Son análogos a los de microondas. También usan la atmósfera como medio, sin embargo sóloson válidos para distancias cortas, ya que la humedad, niebla, obstáculos y otros fenómenosambientales pueden causar problemas de transmisión.

Conectividad en distancias cortas

Las redes de área personal (PAN) como tecnología de tercera generación, significan un impulso al procesode convergencia entre las industrias informática y de comunicaciones. Desde el momento en que losteléfonos móviles se empiecen a utilizar masivamente como ordenadores (como ejemplo el Nokia N96) seproducirá una reestructuración del mercado. Los sectores de GPS, telefonía móvil, ordenadores y engeneral procesadores, dejarán de ser independientes. Estas redes trabajan en una banda de frecuencias demicroondas, que no precisa licencia, 2.4 GHz.

Las interferencias constituyen un problema en la tecnología radio en general, que se manifiesta

Page 230: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

8 de 29 18/04/2008 19:49

activamente en VLAN y también en distancias cortas o PAN por cuanto trabaja en la banda sin licenciaIMS de 2.4 GHz, como los hornos de microondas tanto domésticos como industriales. En particular, es degran relevancia la problemática ligada al efecto de las interferencias en sistemas de radio producidas porlos hornos de microondas.

El dispositivo fundamental de un horno de microondas es, en lo que respecta a interferencias, elmagnetrón de cavidades resonantes, es un tubo empleado típicamente como oscilador de potencia en eltransmisor de los sistemas de radar. En este tubo, el flujo de electrones desde el cátodo al ánodo secontrola por medio de un campo magnético creado por un sistema de bobinas o bien un imán permanenteubicado en el magnetrón. El comportamiento de un magnetrón se puede analizar con relativa facilidadmediante procedimientos gráficos que, en esencia, se reducen a dos tipos: diagrama que relacionamutuamente la intensidad de campo magnético, la corriente en el magnetrón, la variación de frecuencia, yla tensión entre ánodo y cátodo, así como el rendimiento; y diagrama de Rieke, que proporciona larelación existente entre la impedancia de carga y la frecuencia, por un lado, y el rendimiento, por otro

Estos magnetrones de hornos de microondas son equipos de pequeña potencia en comparación con losmagnetrones utilizados en radar. Tipicamente, la potencia de salida de un magnetrón de horno demicroondas está comprendida aproximadamente entre 650 y 3000 watios. Los hornos de microondaspueden emitir legalmente niveles significativos de fugas en las bandas ISM dentro de los límitesestablecidos por las normas de seguridad internacionales.

Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, en acuerdos adhoc conla industria de las comunicaciones. Un aspecto clave del tema de las interferencias en este contexto vienedado por el hecho de que magnetrones y hornos de microondas se diseñan para que funcionen en la regióndel diagrama de Rieke, donde tiene lugar la intersección de todas las lineas de frecuencia.

Un ejemplo es el consorcio Bluetooth, que es un grupo de interés especial y promotor que agrupa afabricantes en estos campos. Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todoslos dispositivos que conforman el escenario inalámbrico, para usuarios: ordenadores portátiles, teléfonosy dispositivos de mano, como por ejemplo PDA (asistentes digitales personales).

El usuario, en el futuro, ya no utilizará un teléfono, un ordenador portátil o alguno de los dispositivospresentes en el mercado, sino un equipo comunicador, como por ejemplo el nuevo Nokia 96, que incluyehasta un sistema GPS.

BLUETOOTH

La tecnología Bluetooth se elabora en un chip que se integra en los diferentes equiposque conforman el entorno inalámbrico actual, como ordenadores portátiles, periféricos(ratón, impresoras...), PDA (Personal Digital Assistants) o teléfonos móviles, así como elfuturo, en el que se contemplan, además de estos equipos clásicos del ámbito de lacomunicación y la informática, otros del ámbito de la domótica. Se tiene así lo que seconoce como productos Bluetooth.

El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para noaumentar las dimensiones del chip y poder integrarlo con facilidad en los productos) y demuy baja potencia. Otra parte del chip es el circuito integrado de radiofrecuencia. Estecircuito integrado tiene capacidad de autorregulación, lo que confiere un factor de ahorrode potencia, característica que es consustancial a las tecnologías inalámbricas endistancias cortas. En concreto, en el chip Bluetooth el consumo es menor del 3% de lapotencia que consume un teléfono móvil.

Page 231: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

9 de 29 18/04/2008 19:49

El mecanismo de autorregulación funciona de la siguiente forma: cuando se detecta unreceptor a una distancia corta el transmisor del circuito integrado es capaz de alterar lapotencia de su propia señal para adaptarla al nivel adecuado; cuando se interrumpe latransmisión o disminuye el tráfico el sistema pasa a un estado de baja potencia. En esteestado la verificación de conexión se realiza mediante una serie de señales cortas, esdecir, se detectan, de forma periódica, los mensajes de búsqueda.

Bluetooth utiliza "spread spectrum", en concreto frequency hopping (salto de frecuencia).Estos sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales desalto (hopping). En el transcurso de una conexión se produce una transición brusca osalto de los transceptores de radio de un canal a otro de modo pseudoaleatorio. Ensistemas FH, el ancho de banda instantáneo es relativamente reducido, si bien, hablandoen términos generales, la dispersión o spread se obtiene a lo largo de la banda defrecuencias completa. Esto da lugar a transceptores de banda estrecha y de coste reducidoque se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones.Para soslayar este factor se dispone de programas de corrección de errores cuya misión esel restablecimiento de los bits de error.

Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, losposibles enlaces físicos son SC ("Synchronous Connection Oriented") para voz y ACL("Asynchronous Connectionless Link") para paquetes de datos. Los paquetes ACL seutilizan únicamente para información en forma de datos, mientras que SCO utilizapaquetes que contiene solamente audio o bien una combinación de audio y datos. Lospaquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso conel que se identifica el paquete, una cabecera dedicada a información de control y uncampo de carga alternativo.

La codificación de voz se realiza mediante la técnica de modulación CVSD (ContinuoslvVariable Slope Delta) o modulación continua de inclinación delta, con lo que se consigueun buen nivel de inmunidad a errores de hit, que aparecen como un ruido de fondo. Losmecanismos de seguridad consisten en esquemas de autenticación (el proceso de probarla identidad de un cliente/usuario) basados en un mecanismo de exigencia-respuesta y deencriptación hasacla en cifrado el nivel básico.

Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con lasque se pueden obtener conexiones punto a punto y punto a multipunto. De momento, seha conseguido crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos losequipos que se encuentran en una misma picorred aparecen sincronizados.

El concepto de picorred es clave en Bluetooth: se define como la red formada por dos omás unidades o equipos que compraten un canal. Una unidad controla el tráfico y lasotras funcionan como elementos subordinados. Las picorredes pueden, a su vez,enlazarse siguiendo una arquitectura tipica del escenario inalámbrico que se utilizahabitualmente para generar flujos de comunicación mutua entre equipos inalámbricos yque normalmente se crea de forma espontánea sin necesitar un punto de acceso comoparte integrante de la red. Un grupo de picorredes enlazadas constituye una red dedispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar aextenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas.El enlace de radio físico entre las diferentes unidades que forman una picorred se realizamediante los protocolos que conforman las capas de banda base y de enlace.

Modems

Page 232: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

10 de 29 18/04/2008 19:49

Un modem convierte señales digitales a analógicas (audio) y viceversa, mediante la modulación ydemodulación de una frecuencia portadora. Se usan para transmitir las señales a través de líneastelefónicas. Las prestaciones de velocidad se han ido mejorando paulatinamente, hasta los actuales 56kbaudios. Una tecnología que soporta velocidades superiores y gran calidad es la denominada ISDN oRDSI (Red Digital de Servicios Integrados), que como su nombre indica usa líneas telefónicas digitales.La desventaja es su precio más elevado. Este sistema consta de dos líneas de 64 k de velocidad que sepueden, mediante software, usar como una de 128 k, aunque como es lógico se paga la transmisión por lasdos líneas (es decir cuesta el doble). Es una tecnología que cada vez se usa menos.

Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el acceso aInternet, pues permite la transmisión de información con una velocidad de hasta 8 Mbps, y esinteroperativa con el sistema RDSI. Algunas variantes recientes como ADSL2+ transmiten con velocidadteórca de hasta 20 Gigas.

Enlaces recomendados:Conexion internet con banda ancha, ADSL,ADSL2Ahorrar en la factura telefónica gracias a la banda ancha (cable y ADSL)Derechos del usuario de telecomunicaciones

Para líneas xDSL hay cuatro tipos de posibilidades:

- DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según elsentido.

- DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas

- DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más velocidad(HDSL2)

- DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidadestá en función de la red. Se alcanzan velocidades de hasta 60 Mbit/s

Enlaces recomendados: Banda ancha para todos (2004)

Topología de una red

Por topología de una red se entiende la forma en la que se conectan electrónicamente los puntos de dichared. Las topologías existentes son: bus, árbol y estrella.

Se han de tener en cuenta una serie de factores al seleccionar como más adecuada una topología, sedescriben seguidamente:

Complejidad. Este factor afecta a la instalación y mantenimiento de todo el cableadoRespuesta. El tráfico que puede soportar el sistemaVulnerabilidad. La susceptibilidad de la topología a fallos o averíasAplicación. El tipo de instalación en el que es más apropiada la topología

Page 233: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

11 de 29 18/04/2008 19:49

Expansión. La facilidad de ampliar la red y añadir dispositivos para cubrir grandes distancias.

A) Topología en BUS

Todas las estaciones (nodos) comparten un mismo canal de transmisión mediante un cable(frecuentemente coaxial). Las estaciones usan este canal para comunicarse con el resto.

Los factores de evaluación respecto a esta red son:Aplicación. Se usan en pequeñas redes y de poco tráficoComplejidad. Suelen ser relativamente sencillasRespuesta. Al aumentar la carga la respuesta se deteriora rápidamente.Vulnerabilidad. El fallo de una estación no afecta a la red. Los problemas en el bus sondifíciles de localizar, aunque fáciles de subsanar.Expansión. Es muy sencilla.

Análisis comparativo

VentajasEl medio de transmisión es totalmente pasivoEs sencillo conectar nuevos dispositivosSe puede utilizar toda la capacidad de transmisión disponibleEs fácil de instalar

InconvenientesEl intefaz con el medio de transmisión ha de hacerse con dispositivos inteligentesA veces los mensajes interfieren entre síEl sistema no reparte equitativamente los recursosLa longitud del medio de transmisión no supera habitualmente los dos kilómetros

B) Topología en Anillo

Las estaciones se conectan formando un anillo. Ningún nodo controla totalmente el acceso a la red.

Page 234: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

12 de 29 18/04/2008 19:49

Los factores de evaluación respecto a esta red son:Aplicación. Es útil cuando se ha de asignar la capacidad de la red de forma equitativa, ocuando se precisen velocidades muy altas a distancias cortas, para un pequeño número deestaciones.Complejidad. La parte física suele ser complicada.Respuesta. Con tráfico muy elevado la respuesta permanece bastante estable, sin embargo eltiempo de espera medio es bastante elevado.Vulnerabilidad. El fallo de una sola estación o de un canal puede hacer que no sea operativoel sistema completo. Un fallo es difícil de localizar y no es posible la reparación inmediata.Expansión. Es bastante sencillo el añadir o suprimir estaciones.

Análisis comparativo

Ventajas

La capacidad de transmisión se reparte equitativamenteLa red no depende de un nodo centralSe simplifica al máximo la transmisión de mensajesEs sencillo enviar un mismo mensaje a todas las estacionesEl tiempo de acceso es aceptable, incluso con mucho tráficoEl índice de errores es muy pequeño.Se pueden alcanzar velocidades de transmisión elevadas.

Inconvenientes

La fiabilidad de la red depende de los repetidoresLa instalación es bastante complicada.

C)Topología en Estrella

Todas las estaciones están conectadas por separado a un nodo central, no estando conectadasdirectamente entre sí.

Los factores de evaluación respecto a esta red son:Aplicación. Es la mejor forma de integrar servicios de datos y vozComplejidad. Puede ser una configuración bastante complicada. Cada estación a su vezpuede actuar como nodo de otras.Respuesta. Es bastante buena para una carga moderada del sistema. Afecta mucho la potenciadel nodo central.

Page 235: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

13 de 29 18/04/2008 19:49

Vulnerabilidad. Si falla el servidor central, se detiene la actividad de la red.. El fallo de unasola estación no afecta al funcionamiento del sistemaExpansión. Es muy restringida. Es lógico, pues se ha de proteger el nodo central desobrecargas.

Análisis comparativo

VentajasEs ideal si hay que conectar muchas estaciones a unaSe pueden conectar terminales no inteligentesLas estaciones pueden tener velocidades de transmisión diferentesPermite utilizar distintos medios de transmisiónSe puede obtener un elevado nivel de seguridadEs fácil la detección de averías

InconvenientesEs susceptible de averías en el nodo centralEs elevada en precioLa instalación del cableado es caraLa actividad que ha de soportar el servidor, hace que las velocidades de transmisión seaninferiores a las de las otras topologías.

Principales tipos de redes

Al hablar de "hardware" de red no hay más remedio que hablar de los desarrollos que existen en elmercado de ciertas normas creadas por el IEEE (Institute of Electrical and Electronics Engineers). Cadauna de estas normas engloba toda una serie de características entre las que destacan la topología,velocidad de transferencia y tipos de cable. Para no entrar en temas excesivamente técnicos se describendos: Ethernet y Token Ring.

ETHERNET: Utiliza topología bus. Como su velocidad de transferencia es alta (las versiones másmodernas alcanzan hasta el Gbit/s) puede ser utilizada en redes medias e incluso grandes. Pero,debido a su método de acceso, las prestaciones pueden caer si el tráfico es muy intenso. Por ello esrecomendable estudiar el tipo de aplicaciones que se van a utilizar en la red. Fue el primer hardwarede red presentado en el mercado, siendo ahora el más popular. La mayoría de fabricantes deordenadores tienen implementaciones sobre Ethernet y gracias a ello, la conectividad con esta red esmuy fácil. Utiliza cable coaxial de dos tipos y en su versión más moderna (10 Base T), cable UTP.Recomendada para entornos en los que deba convivir con equipos Digital o comunicacionesTCP/IP Para obtener amplia información sobre esta red se recomienda visitar la página web deCharles Espurgeons. Si se desea más información se puede acceder al tutorial de la empresaLantronix.

TOKEN RING:Hasta hace poco tiempo fue la red IBM por excelencia. Cuenta con versiones de 4y 16 Mbit/s lo que la hacía hasta hace poco tiempo una de las más utilizada en redes grandes.Utiliza topología en anillo aunque en realidad el cable se hace en estrella. Ideal para conectividadcon IBM. Actualmente cada vez se usa menos.

Sistemas Operativos de red

Vistos los diversos niveles OSI, se puede concluir que hay una complejidad elevada en las tareas decontrol de las comunicaciones en una red. El programa que realiza esta tarea se denomina sistemaoperativo de red, y ha de cumplir ciertos requerimientos:

Page 236: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

14 de 29 18/04/2008 19:49

Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser capaces de realizarvarias tareas simultáneamente. De esta forma pueden realizar una lectura en disco al mismo tiempoque reciben otra petición a través de la red o imprimen un texto enviado por una estación de trabajo.

Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco, ya que éstos van aser utilizados por más de un usuario. Para controlar gran capacidad de disco duro, necesitaran grancantidad de memoria que deben direccionar.

Control de acceso: Si desea que los datos de todos los usuarios no dañados por error de una deellos, el sistema operativo de red deberá incorporar un sistema que permita a los usuarios accedersólo a los datos imprescindibles para su trabajo en la red.

Seguridad de datos: El disco duro de un servidor de ficheros almacena muchos datos, muchos másque el de un PC aislado. Preservarlos justifica tener un sistema de seguridad que evite que un fallode los componentes cause su perdida. Por ello los sistemas operativos de red tienen sistema detolerancia de fallos que funcionan de forma automática y transparente para los usuarios.

Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma apariencia que lesofrecía el entorno local. El acceso a los periféricos de la red debe ser transparente y de la mismaforma que si estuviera conectado en su estación. Sólo con ello se conseguirá facilidad de uso en lared.

En el mercado existen diversos sistemas operativos para red:

Linux está alcanzando gran difusión, siendo el sistema operativo más seguro. La gran mayoría deservidores de internet operan bajo él.

NETWARE (de Novell) dispone de diversas modalidades, hace unos años era el más difundido.

VINES (de Banyan) dirigido a entorno más amplios. Utiliza en los servidores el sistema operativoUNIX y de ahí le viene su compatibilidad casi total.

Windows, se están imponiendo como S.O. de red, dado que tienen entornos fáciles de manejar,aunque como todos los productos Microsoft, son poco fiables.

9.3 Telefonía

El benedictino francés Dom Gauthey, en 1680, propuso a la Academia deCiencias de París, un sistema de transmisión de la voz humana mediante tubosacústicos. En 1860 el alemán Phillipp Reis (1834-1874) inventó un aparato alque denominó "Teléfono" (del Griego "hablar a lo lejos") con el cual logrótransmitir sonidos durante breves intervalos de tiempo.

Johann Philipp Reis, Físico alemán

Reis inició su carrera profesional como empleado de una sociedaddedicada a la fabricación de colorantes. De formación autodidacta, tantoen el campo de la ciencia como en el de la fisica, llevó a cabo diversos

trabajos experimentales que le condujeron a la conversión de oscilaciones acústicas enimpulsos eléctricos. A la edad de 19 años inició sus estudios de matemáticas y fisíca, a lavez que desarrollaba sus trabajos. Más tarde ejerció como preceptor en Friedrichsdorf. Endicha población desarrolló un aparato gracias al cual no sólo fue capaz de transformar las

Page 237: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

15 de 29 18/04/2008 19:49

ondas electromagnéticas en ondas sonoras sino que también le permitía transmitirlashasta distancias de 100 m en forma de señales eléctricas. Bautizó su invento con elnombre de teléfono. En 1861 lo presentó ante la Sociedad Física de Frankfurt y en 1864en la Universidad de Giessen. Sin embargo, su invención no despertó ningún interés.

En 1796, Francisco Salva estableció un sistema de comunicación telegráfica entre Madrid y Aranjuez.Tenía 44 cables que permitían la transmisión de 22 símbolos. Las señales se generaban mediantemáquinas electrostáticas, si bien no fue desarrollado comercialmente debido a problemas técnicos.

El 14 de Febrero de 1876, el americano de origen irlandés, Alexander Graham Bell (1847-1922) presentóuna petición de patente de un teléfono, dos horas antes de que lo hiciera Elisha Gray (1835-1901) con unaparato similar. La realidad es que el teléfono fue inventado por el italiano Antonio Meucci, aunque nodispuso de medios para su lanzamiento al mercado.

El receptor no presentó problemas, aunque sí el emisor. La razón es queel teléfono se basa en el principio de que una corriente contínua puedevariarse por una resistencia que lohaga en función de las ondasacústicas que reciba (micrófono) lo que a su vez da lugar a laproducción de las mismas en el receptor (un electroimán con unalámina fina). Fueron muchos los experimentos para lograr un micrófonoeficaz, en 1878 Henry Hummings patentó uno que consistía en unacavidad parcialmente rellena de carbón que cerraba el circuito eléctrico,cuya resistencia y por tanto la intensidad que circula por el mismo es proporcional a la presión de lasondas sonoras, actualmente aún se sigue utilizando. Es de destacar que Tomas A. Edison (1847-1931)también contribuyó con inventos al desarrollo del teléfono.

Otros elementos básicos del teléfono son el timbre o campanilla y elmarcador. El primero es un electroimán doble, con una armadurapivotante que soporta a un martillo que al vibrar golpea a unacampana, fue descubierto por T. Watson y aún sigue en uso, el dial seinventó en el año 1896, por unos asociados de Strowger.

Los primeros teléfonos incluían su propia batería para alimentar elcircuito, pero en 1894 se impuso la batería central con un voltaje de 48 V, en uso desde entonces. Aldescolgar el auricular se produce el cierre del circuito y pasa por él una corriente continua, indicando a lacentral que se requiere servicio.

En España se estableció el teléfono en el año 1877 en Barcelona,traídos desde Cuba, allí se importaban directamente de EE.UU.. En1884 el estado se hace cargo del monopolio, en 1924 se creóla Compañía Telefónica Nacional de España, actualmentedenominada Telefónica de España.

En las primeras centrales telefónicas las conexiones entre usuarios se realizaban directamente por losoperarios de la central, lo cual era muy limitado, pues en cuanto crecía el número de abonados el númerode conexiones era inmanejable. En 1889 Almon B. Strowger, un enterrador de la ciudad de Kansas, alcreer que las llamadas eran desviadas hacia la competencia, por parte de los operadores, inventó unsistema automático para la selección del destinatario. Este principio se ha utilizado muchos años, hasta laaparición de las centrales electrónicas.

SISTEMA IBERCOM

Page 238: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

16 de 29 18/04/2008 19:49

Como ejemplo de un servicio avanzado de comunicaciones se puede citar el sistemaIbercom de Telefónica de España. Es un sistema de transmisión de voz y datos dirigido alsector institucional y empresarial, soportado por tecnología enteramente digital. Permitea los usuarios disponer de su propia red dentro del sistema Ibercom, haciendo usoexclusivo de ciertos elementos de transmisión y conmutación, creándose una red privadavirtual (RPV).

La infraestructura básica de Ibercom está compuesta por dos partes, una es la de accesocuya función es la de proporcionar las líneas de voz y datos a sus usuarios, denominadaRed de Acceso Ibercom (RAI), pudiendo estar compuesta de varios Módulos de Red deAccesos Ibercom (MRAI) distribuidos, a los que se conectan todos los terminalescorrespondientes a los servicios de telecomunicación con los que se desee dotar cadadependencia, y otra, la de interconexión, que está incorporada en la porción de tránsito enlas redes públicas, y a la cual se accede a través de un Centro Frontal (CF), que realiza eltránsito entre las RAI a él conectadas.

La central telefónica de la empresa que tenga este servicio, es una Ericson MD110, queconsta básicamente de unos módulos denominados Módulos de Interface de Línea (LIM)controlados por un microprocesador equipado con todos los elementos necesarios para eltratamiento de las llamadas pudiéndose conectar directamente dos de ellos o a través delSelector de Grupo (GS) en caso de sistemas mayores. Cada LIM puede funcionar comoun sistema autónomo o como integrante de otro mayor, realizando la conmutación a unritmo de 64.5 Mbps, y albergando unas 250 extensiones de voz y datos.

La conexión entre los RAI y el CF se realiza mediante uno o más enlaces MIC, a 2 Mbps,con cables trenzados, coaxiales, fibra óptica o radioenlaces.

Los servicios ofrecidos por Ibercom son:

- Plan privado de numeración (Abreviado)- Rutas privadas- Marcación directa entrante- Función de operadora- Gestión de red- Tarificación especial- Servicios de voz (Analógica y Digital)- Servicio de datos- Servicios de valor añadido- Aplicaciones especiales

Actualmente hay cerca del millón de líneas Ibercom instaladas

Algunas empresas de telefonía ofrecen servicios de voz a través de líneas dedicadas a internet, porejemplo la telefonía en la universidad de Murcia funciona bajo la red de la operadora de cable Ono, es loque se denomina (voz a través de IP). Las tarifas son muy baratas, aunque en algunas la calidad no sueleestar al nivel de las líneas convencionales de telefonía. Recientemente el Gobierno reguló esta nuevamodalidad de telefonía.

Telefonía móvil celular

A) Introducción

Page 239: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

17 de 29 18/04/2008 19:49

En la evolución de las redes de telecomunicación, una estrategia actual es dotar a los usuarios demovilidad, de forma que puedan establecer una comunicación desde cualquier lugar. Ello es posiblemediante el empleo de la radio para establecer el enlace entre los elementos a comunicarse. Comoejemplos usuales se pueden consider los sistemas GSM y DECT. Seguidamente se describe elconcepto celular por ser la base de la mayoría de los sistemas de telefonía vía radio.

Los sistemas celulares fueron creados por los laboratorios Bell (AT&T) hace más de cincuentaaños. Un sistema celular se forma al dividir el territorio al que se pretende dar servicio, en áreaspequeñas o celdas (normalmente hexagonales), de menor o mayor tamaño, cada una de las cualesestá atendida por una estación de radio. A su vez las células se agrupan en "clusters" o racimos, deforma que el espectro de frecuencias se pueda utilizar en cada célula nueva, teniendo cuidado deevitar las interferencias.

Las estructuras que permiten, de forma ininterrumpida, la cobertura de una zona determinada sonconfiguraciones a modo de panal de abejas basadas en 4, 7, 12 o 21 células. El número total decanales por célula se obtiene por la fórmula siguiente, N=(Nº total de canales)/(Claustro (4, 7, 12,21)). Al ser menor el tamaño de las células mayor será el número de canales que soporte el sistema.

La siguiente tabla muestra la primera generación de sistemas celulares analógicos

SistemaPaís

NºCanales

Espaciado (kHz)

AMPS EE.UU. 832 30

C-450 Alemania 573 10

ETACS Reino Unido 1240 25

JTACS Japón 800 12.5

NMT-900 Escandinavia 1999 12.5

NMT-450 Escandinavia 180 25

NTT Japón 2400 6.25

Radiocom-2000 Francia 560 12.5

RTMS Italia 200 25

TACS Reino Unido 1000 125

Respecto a los sistemas digitales, los más difundidos son:

UMTS, GSM y DCS-1800, en Europa, IS-54 e IS-95 en EE.UU. y PDC en Japón

B) Sistema NMT

Las primeras generaciones de este tipo de comunicaciones eran sistemas analógicos, tales comoNMT, TACS, AMPS, etc., con una amplia difusión. Actualmente han surgido sistemas digitales,como GSM y UMTS en Europa, el DAMPS en EE.UU. y JDC y PHP en Japón.

En España la telefonía móvil automática o TMA apareció en el año 1982 en la modalidad de 450MHz, tomando como referencia el modelo nórdico NMT. Debido al éxito del mismo y a lasaturación del espectro, Telefónica implantó la modalidad de 900 MHz.

El sistema NMT (Nordic Mobile Telephony) surgió en los países escandinavos en 1981, es idealpara cubrir la mayor extensión de terreno con la menor inversión. La versión NMT 900 permite unmayor número de canales.

Page 240: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

18 de 29 18/04/2008 19:49

C) Sistema TACS

El sistema TACS 900 adaptado en Inglaterra el año 1985, deriva del sistema analógico AMPSamericano desarrollado por los laboratorios Bell y comercializado en EE.UU en 1984. Con estesistema se obtiene unamejor calidad del servicio, al mismo tiempo que mejora la relaciónseñal/ruido por tener una mayor anchura de canal. Además precisa de equipos más pequeños ybaratos.

El sistema TACS (Total Access Communications System) 900 conocido como TMA 900, es delmismo tipo que el anterior, analógico multiplexado en frecuencia, pero diferente por utilizar unatecnología mucho más avanzada y barata, dando mejor calidad de audio, así como una mejorconmutación al pasar de una a otra célula, ya que la señalización se realiza fuera de banda, alcontrario que NMT, que lo hace dentro de ella, resultando casi imperceptible el ruido para elusuario, sin embargo sus estaciones base cubren un rango menor. Emplea la banda de frecuencia delos 900 MHz y cada MHz se divide en 40 semicanales de 25 kHz, por lo que resultaextremadamente útil, por su gran disponibilidad de canales, para cubrir áreas urbanas. Dispone de1320 canales duplex, de los que 21 se dedican exclusivamente a control (señal digital) y el restopara voz (señal analógica)

D) Sistema GSM

El GSM (Groupe Spécial Mobile), surge del intento europeo de unificar los 10 sistemas diferentesexistentes, en uno solo, el CEPT (año 1982). La principal ventaja de este sistema es que permiterealizar o recibir llamadas en cualquier país europeo, aún estando en tránsito por ellos, el teléfonose registra automáticamente en la siguiente red GSM al cambiar de un país a otro, quedandodisponible para su utilización. Al ser criptografiadas todas las conversaciones, da una gran ventaja,la mayor seguridad frente a escuchas. Otras ventajas son su menor consumo de energía, las célulasmás pequeñas y la utilización del espectro de forma más eficiente. A continuación se muestra unmapa de cobertura de Vodafone.

La existencia de competencia por parte de otras operadoras, Vodafone, Orange y Yoigo,aparte de las operadores móviles virtuales (OMV) como Carrefour y EroskiMovil, hadado lugar a que las tarifas hayan bajado bastante.

E) Otras tecnologías

Respecto a la tecnología más reciente, UMTS, en España la ofrecen las operadoras Vodafone,Orange, Movistar y Yoigo. El siguiente enlace es al Libro Blanco sobre UMTS.

A la red GSM se le añadieron otras funcionalidades, antes de la implantación completa de UMTS.Nuevas tecnologías como HSCSD, GPRS y EDGE

HSCSD (High Speed Circuit Switched Data) se basa en circuitos conmutados de alta velocidad,proporciona una velocidad de 58 kbit/s. Permite acceder a varios servicios simultáneamente. Esparecida a la actual RDSI.

GPRS (General Packet Radio Service) puede llegar a velocidades de 115 kbit/s. Al contrario queHSCSD que para su implantación requiere únicamente de actualización software, GPRS necesita deun hardware específico para el enrutamiento a través de una red de datos.

EDGE (Enhaced Data rates for GSM Evolution) nos acerca a las capacidades que otorga 3G en lacomunicación. En combinación con GPRS puede alcanzar velocidades de 384 kbit/s

Page 241: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

19 de 29 18/04/2008 19:49

En la transición se emplean terminales capaces de acceder a ambas redes.

Las empresas de desarrollo y creadoras de contenidos están volcadas en desarrollo de aplicacionesWAP (páginas web accesibles desde la red celular) aunque la expansión es mucho menor de laesperada, posiblemente por las tarifas tan elevadas de la telefonía móvil. Además que la apariciónde teléfonos GPRS y UMTS ha restado muchos usuarios a WAP.

WAP acerca a los usuarios a la utilización de servicios de internet, el posicionemiento en estatecnología ayudará al éxito en el desarrollo de proyectos UMTS. Por lo tanto no hay que verúnicamente a WAP como una tecnología pasarela a UMTS sino que además es una introducción detodas las partes (usuarios, operadoras, empresas, etc..) a servicios móviles en redes.

Nuevos negocios se podrán implementar para esta tecnología, que van desde los propios fabricantesde dispositivos, que desarrollan los nuevos teléfonos y dispositivos capaces de aprovechar el nuevométodo de comunicación a los propios desarrolladores que se les abrirán nuevas posibilidades quehasta ahora son inpensables de creación de contenidos, aplicaciones. En España proximamentehabrá una regulación para la televisión a través de los móviles celulares UMTS.

Actualmente se está implantando la tecnología HSDPA (High Speed Downlink Packet Access) es laoptimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP5 y consiste en un nuevo canal compartido en el enlace descendente que mejora significativamentela capacidad máxima de transferencia de información hasta alcanzar tasas de 14 Mbps. Soportatasas de throughput promedio cercanas a 1 Mbps. Es la evolución de la tercera generación (3G) detecnología móvil, llamada 3.5G, y se considera el paso previo antes de la cuarta generación (4G), lafutura integración de redes.

La gran difusión de los teléfonos móviles, ha dado lugar a innovaciones, por ejemplo, mediante unconjunto de "Chips" se puede convertir un móvil en un control remoto universal para aparatoselectrodomésticos. Proximamente se comercializarán móviles con esta capacidad. Y otras dirigidasal mundo multimedia, actualmente son habituales los teléfonos con sistema deposicionamientoglobal (GPS) cámara fotográfica y prestaciones musicles avanzadas. Como consecuenciarecientemente se han empezado a comercializar teléfonos con disco duro de 1.5 Goctetos, queademás incluyen transmisor de radio FM, salida de televisión, altavoces duales y pantalla de cristallíquido dual, (TFT en el interior y OLED en el exterior).

F) Antenas y salud

Respecto a la alarma creada por grupos ecologistas, sin ninguna base científica, sobre la rediacióndañina y supuestamente productora de cáncer, no hay ninguna base científica que la soporte. Laradiación de la telefonía móvil celular es no ionizante, por lo tanto no puede romper los enlaces delADN. En los siguientes enlaces se tiene información seria:

Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)

Page 242: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

20 de 29 18/04/2008 19:49

El 19 de julio de 2007 la Unión Europea sacó su informe sobre radiación electromagnética por partedel comité de salud humana. Puede acceder a dicho informe en:

http://ec.europa.eu/health/ph_risk/committees/04_scenihr/docs/scenihr_o_006.pdf

En la web de ARP SAPC, hay un estupendo monográfico denominado Antenas y Salud:

http://www.arp-sapc.org/articulos/antenasindex.html

Por otra parte, Ferrán Tarrasa dió una estupenda conferencia el 4 de mayo de 2007 denominada"Telefonía móvil, desmontando mitos". Se puede acceder a su presentación en:

http://www.slideshare.net/giskard/telefona-mvil-y-salud-desmontando-mitos

Enlace recomendado: Teléfonos móviles como pluviómetros

9.4 Sistema de posicionamiento global

Introducción histórica

Cuando la Unión Soviética puso en órbita el primer satélite artificial de la Tierra, se observabacomo un punto brillante, que se movía lentamente entre los astros que servían de referencia para losnavegantes. Pronto surgió una idea,pasar de la navegación estelar a la por satélite. Un grupo decientíficos soviéticos, dirigidos por el académico V. Kotélnikov, ofrecieron utilizar el métodoDoppler para determinar los parámetros de las órbitas de los satélites.

El tres de marzo de 1978, la URSS puso en marcha el satéliteCosmos 1000, dando inicio al sistema de navegación cósmicanacional, "Tsikada", destinado a localizar a los barcos en cualquierlugar del océano. Actualmente hay varios satélites con esta misión.

Page 243: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

21 de 29 18/04/2008 19:49

Con este esquema de satélites, se pueden obtener datos, en elecuador cada 72 minutos y en latitudes altas más a menudo, y enlas latitudes norteñas, donde las órbitas se cruzan,ininterrumpidamente. En los barcos se instala un microprocesador,que se conecta al sistema de radionavegación tradicional El uso deeste sistema, proporcionaba, hace unos años, el ahorro del orden deunos 25000 rublos al año, por barco, en la extinta URSS. Posteriormente se implantó en la URSS elSistema de Satélite de Navegación Global (SSNG), para la localización exacta de barcos,automóviles y otros objetivos.

En el año 1986, la URSS y los EE.UU., declararon a la Organización Marítima Internacional, quese podían explotar estos sistemas con fines pacíficos. De forma que EE.UU. ha desarrollado desdeentonces, un sistema análogo al soviético, quedando completo el año 1995. Consta de 24 satélites,de los que tres son de reserva, situados en tres planos orbitales, a 20200 km de altura, con un ángulode 120 grados, uno respecto al otro. Las señales de navegación se emiten en una banda de 1602.2 a1615 MHz. Además estos satélites pueden servir a una cantidad ilimitada de usuarios. Actualmenteeste sistema está gestionado por el Ministerio de Defensa de EE.UU.

Este es el origen del Sistema de Posicionamiento Global "GPS", en amplio desarrollo actualmente,cuyo predecesor, el SSNG, puede seguir usándose, mediante un módulo adicional.

A muchos navegantes y topógrafos acostumbrados a trabajar con los métodos tradicionales, laobtención de la posición con sólo pulsar un botón, les debe de parecer sorprendente. Existeactualmente una forma más avanzada del GPS, que optimiza aún más los límites de la precisión.Este avance se conoce como GPS diferencial "DGPS", y con él se puede medir fiablemente unaposición hasta cuestión de metros, y en cualquier lugar del planeta. Actulamente Europa estádesarrollando el sistema europeo Galileo, libre de cualquier interferncia militar.

GPS Básico

Se basa en 24 satélites en órbita a 20000 km de distancia. Éstos actúan como puntos de referencia apartir de los cuales "triangulan" su posición unos receptores en la Tierra. En cierto sentido es comouna versión en alta tecnología de la vieja técnica, consistente en tomar marcaciones mediante unabrújula desde las cumbres de los montes cercanos para situar un punto en el mapa.

Los satélites actúan como puntos de referencia al ser supervisadas sus órbitas con gran precisióndesde estaciones terrestres. Mediante una medición del tiempo deviaje de las señales trasmitidas desde los satélites, un receptor GPSen la tierra determina su distancia desde cada satélite. Con lamedición de la distancia desde cuatro satélites y la aplicación decálculos, el receptor obtiene, latitud, longitud, altitud, derrota yvelocidad. Los buenos receptores tienen una precisión menor que100 m, y efectúan más de una medida por segundo.

Los receptores pueden hacerse con antenas muy pequeñas, de hechoson de tal tamaño, que caben en la mano.

Otra ventaja es que las señales GPS (código C/A) están al alcance detodos, gratuitamente sin necesidad de pagar tasas de licencia ni uso,

Page 244: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

22 de 29 18/04/2008 19:49

pues los satélites son de EE.UU y de Rusia, con lo cual no tiene ninguna opción de sacar dinero acosta de este tipo de usuarios.

GPS en tres pasos básicos

Paso 1 Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen conmucha precisión, constituyendo la base de todos los cálculos GPS.

Paso 2 El tiempo de viaje de la señal da la distancia. Mediante una serie de mensajescodificados, un receptor en tierra determina el momento en que la marca de tiempo partió delsatélite, así como el momento de llegada a su antena. La diferencia es el tiempo de viaje decada señal. La distancia es el producto del tiempo por la velocidad de la luz. En este procesoes donde hay errores.

Paso 3 Tres distancias fijan la posición. Se supone un receptor a 23000 km de un satélite.Esta medición restringe el lugar del universo en que puede encontrarse el receptor. Indica queha de estar en algún lugar de una superficie esférica imaginaria, centrada en ese satélite y conun radio de 23000 km. Si por ejemplo el receptor se encuentra a 26000 km de un segundosatélite, eso restringe aún más el lugar, a la intersección entre dos esferas, que es unacircunferencia.

Una tercera medición, añade otra esfera, que interceptal círculo determinado por las otras dos.La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe suposición a sólo dos puntos en todo el universo.

Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de losdos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido.Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurarque el reloj del receptor está sincronizado con la hora universal.

GPS diferencial (DGPS)

Es una forma de hacer más preciso al GPS. El DGPS proporciona mediciones precisas hasta un parde metros en aplicaciones móviles, e incluso mejores en sistemas estacionarios. Esto implica el quesea un sistema universal de medición, capaz de posicionar objetos en una escala muy precisa.

El DGPS opera mediante la cancelación de la mayoría de los errores naturales y causados por elhombre, que se infiltran en las mediciones normales con el GPS. Las imprecisiones provienen dediversas fuentes, como los relojes de los satélites, órbitas imperfectas y, especialmente, del viaje dela señal a través de la atmósfera terrestre. Dado que son variables es difícil predecir cuales actúanen cada momento. Lo que se necesita es una forma de corregir los errores reales conforme seproducen. Aquí es donde entra el segundo receptor, se sitúa en un lugar cuya posición se conozcaexactamente. Calcula su posición a través de los datos de los satélites y luego compara la respuestacon su posición conocida. La diferencia es el error de la señal GPS.

No es posible calcular el error en un momento y que valga para mediciones sucesivas, ya que losreceptores de los satélites cambian continuamente. Para realizar esta tarea es necesario tener dosreceptores operando simultáneamente. El de referencia permanece en su estación y supervisacontinuamente los errores a fin de que el segundo receptor (el itinerante) pueda aplicar lascorrecciones a sus mediciones, bien sea en tiempo real o en algún momento futuro.

El concepto ya está funcionando algún tiempo y se ha utilizado ampliamente en la ciencia eindustria. Hay una norma internacional para la transmisión y recepción de correcciones,denominada "Protocolo RTCM SC-104".

Page 245: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

23 de 29 18/04/2008 19:49

¿Por qué se necesita el DGPS?

Si el mundo fuera como un laboratorio, el GPS sería mucho más preciso. Dado que el mundoparece una jungla, hay multitud de oportunidades para que resulte perturbado un sistema basado enla radio. A continuación se describen los errores a los que hay que enfrentarse:

Errores de los satélites

Los satélites llevan relojes atómicos muy precisos, pero no perfectos. La posición de lossatélites en el espacio es también importante, estos se ubican en órbitas altas, por lo que estánrelativamente libres de los efectos perturbadores de la capa superior de la atmósfera terrestre,pero aún así se desvían ligeramente de las órbitas predichas.

La atmósfera

La información se transmite por señales de radio y esto constituye otra fuente de error. Lafísica puede llevarnos a creer que las señales de radio viajan a la velocidad de la luz, que esconstante, pero eso sólo es en el vacío. Las ondas de radio disminuyen su velocidad enfunción del medio en que se propagan, así pues, conforme una señal GPS pasa a través de laspartículas cargadas de la ionosfera y luego a través del vapor de agua de la troposfera, seretrasa un poco, lo cual implica un valor erróneo de la distancia del satélite.

Error multisenda

Cuando la señal GPS llega a la Tierra se puede reflejar en obstrucciones locales antes dellegar al receptor. La señal llega la antena por múltiples sendas, primero la antena recibe laseñal directa y algo más tarde llegan las desplazadas, produciendo ruido. Un ejemplo es en elcaso de la TV cuando se ven imágenes múltiples solapadas.

Error del receptor

Los receptores tampoco son perfectos y pueden introducir sus propios errores, que surgen desus relojes o de ruido interno.

Disponibilidad selectiva

Mucho peor que las fuentes naturales de error es el que aporta intencionadamente elDepartamento de Defensa de EE.UU., con la finalidad de asegurarse de que ninguna fuerzahostil utiliza la posición de GPS contra los EE.UU. Se introduce ruido en los relojes de lossatélites, lo cual reduce su precisión, aunque también pueden dar datos orbitales erróneos.Los receptores militares disponen de una llave física que desencripta los errores introducidospara así eliminarlos. De esta forma se pueden llegar a precisiones de 15 m.

El DGPS obtiene mejores precisiones que las conseguidas con las codificadas para usosmilitares.

DGPS también proporciona una forma de verificar la fiabilidad de las mediciones momento amomento.

Magnitud típicade los errores (en

m)

Precisiónpor satélite

GPSDGPS

Page 246: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

24 de 29 18/04/2008 19:49

Relojes desatélites

1.5 0

Errores deórbitas

2.5 0

Ionosfera 5 0.4

Troposfera 0.5 0.2

Ruido receptor 0 .3

Multisenda 0 .6

Dep. Defensa 30 0

Precisión deposición

GPS DGPS

Horizontal 50 1.3

Vertical 78 2

3D 93 2.8

¿Cómo funciona el DGPS?

Un receptor GPS puede desplazarse a cualquier sitio y realizar mediciones por sí mismo,empleando como referencia los satélites GPS. Mientras que el DGPS implica otro receptor añadido,es decir uno que se desplaza y otro estacionario.

Previamente se han comentado las diversas fuentes de error. A su vez las distancias entre los dosreceptores son muy pequeñas comparadas con las distancias a las que se encuentran los satélites,esto quiere decir que recorrerán la atmósfera con retrasos análogos, de forma que una de lasestaciones puede dedicarse a medir esos errores y facilitárselo a la otra.

Se ha de ubicar el receptor de referencia en un punto cuya posición se haya determinado conexactitud, al recibir las señales GPS realiza los cálculos en sentido inverso al de un receptor.Emplea su posición para calcular el tiempo y así obtiene el error entre el teórico y el real. Todos losreceptores de referencia han de facilitar esta información de errores a todos los receptoresitinerantes de su zona con objeto de que corrijan sus mediciones. El receptor de referencia reconocetodos los satélites visibles y calcula los errores instantáneos. Luego codifica esta información en unformato estándar y lo transmite a los receptores itinerantes.

Algunos trabajos no requieren correcciones en tiempo real, en este caso se conoce como GPSposprocesado.

También existe el DGPS invertido, por ejemplo, en una flota de camiones que informanperiódicamente de su posición a una estación base. En lugar de enviar a los camiones lascorrecciones diferenciales, la corrección se realiza en la estación base. Los camiones sólo conocensu posición de una manera aproximada, pero el controlador sabría la posición exacta, hasta el puntode poder ubicar el camión en el carril de la calle en que se encuentra.

Aplicaciones de DGPS

Page 247: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

25 de 29 18/04/2008 19:49

Servicio de guardacostas

El Servicio de Guardacostas de EE.UU. es el responsable de proporcionar todas las ayudas denavegación. El huracán BOB que azotó la costa este de EE.UU. en 1991 destrozó o desplazóun gran número de boyas. La situación era peligrosa, pues los barcos iban a puerto confiadosen unas boyas que ya no existían o estaban cambiadas de sitio. El Servicio de Guardacostasequipó uno de sus barcos de mantenimiento de boyas con un receptor DGPS y reposicionaronlas boyas de nuevo, en tan solo unos días.

Aviación

Algunos experimentos realizados por la NASA y por la aviación de EE.UU. contribuyeron alaterrizaje de helicópteros y aviones de pasajeros mediante DGPS como único sistema guía,sin las radiobalizas tradicionales.

En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo estándisponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalarcualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia sepuede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega.

Gestión de los recursos naturales

La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico esdifícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto desu conservación o por ventas a empresas madereras.

El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas conGPS desde helicópteros.

Otras aplicaciones son: topografía de galerías de minas, de superficies de pantanos y de zonaspara pesca, control de incendios.

Exploración costera

Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos enbusca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra unlugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación,lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas dereferencia, y apartarse unos metros significa muchos millones de gasto de más. Parasolucionar este problema usan el GPS.

Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamientotopográfico de los puertos.

Gestión transporte y flotas

Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, elresultado es una más estricta adhesión al horario y una mejor supervisión.

A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas deservicios y servicios de seguridad pública les gusta saber la posición de sus vehículos inclusoal extremo de conocer el nombre de la calle. La solución es DGPS. También se usa en losferrocarriles

Page 248: Apuntes de introduccion a la informatica

Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

26 de 29 18/04/2008 19:49

Actualmente se ha difundido ampliamente su uso en todo tipo de vehículos, incluso hayalgunos teléfonos móviles Nokia que incluyen GPS.

Agricultura

El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puedeanalizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas defertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona losproductos químicos al terreno, va con un GPS y su posición se correlaciona con los datospreviamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Sebeneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productosquímicos.

También se puede aplicar a la fumigación aérea.

Transporte marítimo

En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad.

Otras aplicaciones costeras son: la verificación de vaciados en barcazas, hasta ladeterminación de las zonas de pesca legal.

Seguridad pública

Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. ConDGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadasofrecen a los controladores un mejor conocimiento de la forma en que están desplegados susefectivos.

¿Cómo solucionar la limitación de los 100 m de resolución?

Como se ha comentado previamente, el sistema GPS para usos no militares tiene una limitaciónpuesta intencionadamente por el ministerio de defensa de EE.UU., con la finalidad, como ya ennormal en ellos de incordiar y no beneficiar a nadie, la limitación a 100 m en la resolución, salvoque se use el DGPS que como se ha visto requiere más medios y por lo tanto es más costoso.Debido a las presiones de diversos sectores, el presidente de EE.UU, Clinton. indicó que en el plazode 10 años se eliminarían las restricciones militares, pero mientras tanto el error en demasiadogrande para algunas aplicaciones, como el control de flotas de autobuses urbanos. Para resolver estafalta de resolución, en EE.UU se ha propuesto un sistema aplicable a los autobuses que consta delsiguiente equipamiento en cada autobús, un odómetro o sensor de velocidad del vehículo, y ungiróscopo que nos dará el cambio en acimut del vehículo. Estos sensores ha de estar perfectamentecalibrados y además ha de conocerse la posición inicial y el acimut. Como todos los sensores estánsujetos a error esta no es la solución perfecta. La empresa Andrew Corp., ha creado un sistema quecombina lo mejor del GPS y el sistema de posicionamiento continuo (CPS). El sensor de GPScalibra los sensores para evitar errores acumulados. El factor más importante en la generación deerrores es la estabilidad del giróscopo, reducidos al mínimo con el sistema Navigator AUTOGIRO,basado en un giróscopo con fibra óptica, diseñado especialmente para sistemas de navegación. Elsistema propuesto por esta empresa está aplicándose en diversas empresas de transporte urbano deEE.UU.

El siguiente enlace es una página dedicada a GPS.