Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware...

26
1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse de ellas, hay una que se ha destacado muy por encima del resto: la computadora electrónica. Durante muchos años se le ha otorgado el título de cerebro electrónico, y se han empleado numerosas horas en discutir apasionadamente sobre si estas máquinas "piensan" realmente o no. Sin lugar a dudas, el cerebro humano es mucho más perfecto y eficiente que cualquier máquina desarrollada hasta el momento, por muy sofisticada que ésta sea. En lo único que se ve superado el cerebro humano por la máquina es en la velocidad de cálculo, probablemente de ahí provenga su mitificación. La búsqueda de aparatos de apoyo para mejorar dicha velocidad data de tiempos inmemoriales. Respecto a su capacidad de almacenamiento, la máquina aventaja al hombre con relación al orden y precisión, pero el cerebro humano permite almacenar un volumen mucho mayor de información; de hecho es imposible, por el momento, que una máquina pueda almacenar toda la información que existe en la memoria de un hombre, por simple que éste sea. Al encarar el estudio de un curso sobre informática es importante definir claramente el significado de este término, ya que al ser relativamente nuevo, puede no estar totalmente aclarado. Una primera aproximación nos dice que es una contracción de "información automática", pero se puede llegar a definiciones mucho más ampulosas como: "Es la disciplina que se ocupa del tratamiento de la información a través de la aplicación de la inteligencia sobre la misma, en forma recurrente y teniendo como fin último la creación y transmisión de conocimiento"; para los alcances de este curso basta una definición tal como: "Es la ciencia que trata la concepción, realización y utilización de los sistemas que procesan información". Otro punto importante al comienzo del estudio sobre el tema es analizar la evolución que han sufrido los distintos medios de cálculo hasta desembocar en las modernas computadoras. Esto se hace para que a través de una visión del pasado de estos equipos, podamos hacer previsiones con respecto al futuro, de una manera más confiable, sin entrar en especulaciones de ciencia-ficción. Comenzaremos pues, con una breve perspectiva histórica. PERSPECTIVA HISTORICA E INFLUENCIA ACTUAL Perspectiva histórica Si no somos demasiado rigurosos en cuanto a las características exigidas para considerar máquinas de calcular a los primeros elementos utilizados por el hombre para auxiliarse en las actividades intelectuales relacionadas con el cálculo, podemos afirmar que el más elemental de estos utensilios es el ábaco. Su origen tuvo lugar en Asia, hace varios miles de años y aún sigue brindando servicios en esos lugares. Con un poco de paciencia y algo de práctica, se pueden realizar con él adiciones y sustracciones de números grandes, a velocidades bastante elevadas. A lo largo de la historia se han inventado otras muchas máquinas que, por su sencillez, no vamos a considerarlas prototipos de las modernas computadoras, hasta que en el siglo XVIII, aproximadamente en 1642, el filósofo y científico francés Blaise Pascal, de tan sólo dieciocho años de edad, inventó una máquina que sumaba y restaba denominada "pascalina" y que utilizaba ruedas dentadas como mecanismo; estos engranajes estaban formados por diez dientes numerados del 0 al 9. Cuando una rueda pasaba del 9 al 0 después de una vuelta completa, producía un arrastre de un décimo de vuelta en la rueda situada a su izquierda, incrementando en una unidad el número de lectura. Este proceso de "arrastre automático" constituye el principal aporte de la máquina de Pascal, que éste fabricara especialmente para complacer a su padre, que era recaudador de impuestos. La "pascalina" no tuvo éxito comercial. Posteriormente, en 1671, el filósofo y matemático alemán Gottfried Leibniz, que inventó el cálculo infinitesimal en forma independiente de Newton, utilizando el principio de la máquina de Pascal, desarrolló un proyecto que además de sumar y restar, multiplicaba y dividía por sumas y restas sucesivas respectivamente, utilizando por primera vez el principio cíclico. Sin embargo, no puede hablarse de auténtico adelanto, en cuanto a los conceptos del cálculo y su representación, hasta las investigaciones del británico Charles Babbage quien, aproximadamente en 1823 comenzó a trabajar en un proyecto denominado "máquina de diferencias", que servía para el

Transcript of Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware...

Page 1: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

1

Unidad 1: Hardware INTRODUCCION

De entre todas las máquinas que ha inventado el hombre para servirse de ellas, hay una que se

ha destacado muy por encima del resto: la computadora electrónica. Durante muchos años se le ha

otorgado el título de cerebro electrónico, y se han empleado numerosas horas en discutir

apasionadamente sobre si estas máquinas "piensan" realmente o no. Sin lugar a dudas, el cerebro

humano es mucho más perfecto y eficiente que cualquier máquina desarrollada hasta el momento, por

muy sofisticada que ésta sea. En lo único que se ve superado el cerebro humano por la máquina es

en la velocidad de cálculo, probablemente de ahí provenga su mitificación. La búsqueda de aparatos

de apoyo para mejorar dicha velocidad data de tiempos inmemoriales. Respecto a su capacidad de

almacenamiento, la máquina aventaja al hombre con relación al orden y precisión, pero el cerebro

humano permite almacenar un volumen mucho mayor de información; de hecho es imposible, por el

momento, que una máquina pueda almacenar toda la información que existe en la memoria de un

hombre, por simple que éste sea.

Al encarar el estudio de un curso sobre informática es importante definir claramente el

significado de este término, ya que al ser relativamente nuevo, puede no estar totalmente aclarado.

Una primera aproximación nos dice que es una contracción de "información automática", pero se

puede llegar a definiciones mucho más ampulosas como: "Es la disciplina que se ocupa del

tratamiento de la información a través de la aplicación de la inteligencia sobre la misma, en forma

recurrente y teniendo como fin último la creación y transmisión de conocimiento"; para los alcances de

este curso basta una definición tal como: "Es la ciencia que trata la concepción, realización y utilización

de los sistemas que procesan información".

Otro punto importante al comienzo del estudio sobre el tema es analizar la evolución que han

sufrido los distintos medios de cálculo hasta desembocar en las modernas computadoras. Esto se

hace para que a través de una visión del pasado de estos equipos, podamos hacer previsiones con

respecto al futuro, de una manera más confiable, sin entrar en especulaciones de ciencia-ficción.

Comenzaremos pues, con una breve perspectiva histórica.

PERSPECTIVA HISTORICA E INFLUENCIA ACTUAL Perspectiva histórica

Si no somos demasiado rigurosos en cuanto a las características exigidas para considerar

máquinas de calcular a los primeros elementos utilizados por el hombre para auxiliarse en las

actividades intelectuales relacionadas con el cálculo, podemos afirmar que el más elemental de estos

utensilios es el ábaco. Su origen tuvo lugar en Asia, hace varios miles de años y aún sigue brindando

servicios en esos lugares. Con un poco de paciencia y algo de práctica, se pueden realizar con él

adiciones y sustracciones de números grandes, a velocidades bastante elevadas.

A lo largo de la historia se han inventado otras muchas máquinas que, por su sencillez, no

vamos a considerarlas prototipos de las modernas computadoras, hasta que en el siglo XVIII,

aproximadamente en 1642, el filósofo y científico francés Blaise Pascal, de tan sólo dieciocho años de

edad, inventó una máquina que sumaba y restaba denominada "pascalina" y que utilizaba ruedas

dentadas como mecanismo; estos engranajes estaban formados por diez dientes numerados del 0 al

9. Cuando una rueda pasaba del 9 al 0 después de una vuelta completa, producía un arrastre de un

décimo de vuelta en la rueda situada a su izquierda, incrementando en una unidad el número de

lectura. Este proceso de "arrastre automático" constituye el principal aporte de la máquina de Pascal,

que éste fabricara especialmente para complacer a su padre, que era recaudador de impuestos. La

"pascalina" no tuvo éxito comercial.

Posteriormente, en 1671, el filósofo y matemático alemán Gottfried Leibniz, que inventó el

cálculo infinitesimal en forma independiente de Newton, utilizando el principio de la máquina de

Pascal, desarrolló un proyecto que además de sumar y restar, multiplicaba y dividía por sumas y

restas sucesivas respectivamente, utilizando por primera vez el principio cíclico.

Sin embargo, no puede hablarse de auténtico adelanto, en cuanto a los conceptos del cálculo

y su representación, hasta las investigaciones del británico Charles Babbage quien, aproximadamente

en 1823 comenzó a trabajar en un proyecto denominado "máquina de diferencias", que servía para el

Page 2: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

2

cálculo de tablas. Babbage abandonó, sin acabar, este proyecto por una máquina más potente y

ambiciosa que él denominó "máquina analítica" y que concibió en 1831. Su finalidad era ejecutar

cualquier operación matemática sin la intervención humana en el proceso de cálculo. Uno de los

principales adelantos consistió en la idea que tenía Babbage, con respecto a que a su máquina se la

podía "enseñar" o "programar" para efectuar cualquier tarea matemática. Desafortunadamente, las

máquinas de Babbage, no pudieron ser construidas pues necesitaban una tecnología mecánica

imposible de lograr en esa época. El proyecto de Babbage utilizaba un sistema de tarjetas

perforadas (que había descubierto en 1801 el francés Joseph Jacquard y empleado en un telar

automático), con las cuales se suministraban los datos y se controlaba la máquina. En 1835, la

condesa Ada Lovelace, compañera de Babbage, llegó a desarrollar programas para la máquina

analítica, convirtiéndose de esa manera en la primera persona que programó ordenadores. A pesar de

que la máquina analítica no se llegó a construir jamás, su proyecto mantiene grandes analogías con

las actuales computadoras.

Otro hito en el desarrollo informático es la máquina tabuladora del norteamericano Hermann

Hollerith quien, en 1890, la utilizó para evaluar el Censo Norteamericano, ingresando los datos por

medio de tarjetas perforadas de 80 columnas, del tamaño de un billete de un dólar. Hollerith fundó una

compañía que posteriormente se convertiría en la empresa de informática más grande e importante

del mundo: IBM (International Business Machines).

En 1937, Howard Aiken, propuso el diseño de una calculadora electromecánica que se

comenzó a construir en 1939, gracias a un acuerdo con IBM. En 1944 ve la luz el trabajo de Aiken: el

Mark I, considerado el primer ordenador electromecánico del mundo con programa almacenado. Este

se programaba mediante tarjetas perforadas.

El primer ordenador electromecánico del mundo, de aplicación especial, fue el Colossus,

desarrollado por el inglés Alan Turing en 1943; fue el invento más secreto de la Segunda Guerra

Mundial, fabricado para descifrar el código secreto alemán Enigma.

En 1943, en los momentos más críticos de la II Guerra mundial, un coronel del Ejército de los

Estados Unidos, solicitó una calculadora para la artillería. El reto fue aceptado por J.P. Eckert y J.M.

Mauchly, que más tarde fundarían la empresa UNIVAC. El desarrollo tuvo lugar en la Universidad de

Pensilvania y en 1946 nace el ENIAC (Electronic Numerical Integrator and Calculator), el primer

ordenador electrónico del mundo. El ENIAC utilizaba 18.000 válvulas de vacío y 1.500 relés; emitía el

calor equivalente a 200.000 Watts y estaba instalado en una sala de 9x30m. Su capacidad de

almacenamiento era de 20 números de 10 dígitos. A pesar del gran adelanto, con respecto a la

velocidad, que significaba sustituir la inercia de las partes mecánicas por conmutaciones electrónicas,

su concepción dio un paso atrás con respecto a programación ya que todo el programa debía hacerse

reordenando las conexiones; luego de terminada la guerra se le hicieron modificaciones para permitir

la programación mediante tarjetas perforadas, pero sus características no permitieron que prosperara

comercialmente. Fue retirado de funcionamiento en 1952.

Aproximadamente en la misma época en que nace el ENIAC, John Von Newman -quien

propusiera el sistema binario para la representación numérica en las computadoras- desarrolló el

EDVAC (Electronic Discrete Variable Automatic Computer), la primera computadora electrónica de

programa internamente almacenado. El EDVAC fue una computadora mucho más pequeña y simple

que el ENIAC, pero mucho más poderosa.

El ENIAC y el EDVAC dan comienzo a lo que se denomina la Primera Generación de

Ordenadores, cuyo componente fundamental en la unidad de proceso eran los tubos de alto vacío o

válvulas electrónicas, su velocidad de proceso se medía en milésimas de segundo, pero su tiempo

medio entre fallos era muy bajo; en el ENIAC, por ejemplo, a los dos minutos de funcionamiento las

válvulas comenzaban a fundirse. Los computadores más representativos de esta época fueron: UNIVAC

I, IBM 650 e IBM 700.

Con la aparición del transistor en 1956, comienza lo que se denomina Segunda Generación

de Computadoras. El transistor permitió reducir el tamaño de las máquinas y aumentar su potencia y

velocidad, que se medía en millonésimas de segundo. Las computadoras de esta generación ya eran

alfanuméricas y su tiempo medio entre fallos aumentó en forma sustancial. Los representantes más

importantes fueron las series 1400 y 1700 de IBM, el 1107 de UNIVAC REMINGTON RAND, el

BURROUGHS B-500, el HONEYWELL 800 y el CONTROL DATA 1604.

Pese a que no es muy exacta la fecha, hacia 1964, nace la Tercera Generación de

Computadoras que utiliza los circuitos integrados, disminuyendo aún más los tamaños, mejorando

potencia y velocidad y aumentando el tiempo medio entre fallas. La velocidad de proceso orilla el

nanosegundo (una mil millonésima de segundo). Representantes de esta generación son las series

360 y 370 de IBM, UNIVAC 1108 y 1110, HONEYWELL 600 y la serie 5700 de BURROUGHS.

La cuarta generación (1971-1983) fue caracterizada por la integración sobre los componentes

Page 3: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

3

electrónicos, lo que propició la aparición del microprocesador un único circuito integrado en el que se

reúnen los elementos básicos de la máquina. Se desarrolló el "chip". Se colocan más circuitos dentro

de un "chip". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la

unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es

operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips"

de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se

desarrollan las supercomputadoras. La denominada Cuarta Generación (1971 a 1983) es el producto

de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de

chips hizo posible la creación de las computadoras personales (PC). Los circuitos integrados LSI y

VLSI (Large Scale Integration y Very Large Scale Integration) nos introducen en la Cuarta Generación

de Computadoras en la que los tamaños y costos han descendido tanto que las ponen al alcance de

casi todo el mundo.

En los años 90’ del siglo pasado aparece la quinta generación de computadoras. Surge como

computadora portátil o laptop tal cual la conocemos en la actualidad. IBM presenta su primera laptop o

computadora portátil y revoluciona el sector informativo. La quinta generación de computadoras,

también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un

ambicioso proyecto hecho por Japón a finales de la década de 1970. Su objetivo era el desarrollo de

una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto

en el plano del hardware como del software, usando el lenguaje PROLOG2 3 4 al nivel del lenguaje

de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una

lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y

prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per

Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su

desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).

En Japón se sigue trabajando máquinas de sexta generación, de procesamiento en paralelo y

flujo de datos y ya se habla de nuevas generaciones con la sustitución del electrón por el fotón y

utilización de biointeligencia.

Influencia actual de la informática La computadora es una herramienta de cálculo capaz de procesar cualquier clase de

información y realizarlo a velocidades realmente muy elevadas, por consiguiente es aplicable a la

solución de problemas en cualquier rama del conocimiento humano. De esta manera, actualmente

forman parte indispensable de gran número de industrias, centros de educación, de investigación,

bancos, centros administrativos, etc. A pesar de ser un invento relativamente reciente, ha penetrado

en nuestras vidas hasta tal punto, que pocas cosas existen en este momento que, en mayor o menor

grado, no necesitan tras de sí una computadora.

Cuando preguntamos cuáles son las aplicaciones de las computadoras?, su respuesta implica

elaborar una clasificación que estrictamente hablando no existe. Sin embargo, las aplicaciones en

base a su objetivo y sus funciones se pueden dividir en dos: Técnicas (o Científicas) y Administrativas,

aunque entre ellas siempre hay una interacción mutua. Ninguna de las dos categorías agota todas las

áreas posibles relacionadas con el manejo de la información, el que siempre será una función del

ingenio y habilidad del hombre que la utiliza.

Las aplicaciones técnicas, fundamentalmente, comprenden la solución de problemas

matemáticos, la solución de problemas de ingeniería, la simulación de sistemas y el control de

procesos. Las aplicaciones administrativas, por su parte, abarcan el procesamiento de grandes

cantidades de información como: cuentas corrientes de bancos o comercios, control de stock,

facturación, contabilidad y, en general, gestión empresarial.

La ciencia moderna usa las matemáticas como lenguaje para expresar leyes en términos

exactos. La computadora digital electrónica es una herramienta valiosa para estudiar las

consecuencias de estas leyes. Una vez que se ha encontrado el procedimiento exacto para resolver un

problema, el tiempo requerido para ejecutar manualmente los cálculos necesarios lo puede hacer

prohibitivo y también, algunas veces, es necesario resolver el mismo problema en repetidas ocasiones

usando diferentes series de parámetros o datos de entrada. La computadora no sólo es capaz de

evaluar expresiones matemáticas a altísimas velocidades, sino también puede efectuar cálculos

tantas veces como se desee con diferentes series de va- lores numéricos, comparar los resultados y

encontrar los valores óptimos que se emplearon.

Considerando todo lo expresado anteriormente, la gente a menudo se pregunta: Puede una

computadora hacer cualquier cosa? Pueden las computadoras pensar?.

A pesar de sus increíbles posibilidades, las computadoras tienen sus limitaciones, pero es

difícil predecir cuales de estas limitaciones serán superadas en el futuro. Por lo tanto no hay acuerdo

Page 4: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

4

entre los expertos sobre lo que las computadoras serán o no dentro de 100 años. Es difícil aún

predecir lo que las computadoras harán dentro de 5 o 10 años.

Lo más importante a aprender es qué tipos de tareas puede hacer una computadora,

eficientemente, rápido y a bajo costo. Por el momento, pensar en forma parecida a un ser humano, no

es una de esas tareas.

En general, una forma de saber si un problema puede ser resuelto por una computadora es

asignar ese problema a una persona o grupo de personas, sin preocuparse cuanto tiempo llevará a

las personas hacer esa tarea, 100 ó 1000 años, si no puede ser realizado de ninguna manera por las

personas, es muy probable que la computadora tampoco pueda hacerlo ahora, ni en un futuro próximo.

Los adelantos tecnológicos favorecieron, en principio, a las actividades técnicas, debido

fundamental- mente a los requerimientos de equipos necesarios en esta categoría. Las computadoras

para usos técnicos se requieren, generalmente, para realizar grandes cantidades de cálculos sobre

cantidades pequeñas de datos. La gestión administrativa, usualmente, trabaja sobre mayor cantidad

de datos, realizando operaciones menos complejas. El abaratamiento de los equipos, la mayor

performance de los mismos y la más reciente reducción del valor de las memorias de trabajo y de

almacenamiento masivo, permiten cubrir con facilidad las necesidades de casi cualquier aplicación,

poniendo la computación al alcance de prácticamente todo el mundo.

Lo mencionado precedentemente permite, en las empresas, descentralizar muy

convenientemente los equipos. Un ejecutivo de una importante firma fabricante de microprocesadores,

se refería a esta situación haciendo una analogía con lo sucedido en los albores de la revolución

industrial, en la que los grandes motores eran la pieza más importante de los talleres ya que todas las

máquinas estaban acopladas a un eje común, el del gran motor, que en caso de avería detenía toda

la producción. Con los avances tecnológicos se abarató la producción de motores de menor potencia,

dotándose a cada máquina de su correspondiente motor, lográndose mejores aprovechamientos y

menores trastornos en casos de falla. Con el aprovechamiento de la computadora está sucediendo una

situación muy parecida.

CLASIFICACION DE COMPUTADORAS

Existen distintos puntos de vista para encarar una clasificación de computadoras. Desde la

óptica de sus principios de funcionamiento, tenemos tres tipos principales: Digitales (que son el objeto

de este curso); Analógicas e Híbridas.

Sus principales características son las siguientes: - Computadoras Digitales: Son las que operan realizando los cálculos con los que estamos

familiarizados, es decir operan en forma discreta obteniendo los resultados por aplicación de métodos

numéricos, proporcionando los resultados en forma de números o bien en forma de gráficos discontinuos.

- Computadoras Analógicas: estas máquinas resuelven problemas de sistemas físicos

mediante analogías eléctricas de los mismos, operando de acuerdo con las leyes del cálculo

infinitesimal en forma continua. Proporcionan la solución en forma de funciones de una variable

independiente, el tiempo, que pueden visualizarse mediante dispositivos adecuados, como

osciloscopios y graficadores, etc. Las computadoras digitales son más versátiles, permiten su

utilización en las ramas más dispares del conocimiento, son extremadamente rápidas y permiten el

almacenamiento o memorización de los datos. Las computadoras analógicas tienen un área de

aplicación más restringida, la simulación y resolución de ecuaciones íntegro-diferenciales

fundamentalmente, pero son muy eficientes. Su mayor desventaja es su elevado costo, debido a la

necesidad de elementos más precisos. Esta desventaja está haciendo que su uso disminuya, siendo

sustituidas por computadoras digitales adecuadamente programadas.

- Computadoras Híbridas: son combinaciones de computadoras digitales y analógicas que

permiten usufructuar las ventajas de ambos sistemas.

Por lo tanto la primera clasificación posible de computadoras será:

Page 5: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

5

Una vez determinado el tipo de computadora del cual nos ocuparemos, es decir las

computadoras digitales, podemos hacer una nueva clasificación, esta vez en base a la tecnología

empleada en su construcción.

Si en este estudio sólo tenemos en cuenta las computadoras digitales electrónicas, hasta el

momento existen cinco generaciones de computadoras, como vimos anteriormente.

Es de destacar que esta clasificación evoluciona con el tiempo y con los avances

tecnológicos, y se puede graficar de la siguiente forma:

Hasta hace 15 años el término computadora comprendía a cualquier equipo dedicado al

proceso de datos. Actualmente podemos distinguir tres clases de computadoras, claramente

diferenciados: la maxi-computadora o computadora clásica, la minicomputadora y la

microcomputadora, todo esto teniendo en cuenta la capacidad y potencia.

A medida que descendemos en esta escala, nos encontramos con equipos menos potentes

aunque más baratos y versátiles.

En general cada uno de ellos tiene características ideales para un tipo especial de usuario,

por lo tanto ninguno anula a los anteriores, aunque existe la tendencia a la sustitución de los grandes

equipos por sistemas de miniordenadores o micro-ordenadores distribuidos, con lo que se gana en

autonomía sin perder cohesión. Existe una clasificación más amplia que los divide, de mayor a menor

en: supercomputadora, maxi, media, mini, mili, micro y nano. Aparecen además las de bolsillo; las

home computers y las personal computers y a éstas, en unidades de escritorio, laptops, notebooks y

netbooks, pero consideramos que todas éstas están, más o menos, incluidas en la clasificación.

Trataremos de clarificar los alcances y características de los tipos principales:

- Maxi-computadora: son equipos necesarios para el proceso de datos a gran escala, tanto

CLASIFICACIÓN EN BASE A TECNOLOGÍA

1ra. Generación: 1946 - Válvulas

2da. Generación: 1956 - transistores

3ra. Generación: 1964 - circ. integrados

4ta. Generación:

1975 - circ. integr. VLSI

5ta. Generación

1990- LIPS (Logical Inferences Per Second)

CLASIFICACIÓN POR PRINCIPIO DE

FUNCIONAMIENTO

DIGITALES

ANALÓGICAS

HÍBRIDAS

Page 6: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

6

en su componente de gestión comercial como científica. Normalmente la adopción de grandes

computadoras obliga a realizar fuertes inversiones, tanto por lo oneroso que resultan los equipos,

como por las instalaciones auxiliares que necesitan: aire acondicionado, locales diáfanos y amplios,

etc. El equipo humano dedicado a su explotación debe ser numeroso y de alta especialización. Por

todo ello, sólo es recomendable su implementación si la complejidad o características de las

aplicaciones no se adaptan a sistemas más asequibles.

- Mini-computadoras: estos equipos son "mini" sólo en tamaño y precio, prestando

servicios muy importantes, incluso, si se distribuyen convenientemente y se conectan entre sí las

minicomputadoras pueden sustituir con éxito a un equipo grande, evitando la centralización y

acercando los equipos al usuario final. Sus principales aplicaciones son: el control de procesos;

comunicaciones y sistemas de información.

- Microcomputadoras: En la actualidad constituyen uno de los sectores más importantes

del mercado informático, haciéndose cargo de muchas de las áreas que anteriormente se cubrían con

minicomputadoras. Sus principales aplicaciones son: control de procesos; control de periféricos de

computadoras mayores; toma de datos y computadoras personales, cuyo bajo costo y la posibilidad

de introducir la informática en el hogar, ha permitido que su popularidad haya crecido espectacularmente.

PRINCIPIO DE FUNCIONAMIENTO Y ELEMENTOS FUNDAMENTALES

Un sistema de computación está formado por dos partes claramente diferenciables,

indispensables ambas, para un adecuado funcionamiento del mismo.

Una de ellas, que es la que describiremos en este punto, está formada por el medio físico o

tangible, compuesta por el equipo y sus accesorios, es decir: los circuitos, teclado, monitor, cables,

etc. La otra parte, de la que hablaremos en la próxima unidad, es la que comprende toda la

información complementaria que el equipo necesita para su normal funcionamiento: el sistema

operativo, intérpretes, compiladores, programas, etc.

La parte física se suele denominar con el término inglés "hardware" y la parte no-física con un

término derivado de aquél: "software". También algunos autores los denominan anatomía y fisiología

de las computadoras, respectivamente.

Partiendo de una definición de la función general de una computadora llegaremos a un detalle

de los elementos fundamentales de la misma: podemos decir que la función principal de una

computadora es la obtención de resultados a través de la información dada por el hombre en forma de

instrucciones y datos:

Esta sencilla definición permite clarificar que aún el hardware de una computadora estará

compuesto principalmente por dos partes: un lugar donde se desarrollan todos los procesos que se

denomina CPU y los elementos que la rodean y le permiten comunicarse con el exterior, llamados

dispositivos periféricos.

La CPU -sigla inglesa de Unidad Central de Proceso- es el corazón de la máquina y está

formada por la unidad de control, la unidad aritmético-lógica y la unidad de memoria.

Los dispositivos periféricos se dividen en unidades de entrada, unidades de salida y unidades

de almacenamiento.

- Unidad de Control: es la encargada de interpretar y seleccionar las distintas instrucciones

que forman el programa y que se encuentran almacenadas en la memoria. Esta unidad interpreta, de

entre los datos introducidos a la memoria, aquellos códigos que significan instrucciones, generando

señales que envía a las otras unidades de la máquina que son las encargadas de ejecutarlos.

- Unidad Aritmético-lógica: Es la que lleva a cabo todos los cálculos y comparaciones

(decisiones) que forman el programa. Durante la ejecución del mismo fluyen entre esta unidad y la

DATOS COMPUTADORA RESULTADOS

INTRUCCIONES

Page 7: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

7

memoria los diferentes datos, indicándole la unidad de control el tipo de operación a realizar con estos

datos.

- Unidad de Memoria: Es la parte de la computadora en la que se introducen y almacenan

los datos e instrucciones que forman el programa. De ella extraen, la unidad de control y la unidad

aritmético-lógica, la información que necesitan para ejecutar los programas y deposita los datos

intermedios que se generan. Una vez finalizada la ejecución del programa, quedan almacenados en

esta unidad los resultados para ser extraídos por la unidad de salida.

C.P.U.

- Unidad de Entrada: Es el sistema mediante el cual se introducen en el ordenador los datos

y las instrucciones que forman el programa que se habrá de ejecutar. Son los elementos de

comunicación entre el hombre y la máquina.

Ejemplos de periféricos de entrada son:

Teclados.

Lápices ópticos.

Lector de códigos de barras.

Joysticks y ratones.

Digitalizadores y scanners.

Convertidores analógico/digital.

Micrófonos

Sensores (auditivos, de movimiento, ópticos, etc.)

- Unidad de salida: Es el sistema que toma de la memoria la información codificada y la

convierte en un formato que, o bien puede ser directamente interpretado por el hombre, o trasladado a

otra máquina de procesamiento. En general son los instrumentos de comunicación entre la máquina y

el hombre.

Ejemplos de periféricos de salida son: Monitores (tubos de rayos catódicos)

Impresoras.

Plotters.

Convertidores digitales a analógicos.

Displays de cuarzo líquido o leds.

Parlantes.

Indicadores luminosos.

Unidad de Control

Unidad Aritmético-lógica

Unidad de Entrada MEMORIA Unidad de Salida

Unidades de Almacenamiento

Flujo de Control

Flujo de Datos

Page 8: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

8

- Unidades de almacenamiento: Son aquellas unidades que utilizando algún elemento de

soporte (magnético o electrónico), como memorias auxiliares de almacenamiento, permiten la entrada

o salida de in- formación de la Unidad Central de Proceso.

Ejemplos de periféricos de almacenamiento son:

Unidades de disco magnético.

Unidades de cinta. Unidades de disco óptico. Unidades de memoria electrónica (pendrives).

Unidades de Medida. El propósito principal de las computadoras es el procesamiento de números; que esos

números pueden significar letras, símbolos u otra información es algo aparte: las computadoras

procesan números. Por razones técnicas, las computadoras electrónicas digitales tienen facilidad

para reconocer sólo dos estados posibles: hay tensión o no hay tensión. La pregunta es, por lo tanto,

si con esta limitación la computadora puede sernos útil. En principio parecería que no, debido a que el

hombre maneja su actividad con un sistema numérico que reconoce 10 símbolos distintos, es decir

tiene base diez. Este sistema se denomina sistema numérico decimal. Su base proviene de la

cantidad de dedos que los seres humanos tienen en sus manos, con las que se ayuda naturalmente a

contar.

Qué sucede entonces con un equipo que sólo reconoce dos estados posibles?. Pues en

realidad es muy simple: cuenta hasta dos. Existe un sistema de numeración que tiene base dos y se

denomina sistema binario. Las computadoras manejan su información con este sistema de

numeración.

Sistema numérico binario Como dijimos anteriormente, este sistema tiene base dos y reconoce sólo dos símbolos: el

cero (0) y el uno (1). A esta mínima unidad de información se la denomina BIT (Binary Information

digiT, dígito de información binario). Generalmente la información que manejan las computadoras está

formada por cadenas de bits de longitud constante, denominadas palabras de procesamiento,

existiendo máquinas de 1, 4, 8, 12, 16, 32, 64 y más bits. Las microcomputadoras utilizan palabras de

8 y 16 bits mientras que las grandes computadoras procesan palabras de 32 y 64 bits.

Como se utiliza mucho la configuración de 8 bits o múltiplos de 8, se denomina "byte" a esa

configuración. También se le suele denominar "carácter" ya que con las 256 combinaciones posibles

de 8 bits (2^8), se pueden almacenar todos los caracteres utilizables: mayúsculas, minúsculas,

números, signos, caracteres extranjeros, etc.

Por otra parte 1.024, (2^10) -la potencia entera de dos más cercana a 1.000- se emplea

como múltiplo, notándose como Kilo. Es decir cuando decimos: 1 Kbyte, hablamos de 1.024 bytes o

de 8.192 bits. Análogamente, 1.048.576, (2^20) -la potencia entera de dos más cercana a 1.000.000-

también se emplea como múltiplo, notándose como Mega.

Otros múltiplos son el Giga para representar los 1.000.000.000 (miles de MegaBytes) y el

Tera para representar los billones de Bytes o millones de MegaBytes.

A pesar de que esos múltiplos son bastante impresionantes, ya están preparados los que

seguirán la secuencia: Peta, Exa, Zetta y Yotta, hasta el momento.

Sistemas de Codificación La posibilidad que tienen los hombres y las computadoras para comunicarse se sustenta en

que puedan manejar un lenguaje común; el caso es totalmente análogo al de cualquier par de

personas que intenten entrar en diálogo: deben utilizar un lenguaje que resulte comprensible por

ambas. La serie de acuerdos que representan los elementos de una convención para establecer una

comunicación entre un hombre y una computadora, o entre dos computadoras, se conoce con el

nombre de código. El hombre ha utilizado símbolos y códigos desde hace mucho tiempo. Un ejemplo

muy conocido es el código Morse, en el cual los números y las letras del alfabeto son simbolizados

mediante puntos y rayas para permitir su transmisión. Otro ejemplo es el código Braile que permite

leer a los ciegos. Las señales de tránsito también forman un código compuesto de una serie de

acuerdos sobre el comportamiento del tráfico.

Volviendo a los códigos para computadoras debemos destacar que es sumamente importante

que la simbología empleada debe tener exactamente el mismo significado para ambas partes a fin de

evitar cualquier confusión o interpretación errónea.

La elección de un código para una aplicación determinada depende de varios factores. Uno de

Page 9: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

9

ellos es su facilidad para efectuar cálculos aritméticos y otro su facilidad para detectar errores y

corregirlos. Los ordenadores modernos sólo reconocen los símbolos 1 y 0, ya que son manejados

muy fácilmente por los equipos electrónicos, en este punto trataremos de mostrar algunas de las

formas en que puede representarse una gran cantidad de información, haciendo uso solamente de

unos y ceros.

Existen códigos que permiten convertir datos numéricos en información binaria. Esos códigos

se denominan códigos ponderados. Por tratarse de conversiones muy internas al equipamiento no

serán tratados aquí.

Existen también códigos que se utilizan para la conversión de letras y otros signos a códigos

binarios. Estos códigos se denominan códigos no ponderados y por su importancia, se estudiará

brevemente el denominado Código ASCII.

ASCII (se pronuncia aproximadamente como: asji) es acrónimo de American Standart Code

for Information Interchange. Es de hecho una versión americana del código internacional ISO con

algunos agregados para la utilización de símbolos especiales. El código ISO no es muy popular a

diferencia del ASCII que es prácticamente el sistema de codificación universal en pequeñas y grandes

computadoras. Los caracteres permitidos en código ASCII incluyen el alfabeto inglés, tanto en

mayúscula como en minúscula, los números, signos de puntuación, operadores matemáticos, el

espacio (ESP), algunos signos de utilización especial y caracteres de control. Estos caracteres de

control son códigos no imprimibles (es decir que no se ven) e incluyen información para manipular

periféricos como retorno de carro en una impresora, avance de línea, tabulación vertical y horizontal,

etc. Los caracteres ASCII de control cubren los primeros 32 códigos (del 0 al 31) y el 127.

El Código ASCII es un código de 7 bits, pero en los sistemas modernos se amplía al octavo

bit, hasta completar el byte y así incluir gráficos, letras griegas, símbolos matemáticos, letras de

distintos idiomas no incluidas en el inglés, etc. A continuación se presentan los primeros 128

caracteres correspondientes al código ASCII convencional:

000 = NUL 001 = SOH 002 = STX 003 = ETX 004 = EOT 005 = ENQ

006 = ACK 007 = BEL 008 = BS 009 = HT 010 = LF 011 = VT

012 = FF 013 = CR 014 = SO 015 = SI 016 = DLE 017 = DC1

018 = DC2 019 = DC3 020 = DC4 021 = NAK 022 = SYN 023 = ETB

024 = CAN 025 = EN 026 = SUB 027 = ESC 028 = FS 029 = GS

030 = RS 031 = US 032 = ESP 033 = (!) 034 = (") 035 = (#)

036 = ($) 037 = (%) 038 = (&) 039 = (') 040 = (() 041 = ())

042 = (*) 043 = (+) 044 = (,) 045 = (-) 046 = (.) 047 = (/)

048 = (0) 049 = (1) 050 = (2) 051 = (3) 052 = (4) 053 = (5)

054 = (6) 055 = (7) 056 = (8) 057 = (9) 058 = (:) 059 = ( )

060 = (<) 061 = (=) 062 = (>) 063 = (?) 064 = (@) 065 = (A)

066 = (B) 067 = (C) 068 = (D) 069 = (E) 070 = (F) 071 = (G)

072 = (H) 073 = (I) 074 = (J) 075 = (K) 076 = (L) 077 = (M)

078 = (N) 079 = (O) 080 = (P) 081 = (Q) 082 = (R) 083 = (S)

084 = (T) 085 = (U) 086 = (V) 087 = (W) 088 = (X) 089 = (Y)

090 = (Z) 091 = ([) 092 = (\) 093 = (]) 094 = (^) 095 = (-)

096 = (`) 097 = (a) 098 = (b) 099 = (c) 100 = (d) 101 = (e)

102 = (f) 103 = (g) 104 = (h) 105 = (i) 106 = (j) 107 = (k)

108 = (l) 109 = (m) 110 = (n) 111 = (o) 112 = (p) 113 = (q)

114 = (r) 115 = (s) 116 = (t) 117 = (u) 118 = (v) 119 = (w)

120 = (x) 121 = (y) 122 = (z) 123 = ({) 124 = (|) 125 = (})

126 = (~) 127 = DEL

Page 10: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

10

DESCRIPCION DE LOS ELEMENTOS FUNDAMENTALES

Unidad de Control y Unidad Aritmético Lógica

La unidad de control y la unidad aritmético-lógica, en las primitivas computadoras estaban

formadas por una gran cantidad de circuitos lógicos convenientemente distribuidos.

En la actualidad una gran parte de estas funciones han sido reemplazadas por un minúsculo

circuito integrado: el microprocesador. Este increíble proceso de miniaturización es el que ha

permitido este enorme avance y tener en una sola plaqueta los elementos necesarios para configurar

una computadora. Precisamente se denominan microcomputadores a los equipos basados en

microprocesadores.

El circuito integrado que constituye un microprocesador, también denominado CHIP (en

inglés, brizna, astilla), está formado por una base plástica o cerámica de unos 20 cm2 y más o menos

cuarenta pa- titas (denominadas pines), que se unen a través de hilos muy delgados al verdadero

corazón del microprocesador: una pastilla de silicio de unos pocos milímetros cuadrados de

superficie, que puede contener miles de transistores.

Existen en la actualidad una gran cantidad de microprocesadores con distintas características

que los identifican y los hacen más apropiados para ciertas aplicaciones.

Un microprocesador se caracteriza por una serie de cualidades que lo definen, estas

principalmente son: longitud de palabra, capacidad de direccionamiento, número de instrucciones y

velocidad de proceso. Estas características no se presentan en forma independiente pues se

relacionan entre sí mediante la tecnología de fabricación, existiendo procesadores que pueden operar

a distintas velocidades, respondiendo a idénticas características y por otra parte, dos procesadores

de distinta tecnología operando a igual velocidad de proceso pueden registrar distinta perfomance por

su modo de funcionamiento.

NOTA TECNICA - Características técnicas de los microprocesadores. - Longitud de palabra: es la cantidad de bit que el µP puede tratar simultáneamente, es decir en

paralelo, en el bus de datos. Atendiendo a esta característica, los principales son:

- µP de 1 bit, para aplicaciones muy concretas como por ejemplo el MC14500 que es una unidad

de control industrial.

- µP de 4 bits, los pioneros de los microprocesadores, actualmente en desuso; por ejemplo Intel

4004 y 4040.

- µP de 8 bits, los más comunes en la actualidad; por ejemplo Intel 8008, 8080, 8085; Motorola

6800, 6802, 6809; Mos Technology 6502 y 6510; Zilog Z-80.

- µP de 16 bits de procesamiento y 8 bits de bus datos como el Intel 8088 y el NEC-V20. - µP de 16 bits de procesamiento y 16 bits de bus de datos como el Intel 8086, el Intel 80286

aunque debe destacarse que este último es mucho más sofisticado y rápido.

- µP de 32 bits de procesamiento y 32 bits de bus de datos como el Intel 80386, 486 y PENTIUM. - µP de 64 bits de procesamiento como las serieS Core I5 o i7

NOTA TECNICA - Bloques internos de los microprocesadores.

En general los bloques internos que constituyen un microprocesador, abreviado µP son:

- Unidad Aritmético-Lógica: En donde se efectúan las operaciones aritméticas (sumar y restar) y lógicas

(AND, OR, NOT, etc.) .

- Decodificador de instrucciones: En donde se interpretan las instrucciones del programa que va llegando.

- Bloque de registros: Los registros son celdas de memoria en donde queda almacenado un dato

temporalmente. Existe un registro especial llamado registro de estado (en inglés, Status) , en donde

se refleja el estado operativo del microprocesador.

- Stack: Bloque de registros en donde quedan anotados ciertas direcciones que necesita el microprocesador.

- Contador de Programa (PC): En dónde se refleja la dirección de la instrucción del programa que el µP está

ejecutando.

- Señales de control: comprende las señales de reloj, señales de acceso a memoria, señales de

interrupción, etc.

- Buses: Existen tres buses: el Bus de Datos, por donde entran y salen datos, el Bus de Direcciones, por

donde salen direcciones de memoria y el Bus de Control, que controla la comunicación con los

elementos periféricos.

Page 11: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

11

- Capacidad de direccionamiento: la capacidad de direccionamiento de memoria de los µP

anteriormente citados son de 2^16 (64 Kb), 2^20 (1Mb), 2^24 (16 Mb), 2^32 (4 Gb).

- Número de instrucciones: el número de instrucciones que es capaz de comprender y manejar un

µP determina su potencia y facilidad de manejo. El número de instrucciones depende de cada µP,

pero éstas generalmente comprenden los siguientes tipos:

Instrucciones de transferencias de datos.

Instrucciones de transformación de datos.

Instrucciones de ruptura de secuencia.

Instrucciones de entrada/salida.

Instrucciones de control. - Velocidad de un µP: los microprocesadores ejecutan sus instrucciones secuencialmente, en forma

sincrónica con un reloj que fija el ritmo. La velocidad de este reloj será la que determinará la cantidad

de instrucciones que un µP puede realizar en la unidad de tiempo, pero los µP tienen un techo

máximo de frecuencia. Las frecuencias del reloj (clock) interno del µP van desde 1 MHz, y han

evolucionado desde 4.77 MHz en 1980 a 1000 MHz en el año 2000. Actualmente las serie Core i7, y

pueden operar a frecuencias normales algo superiores a los 3 GHz (3000 MHz) en los

microprocesadores Intel.

Como opera un microprocesador?: Un microprocesador opera básicamente fijando el comienzo de

la dirección de memoria desde donde se va a ejecutar el programa, cargando dicho valor en el

contador de programa (PC) e interpretando y ejecutando secuencialmente las instrucciones,

incrementando el PC y buscando una nueva instrucción. De acuerdo con las características de las

instrucciones su decodificador de instrucciones le permitirá diferenciar instrucciones de datos, según

corresponda.

Memorias RAM y ROM Se denomina "elemento de memoria" a cualquier dispositivo que tenga capacidad de

"recordar" información almacenada en el mismo durante un intervalo de tiempo relativamente grande.

El elemento básico de información es aquél cuya capacidad es la de recordar un bit de información,

es decir, almacenar un cero o un uno hasta tanto esa información sea modificada desde el exterior.

La necesidad de contar con elementos capaces de almacenar grandes cantidades de

información lleva al desarrollo de distintos tipos de almacenamiento masivo, pasando de las

antiguamente populares memorias de núcleos magnéticos a los modernos medios semiconductores

de almacenamiento de información, favorecidos en gran medido por los avances en las técnicas de

integración a gran escala.

Tipos de memoria Pueden establecerse distintas clasificaciones de acuerdo al criterio adoptado, consideraremos

la clasificación según la persistencia de la información almacenada.

Dentro de esta clasificación debe tenerse en cuenta una sub-clasificación, según se tome

como referencia la tensión de alimentación del sistema de memoria, o la reacción del mismo a la

lectura de la información almacenada.

Si se toma como referencia la tensión, las memorias serán: no volátiles o muertas (ROM) y

volátiles o vivas (RAM).

Dentro de esta división existen:

- Las memorias ROM (Read Only Memory: memorias sólo de lectura), son grabadas por el

fabricante del CHIP, con los datos proporcionados por el usuario y es imposible alterar su contenido;

por lo tanto sólo es posible leerlas. A esta categoría pertenecen los intérpretes y sistemas operativos

integrados, los generadores de caracteres y toda otra información convenientemente depurada y que

por ser necesarias en grandes series hagan económico su uso.

- Las memorias PROM (Programables Read Only Memory). Estas memorias pueden ser

grabadas por el propio usuario; pero una vez grabado, su contenido permanece inalterable, ya que su

grabación se realiza fundiendo unos fusibles internos integrados. Su utilización está restringida a

aplicaciones finales de pequeñas series.

- Las memorias EPROM (Erasable Programable ROM). Este tipo de memorias pueden ser

también programadas por el usuario, con la particularidad de que pueden ser borradas hasta unas

quinientas veces. Existen dos tipos: los llamados simplemente EPROM, cuyo contenido puede ser

NOTA TECNICA - Memorias No Volátiles (ROM)

Se denominan memorias no volátiles a aquellas en las que la información almacenada no

se pierde aún cuando desaparezca la tensión de alimentación. Esto significa que al volverse a

alimentar el sistema, la información almacenada será la misma que existía antes de desaparecer la

tensión.

Page 12: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

12

alterado aplicándoles un fuerte campo de radiación ultravioleta durante unos minutos, contando para

ello con una ventana de cristal de cuarzo que hace visible el CHIP desde el exterior. Son los más

utilizados en la actualidad y su capacidad aumenta de año en año; como referencia diremos que

existen EPROM de 64 bytes, es decir, más de 512.000 celdas.

- El otro tipo existente se denomina EEPROM (Erasable Electricaly PROM), cuyo contenido puede

alterarse eléctricamente. Actualmente se encuentran en expansión y su capacidad es pequeña

todavía, pero son las memorias del futuro.

Tanto las EPROM como las EEPROM tienen su aplicación en sistemas de desarrollo no totalmente

depurados o aplicaciones de muy pequeñas series (aplicaciones personales).

Memorias Volátiles (RAM) Se denominan memorias volátiles a aquellas que pueden ser grabadas y leídas un número indefinido

de veces, a este grupo pertenecen las memorias RAM (Random Access Memory).

El contenido de estas memorias permanece mientras permanece la tensión que las alimenta, la

desaparición de la tensión produce la pérdida completa y definitiva de la información almacenada.

Este tipo de memoria se utiliza para almacenar información y programas de usuario, se las denomina

memoria de trabajo.

Las memorias RAM varían entre 64 KB, pasando por 256, 512, 640, 1024, 2048 y 4096 en los equipos

chicos y medianos, mientras que en equipos de mayor envergadura se pueden tener valores de

memoria RAM de 4 GB hasta 1 o 2 TB.

INTERFACES SERIE Y PARALELO Las interfaces constituyen el medio por el cual los periféricos se conectan a la CPU. Existen

interfaces de aplicación general para distintos usos (serie y paralelo) aunque muchos periféricos

requieren de interfaces específicas. Las interfaces series generalmente responden a una especificación estándar denominada RS-

232C, son muy comunes y permiten la conexión de terminales, ratones, lápices ópticos, scaners,

modems, sistemas de adquisición de datos, impresoras y plotters. Por el tipo de periférico que pueden

admitir se deduce que son tanto de entrada como de salida. Un mismo equipo puede contar con una o

varias de ellas, identificándose como COM1:, COM2:, etc. Su principal característica es que la

información se transmite, básicamente, por un sólo conductor o cable (uno para los datos de entrada,

otro para los de salida y un cable común) es decir que los datos se transmiten uno a continuación del

otro, en un modo denominado asincrónico en que se debe establecer la velocidad de comunicación y

una convención respecto de la información que se envía o recibe.

Las interfaces paralelas generalmente responden a una especificación estándar denominada

CENTRONICS, permiten la conexión, principalmente, de impresoras y plotters. Estas interfaces son

de salida. Un mismo equipo puede contar con una o varias de ellas identificándose como LPT1:,

LPT2:, etc. Su principal característica es que la información se transmite, básicamente, por varios

conductores simultáneamente (en paralelo) en un modo denominado sincrónico.

Existe también una interfase de alta perfomance –que podría considerarse como interfase de

tipo paralelo- denominada SCSI (Small Computer System Interface), que se pronuncia “scasi”, incluye

una tarjeta que se instala dentro de la computadora y puede conectar hasta siete periféricos tales

como: Discos rígidos de alta velocidad, grabadoras de CD-ROM, Scanners, etc. La desventaja de esta

interfase es que requiere abrir la PC para instalar la controladora y son bastante caras. La ventaja es

el alto rendimiento en velocidad que se obtiene con esta conexión.

Las computadoras más modernas incluyen un nuevo tipo de interfase serie, denominada USB

(Universal Serial Bus) que puede conectar hasta 127 dispositivos externos en total, tales como

cámaras web, scanners, impresoras, etc. La interfase USB soluciona las confusiones que tienen

algunos usuarios con las interfases serie y paralelo, usando un único tipo de conector para todos los

periféricos, pudiendo conectar un dispositivo USB a otro como si se tratase de una cadena. No

requieren reiniciar la computadora para que el sistema reconozca los nuevos dispositivos, gracias a

una nueva tecnología de conexión. Sólo debe conectarse y el equipo detectará automáticamente el

nuevo dispositivo y comenzará la instalación del software necesario. Tampoco en necesario apagar la

computadora para desconectar un periférico.

Periféricos de entrada

La CPU es incapaz, por sí misma, de comunicarse con el medio exterior, ya sea para recibir

información como para devolverle información al usuario. Se denominan periféricos a las unidades

exteriores a la CPU y que permiten su comunicación para el usuario.

Los periféricos de entrada son los que permiten al hombre dialogar con el equipo, ingresando

Page 13: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

13

información: instrucciones, comandos, programas, datos, elecciones, etc.

Debemos tener en cuenta, antes de comenzar una pequeña descripción de los principales

periféricos, que toda la información que maneja una computadora es de tipo digital o discreta (ceros y

unos). En cualquier caso la información a recibir, sea digital o analógica, debe ingresar por los

correspondientes convertidores, adaptadores o interfaces.

-Teclados Los teclados son actualmente el medio de entrada por excelencia. A pesar de que en éstos el

principio de funcionamiento se basa en interruptores, existen decodificadores, teniendo la CPU una

información que depende de la posición que este interruptor (tecla) ocupa dentro del teclado. Existen

teclados decimales, hexadecimales y alfanuméricos. La disposición de las teclas en los teclados

alfanuméricos es parecida a los de las máquinas de escribir, existiendo dos configuraciones

principales: la conocida como QWERTY (la más popular) y la conocida como ASERTY,

correspondiendo la sigla a las primeras cinco teclas de la segunda fila de caracteres.

Las principales características que definen un teclado para su utilización en informática son: - Tipo de Tecla: ésta es una de las características más importantes ya que determina la

profesionalidad y el precio del teclado. Existen modelos denominados Soft-touch (toque suave) en las

que los interruptores son láminas metálicas blandas recubiertas de una membrana plástica. Su

utilización es incómoda pero son muy baratos y se emplean en sistemas de seguridad ya que al ser

impermeables y herméticos no corren riesgos (por ejemplo: derramamientos accidentales sobre el

teclado, polvo, etc.). A continuación de los teclados de toque suave, vienen los tipos calculadora, que

representan una pequeña mejora respecto de los anteriores y luego de éstos, los teclados de teclas

móviles o de gran recorrido, que son los preferidos para aplicaciones profesionales, tratamientos de

textos, etc.

- Cantidad de teclas: en este punto lo importantes es la cantidad de teclas con que cuenta

el teclado, además de las alfanuméricas correspondientes, es decir teclas de funciones, teclado

numérico separado también llamado Key-Pad, teclas especiales para otros lenguajes como acentos y

ñ, recordando que el teclado universal de computación es de sistema anglo-sajón. El primitivo teclado

de la IBM/PC contaba con 83 teclas; los más modernos tienen 101 y hasta 103 teclas y se denominan

"enhanced" (mejorados) ya que tienen mayor cantidad de teclas de función y teclas separadas para el

control del cursor. Estos teclados se impusieron con la aparición de las IBM/AT.

Actualmente y a pesar de la supremacía del teclado como medio de entrada de información,

han aparecido otros medios que lo sustituyen o complementan.

-Raton (Mouse) Otro medio de ingreso de información muy difundido es el llamado ratón (mouse) que permite

desplazar el cursor en la pantalla del monitor en forma continua y simple, deslizando un dispositivo

pequeño que está unido al ordenador mediante un cable, sobre una superficie cualquiera. Este

movimiento acciona una esfera que modifica la posición de unos potenciómetros dentro del mismo,

generando una señal analógica que es convertida a digital dentro del ordenador. Cuando el cursor se

encuentra en la posición apropiada, se acciona una tecla, sobre el mismo dispositivo, llevándose a

cabo la acción deseada. Los primeros equipos en utilizar en forma estándar este dispositivo fueron el

Lisa y el Macintosh de APPLE. Actualmente, cualquier equipo IBM o compatible, con una interface

serie, puede utilizar un ratón. Debe tenerse presente que los programas deben estar preparados para

utilizar este medio alternativo de ingreso de información.

-Lápiz Óptico Otro medio de entrada de datos muy utilizado es el lápiz óptico el cual permite al operador

trabajar directamente sobre una pantalla, indicando posiciones o dibujando sobre la misma, según el

programa que se esté ejecutando. El lápiz óptico trabaja con un detector de luz muy sensible que

permite al ordenador determinar la posición que esté señalando el lápiz, por comparación con el barrido

horizontal del monitor.

-Lector de Código de Barras Otro dispositivo de entrada de gran proyección en la actualidad es el lector de código de barras

que puede determinar, por las variaciones de la luz que se refleja en barras negras y espacios blancos

(verticales), información codificada. Es de fácil empleo para la toma de información con un grado de

error muy inferior al ingreso manual y mucho más rápido. Los lectores de códigos de barras pueden

tener la forma de un lápiz, donde la técnica de lectura es óptica, mientras que otra posibilidad son las

denominadas pistolas laser, las cuales emiten un haz que lee el código de barras. Estas, si bien son

Page 14: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

14

mucho más onerosas que los lápices, son a menudo la única solución cuando la cantidad de lecturas es

importante.

-Pantallas sensibles al tacto Existen las pantallas sensibles al tacto, que están constituidas por hileras de emisores

infrarrojos y los correspondientes sensores que pueden detectar cuando un haz de radiación

infrarroja se corta y pueden determinar la coordenada horizontal y la vertical, obrando a consecuencia.

Este sistema no llegó a imponerse y era empleado en los equipos Hewlett-Packard HP-150.

-Digitalizador Otro sistema menos conocido, pero de gran aplicación en el tratamiento de imágenes

mediante ordenador es el "digitalizador" o "tableta gráfica": se trata de una superficie plana,

generalmente de plástico rígido, sobre la que se puede trazar cualquier cosa que se necesite, o bien,

por ejemplo, apoyar un dibujo para calcarlo mediante un elemento específico que incorpora.

Para dibujar sobre esta "tableta" se utiliza un dispositivo similar a una pluma que tiene un

cable que lo une a la tabla; trazando con la pluma un dibujo sobre el plano, la tablilla va transmitiendo

al ordenador las sucesivas posiciones que va adoptando la pluma en forma de los valores de sus

coordenadas X-Y sobre la tabla. El ordenador está en condiciones de utilizar solamente las

informaciones numéricas, es decir, que cualquier información (incluyendo los dibujos) debe traducirse

a números para que el ordenador pueda entenderla.

Otro principio de funcionamiento del digitalizador consiste en un brazo articulado, fijado a una

mesa de trabajo; en las articulaciones existen resistencias variables (potenciómetros) los que una vez

decodificados permitirán encontrar las coordenadas que indica el punto de trabajo; éste puede ser una

aguja o una retícula con una lente de aumento. Cuando el punto de trabajo está convenientemente

localizado se envía una señal del ordenador para que determine la posición y la almacene.

-Scanners Estos dispositivos pueden leer, en modo semejante al de una fotocopiadora, información

gráfica por rastreo. Existen en distintos tamaños, precio y prestaciones. Es de resaltar que aún los

más económicos, denominados manuales y de media página (el ancho que pueden leer de una sola

pasada), pueden solapar información y reproducir imágenes de ancho mayor al físico. Otra

característica muy importante de estos dispositivos es que no se limitan solamente a la reproducción

gráfica: con los programas apropiados pueden convertir la información gráfica correspondiente a un

texto, en un texto editable, es decir modificable mediante una sofisticada técnica de reconocimiento

gráfico de caracteres (OCR).

Los scanners pueden ser de media página o de página completa de acuerdo al ancho de

papel barrido. Los de media página generalmente se deben desplazar en forma manual, mientras que

los de página completa se desplazan sobre un rodillo en forma automática.

La otra especificación que se debe tener en cuenta es si el scanner es color o blanco y negro.

En ambos casos además de ello, se debe determinar cuál es la resolución, entendiéndose como

resolución la cantidad de puntos que definen una unidad de medida (denominada DPI: Puntos por

Pulgada.)

-Joystick Finalmente describiremos el Joystick, el medio de entrada por excelencia en cuanto a juegos

se refiere; éste consiste de cuatro contactos (interruptores o microswitch) dispuestos en forma de cruz

y accionados a través de una palanca permitiendo seleccionar las cuatro direcciones básicas

(adelante, atrás, izquierda y derecha) y cuatro direcciones auxiliares cuando hacen contacto dos

direcciones principales simultáneamente, es decir direcciones intermedias. Los joysticks o palancas

de mando siempre cuentan también con un pulsador, generalmente de disparo o acción. La

información de interruptores y pulsador es leída digitalmente por la CPU, que obra en consecuencia.

Periféricos de salida En el apartado anterior vimos los dispositivos que permiten al hombre comunicarse con una

computadora. Ahora haremos una breve descripción de los principales periféricos que permiten al

usuario recibir información desde una computadora.

Page 15: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

15

-Teleimpresor El teleimpresor fue uno de los pioneros de los periféricos de comunicación hombre-máquina.

Servía para introducir información a través de un teclado y editarlo gracias a una impresora.

Normalmente dispone de un lector-perforador de cinta, útil para introducir programas previamente

grabados o crear bandas perforadoras. Generalmente se conocen como teletipos (Teletype es una

marca registrada). Su velocidad máxima es de 10 caracteres por segundo. Actualmente están en

desuso.

-Monitores Los monitores o terminales con pantallas de rayos catódicos reemplazaron a los

teleimpresores por ser un excelente medio de comunicación hombre-máquina. En los computadores

domésticos u hogareños se sustituyen los monitores por televisores convencionales, en los que la

definición de la imagen se empobrece bastante en comparación con un monitor, debido a las

transformaciones a que se somete la señal generada por la CPU hasta que es visualizada, muchas de

estas transformaciones se evitan en los monitores, generando una imagen mejor definida que las

hace imprescindibles en las aplicaciones comerciales o científico gráficas.

Las propiedades que definen las características de los sistemas de pantalla no son una

propiedad del monitor de video propiamente dicho, sino también es un atributo del controlador de

video que está en la computadora y que se debe complementar con el monitor.

Los parámetros básicos que definen las características de un terminal de video que trabaja en

"modo texto" son: cantidad de caracteres por renglón (23, 32, 40, 64, 76, 80, 132) y la cantidad de

renglones por pantalla (16, 24, 25, 43, 50).

Cuando se trabaja en "modo gráfico" el parámetro principal es la cantidad vertical y horizontal

de puntos que pueden visualizarse en la pantalla (resolución). Estos puntos se denominan pixels (del

inglés: picture celds).

Un atributo inherente al monitor es su tamaño, dado en pulgadas de su diagonal (5", 9", 10",

12", 14", 15", 17" 20"). Los monitores de 5" a 10" son para aplicaciones especiales, no siendo

recomendados para tareas normales y habituales. Lo ideal, teniendo en cuenta confort y costo, es un

monitor de 14", excepto cuando de deba trabajar con alta resolución gráfica, en cuyo caso se hace

necesario un monitor de mayor tamaño, aunque los costos son bastante superiores.

También se hacen diferenciaciones, por supuesto, entre los monitores color y los

monocromáticos (de fósforo blanco, ámbar o verde). Los de fósfora ambar y verde se han dejado de

fabricar, ya que no sólo cansan la vista, sino que se "quema" la misma pantalla del monitor con la

emisión de la imagen.

Existen en la actualidad una gran variedad de adaptadores de video que proporcionan

diferentes resoluciones y distintas prestaciones respecto del uso del color. La mayoría de los

adaptadores responden a estandarizaciones realizadas por la empresa IBM. Los primeros PC estaban

equipados con un adaptador MDA (Monocromo Display Adapter) que no permitía el modo gráfico ni

el color, a pesar de que su modo texto era de muy buena resolución. Posteriormente aparecieron los

adaptadores CGA (Color Graphic Adapter), estas tarjetas con su correspondiente monitor, permitían

una utilización limitada del color, un modo texto con definición muy pobre y un modo gráfico de hasta

640 x 200 pixels con 2 colores y 320 x 200 con 4 colores. Para suplir las deficiencias de ese

adaptador apareció en el mercado, aproximadamente en 1982, el adaptador HERCULES

comercializado por Van Suwannukul, que permitía un modo texto de calidad igual al MDA de IBM y

una resolución gráfica de 720 x 348 pixels, a pesar de ser monocromo, con un precio muy accesible.

En 1984 IBM lanza al mercado el adaptador EGA (Enhanced Graphic Adapter) que permitía un

modo texto de buena definición y modos gráficos que llegaban a 640 x 350 pixels con hasta 16

colores. Este adaptador no se popularizó porque su tecnología resultaba demasiado cara para las

prestaciones que ofrecía. A posteriori, en 1987, IBM presenta la norma VGA (Video Graphic Array)

con una resolución de 640 x 480 pixels con hasta 16 colores o 320 x 200 con 256 colores a precios

muy inferiores a los correspondientes a la norma EGA por emplearse distinta tecnología. Actualmente

el máximo está representado por los adaptadores Súper VGA o VGA Plus (SVGA) que permiten

resoluciones de 800 x 600 y hasta 1024 x 768 con una cantidad de colores simultáneos limitados por

la cantidad de memoria presente en el adaptador. Lamentablemente, debido a que el desarrollo de los

Súper VGA fue realizado en forma independiente por varios fabricantes, no existe una normalización o

estándar en esta tecnología, por lo que cada fabricante debe suministrar los recursos específicos para

que el adaptador funcione con distintas aplicaciones.

Las tarjetas de video más limitadas tienen 256 KB de memoria (prácticamente no se

consiguen en el mercado) las tarjetas actuales tienen una base de 1 ó 2 MB de memoria,

generalmente expansibles a 4 u 8 MB. Para una buena resolución (800x600) y alta densidad de

Page 16: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

16

colores 16 o 32 bits, se debe considerar un mínimo de 2 MB.

Las últimas novedades en el mercado de las tarjetas de video corresponden a las

aceleradoras gráficas 2D y 3D, indispensables para programas muy exigentes como los juegos de alta

resolución y el software de diseño gráfico. Estas tienen cantidades de memoria muy elevadas (8, 16 y

hasta 32 MB) y procesador propio.

Las tarjetas se conectan a través de los slots de expansión de las computadoras. Las

primeras se conectaban mediante slots denominados ISA de 16 bits. Las más recientes lo hacen

mediante slots PCI de 32 bits, por lo que son más rápidas. La última generación de tarjetas de video

para las máquinas más modernas utilizan un puerto especial de las computadoras denominado AGP

(Advanced Graphic Port) que permite una mayor velocidad en la transferencia de la información

gráfica.

Cuando se trabaja interactivamente, los monitores o display de video son el medio más

adecuado; cuando se necesita tener documentación de un resultado de un programa o un listado del

mismo se debe recurrir a una impresora.

-Impresoras Existen en la actualidad una gran cantidad de tipos de impresoras e innumerables formas de

clasificarlas. Podemos decir que hasta hace poco tiempo las impresoras más comunes eran las

impresoras matriciales, en las que los caracteres o formas nacen de una matriz de puntos o agujas

(8 ó 9 agujas como mínimo y 24 como máximo, dependiendo de la calidad y precio) que golpean una

cinta entintada sobre un papel. Existen impresoras matriciales que no trabajan por impacto sino por

temperatura operando sobre papel termo-sensible especial, aunque el principio es el mismo que para

las de papel común. Las impresoras matriciales pueden ser mono o bidireccionales (es decir que

imprimen al ir y al volver) con arrastre de papel por tracción (formularios continuos perforados) o por

fricción (hojas sueltas); la velocidad de operación varía entre 80 y 300 o más cps (caracteres por

segundo); el ancho del carro de las impresoras determina la máxima cantidad de caracteres por línea

que pueden imprimir, siendo los valores convencionales los de 80 caracteres para impresores de 9

pulgadas de ancho y 132 caracteres en las de 15 pulgadas. Debe tenerse presente que estos valores

corresponden a 10 caracteres por pulgada (CPI), que es el valor estándar aunque estas impresoras

pueden reducir o aumentar esa densidad de caracteres entre límites bastante amplios: 5 CPI o menos

y 16 CPI o más dependiendo de la impresora.

Las impresoras matriciales se prestan para todo tipo de aplicaciones, son muy robustas,

rápidas y económicas. La calidad de impresión de este tipo de impresoras no siempre reúne los

requisitos de presentación que son deseables en cartas y documentos, aunque en la actualidad las

impresoras matriciales de bajo precio, disponen de tipos de letra de alta calidad a velocidades de

impresión más baja. También existen impresoras matriciales que pueden imprimir en distintos colores.

De todos modos, hoy en día sólo se usan en aplicaciones especiales o cuando se requieren

duplicados al carbónico.

Actualmente, otro tipo de impresora denominada chorro de tinta ha tomado el liderazgo del

mercado. Estas impresoras son muy versátiles al poder generar cualquier caracter y son sumamente

silenciosas, lo que las hace atractivas en algunas aplicaciones. Su principio de funcionamiento

consiste en disparar gotas de tinta para modelar el caracter a imprimir. La tinta es conducida a través

de una boquilla que la dispersa en gotas diminutas, estas gotas atraviesan luego un electrodo y

reciben una carga eléctrica. Un par de placas metálicas desvían luego las gotas en distintas

direcciones, para modelar la forma del caracter. Obviamente pueden trabajar con distintos colores de

tinta.

Un segundo mecanismo se denomina de burbujas y consiste en que el cabezal de impresión

incorpora una serie de inyectores con un pequeño dispositivo calórico que, al calentarse, forma

diminutas burbujas de vapor. Debido a la variación de volumen que sufre la tinta en los tubos al recibir

una corriente eléctrica de muy corta duración mediante un electrodo, estas burbujas estallan y

provocan el chorro de tinta. Es la propia contracción de la burbuja la que impulsa la tinta hacia el

inyector.

En ambos mecanismos la proyección de la gota sobre el papel forma la imagen. El cabezal

tiene un número de tubos montados que avanzan sobre la línea a imprimir, de modo que al expulsar

cada tubo una gota, el carácter o la imagen se forma por medio de una matriz de puntos. A mayor

número de tubos, mayor será la resolución. Los modelos de 24 inyectores, considerados de gran

calidad, han sido superados por los de 48 y 64 inyectores que alcanzan resoluciones de 640, 720 y

hasta 1440 puntos por pulgada a costos realmente muy bajos.

Para trabajo muy pesado se utilizan las impresoras de líneas en las que la impresión no se

Page 17: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

17

hace caracter a caracter, sino línea a línea, es decir, se prepara el renglón completo de escritura y se

imprime de una sola vez, su velocidad se mide en líneas por minuto.

Para trabajos mayores aún se emplean las impresoras láser o impresoras de página que

trabajan por un proceso semejante al fotocopiado. Consta básicamente de un motor que contiene un

tambor fotosensible cubierto por una película de carga eléctrica balanceada. Cuando se expone a la

luz, la carga en la superficie cambia, determinando un área de exposición en la cual la imagen se

pinta sobre el tambor por medio de un haz laser u otra tecnología. Además el sistema tiene un

dispositivo revelador que contiene unas pequeñas bolillas de plástico que transmiten carga eléctrica a

las partículas del toner y las transportan al tambor, donde son atraídas por los puntos de la superficie

del tambor que deben ser impresos. Simultáneamente, el papel, pasa por una película que cubre el

tambor, lo cual le da suficiente carga eléctrica como para atraer el toner. A medida que el papel pasa

por el tambor, el toner se adhiere al papel. Luego se limpia el tambor de cualquier exceso de toner y la

película que o recubre borra la imagen para permitir que llegue otra. El papel continúa avanzando y

pasa entre dos cilindros giratorios que lo someten a presión y calor durante una décima de segundo

para que el toner se derrita y adhiera al papel. De esta manera se obtiene la impresión que pasa por la

bandeja.

Las impresoras laser ofrecen la máxima calidad de impresión, la resolución llega a ser de 600

o más dpi (puntos por pulgada). Además existen modelos que incorporan distintos tipos de bandejas,

impresión en ambos lados del papel, mayores tonalidades intermedias y utilización de tamaños de

papel de hasta 11 x 17 pulgadas. La velocidad de impresión varía, pudiéndose imprimir desde 4 a 7

páginas por minuto en las de tamaño escritorio de bajo costo y hasta 96 o más páginas por minuto en

las impresoras centrales.

-Plotters Si bien gran cantidad de impresoras posee órdenes que permiten obtener una copia del

contenido gráfico de una pantalla de visualización, los ingenieros, científicos y diseñadores requieren

que esto se realice con un grado de precisión que no puede suministrar una impresora convencional.

El único dispositivo que puede crear estas imágenes es un trazador de gráficos o plotter. Los

trazadores de gráficos funcionan de una forma completamente distinta a las impresoras: trazan líneas

entre dos puntos en lugar de partir de formas preestablecidas o modelos de puntos. El principio básico

con el que funcionan es un sistema de coordenadas X,Y. Trabajan utilizando plumas intercambiables,

pudiendo por lo tanto cambiar el espesor del trazo para dibujos de planos o utilizar diferentes colores.

Sus costos se han reducido lo suficiente como para que los usuarios de microcomputadoras

dispongan de esta facilidad que antes estaba limitada a aplicaciones de gran presupuesto.

Los plotters varían esencialmente de acuerdo a su tamaño, siendo éstos coincidentes con los

tamaños de planos normalizados por las normas IRAM. Así están los plotters A4 (297 x 210 mm), A3

(420 x 297 mm), A2 (768 x 420 mm), A1 (1024 x 768 mm) y A0 (1268 x 1024 mm). Obviamente que el

costo está en relación directa al tamaño del plotter. Otro factor a tener en cuenta son la cantidad de

plumas que pueden imprimir en forma simultánea.

-Demoduladores de voz A pesar de que por el momento el reconocimiento de voz como entrada de información aún

no está lo suficientemente desarrollado, la síntesis de voz es más sencilla y muchos equipos disponen

de sintetizadores de voz para exteriorizar información o instrucciones.

-Modems Son de gran importancia para la transmisión de datos a distancia. La denominación de

modem deriva de la función que desempeña este dispositivo: MOdulador-DEModulador.

Los modems acondicionan la información binaria del ordenador para que pueda ser

transmitida a través de la línea telefónica. Concretamente el modem recibe los datos del ordenador

(por ejemplo, en formato paralelo), los transforma en datos serie y, mediante una codificación

determinada, los envía por la línea de comunicación telefónica. En el sentido opuesto, el modem

recibe los datos a través de la línea en serie y los transforma al formato adecuado para suministrarlos

al ordenador. Los modems son por lo tanto periféricos de salida en su zona de modulación y

periféricos de entrada de datos en su zona de demodulación.

Los modems han adquirido una gran importancia, por el auge de las comunicaciones remotas,

ya sea a BBS (sistema donde existen diferentes tipos de información) o a redes internacionales como

por ejemplo la denominada INTERNET.

Los modems pueden ser internos o externos. En el primer caso, internos, se conectan en el

Page 18: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

18

interior de la computadora, de modo, que sólo sirve para ese equipo, mientras que los externos se

conectan con el puerto serie de la computadora, pudiendo ser usado en distintos equipos.

Entre las características salientes de los modems figuran: Velocidad de transmisión de datos: esta velocidad se mide en una unidad llamada bps (bits

por segundo). En la actualidad los modems transmiten a 4800, 9600, 14400, 28800, 33600 y 56000

bps, entre las velocidades más utilizadas. Hay que tener en cuenta que la velocidad depende también

de que el tráfico en la línea telefónica lo permita.

Protocolos de corrección de errores: Su funcionamiento consiste en enviar un paquete de

información y preguntar al otro modem si la cantidad de información recibida es igual a la enviada. De

no ser así el modem reenviará dicho paquete. El protocolo de corrección de errores más difundido es

el reconocido por las normas CCITT. (Comité Consultivo Internacional para la Telegrafía y Telefonía).

Protocolos de compresión de datos: se usa para ganar velocidad. El modem antes de

transmitir comprime la información, de manera tal que la información a transmitir es menor, realizando

el otro modem el proceso inverso. El modem debe trabajar con cualquiera de los dos protocolos más

recomendados: el MNP (Microcomm Networking protocol) y el LAPM (Link Access Procedure for

Modems).

Soporte de fax: Tienen la posibilidad de enviar y recibir faxes y comercialmente se los

denomina modem- fax. Todos los modelos nuevos tienen la posibilidad de enviar, pero no todos

tienen la posibilidad de recibir. No siempre un modem transmite a la misma velocidad datos y fax.

Unidades de almacenamiento

En los primeros tiempos de la informática se consideraba memoria masiva a prácticamente

cualquier soporte capaz de registrar información con persistencia (incluidos medios perforarles). Más

adelante se exigieron otras características, referidas básicamente al volumen y a la posibilidad de

acceso a la información; estas propiedades sólo las cumplían ciertos tipos de soportes magnéticos

como los tambores, las cintas y los discos.

Actualmente se están realizando investigaciones para llegar a nuevas memorias de masa que

resulten más productivas que las actuales. En algunos casos el estado de las investigaciones está

produciendo resultados importantes que permiten predecir cómo serán las memorias de masa del

futuro, teniendo en cuenta que el futuro en esta disciplina es dentro de cinco o seis años, poco más.

-Unidades de disco Los discos fueron y siguen siendo un importante medio del almacenamiento para aplicaciones

que requieren un acceso rápido a los datos en forma aleatoria (es decir en cualquier orden).

Al hablar de discos hay que hacer una primera clasificación: Discos rígidos, duros o fijos.

NOTA TECNICA: Interfaces industriales.

A medida que los procesos industriales se van haciendo cada vez más complejos, la

automatización y el control de los mismos requiere el empleo de ordenadores. En estas

aplicaciones el ordenador tiene que comunicarse no sólo con el operador sino, además, con

otros elementos del sistema que le van a suministrar los datos (elementos de entrada), o que van

a recibir las órdenes (elementos de salida).

Normalmente los elementos de entrada, denominados sensores, pueden ser: Termopares o

termorresistencias para medir temperatura, Medidores de presión, Medidores de humedad,

Medidores de caudal, Medidores de nivel, Señales de contactos abiertos o cerrados procedentes

de interruptores y Todo tipo de elementos que suministren una señal analógica en forma de

tensión o intensidad, proporcional a una medida.

Como elementos de salida tenemos: relés, electroválvulas, motores, lámparas.

Entre estos elementos y el ordenador hay que colocar un periférico que traduzca sus señales

de tipo analógico a señales de tipo digital, de forma que puedan ser procesadas por el

ordenador. Este tipo de periféricos se denominan tarjetas de interface industrial.

Page 19: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

19

Discos flexibles. Discos ópticos.

Discos rígidos Los discos rígidos suelen estar constituidos a partir de una base de aluminio recubierta de un

material magnético sobre el que se graban los datos.

Los discos rígidos pueden ser fijos o removibles. Los discos fijos vienen ya en su unidad de

lectura y escritura y no pueden extraerse de la misma. Las capacidades más comunes de los discos

fijos en la actualidad son de más 250 GB, existiendo discos del orden de los TB a precios accesibles.

Los discos removibles vienen normalmente en un contenedor especial para facilitar su manejo,

denominado disk- pack.

Los discos rígidos suelen ser de tecnología Winchester (lanzada por IBM en el año 1973),

caracterizada porque la cabeza de lectura no toca físicamente al disco, sino que, por el efecto

aerodinámico de rotación del disco a una velocidad de unos 3500/4500 r.p.m. el aire arrastrado hace

que la cabeza de lectura permanezca suspendida a unas micras de distancia del disco, distancia

suficientemente pequeña para que los datos puedan leerse y escribirse. Actualmente existen discos

rígidos que giran a 7200 r.p.m.

Discos flexibles

Los discos flexibles actualmente han perdido lugar quedando ya casi obsoletos. Están hechos

de material plástico de Mylar, recubierto de una capa de óxido magnético. Poseen un agujero central

que les sirve para encajar en el mecanismo de rotación y un pequeño agujero de control en sus

proximidades, que sirve como índice para referenciar el comienzo de cada pista.

El disco se protege mediante una cubierta de plástico cuyo interior es antiestático y auto limpiante. Una abertura en este envoltorio de protección, permite a la cabeza lectora tener acceso a los datos. Existían tres tamaños de discos flexibles:

8 pulgadas. 5 y 1/4 pulgadas. 3.5 pulgadas.

Actualmente es muy difícil encontrar que se comercialicen por las poca capacidades de

almacenamiento que poseen (1,44 Mb).

La lectura de la información contenida en el disco flexible se realiza mediante la cabeza

lectora que entra en contacto directo con el disco a través de la ranura practicada en la funda de

protección. Hay que abstenerse, por tanto, de tocar los discos sobre dicha ranura. Los discos deben

ser protegidos del polvo, cenizas y partículas en general, así como de las temperaturas elevadas que

pueden causar su deformación, induciendo a errores en la lectura de los datos.

La información se graba en el disco sobre pistas circulares, no en forma de espiral como

ocurre en un disco de música. Para pasar a leer la información de una pista a otra, la cabeza lectora

debe desplazarse concéntricamente. El disco se considera dividido en varias secciones llamados

sectores. Un sector es la parte mínima de disco que el sistema es capaz de leer o escribir. Un sector

de una pista contiene 256 bytes de información en un disco flexible, y 256 ó 512 bytes de información

en un disco rígido.

- Discos ópticos En los años 90 los discos ópticos o láser fueron el medio de almacenamiento masivo de

mayor desarrollo e investigación por la densidad de información que pueden albergar. Para dar un

ejemplo, una cara de un disco compacto (CD) que permite grabar una hora de música puede contener

650 MB de datos. Al principio, como en el caso de los "compact disk" musicales, los CD-ROM

convencionales no podían ser borrados y regrabados ya que su proceso de grabación consistía en

quemar la superficie del disco por medio de un haz láser. Estos se utilizaban principalmente para leer

información grabada por terceros como enciclopedias, imágenes gráficas y catálogos (se debe tener

en cuenta que, por la cantidad de información que pueden contener, los modos de acceso a la

información que contienen mediante referencias cruzadas y multi-indexadas, son sumamente

sofisticadas). Ahora, están disponibles CD-R que pueden ser grabados (una sola vez) por el usuario

mediante lecto-grabadoras sumamente económicas. Adicionalmente existen los CD-RW que pueden

se regrabados un número limitado de veces, aunque el proceso es lento.

Luego, los CD-Rom fueron superados por un nuevo dispositivo denominado DVD (Digital Video

Page 20: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

20

Disk) que permite almacenar desde 4 a 17 GB, abriendo una nueva etapa en las posibilidades de las

computadoras. Por ejemplo pueden almacenar una película con traducción simultánea a varios

idiomas, con posibilidad de ver escenas desde distintos ángulos o finales interactivos.

- Memorias USB Las memorias USB son comunes entre personas que transportan datos de su casa al lugar de

trabajo, o viceversa. Teóricamente pueden retener los datos durante unos 20 años y escribirse hasta un millón de veces. Aunque inicialmente fueron concebidas para guardar datos y documentos, es habitual encontrar en las memorias USB programas o archivos de cualquier otro tipo debido a que se comportan como cualquier otro sistema de archivos.

Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes y a los CD. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 GB, y hasta 1 TB.5 Las memorias con capacidades más altas pueden aún estar, por su precio, fuera del rango del "consumidor doméstico". Esto supone, como mínimo, el equivalente a 180 CD de 700 MB o 91 000 disquetes de 1440 KiB aproximadamente.

Computadoras Personales

Por ser uno de los tipos de computadoras de mayor difusión en la actualidad, y además al

alcance del gran público, es que este curso está orientado fundamentalmente a las computadoras

personales, microcomputadoras o PC.

La historia de las computadoras personales se remonta a mediados de la década del setenta,

cuando la integración en alta escala posibilitó la fabricación de los microprocesadores. A partir de allí,

aparecieron algunas computadoras menores hoy llamadas hogareñas, como Radio Shack,

Commodore, etc.

En esa época, la firma IBM, ocupada sólo del sector alto del mercado, detectó una importante

tendencia hacia los equipos más pequeños y comenzó a trabajar en el desarrollo de una computadora

monousuario (personal), pero con prestaciones superiores a las computadoras hogareñas. El

resultado fue el IBM PC (Personal Computer). Inusualmente para esa compañía, el equipo no fue

desarrollado íntegramente por la empresa IBM, sino que utilizó una arquitectura abierta y

componentes de otras empresas, como el microprocesador de Intel, modelo 8088 y un sistema

operativo diseñado especialmente para este equipo por la firma MicroSoft, llamado MS-DOS

(MicroSoft Disk Operating System). La IBM/PC fue lanzada al mercado en 1980, y su repercusión fue

tal que superó ampliamente las expectativas de los propios fabricantes.

A partir de allí comenzó a girar en torno del equipo IBM PC, toda una industria de producción

de hardware y software, lo que hizo que se convirtiera en el estándar de facto del mercado. Esto trajo

aparejado que las demás firmas fabricantes de equipos comenzaran a fabricar computadoras que

pudieran operar con el software desarrollado para estos equipos, generando la aparición de las

denominadas máquinas compatibles o clowns, que en lo único que se diferenciaban a la IBM PC era en

la marca y en el precio.

Esta irrupción del PC marcó a fuego la historia de la informática moderna, porque a partir de

allí, el desarrollo tanto a nivel hardware como software fue vertiginoso y los precios fueron

disminuyendo, lo que contribuyó a la popularidad de las PCs.

La IBM PC original tenía una memoria RAM de 64 Kb y una o dos unidades de diskette de

160 ó 180 Kb cada una, operando a una frecuencia de reloj de 4.77 MHz.

En 1982, IBM lanza al mercado un nuevo modelo de la línea PC, la PC/XT (eXtended

Tecnology), cuya versión estándar tenía una configuración básica de 256 Kb de memoria RAM, una o

dos unidades de diskettes de 320 ó 360 Kb de capacidad cada una y permitía la conexión de un disco

duro de hasta 32 Mb. Este modelo, al igual que el PC, estaba equipado con el microprocesador 8088

y permitía operar en dos velocidades: la original de 4.77 MHz (para mantener compatibilidad) y otra de

8, 10 ó 12 MHz.

En 1984 es lanzada comercialmente la IBM/AT (Advanced Tecnology), equipo basado en el

microprocesador 80286 de Intel, que permitía una mayor velocidad de procesamiento que el 8088, y

además dos modos de trabajo: el normal, que permite operar como una PC, y el modo protegido, el

que permite -con el software necesario- convertir al equipo en multiusuario. Además la configuración

básica de este equipo era de 640 Kb de memoria RAM, una o dos disketteras de 1,2 Mb de

capacidad, y mayor capacidad en disco rígido. La velocidad de procesamiento era de 6, 8, 10, 12 ó 16

MHz, dependiendo de los equipos.

En 1986, IBM lanza al mercado una nueva línea de microcomputadoras, denominada PS/2

(Personal System/2), que se componía originalmente de cinco modelos, el 25, 30, 50, 60 y 80. Con

Page 21: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

21

esta línea IBM introdujo una nueva forma de fabricación interna denominada de tecnología cerrada,

en contraposición con la tecnología abierta de la línea PC, a efectos de evitar la proliferación de los

clowns.

Los modelos 25 y 30, en características y prestaciones son similares a las XT; los modelos 50

y 60 equivalentes a las AT; y el modelo 80, equipado con el microprocesador 80386 de Intel, de mayor

potencia que el 80286, permitiendo hasta 16 Mb de memoria RAM, una diskettera de 3.5" de 1.44 Mb,

capacidad de almacenamiento en discos rígidos de hasta 628 Mb y velocidad de procesamiento de

16, 20 o 25 MHz.

En 1988 aparecieron equipos compatibles de la línea PC, equipados con el microprocesador

80386, y en 1990 tuvieron su lanzamiento comercial los primeros equipos basados en el

microprocesador 80486 de Intel, que permiten direccionar hasta 4 Gb de memoria RAM, mayor

capacidad de direccionamiento de memoria en discos, y operar a una velocidad de 33 MHz.

Algunos equipos se basaban en el microprocesador 80386 SX que, con arquitectura interna

equivalente al procesador original (que debían llamarse más propiamente 80386 DX), externamente

trabajan con canales de comunicación menos complejos que estos, permitiendo la fabricación de

equipos que pueden usufructuar modalidades de trabajo propias de los procesadores de 32 bits a

precios bastante inferiores, con un pequeño sacrificio de perfomance.

También se comercializaron equipos basados en el microprocesador 80486 SX, que es

equivalente al microprocesador 80486 DX, pero que no cuenta con coprocesador matemático como

este último, siendo por lo tanto más económico y conveniente para aplicaciones que no requieran

esta complementación. También existen equipos 80486 denominados DX2 y DX4 que obtienen

velocidades dobles a la señalada.

La oferta de equipos PS/2 se amplió con equipos basados en el microprocesador 80486, bajo

la denominación de Model 90, y con equipos basados en microprocesadores SX. También ha

aparecido en el mercado una línea denominada PS/1, que corresponde a equipos de gama baja, para

liberar la línea PS/2 de equipos con prestaciones limitadas, como son el Model 25 y 30.

En 1993 hizo su aparición comercial un nuevo microprocesador de Intel, bajo la denominación

de PENTIUM, microprocesador con buses de datos externo y de direcciones externas de 64 bits y

ancho de palabra de 32 bits. Este componente desarrolla una gran performance manteniendo la

compatibilidad con los modelos anteriores. Los prototipos de máquinas basadas en este chip tienen

en la actualidad una velocidad de procesamiento de 166, 200 y 233 Mhz.

También en 1993 una sociedad formada por IBM, Apple y Motorola produjo un

microprocesador denominado PowerPC, como competencia directa al PENTIUM, pero con tecnología

distinta (RISC: Reduced Instruction Set Computer) desarrollando una performance similar, con un

costo y consumo de energía muy bajo. Este chip no es compatible a nivel de hardware con la línea

Intel pero por emulación puede correr el software (programas) desarrollado para aquellos.

En 1995 la firma Intel comenzó a comercializar un nuevo microprocesador, correspondiente a

la línea P6 (80686 en la identificación numérica), bajo la denominación de PENTIUM PRO. Esta

estrategia comercial capitalizó el prestigio de la línea PENTIUM para entregar un chip mucho más

poderoso, destinado a estaciones de trabajo de gran envergadura, con velocidad de procesamiento

de 150 Mhz llegando hasta 300.

Debe destacarse, en ese momento, la presencia en el mercado de los procesadores de 5ta. y

6ta. generación (equivalentes a 80586 y 80686) de productos desarrollados por competidores de Intel

como son Cyrix y AMD que competían no sólo en precio sino en calidad y prestaciones, fabricando

chips que resultaron alternativas sumamente convenientes al PENTIUM de Intel.

Los últimos desarrollos estuvieron orientados a mejorar la perfomance de las computadoras

personales en lo que se denomina multimedia. Las aplicaciones que tiene que ver con grandes

utilizaciones de sonido de alta calidad, despliegues gráficos como videos y programas de diseño o la

utilización de Internet, muestran las mayores falencias de los equipos; debido a esto Intel ha

desarrollado una extensión específica para sus microprocesadores denominada MMX (multimedia

extensions) que optimiza la ejecución de este tipo de aplicaciones. La ident ificación comercial de

estos productos es PENTIUM MMX para los Pentiums tradicionales con esta extensión y PENTIUM II

para los Pentiums Pro con extensión MMX que llegan a velocidades de hasta 400 MHz.

AMD (American Micro Devices) y CYRIX también entraron en esa variante, comercializando

microprocesadores optimizados para multimedia, ya sea bajo licencia Intel o con desarrollos propios.

A partir de 1999 Intel inundó el mercado con su microprocesador INTEL PENTIUM III que

desarrollaba velocidades de procesamiento de 400, 450 y 500 MHz en los primeros modelos

(actualmente esas velocidades arrancan de 550 MHz y llegan hasta 1000 MHz). También la

competencia tradicional de Intel, AMD -Cyrix desapareció del mercado- ha evolucionado ofreciendo

procesadores con prestaciones semejantes a precios inferiores como el AMD DURON e incluso un

procesador totalmente revolucionario, denominado ATHLOM (que fue el primero en superar la barrera

Page 22: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

22

mítica de los 1000 MHz). Por otra parte, Intel incursionó en el mercado del bajo precio con el

procesador CELERON que tiene características parecidas al Pentium II pero con performance menor

pero precio muy competitivo.

Un procesador más evolucionado es el PENTIUM 4, (abandonando la numeración romana)

basado en nueva tecnología, denominada P7 (desde 1995 utilizaba la tecnología P6). Estos modernos

micros están especialmente diseñados para altas velocidades de operación, tanto es así que el

modelo inicial trabaja a 1.2 y 1.4 GHz, esperándose que los saltos de velocidad sean de 100 MHz.

Tienen un bus de operaciones de 400 MHz (hay que tener presente que los PENTIUM III tienen un

bus de 100 ó 133 MHz, dependiendo del modelo y aún el velocísimo ATHLON de AMD tiene un bus

de 200.

En el 2006 Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo

Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura

Core de Intel. La micro-arquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del

procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU

Pentium 4/D2.

La familia llamada Intel Core Nehalem fue lanzada en el 2008. Intel Core i7 es una familia de

procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores

que usan la micro-arquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es

reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo

1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de

tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3.

Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro,

y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado

creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de

transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los

consumos se dispararon.

A partir del 2011 El Intel Core Sandy Bridge llegan para remplazar los chips Nehalem, con Intel

Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G. Intel lanzó sus procesadores que se conocen

con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios

en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los

modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits,

duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en

multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo conjunto de instrucciones

denominado AVX y una GPU integrada de hasta 12 unidades de ejecución Ivy Bridge es la mejora de

sandy bridge a 22 nm. Se estima su llegada para 2012 y promete una mejora de la GPU, así como

procesadores de sexdécuple núcleo en gamas más altas y cuádruple núcleo en las más bajas,

abandonándose los procesadores de núcleo doble.

Page 23: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

23

Redes

Las computadoras personales, como su nombre lo indica proveen, en principio, capacidad de

trabajo para un único y aislado usuario. A pesar de esta característica, existe la posibilidad de

interconectar varias PC para compartir información y recursos, potenciando aún más las prestaciones

de este tipo de máquinas.

En este punto se verán los distintos tipos de redes así como también los estándares

existentes. Se mostrarán, además, distintos casos de aplicación y se verá de qué manera se debe

optar entre una implementación u otra, dependiendo del problema a resolver. No es un tema sencillo

ya que, como todo lo relacionado con la computación, el tema redes de comunicación avanza día a

día.

Una red permite a muchos usuarios compartir e intercambiar información. El diseño y la implementación de una red debe contemplar una variedad de parámetros, como la cantidad de usuarios, el volumen de la información, los costos, la confiabilidad y los ámbitos de instalación.

Una red sirve a muchos usuarios, pero no necesariamente a todos al mismo tiempo. Los

usuarios de una red pueden estar todos bajo un mismo techo o distribuidos en grandes áreas,

separados por grandes distancias (aún alrededor del globo terrestre). De ahí que el tema redes sea

tan amplio y variado. Las redes de comunicación deben dar solución a problemas tales como:

- Una pequeña empresa que desea que todos sus directores puedan acceder a información

financiera en forma inmediata;

- Una compañía multinacional con filiales en todo el mundo que debe consolidar en la casa

matriz la información de las operaciones de todas ellas.

Estos dos problemas, tan diferentes entre sí, tienen solución instalando una adecuada red de

comunicación.

Podemos distinguir tres tipos de redes de comunicación: - Redes globales: son aquellas que se extienden a lo largo de grandes distancias y sirven a

gran cantidad de usuarios.

- Redes Locales: son redes que dan servicio a usuarios que se encuentran separados por

no más de unos cientos de metros entre ellos.

- Redes de campo: un tipo muy particular de red que conecta dispositivos de control. Por

ejemplo, la computadora de un avión que constantemente está verificando el funcionamiento de los

dispositivos. En general, se implementan en tiempo real.

Se debe aclarar que para dar solución a algunas situaciones, se pueden combinar los tipos de

redes antes mencionados a través de puentes (bridges).

Las redes pueden ser agrupadas en abiertas y cerradas. - Las redes abiertas son públicas y están potencialmente a disposición de cualquiera. En

este tipo de redes se debe poner especial atención en el control de acceso y de la información, para

evitar pérdidas.

- Las redes cerradas son privadas de una empresa. En este caso, el control es mucho más

sencillo, ya que sólo los conectados físicamente pueden ingresar al sistema.

-

Aspectos técnicos de las redes Una red es mucho más que la simple conexión física entre todos los usuarios. Puede un

usuario hablar con muchos otros? Cómo se asegura la integridad de la información? Cómo evitar que

un usuario provoque la caída de la red?. Estos y otros muchos interrogantes deben plantearse y

resolverse antes de la implementación de la red. Hay que definir un conjunto de controles que

resuelvan situaciones como las mencionadas.

Cuáles son, entonces, los aspectos técnicos que se deben analizar? Estos son:

- TOPOLOGIA DE LA RED: es el plano de conexión entre los usuarios de la misma; - PROTOCOLOS: el modo de conversación entre los usuarios; - INTERFACE ELECTRICA: RS-232, RS 422, etc. - TIPO DE MODULACION: amplitud, frecuencia, tiempo; - MEDIO DE COMUNICACION: cable, fibra óptica. -

Debemos aclarar antes de analizar en detalle cada uno de esos aspectos, que no existe una

solución ideal, sino que para cada situación existe una red que se adapta mejor a los requerimientos.

- Topología: Es un término matemático que se refiere a la manera de conectarse entre nodos. - Conexión completa: como primera solución podría considerarse la conexión entre todos los

usuarios. Aunque puede ser efectivo es bastante costoso, ya que la cantidad de conexiones

necesarias crece mucho a medida que aumenta la cantidad de usuarios.

Page 24: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

24

Pensemos que, matemáticamente por medio de combinatoria, para 10 usuarios se necesitan

45 conexiones y para 20 se necesitan 190 conexiones.

Esta topología puede ser efectiva para pocos usuarios, pero en la práctica no se usa. El costo

de agregar un usuario es altísimo.

- Estrella: la topología estrella consiste en un nodo central y todos los usuarios conectados a

él. El límite para la cantidad de usuarios es el máximo que pueda manejar el nodo central. Nótese que

la confiabilidad de la red depende exclusivamente de la del nodo central. Cualquier falla en un usuario

no afecta el funcionamiento de la red. El funcionamiento es el siguiente: un usuario envía información

al nodo central (dedicado o server) y éste se encarga de dirigirla al destinatario. Para agregar un

usuario, simplemente se agrega una conexión hasta el nodo central (incluso en el caso que haya un

usuario cerca del nuevo), lo que en la práctica puede ser muy caro.

Cuándo podemos usar esta topología?. Se usa cuando los usuarios de la red están dentro de

un área predeterminada y no demasiado grande (por ejemplo, dentro de un edificio o una fábrica).

Una de las características más importantes es que varios usuarios puedan transmitir datos

simultáneamente.

- Bus : la topología de Bus consiste en un camino común compartido por todos los usuarios.

Estos pueden estar conectados al bus en cualquier punto. El problema de agregar un usuario se

reduce a conectarlo al bus. En esta topología debe haber un nodo dedicado al control de la red.

Además, si la implementación es buena, cualquier falla en un usuario no afectará el funcionamiento

de la red. Por las razones anteriormente expresadas es una topología muy popular. Lógicamente,

dada su sencillez, se aumentará la complejidad del control de las comunicaciones. Puesto que existe

un único camino compartido por todos, existirá un protocolo que decida quien puede transmitir y dejar

que los demás sólo puedan "escuchar". Además, todos los mensajes de control se hacen a través del

bus, hecho que reduce la eficiencia de la red.

La segunda desventaja importante es que dos usuarios no puedan transmitir

simultáneamente. Sin embargo, para algunas situaciones ésta puede ser una ventaja, ya que en un

determinado instante sólo un usuario trasmite y los demás "escuchan". Esto provoca que si se desea

mandar un mensaje a varios usuarios no se lo deba transmitir para cada uno de ellos.

Sobre esta topología se han implementado varias redes comerciales como AppleTalk y EtherNet. - Anillo : la topología de anillo (Ring) conecta a todos los usuarios en un gran anillo. Para

agregar un usuario simplemente hay que integrarlo al anillo. Sin embargo esto, que parece tan

sencillo, implica un corte en el cable y la conexión del nuevo usuario.

Analicemos cómo opera una red de este tipo. Los mensajes son pasados de un nodo al

siguiente hasta que el destinatario recibe el mensaje y envía una señal de recibido. Nótese que el

protocolo será mucho más simple que en el caso de la topología de bus.

TOPOLOGIA DE BUS TOPOLOGIA EN ANILLO

Una gran desventaja de este tipo de topología es que cualquier falla en algún nodo o en la

conexión entre ellos provocará la salida de servicio de la red. Por este motivo, a veces se habilitan dos

anillos, uno para uso normal y otro como respaldo (backup) ante fallas del primero.

Protocolos

Dado que una red está compuesta de muchos usuarios deben ser definidas reglas de

comunicación entre ellos, esto se denomina acceso a la red.

Hay cuatro tipos de protocolos considerados estándar, que pueden ser usados con cualquier

topología de las mencionadas: maestro-esclavo; manejado por interrupciones; manejado por "marcas"

Nodo

1

Nodo

2

Nodo

3

Nodo

4

Nodo

N

Nodo

1

Nodo

2

Nodo

3

Nodo

4

Nodo

N

Page 25: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

25

(o pase de cospel); y por detección de colisiones.

- Maestro-Esclavo (Command-Response): existe una sola estación maestra y todas las

demás son esclavas. Una estación sólo puede enviar información cuando la maestra le envía una

señal. Si bien este protocolo es muy simple, es poco eficiente, debiendo pasar toda la información a

través de la maestra lo que produce gran sobrecarga. Sólo resulta aplicable cuando existen muy

pocos usuarios y no se requiere tiempo de respuesta muy rápido.

- Protocolo Manejado por Interrupciones (interrupt driven): es una mejora sobre el anterior;

la esclava genera una señal a la maestra, indicándole la procedencia, quien, si se encuentra

desocupada recibe también la información que se le envía. El inconveniente sigue siendo la

sobrecarga de la maestra, si el volumen de información es muy grande.

- Protocolo Manejado por "Marcas" (token passing): en este sistema todos los usuarios de

la red, a su turno, reciben una marca o cospel que los habilita para controlar la red. Este sistema es

bastante eficiente y se aplica en situaciones donde se debe garantizar un determinado tiempo de

respuesta.

- Protocolo de accesos múltiples con sensado de portador y detección de colisiones

(CSMA/CD Carrier sense multiple access with collision detect): en este sistema, distinto a los

anteriores, cualquier nodo puede transmitir en cualquier momento, luego de verificar que la red no

está en uso. en este último caso se limita a esperar a que se desocupe. La detección de colisiones se

implementa para evitar que dos usuarios transmitan simultáneamente.

CARACTERISTICAS DE LOS PROTOCOLOS

Protocolo Command/response Interrupt driven Token passing csma/cd

Concepto Simple Simple Media Complejo

Eficiencia Baja Baja Media Media-alta

Predictibilidad de

tiempo de

respuesta

Predecible

Relativamente

Predecible

Dificil de predecir

Confiabilidad Alta Alta Media Media

Medios de comunicación La intercomunicación entre los usuarios de la red se puede producir a través de distintos medios:

A) Alambre: par simple, par trenzado, cable coaxil, cable plano multiconductor B) Aire o vacío: Microondas, Radio-enlace, Satélite C) Fibra óptica

Los factores que intervienen en la decisión son: la distancia a cubrir, costos, cantidad de

usuarios, facilidad de instalación y sensibilidad al "ruido" externo (influencia de campos

electromagnéticos que pueden producir alteración de la información transmitida.

Si la red debe cubrir una distancia importante -cientos de kilómetros- se debe utilizar la red

telefónica, radio-enlace o microondas. Si la distancia es aún mayor, se debe pensar en la transmisión

vía satélite. Para el caso más común, en donde la red a instalar está dentro de un área no mayor a

unos cientos de metros (red de área local o LAN - Local Area Network), se utiliza la conexión física

por alambre o fibra óptica dependiendo de las distancias características de "ruido" presente, etc,

para una mejor relación precio/perfomance.

Redes Comerciales Las redes nacieron por la necesidad de los grandes usuarios de interconectar nodos. Más

tarde, y a partir de esos desarrollos, se generalizaron para servir a todo tipo de usuario.

Existen redes comerciales cuyos desarrollos originales recibieron el aporte de usuarios,

mejorando las especificaciones y quedando, con protocolo difundido, a disposición de productores y

usuarios. Otras en cambio, se denominan redes propietarias y no difunden su protocolo de

comunicaciones, ya que están diseñadas específicamente para un determinado tipo de máquinas.

Una red propietaria muy importante es la AppleTalk de Apple Computer para la línea de

computadoras Macintosh. Esta red implementa una topología de BUS, admitiendo hasta 32 nodos con

un alcance máximo de 300 metros, se utiliza para que varios equipos compartan impresoras de

grandes prestaciones y discos de alta capacidad externos. Su protocolo de comunicaciones es secreto.

Page 26: Unidad 1: Hardwareecaths1.s3.amazonaws.com/.../558682529.hardware-2017.pdf · 1 Unidad 1: Hardware INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse

26

Otro ejemplo de red, en este caso de protocolo difundido, es la ETHERNET, desarrollada

originalmente por Xerox para interconectar dispositivos de oficina. Trabaja sobre una topología de

BUS con protocolo CSMA/CD y se le puede conectar hasta 1024 usuarios por medio de cable coaxil o

fibra óptica. Esta red se adecua a sistemas donde no es necesario un tiempo de respuesta

determinado, como por ejemplo, en control de procesos.

Como último ejemplo consideraremos la MAP (Manufacturing Automation Protocol), diseñada

para controlar procesos en fábrica, orientada a minimizar el tiempo de respuesta. Está implementada

sobre topología de BUS con protocolo Token Passing utilizando cable coaxil.

Redes de Area Local Comerciales

Las LANs (Local Area Networks, redes de área local) permiten conectar cierta cantidad de

computadoras, con la finalidad de compartir información, aplicaciones o recursos a nivel de

periféricos.

Hace un tiempo, muchos hubiesen deseado instalar una red, pero el tiempo, costo y

complejidad para mantener una red tradicional lo hacían difícil. En las redes tradicionales, existe una

computadora central que provee los servicios a otras máquinas que ofician de clientes de la misma.

Estas redes se denominan redes tipo client-server y el equipo central debe ser un equipo basado,

como mínimo, en microprocesadores PENTIUM. El costo del software necesario para conectar un

número de máquinas determinado (10, 20 50 o más de 100 usuarios) resulta también bastante

oneroso. Esto es así ya que se requieren los programas para poner en marcha la red, donde entre

otras cosas es posible definir derechos de acceso, periféricos comunes, nivel de interrelación, etc.

El mercado de las redes cliente-servidor se divide prácticamente entre Novel y Windows NT

(o 200 en su última versión). Progresivamente, Linux, un nuevo sistema operativo de distribución

gratuita está comenzando a ganar posiciones, sobre todo como servidor de internet.

En contraposición a las redes client-server, comenzaron a comercializarse las denominadas

peer-to- peer (par a par), en las cuales todas las máquinas están a un mismo nivel de jerarquía,

pudiendo cada una de ellas funcionar como server, o como PC "standalone", es decir independiente.

Esta es una alternativa simple y barata para interconectar computadoras.

Peer-to-peer significa que cada computadora conserva su independencia, pero

eventualmente puede compartir sus recursos con las otras, sin la necesidad de un equipo central

dedicado, y además corren directamente sobre MS-DOS (el sistema operativo de las PC).

En una red peer-to-peer, desde una computadora se puede utilizar programas instalados en

otra, si así se desea, o bien, se puede enviar información a través del correo electrónico (E-mail). Esto

permite enviar o recibir información o mensajes a través de la red. Existe también la posibilidad de

conectar paquetes de sonidos, para digitalizar la voz y almacenarla en la red. Cualquier computadora

conectada a la red puede ser utilizada luego para reproducir el mensaje y realizar la transcripción si es

necesaria.

Hasta la aparición de Windows para Trabajo en grupos, Windowes 95 y 98, el líder del mercado de las LANs peer-to-peer era Artisoft, para su línea LANtastic que permiten comunicar

hasta 300 nodos.

Actualmente los usuarios de Windows 95 o 98 resuelven sus necesidades de red peer-to-peer

(sin grandes pretensiones) en forma automática ya que el sistema operativo incluye las prestaciones

necesaria

Para armar la red, se deben instalar los cables en la plaqueta o tarjeta de red, la cual a su vez

se conecta a la computadora. Se pueden utilizar conexiones por cable coaxil o por medio de cable

trenzado, necesitándose para esto último un dispositivo adicional denominado “hub” que recibe todas

las conexiones.

Conclusiones Las redes permiten el intercambio de información entre usuarios y compartir periféricos de

gran capacidad y alto costo por parte de equipos más modestos. Casi siempre se debe dedicar un

"server" de alta performance (arquitectura PENTIUM como mínimo) para controlar la red. Como

beneficio se tiene la posibilidad de acceder por parte de varios usuarios a una misma información y

poder de esa forma utilizar prestaciones propias de los sistemas multiusuarios, bajo la plataforma MS-

DOS extendiendo de esta forma las limitaciones de este sistema monousuario y monotarea. Toda

este avance ha sido posible gracias a la disminución de los costos del hardware de redes, como así

también a la incorporación de prestación de administración de redes en el sistema Windows 95 y 98

que equipa a la mayoría de las computadoras personales.