Algo sobre la hiztorya de la computasion
-
Upload
20masambriento -
Category
Lifestyle
-
view
395 -
download
2
description
Transcript of Algo sobre la hiztorya de la computasion
INDICETEMA PAGINA
1. PRIMERA GENERACION DE COMPUTADORAS 1
2. SEGUNDA GENERACION DE COMPUTADORAS 13
3. TERCERA GENERACION DE COMPUTADORAS 17
4. CUARTA GENERACION DE COMPUTADORAS 22
5. QUINTA GENERACION DE COMPUTADORAS 37
6. SEXTA GENERACION DE COMPUTADORAS 43
7. DISPOSITIVOS DE ENTRADA/SALIDA 45
8. EVOLUCION DE LOS DISPOSITIVOS DE ALMACENAMIENTO
51
9. EVOLUCION DE LOS SISTEMAS OPERATIVOS 58
10.EVOLUCION DE LOS LENGUAJES DE PROGRAMACION
66
BIBLIOGRAFIA 67
PRIMERA GENERACIÓN DE COMPUTADORAS
1
La primera generación de computadoras abarca desde el año 1938 hasta el
año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de
vacío, y la comunicación era en términos de nivel más bajo que puede existir, que
se conoce como lenguaje de máquina.
Características:
Estaban construidas con electrónica de válvulas.
Se programaban en lenguaje de máquina.
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna
tarea, y el lenguaje más simple en el que puede especificarse un programa se llama
lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto
de códigos binarios).
La primera generación de computadoras y sus antecesores, se describen en la
siguiente lista de los principales que la conformaron:
1941 ENIAC. Primera computadora digital electrónica en la historia. No fue un
modelo de producción, sino una máquina experimental. Tampoco era
programable en el sentido actual. Se trataba de un enorme aparato que ocupaba
todo un sótano en la universidad. Construida con 18.000 tubos de vacío,
consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era
capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de
ingenieros y científicos encabezados por los doctores John W. Mauchly y J.
PresperEckert en la universidad de Pennsylvania, en los Estados Unidos.
1949 EDVAC. Segunda computadora programable. También fue un prototipo de
laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las
computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
1951 UNIVAC I. Primera computadora comercial. Los
doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y
su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo
de Estados Unidos.
1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas
perforadas, que habían sido inventadas en los años de la revolución industrial
(finales del siglo XVIII) por el francésJoseph Marie Jacquard y perfeccionadas
2
por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de
una larga serie de computadoras de esta compañía, que luego se convertiría en
la número uno, por su volumen de ventas.
1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de
almacenamiento masivo llamado tambor magnético, que con los años
evolucionaría y se convertiría en el disco magnético.
El tubo de Vacío
La era de la computación moderna empezó con una ráfaga de desarrollo antes y
durante la Segunda Guerra Mundial, como circuitos
electrónicos, relés, condensadores y tubos de vacío que reemplazaron los
equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos
analógicos.
Las computadoras que se diseñaron y construyeron entonces se denominan
"primera generación" de computadoras. La primera generación de computadoras
eran usualmente construidas a mano usando circuitos que contenían relés y tubos
de vacío, y a menudo usaron tarjetas perforadas (punchedcards) o cinta de papel
perforado (punchedpaper tape) para la entrada de datos [input] y como medio de
almacenamiento principal (no volátil). El almacenamiento temporal fue
proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo
de sonido en un medio tal como alambre para almacenar datos) o por los tubos de
William (que usan la habilidad de un tubo de televisión para guardar y recuperar
datos).
A lo largo de 1943, la memoria de núcleo magnético estaba desplazando
rápidamente a la mayoría de las otras formas de
almacenamiento temporal, y dominó en este
campo a mediados de los 70.
En 1936 Konrad Zuse empezó la construcción
de la primera serie Z, calculadoras que ofrecen
memoria (inicialmente limitada) y
programabilidad. Las Zuses puramente
mecánicas, pero ya binarias, la Z1 terminada en 1938 nunca funcionó fiablemente
debido a los problemas con la precisión de partes. En 1937, Claude Shannon hizo
3
su tesis de master en MIT que implementó álgebra booleana usando relés
electrónicos e interruptores por primera vez en la historia. Titulada "Un Análisis
Simbólico de Circuitos de Relés e Interruptores" (A SymbolicAnalysis of Relay and
SwitchingCircuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos
digitales prácticos.
La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en
relés de teléfono y trabajó
satisfactoriamente. Así, la Z3 fue
la primera computadora
funcional controlada
mediante programas. En muchas
de sus características era
bastante similar a las máquinas
modernas, abriendo numerosos
avances, tales como el uso de la
aritmética binaria y números de
coma flotante. El duro trabajo de reemplazar el sistema decimal (utilizado en el
primer diseño de Charles Babbage) por el sistema binario, más simple, significó que
las máquinas de Zuse fuesen más fáciles de construir y potencialmente más fiables,
dadas las tecnologías disponibles en ese momento.
Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde
Babbage falló; sin embargo, aunque la mayoría de las máquinas de propósito
general de la actualidad continúan ejecutando instrucciones binarias, la aritmética
decimal es aún esencial para aplicaciones comerciales, financieras, científicas y de
entretenimiento, y el hardware de coma flotante decimal está siendo agregado en
los dispositivos actuales (el sistema binario continua siendo usado para
direccionamiento en casi todas las máquinas) como un apoyo al hardware binario.
Se hicieron programas para las Z3 en cintas perforadas. Los saltos condicionales
eran extraños, pero desde los 1990s los puristas teóricos decían que la Z3 era aún
una computadora universal (ignorando sus limitaciones de tamaño de
almacenamiento físicas). En dos patentes de 1937, Konrad Zuse también anticipó
que las instrucciones de máquina podían ser almacenadas en el mismo tipo de
almacenamiento utilizado por los datos - la clave de la visión que fue conocida como
4
la arquitectura de von Neumann y fue la primera implementada en el diseño
Británico EDSAC(1949) más tarde.
Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül"
en 1945, aunque nunca se publicó formalmente hasta 1971, y fue implementado la
primera vez en el 2000 por la Universidad de Berlín, cinco años después de la
muerte de Zuse.
Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra
Mundial cuando los bombarderos británicos o estadounidenses destruyeron sus
primeras máquinas. Al parecer su trabajo permaneció largamente desconocido para
los ingenieros del Reino Unido y de los Estados Unidos. Aún así, IBM era
consciente de esto y financió su compañía a inicios de la post-guerra en 1946, para
obtener derechos sobre las patentes de Zuse.
En 1940, fue completada la Calculadora de Número Complejo, una calculadora para
aritmética compleja basada en relés. Fue la primera máquina que siempre se usó
remotamente encima de una línea telefónica. En 1938, John
VincentAtanasoff y Clifford E. Berry de la Universidad del Estado de Iowa
desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito
especial para resolver sistemas de ecuaciones lineales, y que emplearon
condensadores montados mecánicamente en un tambor rotatorio para memoria. La
máquina ABC no era programable, aunque se considera una computadora en el
sentido moderno en varios otros aspectos.
Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos
en Bletchley Park para descifrar las comunicaciones militares alemanas. El
sistema cypher alemán (Enigma), fue atacado con la ayuda con las finalidad de
construir bombas (diseñadas después de las bombas electromecánicas
programables) que ayudaron a encontrar posibles llaves Enigmas después de otras
técnicas tenían estrechadas bajo las posibilidades. Los alemanes también
desarrollaron una serie de sistemas cypher (llamadas Fishcyphers por los británicos
y Lorenz cypers por los alemanes) que eran bastante diferentes del Enigma. Como
parte de un ataque contra estos, el profesor Max Newman y sus colegas
(incluyendo Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido
5
en un plazo muy breve por Tommy Flowers en la Post Office ResearchStation
en Dollis Hill en Londres y enviada a Bletchley Park.
El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus
usó solo tubos de vacío y no tenía relés. Tenía entrada para cinta de papel [paper-
tape] y fue capaz de hacer bifurcaciones condicionales. Se construyeron nueve Mk II
Colossi (la Mk I se convirtió a una Mk II haciendo diez máquinas en total). Los
detalles de su existencia, diseño, y uso se mantuvieron en secreto hasta los años
1970. Se dice que Winston Churchill había emitido personalmente una orden para
su destrucción en pedazos no más grandes que la mano de un hombre. Debido a
este secreto el Colossi no se ha incluido en muchas historias de la computación.
Una copia reconstruida de una de las máquinas Colossusesta ahora expuesta en
Bletchley Park.
El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la
computación teórica, y después de la guerra, diseñó, construyó y programó algunas
de las primeras computadorasen el Laboratorio Nacional de Física y en
la Universidad de Mánchester. Su trabajo de 1936 incluyó una reformulación de los
resultados de KurtGödel en 1931 así como una descripción de la que ahora es
conocida como la máquina de Turing, un dispositivo puramente teórico para
formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal,
más embarazoso, de Gödel basado en aritmética. Las computadoras modernas son
Turing-integrada (capacidad de ejecución de algoritmo equivalente a una máquina
Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es
a veces visto como una capacidad umbral separando las computadoras de propósito
general de sus predecesores de propósito especial.
George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York produjeron
algunas computadoras basadas en relés a finales de los años 1930 y a principios de
los años 1940, pero se preocuparon más de los problemas de control del sistema de
teléfono, no en computación. Sus esfuerzos, sin embargo, fueron un claro
antecedente para otra máquina electromecánica americana.
6
La Harvard Mark I (oficialmente llamada AutomaticSequenceControlledCalculator)
fue una computadora electro-mecánica de propósito general construida con
financiación de IBM y con asistencia de algún personal de IBM bajo la dirección
del matemático Howard
Aiken de Harvard. Su
diseño fue influenciado
por la Máquina
Analítica. Fue una
máquina decimal que
utilizó ruedas de
almacenamiento e
interruptores rotatorios
además de los relés electromagnéticos.
Se programaba mediante cinta de papel perforado, y contenía varias calculadoras
trabajando en paralelo. Más adelante los modelos contendrían varios lectores de
cintas de papel y la máquina podía cambiar entre lectores basados en una
condición. No obstante, esto no hace mucho la máquina Turing-integrada. El
desarrollo empezó en 1939 en los laboratorios de Endicott de IBM; la Mark I se llevó
a la Universidad de Harvard para comenzar a funcionar en mayo de 1944.
ENIAC
La construcción estadounidense ENIAC (ElectronicNumericalIntegrator and
Computer), a menudo llamada la primera computadora electrónica de propósito
general, públicamente validó el uso de elementos electrónicos para computación a
larga escala. Esto fue crucial para el desarrollo de la computación moderna,
inicialmente debido a la ventaja de su gran velocidad, pero últimamente debido al
potencial para la miniaturización.
Construida bajo la dirección de John Mauchly y J. PresperEckert, era mil veces más
rápida que sus contemporáneas. El desarrollo y construcción de la ENIAC comenzó
en 1941 siendo completamente operativa hacia finales de 1945. Cuando su diseño
fue propuesto, muchos investigadores creyeron que las miles de válvulas delicadas
(tubos de vacío) se quemarían a menudo, lo que implicaría que la ENIAC estuviese
muy frecuentemente en reparación. Era, sin embargo, capaz de hacer más de
7
100.000 cálculos simples por segundo y eso durante unas horas que era el tiempo
entre fallos de las válvulas.
Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos
dicen que eso ni siquiera se puede calificar como programación, pues cualquier tipo
de reconstrucción de una computadora se debería considerar como programación.
Varios años después, sin embargo, fue posible ejecutar programas almacenados en
la memoria de la tabla de función.
A todas las máquinas de esta época les faltó lo que se conocería como
la arquitectura de Eckert-Mauchly: sus programas no se guardaron en el mismo
"espacio" de memoria como los datos y así los programas no pudieron ser
manipulados como datos.
El ENIAC fue un ordenador electrónico digital con fines generales a gran escala.
Fue en su época la máquina más
grande del mundo, compuesto
de unas 17468 tubos de vacío,
esto producía un problema ya
que la vida media de un tubo era
de unas 3000 horas por lo que
aproximadamente cada 10
minutos se estropeaba un tubo y
no era nada sencillo buscar un
tubo entre 18000,
consumiéndose gran cantidad de tiempo en ello. Tenía dos innovaciones técnicas,
la primera es que combina diversos componentes técnicos (40000 componentes
entre tubos, condensadores, resistencias, interruptores, etc.) e ideas de diseño en
un único sistema que era capaz de realizar 5000 sumas y 300 multiplicaciones por
segundo. La segunda era la fiabilidad de la máquina, para resolver el problema de
los tubos de vacío se aplicaron unos estrictos controles de calidad de los
componentes utilizados. Salió a la luz pública el 14 de febrero de 1946, apareciendo
en la prensa con calificativos como "cerebro electrónico", "Einstein mecánico" o
"Frankenstein matemático", como por ejemplo en el diario Newsweek.
8
El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada
acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a gran
velocidad y que podía almacenar sus propios cálculos. El contenido de un
acumulador se visualizaba externamente a través de unas pequeñas lámparas que
producían un efecto
visual muy explotado
luego en las películas
de ciencia ficción. El
sistema utilizaba
números decimales (0 -
9). Para acelerar las
operaciones aritméticas
también tenía un
multiplicador y un
divisor. El multiplicador
utilizaba una matriz de
resistencia para ejecutar las multiplicaciones de un dígito y fue diseñado con un
circuito de control adicional para multiplicar sucesivos dígitos. El multiplicador y el
multiplicando estaban almacenados en un acumulador cada uno. Mediante una
lectora de tarjetas perforadas y una perforadora se producía la lectura y escritura de
datos.
El ENIAC era controlado a través de un tren de pulsos electrónicos. Cada unidad del
ENIAC era capaz de generar pulsos electrónicos para que otras unidades realizaran
alguna tarea, por eso los programas para el ENIAC consistían en unir manualmente
los cables de las distintas unidades para que realizaran la secuencia deseada. Por
eso programar el ENIAC era un trabajo arduo y dificultoso. Como las unidades
podían operar simultáneamente el ENIAC era capaz de realizar cálculos en paralelo.
Había una unidad llamada "unidad cíclica", que producía los pulsos básicos usados
por la máquina. También había tres tablas de funciones y constantes que
transmitían los números y funciones elegidos manualmente a las unidades para
realizar las operaciones. Una suma la realizaba en 0.2 milisegundos (5000 sumas
por segundo), una multiplicación de dos números de 10 dígitos la realizaba en 2.8
9
milisegundos, y una división como mucho la realizaba en 24 milisegundos.
Remplazar una válvula de vacío estropeada suponía encontrarla entre 18000
Nunca pudo funcionar las 24 horas todos los días, y normalmente se ejecutaban dos
veces un mismo cómputo para comprobar los resultados y se ejecutaba
periódicamente cálculos cuyos resultados se conocían previamente para comprobar
el correcto funcionamiento de la máquina. Aunque en un principio el ENIAC estaba
construido para fines militares, al finalizar la Segunda Guerra Mundial se utilizó para
numerosos cálculos de investigaciones científicas. El ENIAC estuvo en
funcionamiento hasta 1955 con mejoras y ampliaciones, y se dice que durante su
vida operativa realizó más cálculos matemáticos que los realizados por toda la
humanidad anteriormente.
Antes de finalizar su construcción, los autores se dieron cuenta de sus limitaciones,
tanto a nivel estructural como a nivel de programación. Por eso en paralelo a su
construcción empezaron a desarrollar las nuevas ideas que dieron lugar al
desarrollo de la estructura lógica que caracteriza a los ordenadores actuales.
La primera máquinas Eckert-Mauchly fue la Manchester Baby o Small-Scale
Experimental Machine, construida en la Universidad de Manchester en 1948; esta
fue seguida en 1949 por la computadora Manchester Mark I que funcionó como un
sistema completo utilizando el tubo de William para memoria, y también introdujo
registros de índices. El otro contendiente para el título "primera computadora digital
de programa almacenado" fue EDSAC, diseñada y construida en la Universidad de
Cambridge.
Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de
resolver problemas reales. La EDSAC fue realmente inspirada por los planes para
la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo
la ENIAC fue exitosamente operacional. A diferencia la ENIAC, que utilizo
procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este
diseño era más simple y fue el primero en ser implementado en cada onda teniendo
éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester Mark
I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que
derivan de su arquitectura.
10
La primera computadora programable en la Europa continental fue creada por un
equipo de científicos bajo la dirección de SegreyAlekseevichLebedev del Institute of
Electrotechnology en Kiev,Unión Soviética (ahora Ucrania).
La computadora MESM (Small ElectronicCalculating Machine (МЭСМ)) fue
operacional en 1950. Tenía aproximadamente 6.000 tubos de vacío y consumía
25kW. Podía realizar aproximadamente 3.000 operaciones por segundo.
La máquina de la Universidad de Manchester se convirtió en el prototipo para
la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la
Universidad en febrero de 1951 y por lo menos otras nueve se vendieron entre 1951
y 1957.
UNIVAC I
Las computadoras UNIVAC I fueron construidas por la
división UNIVAC de Remington Rand (sucesora de la Eckert-Mauchly Computer
Corporation, comprada por Rand en 1951). Su valor estaba entre 1 millón y 1 millón
y medio de dólares, que
actualizado seria de 6
millones y medio a 9
millones. Era una
computadora que pesaba
7.250 kg, estaba compuesta
por 5000 tubos de vacío, y
podía ejecutar unos 1000
cálculos por segundo. Era
una computadora que
procesaba los dígitos en
serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100.000
por segundo. Funcionaba con un reloj interno con una frecuencia de 2,25 MHz, tenía
memorias de mercurio. Estas memorias no permitían el acceso inmediato a los
datos, pero tenían más fiabilidad que las memorias de tubos de rayos catódicos, que
son los que se usaban normalmente.
El primer UNIVAC fue entregado a la Oficina de Censos de los Estados
Unidos (UnitedStatesCensus Bureau) el 31 de marzo de 1951 y fue puesto en
11
servicio el 14 de junio de ese año [1]. El quinto, construido para la Comisión de
Energía Atómica (UnitedStatesAtomicEnergyCommission) fue usado por la cadena
de televisión CBS para predecir la elección presidencial estadounidense de 1952.
Con una muestra de apenas el 1% de la población votante predijo correctamente
que Eisenhower ganaría, algo que parecía imposible.
Además de ser la primera computadora comercial estadounidense, el UNIVAC I fue
la primera computadora diseñada desde el principio para su uso en administración y
negocios (es decir, para la ejecución rápida de grandes cantidades de operaciones
aritméticas relativamente simples y transporte de datos, a diferencia de los cálculos
numéricos complejos requeridos por las computadoras científicas). UNIVAC
competía directamente con las máquinas de tarjeta perforada hechas principalmente
por IBM; curiosamente, sin embargo, inicialmente no dispuso de interfaz para la
lectura o perforación de tarjetas, lo que obstaculizó su venta a algunas compañías
con grandes cantidades de datos en tarjetas debido a los potenciales costos de
conversión. Esto se corrigió eventualmente, añadiéndole un equipo de
procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y
el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las
tarjetas y las cintas magnéticas que empleaba UNIVAC nativamente.
Los primeros contratos para la venta de UNIVACs fueron realizados con
instituciones del gobierno de los Estados Unidos, tales como la oficina de censos,
la Fuerza Aérea, y el servicio de mapas del ejército; también contrataron sus
servicios particulares, como la ACNielsenCompany y la
PrudentialInsuranceCompany.
El octavo UNIVAC, la primera venta efectiva para uso comercial, fue instalado en
enero de 1954, en la división de electrodomésticos de General Electric para
gestionar los salarios. DuPontcompró el duodécimo UNIVAC, que fue entregado en
septiembre de 1954. La Pacific Mutual Insurance recibió un UNIVAC en agosto
de 1955, y otras compañías de seguros pronto siguieron ese camino. Mientras tanto,
para uso oficial, la oficina de censos compró un segundo UNIVAC en octubre de
1954.
Originalmente valorado en $159.000 de la época, el UNIVAC aumentó su precio
hasta costar entre $1.250.000 y $1.500.000. En total se fabricaron y entregaron 46
12
unidades. UNIVAC resultó demasiado costosa para la mayoría de las universidades,
y Sperry Rand (a diferencia de compañías como IBM), no tenía el suficiente
respaldo financiero para donar muchas unidades; sin embargo un ejemplar se donó
a la Universidad de Harvard en 1956, otro a la Universidad de Pensilvania en 1957,
y uno a la Case Western Reserve University en Cleveland, Ohio ese mismo año.
Algunos sistemas UNIVAC permanecieron en servicio durante mucho tiempo, de
hecho bastante después de haberse vuelto obsoletos. La Oficina de Censos utilizó
sus dos sistemas hasta1963, acumulando doce y nueve años de servicio
respectivamente; Sperry Rand utilizó sus propias dos unidades en Buffalo, Nueva
York, hasta 1968. La compañía de seguros Life and Casualty of Tennessee utilizó
su sistema hasta 1970, totalizando más de trece años de servicio.
13
SEGUNDA GENERACIÓN DE COMPUTADORAS (1956 A 1963)
La segunda generación de las computadoras reemplazó a las válvulas de vacío por
los transistores.
Por eso, las computadoras de la segunda generación son más pequeñas y
consumen menos electricidad que las anteriores, la forma de comunicación con
estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje
de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de
programación. Las características más relevantes de las computadoras de la
segunda generación son:
Estaban construidas con electrónica de transistores
Se programaban con lenguajes de alto nivel
1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el
desarrollo de las CPU pero esta microprogramación también fue cambiada más
tarde por el computador alemán BastianShuantiger
1956, IBM vendió por un valor de 1.230.000 dólares su primer sistema de disco
magnético, el RAMAC [Random Access Method of Accounting and Control].
Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5
megabytes de datos, con un coste de 10.000$ por megabyte.
El primer lenguaje de programación de propósito general de alto-
nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este
tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse
no se implementó en ese momento).
1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba
tarjetas perforadas. Demostró ser una computadora de propósito general y
12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la
historia de la computación. Tenía una memoria de núcleo magnético de 4.000
caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus
diseños estaban basados en el deseo de reemplazar el uso de tarjetas
14
perforadas, que eran muy usadas desde los años 1920 hasta principios de los
'70.
1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente
con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas
perforadas. Probó ser una computadora científica popular y se vendieron
aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético
de más de 60.000 dígitos decimales.
1962, Se desarrolla el primer juego de ordenador, llamado SpaceWars.
DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico
en laboratorios y para la investigación.
1964, IBM anunció la serie 360, que fue la primera familia de computadoras que
podía correr el mismo software en diferentes combinaciones de velocidad,
capacidad y precio. También abrió el uso comercial de microprogramas, y un
juego de instrucciones extendidas para procesar muchos tipos de datos, no solo
aritmética. Además, se unificó la línea de producto de IBM, que previamente a
este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y
una línea "científica". El software proporcionado con el System/350 también
incluyó mayores avances, incluyendo multi-programación disponible
comercialmente, nuevos lenguajes de programación, e independencia de
programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían
sido entregadas en 1968.
15
Transistores
Los transistores fueron inventados en el laboratorio de
William Shockley. Los transistores, que fueron inventados en
1948, están hechos de un material semiconductor que puede
amplificar las señales o abrir y cerrar circuitos. Todos los
microprocesadores contienen millones de micro transistores.
El uso de los transistores permitió a los fabricantes de
computadoras producir unas más pequeñas, las cuales eran
más baratas y gastaban menos poder eléctrico comparado con las versiones
anteriores. Tanto se apreció la invención que Shockley fue galardonado con el
Premio Nobel.
Utilidades y programas
La segunda generación de computadoras comenzó a tener algunas utilidades
modernas que todavía se usan hoy en día. Tenían sistemas operativos, los cuales
hacían más fácil la navegación, ya que los programas podían cambiarse al instante.
El procesamiento de datos financieros se convirtió en algo conveniente. Las
opciones de discos de almacenamiento e impresoras fueron añadidas a la
tecnología computacional. Las instrucciones y programas podían ser almacenados
en la memoria de la computadora.
Industria de la Energía Atómica
Las primeras máquinas que usaron esta tecnología del transistor fueron usadas en
la industria de le energía atómica. Estas computadoras proporcionaban a los
científicos atómicos con unas capacidades grandísimas, permitiéndoles almacenar
grandes cantidades de información y datos. El lenguaje de las máquinas fue
remplazado por el lenguaje ensamblador, el cual era más fácil y más corto que los
códigos que se usaban antes. Esta segunda generación de computadoras les
permitió a los científicos volar al espacio en los años 60.
Uso en los negocios y en el gobierno
Inicialmente, la segunda generación de computadoras era demasiado costosa para
el uso en negocios. Sin embargo, mientras pasaron los años y las computadoras se
16
volvían más baratas, muchos hombres de negocios comenzaron a usarlas para el
procesamiento de su información financiera. Los programas también
podían imprimir facturas, calcular los sueldos para los trabajadores y diseñar los
productos. Algunas de estas empresas que fabricaban las computadoras de
segunda generación eran IBM, Honeywell, Burroughs y Sperry-Rand.
17
TERCERA GENERACIÓN DE COMPUTADORAS (1965-1971)
Las computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran energéticamente más eficientes. Las velocidades
de cálculo se disparan al nanosegundo (10-9 segundos), las memorias externas al
megabyte (210 posiciones de memoria) y se generalizan variados periféricos:
impresoras, lectores de tarjetas, lectores ópticos, discos flexibles de
almacenamiento.
Nacen los lenguajes de alto nivel, de sintaxis fácilmente comprensible por el
programador.
Las características de esta generación fueron las siguientes:
Su fabricación electrónica está basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los sistemas
operativos.
LOS CIRCUITOS INTEGRADOS
Las computadoras de la tercera generación emergieron con el
desarrollo de los circuitos integrados (pastillas de silicio) en las
cuales se colocan miles de componentes electrónicos, en una
integración en miniatura. El circuito integrado no es más que la
mínima expresión del transistor. Se basa en las propiedades de
los semiconductores, que funcionan como transistores, pero que
tienen un tamaño pequeñísimo (15 o 20 transistores en unos
pocos milímetros cuadrados).
Antes del advenimiento de los circuitos integrados, las computadoras estaban
diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos
cosas. Los circuitos integrados permitieron a los fabricantes de computadoras
incrementar la flexibilidad de los programas, y estandarizar sus modelos.
18
LA IBM 360
La IBM 360, una de las primeras computadoras comerciales que usó circuitos
integrados, podía realizar tantos análisis numéricos como administración o
procesamiento de archivos.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y
podían todavía correr sus programas actuales. Las computadoras trabajaban a tal
velocidad que proporcionaban la capacidad de correr más de un programa de
manera simultánea (multiprogramación).
Por ejemplo, la computadora podía estar calculando la nómina y aceptando pedidos
al mismo tiempo.
GORDON E. MOORE (LA LEY DE MOORE)
En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito
integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de
semiconductores. Dijo que los fabricantes iban a duplicar la densidad de los
componentes por los circuitos integrados en intervalos regulares de un año, y que
seguirían haciéndolo mientras el ojo humano pudiera ver.
LAS MINICOMPUTADORAS
Con la introducción del modelo 360, IBM acaparó el 70% del mercado. Para evitar
competir directamente con IBM, la empresa Digital Equipment Corporation DEC
redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de
19
comprar y de operar que las computadoras grandes, las minicomputadoras se
desarrollaron durante la segunda generación, pero alcanzaron su mayor auge entre
1960 y 70.
En 1969, la primera minicomputadora de 16-bit fue distribuida por Data General
Corporation. La computadora, llamada Nova, fue un mejoramiento tanto en
velocidad como en poder sobre la minicomputadora de 12-bit, PDP-8.
LA COMPAÑÍA INTEL
En 1968, Gordon Moore, Robert Noyce y Andy Grove establecen la compañía Intel,
que en un principio se dedica a fabricar chips de memoria. En este mismo año, la
computadora CDC 7600 logra la velocidad de 40 Mflops.
LA RED ARPANET
En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet,
con el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro
nodos (en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el
estándar RS-232C para facilitar el intercambio entre las computadoras y los
periféricos.
CABLE DE FIBRA ÓPTICA
En 1970 fue comercialmente producido por Corning Glass Works, Inc. el primer
cable de fibra óptica. El cable de fibra óptica de vidrio hizo que se transmitieran más
datos por ellos, más rápido que por alambre o cable convencional. El mismo año,
los circuitos ópticos fueron mejorados aún más, por el desarrollo del primer láser
semiconductor.
20
EL PRIMER MODELO DE BASE DE DATOS RELACIONAL
En 1970 fue publicado por E.F. Codd el primer modelo de banco de datos relacional.
Un banco de datos relacional es un programa que organiza datos, graba y deja que
se comparen atributos similares de cada registro. Un ejemplo es una colección de
registros personales, donde se listan los apellidos o los sueldos de cada persona. La
publicación de Codd, titulada "Un modelo relacional de Datos para grandes bancos
de datos compartidos", abrió por completo un nuevo campo en el desarrollo del
banco de datos.
En 1970 aparecen los discos flexibles y las impresoras margarita. También
comienza a usarse la tecnología de MOS (Metal-Oxide semiconductor) para tener
circuitos integrados más pequeños y baratos.
EL PRIMER CHIP MICROPROCESADOR (INTEL 4004)
En 1971 fue introducido por la
Corporación Intel el primer chip
microprocesador, el primer
computador en un solo chip. El chip
4004 era un procesador de 4-bit con
2250 transistores, capaz de casi el
mismo poder como el ENIAC de
1946 (que llenaba un cuarto grande y
tenía 18,000 tubos al vacío). El chip
4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho.
LA PRIMERA COMPUTADORA PERSONAL
En 1971 se construyó la primera computadora personal y fue distribuida por John
Blankenbaker. El computador, llamado Kenbak-1, tenía una capacidad de memoria
de 256 bytes, desplegaba los datos con un juego de LED pestañeante y era tedioso
programarlo. Aunque sólo se vendieron 40 computadoras Kenbak-1 (a un precio de
$750), introdujo la revolución de la computadora personal.
21
Las características másparticulares fueron:
Se desarrollaron circuitos integrados para procesar información.
Se desarrollaron los "chips" para almacenar y procesar la información. Un
"chip" es una pieza de silicio que contiene los componentes electrónicos en
miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la
información como cargas eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o
análisis matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra vez las computadoras se tornan más pequeñas, más ligeras y más
eficientes.
Consumían menos electricidad, por lo tanto, generaban menos calor.
CUARTA GENERACIÓN DE COMPUTADORAS
22
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos por las de chips
de silicio, y la colocación de muchos más componentes en un Chip: producto de
la micro miniaturización de los circuitos electrónicos. El tamaño reducido del
microprocesador y de los chips hizo posible la creación de las computadoras
personales (PC), que han adquirido proporciones enormes y que han influido en la
sociedad en general sobre la llamada “revolución informática”.
Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy
gran escala) permiten que cientos de miles de componentes electrónicos se
almacenen en un chip. Usando VLSI, un fabricante puede hacer que una
computadora pequeña rivalice con una computadora de la primera generación que
antes ocupara un cuarto completo.
Una vez que el PC fue llegando a los hogares, comienza la revolución del PC. La
competencia de los mercados entre manufactureros como IBM y Apple Computer
avanzaron rápidamente. Por primera vez la habilidad de cálculos de alta calidad
estaba en la casa de cientos de miles de personas, en vez de sólo algunos
privilegiados. Las computadoras finalmente se convirtieron en una herramienta de la
gente común.
Antes de 1975, los rumores de cambio en el mundo de la computación se
escuchaban pero no se entendían. Intel había introducido el primer
microprocesador, el 4004, en 1971, seguido en 1972 por el 8008 de 8 bits y en 1973
por el 8080.
En 1973, Scelbi Computer Consulting creó lo que se dijo fue el primer
microcomputador, el Scelbi 8-H basado en el 8008. IBM introduce la primera
impresora láser.
Nolan Bushnell de Atari revolucionaba los juegos, y más tarde el entretenimiento
hogareño, con el juego Pong en 1972.
EL PRIMER MICROCOMPUTADOR: EL ALTAIR 8800
23
Micro Instrumentation Telemetry Systems (MITS) introdujo el Altair 8800 ($350),
considerado el primer microcomputador real, el cual tenía un microprocesador de 8-
bit Intel 8080, 256 bytes de memoria, y un panel frontal de switches. El sistema no
tenía teclado, ni un dispositivo de almacenamiento de la memoria. Cuando se
actualizó la computadora con 4 kilobytes de expansión de
memoria, Paul Allen y Bill Gates (más tarde cofundadores de Microsoft Corporation)
desarrollaron una versión de BASIC como lenguaje de programación del
computador.
Se introdujeron tres chips que dominarían los años iniciales de la industria,
el Zilog Z80, que se convertiría en el corazón de la primera generación importante
de computadores personales no Apple, las máquinas CP/M, el
MOS Technology 6502, y el Motorola 6800.
EN 1976
En 1976 docenas de compañías se habían unido al alboroto, se realizaron las
primeras conferencias de microcomputación, siendo la primera la organizada por
DavidBunnell de MITS, llamada la Convención Mundial del Computador Altair en el
Hotel Marina Aeropuerto en Alburqueque, New México; entre los productos
introducidos estaba el Cromemco TV Dazzler, el primer tablero gráfico a color para
microcomputadores.
IBM introduce las impresoras a chorro de tinta.
24
Cray Research introduce la Cray 1, una supercomputadora con una arquitectura
vectorial.
Intel produce el 8085, un 8080 modificado con algunas características extra de
entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era un
computador de 8 bits comparable al 8080. Fue utilizada como controlador en
equipos industriales. Fue seguido por el 6809, que tenía algunas facilidades extra,
por ejemplo, aritmética de 16 bits.
Texas Instruments anuncia el TMS9000, el primer microprocesador de 16 bits.
Michael Shrayer escribe Electric Pencil, el primer procesador de palabras para
microcomputadores.
Shugart anuncia su manejador de disquetes "minifloppy de 5 1/4" por $390.
APPLE COMPUTER
En 1976 se forma Apple Computer con Steve Jobs y Steve Wozniak, mostrando en
el Club de Computación Homebrew el computador Apple I, que consistía
principalmente de un tablero de circuitos. Steve Wozniak propone a Hewlett-
Packard que cree un computador personal. Steve Jobs propone lo mismo a Atari.
Ambos son rechazados.
En 1977
25
La primera computadora personal ensamblada fue distribuida
por Commodore, Apple Computer y Tandy. En unos pocos años el PC
(computadora personal) había llegado a ser parte de la vida personal de cada uno
de sus usuarios, y pronto aparecería en las bibliotecas públicas, escuelas, y lugares
de negocio.
Fue también durante este año que la primera red de área
local Local Area Network (LAN) comercialmente disponible fue desarrollada
por Datapoint Corporation, llamada ARCnet.
Micropolis introduce el Metafloppy, un manejador de disquetes 5 ¼" con la
capacidad de disquetes de 8".
Gary Kidall de Digital Research desarrolla el sistema operativo CP/M
(Control Program for Microcomputers) (Programa de Control para
Microcomputadores), el cual maneja la primera generación de PCs, pero será
superado por IBM en favor de MS-DOS.
En 1978
VISICALC, la primera hoja de trabajo, fue el primer programa que todo negocio no
sólo necesitaba, sino que instantáneamente sabía que necesitaba. Sus creadores
fueron Dan Bricklin y Bob Frankston, quienes lo escribieron en una Apple.
MicroPro International, fundada por Seymour Rubenstein de IMSAI
anuncia WordMaster, precursor de Wordstar.
Houston Instruments anuncia el plotter (graficador) HiPlot.
Computer Headware anuncia el manejador de base de datos WHATSIT.
Texas Instruments introduce Speak and Spell, el primer juguete que habla y que usa
la síntesis vocal digital.
Intel produce el 8086, una
CPU de 16 bits en un chip.
Este procesador es
26
completamente compatible con el 8080, y también lo fue el 8088, que tenía la misma
arquitectura y corría los mismos programas, pero con un bus de 8 bits en lugar de
uno de 16, haciéndolo más lento y barato.
DEC introduce la VAX 11/780, una computadora de 32 bits que se hizo popular para
aplicaciones técnicas y científicas.
En 1979
Se muestra Visicalc en el WCCF. Es mercadeado por Personal Software, la cual se
convierte posteriormente en VisiCorp.
Hayes Microcomputer anuncia el Micromodem 100. Este módem automático
transmitía a una velocidad de 110 a 300 bps.
Magic Wand se convierte en el primer competidor serio del procesador de
palabras Wordstar.
Wayne Ratliff desarrolla el programa de base de datos Vulcan, que se convertirá
posteriormente en DBASE II.
Los juegos de video, tales como Pac Man y Space Invaders, se hacen populares.
Intel introduce el 8088, que se convertirá en el corazón del IBM PC.
Xerox, DEC, e Intel anuncian Ethernet.
El primer clon de Apple aparece; es llamado, apropiadamente, Orange.
En 1980
Personal Software introduce Zork, el Imperio Bajo Tierra, un juego de aventuras en
un computador de "segunda generación".
Apple anuncia el computador plagado de problemas Apple III.
27
Shugart comienza a vender manejadores Winchester de 5 ¼", que mantienen 80
veces más datos que un disquete estándar y transfiere datos 20 veces más rápido.
Radio Shack anuncia el Computador a Color TRS-80.
Altos introduce el primer sistema multiusuario basado en un microprocesador; el
8000-5 usaba un Z80A y soportaba hasta cuatro personas.
Digital Research anuncia CP/M-86.
Satellite Software International, más tarde WordPerfect Corp., anuncia la primera
versión de WordPerfect para computadores Data General.
Se desarrolló el primer microprocesador de 32-bit en un sólo chip, en
Laboratorios Bell. El chip, llamado Bellmac-32, proporcionó un mejor poder
computacional sobre los procesadores anteriores de 16-bit.
COMPUTADORA DE INSTRUCCIÓN REDUCIDA (RISC)
El primer prototipo de Computadora de Instrucción Reducida (RISC) fue
desarrollado por un grupo de investigación en IBM. El minicomputador 801 usaba un
juego simple de instrucciones en lenguaje de máquina, que podía procesar un
programa muy rápido (usualmente dentro de un ciclo de máquina). Varios
vendedores importantes ahora ofrecen computadoras RISC. Se piensa que el RISC
sea el formato futuro de los procesadores, debido a su rapidez y eficacia.
En 1981
La revolución de la computadora personal ganó impulso cuando IBM introdujo su
primer computador personal. La fuerza de la reputación de IBM fue un factor
importante para legitimar el PC para uso general. La primera IBM PC era un sistema
basado en un floppy, el cual usaba el microprocesador 8088 de Intel. Las unidades
originales tenían pantallas de sólo texto, los gráficos verdaderos eran una alternativa
que llegó más tarde. La memoria también era limitada, típicamente de sólo 128K o
256K de RAM. La máquina usaba un sistema operativo conocido como DOS, un
sistema de línea de comandos similar al más antiguo sistema CP/M.
28
Primera IBM PC
IBM lanzó más tarde el IBM PC/ XT. Ésta era
una máquina extendida que añadía una unidad
de disco duro y gráficos CGA. Ya que la
máquina llegó a ser popular, otras varias
compañías empezaron a lanzar imitaciones del
IBM PC. Estos "clones" iniciales se
distinguieron por su incompatibilidad debido a
su incapacidad de reproducir debidamente el IBM BIOS. Se comercializaban
normalmente como "90% compatible". Este problema se superaría pronto y la
competencia serviría para empujar la tecnología y bajar los precios de la unidad.
En 1981 se vendieron 80000 computadoras personales, al siguiente subió a
1.400.000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de
computadoras personales, por lo que no queda duda que su impacto y penetración
han sido enormes.
Fue distribuida por BBN Computers Advanced, Inc. la primera computadora
comercial de procesamiento paralelo. La computadora, llamada "Mariposa", era
capaz de asignarle a partes de un programa hasta 256 procesadores diferentes,
como consecuencia la velocidad del proceso y su eficacia se incrementaban.
Hayes introduce el Smartmodem 300, el cual se convierte en el estándar de la
industria.
EL HX-20, EL PRIMER COMPUTADOR PORTÁTIL
Epson América muestra el HX-20, quizás el primer
computador portátil (laptop); la máquina pesa
29
menos de 3 libras y usa una versión CMOS del 6801, 16K bytes de RAM, y una
pantalla de 20 caracteres por 4 líneas.
Warner Amex, Atari, y CompuServe anuncian el servicio de información por cable de
TV.
Timex contrata a Clive Sinclair para mercadear el Timex/Sinclair 1000, el primer
computador por debajo de los $100 en U.S.A.
Los juegos de video Atari y el Intellivision de Mattel son grandes aciertos en la
temporada de Navidad.
Corvus introduce OmniNet, una LAN no costosa con twisted-pair.
En 1982
Compaq Computer Corp. anuncia el Compaq Portable, un sistema compatible con el
IBM PC.
Commodore anuncia el Commodore 64. Basado en el 6510, incluía 64K bytes de
RAM, 20K bytes de ROM (incluyendo Microsoft BASIC), un chip de sonido, gráficos
a color, y una interfase serial.
Kaypro anuncia el Kaycomp II portable; con una pantalla de 9 pulgadas y software
incluido.
Columbia Data Products anuncia el primer clon del IBM PC, el MPC.
Franklin Computer Corp. anuncia el Ace 100, un clon del Apple II.
David Bunnell comienza con PC Magazine.
Lotus Development introduce 1-2-3 en Comdex.
Intel anuncia el 286.
Autodesk anuncia AutoCAD, el primer sistema CAD para el PC.
30
Peter Norton Computing introduce el Norton Utilities.
En 1983
Apple devela el Lisa, una máquina basada en el 68000 de 32 bits y caracterizada
por una interfase gráfica con el usuario y un ratón. Apple, también anuncia
el Apple IIe.
Tandy anuncia el Tandy 2000, basado en un 80186.
Radio Shack anuncia el Modelo 100 del TRS-80 de 4 libras.
Novell introduce Netware, el primer sistema operativo LAN de servidor de archivo.
IBM introduce el XT, que agrega un manejador de disco duro de 10-MB y tres
ranuras de expansión más al diseño del PC original.
PC Magazine se vende a nuevos propietarios; la mayoría del personal se retira para
formar PC World.
Microsoft anuncia Word (llamado originalmente Multi-Tool Word).
Microsoft y un grupo de compañías japonesas anuncia el estándar MSX para
computadores basados en el Z80.
IBM anuncia el PCjr, el cual es sin duda el fracaso más grande de la compañía en
los años 80s.
Borland International anuncia Turbo Pascal para máquinas con CP/M y 8088.
Microsoft anuncia Windows, pero no se despacha por dos años.
AT&T anuncia Unix System V.
Iomega introduce el primer Bernoulli Box, un innovador manejador de disco
removible.
31
El HP-150 de Hewlett-Packard fue una máquina basada en el 8088, que ofrecía un
exclusivo toque de la pantalla.
Microrim, fundado por Wayne Erickson en Noviembre de 1981, intro-
duce R:Base 4000, la primera base de datos relacional para PCs.
Compaq se hace público, y 6 millones de acciones se venden en un día.
En 1984
Satellite Software International libera el WordPerfect para el IBM PC, Victor 9000,
DEC Rainbow, Zenith z-100, y Tandy 2000.
Hewlett-Packard introduce el LaserJet y el HP 110, un laptop 80C86.
Data General introduce el laptop DG/One.
Inglaterra produce el Apricot PC.
Con el Symphony de Lotus, se llega a la era de los paquetes integrados; al mes
siguiente, Ashton-Tate introduce Framework.
Motorola introduce el 68020.
IBM anuncia TopView, un ambiente de ventanas con multitarea que nunca se
comprendió.
Computer Associates compra Sorcim, el fabricante de SuperCalc.
George Tate, el cofundador de Ashton-Tate, muere. No había Ashton; el compañero
de Tate se llamaba Lashlee.
Lotus anuncia Jazz, el cual se convirtió en el primer fracaso de la compañía.
EL MACINTOSH
32
Fue distribuido
por Apple Computer, Inc., por US$2495, el primer computador personal Macintosh.
El Macintosh, el cual tenía una capacidad de memoria de 128KB, integraba un
monitor y un ratón, fue la primera computadora en legitimar la interfaz gráfica. La
interfase de Mac era similar a un sistema explorado por Xerox, PARC. En lugar de
usar una interfase de línea de comandos, que era la norma en otras máquinas,
el MacOS se presentaba a los usuarios con "íconos" gráficos, sobre ventanas
gráficas, y menús deslizantes. El Macintosh fue un riesgo significativo de Apple, ya
que el nuevo sistema era incompatible con cualquiera otro tipo de software, o con su
propia Apple ][, o el IBM PC. La máquina no avanzó más allá por su memoria
limitada y la falta de una unidad de disco duro. La máquina pronto llegó a ser una
norma para los artistas gráficos y publicadores. Esto hizo que la máquina creciera
en una plataforma más establecida.
EL IBM PC-AT
IBM distribuyó el IBM PC-AT, la primera
computadora que usaba el chip
microprocesador Intel 80286. La
serie Intel 80x86 adelantó el poder del
procesador y la flexibilidad de las
computadoras IBM. IBM introdujo varios
cambios en esta nueva línea. Se
introdujo un nuevo sistema de gráficos,
33
EGA, que tenía 16 colores de gráficos a resoluciones más altas (CGA, el sistema
más antiguo, sólo tenía cuatro colores). La máquina también incorporó un bus de
datos de 16-bit, mejorando el bus de 8-bit de XT. Esto permitió la creación de
tarjetas de expansión más sofisticadas. Otra mejora incluía un teclado extendido, un
mejor suministro de energía, una caja más grande del sistema y un manejador de
disquetes de alta densidad por $5469.
En 1985
AT&t anuncia el Unix PC, basado en un 68010, el cual fracasó en el establecimiento
de Unix como un estándar para el PC.
Apple discontinúa el Lisa.
Microsoft libera el C 3.0.
Toshiba introduce el fantásticamente exitoso laptop T1100.
Intel anuncia el 386.
Microsoft lanza finalmente el Windows 1.0.
IBM introduce su red Token Ring.
Ansa introduce Paradox, comprado más tarde por Borland.
Aldus introduce PageMaker original para el Mac de 512 Kb.
Lotus adquiere Software Arts; detiene el envío de VisiCalc.
Microsoft anuncia Excel para el Mac.
Lotus lanza finalmente Jazz.
Lotus e Intel anuncian una especificación de memoria expandida que con el tiempo
se convertirá en LIM/EMS 3.2, e Intel anuncia AboveBoard.
Quarterdeck Office Systems libera el programa de ventanas y multitareas Desqview.
34
En 1986
IBM introduce el RT PC, su primera y no muy exitosa aventura en las estaciones de
trabajo basadas en RISC.
Sperry y Burroughs acuerdan fusionarse en Unisys.
Peter Norton Computing anuncia el Norton Commander.
Se forma la Corporación para Sistemas Abiertos.
Motorola anuncia el microprocesador 68030.
Lotus anuncia HAL.
Microsoft introduce Works para el Mac.
IBM introduce el PC Convertible, un laptop de 12 a 16 libras que funciona a baterías,
el cual se vuelve en su segundo portátil no exitoso.
Compaq introduce la arquitectura Flex Deskpro 386, su primer 386 y la primera
máquina Compaq en incluir un bus de memoria separado.
Se introduce el Apple IIGS.
En 1987
Compaq introduce el Portable III.
Apple introduce el Mac II y el Mac SE.
IBM introduce la línea PS/2 (modelo 25) y OS/2, y el primer IBM 386 (modelo 80).
IBM anuncia chips DRAM de 4 MB.
Lotus firma un acuerdo de 10 años para desarrollar software para mainframes IBM,
comenzando con el 1-2-3/M
Lotus anuncia el 1-2-3 release 3.0.
35
Microsoft y 3Com anuncian su intención de desarrollar el Manejador de Redes OS/2.
Lotus introduce una demanda contra Paperback Software y Mosaic Software,
alegando que se han copiado el 1-2-3.
IBM introduce el PC Convertible Modelo 3.
Apple introduce HyperCard, el cual demuestra ser enormemente popular.
Compaq anuncia que no venderá un clon del PS/2, aunque ha diseñado tal sistema.
Microsoft anuncia Excel para el PC, la primera aplicación real para Windows.
AT&T y Sun acuerdan compartir la tecnología Unix.
Borland introduce la hoja de trabajo Quattro.
Commodore anuncia la Amiga 2000 y 500.
En 1988
NEC anuncia el laptop de 4,4 libras UltraLite.
Apple anuncia el Mac IIx, 10 a 15 por ciento más rápido que el Mac II.
Compaq introduce el laptop SLT/286.
Microsoft y Ashton-Tate se unen para anunciar SQL Server.
Informix anuncia WingZ, una nueva hoja de trabajo para el Mac.
MIT y 11 compañías anuncian un consorcio para desarrollar estándares de la
industria para estaciones de trabajo.
Tandy introduce el Tandy 5000MC, el segundo clon Microcanal (Dell fue el primero),
y anuncia Thor, un sistema para compact disks escribibles y borrables.
NEC pide a la corte invalidar los derechos de Intel sobre el 8086/8088.
36
Apple hace una demanda contra Microsoft y Hewlett-Packard en la corte del distrito
federal, alegando que Windows infringe los derechos de autor del Mac.
Lotus anuncia una demora en el 1-2-3 release 3.0.
MIPS anuncia su procesador RISC.
AT&T planea un nuevo software para hacer que Unix sea más fácil de usar.
Quarterdeck y Phar Lap desarrollan el Virtual Control Program Interface (VCPI), el
primer estándar para direccionar el modo virtual 386 con las aplicaciones DOS
existentes.
Se anuncia la Fundación de Software Abierto; planea basar su versión de Unix en el
AIX de IBM.
AMd introduce el microprocesador de 32 bits 29000.
Intel anuncia el 386SX.
Sun, Texas Instruments, y Cypress anuncian un acuerdo para promover SPARC.
Intel compra la tecnología DVI de GE.
IBM y Microsoft lanzan el OS/2 1.1 con Presentation Manager.
Ashton-Tate lanza el dBASE IV después de una serie de retrasos.
Anuncia el consorcio EISA, conocido también como el "Grupo de los Nueve", que
desarrollará un bus de 32 bit alterno al Micro Canal de IBM.
37
QUINTA GENERACIONDE COMPUTADORAS(1982-1989 o actualidad)
Cada vez se hace más difícil la identificación de las generaciones de computadoras,
porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como
sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta
generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre
1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo
desde 1990 hasta la fecha.
Característica principal la evolución de las comunicaciones a la par de la tecnología.
Con base en los grandes acontecimientos tecnológicos en materia de
microelectrónica y computación (software) como CADI CAM, CAE, CASE,
inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos,
algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los
años ochenta se establecieron las
bases de lo que se puede conocer
como quinta generación de
computadoras.
Hay que mencionar dos grandes
avances tecnológicos, que sirvan
como parámetro para el inicio de dicha
generación: la creación en 1982 de la
primera supercomputadora con
capacidad de proceso paralelo,
diseñada por SeymouyCray, quien ya
experimentaba desde 1968 con
supercomputadoras, y que funda en
1976 la CrayResearch Inc.y el anuncio
por parte del gobierno japonés del
proyecto “quinta generación”, que según se estableció en el acuerdo con seis de las
más grandes empresas japonesas de computación, debería terminar en 1992.
38
La miniaturización de componentes y su consecuente reducción en costo y
necesidades técnicas ayudan a obtener sistemas de muy alta capacidad en donde
las estaciones de trabajo compiten y superan en capacidad a las
supercomputadoras de las generaciones anteriores.
Dentro de los eventos que forjaron el inicio de este período están:
La actualización de la especificación IEEE 802.3, para incluir cableado de par
de cobre trenzado con 10 Base T.
Tim Berners-Lee trabaja en una interfaz gráfica de usuario navegador y editor
de hipertexto utilizando el ambiente de desarrollo de NeXTStep, bautizando
"World Wide Web" al programa y al proyecto.
Motorola presenta el concepto del Sistema Iridium para comunicación
personal global, complementando los sistemas de comunicación alámbrica e
inalámbrica terrestre.
Formalmente se cierra ARPAnet, que es reemplazada por la NSFnet y las
redes interconectadas, dando origen a la participación pública en el desarrollo
de lo que se convertiría en la red de redes, Internet, y la formación del grupo
de trabajo para redes inalámbricas IEEE802.11 (Wireless LAN WorkingGroup
IEEE 802.11).
El siguiente paso tecnológico consistió en la integración de computadoras en red
para trabajo simultáneo o computación distribuida, en donde un proceso en una
computadora en red puede encontrar tiempo de procesador en otra de la misma red
para realizar trabajos en paralelo.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la
capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en
teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es
necesario llevar a cabo una programación especial que permita asignar diferentes
tareas de un mismo proceso a los diversos microprocesadores que intervienen.
39
También se debe adecuar la memoria para que pueda atender los requerimientos
de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron
que diseñar módulos de memoria compartida capaces de asignar áreas de caché
para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería la
aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de
esta generación contienen una gran cantidad de microprocesadores trabajando en
paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de
comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar
decisiones con base en procesos de aprendizaje fundamentados en sistemas
expertos e inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto ópticos con
capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o
Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la
capacidad de almacenamiento de datos crece de manera exponencial posibilitando
guardar más información en una de estas unidades, que toda la que había en la
Biblioteca de Alejandría. Los componentes de los microprocesadores actuales
utilizan tecnologías de alta y ultra integración, denominadas VLSI (VeryLargeSca/e
Integration) y ULSI (Ultra Lar- ge ScaleIntegration).
Sin embargo, independientemente de estos “milagros” de la tecnología moderna, no
se distingue la brecha donde finaliza la quinta y comienza la sexta generación.
Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto
japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.
40
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso
de esta generación, es la conectividad entre computadoras, que a partir de 1994,
con el advenimiento de la red Internet y del World Wide Web, ha adquirido una
importancia vital en las grandes, medianas y pequeñas empresas y, entre los
usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es
equipar a las Computadoras con “Inteligencia
Humana” y con la capacidad de razonar para
encontrar soluciones. Otro factor fundamental
del diseño, la capacidad de la Computadora
para reconocer patrones y secuencias de procesamiento que haya encontrado
previamente, (programación Heurística) que permita a la Computadora recordar
resultados previos e incluirlos en el procesamiento, en esencia, la Computadora
aprenderá a partir de sus propias experiencias usará sus Datos originales para
obtener la respuesta por medio del razonamiento y conservará esos resultados para
posteriores tareas de procesamiento y toma de decisiones.
La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales:
a) Sistemas Expertos
Un sistema experto es un sofisticado programa de
computadora; posee en su memoria y en su estructura una
amplia cantidad de saber y sobre todo, estrategias para
depurarlo y ofrecerlo según los requerimientos,
convirtiendo al sistema en un especialista que está
programado. Duplica la forma de pensar de expertos
reconocidos en los campos de la medicina, estrategia
militar, exploración petrolera, etc. Se programa a la computadora para reaccionar en
la misma forma en que lo harían expertos, hacia las mismas preguntas, sacar las
mismas conclusiones iniciales, verificar de la misma manera la exactitud de los
resultados y redondear las ideas dentro de principios bien definidos
41
b) Lenguaje Natural
Consiste en que las computadoras y sus
aplicaciones en robótica puedan comunicarse
con las personas sin ningún problema, ni
dificultad de comprensión, ya sea oralmente o
por escrito. Hablar con las máquinas y que
éstas entiendan nuestra lengua y también que
se hagan entender en nuestra lengua.
c) Robótica
Es la ciencia que se ocupa del
estudio, desarrollo y aplicaciones
de los robots. Los Robots son
dispositivos compuestos de
sensores que reciben Datos de
Entrada y que están conectados a
la computadora. Esta recibe la
información de entrada y ordena al
Robot que efectúe una determinada acción y así sucesivamente. Las finalidades de
la construcción de Robots radican principalmente en su intervención en procesos de
fabricación, por ejemplo: pintar en spray, soldar carrocerías de autos, trasladar
materiales, etc.
d) Reconocimiento de la Voz
Las aplicaciones de reconocimiento
de voz tienen como objetivo la
captura, por parte de una
computadora, de la voz humana
para el tratamiento del lenguaje
natural o para cualquier otro tipo de función.Guiándonos en base a lo investigado y
en nuestros propios conocimientos, consideramos que la sexta generación es el
futuro y parte de la actualidad.
Se vienen desarrollando con mayor auge y mejor tecnología:
42
Las Computadoras Portátiles (Laptops).
Las Computadoras de Bolsillo (PDA).
Los Dispositivos Multimedia.
Los Dispositivos Móviles Inalámbricos (SPOT, Smartphone, etc.)
El Reconocimiento de voz y escritura.
Las Computadoras Ópticas (luz, sin calor, rápidas).
Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas).
La Mensajería y el Comercio Electrónico.
La Realidad Virtual.
Las Redes Inalámbricas (WiMax, WiFi, Bluetooth).
El Súper Computo (Procesadores Paralelos Masivos).
Las Memorias Compactas (Discos Duros externos USB, SmartMedia,
PCMCIA).
En esta generación se espera llegar a los Sistemas Expertos (imitar el
comportamiento de un profesional humano), para esto se emplearán microcircuitos
con inteligencia, en donde las computadoras tendrán la capacidad de aprender,
asociar, deducir y tomar decisiones para la resolución de un problema.
43
SEXTA GENERACION DE COMPUTADORAS(1990-ACTUAL)
Como supuestamente la sexta generación de computadoras está en marcha desde
principios de los años noventa, debemos por lo menos, esbozar las características
que deben tener las computadoras de esta generación. También se mencionan
algunos de los avances tecnológicos de la última década del siglo XX y lo que se
espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con
arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores
vectoriales trabajando al mismo tiempo.
Se han creado computadoras capaces de realizar más de un millón de millones de
operaciones aritméticas de punto flotante por segundo (teraflops).
Las redes de área mundial (Wide Area Network, WAN) seguirán creciendo
desorbitadamente utilizando medios de comunicación a través de fibras ópticas y
satélites, con anchos de banda impresionantes. Las tecnologías de esta generación
ya han sido desarrolla das o están en ese proceso.
Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas
difusos, holografía, transistores ópticos, etcétera.
La sexta generación se podría llamar a la era de las computadoras inteligentes
basadas en redes neuronales artificiales o "cerebros artificiales".
44
Serían computadoras que utilizarían superconductores como materia-prima para sus
procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula
resistencia, ganando performance y economizando energía. La ganancia de
performance sería de aproximadamente 30 veces la de un procesador de misma
frecuencia que utilice metales comunes.
Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido
el uso de procesadores en paralelo, o sea, la división de tareas en múltiples
unidades de procesamiento operando simultáneamente. Otra novedad es la
incorporación de chips de procesadores especializados en las tareas de vídeo y
sonido.
45
DISPOSITIVOS ENTRADA/SALIDA
Las computadoras electrónicas modernas son una herramienta esencial en muchas
áreas: industria, gobierno, ciencia, educación,..., en realidad en casi todos
los campos de nuestras vidas.
El papel que juegan los dispositivos periféricos de la computadora es esencial; sin
tales dispositivos ésta no sería totalmente útil. A través de los dispositivos
periféricos podemos introducir a la computadora datos que nos sea útiles para la
resolución de algún problema y por consiguiente obtener el resultado de
dichas operaciones, es decir; poder comunicarnos con la computadora.
La computadora necesita de entradas para poder generar salidas y éstas se
dan a través de dos tipos de dispositivos periféricos existentes:
Dispositivos periféricos de entrada.
Dispositivos periféricos de salida.
DISPOSITIVOS
Los dispositivos son regímenes definibles, con sus variaciones y transformaciones.
Presentan líneas de fuerza que atraviesan umbrales en función de los cuales son
estéticos, científicos, políticos, etc. Cuando la fuerza en un dispositivo en lugar de
entrar en relación lineal con otra fuerza, se vuelve sobre sí misma y se afecta, no se
trata de saber ni de poder, sino de un proceso de individuación relativo a grupos o
personas que se sustrae a las relaciones de fuerzas establecidas como saberes
constituidos.
LOS DISPOSITIVOS DE ENTRADA/SALIDA
Son aquellos que permiten la comunicación entre la computadora y el usuario.
DISPOSITIVOS DE ENTRADA
Son aquellos que sirven para introducir datos a la computadora para su proceso.
Los datos se leen de los dispositivos de entrada y se almacenan en la
memoria central o interna. Los dispositivos de entrada convierten
la información en señales eléctricas que se almacenan en la memoria central.
46
Los dispositivos de entrada típicos son los teclados, otros son: lápices ópticos,
palancas de mando (joystick), CD-ROM, discos compactos (CD), etc. Hoy en día es
muy frecuente que el usuario utilice un dispositivo de entrada llamado ratón que
mueve un puntero electrónico sobre una pantalla que facilita la interacción usuario-
máquina.
Teclado
El teclado es un dispositivo eficaz para
introducir datos no gráficos como rótulos
de imágenes asociados con un
despliegue de gráficas. Los
teclados también pueden ofrecerse con
características que facilitan la entrada de
coordenadas de la pantalla, selecciones de menús o funciones de gráficas.
Ratón ó Mouse
Es un dispositivo electrónico que nos permite dar instrucciones a nuestra
computadora a través de un cursor que aparece
en la pantalla y haciendo clic para que se lleve a
cabo una acción determinada; a medida que el
Mouse rueda sobre el escritorio, el cursor
(Puntero) en la pantalla hace lo mismo.
Tal procedimiento permitirá controlar, apuntar,
sostener y manipular varios objetos gráficos (Y de
texto) en un programa. A este periférico se le llamó así por su parecido con un
roedor.Existen modelos en los que la transmisión se hace por infrarrojos eliminando
por tanto la necesidad de cableado. Al igual que el teclado, el Mouse es el elemento
periférico que más se utiliza en una PC.
Micrófono
47
Los micrófonos son los transductores encargados de
transformar energía acústica en energía eléctrica,
permitiendo, por lo tanto el registro, almacenamiento,
transmisión y procesamiento electrónico de las señales
de audio. Son dispositivos duales de los altoparlantes,
constituyendo ambos transductores los elementos más
significativos en cuanto a las características sonoras que
sobre imponen a las señales de audio.
Scanner
Es una unidad de ingreso de información.
Permite la introducción de imágenes gráficas al
computador mediante un sistema de matrices de
puntos, como resultado de un barrido óptico del
documento. La información se almacena en
archivos en forma de mapas debits (bit maps), o en
otros formatos más eficientes como Jpeg o Gif.
Cámara Digital
Se conecta al ordenador y le transmite las
imágenes que capta, pudiendo ser modificada y
retocada, o volverla a tomar en caso de que este
mal.
Cámara de Video
48
Graba videos como una cámara normal,
pero las ventajas que ofrece es estar en
formato digital, que es mucho mejor la
imagen, tiene una pantalla LCD por la que
ves simultáneamente la imagen mientras
grabas. Se conecta al PC y este recoge el
video que has grabado, para poder
retocarlo posteriormente con el software adecuado.
Webcam
Es una cámara de pequeñas dimensiones. Sólo es
la cámara, no tiene LCD. Tiene que estar
conectada al PC para poder funcionar, y esta
transmite las imágenes al ordenador. Su uso es
generalmente para videoconferencias por Internet,
pero mediante el software adecuado, se pueden
grabar videos como una cámara normal y tomar
fotos estáticas; entre otras.
DISPOSITIVOS DE SALIDA
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las
manipulaciones de datos de la computadora. El dispositivo de salida más común es
la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en
un monitor que presenta los caracteres y gráficos en una pantalla similar a la del
televisor.
Los tipos de Dispositivos de Salida más Comunes Son:
Pantalla o Monitor
49
Es en donde se ve la información suministrada por
el ordenador. En el caso más habitual se trata de
un aparato basado en un tubo de rayos catódicos
(CRT) como el de los televisores, mientras que en
los portátiles es una pantalla plana de cristal
líquido (LCD).
Impresora
Es el periférico que el
ordenador utiliza para
presentar información impresa
en papel. Las primeras
impresoras nacieron muchos
años antes que el PC e incluso
antes que los monitores,
siendo el método más usual
para presentar los resultados de los cálculos en aquellos primitivos ordenadores.
Altavoces
Dispositivos por los cuales se emiten sonidos procedentes
de la tarjeta de sonido. Actualmente existen bastantes
ejemplares que cubren la oferta más común que existe en
el mercado. Se trata de modelos que van desde lo más
sencillo (una pareja de altavoces estéreo), hasta el más
complicado sistema de Dolby Digital, con nada menos que
seis altavoces, pasando por productos intermedios de 4 o 5
altavoces.
Auriculares
50
Son dispositivos colocados en el oído para poder
escuchar los sonidos que la tarjeta de sonido envía.
Presentan la ventaja de que no pueden ser escuchados
por otra persona, solo la que los utiliza.
Plotter (Trazador de Gráficos)
Existen plotters para diferentes tamaños
máximos de hojas (A0, A1, A2, A3 y A4); para
diferentes calidades de hojas de salida (bond,
calco, acetato); para distintos espesores de línea
de dibujo (diferentes espesores de rapidógrafos),
y para distintos colores de dibujo (distintos
colores de tinta en los rapidógrafos).
Fax
Dispositivo mediante el cual se imprime una
copia de otro impreso, transmitida o bien, vía
teléfono, o bien desde el propio fax. Se utiliza
para ello un rollo de papel que cuando acaba la
impresión se corta.
EVOLUCIONDE LOS DISPOSITIVOS DE ALMACENAMIENTO
51
La memoria es un dispositivo de almacenamiento computacional que es capaz de
almacenar datos o cualquier tipo de información. Históricamente se ha usado el
papel, como método más común, pero actualmente es posible almacenar
digitalmente en un CD por ejemplo, los datos que cabrían en miles de carpetas
archivadas. A lo largo de la historia se ha buscado el camino de encontrar el sistema
más pequeño físicamente y con más capacidad para almacenar más datos y
tratarlos rápidamente.
Microchip
También conocido como circuito integrado. Se desarrolló por primera vez en 1958
por el ingeniero Jack Kilby justo meses después de haber sido contratado por la
firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba
seis transistores en una misma base semiconductora para formar un oscilador de
rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la
contribución de su invento al desarrollo de la tecnología de la información.
Un microchip es una pastilla muy delgada donde
se encuentran miles o millones de dispositivos
electrónicos interconectados, principalmente
diodos y transistores, y también componentes
pasivos como resistores o condensadores. Su
área puede ser de 1 cm, 2 cm o inferior. Los
microchips son quizás los sistemas de
almacenamiento más empleados, hoy en día se
utilizan además de en los computadores, en los
teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico,
etc.
El transistor actúa como interruptor. Puede encenderse o apagarse
electrónicamente o amplificar corriente. Se usa en computadoras para almacenar
información o en amplificadores para aumentar el volumen de sonido. Las
resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de
corriente que fluye, esto se usa por ejemplo para controlar el volumen de un
televisor o radio.
52
El desarrollo del microchip es especialmente importante en la historia, pues es algo
increíblemente pequeño que puede almacenar cantidad de datos inmensas, que
hace años era impensable. Se necesita un desarrollo a nivel microscópico para
diseñar los microchips.
El primer computador que usó microchips fue un IBM lanzado en 1965, llamado
serie 360. Estas computadoras se consideran de la tercera generación de
computadoras, y sustituyeron por completo a las de segunda generación,
introduciendo una manera de programar que aún se mantiene en grandes
computadoras de IBM.
Memoria RAM (Random Access Memory)
La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access
Memory), es una memoria de semiconductor, en la que se puede tanto leer como
escribir información. Es una memoria volátil, es decir, pierde su contenido al
desconectarse de la electricidad.
La memoria RAM es el componente de almacenamiento más importante de un
computador actual, junto al disco duro. Con la llegada de los computadores de
escritorio, había que idear un sistema de almacenamiento que no ocupara espacio,
pues los computadores de escritorio se idearon para que cupiesen en una mesa de
oficina. La memoria RAM se forma a partir de microchips con entradas de memoria.
La memoria es almacenada en esas entradas de manera aleatoria, de ahí su
nombre. La memoria RAM es uno de los componentes informáticos que más ha
evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las
memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador
con al menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad
de MB igual a potencias de 2. A mediados de los 90, con la llegada de Windows 95,
los computadores comenzaron a usar memorias de 16 MB de RAM, más tarde de
32, 64, 128... hasta los Pentium 4 y usando Windows XP, en donde se recomienda
al menos 256 MB de RAM, aunque hoy en día lo normal es que usen 1gigabyte o
más.
Memoria Cache
La caché de CPU, es una caché usada por la unidad central de procesamiento de
una computadora para reducir el tiempo de acceso a la memoria. La caché es una
53
memoria más pequeña y rápida, la cual almacena copias de datos ubicados en la
memoria principal que se utilizan con más frecuencia.
Es un conjunto de datos duplicados de otros originales, con la propiedad de que los
datos originales son costosos de acceder, normalmente en tiempo, respecto a la
copia en la caché. Cuando se accede por primera vez a un dato, se hace una copia
en el caché; los accesos siguientes se realizan a dicha copia, haciendo que el
tiempo de acceso medio al dato sea menor.
Cuando el procesador necesita leer o escribir en una ubicación en memoria
principal, primero verifica si una copia de los datos está en la caché. Si es así, el
procesador de inmediato lee o escribe en la memoria caché, que es mucho más
rápido que de la lectura o la escritura a la memoria principal.
Disco duro
Es el medio de almacenamiento por excelencia. Desde que en 1955 saliera el
primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran
desarrollo. Los discos duros se emplean en computadores de escritorio, portátiles y
unidades de almacenamiento de manejo más complejo. El disco duro es el
componente que se encarga de almacenar todos los datos que queremos. Mientras
que la memoria RAM actúa como memoria "de apoyo" (como variable que almacena
y pierde información según se van procesando datos), el disco duro almacena
permanentemente la información que le metemos, hasta que es borrado.
Generalmente, lo primero que se graba en un disco duro es el sistema operativo que
vamos a usar en nuestro computador. Una vez tenemos instalado el sistema
operativo en el disco duro, podemos usar todos los programas que queramos que
hayan instalados, y toda la información que queramos guardar se almacenará en el
disco duro. En el disco duro almacenamos cualquier cosa, como documentos,
imagen, sonido, programas, vídeos, ficheros, etc.
Los discos duros también han evolucionado muchísimo en los últimos veinte años,
sobre todo ampliando su capacidad
El disco duro está compuesto básicamente de:
- Varios discos de metal magnetizado, que es donde se guardan los datos.
- Un motor que hace girar los discos.
54
- Un conjunto de cabezales, que son los que leen la información guardada en
los discos.
- Un electroimán que mueve los cabezales.
- Un circuito electrónico de control, que incluye el interface con el ordenador y
la memoria caché.
- Una caja hermética (aunque no al vacío), que protege el conjunto.
Normalmente usan un sistema de grabación magnética analógica.
El número de discos depende de la capacidad del HDD y el de cabezales del
número de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4
discos = 8 caras = 8 cabezales).
Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de pcs y de 2.5'
para los discos de ordenadores portátiles.
Dispositivos portátiles
Además de los dispositivos fijos que existen como componentes en una
computadora, hay otros que pueden introducirse y sacarse en cualquier
computador. Estos sistemas son realmente útiles para transportar información entre
dos o más computadoras.
Disquete
También llamado disco flexible. A simple vista es una pieza cuadrada de plástico, en
cuyo interior se encuentra un disco flexible y magnético, bastante frágil. Los
disquetes se introducen en el computador mediante la disquetera.
En los años 80 gozaron de gran popularidad. Los programas informáticos y los
videojuegos para PC se distribuían en este formato. Ya que en aquella época los
programas y juegos no llegaban ni a 1 MB, cabían perfectamente en los disquetes.
En su día existió un disquete rectangular, y más tarde apareció el disquete de 3 1/2
pulgadas, el popular disquete cuadrado. En los noventa, los programas comenzaron
a ocupar más memoria, por lo que en algunos casos se necesitaban varios
disquetes para completar una instalación.
El disquete es un sistema de almacenamiento magnético, al igual que los casetes o
los discos duros, y aunque han gozado de gran popularidad desde los 80 hasta
ahora, pero ya son obsoletos. De hecho, algunos computadores ya salen de fábrica
55
sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad
y velocidad. Teniendo en cuenta lo que ocupan los programas actuales, un disquete
hoy en día solo sirve para almacenar algunos documentos de texto, imágenes y
presentaciones.
CD-ROM
Es un disco compacto. Se trata de un disco compacto (no flexible como los
disquetes) óptico utilizado para almacenar información no volátil, es decir, la
información introducida en un CD en principio no se puede borrar. Una vez un CD
es escrito, no puede ser modificado, sólo leído (de ahí su nombre,
ReadOnlyMemory). Un CD-ROM es un disco de plástico plano con información
digital codificada en espiral desde el centro hasta el borde. Fueron lanzados a
mediados de los 80 por compañías de prestigio
como Sony y Philips.Microsoft y Apple fueron dos de las grandes compañías
informáticas que la utilizaron en sus comienzos. Es uno de los dispositivos de
almacenamiento más utilizados. De hecho, fue el sustituto de los casetes para
almacenar música, y de los disquetes para almacenar otro tipo de datos.
Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro,
y generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en
los últimos años también se han diseñado CD-ROMS con capacidades de 800 o 900
MB. Si tenemos en cuenta la capacidad en minutos de música, serían 80 minutos
los de 700 MB, por ejemplo. También existen discos de 8 cm con menos capacidad,
pero ideales para almacenar software relativamente pequeño. Generalmente se
utilizan para grabar software, drivers, etc. de periféricos o similares, aunque también
se usan para transportar datos normalmente como los CD normales.
La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus
pequeñas dimensiones (sobre todo de grosor). Sin embargo sus principal
inconveniente es que no pueden manipularse los datos almacenados en él. Con el
fin de solucionar este problema aparecieron los CD-RW, o CD regrabable. Sus
características son idénticas a los CD normales, pero con la peculiaridad de que
pueden ser escritos tantas veces como se quiera. Los CD son leídos por lectores de
CD, que incluyen un láser que va leyendo datos desde el centro del disco hasta el
borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una tarjeta
56
perforada es claramente visible sus agujeros, en un cd también se incluyen micro
perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la
hora de escribir en un CD, se emplea el sistema binario con perforación o no
perforación (ceros y unos).
DVD
El crecimiento tecnológico en la informática es tal que incluso los CD se han
quedado pequeños. Si hace 10 años los disquetes se habían quedado pequeño y
parecía que un CD era algo demasiado "grande", algo ha cambiado, pues todas las
aplicaciones, ya sean programas, sistemas operativos o videojuegos, ocupan mucha
más memoria. De los tradicionales 700 MB de capacidad de un CD se pasaron a los
4,7 GB de un DVD. La primera ráfaga de ventas de DVD aparecieron para formato
vídeo, para sustituir a los clásicos VHS. Las ventajas de los DVD eran claras, a más
capacidad, mejor calidad se puede almacenar. Y mejor se conservan los datos, ya
que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un
DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de
sonido. Las películas en DVD comenzaron a popularizarse a finales de los años 90.
Sin embargo en esos años aún los CD eran los más populares a nivel informático.
Un videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía
en un CD. Pero poco a poco los videojuegos y otros programas comenzaron a
ocupar más, ya que conforme va avanzando la tecnología de datos, gráficos, etc.
más memoria se necesita. Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que
hacía muy incómodo su manipulación. Finalmente se ha decidido por fin que
aquellos programas que ocupen más memoria de lo que cabe en un CD, sea
almacenado en un DVD. Los DVD son más caros que los CD, aunque poco a poco
se están haciendo con el mercado. Quizás sean los sustitutos definitivos de los CD,
aunque por ahora estos últimos no están decayendo en absoluto. La venta de CD
vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de DVD,
pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el
menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor
que usar seis CD.
También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo
lectura. Pero con la lección aprendida de los CD, se diseñaron los DVD regrabables.
57
Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD
siguen leyendo por una cara, pero con doble capa de datos. Pero también existen
DVD que se pueden leer por las dos caras. Los hay de doble cara y una capa, pero
si el DVD es de doble cara y doble capa por cada una, la capacidad llega a los 17
gb. Sin embargo aún estos sistemas se utilizan mínimamente, son muy caros, pero
seguramente algún día sustituirán a los actuales CD.
Memoria USB
La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su
objetivo era sustituir a los disquetes con mucha más capacidad y velocidad de
transmisión de datos.Aunque actualmente en un CD o DVD se puede almacenar
memoria para luego borrarla y manipularla, lo más cómodo y usado son las
memorias USB. Son pequeños dispositivos del tamaño de un mechero que actúan
prácticamente igual que un disquete, pero con una capacidad mucho mayor, que
actualmente van desde los 64 mb a varios gigabytes. Su principal ventaja es su
pequeño tamaño, su resistencia (la memoria en sí está protegida por una carcasa
de plástico como un mechero) y su velocidad de transmisión, mucho más rápido que
los disquetes.
Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u
oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero
por ejemplo, y lo más importante, con los sistemas operativos (Linux,Windows o
Mac), sólo hay que conectarlo al computador y usarlo sin más complicaciones.
Además existen otros aparatos como los reproductores de MP3 que utilizan las
mismas características. Pueden almacenar cualquier tipo de dato, pero su principal
característica es que los ficheros de música en formato mp3 y wmasobre todo, son
reconocidos y procesados para ser escuchados a través de unos auriculares
conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada
vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas
de gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla
pueden ser visualizados.
58
EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS
1969: Tres programadores de los laboratorios Bell (Ken Thompson, Dennis Ritchie y
Douglas MCIlroy) crean el sistema operativo UNIX, aún en tiempos de terminal y sin
entornos graficos existentes.
1973: Xerox crea lo que podemos llamar la “primera computadora personal más o
menos decente”, la Xerox Alto con su sistema operativo propio.
1974: Empieza la creación de BSD 1.0, que es rápidamente sucedida por BSD 2.0
en 1978.
1979: Tim Paterson crea su sistema operativo 86-DOS, que posteriormente pasó a
llamarse QDOS (Quick and DirtyOperativeSystem). Dos años después Bill Gates
compra QDOS por una suma entre 25 y 50 mil dólares y rebautiza dos veces, en
primer lugar como PC-DOS, el cual vende como sistema operativo a IBM para que
estos lo usen en sus PCs (IBM-PC), y en segundo lugar (un año más tarde) como
59
MS-DOS, el cual, siendo una copia casi identica a PC-DOS, vende como sistema
propio (el sistema operativo sólo, en disketes).
1981: Nace Xerox Star, el sucesor de Xerox Alto.
1983: Apple muestra su primera gran obra, la Apple Lisa System 1.
1983: VisiCorp crea VisiOn.
60
1984: Mac OS System de la mano de Apple.
1985: Las PC Amiga salen a la luz, y con ellas su flamante sistema operativo,
Workbench 1.0, quien posteriormente sería rebautizado como AmigaOS.
61
1985: Microsoft Windows 1.0 ve la luz, aunque tras un grave fracaso debido a los
errores que tenía, se ve rápidamente sucedido por Windows 1.01.
1986: Irix es concebido, una poderosa arma para la manipulación 3D habitualmente
usada para fines de diseño (la imágen es de Irix3.3).
1987: Andrew S. Tanenbaum crea MINIX, un sistema operativo basado en Unix y
escrito en lenguaje C, cuyo principal objetivo era el aprendizaje informático
62
(aprender como funciona un sistema operativo por dentro). Este sistema inspiró a
Linus Torvalds para la creación del Núcleo Linux.
1987: Windows 2.0 aparece.
1989: NeXTSTEP / OPENSTEP
1990: BeOS de la mano de Be Incorporated. Imágen moderna.
1990: Windows 3.0. Cuya famosa actualización gratuita a 3.11 (para Windows 3.1)
salió 2 años después.
1990: Richard Stallman crea el sistema GNU de software libre y el Núcleo Hurd, el
cual no parece ser tan bueno para el sistema GNU como lo que Linus Torvalds
crearía un año después, el Núcleo Linux. En 1992, el sistema GNU y el Núcleo
Linux se unen formalmente para crear GNU/Linux, un sistema con docenas de
distribuciones (“versiones” que son creadas en paralelo por diversos grupos
independientes de programadores)
63
1995: Windows 95.
1996: IBM saca la nueva versión de su sistema operativo: OS/2 Warp 4.
1997: Mac OS System 8
64
1998: Windows 98
1998: GNU/Linux sigue avanzando y una de sus más famosas distribuciones,
Mandrake Linux, saca su primera versión (5.1).
2001: Mac OS X.
2001: Windows XP.
2006: Amiga Workbench 4.0.
2006: Ubuntu, la más famosa distribución de GNU/Linux de la actualidad, nace (en
varios idiomas).
2006: Empiezan a aparecer los sistemas operativos en la Nube (Internet), como es
el caso de EyeOS
2007: Windows Vista
2007: Mac OS X Leopard
65
2009: Windows 7 aparece
2011: Ubuntu saca su versión 11.04, cambiando de interfaz Gnome a Unity.
2011: Google saca una beta de su sistema operativo ChromeOS, otro más que se
aloja en la nube.
66
EVOLUCIÓN DE LOS LENGUAJES DE PROGRAMACION
Tras el desarrollo de las primeras computadoras surgió la necesidad de
programarlas para que realizaran las tareas deseadas.
Los lenguajes más primitivos fueron los denominados lenguajes máquina. Como el
hardware se desarrollaba antes que el software, estos lenguajes se basaban en el
hardware, con lo que cada máquina tenía su propio lenguaje y por ello la
programación era un trabajo costoso, válido sólo para esa máquina en concreto.
El primer avance fue el desarrollo de las primeras herramientas automáticas
generadoras de código fuente. Pero con el permanente desarrollo de las
computadoras, y el aumento de complejidad de las tareas, surgieron a partir de los
años 50 los primeros lenguajes de programación de alto nivel.
Con la aparición de los distintos lenguajes, solían aparecer diferentes versiones de
un mismo lenguaje, por lo que surgió la necesidad de estandarizarlos para que
fueran más universales. Las organizaciones que se encargan de regularizar los
lenguajes son ANSI (Instituto de las Normas Americanas) y ISO (Organización de
Normas Internacionales).
1950 -1955:Lenguaje Ensamblador (lenguaje máquina), Lenguajes experimentales
de alto nivel.
1956 -1960: FORTRAN, ALGOL 58 y 60, COBOL, LISP-
1961 -1965: FORTRAN IV, COBOL 61 Extendido, ALGOL 60 Revisado, SNOBOL,
BASIC.
1966 -1970:APL/360, FORTRAN 66 (estándar), COBOL 65 (estándar), ALGOL 68,
SNOBOL 4, SIMULA 67.
1966 -1970:APL/360, FORTRAN 66 (estándar),COBOL 65 (estándar), ALGOL 68,
SNOBOL 4, SIMULA 67
1971 -1975:COBOL 74,PASCAL.
1976 -1980:ADA, FORTRAN 77, PROLOG, C, Modula-2.
1980 -2000:C++, JAVA
67
BIBLIOGRAFÍA
http://helmutsy.homestead.com/files/computacion/historia/
historia_computadores_7.htm
http://www.cad.com.mx/generaciones_de_las_computadoras.htm
http://www.monografias.com/trabajos33/dispositivos/
dispositivos.shtml#disposit
www.ehowenespanol.com
http://www.cad.com.mx/generaciones_de_las_computadoras.htm
http://jorgesaavedra.wordpress.com/2007/05/05/lenguajes-de-programacion/
http://es.kioskea.net/contents/langages/langages.php3
http://www.slideshare.net/dtcadrian234/evolucion-historica-de-los-sistemas-
operativos
http://www.aeromental.com/2006/08/16/evolucion-de-los-sistemas-operativos/
Operativos-En-Imagenes.html
http://www.informatica-hoy.com.ar/hardware-pc-desktop/La-sexta-generacion-
de-computadoras.php
http://es.wikipedia.org/wiki/
Generaciones_de_computadoras#Sexta_Generaci.C3.B3n_.281999_hasta_l
a_fecha_.29
http://www.cad.com.mx/generaciones_de_las_computadoras.htm
68