Historia de las computadoras, organizacion y arquitectura
Click here to load reader
-
Upload
lucy-andrade -
Category
Documents
-
view
529 -
download
0
Transcript of Historia de las computadoras, organizacion y arquitectura
INTRODUCCION
Es muy interesante recordar que a todos nos gusta lo pequeño y rápido en cuanto a
computadoras, siempre buscamos dispositivos de E/S, memorias RAM, procesadores y muchas
cosas que sean pequeñas y si no son las mejores, unos muy buenos.
A lo largo de los años la tecnología ha aumentado, y claramente sabemos que la capacidad
de a computadora de hoy no es la que fue ayer, y poco a poco con la lectura nos damos cuenta de
algunos “antepasados” que hemos escuchado mencionar y otro que en nuestra “niñez” tuvimos la
oportunidad de conocer.
A continuación se dará a mostrar una visión general de la estructura y funcionamiento de
los computadores. Luego se tratara el tema de prestaciones, la consideración de la necesidad de
equilibrar los recursos de un computador nos da la necesidad de equilibrar los recursos de un
computador.
HISTORIA DE LOS COMPUTADORES
La primera generación: Los tubos del vacio
ENIAC fue el primer computador electrónico con propósito general en el mundo.
El ENIAC es una máquina decimal y no binaria. Los números estaban representados en forma
decimal y la aritmética se realizaba también en el sistema decimal. Su memoria consistía en veinte
acumuladores, cada uno de ellos capaz de contener un número decimal de diez dígitos, cada digito
estaba representado
Por un anillo de diez tubos de vacío. En un momento dado, solo uno de los tubos estaba en estado
ON. Representado uno de los diez dígitos. Uno de los mayores inconvenientes del ENIAC era que
tenía que ser programado manualmente mediante conmutadores, conectando desconectando cables.
LA MAQUINA DE VON NEUMANN
La tarea era cargar y modificar programas para el ENIAC era extremadamente tedioso. El proceso
de programación sería más fácil si el programa se representara de forma adecuada para ser guardado
en una memoria junto a los datos. Entonces un computador podría conseguir sus instrucciones
leyéndolas en la memoria, y se podría hacer o modificar un programa colocando los valores en una
zona de memoria. Esto se conoció como concepto de programa-almacenado.
El diseño de un nuevo computador de programa-almacenado, que llamaron IAS este es el prototipo
de una serie de computadores de propósito general:
Una memoria principal que almacena tanto datos como instrucciones.
Una unidad aritmético-lógica (ALU) capaz de hacer operaciones con datos binarios.
Una unidad de control que interpreta las instrucciones en memoria y provoca la ejecución.
Un equipo de entrada y salida (E/S) dirigido por la unidad de control.
Salvo raras excepciones, todos los computadores tienen
Hoy en día la misma estructura general y funcionamiento que la indicada en las maquinas de Von
Neumann han cambiado para ajustarse más a las necesidades actuales.
La unidad de control dirige el IAS captando instrucciones de la memoria y ejecutando una a una.
Tanto en la unidad de control como la ALU contiene posiciones de almacenamiento, llamados
registros definidos d la siguiente manera:
Registro temporal de Memoria
Registro de dirección de memoria
Registro de instrucción
Registro temporal de instrucción
Contador de programas.
Acumulador y multiplicador del cociente.
Todas estas operaciones están controladas por circuitos electrónicos y dan lugar al uso de caminos
de datos. Para simplificar la electrónica, se usa solo un registro para especificar la dirección en
memoria para lectura y escritura, y un solo registro para fuente y destino.
Las instrucciones se pueden agrupar en los grupos siguientes:
Transferencia de datos
Salto condicional
Salto incondicional
Aritmética
Modificación de direcciones
Segunda generación: los transistores
Vino la sustitución de los tubos de vacio por los transistores. El transistor es más pequeño, mas
barato, disipa menos el calor y puede ser usado de las mismas formas que los tubos del vacío.
Mientras que el tubo de vacio requiere cables, placas de metal, una capsula de cristal y vacío, el
transistor es un dispositivo de estado sólido, hecho con silicio.
El uso de los transistores marca la segunda generación de computadores. La clasificación de los
computadores en generación basándoles en la tecnología hardware empleada fue ampliamente
aceptada. Cada nueva generación se caracteriza por la mayor velocidad, mayor capacidad de
memoria y menor tamaño que la generación anterior.
Otro cambio fue que se introdujeron unidades lógicas y aritméticas y unidades de control más
complejas, el uso de lenguajes de programación de alto nivel y se proporciono un software del
sistema en el computador.
La tercera generación: los circuitos integrados
A un transistor simple y auto contenido se le llama componente directo. Los componentes discretos
se fabrican separadamente, encapsulados en sus propios contenedores, y soldados o cableadas
juntos en tarjetas de circuitos en forma de panel, que eran instalados en computadores y otros
equipos electrónicos.
En 1958 ocurrió algo que revoluciono la electrónica y comenzó la era de la microelectrónica: la
invención del circuito integrado.
Desde los comienzos de la electrónica digital y la industria de computadores, ha habido una
tendencia persistente y consistente hasta la reducción del tamaño de los circuitos electrónicos
digitales.
Elementos de un computador básico
Proporcionado por celdas de memoria
Procesamientos de datos
Trasferencias de datos
Últimas generaciones
Se dice que la cuarta y quinta generación, es basada en los avances de la tecnología de los circuitos
integrados.
Con el avanza de la tecnología, la rápida introducción de los nuevos productos y la importancia de
software y de las comunicaciones así como del hardware.
DISEÑO BUSCANDO MEJORES PRESTACIONES
Año tras año, el precio de las computadores continúa cayendo dramáticamente, mientras que las
prestaciones y la capacidad de estos sistemas sigue creciendo.la continua revolución tecnológica, ha
habilitado ha habilitado el desarrollo de una sorprendente complejidad y potencia.
Velocidad del procesador:
Lo que le da a la Pentium y PowerPC esa increíble potencia es la persecución sin descanso del
incremento de velocidad por parte de los fabricantes del procesador.
En los chips de memoria, se ha cuadruplicado cada tres años la capacidad de las memorias
dinámicas de acceso aleatoria y esta sigue siendo la tecnología básica de la memoria principal de los
computadores actuales.
Pero la velocidad bruta del procesador no alcanzara su potencial al menos que se alimente con un
flujo constante de trabajo en forma de instrucciones. Cualquier cosa que se interponga en el camino
de ese flujo limita la potencia del procesador.
Equilibrio de prestaciones
Mientras que la velocidad del procesador ha crecido con increíble rapidez, otros componentes
esencial es del computador no lo han hecho tan rápido. El resultado de esto es que hace falta prestar
atención al equilibrio de las prestaciones: ajustar la organización y la arquitectura para compensar
las desigualdades de capacidad entre los distintos componentes.
El problema creado por tales desigualdades no es de ninguna manera más grave que en la interfaz
entre el procesador y la memoria principal. Mientras la velocidad del procesador y de la memoria ha
crecido rápidamente, la velocidad con la que los datos pueden ser transferidos entre la memoria
principal y el procesador ha quedado dramáticamente retrasado, y este es el camino más importante
del procesador.
La interfaz entre el procesador y la memoria principal es el camino más importante de todo el
computador, ya que es el responsable de llevar el constante flujo de instrucciones y datos entre los
chips de memoria y el procesador. Si la memoria o interfaz n logran mantener de las insistentes
demandas del procesador, este se estanca en una posición de espera y se pierde así tiempo de
procesamiento valioso.
Hay varias maneras de que una arquitectura puede atacar este problema, y todas se reflejan en
diseños de computadoras contemporáneos:
Incrementar el número de bits que se recupera de una sola vez haciendo las DRAM mas
<<anchas>> en lugar de mas <<profundas>> utilizando buses de datos más anchos.
Cambiar la interfaz DRAM para hacerla más eficiente, incluyendo un cache u otro esquema
de almacenamiento temporal en el chip DRAM.
Reducir la frecuencia del acceso a memoria incorporando, entre el procesador y la memoria
principal, una cache cada vez más complejas y eficientes. Esto excluye la incorporación de
una o más caches en el chip del procesador así como una cache fuera del chip cerca del
procesador.
Incrementar el ancho de banda entre el procesador y la memoria usando buses de más alta
velocidad y una jerarquía de buses para almacenar y estructurar el flujo de datos.
Conforma los computadores se hacen mas rápidos y potentes, se desarrolla aplicaciones más
sofisticadas que se apoyan en el uso de periféricos con demandas intensivas de E/S.
MEJORAS EN LA ORGANIZACIÓN Y ARQUITECTURA DE CHIPS
Además de tener en cuenta de equilibrar las prestaciones del procesador con la memoria principal,
hay que recordar que persiste la necesidad de aumentar la velocidad del procesador. Hay tres formas
de conseguir incrementar la velocidad del procesador:
Incrementar la velocidad del hardware del procesador: esto se consigue fundamentalmente
disminuyendo el tamaño de las puertas lógicas del chip del procesador, de forma que se
puedan encapsular más puertas, más cercanas y así incrementar la frecuencia del reloj. Con
las compuertas mas juntas, el tiempo de propagación de las señales se reduce
significativamente, haciendo posible un aumento de la velocidad del procesador. Un
incremento de la velocidad del reloj implica que las operaciones individuales se ejecuten
más rápidamente.
Incrementar el tamaño y la velocidad de las caches interpuestas entre el procesador y la
memoria principal. En particular, dedicando una parte del chip del procesador a la cache, el
tiempo de acceso de la cache disminuye considerablemente.
Haciendo cambios en la organización y arquitectura del procesador de forma que se
incremente la velocidad efectiva de la ejecución de una instrucción. Usualmente, esto
implica utilizar paralelismo de una forma u otra.
La organización interna de los procesadores actuales es excesivamente compleja y se puede
conseguir mucho paralelismo fuera del conjunto de instrucciones.
Sin embargo, fiarse simplemente del aumento de la velocidad de reloj para aumentar prestaciones
lleva al problema de la disipación de potencia, cuanto mayor sea la velocidad del reloj, mayor será
la potencia que hay que disipar, y se pueden alcanzar algunos límites físicos básicos.
COMPARACION DE LA EVOLUCION DEL PENTIUM Y POWER PC
Pentium
Intel ha sido uno de los fabricantes de microprocesadores durante décadas, una posición que no
parece probable que abandone. La evolución de su microprocesador más representativo es un buen
indicador de la evolución de la tecnología de computadores en general.
Power PC
En 1975, el proyecto minicomputador 802 de IBM fue el primero en muchos de los conceptos de
arquitectura usados en los sistemas, tenían una maquen súper escalar RISC comercializa como un
estación de trabajo de altas prestaciones, poco después de su introducción, IBM comenzó a llamarla
tecnología power.
Como siguiente paso, IBM se alió con Motorola, que había desarrollado las series 69000 de
microprocesadores, y Apelle, que estaba el chip de Motorola en sus computadoras Macintosh. El
resultado es una serie de maquinas que implementan la arquitectura Power PC. Esta arquitectura
deriva de la arquitectura Power. Se hicieron cambios para agregar características clase que no
estábamos y para permitir una implementación más eficiente eliminando algunas instrucciones y
relajando la especificación para eliminar casos especialmente problemáticos-