Arquitectura-computacionales Unidad 1

24
UNIDAD I

description

explica sobre las arquitecturas computacionales la Von Newman y la arquitectura Harvard tanto como la RISC y la CISC

Transcript of Arquitectura-computacionales Unidad 1

UNIDAD I

Arquitectura computacional

En el entorno informático proporciona una descripción de la construcción y distribución física de los componentes de la computadora.

La arquitectura de una computadora explica la situación de sus componentes y permite determinar las posibilidades de que un sistema informático, con una determinada configuración, pueda realizar las operaciones para las que se va a utilizar.

Cuando se describe una computadora se debe distinguir entre arquitectura y organización.

La arquitectura de computadoras se refiere a los atributos de un sistema que son visibles a un programador, es decir aquellos atributos que tienen un impacto directo en la ejecución lógica de un programa.

Ejemplos de atributos arquitectónicos: Conjunto de instrucciones, número de bits usados para representar datos, mecanismos de entrada salida y técnicas de direccionamiento de memoria.

La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora.

Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.

RESUMEN

Arquitecturas de Computadoras Clásicas

El modelo clásico de arquitectura de computadoras fué diseñado por Jhon Von Newman que consta de los siguientes elementos:

Dispositivos de entrada,

Dispositivos de proceso,

Dispositivos de almacenamiento

Dispositivos de salida

Estas arquitecturas se desarrollaron en las

primeras computadoras electromecánicas y

de tubos de vacío.

Aun son usadas en procesadores

empotrados de gama baja y

Son la base de la mayoría de las

Arquitecturas modernas.

Una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

LOS ORDENADORES CON ESTA ARQUITECTURA CONSTAN DE CINCO

PARTES:

La unidad aritmético-lógica o ALU

La unidad de control

La memoria

Un dispositivo de entrada/salida

El bus de datos

ARQUITECTURA VON NEWMAN

Virtualmente todas las computadoras se han diseñado basándose en los conceptos desarrollados por von Neumann. Tal diseño se conoce como Arquitectura de von Neumann y se basa en tres conceptos clave:

Los datos y las instrucciones se almacenan en una sola memoria de lectura - escritura.

Los contenidos de esta memoria se direccionan indicando su posición, sin considerar el tipo de dato contenido en la misma.

La ejecución se produce siguiendo una secuencia de instrucción tras instrucción (a no ser que dicha instrucción se modifique explícitamente).

PROCESO… Un ordenador con esta arquitectura realiza o emula los siguientes pasos secuencialmente: 1. Enciende el ordenador y obtiene la siguiente instrucción

desde la memoria en la dirección indicada por el contador de programa y la guarda en el registro de instrucción.

2. Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente.

3. Decodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de componentes del ordenador para realizar una función determinada.

4. Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se cumpla una cierta condición aritmética, haciendo que el ordenador pueda 'tomar decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y lógica anteriores.

5. Vuelve al paso 1.

DESVENTAJA La principal desventaja de esta arquitectura, es que

el bus de datos y direcciones único se convierte en un cuello de botella por el cual debe pasar toda la información que se lee de o se escribe a la memoria, obligando a que todos los accesos a esta sean secuenciales.

Esto limita el grado de paralelismo (acciones que se pueden realizar al mismo tiempo) y por lo tanto, el desempeño de la computadora. Este efecto se conoce como el cuello de botella de Von Newman.

Arquitectura Harvard Esta arquitectura surgió en la universidad

del mismo nombre, poco después de que la

arquitectura Von Newman apareciera en la

universidad de Princeton.

Al igual que en la arquitectura Von

Newman, el programa se almacena como

un código numérico en la memoria, pero no

en el mismo espacio de memoria ni en el

mismo formato que los datos.

ARQUITECTURA VON HARVARD

Por ejemplo, se pueden almacenar las instrucciones en doce bits en la memoria de programa, mientras los datos de almacenan en 8 bits en una memoria aparte.

El hecho de tener un bus separado para el

programa y otro para los datos permite que

se lea el código de operación de una

instrucción, al mismo tiempo se lee de la

memoria de datos los operados de la

instrucción previa.

Así se evita el problema del cuello de botella de Von Newman y se obtiene un mejor desempeño.

En la actualidad la mayoría de los procesadores modernos se conectan al exterior de manera similar a la arquitectura Von Newman, con un banco de memoria masivo único, pero internamente incluyen varios niveles de memoria cache con bancos separados en cache de programa y cache de datos, buscando un mejor desempeño sin perder la versatilidad.

ARQUITECTURAS CISC (complex instruction set computer) Computadoras con un conjunto

de instrucciones complejo

La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC.

La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador.

En la década de los sesentas la micropramación, por sus características, era la técnica más apropiada para las tecnologías de memorias existentes en esa época y permitía desarrollar también procesadores con compatibilidad ascendente. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones.

Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj (al menos uno por microinstrucción).

ARQUITECTURAS RISC (reduced instruction set computer) Computadoras con un

conjunto de instrucciones reducido

Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado. Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas.

En investigaciones hechas a mediados de la década de los setentas, con respecto a la frecuencia de utilización de una instrucción en un CISC y al tiempo para su ejecución, se observó lo siguiente:

- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de ejecución de un programa.

- Existen secuencias de instrucciones simples que obtienen el mismo resultado que secuencias complejas predeterminadas, pero requieren tiempos de ejecución más cortos.

Las características esenciales de una arquitectura RISC pueden resumirse como sigue:

Estos microprocesadores siguen tomando como base el esquema moderno de Von Neumann.

Las instrucciones, aunque con otras características, siguen divididas en tres grupos:

a) Transferencia. b) Operaciones. c) Control de flujo.

Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que pueden implantarse todas las operaciones complejas.

Arquitectura del tipo load-store (carga y almacena). Las únicas instrucciones que tienen acceso a la memoria son 'load' y 'store'; registro a registro, con un menor número de acceso a memoria.

Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un control implantado por hardware (con un diseño del tipo load-store), casi todas las instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la reorganización de la ejecución de instrucciones por medio de un compilador.

Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que esta técnica permite que una instrucción puede empezar a ejecutarse antes de que haya terminado la anterior.

El hecho de que la estructura simple de un procesador RISC conduzca a una notable reducción de la superficie del circuito integrado, se aprovecha con frecuencia para ubicar en el mismo, funciones adicionales:

• Unidad para el procesamiento aritmético de punto flotante.

Unidad de administración de memoria.

Funciones de control de memoria cache.

Implantación de un conjunto de registros múltiples.

La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.