Standards

7
STANDARDS E HISTORIA 0003-(1) 0003 STANDARDS E HISTORIA Una digresión sobre las organizaciones de standards y la función que han cumplido. Sobre la historia de los procesadores. 1- DIGRESION: TECNOLOGÍA Y NORMALIZACIONES "Otro aspecto notable es el alto grado de uniformización. En la arquitectura, los ladrillos de construcción eran de un tamaño regular -27,94 cm de largo, 13,42 de ancho y 6,35 de espesor- Los sistemas de drenaje y alcantarillado se ajustaban a un mismo patrón. Las casas particulares respondían a idénticos principios en cuanto a planta y dimensiones. Un rasgo fundamental que distingue la civilización del valle del Indo de otras civilizaciones contemporáneas era la existencia de pesos y medidas estrictamente controlados". Mohenjo Daro (3500 aC- actual Paquistán). (Syed A. Naqvi, Correo de Unesco- Julio 1985) TESIS A: Norma, Recomendación, Especificación, Estándar; estos y otros sinónimos permiten conciliar intereses contrapuestos, mientras que simultáneamente los ponen en evidencia. Estos intereses representan no solo a empresas proveedoras y consumidores, sino a intereses nacionales (al menos desde 3500 aC) y supranacionales (bloques de países como Europa y el sudeste de Asia). Tienen que ver con el modelo de política económica y por lo tanto, así como las ideas económicas siempre son producto de su época y lugar, las Normas representan dichos intereses y poderes. EJEMPLO A1 (Conectores): Los conectores para equipos de Radiofrecuencia y Microondas son varios pero surgen en la mayoría en la II Guerra Mundial. Por ello la ASA/ANSI y la IEEE de USA se ocupan de las Normas en los años '60. Se tienen así al tipo BNC (Bayonet Navy Connector), N (Navy) y SMA (Subminiature-A) que surgen desde el país vencedor en esa guerra y se difunden en todo el mundo. Los conectores para fibras ópticas surgen en los años '80 y representan a las potencias económicas en lugar de militares; el conocido conector FC-PC (Fiber Connector) es el desarrollado por la NTT de Japón, por ejemplo. La conectorización es un ejemplo claro de los problemas que introduce la diversidad de intereses, sin duda la diversidad continuará a incrementarse; en fibras ópticas se encuentra una decena de conectores (SC, DIN, E-2000, FC, ST, etc). EJEMPLO A2 (TV Digital): Las primer aplicación de las imágenes de TV se basaron en los trabajos de J.Baird- 1929 para la BBC. La primer aplicación para transmisión en broadcasting se realizó en Alemania en 1935 con una imagen compuesta de 180 líneas; un año después en Inglaterra se realizó mediante una imagen de 405 líneas. La TV se difunde durante la década de los años 50 y posteriormente pudieron normalizarse tres sistemas denominados NTSC (National Television System Committee), PAL (Phase Alternation Line) y SECAM (Systeme Electronique Couleur Avec Memoire). La TV de alta definición HDTV (High Definition TeleVision) se origina a principios de la década de '80 en Japón. La ventaja comparativa obliga a Europa a formar el Proyecto Eureka EU95 en 1987 para determinar una norma europea distinta y que fracasará ante la iniciativa de USA. Al inicio de los '90 USA se encontraba en idéntica situación que Europa. Una forma de contrarrestar la ventaja comparativa en el desarrollo de un producto es generar otra norma. Existen hoy día dos normas a tal efecto: en USA se determinó la ATSC y en Europa la DVB, similares pero incompatibles. La TV digital se basa en un modelo de digitalización normalizado por la ISO y denominado MPEG. Sin embargo, este es un modelo que identifica las líneas generales permitiendo infinidad de formatos que pertenecen al modelo y que son incompatibles entre sí. Este tipo de normalización que genera un marco de referencia es muy interesante y el mayor ejemplo es el modelo de 7 capas de la ISO. Se trata de un modelo al cual generalmente se adapta cualquier tipo de red de datos. EJEMPLO A3 (Sonet vs SDH): La historia comienza cuando en 1985 la Bellcore (Bell Communication Reserch) propone al comité ANSI una normalización de jerarquía digital para los operadores de fibras ópticas que funcionan en forma sincrónica. Se conoce como Sonet (Synchronous Optical Network). Con posterioridad se propuso ante el ITU-T en 1986. La Bellcore propone una velocidad sincrónica de 50.638 kb/s, mientras que la AT&T propone en cambio el valor de 146.432 kb/s. Europa reacciona a la ventaja temporal y el ITU-T efectúa cambios substanciales

description

variables

Transcript of Standards

Page 1: Standards

STANDARDS E HISTORIA

0003-(1)

0003

STANDARDS E HISTORIA Una digresión sobre las organizaciones de standards y la función que han cumplido. Sobre la

historia de los procesadores. 1- DIGRESION: TECNOLOGÍA Y NORMALIZACIONES "Otro aspecto notable es el alto grado de uniformización. En la arquitectura, los ladrillos de construcción eran de un tamaño regular -27,94 cm de largo, 13,42 de ancho y 6,35 de espesor- Los sistemas de drenaje y alcantarillado se ajustaban a un mismo patrón. Las casas particulares respondían a idénticos principios en cuanto a planta y dimensiones. Un rasgo fundamental que distingue la civilización del valle del Indo de otras civilizaciones contemporáneas era la existencia de pesos y medidas estrictamente controlados". Mohenjo Daro (3500 aC- actual Paquistán). (Syed A. Naqvi, Correo de Unesco- Julio 1985)

TESIS A: Norma, Recomendación, Especificación, Estándar; estos y otros sinónimos permiten conciliar intereses contrapuestos, mientras que simultáneamente los ponen en evidencia. Estos intereses representan no solo a empresas proveedoras y consumidores, sino a intereses nacionales (al menos desde 3500 aC) y supranacionales (bloques de países como Europa y el sudeste de Asia). Tienen que ver con el modelo de política económica y por lo tanto, así como las ideas económicas siempre son producto de su época y lugar, las Normas representan dichos intereses y poderes.

EJEMPLO A1 (Conectores): Los conectores para equipos de Radiofrecuencia y Microondas son varios pero surgen en la mayoría en la II Guerra Mundial. Por ello la ASA/ANSI y la IEEE de USA se ocupan de las Normas en los años '60. Se tienen así al tipo BNC (Bayonet Navy Connector), N (Navy) y SMA (Subminiature-A) que surgen desde el país vencedor en esa guerra y se difunden en todo el mundo. Los conectores para fibras ópticas surgen en los años '80 y representan a las potencias económicas en lugar de militares; el conocido conector FC-PC (Fiber Connector) es el desarrollado por la NTT de Japón, por ejemplo. La conectorización es un ejemplo claro de los problemas que introduce la diversidad de intereses, sin duda la diversidad continuará a incrementarse; en fibras ópticas se encuentra una decena de conectores (SC, DIN, E-2000, FC, ST, etc). EJEMPLO A2 (TV Digital): Las primer aplicación de las imágenes de TV se basaron en los trabajos de J.Baird-1929 para la BBC. La primer aplicación para transmisión en broadcasting se realizó en Alemania en 1935 con una imagen compuesta de 180 líneas; un año después en Inglaterra se realizó mediante una imagen de 405 líneas. La TV se difunde durante la década de los años 50 y posteriormente pudieron normalizarse tres sistemas denominados NTSC (National Television System Committee), PAL (Phase Alternation Line) y SECAM (Systeme Electronique Couleur Avec Memoire). La TV de alta definición HDTV (High Definition TeleVision) se origina a principios de la década de '80 en Japón. La ventaja comparativa obliga a Europa a formar el Proyecto Eureka EU95 en 1987 para determinar una norma europea distinta y que fracasará ante la iniciativa de USA. Al inicio de los '90 USA se encontraba en idéntica situación que Europa. Una forma de contrarrestar la ventaja comparativa en el desarrollo de un producto es generar otra norma. Existen hoy día dos normas a tal efecto: en USA se determinó la ATSC y en Europa la DVB, similares pero incompatibles. La TV digital se basa en un modelo de digitalización normalizado por la ISO y denominado MPEG. Sin embargo, este es un modelo que identifica las líneas generales permitiendo infinidad de formatos que pertenecen al modelo y que son incompatibles entre sí. Este tipo de normalización que genera un marco de referencia es muy interesante y el mayor ejemplo es el modelo de 7 capas de la ISO. Se trata de un modelo al cual generalmente se adapta cualquier tipo de red de datos. EJEMPLO A3 (Sonet vs SDH): La historia comienza cuando en 1985 la Bellcore (Bell Communication Reserch) propone al comité ANSI una normalización de jerarquía digital para los operadores de fibras ópticas que funcionan en forma sincrónica. Se conoce como Sonet (Synchronous Optical Network). Con posterioridad se propuso ante el ITU-T en 1986. La Bellcore propone una velocidad sincrónica de 50.638 kb/s, mientras que la AT&T propone en cambio el valor de 146.432 kb/s. Europa reacciona a la ventaja temporal y el ITU-T efectúa cambios substanciales

Page 2: Standards

STANDARDS E HISTORIA

0003-(2)

para unificar las distintas redes digitales introduciendo la velocidad de 155.520 kb/s y genera la primera serie de Recomendaciones sobre la SDH (Synchronous Digital Hierarchy) en 1988. En cambio, ANSI mantiene sus normas sobre Sonet en T1.105/117. Si bien el formato general es compatible se encuentran diferencias en el interior de la trama. Nuevamente es necesario ser precavido con la toma de decisiones.

TESIS B: Algunos organismos de normalización son internacionales (involucran a varios países o regiones) otros son nacionales. En tanto, muchas normas surgen de facto cuando empresas importantes hacen uso de ellas. La existencia de información presentada a un organismo muchas veces hace creer en su aceptación generalizada.

EJEMPLO B1 (SNA vs OSI): El protocolo de comunicación entre computadores Mainframe y terminales fue originalmente desarrollado por IBM (International Business Machine) en 1973 con el nombre de SNA (System Network Architecture). Surge entonces el mecanismo de control de datos SDLC (Synchronous Data Link Control). La ISO, atendiendo a los competidores de IBM, determina el modelo OSI con la capa 2 denominada HDLC (High DLC) como intento por adoptar un modelo independiente y abierto en 1976. SNA y OSI son modelos declaradamente competidores. Por otro lado en los años `90 la suite protocolos derivados de Internet han logrado una ventaja probablemente irreversible con respecto a los anteriores. Se trata entonces de una lucha por la supervivencia similar a la descripta en la Teoría de la Evolución. Sin embargo, la variedad de protocolos solo se inició en la década de los '70. En los `80 y `90 la carrera por generar "nuevos y ventajosos" protocolos se aceleró. Al grado que los protocolos actuales son actualizados al ritmo de una vez por año y el número de versiones es innumerable. Esto obliga al usuario a una continua actualización de hardware y software (con su correspondiente costo en metálico) y en el uso de los programas de aplicación (costo en horas-hombre de aprendizaje). Todo esto solo para poder utilizar una herramienta de trabajo; además el usuario tiene que saber que hacer con dicha herramienta. EJEMPLO B2 (Sonido y vídeo): Dos multinacionales (Philips y Sony) generaron los sistemas de grabación analógica de vídeo para el hogar: VHS y Betamax. Claramente Betamax pierde la partida y ambas se asocian para el desarrollo del disco compacto CD para audio. Surge entonces solo una norma al respecto en 1979. El mismo formato es usado para memoria de datos en computación CD-ROM. Sin embargo, nuevamente ambos competidores generan normas contrapuestas para los cassette de audio digitales, que se introducen en el mercado en 1994. Se trata de normas de facto creadas por empresas poderosas y luego aceptadas por el mercado y los organismos de normalización. EJEMPLO B3 (Servicios satelitales): Los servicios digitales por satélite fueron normalizados por Intelsat (International Telecommunication Satellite Consortium). Se trata de los IDR e IBS para la red pública y redes privadas. En los Documentos IESS-308 y IESS-309 (Intelsat Earth Station Standard) se entrega la performance que deben cumplir los circuitos con portadoras digitales. Los satélites competidores de Intelsat han debido adoptar dichas normas en forma casi obligada para poder captar clientes de aquel sistema. Sin embargo, varios servicios nuevos se encuentran en pleno desarrollo con normas independientes. Tal es el caso de los servicios de redes de datos por satélite usando terminales de apertura muy reducida VSAT (Very small aperture terminals). Un sistema que se desarrolla a partir de los años '90, nuevamente con normas competitivas, es el servicio de telefonía móvil con satélites artificiales. Se trata de una red de satélites de órbita elíptica sincrónica LEO (Low-Earth-Orbit). Al menos 3 sistemas mundiales se planean para el período 1998-2000: son los proyectos Iridium, Odiseey e Inmarsat.

TESIS C: Los organismos de normalización son tantos y variados; también lo son sus intereses y objetivos. -La actual Unión Internacional de Telecomunicaciones ITU fue fundada en 1865 como Unión Telegráfica. En 1947 las Naciones Unidas ONU la denomina ITU. Tanto el Comité Consultivo Internacional de Telefonía y Telegrafía CCITT como el CCIR para las Radio-comunicaciones dependen de la ITU. En 1993 ambos CCI desaparecen y se denominan ITU-T y ITU-R. Los miembros de la ITU son los organismos gubernamentales de telecomunicaciones de los países signatarios de la ONU; sin embargo, se encuentra que la principal influencia sobre la ITU es Europa; ya que USA y Japón suelen adoptar posturas muchas veces diferentes. Sin embargo, este organismo es el de mayor aceptación hasta la década de los `90. -Por otro lado, la Conferencia Europea de Administraciones de Correos y Telecomunicaciones CEPT (denominada Instituto Europeo de Estándar en Telecomunicaciones ETSI desde 1988) actúa en forma similar a la ITU para el ámbito de Europa. -La ISO (International Standard Organization) depende también de las Naciones Unidas y funciona desde 1946. Trabaja en el área de la tecnología de la información. Los miembros de la ISO son los organismos nacionales de estandarización. -Los organismos nacionales incluyen a ANSI (American National Standard Institute desde 1918), DIN (Deutsches Institut für Nurmung), BSI (British Standard), NF (Normes Francaises), entre otros. -Otras organizaciones son la IEC (International Electrotechnical Commission), la EIA (Electronic Industries Association) fundada en 1924 y el NBS (National Bureau of Standard), actualmente denominado NIST (National Institute of Standards

Page 3: Standards

STANDARDS E HISTORIA

0003-(3)

and Technology). Estas últimas con vinculación a USA. Se pueden encontrar también normalizaciones de IEEE (Institute of Electrical and Electronic Engineers) para redes LAN y MAN y de IETF (Internet Engineering Task Force) para la red Internet. ANSI está formada por cerca de 1400 empresas de USA y opera desde 1918. IEEE tiene 320.000 miembros y opera desde 1884. ISO inscribe a 114 países desde 1947. ITU-T está formado por 187 gobiernos operando desde 1865.

EJEMPLO C1 (Redes LAN): Las LAN (Local Área Network) se originan en 1973 mediante el estándar de facto conocido comercialmente como Ethernet, originario de la Xerox, DEC e Intel. Este producto se refleja en el estándar IEEE 802.3 de 1985. En 1983 la IBM adopta un método de acceso a las LAN distinto denominado Token Ring y estandarizado por IEEE 802.5. Ambos métodos compiten en el mercado de LAN. La norma IEEE 802.4 Token Bus propuesta por General Motors ha tenido éxito solo en el segmento industrial. La ISO genera la norma ISO-8802 coherente con IEEE 802. Dentro de cada variante aparecen subvariantes. Por ejemplo en IEEE 802.3 se disponen de redes 10Base5, 10BaseT, 10 BaseF, entre otras que funcionan a 10 Mb/s. A partir del año 1994 también se disponen de redes LAN de alta velocidad a 100 Mb/s como ser: la conexión 100BaseX (compatible con 10BaseT) y 100VG-AnyLAN. Hacia el año 1997 se inician las redes de 1000 MHz (Gigabit-Ethernet). Es probable que con estos avances las redes Ethernet tengan suficiente ventaja como para ser preponderantes en las redes de la primer década del 2000. EJEMPLO C2 (Redes MAN-FDDI-ATM): Cuando se trata de interconexión de LAN en áreas extensas el número de alternativas es alto. La alternativa más simple es la conexión punto a punto mediante bridge-router en una red E1 fraccional. La IEEE 802.6 se ocupa de normalizar las MAN (Metropolitan Area Network) con acceso DQDB, lo cual da lugar al servicio SMDS de la Bell en USA. Las MAN-DQDB han tenido el máximo de prestigio entre 1992-95 decayendo a cero en la actualidad. El ITU-T y el ATM-Forum se encuentra en normalización de la red ISDN de banda ancha conocida como ATM (Asynchronous Transfer Mode) coherente con MAN-DQDB. En cambio, ANSI se ocupa de la interfaz de fibras ópticas FDDI (Fiber Distributed Data Interface), hoy día conocida como una red LAN de alta velocidad mediante fibras ópticas. El ascenso y caída de variantes de redes de datos y otros ejemplos recuerda a las teorías de la evolución biológica y al equilibrio puntado (la evolución se caracteriza por largos períodos de estabilidad y pequeños períodos de profundos cambios). En este sentido la diversificación de los años `90 (X.25, Frame Relay, ATM, FDDI, MAN, etc) entrega una gama mayor de perdedores que de ganadores. Se genera desconcierto y deficultades en conocer si la tendencia es estable. EJEMPLO C3 (Interfaz de datos): Existen diferentes interfaces para la transmisión de datos de baja velocidad. Podemos destacar 2 tipos de estándar para los circuitos de interfaz: hasta 19,2 kb/s ITU-T V.24/V.28 = RS-232 y a 64 kb/s ITU-T V.24/V.11 = RS-422-A. Las normas ITU-T rigen especialmente para Europa; mientras que las RS para USA. La RS-232 (Recommended Standard) de la EIA determina la interfaz entre el modem y el terminal en una forma que substancialmente es equivalente a V.24/V.28/ISO-2110. Las interfaces de datos son una indicación más de la diversidad y complejidad que conllevan. EJEMPLO C4 (Telefonía Celular): El primer sistema celular analógico se instala en Chicago-1978. En la década de 1970 se pasó desde la banda de 160 MHz (VHF) con algunas decenas de canales a la banda de 450 MHz (UHF) con 200 canales de 25 kHz y por último se llegó a la banda de 900 MHz (la más usada en la actualidad) y 1800 MHz. El número de normas es casi tan alto como el de países que lo desarrollaron. La normalización de un solo sistema mundial de telefonía celular móvil digital ha sido también imposible. El número de normas se complica debido a la tendencia al uso de sistemas con microceldas (denominado cordless) con distintos tipos de acceso (FDMA-TDMA y CDMA) y la aplicación a redes de cobertura mundial mediante satélites. Tenemos así una variedad de sistemas celulares analógicos (en Europa casi uno por país); un menor número de sistemas celulares digitales (Europa normalizó el GSM) y nuevamente una gran variedad de sistemas en los de amplia cobertura satelital y microcelulares.

CONCLUSIÓN: El número de normalizaciones se ha incrementado abruptamente en los últimos 30 años junto con la concentración del poder en manos de empresas multinacionales muy fuertes. Muchos organismos de estándar responden a intereses nacionales y políticas económicas (que como siempre son circunstanciales). Como se ha visto no siempre la existencia de una norma sobre un producto asegura la unicidad y compatibilidad. Ciertos países en desarrollo en los años `70 han preferido cerrar las puertas a la competencia externa mediante la generación de normas "posibles". Esta teoría fue desacreditada a partir de la Globalización de la economía luego del final de la Guerra Fría. Sin embargo, las consecuencias de dicho proceso están en discusión hoy día.

Page 4: Standards

STANDARDS E HISTORIA

0003-(4)

Las Normas reflejan en muchos casos la política económica (apertura o proteccionismo). La encrucijada determina que una serie de normativas rígidas impiden la evolución tecnológica, mientras que una apertura absoluta de normas dificulta la compatibilidad de interconexión. Los estándares no son leyes invulnerables (son muy buenos como control de calidad, pero deficientes en cuanto a asegurar una evolución tecnológica dinámica); no son únicos, ni aseguran la compatibilidad. Corresponde correr detrás de las últimas innovaciones?; proyectar con sistemas de última generación?; esperar que las normas unifiquen criterios?. Conocer la tecnología es necesario para un planificador; disponer de una política tecnológica es el requisito para que sea suficiente.

Page 5: Standards

STANDARDS E HISTORIA

0003-(5)

2- DIGRESION: COMPONENTES DE SISTEMAS INFORMATICOS A un caballero, en una discusión teológica o literaria, le arrojaron en la cara un vaso de vino. El agredido no se inmutó y dijo al ofensor: -Esto, señor, es una digresión, espero ahora su argumento-. Jorge Luis Borges HISTORIA. La historia de los ordenadores (procesan señal digital mientras que los simuladores procesan señales analógicas) comienza con la primera máquina de cálculo que usó el hombre. El ábaco, 3000 aC, consistía en una tabla de madera cubierta de arena fina donde se realizaban cuentas. En el 500 aC, en Egipto, consistía de hileras enhebradas con 10 unidades por hilera. Fue Aristóteles-350 aC en su libro Organon, quien desarrolla por vez primera la «lógica». F.Bacon-1620 argumentó que la lógica deductiva de Aristóteles es útil en matemáticas, mientras que en la ciencia se requiere la inducción (método científico). Las pinturas de Brueguel-1150 muestran autómatas de relojería que son calculadores de programa fijo. Pascal-1642 inventó una máquina calculadora para sumar y restar mediante ruedas dentadas. Leibniz-1693 realizó una máquina que podía multiplicar y dividir y en 1700 demostró la utilidad del sistema binario. Babbage-1822 (ver fotografía anexa) introdujo la idea de un programa exterior en los calculadores basándose en las tarjetas perforadas de los telares que diseñara Jacquard-1801 (el cual tomó la idea de las ruedas dentadas de los autómatas de relojería). Luego, H.Hollerith-1880 desarrolló la calculadora electromecánica en base al trabajo de Babbage y fundó la compañía que se convertiría en la IBM. La idea consistía en una memoria para almacenar datos, las instrucciones ingresaban en forma de tarjetas y poseía una unidad de cálculo y otra unidad de entrada-salida. Una unidad de control coordinaba los movimientos de las ruedas dentadas a fin de leer las tarjetas y efectuar la instrucción. La instrucción dice qué se debe hacer y con quién hacerlo. Se trata del ordenador, que sin embargo no podía hacerse efectivo sin los conmutadores electrónicos. Fue H.Aiken-1937 que propone a IBM construir un computador digital con programa almacenado. Se denominó Harvard Mark I y operó desde 1944. IBM desde 1914 se dedicó a las máquinas de tabulación y en 1953 anuncia el primer computador IBM-701 y IBM-650. En 1964 introduce la IBM-360 y en 1982 la PC (Personal Computer). MICROPROCESADORES. Bush-1930 construyó el primer ordenador con válvulas de vacío y relé. Mauchly y Eckart-1946 desarrollaron el Eniac (Electronic Numerical Integrator & Calculator) completamente electrónico (con 17468 válvulas, 450 m2 de superficie y 30.000 kg de peso). En 1951 se introdujo la mejora de la cinta magnética para los programas. Eniac funcionaba a 105 instrucciones por segundo I/s, el computador IBM 370/168 en 1975 operaba a 2.106 I/s y IBM PS2/70 en 1988 operaba a 5.106 I/s. Para Intel el procesador 286 (año 1983) operaba a 1 MIPS (Million Instruction Per Second); el 386 (1986) a 5 MIOS; el 486 (1990) a 20 MIPS; el Pentium (1993) a 100 MIPS; el 686 (1995) a 175 MIPS; el 786 (1997) a 250 MIPS y el 886 (1999) a 2000 MIPS. Von Neumann-1945 introduce dos conceptos fundamentales: crea un programa registrado en memorias (de relé para la época) y dotó al programa del salto condicional en una secuencia, con lo que se obtuvo una operación automática en la toma de decisiones. Hoy día las máquinas son del tipo von Neumann. Los conocidos virus informáticos fueros previstos por Neuman-1949 y 10 años después la AT&T desarrolla programas Core Wars para destruir otros programas. La unidad de control y unidad aritmética y lógica se denominan CPU (Central Procesing Unit) y es el microprocesador µP propiamente dicho. Para lograr acoplar un gran número de periféricos se distribuye la inteligencia en las unidades de entrada/salida (por ejemplo, puertas de comunicación en paralelo LPT o serie). Un bus une estas unidades con el CPU y las memorias y llevan 3 tipos de información: datos, direcciones y control. El µP asegura que no existan direcciones comunes para los datos y las instrucciones. El modelo Siemens-2002 es el primer computador con transistores y es desarrollado en 1957. El circuito integrado se introduce gracias a M.Kilby-1964. R.Noyce-1968 desarrolla el chip y funda la empresa Intel (Integrated Electronics). Fue M.Hoff-1970 que desarrolla el microprocesador. En 1971 el primer micro-procesador Intel-4004 en una sola pastilla de Si poseía 2300 transistores; en la actualidad el Intel P6 posee 5,5 millones de Tr. La nave espacial Voyager 2 lleva 6 ordenadores diferentes para su viaje iniciado en 1977 hacia Júpiter y Neptuno.

Page 6: Standards

STANDARDS E HISTORIA

0003-(6)

El computador personal original PC de IBM se diseñó sobre el microprocesador Intel-8088 (con 16-bits en paralelo) en 1981. El modelo PC-XT de 1983 introdujo la memoria de disco duro. El sistema operativo fue el Microsoft MS-DOS 1.0 (1981) y la velocidad de reloj de 4,77 MHz. Los primeros µP 80286 (PC-AT de 1984) usaban un reloj de 6 MHz; los actuales 80386 y 80486 funcionan entre 16 y 66 MHz. El 80286 utiliza 16 bits de datos y 24 bits de direcciones; el 80386 y 80486 utiliza 32 bits de datos y direcciones. La familia Intel 80x86 se interrumpe aquí, la próxima generación es el µP Pentium (introducido en 1993 que dispone de 64 bits en paralelo) funcionando a 108 I/s; el doble del 80486 con reloj de 66 MHz. La tecnología de producción de circuitos integrados se encuentra en el límite de la tecnología. Con dimensiones de espesor inferior a 0,05 mm, las distancias son tan pequeñas que los efectos cuánticos impiden el funcionamiento. ALMACENAMIENTO DE DATOS. El microprocesador tiene entonces un componente físico denominado Hardware y un componente lógico denominado Software o Firmware (Hard=duro y Soft=blando; Firmware es un software guardado en memoria de solo lectura). El soporte lógico se divide en el lenguaje de programación y el sistema operativo. El microprocesador estará acompañado de memorias para guardar el programa a realizar y los datos obtenidos. Las memorias de programa son del tipo ROM (Read Only Memory) que sirven sólo para ser leídas y que generalmente son escritas por el diseñador del sistema mediante una intervención eléctrica con lo cual se tienen las memorias programables eléctricamente EPROM (Electrically Programable ROM). La memoria de datos deben ser leídas como escritas por lo cual se debe tener acceso a cualquier parte de la misma; éstas se denominan memorias RAM (Random Access Memory). Los microprocesadores poseen una memoria cache que contiene las partes del programa más usadas para evitar las memorias externas. Los medios para almacenar datos (dejando de lado las cintas o tarjetas perforadas) son magnéticos (sobre discos duros o flexibles o cintas magnéticas) y ópticos (CD). El disco duro (Hará Disk) gira a 3600 ppm y los cabezales de lectura-escritura flotan sobre un colchón de aire de 0,5 mm. El conjunto (Hard Drive) se encuentra herméticamente sellado. El medio óptico de memoria es el CD-ROM (Compact Disc-Read Only Memory) que ha sido diseñado por Philips-Sony y normalizado mediante ISO-9660 en 1986. La capacidad de un CD-ROM con pistas de 0,6 mm es de 600 MByte (equivalente a 105 páginas de tipo A4). Se ha diseñado la memoria WORM (Write Once Read Many) que permite la escritura de datos solo una vez sobre el CD. El mecanismo físico incluye un láser que vaporiza una película o para cortar y exponer un material resistivo. Otra forma de trabajo es mediante el calentamiento de teluro semi-metálico para abrir un hueco. Los CD Borrables se basan en un efecto diverso. La escritura se efectúa mediante un láser que modifica la temperatura de Curie (temperatura a la que se pierde el campo magnético coercitivo) de una película magnética (entre 150 y 200 grados C). Cuando se enfría adquiere una nueva magnetización si lo hace dentro de un campo H. Inicialmente una pasada por el campo H borra la información; el láser actúa cuando se debe escribir un 1 lógico. La lectura se hace mediante el efecto Kerr (cambio de polarización de la luz en un medio magnetizado). Se obtiene una S/N de 60 dB con esta lectura. El material usado es tierras raras (Gadolinio y Terbio) y un metal de transición (Hierro y Cobalto) los cuales dan al material una alta temperatura de fusión, buena conductividad y dureza. Otro material borrable se basa en la propiedad del Selenio o Teluro de cambiar de estado de fase amorfa a cristalina. Se obtiene mediante la acción de un láser. La fase amorfa corresponde a 0 y la cristalina a 1. SOFTWARE. El componente básico del software de un computador es el sistema operativo OS. El primer programa de control se denominó CP/M (Control Program for Microcomputer) y se debe a G.Kindall-1972. El DOS (Disk Operating

Page 7: Standards

STANDARDS E HISTORIA

0003-(7)

System de Microsoft e IBM) es un sistema operativo para computadores trabajando individualmente en tanto que el UNIX dispone del protocolo TCP/IP para actuar dentro de una red. El OS asigna los recursos del sistema (memoria, espacio de disco, dispositivos periféricos: impresora, modem, monitor) y es el primer programa que se carga al inicializar el sistema. El primer paso es la carga del sistema operativo desde el disco duro o flexible (operación Boot). El DOS posee en el directorio raíz (en el disco de arranque) el archivo AUTOEXEC.BAT (AUTOmatically EXEcuted BATch) que ejecuta los comandos contenidos en forma automática al encender la máquina. Otro archivo es el CONFIG.SYS que permite setear la memoria intermedia (buffer). En modo real la memoria convencional dispone de 640 KByte para el sistema operativo. En DOS la memoria se divide en las siguientes partes: memoria convencional de 640 KByte; memoria superior de 384 KByte (para el hardware; por ejemplo el vídeo); memoria extendida superior a 1 MByte (requiere el administrador HIMEN.SYS) y memoria expandida de 2 MByte. El sistema operativo UNIX fue desarrollado por BellLabs y actualmente es propiedad de Novell. El equivalente a CONFIG.SYS se denomina NET.CFG. Cuando un cliente UNIX se conecta a una red de área local LAN requiere el sistema operativo de red. El más popular de éstos (70% del mercado) es el NetWare de Novell Inc. Netware utiliza los protocolos de capas 3-4 del tipo IPX/SPX (Internet Packet Exchange/Sequenced PX) o TCP/IP de UNIX. NETBIOS (Basic Input/Output System). BIOS es usado en las computadoras personales IBM-PC o compatibles para entregar una interfaz estándar de hardware para el disco, teclado y puertos de comunicación (impresora, mouse y pantalla). Es desarrollado en 1984 por IBM y Sytek (actualmente pertenece a Hughes). NetBios está preparado para la conexión a una red en tanto que NetBIOS lo está para una solo PC. Ocupa las capas 4-5-6 y por ello trabaja sobre protocolos TCP/IP, XNS, IPS/SPX, X.25, etc. Una PC puede identificarse con las siguientes capas: -Capa 7 para los programas de aplicación y el sistema operativo (DOS). -Capa 4-5-6 para la interfaz hacia el hardware de periféricos. -Capa 2-3 para los Drivers de conexión. -Capa 1 para los componentes físicos: disco, teclado, mouse, impresora, pantalla, modem. Algunos de los comandos típicos de NetBIOS son: -Add name: para registrar el nombre del nodo sobre la red. -Call: para iniciar la conexión de transferencia de datos en la capa de Sesión. -Hang up: también en la capa de Sesión, para cerrar la conexión. -Send, Receive: para transmisión y recepción de mensajes en la capa 3. -Send, Receive: para transmisión y recepción de datagramas en la capa 4.