Revista abner 2015

16
INTECAP Alumno: ABNER JOÉL MATEO HERNÁNDEZ

description

 

Transcript of Revista abner 2015

Page 1: Revista abner 2015

INTECAP

Alumno: ABNER JOÉL MATEO HERNÁNDEZ

Page 2: Revista abner 2015

MOTHERBOOAR

La placa base, también conocida como placa madre o placa principal

(motherboard o mainboard en inglés), es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora.

Es una parte fundamental para armar cualquier computadora personal de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar (chipset), que sirve como centro de conexión entre el microprocesador (CPU), la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.

Va instalada dentro de una carcasa o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes internos.

La placa madre, además incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Componentes de la placa base

Diagrama de una placa base típica.

Una placa base típica admite los siguientes componentes:

Conectores de alimentación de energía eléctrica.

Zócalo de CPU (monoprocesador) o zócalos de CPU (multiprocesador).

Ranuras de RAM. Chipset.

Conectores de alimentación

Conectores de la fuente de alimentación de tipo ATX2 para PC: (1) mini molex para FDD. (2) Molex universal: para dispositivos IDE, HDD y unidad de disco óptico. (3) para dispositivos SATA. (4) para tarjetas gráficas de 8 pines, separable para 6 pines. (5) para tarjeta gráfica de 6 pines. (6) para placa base de 8 pines. (7) para CPU P4, combinado para el conector de la placa base de 8 pines a 12V. (8) ATX2 de 24 pines.

Page 3: Revista abner 2015

MEMORIA RAM

La memoria de acceso aleatorio (Random-Access Memory, RAM) se utiliza como

memoria de trabajo de computadoras para el sistema operativo, los programas y la mayor parte del software.

En la RAM se cargan todas las instrucciones que ejecutan la unidad central de procesamiento (procesador) y otras unidades de cómputo.

Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso secuencial) a la información de la manera más rápida posible.

Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de sonidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la

Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromágnetico de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.

Page 4: Revista abner 2015

MEMORIA ROM

«ROM» redirige aquí. Para otras acepciones, véase Rom.

La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.

Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente en su sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente y, por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aun siendo descritos como "memoria de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007

Historia

Desarrollada por Toshiba, los diseñadores rompieron explícitamente con las prácticas del pasado, afirmando que enfocaba "ser un reemplazo de los discos duros", más que tener el tradicional uso de la ROM como una forma de almacenamiento primario no volátil. En 2007, NAND ha avanzado bastante en su meta, ofreciendo un rendimiento comparable al de los discos duros, una mejor tolerancia a los golpes, una miniaturización extrema (como por ejemplo memorias USB y tarjetas de memoria MicroSD), y un consumo de potencia mucho más bajo.

Uso para almacenamiento de software

Los ordenadores domésticos a comienzos de los años 1980 venían con todo su sistema operativo en ROM. No había otra alternativa razonable ya que las unidades de disco eran generalmente opcionales. La actualización a una nueva versión significa usar un soldador o un grupo de interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo..

Page 5: Revista abner 2015

PROCESADOR

Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales intentaremos darles una idea de sus características principales.

Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así sino "Pentium", por razones de mercadeo.

Existen, hoy en día tres marcas de procesadores: AMD, Cyrix e Intel. Intel tiene varios como son Pentium, Pentium MMX, Pentium Pro y Pentium II. AMD tiene el AMD586, K5 y el K6. Cyrix tiene el 586, el 686, el 686MX y el 686MXi. Los 586 ya están totalmente obsoletos y no se deben considerar siquiera. La velocidad de los procesadores se mide en Megahertz (MHz =Millones de ciclos por segundo). Así que un Pentium es de 166Mhz o de 200Mhz, etc. Este parámetro indica el número de ciclos de instrucciones que el procesador realiza por segundo, pero sólo sirve para compararlo con procesadores del mismo tipo. Por ejemplo, un 586 de 133Mhz no es más rápido que un Pentium de 100Mhz. Ahora, este tema es bastante complicado y de gran controversia ya que el rendimiento no depende sólo del procesador sino de otros componentes y para que se utiliza el procesador. Los expertos requieren entonces de programas que midan el rendimiento, pero aun así cada programa entrega sus propios números. Cometeré un pequeño pecado para ayudar a descomplicarlos a ustedes y trataré de hacer una regla de mano para la velocidad de los procesadores. No incluyo algunos como el Pentium Pro por ser un procesador cuyo mercado no es el del hogar. El término "procesador" puede referirse a los siguientes artículos:

CPU, el elemento que interpreta las instrucciones y procesa los datos de los programas de computadora.

Microprocesador informático o simplemente procesador, un circuito integrado que contiene todos los elementos de la CPU.

Grapáis Processing Unit o Unidad de Procesamiento Gráfico, es un procesador dedicado a procesamiento de gráficos o coma flotante. Es el elemento principal de toda tarjeta gráfica.

Physics processing unit o Unidad de Procesamiento Físico es un

microprocesador dedicado, diseñado para manejar cálculos físicos. Procesador digital de señal (DSP), un sistema digital generalmente

dedicado a interpretar señales analógicas a muy alta velocidad. como interfaz para un número de redes.

Page 6: Revista abner 2015

DISCO DURO

En informática, la unidad de disco duro o unidad de disco rígido (en inglés: Hard

Disk Drive, HDD) es el dispositivo de almacenamiento de datos que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. Es memoria no volátil.

El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 1960.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1

Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores).

Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en algunos sistemas operativos será representado como 465 GiB (es El primer disco duro, aparecido en 1956, fue el Ramac I, presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo.

Page 7: Revista abner 2015

CD-ROM

Un CD-ROM'1 (sigla del inglés Compact Disc Read-Only Memory), es un disco

compacto que utiliza rayos láser para almacenar y leer grandes cantidades de información en formato digital y que contiene los datos de acceso, pero sin permisos de escritura. El CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos compactos. dgh La unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada (CD-RW). Estas unidades se llaman sdf, ya que funcionan con un láser que «quema» la superficie del disco para grabar la información.dfgf sfsf Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM supera en capacidad a un CD-ROM. pop

Historia : El disco compacto fue creado por un holandés, y un japonés, en 1979. Al año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero las ventas no tuvieron éxito por la depresión económica de aquella época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad. Comenzaba el lanzamiento del nuevo y revoluci onario formato de grabación audio que posteriormente se extendería a otros sectores de la grabación de datos. dfs El sistema óptico fue desarrollado por Philips mientras que la Lectura y Codificación Digital corrió a cargo de Sony, fue presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo mediante la obtención de las licencias correspondientes para la producción de reproductores y discos.

En 1981, el director de orquesta Herbert von Karajan convencido del valor de los discos compactos, los promovió durante el festival de Salzburgo y desde ese momento empezó su éxito. Los primeros títulos grabados en discos compactos en Europa fueron la Sinfonía alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el pianista chileno Claudio Arrau y el álbum The Visitors de ABBA, en 1983 se produciría el primer disco compacto en los Estados Unidos por CBS (Hoy Sony Music) siendo el primer título en el mercado un álbum de Billy Joel..

Page 8: Revista abner 2015

FUENTE DE PODER

En electrónica, la fuente de alimentación o fuente de poder es el dispositivo que

convierte la corriente alterna (CA), en una o varias corrientes continuas (CC), que alimentan los distintos circuitos del aparato electrónico al que se conecta (computadora, televisor, impresora, router, etcétera).

En inglés se conoce como power supply unit (PSU), que literalmente traducido significa: unidad de fuente de alimentación, refiriéndose a la fuente de energía eléctrica.

Clasificación

Las fuentes de alimentación para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineal y conmutada. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.

Fuentes de alimentación lineales

Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida. En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no es más que un sistema de control a lazo cerrado (“realimentado”, figura 3) que en base a la salida del circuito ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y por consecuencia regulando el voltaje de salida.

Page 9: Revista abner 2015

TARJETA DE VIDEO SONIDO Y RED

La tarjeta de vídeo se encarga de convertir la información de la computadora en

señales que puedan ser usadas por el monitor. La calidad con que veamos las

imágenes depende más de la tarjeta de vídeo que del monitor. Tiene una salida al

exterior en la parte de atrás del CPU. Es ahí donde conectamos el monitor.

Las que vienen incluidas en los mainboards sólo tienen ese conector, mientras

que las más avanzadas pueden tener más.

Las que añadimos tienen su propio procesador (GPU). Al incluirlas en nuestra

computadora, podemos contar con una mejor calidad de imagen (imprescindible a

veces para ciertos juegos) y realizar mejor tareas relacionadas con gráficos (como

crear imágenes 3D).

La tarjeta de sonido convierte la información en señales que pueden ser usadas

por unos parlantes y también convierte los

sonidos en información que puede ser usada

por la computadora.

tienen como mínimo tres conectores. En ellos

es donde conectamos los altavoces o

auriculares y el micrófono:

MIC: es el conector de entrada, donde

conectaremos el micrófono.

OUT: es el conector de salida, donde

conectaremos los altavoces.

IN: Es un conector de entrada de audio

El orden en el que estén colocados estos conectores puede variar. Pero sus

colores son siempre los mismos.

.

PUERTOS

Page 10: Revista abner 2015

Dispositivos periféricos directamente a su placa base. Estos dispositivos pueden

ser circuitos integrados ajustados en ésta (los llamados dispositivos planares en la

especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es

común en PC, donde ha desplazado al ISA como bus estándar, pero también se

emplea en otro tipo de ordenadores.

En diferencia de los buses ISA, el bus PCI permite configuración dinámica de un

dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el

BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto

permite asignación de IRQs y direcciones del puerto por medio de un proceso

dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas

manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus

MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de

configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en

tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción

detallada de todos los dispositivos PCI conectados a través del espacio de

configuración PCI.

La especificación PCI cubre el tamaño físico del bus, características eléctricas,

cronómetro del bus y sus protocolos. El grupo

de interés especial de PCI (PCI Special

Interest Group) comercializa copias de la

especificación.

PCI 1.0, que era solamente una

especificación a nivel de componentes, fue

lanzado el 22 de junio de 1992. El PCI 2.0, el

primero en establecer el estándar para el

conector y el slot de la placa base, fue lanzado en 1993. El PCI 2.1 se lanzó al

mercado el 1 de junio de 1995.

PCI fue inmediatamente puesto al uso de los servidores

reemplazando MCA y EISA como opción al bus de expansión. En PC fue más

lento en reemplazar al VESA Local Bus y no ganó la suficiente penetración en el

mercado hasta después del 1994 con la segunda generación de los Pentium. Para

1996 el VESA se extinguió y las compañías reemplazaron hasta en los

computadores 80486. .

BUSES DE DATOS

En arquitectura de computadores, el bus de datos es un sistema digital que

transfiere datos entre los componentes de una computadora o entre varias

Page 11: Revista abner 2015

computadoras. Está formado por cables o pistas en un circuito impreso,

dispositivos como resistores y condensadores además de circuitos

integrados.

En los primeros computadores electrónicos, todos los buses eran de tipo paralelo,

de manera que la comunicación entre las partes del computador se hacía por

medio de cintas o muchas pistas en el circuito impreso, en los cuales cada

conductor tiene una función fija y la conexión es sencilla requiriendo únicamente

puertos de entrada y de salida para cada dispositivo.

La tendencia en los últimos años hacia el uso de buses seriales como

el USB, Firewire para comunicaciones con periféricos, reemplazando los buses

paralelos, incluyendo el caso del microprocesador con el chipset en la placa base,

a pesar de que el bus serial posee una lógica compleja (requiriendo mayor poder

de cómputo que el bus paralelo) se produce a

cambio de velocidades y eficacias mayores.

Existen diversas especificaciones de que un bus se

define en un conjunto de características mecánicas

como conectores, cables y tarjetas, además de

protocolos eléctricos y de señales.

La función del bus es la de permitir la conexión

lógica entre distintos subsistemas de un sistema

digital, enviando datos entre dispositivos de distintos órdenes: desde dentro de los

mismos circuitos integrados, hasta equipos digitales completos que forman parte

de supercomputadoras.

La mayoría de los buses están basados en conductores metálicos por los cuales

se trasmiten señales eléctricas que son enviadas y recibidas con la ayuda de

integrados que poseen una interfaz del bus dado y se encargan de manejar las

señales y entregarlas como datos útiles. Las señales digitales que se trasmiten

son de datos, de direcciones o señales de control.

Los buses definen su capacidad de acuerdo a la frecuencia máxima de envío y al

ancho de los datos.

MOUSE

En América predomina el término inglés mouse (plural mouses y no mice)

mientras que en España se utiliza prácticamente de manera exclusiva el calco

Page 12: Revista abner 2015

semántico «ratón».1 El Diccionario de la lengua española únicamente acepta la

entrada ratón para este dispositivo informático, e indica que es un

españolismo.2 El Diccionario de americanismos de la ASALE, publicado en 2010,

consigna el anglicismo mouse.3 El Diccionario panhispánico de

dudas remite mouse a ratón, e indica que al existir el calco semántico es

innecesario usar el anglicismo

Historia

Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en

el Stanford Research Institute, un laboratorio de la Universidad Stanford, en

pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios

de Palo Alto de la compañía Xerox (conocidos

como Xerox PARC). Con su aparición, logró

también dar el paso definitivo a la aparición de

los primeros entornos o interfaces gráficas de

usuario.

A pesar de su aspecto arcaico, su

funcionamiento básico sigue siendo igual hoy

en día. Tenía un aspecto de adoquín, encajaba

bien en la mano y disponía de dos ruedas

metálicas que, al desplazarse por la superficie, movían dos ejes: uno para

controlar el movimiento vertical del cursor en pantalla y el otro para el sentido

horizontal, contando además con un botón rojo en su parte superior.

En San Francisco, el 9 de diciembre de 1968 se presentó públicamente el primer

modelo oficial.5 Durante hora y media además se mostró una

presentación multimedia de un sistema informático interconectado en red de

computadoras y también por primera vez se daba a conocer un entorno gráfico

con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas

operativos modernos. En ese momento además, se exhibió hipermedia, un

mecanismo para navegar por Internet y usar videoconferencia.

Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde

1951 había empezado a desarrollar las posibilidades de conectar computadoras

en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras

ideas como el propio correo electrónico, del que sería su primer usuario.

PANTALLA

Page 13: Revista abner 2015

El monitor de computadora (en Hispanoamérica) o pantalla de

ordenador (en España) es el principal dispositivo de salida (interfaz), que

muestra datos o informaciónal usuario.

También puede considerarse un periférico de Entrada/Salida si el monitor

tiene pantalla táctil o multitáctil.

Historia

Las primeras computadoras se comunicaban con el operador mediante unas

pequeñas luces, que se encendían o se apagaban al acceder a determinadas

posiciones de memoria o ejecutar ciertas instrucciones.

Años más tarde aparecieron ordenadores

que funcionab an con tarjeta perforada, que

permitían introducir programas en el

computador. Durante los años 60, la forma

más común de interactuar con un

computador era mediante un teletipo, que

se conectaba directamente a este e

imprimía todos los datos de una sesión

informática. Fue la forma más barata de

visualizar los resultados hasta la década de

los 70, cuando empezaron a aparecer los

primeros monitores de CRT (tubo de rayos

catódicos). Seguían el estándar MDA (Monochrome Display Adapter), y eran

monitores monocromáticos (de un solo color) de IBM.

Estaban expresamente diseñados para modo texto y soportaban subrayado,

negrita, cursiva, normal e invisibilidad para textos. Poco después y en el mismo año

salieron los monitores CGA (Color Graphics Adapter- gráficos adaptados a color)

fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del

estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios

de PC optaban por comprar el monitor monocromático por su costo.

Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter -

adaptador de gráficos mejorados) estándar desarrollado por IBM para la

visualización de gráficos, este monitor aportaba más colores (16) y una mayor

resolución. En 1987 surgió el estándar VGA (Video Graphics Array - Matriz gráfica

de video) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó

para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super

VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se

desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos comoS3

Graphics, NVIDIA o ATI entre otros.

CPU

Page 14: Revista abner 2015

La unidad central de procesamiento (del inglés central processing unit o CPU),

es el hardware dentro de una computadora u otros dispositivos programables, que

interpreta las instrucciones de un programa informático mediante la realización de

las operaciones básicas aritméticas, lógicas y de entrada/salida del sistema. El

término en sí mismo y su acrónimo han estado en uso en la industria de la

Informática por lo menos desde el principio de los años 1960.1 La forma, el diseño y

la implementación de las CPU ha cambiado drásticamente desde los primeros

ejemplos, pero su operación fundamental sigue siendo la misma.

Una computadora puede tener más de una CPU; esto se llama multiprocesamiento.

Todas las CPU modernas son microprocesadores, lo que significa que contienen un

solocircuito integrado (chip). Algunos circuitos integrados pueden contener varias

CPU en un solo chip; estos son denominados procesadores multinúcleo. Un circuito

integrado que contiene una CPU también puede

contener los dispositivos periféricos, y otros

componentes de un sistema informático; a esto se

llama un sistema en un chip (SoC).

Dos componentes típicos de una CPU son la unidad

aritmético lógica (ALU), que realiza operaciones

aritméticas y lógicas, y la unidad de control (CU), que

extrae instrucciones de la memoria, las decodifica y las

ejecuta, llamando a la ALU cuando sea necesario.

No todos los sistemas computacionales se basan en una unidad central de

procesamiento. Una matriz de procesador o procesador vectorial tiene múltiples

elementos cómputo paralelo, sin una unidad considerada el "centro". En el modelo

de computación distribuido, se resuelven problemas mediante un conjunto

interconectado y distribuido de procesadores.

Historia:

Ordenadores, como el ENIAC tenían que ser físicamente recableados para realizar

diferentes tareas, que causaron que estas máquinas se llamarán "ordenadores de

programas fijo". Dado que el término "CPU" generalmente se define como un

dispositivo para la ejecución de software (programa informático), los primeros

dispositivos que con razón podríamos llamar CPU vinieron con el advenimiento

del ordenador con programa almacenado.

Page 15: Revista abner 2015

TECLADO

El término teclado puede referirse:

al teclado, un periférico utilizado para introducir datos en una computadora u

ordenador;

En informática, un teclado es un periférico de entrada o dispositivo, en parte

inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de

botones o teclas, para que actúen como palancasmecánicas o interruptores

electrónicos que envían información a la computadora. Después de las tarjetas

perforadas y las cintas de papel, la interacción a través de los teclados al

estilo teletipo se convirtió en el principal medio de entrada para las computadoras.

El teclado tiene entre 99 y 147 teclas aproximadamente, y está dividido en cuatro

bloques:

1. Bloque de funciones: va desde la tecla F1 a F12, en tres bloques de

cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al

programa que esté abierto. Por ejemplo, en muchos programas al

presionar la tecla F1 se accede a la ayuda asociada a ese programa.

2. Bloque alfanumérico: está ubicado en la parte inferior del bloque de

funciones, contiene los números arábigos del 1 al 0 y el alfabeto

organizado como en una máquina de escribir, además de algunas teclas

especiales.

3. Bloque especial: está ubicado a la

derecha del bloque alfanumérico,

contiene algunas teclas especiales

como ImprPant, Bloq de

desplazamiento, pausa, inicio, fin,

insertar, suprimir, RePág, AvPág, y

las flechas direccionales que

permiten mover el punto de inserción

en las cuatro direcciones.

CAMARA

Page 16: Revista abner 2015

Una cámara web o cámara de red1 (en inglés: webcam) es una pequeña cámara

digital conectada a una computadora la cual puede capturar imágenes y

transmitirlas a través de Internet, ya sea a una página web o a otra u otras

computadoras de forma privada.

Las cámaras web necesitan una computadora para transmitir las imágenes. Sin

embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de

acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas de

las cámaras web se las denomina cámaras de red. Ambas son útiles en tareas de

seguridad, paravideovigilancia

También son muy utilizadas en mensajería instantánea y chat como

en Skype, Line, Hangouts etc. Por lo general puede transmitir imágenes en vivo,

pero también puede capturar imágenes o pequeños videos (dependiendo del

programa de la cámara web) que pueden ser grabados y transmitidos por Internet.

Dentro de la distinción tradicional de los accesiorios de PC, la cámara web es un

dispositivo de entrada, ya que por medio de él podemos transmitir imágenes hacia

la computadora, y tomarse fotos y editarlas

Además del uso cotidiano, es frecuente la aplicación de cámaras web de cierta

calidad en diferentes áreas de la investigación científica. Por ejemplo,

en astronomía amateur las cámaras web de cierta calidad pueden ser utilizadas

para registrar tomas da satélites lejanos y estrellas. Ciertas modificaciones pueden

lograr exposiciones prolongadas que permiten obtener imágenes de objetos tenues

de cielo profundo como galaxias, nebulosas, etc. En Psicología

cognitiva y Neuromarketing, se emplean

webcams modificadas para realizar

pruebas de seguimiento ocular