Ventajas y desventajas de una red de computadoras
Ventajas:
Permiten compartir el hardware: periféricos (impresoras, escáneres,
módems, etc.), dispositivos de almacenamiento, la CPU
incrementándose la capacidad de procesamiento. En una oficina con
cinco computadoras no sería necesario tener cinco impresoras láser,
por lo que también se reducen costos.
Permiten compartir programas de aplicación y datos: de esta manera
la información está centralizada, siendo el sistema mucho más rápido
y eficiente, la información se mantiene actualizada para todos los
usuarios que acceden a ella.
En un supermercado se comparte la información relacionada con los
precios de los productos, todas las cajeras acceden a una base de
datos donde se encuentran los precios de los productos. Si se desea
realizar una oferta se modifica solamente la base de datos y al
consultar el precio de cualquier caja se accede a la oferta.
También se pueden compartir programas como el procesador de
texto, planilla de cálculo, etc. No es necesario tener los programas
instalados en todas las computadoras. Por lo que también se reducen
costos.
Permiten que se pueda trabajar en grupo o colaborativamente: Es
decir que los usuarios de la red trabajen sobre un mismo documento
o en una pizarra en forma simultánea.
Esta forma de trabajo se conoce como Groupware, y se necesita
software especial para este propósito.
Se utiliza principalmente en entornos virtuales.
Desventajas:
Las principales desventajas tienen que ver con cuestiones éticas, si bien
están asociadas con dos aspectos:
1. La privacidad de la información: es todo lo relativo al uso que se le da,
o se hace, de la información que se tiene de los usuarios o clientes.
Desde la venta a otras empresas, la instalación de programas espías,
banners de publicidad, hasta el envió de publicidad no deseada a través
del correo electrónico.
2. La seguridad de la información: tiene que ver con el acceso no
autorizado. Puede ser física, en el caso de querer ingresar a las
instalaciones del centro de cómputos, o lógica en el caso del software,
al querer ingresar en el sistema violando nombre de usuario y
contraseña. Otra forma de atacar la seguridad de la red es a través de
virus.
Computadora
Computadora personal, vista del hardware típico.
1: Monitor
2: Placa principal
3: Microprocesador o CPU
4: Puertos IDE
5: Memoria RAM
6: Placas de expansión
7: Fuente de alimentación
8: Unidad de disco óptico
9: Unidad de disco duro, Unidad de estado sólido
10: Teclado
11: Ratón
Computadora de Escritorio.
Fuente de alimentación.
La computadora (del inglés: computar; y este del latín: computare,
'calcular'), también denominada computador u ordenador (del
francés: ordinateur; y este del latín: ordenador), es una máquina
electrónica que recibe y procesa datos para convertirlos en información
conveniente y útil. Una computadora está formada, físicamente, por
numerosos circuitos integrados y otros muchos componentes de apoyo,
extensión y accesorios, que en conjunto pueden ejecutar tareas diversas
con suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su
composición física (circuitos electrónicos, cables, gabinete, teclado,
etcétera) y su software, siendo ésta la parte intangible (programas,
datos, información, etcétera). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos,
una unidad central de procesamiento, una memoria principal y algún
periférico o dispositivo de entrada y otro de salida. Los dispositivos de
entrada permiten el ingreso de datos, la CPU se encarga de su
procesamiento (operaciones aritmético-lógicas) y los dispositivos de
salida los comunican a otros medios. Es así, que la computadora recibe
datos, los procesa y emite la información resultante, la que luego puede
ser interpretada, almacenada, transmitida a otra máquina o dispositivo
o sencillamente impresa; todo ello a criterio de un operador o usuario y
bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran
diversidad de tareas, esto la convierte en una máquina de propósitos
generales (a diferencia, por ejemplo, de una calculadora cuyo único
propósito es calcular limitadamente). Es así que, en base a datos de
entrada, puede realizar operaciones y resolución de problemas en las
más diversas áreas del quehacer humano (administrativas, científicas,
de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso
muchas cuestiones que directamente no serían resolubles o posibles sin
su intervención.
Básicamente, la capacidad de una computadora depende de sus
componentes hardware, en tanto que la diversidad de tareas radica
mayormente en el software que admita ejecutar y contenga instalado.
Si bien esta máquina puede ser de dos tipos diferentes, analógica o
digital, el primer tipo es usado para pocos y muy específicos
propósitos; la más difundida, utilizada y conocida es la computadora
digital (de propósitos generales); de tal modo que en términos
generales (incluso populares), cuando se habla de "la computadora" se
está refiriendo a computadora digital. Las hay de arquitectura mixta,
llamadas computadoras híbridas, siendo también éstas de propósitos
especiales.
En la Segunda Guerra mundial se utilizaron computadoras analógicas
mecánicas, orientadas a aplicaciones militares, y durante la misma se
desarrolló la primera computadora digital, que se llamó ENIAC; ella
ocupaba un enorme espacio y consumía grandes cantidades de energía,
que equivalen al consumo de cientos de computadores actuales
(PC’s).1 Los computadores modernos están basados en circuitos
integrados, miles de millones de veces más veloces que las primeras
máquinas, y ocupan una pequeña fracción de su espacio. 2
Computadoras simples son lo suficientemente pequeñas para residir en
los dispositivos móviles. Las computadoras portátiles, tales como
tabletas, notebooks, notebooks, ultrabooks, pueden ser alimentadas por
pequeñas baterías. Computadoras personales en sus diversas formas
son iconos de la Era de la información y son lo que la mayoría de la
gente considera como "computadoras". Sin embargo, los
computadores integrados se encuentran en muchos dispositivos
actuales, tales como reproductores MP4; teléfonos celulares; aviones
de combate, y, desde juguetes hasta robot industriales.
Componentes
Artículo principal: Arquitectura de computadoras
Las tecnologías utilizadas en computadoras digitales han evolucionado
mucho desde la aparición de los primeros modelos en los años 1940,
aunque la mayoría todavía utiliza la Arquitectura de von Neumann,
publicada por John von Neumann a principios de esa década, que otros
autores atribuyen a John Presper Eckert y John William Mauchly.
La arquitectura de Von Neumann describe una computadora con cuatro (4)
secciones principales: la unidad aritmético lógica, la unidad de control, la
memoria primaria, principal o central, y los dispositivos de entrada y salida
(E/S). Estas partes están interconectadas por canales de conductores
denominados buses.
Unidad central de procesamiento
Artículo principal: Unidad central de procesamiento
La unidad central de procesamiento (CPU, por sus siglas del inglés:
Central Processing Unit) consta de manera básica de los siguientes tres
elementos:
Un típico símbolo esquemático para una ALU: A y B son operandos; R es
la salida; F es la entrada de la unidad de control; D es un estado de la
salida.
La unidad aritmético lógica (ALU, por sus siglas del inglés:
Arithmetic-Logic Unit) es el dispositivo diseñado y construido para
llevar a cabo las operaciones elementales como las operaciones
aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y
operaciones de comparación o relacionales. En esta unidad es en
donde se hace todo el trabajo computacional.
La unidad de control (UC) sigue la dirección de las posiciones en
memoria que contienen la instrucción que el computador va a
realizar en ese momento; recupera la información poniéndola en la
ALU para la operación que debe desarrollar. Transfiere luego el
resultado a ubicaciones apropiadas en la memoria. Una vez que
ocurre lo anterior, la unidad de control va a la siguiente instrucción
(normalmente situada en la siguiente posición, a menos que la
instrucción sea una instrucción de salto, informando al ordenador de
que la próxima instrucción estará ubicada en otra posición de la
memoria).
Los registros: de datos, de memoria, registros constantes, de coma
flotante, de propósito general, de propósito específico.
Los procesadores pueden constar de además de las anteriormente citadas,
de otras unidades adicionales como la unidad de coma flotante.
Memoria primaria
Véanse también: Jerarquía de memoria, Memoria principal, Memoria
(Informática) y RAM.
La memoria principal (MP), conocida como memoria de acceso aleatorio
(RAM, por sus siglas del inglés: Random-Access Memory), es una
secuencia de celdas de almacenamiento numeradas, donde cada una es un
bit o unidad de información. La instrucción es la información necesaria
para realizar lo que se desea con el computador. Las «celdas» contienen
datos que se necesitan para llevar a cabo las instrucciones, con el
computador. El número de celdas varían mucho de computador a
computador, y las tecnologías empleadas para la memoria han cambiado
bastante; van desde los relés electromecánicos, tubos llenos de mercurio en
los que se formaban los pulsos acústicos, matrices de imanes permanentes,
transistores individuales a circuitos integrados con millones de celdas en un
solo chip se subdividen en memoria estática (SRAM) con seis transistores
por bit y la mucho más utilizada memoria dinámica (DRAM) un transistor
y un condensador por bit. En general, la memoria puede ser reescrita varios
millones de veces (memoria RAM); se parece más a una pizarra que a una
lápida (memoria ROM) que sólo puede ser escrita una vez.
Periféricos de Entrada, de Salida o de Entrada/Salida
Véanse también: Periférico (informática), Periférico de entrada y
Periférico de Entrada/Salida.
Los dispositivos de Entrada/Salida (E/S) sirven a la computadora para
obtener información del mundo exterior y/o comunicar los resultados
generados por el computador al exterior. Hay una gama muy extensa de
dispositivos E/S como teclados, monitores, unidades de disco flexible o
cámaras web.
Buses
Las tres unidades básicas en una computadora: la CPU, la MP y el
subsistema de E/S, están comunicadas entre sí por buses o canales de
comunicación:
Bus de direcciones, para seleccionar la dirección del dato o del
periférico al que se quiere acceder,
Bus de control, básicamente para seleccionar la operación a realizar
sobre el dato (principalmente lectura, escritura o modificación) y
Bus de datos, por donde circulan los datos.
Otros conceptos
En la actualidad se puede tener la impresión de que los computadores están
ejecutando varios programas al mismo tiempo. Esto se conoce como
multitarea, y es más común que se utilice el segundo término. En realidad,
la CPU ejecuta instrucciones de un programa y después tras un breve
periodo de tiempo, cambian a un segundo programa y ejecuta algunas de
sus instrucciones. Esto crea la ilusión de que se están ejecutando varios
programas simultáneamente, repartiendo el tiempo de la CPU entre los
programas. Esto es similar a la película que está formada por una sucesión
rápida de fotogramas. El sistema operativo es el programa que
generalmente controla el reparto del tiempo. El procesamiento simultáneo
viene con computadoras de más de un CPU, lo que da origen al
multiprocesamiento.
El sistema operativo es una especie de caja de herramientas lleno de
utilerías que sirve para decidir, por ejemplo, qué programas se ejecutan, y
cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema
operativo tiene otras funciones que ofrecer a otros programas, como los
códigos que sirven a los programadores, escribir programas para una
máquina sin necesidad de conocer los detalles internos de todos los
dispositivos electrónicos conectados.
En la actualidad se están empezando a incluir en las distribuciones donde
se incluye el sistema operativo, algunos programas muy usados, debido a
que es ésta una manera económica de distribuirlos. No es extraño que un
sistema operativo incluya navegadores de Internet, procesadores de texto,
programas de correo electrónico, interfaces de red, reproductores de
películas y otros programas que antes se tenían que conseguir e instalar
separadamente.
Los primeros computadores digitales, de gran tamaño y coste, se utilizaban
principalmente para hacer cálculos científicos. ENIAC, uno de los primeros
computadores, calculaba densidades de neutrón transversales para ver si
explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador
australiano, evaluó patrones de precipitaciones para un gran proyecto de
generación hidroeléctrica. Los primeros visionarios vaticinaron que la
programación permitiría jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también
usó los computadores para automatizar muchas de las tareas de recolección
y procesamiento de datos, que antes eran hechas por humanos; por ejemplo,
mantener y actualizar la contabilidad y los inventarios. En el mundo
académico, los científicos de todos los campos empezaron a utilizar los
computadores para hacer sus propios análisis. El descenso continuo de los
precios de los computadores permitió su uso por empresas cada vez más
pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a
emplear un gran número de pequeños computadores para realizar tareas que
antes eran hechas por computadores centrales grandes y costosos. La
reunión de varios pequeños computadores en un solo lugar se llamaba torre
de servidores[cita requerida]
.
Con la invención del microprocesador en 1970, fue posible fabricar
computadores muy baratos. Nacen los computadores personales (PC), los
que se hicieron famosos para llevar a cabo diferentes tareas como guardar
libros, escribir e imprimir documentos, calcular probabilidades y otras
tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante
correo electrónico e Internet. Sin embargo, la gran disponibilidad de
computadores y su fácil adaptación a las necesidades de cada persona, han
hecho que se utilicen para varios propósitos.
Al mismo tiempo, los pequeños computadores son casi siempre con una
programación fija, empezaron a hacerse camino entre las aplicaciones del
hogar, los coches, los aviones y la maquinaria industrial. Estos
procesadores integrados controlaban el comportamiento de los aparatos
más fácilmente, permitiendo el desarrollo de funciones de control más
complejas como los sistemas de freno antibloqueo en los coches. A
principios del siglo XXI, la mayoría de los aparatos eléctricos, casi todos
los tipos de transporte eléctrico y la mayoría de las líneas de producción de
las fábricas funcionan con un computador. La mayoría de los ingenieros
piensa que esta tendencia va a continuar.
Actualmente, los computadores personales son usados tanto para la
investigación como para el entretenimiento (videojuegos), pero los grandes
computadores aún sirven para cálculos matemáticos complejos y para otros
usos de la ciencia, tecnología, astronomía, medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la
PC o computadora personal y los llamados supercomputadores sea la
Workstation o estación de trabajo. Este término, originalmente utilizado
para equipos y máquinas de registro, grabación y tratamiento digital de
sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo
(traducido literalmente del inglés), se usa para dar nombre a equipos que,
debido sobre todo a su utilidad dedicada especialmente a labores de cálculo
científico, eficiencia contra reloj y accesibilidad del usuario bajo programas
y software profesional y especial, permiten desempeñar trabajos de gran
cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia,
un equipo orientado a trabajos personales, con capacidad elevada de
cálculo y rendimiento superior a los equipos PC convencionales, que aún
tienen componentes de elevado coste, debido a su diseño orientado en
cuanto a la elección y conjunción sinérgica de sus componentes. En estos
casos, el software es el fundamento del diseño del equipo, el que reclama,
junto con las exigencias del usuario, el diseño final de la Workstation.
Etimología de la palabra ordenador
PC con interfaz táctil.
La palabra española ordenador proviene del término francés ordinateur, en
referencia a Dios que pone orden en el mundo ("Dieu qui met de l'ordre
dans le monde").3 En parte por cuestiones de marketing, puesto que la
descripción realizada por IBM para su introducción en Francia en 1954
situaba las capacidades de actuación de la máquina cerca de la
omnipotencia, idea equivocada que perdura hoy en día al considerar que la
máquina universal de Turing es capaz de computar absolutamente todo.4 En
1984, académicos franceses reconocieron, en el debate Les jeunes, la
technique et nous, que el uso de este sustantivo es incorrecto, porque la
función de un computador es procesar datos, no dar órdenes.5 Mientras que
otros, como el catedrático de filología latina Jacques Perret, conocedores
del origen religioso del término, lo consideran más correcto que las
alternativas.3
El uso de la palabra ordinateur se ha exportado a los idiomas de España: el
aragonés, el asturiano, el gallego, el castellano, el catalán y el euskera. El
español que se habla en Iberoamérica, así como los demás idiomas
europeos, como el portugués, el alemán y el neerlandés, utilizan términos
derivados de computare.
Véase también
Portal:Informática. Contenido relacionado con Informática.
Hardware
Software
Firmware
Historia
Anexo:Historia de la computación
Historia del hardware
Historia del hardware de computadora (1960-presente)
Historia de las computadoras personales
Tipos de computadoras
Computadora analógica
Computadora híbrida
Supercomputadora
Computadora central
Minicomputadora
Microcomputadora
Computadora de escritorio
Computadora personal
Computadora doméstica
Multiseat
Computadora portátil
Tableta (computadora)
Subportátil
PC Ultra Móvil
PDA
Teléfono inteligente
Tabléfono
Cliente (informática)
Cliente liviano
Cliente pesado
Cliente híbrido
Sistema embebido
Componentes y periféricos
Placa base
Unidad central de procesamiento
Microprocesador
BIOS
Memoria de acceso aleatorio
Memoria de solo lectura
Memoria flash
Bus (informática)
Entrada/salida
Fuente eléctrica
Fuente de alimentación
Teclado
Ratón (informática)
Touchpad
Lápiz óptico
Pantalla táctil
Tableta digitalizadora
Monitor
Impresora
Tarjeta de sonido
Tarjeta gráfica
Unidad de procesamiento gráfico
Disco duro
Disquete
CD-ROM
DVD
Otros
Caja de computadora
Puerto serie
Puerto paralelo
PS/2 (puerto)
Universal Serial Bus
IEEE 1394
Tarjeta de red
Peripheral Component Interconnect
Hardware
Software
Programa informático
Aplicación informática
Sistema operativo
Sistema de archivos
Internet
Virtualización
World Wide Web
Referencias
1.
En 1946, ENIAC requería alrededor de 174 kW. En comparación, una
laptop moderna consume alrededor de 30 W; cerca de seis mil veces
menos. «Approximate Desktop & Notebook Power Usage». University of
Pennsylvania. Consultado el 29 de julio de 2014.
Las primeras computadoras tales como Colossus y ENIAC eran
capaces de procesar entre 5 y 100 operaciones por segundo. Un moderno
microprocesador puede procesar miles de millones de operaciones por
segundo, y muchas de estas operaciones son bastante más complejas que en
sus predecesoras. «Intel Core I7 Processor: Features». Intel Corporation.
Consultado el 29 de julio de 2014.
Etimología de la palabra ordenador (en francés).
Ben-Amram, Amir M. (2005). «The Church-Turing thesis and its
look-alikes». SIGACT News 36 (3): 113–114.
doi:10.1145/1086649.1086651. Consultado el 08-11-2009.
5. El uso de la palabra ordenador. El Mundo.es.
Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre
Computadora.
Wikcionario tiene definiciones y otra información sobre
computador.
Wikiquote alberga frases célebres de o sobre Computadora.
Wikilibro de Montaje y Mantenimiento de Equipos Informáticos.
El Diccionario de la Real Academia Española tiene una definición
para computador.
Información sobre qué es una computadora, en monografías.com
Partes de la computadora
1. Unidad central de proceso o CPU
2. Memoria RAM
3. El teclado
4. Monitor
5. Tipos de conexión
6. Valoración del rendimiento de un microprocesador
7. Conclusiones
8. Estructura interna de un disco duro
9. Qué es Internet?
Unidad central de proceso o CPU
(conocida por sus siglas en inglés, CPU), circuito microscópico que
interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso
de datos en las computadoras. Generalmente, la CPU es un
microprocesador fabricado en un chip, un único trozo de silicio que
contiene millones de componentes electrónicos. El microprocesador de la
CPU está formado por una unidad aritmético-lógica que realiza cálculos y
comparaciones, y toma decisiones lógicas (determina si una afirmación es
cierta o falsa mediante las reglas del álgebra de Boole); por una serie de
registros donde se almacena información temporalmente, y por una unidad
de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes
del usuario, acceder a los datos y presentar los resultados, la CPU se
comunica a través de un conjunto de circuitos o conexiones llamado bus. El
bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un
disco duro), los dispositivos de entrada (por ejemplo, un teclado o un
mouse) y los dispositivos de salida (por ejemplo, un monitor o una
impresora).
Funcionamiento de la CPU Cuando se ejecuta un programa, el registro de la CPU, llamado contador de
programa, lleva la cuenta de la siguiente instrucción, para garantizar que las
instrucciones se ejecuten en la secuencia adecuada. La unidad de control de
la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera
la siguiente instrucción desde la memoria. En una secuencia típica, la CPU
localiza la instrucción en el dispositivo de almacenamiento
correspondiente.
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se
almacena en el registro de instrucción. Entretanto, el contador de programa
se incrementa en uno para prepararse para la siguiente instrucción. A
continuación, la instrucción actual es analizada por un descodificador, que
determina lo que hará la instrucción. Cualquier dato requerido por la
instrucción es recuperado desde el dispositivo de almacenamiento
correspondiente y se almacena en el registro de datos de la CPU. A
continuación, la CPU ejecuta la instrucción, y los resultados se almacenan
en otro registro o se copian en una dirección de memoria determinada.
Memoria RAM
La memoria principal o RAM, abreviatura del inglés Randon Access
Memory, es el dispositivo donde se almacenan temporalmente tanto los
datos como los programas que la CPU está procesando o va a procesar en
un determinado momento. Por su función, es una amiga inseparable del
microprocesador, con el cual se comunica a través de los buses de datos.
Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo
coloca en la memoria y recién y recién después lo empieza a ejecutar. lo
mismo ocurre cuando necesita procesar una serie de datos; antes de poder
procesarlos los tiene que llevar a la memoria principal.
Esta clase de memoria es volátil, es decir que, cuando se corta la energía
eléctrica, se borra toda la información que estuviera almacenada en ella.
por su función, la cantidad de memoria RAM de que disponga una
computadora es una factor muy importante; hay programas y juegos que
requieren una gran cantidad de memoria para poder usarlos. otros andarán
más rápido si el sistema cuenta con más memoria RAM.
La memoria Caché
dentro de la memoria RAM existe una clase de memoria denominada
Memoria Caché que tiene la característica de ser más rápida que las otras,
permitiendo que el intercambio de información entre el procesador y la
memoria principal sea a mayor velocidad.
Memoria de sólo lectura o ROM
Su nombre vienen del inglés Read Only Memory que significa Memoria de
Solo Lectura ya que la información que contiene puede ser leída pero no
modificada. En ella se encuentra toda la información que el sistema
necesita para poder funcionar correctamente ya que los fabricantes guardan
allí las instrucciones de arranque y el funcionamiento coordinado de la
computadora. no son volátiles, pero se pueden deteriorar a causa de campos
magnéticos demasiados potentes.
Al encender nuestra computadora automáticamente comienza a funcionar la
memoria ROM. por supuesto, aunque se apague, esta memoria no se borra.
El BIOS de una PC (Basic Input Operative System) es una memoria ROM,
pero con la facultad de configurarse según las características particulares de
cada máquina. esta configuración se guarda en la zona de memoria RAM
que posee este BIOS y se mantiene sin borrar cuando se apaga la PC
gracias a una pila que hay en la placa principal.
Cuando la pila se agota se borra la configuración provocando, en algunos
equipos, que la máquina no arranque.
Algunas PC tienen la pila soldada a la placa principal por lo que el
cambio de la misma lo debe realizar personal técnico, ya que sino se
corre el riesgo de arruinar otros componentes.
Su Memoria basada en semiconductores que contiene instrucciones o
datos que se pueden leer pero no modificar. En las computadoras IBM
PC y compatibles, las memorias ROM suelen contener el software
necesario para el funcionamiento del sistema. Para crear un chip
ROM, el diseñador facilita a un fabricante de semiconductores la
información o las instrucciones que se van a almacenar.
El fabricante produce entonces uno o más chips que contienen esas
instrucciones o datos. Como crear chips ROM implica un proceso de
fabricación, esta creación es viable económicamente sólo si se producen
grandes cantidades de chips. Los diseños experimentales o los pequeños
volúmenes son más asequibles usando PROM o EPROM. El término ROM
se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y
EPROM.
El teclado nos permite comunicarnos con la computadora e ingresar la
información. Es fundamental para utilizar cualquier aplicación. El
teclado más común tiene 102 teclas, agrupadas en cuatro bloques:
teclado alfanumérico, teclado numérico, teclas de función y teclas de
control.
Se utiliza como una máquina de escribir, presionando sobre la tecla
que queremos ingresar.
Algunas teclas tienen una función predeterminada que es siempre la
misma, pero hay otras teclas cuya función cambia según el programa
que estemos usando
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por
IBM mediada la vida del PC/AT de esta compañía. Este diseño se ha
mantenido como teclado estándar de la línea PS/2, y se ha convertido
en la norma de producción de la mayoría de los teclados de los equipos
compatibles con IBM. El teclado extendido difiere de sus predecesores
por tener doce teclas de función en la parte superior, en lugar de diez a
la izquierda.
Tiene además teclas Control y Alt adicionales y un conjunto de teclas para
el movimiento del cursor y para edición entre la parte principal del teclado
y el teclado numérico. Otras diferencias incluyen cambios en la posición de
determinadas teclas, como Escape y Control, y modificaciones en las
combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado
extendido y su homónimo de Apple son similares en configuración y
diseño.
Las partes del teclado El teclado alfanumérico: Es similar al teclado de la máquina de escribir.
tiene todas las teclas del alfabeto, los diez dígitos decimales y los signos de
puntuación y de acentuación.
El teclado numérico: Para que funciones el teclado numérico debe estar
activada la función "Bloquear teclado numérico". Caso contrario, se debe
pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla
podemos observar que, en la esquina superior derecha del teclado, se
encenderá la lucecita con el indicador [Bloq Num] o [Num Lock].
Se parece al teclado de una calculadora y sirve para ingresar rápidamente
los datos numéricos y las operaciones matemáticas más comunes: suma,
resta, multiplicación y división.
Las teclas de Función Estas teclas, de F1 a F12, sirven como "atajos" para acceder más
rápidamente a determinadas funciones que le asignan los distintos
programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los
distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda
del programa que se esté usando en este momento.
Las teclas de Control Si estamos utilizando un procesador de texto, sirve para terminar un párrafo
y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se
usa para confirmar el dato que acabamos de ingresar y pasar al siguiente.
Estas teclas sirven para mover el cursor según la dirección que indica cada
flecha.
Sirve para retroceder el cursor hacia la izquierda, borrando
simultáneamente los caracteres.
Si estamos escribiendo en minúscula, al presionar esta tecla
simultáneamente con una letra, esta última quedará en mayúscula, y
viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula.
Es la tecla de tabulación. En un procesador de texto sirve para alinear
verticalmente tanto texto como números.
Esta tecla te permite insertar un carácter de manera que todo lo que
escribamos a continuación se irá intercalando entre lo que ya tenemos
escrito.
Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos
observar que, en la esquina superior del teclado, se encenderá la lucecita
con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de
encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá
automáticamente en mayúscula. para desactivarla basta con volverla a
pulsar.
La tecla alternar, al igual que la tecla control, se usa para hacer
combinaciones y lograr así ejecutar distintas acciones según el programa
que estemos usando.
En un procesador de texto sirve para borrar el carácter ubicado a la derecha
del cursor.
La tecla de control se usa en combinación con otras teclas para activar
distintas opciones según el programa que se esté utilizando.
Tanto el teclado como el ratón del ordenador nos permiten introducir datos
o información en el sistema. De poco nos sirven si no tenemos algún
dispositivo con el que comprobar que esa información que estamos
suministrando es correcta. Los monitores muestran tanto la información
que aportamos, como la que el ordenador nos comunica. Desde los
primeros que aparecieron con el fósforo verde, la tecnología ha
evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no
se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en
el tamaño y en la resolución que sean capaces de mostrar.
Monitor
La tecnología en la fabricación de monitores es muy compleja y no es
propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar
superficialmente para que sepáis cuáles son los parámetros que más os van
a interesar a la hora de elegir vuestro monitor. Estos parámetros son los
siguientes:
Tamaño
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas.
Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los
más habituales son los de 15 pulgadas aunque cada vez son más los que
apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los
de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las
tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de
hasta 1600x1280 pixels
Resolución
Un pixel es la unidad mínima de información gráfica que se puede mostrar
en pantalla. Cuantos más pixels pueda mostrar el monitor de más
resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir
que más elementos nos cabrán en ella. Es igual que si vivimos en un
estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2.
Nosotros somos los mismos, sólo que disponemos de más espacio. Si
trabajas con Windows la resolución ampliada es fundamental, puedes tener
mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a
la vez, sin tener que maximizar cada una cuando cambies a ellas, etc.
La resolución está íntimamente relacionada con las dimensiones del
monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay
algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x
1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy
reducido, siendo un engorro y además pagamos por unas características que
nunca utilizaremos. Para estas resoluciones ampliadas le recomendamos:
un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para
1280 x 1024 pixels.
Entrelazado
Es una técnica que permite al monitor alcanzar mayores resoluciones
refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo
malo de esta técnica es que produce un efecto de parpadeo muy molesto,
debido a que el tiempo de refresco no es lo suficientemente pequeño como
para mantener el fósforo activo entre las dos pasadas. Procure que su
monitor sea no-entrelazado.
Frecuencia de barrido vertical
El rayo de electrones debe recorrer toda la superficie de la pantalla
empezando por la esquina superior izquierda, y barriéndola de izquierda a
derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es
el número de veces que el cañón de electrones barre la pantalla por
segundo. ¿Por qué es tan importante este valor? Pues porque si es una
frecuencia baja, se hará visible el recorrido del haz de electrones, en forma
de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero
un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto
mayor sea el valor de este parámetro mejor, ya que permitirá mayores
resoluciones sin necesidad de entrelazar. La imagen será más nítida y
estable.
Tamaño del punto (Dot Pltch)
Un punto del monitor es la unidad mínima física que puede mostrarse en la
pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la
salida para que un pixel ajuste perfectamente con una o un conjunto de
estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy
pequeñas, menor será el tamaño del pixel lógico, con lo cual las
resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño
muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior
muestran resultados deficientes en resoluciones mayores a 800 x 600
pixels.
Existen otros parámetros interesantes, como por ejemplo la posibilidad de
almacenar configuraciones en la memoria del monitor, que sea de
exploración digital controlada por un microprocesador, la posibilidad de
desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen,
control de color, brillo y contraste, ahorro de energía, baja radiación, etc.
Existe una gran variedad de monitores en el mercado entre ellos están los
Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba,
Proview, etc.
Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768
optad por uno de 15 pulgadas y mirad muy bien las especificaciones del
entrelazado y tamaño del punto (sobre todo).
Filtros para el monitor
Si el monitor es importante para poder ver qué hacemos y lo que nos dice el
sistema, más importante son nuestros ojos y nuestra salud. Está demostrado
científicamente, y en la práctica, que trabajar ante un monitor produce
cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión
borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es
obligatorio en todos los centros de trabajo. El monitor emite una serie de
radiaciones y acumula en la pantalla electricidad estática, causantes de
estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos
de las radiaciones y de descargar la electricidad estática. Entre las
radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible
(luminosidad), y VLF y ELF (generadas por los campos electromagnéticos
que crea el sistema de alimentación). Entre las demás ventajas de instalar
un filtro frente a nosotros destacan la eliminación de los reflejos en la
pantalla, el aumento de la definición de los colores y caracteres y la
reducción de la cantidad de polvo y suciedad que se fija a la pantalla
(principalmente por el humo de tabaco) debido a la electricidad estática.
En el mercado existe una gran cantidad de filtros cuyo precio oscila entre
las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio,
aunque se justifica en el proceso de fabricación, concretamente en el
tratamiento del cristal. Los mejores están tratados por las dos caras, poseen
filtro ortocromático, un cable para la descarga de la electricidad estática
(generadas sobre todo al encender el monitor) y reducen la radiación
emitida hasta en un 99%.
La alternativa LCD
Últimamente se habla del avance de la tecnología LCD o cristal líquido,
llegando incluso a citarse como posible alternativa de futuro frente al
tradicional CRT. Ventajas como el ahorro de consumo y de espacio (LCD
posibilita la fabricación de pantalla extra-planas, de muy poca
profundidad), así como la prácticamente nula emisión de radiaciones,
aportan un gran interés a este tipo de dispositivos. No obstante, su elevado
costo unido a los continuos avances en la tecnología CRT hacen que, por el
momento, ésta última sea la opción más recomendable. En cualquier caso,
no hay que perder de vista esta alternativa; nunca se sabe...
Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de
cálculo y de controlar lo que pasa en el ordenador recibiendo información y
dando órdenes para que los demás elementos trabajen. Es el jefe del equipo
y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales
se habla de los procesadores Pentium MMX y Pentium II/III de Intel
además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86,
MII).
Tipos de conexión El rendimiento que dan los microprocesadores no sólo dependen de ellos
mismos, sino de la placa donde se instalan. Los diferentes micros no se
conectan de igual manera a las placas:
En las placas base más antiguas, el micro iba soldado, de forma que no
podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.
En las de tipo Pentium (Socket 7) normales el microprocesador se instala
en un zócalo especial llamado ZIF (Zero Insertion Force) que permite
insertar y quitar el microprocesador sin necesidad de ejercer alguna presión
sobre él. Al levantar la palanquita que hay al lado se libera el
microprocesador, siendo extremadamente sencilla su extracción. Estos
zócalos aseguran la actualización del microprocesador. Por ejemplo un
zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium
Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro.
Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el
Athlon (K7) de AMD van conectados de una forma similar a una tarjeta
gráfica o de sonido (por ejemplo). En los procesadores de Intel, el lugar
donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y
en el caso del K7 se instala en el SlotA. En ambos existen unas guías de
plástico que ayudan a que el microprocesador se mantenga en su posición.
Hay que mencionar que algunos procesadores Celeron utilizan la conexión
PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas
capacidades de ampliación y que sólo ofrece como ventaja un pequeño
ahorro en la compra del equipo.
Valoración del rendimiento de un microprocesador El microprocesador es uno de los componentes que hay que prestar más
atención a la hora de actualizarlo, ya que en su velocidad y prestaciones
suele determinar la calidad del resto de elementos. Esta afirmación implica
lo siguiente: por ejemplo, en un Pentium de baja gama es absurdo poner 8
Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama
también es absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay
que hacer una valoración de todos los elementos del ordenador,
actualmente en las tiendas suelen venderse digamos "motores de un
mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además
del microprocesador, la velocidad general del sistema se verá muy
influenciada (tanto o más que por el micro) debido a la placa base, la
cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro.
Profundizar sobre estos temas se escapa de esta sección de
microprocesadores, accede a la sección de componente en particular para
más información.
Hoy día, hay que fijarse el propósito de la utilización del ordenador para
elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los
típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y
16 Mb. de RAM es más que suficiente, al igual que para navegar por
Internet. Sin embargo, según sean más complejos los programas, más
complejos serán los equipos. Los programas multimedia y enciclopedias,
requieren un procesador Pentium de gama media. A los programas de
retoque fotográfico se les puede poner también un procesador Pentium de
gama media, aunque influirá sobre todo la memoria RAM (harán falta un
mínimo de 128 Mb. para un rendimiento óptimo, según nuestras pruebas).
Y últimamente se está incitando a la adquisición de equipos mejores debido
sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software
para visualizar DVDs (la tarea la realiza el micro conjuntamente con la
tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos
tridimensionales o la ejecución multitarea de servidores de red. Para esto,
nada es suficiente, por ello los micros son cada vez más y más rápidos y
complejos. Aunque si lo que quieres son juegos, mejor decántate por una
aceleradora 3D, ya que se tiene una experiencia mejor en un Pentium a 133
MHz con una Voodoo Graphics que en un Pentium II/K6-2 a 300 MHz sin
aceleradora. Lo ideal, lógicamente, es un PII/K6-2 con una aceleradora
gráfica
Y ya por último, diremos que el disipador + ventilador puede reducir la
temperatura del micro unos 40 grados centígrados y aumentar el
rendimiento un 30%. En los procesadores actuales este componente es
imprescindible para el funcionamiento del microprocesador, que de lo
contrario terminaría quemado.
Conclusiones Como conclusiones, veamos los procesadores que os recomendamos. de
una manera totalmente subjetiva.
Sobre los procesadores de Intel. El Celeron de Intel, alias "Covington", al
carecer de memoria caché L2, va bastante mal, incluso con un rendimiento
a veces inferior al Pentium MMX (el Celeron no es más que una estrategia
de Intel para que el mercado evolucione hacia el Slot 1). Por ello, descarta
el Celeron, ya que, aunque puede ser bueno para algunas tareas, le supera
algunos procesadores de otras marcas en el mismo nivel de precio, como el
K6 o el K6-2 de AMD (procura que no te vendan un ordenador Celeron
con una frase que se está volviendo bastante típica "Todo un Pentium II por
xxx ptas". Un procesador a considerar es el nuevo Celeron "A", alias
"Mendocino", el cual lleva 128 Kb. de caché L2, el cual tiene un
rendimiento prácticamente igual que el Pentium II de sus mismos MHz. Si
duda, este procesador reemplazará tanto a los Celeron como a los Pentium
II de sus mismos MHz (266-333 por ahora). También Intel posee unos
micros Celeron A con otro tipo de conexión, PPGA (similar al socket 8),
que ofrecen un ahorro a la hora de comprar la placa base, pero que
descartaremos sin dudarlo, ya que los micros están al mismo precio y el
socket PPGA ofrece capacidades de ampliación totalmente nulas. Sobre el
Pentium II, muy popular y extendido, es un micro muy interesante. Más
caro que el Mendocino y con rendimientos no muy superiores, ofrece muy
buenos resultados a la hora del trabajo en programas tridimensionales
gracias a la avanzada unidad de cálculo de coma flotante, así como una
buena ejecución de programas en entorno multitarea como Windows NT.
Sin embargo, en tareas más sencillas, como el uso de Windows 95/98 o los
programas de ofimática, se ven claramente superados por los procesadores
de AMD, mucho más económicos, como veremos dentro de poco. Sobre la
última baza de Intel, el Pentium III, en realidad no es más que un Pentium
II con nuevas instrucciones multimedia. Sin estas instrucciones, va
prácticamente igual que su predecesor y bajo ciertas situaciones peor (se ve
compensado por un aumento en los MHz). Los procesadores de Intel hasta
el Pentium III han sido superados de lejos por los micros de AMD,
veremos qué tal van los próximos de Intel: Coppermine (un Pentium III con
bus de 133 MHz, tecnología de 0,18 micras y 256 kb de caché L2 en el
micro a la misma velocidad de reloj). Sin embargo, en caso de querer hacer
una configuración multiprocesador (2 o 4 micros en adelante), sólo puede
hacerse con micros de Intel, ya que los AMD no soportan tales conexiones,
al menos hasta la llegada del Athlon (K7).
Y ya por último comentaremos los micros de AMD. Todo empezó por una
auténtica joya que dio y está dando mucha guerra a Intel: el K6-2 de AMD.
Este procesador incorpora la nueva tecnología 3D Now!, 21 nuevas
instrucciones en el procesador, la cual ha echo a Intel adelantar medio año
el lanzamiento de su procesador "Katmai" (el Pentium III, que no es más
que un Pentium II con MMX2). El K6-2 tiene un bus de 100 MHz, ancho
de transistor de 0,25 micras, soporta AGP y todo el resto de características
que tiene el Pentium II, pero en una plataforma Socket 7 como la del
Pentium II. Y el 3D Now! del K6-2 verdaderamente funciona, por lo menos
el Quake II va bastante más rápido en la versión especial para 3D Now!.
Con el 3D Now!, el rendimiento de un K6-2 a 300 Mhz pasa de igualar en
rendimiento de un Pentium II 300 a casi un Pentium II 400. Más
recientemente, AMD ha lanzado su nuevo K6-3. Más que un K6-2
mejorado, es un procesador totalmente nuevo, con un diseño especial de 3
tipos de memoria caché (L1 y L2 en el micro y L3 en la placa) que ha sido
el primer micro de AMD en superar en prácticamente todos los aspectos a
un Intel y en dejarle atrás, ya que el K6-2 tenía ciertas flaquezas en la
unidad de coma flotante (si el programa que ejecuta no usa 3DNow!) .
Actualmente es el micro más recomendable, de mejor calidad precio,
marcha mucho mejor que un K6-2 y la placa base es relativamente más
económica. Y la última bomba es el Athlon (K7) que aún no está a la venta,
pero que supera y deja muy muy atrás a micros de Intel en todos los
aspectos, incluida la unidad de cálculo de coma flotante.
Estructura interna de un disco duro
Tamaño de clúster y espacio disponible
Un cluster se trata de una agrupación de varios sectores para formar una
unidad de asignación. Normalmente, el tamaño de cluster en la FAT del
DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si
no fuera porque un cluster es la mínima unidad de lectura o escritura, a
nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo
de 10 Kb, estamos empleando un cluster completo, lo que significa que se
desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100
ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el
OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT
32, que subsana esta limitación, además de otros problemas.
Un disco duro se compone de muchos elementos; citaremos los más
importantes de cara a entender su funcionamiento. En primer lugar, la
información se almacena en unos finos platos o discos, generalmente de
aluminio, recubiertos por un material sensible a alteraciones magnéticas.
Estos discos, cuyo número varía según la capacidad de la unidad, se
encuentran agrupados uno sobre otro y atravesados por un eje, y giran
continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura,
uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie
del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas
(a título de curiosidad, podemos comentar que el diámetro de un cabello
humano es de unas 4.000 pulgadas). Estos cabezales generan señales
eléctricas que alteran los campos magnéticos del disco, dando forma a la
información. (dependiendo de la dirección hacia donde estén orientadas las
partículas, valdrán 0 o valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la
densidad de almacenamiento del mismo, ya que cuanto más cerca estén el
uno del otro, más pequeño es el punto magnético y más información podrá
albergar.
Algunos conceptos Antes hemos comentado que los discos giran continuamente a gran
velocidad; este detalle, la velocidad de rotación, incide directamente
en el rendimiento de la unidad, concretamente en el tiempo de
acceso. Es el parámetro más usado para medir la velocidad de un
disco duro, y lo forman la suma de dos factores: el tiempo medio de
búsqueda y la latencia; el primero es lo que tarde el cabezal en
desplazarse a una pista determinada, y el segundo es el tiempo que
emplean los datos en pasar por el cabezal.
Si se aumenta la velocidad de rotación, la latencia se reduce; en
antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo
que daba una latencia de 8,3 milisegundos. La mayoría de los discos
duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb
de latencia. Y actualmente, existen discos de alta gama aún más
rápidos, hasta 10.000 rpm.
Es preciso comentar también la estructura lógica del disco, ya que
contiene importantes conceptos que todos habréis oído; para
empezar, la superficie del disco se divide en una serie de anillos
concéntricos, denominados pistas. Al mismo tiempo, las pistas son
divididas en trames de una misma longitud, llamados sectores;
normalmente un sector contiene 512 bytes. Otro concepto es el de
cilindro, usado para describir las pistas que tienen el mismo número
pero en diferentes discos. Finalmente, los sectores suelen agruparse
en clusters o unidades de asignación. Estos conceptos son
importantes a la hora de instalar y configurar un disco duro, y
haremos uso de alguna de esta información cuando subamos al nivel
lógico del disco. Muchas placas base modernas detectan los discos
duros instalados, mientras que en otras más antiguas hay que meter
algunos valores uno por uno (siempre vienen escritos en una etiqueta
pegada en la parte superior del disco).
El estándar IDE "Integrated Drive Electronics", o IDE, fue creado por la firma
Western Digital, curiosamente por encargo de Compaq para una
nueva gama de ordenadores personales. Su característica más
representativa era la implementación de la controladora en el propio
disco duro, de ahí su denominación. Desde ese momento,
únicamente se necesita una conexión entre el cable IDE y el Bus del
sistema, siendo posible implementarla en la placa base (como de
hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486
VLB e inferiores). Igualmente se eliminó la necesidad de disponer de
dos cables separados para control y datos, bastando con un cable de
40 hilos desde el bus al disco duro. Se estableció también el término
ATA (AT Attachment) que define una serie de normas a las que
deben acogerse los fabricantes de unidades de este tipo.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de
varios métodos para realizar estos movimientos de datos, que veremos en el
apartado "Modos de Transferencia". La interfaz IDE supuso la
simplificación en el proceso de instalación y configuración de discos duros,
y estuvo durante un tiempo a la altura de las exigencias del mercado.
No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones
en su diseño. Dos muy importantes eran de capacidad de almacenamiento,
de conexión y de ratios de transferencia; en efecto, la tasa de transferencia
se iba quedando atrás ante la demanda cada vez mayor de prestaciones por
parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir
dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo
culpa suya, lo veremos en el apartado "El papel de la BIOS") no solía
exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para
llevarla a cabo que la compañía que lo creó?
Enhanced IDE
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital,
logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su
capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a
partir de los 10 Megas por segundo, según el modo de transferencia usado.
Además, se implementaron dos sistemas de traducción de los parámetros
físicos de la unidad, de forma que se pudiera acceder a superiores
capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas
innegables, ya que con mínimas modificaciones (aunque LBA exigía
también cambios en la BIOS del PC) se podían acceder a las máximas
capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían ser
instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a
fabricantes de sistemas y de BIOS a soportar los controladores secundarios
(dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca
usados hasta el momento, de forma que se pudieran montar una unidad y
otra esclava, configuradas como secundarias. Más aún, se habilitó la
posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo
pacíficamente en el sistema (más sobre esto en el apartado "Otros
términos"). A nivel externo, no existen prácticamente diferencias con el
anterior IDE, en todo caso un menor tamaño o más bien una superior
integración de un mayor número de componentes en el mismo espacio.
Periféricos de entrada de información. Son los elementos a través de los que se introduce información a la
computadora. En este apartado se encuentran el teclado, el ratón, los
scanners, etc.
Periféricos de almacenamiento de la información. Son subsistemas que permiten a la computadora almacenar, temporal o
indefinidamente, la información o los programas.
Los dispositivos de almacenamiento, llamados también memorias
auxiliares o masivas, son un soporte de apoyo para la computadora en la
realización de sus tareas, ya que puede enviar a ellos, temporalmente, desde
la memoria principal parte de la información que no van a utilizar en esos
momentos, dejando parte del área de trabajo libre para trabajar más
comodamente, y mantenerla almacenada hasta que sea necesaria su
utilización, momento en que la volverá a trasladar a la memoria principal.
Entre los dispositivos de almacenamiento se pueden destacar los discos
magnéticos y las cintas. Un elemento que está obteniendo cada vez mayor
aceptación es el CD-ROM.
Periféricos de salida de la información. Son los periféricos que transmiten los resultados obtenidos tras el proceso
de la información por la computadora al exterior del sistema informático
para que pueda ser utilizado por los seres humanos u otros sistemas
diferentes.
Las pantallas de computadora e impresoras conectadas a los sistemas
informáticos son los medios de representación de la información más
extendidos
Periféricos de comunicaciones.
Estos subsistemas están dedicados a permitir la conexión de la
computadora con otros sistemas informáticos a través de diversos medios;
el medio más común es la línea telefónica. El periférico de comunicaciones
más utilizado es el modem.
También existen periféricos que comparten características particulares de
varios de ellos
Internet ha supuesto una revolución sin precedentes en el mundo de la
informática y de las comunicaciones. Los inventos del telégrafo, teléfono,
radio y ordenador sentaron las bases para esta integración de capacidades
nunca antes vivida. Internet es a la vez una oportunidad de difusión
mundial, un mecanismo de propagación de la información y un medio de
colaboración e interacción entre los individuos y sus ordenadores
independientemente de su localización geográfica.
La Internet ha significado una revolución sin precedentes en el mundo de la
informática y de las comunicaciones y que ha transformado a la
humanidad. Han contribuido a ello los inventos del teléfono, la radio, los
satélites, las computadoras, dispositivos de hardware, los protocolos o
estándares de comunicaciones y software especializados, tales como
navegadores, correo electrónico, FTP, video conferencias, etc.
Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de
"estar a la última", sino por aprovechar las innegables y enormes
posibilidades que se abren y se presentan en este ámbito. Ya se habla de
ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer
cosas tan dispares como comprar entradas para conciertos, comunicarse
mediante correo electrónico, ver qué está ocurriendo en la Plaza de Bolivar
en este momento o consultar las imágenes que manda el Meteosat para
hacer nuestra propia predicción del tiempo.
Informarse de las posibilidades de Internet y de cómo acceder a ellas es el
primer paso para empezar a caminar por estas carreteras del futuro.
Qué es Internet?
Internet es una "red de redes" de ordenadores distribuidos por todo el
mundo. Quizá esto no signifique mucho para un usuario final, pero sí lo
hará el saber que esta red permite ejecutar un programa, ver un documento,
enviar un mensaje o cientos de cosas más a miles de kilómetros de
distancia y sin que el usuario sea consciente de ello.
Detrás de esta aparente simplicidad, se esconden millones de ordenadores
que funcionan con sistemas operativos distintos, y que están a su vez
conectados a redes más pequeñas, que muchas veces, nada tienen que ver
con lo que es Internet. Para que esta comunicación sea posible, es necesario
establecer una forma de "hablar" las máquinas, de manera que se puedan
entender entre ellas. Esto se consigue con una serie de protocolos (acuerdos
para comunicarse) estándar. Los más importantes son IP (Internet Protocol)
y TCP (Transmission Control Protocol).
El éxito y crecimiento de Internet se debe fundamentalmente a dos razones.
La primera e imprescindible, es el espectacular desarrollo en los últimos
años de las capacidades de procesamiento y almacenamiento de los
ordenadores, así como el gran aumento en la capacidad de transmisión de
las redes de las computadoras. La segunda se refiere a factores sociológicos
relacionados con la denominada "Sociedad de la Información", la cual
demanda día a día mayor cantidad de información de la forma más fiable,
rápida y segura posible.
PARA QUE SIRVE LA COMPUTADORA
Para que sirve la computadora, para realizar captura de textos, diseñar
imágenes, mediciones, cálculos, hasta para editar imágenes y vídeos,
películas, conexión a internet, transmitir información mediante wifi o
3g 4g. etc.
Actualmente tratar de dar una respuesta concreta a la interrogante, ¿para
que sirve la computadora? Cualquier persona le daría una respuesta
efectivamente concreta de acuerdo al uso personal que le da.
Por mi parte, te daré un respuesta amplía con respecto para que sirve la
computadora, de acuerdo al sistema operativo que tenga instalado las pc´s.
Con el pasar de los años los sistemas operativos se han multiplicado, así
como la presentación física de una computadora, ahora ya es normal ver a
una computadora en su presentación:
Computadora de escritorio.
Computadora portatil: Notebook, minicomputadora.
Tablet o Ipads.
Teléfonos inteligentes como los smartphones, blackberry,
Iphones,etc.
Y hasta en relojes de pulso con teléfono inteligente.
Para que sirve la computadora, según el sistema operativo
La importancia de diseños y para que sirve la computadora en nuestro
quehacer diario.
El conocer para que sirve la computadora con los sistemas operativo
como:
1. Windows.
2. GNU/Linux.
3. Unix.
4. MSDOS.
5. Mac – Os.
6. Symbian OS.
7. Android.
8. windows phone.
9. Blackberry OS.
10. Bada.
Nos permitirá saber con exactitud su aplicación y finalmente dar una
respuesta amplía y acertada de para que sirve la computadora.
Windows.- Es un sistema operativo creado por Microsoft. Y su paquetería
se renueva constantemente, tanto que posee una amplía variada para el uso
que el usuario requiera, las hay por su apariencia y capacidad, para el
usuario estudiante, para el usuario empresarial, etc. Con windows incluye
una paqueteria de office. Con el cual el estudiante o profesionista puede
desde realizar sencillas tareas como captura de texto con Word, hasta
diseñar carteles o periódicos con Publisher, inclusive un profesional de la
contabilidad o de alguien que maneje sus cuentas financieras o productos
puede ayudarse perfectamente con Excell. O bien editar fotos con paint o
crear dibujos. La desventaja con estos sistemas operativos es que son
altamente vulnerables a ataques de virus que se filtran por la conexión a
internet o bien mediante el traspaso de información por las memorias flash.
Aunque también por Cd´s o disquett en caso que algún usuario lo utilice
aun.
GNU/Linux.- Este sistema operativo básicamente está pensado para
personas con conocimientos avanzados en informática, y aunque es gratuito
y modificable. No cualquier persona puede usarlo. Tiene ventaja, porque no
se llena de virus. Y se debe a que la mayoría de los usuarios comunes
prefieren a windows. Con este sistema operativo se pueden realizar
múltiples tareas. Un ejemplo de ello es la realización de películas en 3D. Y
notable el uso de linux en servidores hosting, como aquellos que aloja sitios
webs.
Unix.- Las cualidades de este sistema operativo son de servidor, sistema de
pruebas, para aprender comandos, y más.
Mac OS.- Es un sistema menos complicado, intuitivo y fácil de usar, está
expuesto a menos ataques de virus. También permite su uso desde el
momento que lo enciendes a diferencia de Windows. Este sistema
operativo posee sus propios programas y por obvias razones no son
compatibles con la paqueteria de windows. Y su desventaja suele ser el
precio.
Para que sirve la computadora en la actualidad, como has podido leer con
las breves explicaciones de 4 sistemas operativos. Te darás cuenta que el
uso es infinito y todo depende del usuario.
Una computadora sirve para medir distancias de una galaxia a otra. Hasta
proyectar aproximaciones de impactos de asteriodes. O diseños de
arquitectos a gran escala. Todo depende de la capacidad y de los programas
que se ejecutan y que sean compatibles con los distintos sistemas
operativos con los cuales funcionaran para que sirve la computadora en
relación a su meta y para que ha sido construida.
Tipos de redes
1. Que es red?
2. Tipos de redes
3. Topologías
4. Protocolos
5. Modelo OSI 6. Fuentes consultadas
INTRODUCCIÓN
Este trabajo es una guía básica acerca de los conceptos fundamentales de
las redes computacionales; Así como a su vez, es un ayuda para aquellas
personas que desean reforzar sus conocimientos acerca de este tema.
QUE ES RED?
Existen varias definiciones acerca de que es una red, algunas de las cuales
son:
Conjunto de operaciones centralizadas o distribuidas, con el fin de
compartir recursos "hardware y software".
Sistema de transmisión de datos que permite el intercambio de
información entre ordenadores.
Conjunto de nodos "computador" conectados entre sí.
TIPOS DE REDES
Existen varios tipos de redes, los cuales se clasifican de acuerdo a su
tamaño y distribución lógica.
Clasificación segun su tamaño
Las redes PAN (red de administración personal) son redes pequeñas,
las cuales están conformadas por no más de 8 equipos, por ejemplo:
café Internet.
CAN: Campus Area Network, Red de Area Campus. Una CAN es una
colección de LANs dispersadas geográficamente dentro de un campus
(universitario, oficinas de gobierno, maquilas o industrias) pertenecientes a
una misma entidad en una área delimitada en kilometros. Una CAN utiliza
comúnmente tecnologías tales como FDDI y Gigabit Ethernet para
conectividad a través de medios de comunicación tales como fibra óptica y
espectro disperso.
Las redes LAN (Local Area Network, redes de área local) son las redes
que todos conocemos, es decir, aquellas que se utilizan en nuestra empresa.
Son redes pequeñas, entendiendo como pequeñas las redes de una oficina,
de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas
en las cuales cada estación se puede comunicar con el resto. Están
restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el
peor de los casos, se conoce. Además, simplifica la administración de la
red.
Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial
o UTP) al que están conectadas todas las máquinas. Operan a velocidades
entre 10 y 100 Mbps.
Características preponderantes:
Los canales son propios de los usuarios o empresas.
Los enlaces son líneas de alta velocidad.
Las estaciones están cercas entre sí.
Incrementan la eficiencia y productividad de los trabajos de oficinas
al poder compartir información.
Las tasas de error son menores que en las redes WAN.
La arquitectura permite compartir recursos.
LANs mucha veces usa una tecnología de transmisión, dada por un simple
cable, donde todas las computadoras están conectadas. Existen varias
topologías posibles en la comunicación sobre LANs, las cuales se verán
mas adelante.
Las redes WAN (Wide Area Network, redes de área extensa) son redes
punto a punto que interconectan países y continentes. Al tener que recorrer
una gran distancia sus velocidades son menores que en las LAN aunque
son capaces de transportar una mayor cantidad de datos. El alcance es una
gran área geográfica, como por ejemplo: una ciudad o un continente. Está
formada por una vasta cantidad de computadoras interconectadas (llamadas
hosts), por medio de subredes de comunicación o subredes pequeñas, con el
fin de ejecutar aplicaciones, programas, etc.
Una red de área extensa WAN es un sistema de interconexión de equipos
informáticos geográficamente dispersos, incluso en continentes distintos.
Las líneas utilizadas para realizar esta interconexión suelen ser parte de las
redes públicas de transmisión de datos.
Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de
tener acceso a mejores servicios, como por ejemplo a Internet. Las redes
WAN son mucho más complejas, porque deben enrutar correctamente toda
la información proveniente de las redes conectadas a ésta.
Una subred está formada por dos componentes:
Líneas de transmisión: quienes son las encargadas de llevar los bits entre
los hosts.
Elementos interruptores (routers): son computadoras especializadas
usadas por dos o más líneas de transmisión. Para que un paquete llegue de
un router a otro, generalmente debe pasar por routers intermedios, cada uno
de estos lo recibe por una línea de entrada, lo almacena y cuando una línea
de salida está libre, lo retransmite.
INTERNET WORKS: Es una colección de redes interconectadas, cada
una de ellas puede estar desallorrada sobre diferentes software y hardware.
Una forma típica de Internet Works es un grupo de redes LANs conectadas
con WANs. Si una subred le sumamos los host obtenemos una red.
El conjunto de redes mundiales es lo que conocemos como Internet.
Las redes MAN (Metropolitan Area Network, redes de área
metropolitana) , comprenden una ubicación geográfica determinada
"ciudad, municipio", y su distancia de cobertura es mayor de 4 Kmts. Son
redes con dos buses unidireccionales, cada uno de ellos es independiente
del otro en cuanto a la transferencia de datos. Es básicamente una gran
versión de LAN y usa una tecnología similar. Puede cubrir un grupo de
oficinas de una misma corporación o ciudad, esta puede ser pública o
privada. El mecanismo para la resolución de conflictos en la transmisión de
datos que usan las MANs, es DQDB.
DQDB consiste en dos buses unidireccionales, en los cuales todas las
estaciones están conectadas, cada bus tiene una cabecera y un fin. Cuando
una computadora quiere transmitir a otra, si esta está ubicada a la izquierda
usa el bus de arriba, caso contrario el de abajo.
Redes Punto a Punto. En una red punto a punto cada computadora puede
actuar como cliente y como servidor. Las redes punto a punto hacen que el
compartir datos y periféricos sea fácil para un pequeño grupo de gente. En
una ambiente punto a punto, la seguridad es difícil, porque la
administración no está centralizada.
Redes Basadas en servidor. Las redes basadas en servidor son mejores
para compartir gran cantidad de recursos y datos. Un administrador
supervisa la operación de la red, y vela que la seguridad sea mantenida.
Este tipo de red puede tener uno o mas servidores, dependiendo del
volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un
servidor de impresión, un servidor de comunicaciones, y un servidor de
base de datos, todos en una misma red.
Clasificación según su distribución lógica
Todos los ordenadores tienen un lado cliente y otro servidor: una máquina
puede ser servidora de un determinado servicio pero cliente de otro
servicio.
Servidor. Máquina que ofrece información o servicios al resto de los
puestos de la red. La clase de información o servicios que ofrezca
determina el tipo de servidor que es: servidor de impresión, de archivos, de
páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base
de datos...
Cliente. Máquina que accede a la información de los servidores o utiliza
sus servicios. Ejemplos: Cada vez que estamos viendo una página web
(almacenada en un servidor remoto) nos estamos comportando como
clientes. También seremos clientes si utilizamos el servicio de impresión de
un ordenador remoto en la red (el servidor que tiene la impresora
conectada).
Todas estas redes deben de cumplir con las siguientes características:
Confiabilidad "transportar datos".
Transportabilidad "dispositivos".
Gran procesamiento de información.
y de acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del
usuario, como son:
Compañías - centralizar datos.
Compartir recursos "periféricos, archivos, etc".
Confiabilidad "transporte de datos"aumentar la disponibilidad de la
información.
Comunicación entre personal de las mismas áreas.
Ahorro de dinero.
Home Banking.
Aportes a la investigación "vídeo demanda,line T.V,Game
Interactive".
TOPOLOGIAS
Bus: esta topología permite que todas las estaciones reciban la
información que se transmite, una estación trasmite y todas las
restantes escuchan.
Ventajas: La topologia Bus requiere de menor cantidad de cables para una
mayor topologia; otra de las ventajas de esta topologia es que una falla en
una estación en particular no incapacitara el resto de la red.
Desventajas: al existir un solo canal de comunicación entre las estaciones
de la red, si falla el canal o una estación, las restantes quedan
incomunicadas. Algunos fabricantes resuelven este problema poniendo un
bus pararelo alternativo, para casos de fallos o usando algoritmos para
aislar las componentes defectuosas.
Existen dos mecanismos para la resolución de conflictos en la transmisión
de datos:
CSMA/CD: son redes con escucha de colisiones. Todas las estaciones son
consideradas igual, por ello compiten por el uso del canal, cada vez que una
de ellas desea transmitir debe escuchar el canal, si alguien está
transmitiendo espera a que termine, caso contrario transmite y se queda
escuchando posibles colisiones, en este último espera un intervalo de
tiempo y reintenta nuevamente.
Token Bus: Se usa un token (una trama de datos) que pasa de estación en
estación en forma cíclica, es decir forma un anillo lógico. Cuando una
estación tiene el token, tiene el derecho exclusivo del bus para transmitir o
recibir datos por un tiempo determinado y luego pasa el token a otra
estación, previamente designada. Las otras estaciones no pueden transmitir
sin el token, sólo pueden escuchar y esperar su turno. Esto soluciona el
problema de colisiones que tiene el mecanismo anterior.
Redes en Estrella
Es otra de las tres principales topologías. La red se une en un único punto,
normalmente con control centralizado, como un concentrador de cableado.
Redes Bus en Estrella
Esta topología se utiliza con el fin de facilitar la administración de la red.
En este caso la red es un bus que se cablea físicamente como una estrella
por medio de concentradores.
Redes en Estrella Jerárquica
Esta estructura de cableado se utiliza en la mayor parte de las redes locales
actuales, por medio de concentradores dispuestos en cascada para formar
una red jerárquica.
Redes en Anillo
Es una de las tres principales topologías. Las estaciones están unidas una
con otra formando un círculo por medio de un cable común. Las señales
circulan en un solo sentido alrededor del círculo, regenerándose en cada
nodo.
Ventajas: los cuellos de botellas son muy pocos frecuentes
Desventajas: al existir un solo canal de comunicación entre las estaciones
de la red, si falla el canal o una estación, las restantes quedan
incomunicadas. Algunos fabricantes resuelven este problema poniendo un
canal alternativo para casos de fallos, si uno de los canales es viable la red
está activa, o usando algoritmos para aislar las componentes defectuosas.
Es muy compleja su administración, ya que hay que definir una estación
para que controle el token.
Existe un mecanismo para la resolución de conflictos en la transmisión de
datos:
Token Ring: La estación se conecta al anillo por una unidad de interfaz
(RIU), cada RIU es responsable de controlar el paso de los datos por ella,
así como de regenerar la transmisión y pasarla a la estación siguiente. Si la
dirección de cabecera de una determinada transmisión indica que los datos
son para una estación en concreto, la unidad de interfaz los copia y pasa la
información a la estación de trabajo conectada a la misma.
Se usa en redes de área local con o sin prioridad, el token pasa de estación
en estación en forma cíclica, inicialmente en estado desocupado. Cada
estación cuando tiene el token (en este momento la estación controla el
anillo), si quiere transmitir cambia su estado a ocupado, agregando los
datos atrás y lo pone en la red, caso contrario pasa el token a la estación
siguiente. Cuando el token pasa de nuevo por la estación que transmitió,
saca los datos, lo pone en desocupado y lo regresa a la red.
PROTOCOLOS
Características
Un protocolo es el conjunto de normas para comunicarse dos o más
entidades ( objetos que se intercambian información ) . Los elementos que
definen un protocolo son :
Sintaxis : formato , codificación y niveles de señal de datos .
Semántica : información de control y gestión de errores .
Temporización : coordinación entre la velocidad y orden secuencial
de las señales .
Las características más importantes de un protocolo son :
Directo/indirecto : los enlaces punto a punto son directos pero los
enlaces entre dos entidades en diferentes redes son indirectos ya que
intervienen elementos intermedios .
Monolítico/estructurado : monolítico es aquel en que el emisor tiene
el control en una sola capa de todo el proceso de transferencia . En
protocolos estructurados , hay varias capas que se coordinan y que
dividen la tarea de comunicación .
Simétrico/asimétrico : los simétricos son aquellos en que las dos
entidades que se comunican son semejantes en cuanto a poder tanto
emisores como consumidores de información . Un protocolo es
asimétrico si una de las entidades tiene funciones diferentes de la
otra ( por ejemplo en clientes y servidores ) .
Funciones
1. Segmentación y ensamblado :generalmente es necesario dividir los
bloques de datos en unidades pequeñas e iguales en tamaño , y este proceso
se le llama segmentación . El bloque básico de segmento en una cierta capa
de un protocolo se le llama PDU ( Unidad de datos de protocolo ) . La
necesidad de la utilización de bloque es por :
La red sólo admite la transmisión de bloques de un cierto tamaño .
El control de errores es más eficiente para bloques pequeños .
Para evitar monopolización de la red para una entidad , se emplean bloques
pequeños y así una compartición de la red .
Con bloques pequeños las necesidades de almacenamiento temporal son
menores .
Hay ciertas desventajas en la utilización de segmentos :
La información de control necesaria en cada bloque disminuye la eficiencia
en la transmisión .
Los receptores pueden necesitar interrupciones para recibir cada bloque ,
con lo que en bloques pequeños habrá más interrupciones .
Cuantas más PDU , más tiempo de procesamiento .
2. Encapsulado : se trata del proceso de adherir información de control al
segmento de datos . Esta información de control es el direccionamiento del
emisor/receptor , código de detección de errores y control de protocolo .
3. Control de conexión : hay bloques de datos sólo de control y otros de
datos y control . Cuando se utilizan datagramas , todos los bloques incluyen
control y datos ya que cada PDU se trata como independiente . En circuitos
virtuales hay bloques de control que son los encargados de establecer la
conexión del circuito virtual . Hay protocolos más sencillos y otros más
complejos , por lo que los protocolos de los emisores y receptores deben de
ser compatibles al menos .Además de la fase de establecimiento de
conexión ( en circuitos virtuales ) está la fase de transferencia y la de corte
de conexión . Si se utilizan circuitos virtuales habrá que numerar los PDU y
llevar un control en el emisor y en el receptor de los números .
4. Entrega ordenada : el envío de PDU puede acarrear el problema de que
si hay varios caminos posibles , lleguen al receptor PDU desordenados o
repetidos , por lo que el receptor debe de tener un mecanismo para
reordenar los PDU . Hay sistemas que tienen un mecanismo de numeración
con módulo algún número ; esto hace que el módulo sean lo
suficientemente alto como para que sea imposible que haya dos segmentos
en la red al mismo tiempo y con el mismo número .
5. Control de flujo : hay controles de flujo de parada y espera o de
ventana deslizante . El control de flujo es necesario en varios protocolos o
capas , ya que el problema de saturación del receptor se puede producir en
cualquier capa del protocolo .
6. Control de errores : generalmente se utiliza un temporizador para
retransmitir una trama una vez que no se ha recibido confirmación después
de expirar el tiempo del temporizador . Cada capa de protocolo debe de
tener su propio control de errores .
7. Direccionamiento : cada estación o dispositivo intermedio de
almacenamiento debe tener una dirección única . A su vez , en cada
terminal o sistema final puede haber varios agentes o programas que
utilizan la red , por lo que cada uno de ellos tiene asociado un puerto .
Además de estas direcciones globales , cada estación o terminal de una
subred debe de tener una dirección de subred ( generalmente en el nivel
MAC ) .
Hay ocasiones en las que se usa un identificador de conexión ; esto se hace
así cuando dos estaciones establecen un circuito virtual y a esa conexión la
numeran ( con un identificador de conexión conocido por ambas ) . La
utilización de este identificador simplifica los mecanismos de envío de
datos ya que por ejemplo es más sencillo que el direccionamiento global .
Algunas veces se hace necesario que un emisor emita hacia varias
entidades a la vez y para eso se les asigna un direccionamiento similar a
todas .
8. Multiplexación : es posible multiplexar las conexiones de una capa
hacia otra , es decir que de una única conexión de una capa superior , se
pueden establecer varias conexiones en una capa inferior ( y al revés ) .
9. Servicios de transmisión : los servicios que puede prestar un protocolo
son :
Prioridad : hay mensajes ( los de control ) que deben tener prioridad
respecto a otros .
Grado de servicio : hay datos que deben de retardarse y otros acelerarse (
vídeo ) .
Seguridad .
Protocolo CSMA/CD.
Carrier Sense Mutiple Acces with Collision Detection. En este tipo de red
cada estación se encuentra conectada bajo un mismo bus de datos, es decir
las computadoras se conectan en la misma línea de comunicación
(cablado), y por esta transmiten los paquetes de información hacia el
servidor y/o los otros nodos. Cada estacion se encuentra monitoriando
constantemente la línea de comunicación con el objeto de transmitir o
resibir sus mensajes.
Estándares para redes de la IEEE.
- IEEE 802.1
Estándar que especifica la relación de los estándares IEEE y su interacción
con los modelos OSI de la ISO, así como las cuestiones de
interconectividad y administración de redes.
- IEEE 802.2
Control lógico de enlace (LLC), que ofrece servicios de "conexión lógica"
a nivel de capa 2.
- IEEE 802.3
El comité de la IEEE 802. 3 definió un estándar el cual incluye el formato
del paquete de datos para EtherNet, el cableado a usar y el máximo de
distancia alcanzable para este tipo de redes. Describe una LAN usando una
topologia de bus, con un metodo de acceso al medio llamado CSMA/CD y
un cableado coaxial de banda base de 50 ohms capaz de manejar datos a
una velocidad de 10 Mbs.
- IEEE 802.3 10Base5.
El estándar para bus IEEE 802.3 originalmente fue desarrollado para cable
coaxial de banda base tipo Thick como muna norma para EtherNet,
especificación a la cual se hace referencia como 10Base5 y describe un bus
de red de compuesto por un cable coaxial de banda base de tipo thick el
cual puede transmitir datos a una velocidad de 10Mbs. sobre un máximo de
500 mts.
- IEEE 802.3 10Base2.
Este estándar describe un bus de red el cual puede transmitir datosa una
velocidad de 10 Mbs sobre un cable coaxial de banda base del tipo Thin en
una distancia máxima de 200 mts.
- IEEE 802.3 STARLAN.
El comité IEEE 802 desarrllo este estándar para una red con protocolo
CSMA el cual hace uso de una topología de estrella agrupada en la cual las
estrellas se enlazan con otra. También se le conoce con la especificación
10Base5 y describe un red la cual puede transmitir datos a una velocidad de
1 Mbs hasta una distancia de 500 mts. usando un cableado de dos pares
trenzados calibres 24.
- IEEE 802.3 10BaseT.
Este estándar describe un bus lógico 802.3 CSMA/CD sobre un cableado
de 4 pares trenzados el cual esta configurado físicamente como una estrella
distribuida, capas de transmitir datos a 10 Mbs en un máximo de distancia
de 100 mts.
- IEEE 802.4
Define una red de topología usando el método de acceso al medio de Token
Paassing.
- IEEE 802.5 Token Ring.
Este estándar define una red con topología de anillo la cual usa token
(paquete de datos) para transmitir información a otra. En una estación de
trabajo la cual envía un mensaje lo sitúa dentro de un token y lo direcciona
especificamente a un destino, la estacion destino copia el mensaje y lo
envía a un token de regreso a la estación origen la cual remueve el mensaje
y pasa el token a la siguiente estación.
- IEEE 802.6
Red de área metropolitana (MAN), basada en la topologia popuesta por la
University of Western Australia, conocida como DQDB (Distribuited
Queue Dual Bus) DQDB utiliza un bus dual de fibra óptica como medio de
transmisión. Ambos buses son unidireccionales, y en contra-sentido. Con
esta tecnologia el ancho de banda es distribuido entre los usuarios , de
acuerdo a la demanda que existe, en proceso conocido como "inserción de
ranuras temporales". Puesto que puede llevar transmisión de datos
síncronicos y asíncronicos, soporta aplicaciones de video, voz y datos.
IEEE 802.6 con su DQDB, es la alternativa de la IEEE para ISDN.
- IEEE 802.12
Se prevé la posibilidad de que el Fast EtherNet, adémdum de 802.3, se
convierta en el IEEE 802.12.
MODELO OSI
Definición
Modelo abierto para arquitecturas funcionales de red, periféricos , archivos
a compartir , utilidad de red.El sistema de comunicaciones del modelo OSI
estructura el proceso en varias capas que interaccionan entre sí . Un capa
proporciona servicios a la capa superior siguiente y toma los servicios que
le presta la siguiente capa inferior .De esta manera , el problema se divide
en subproblemas más pequeños y por tanto más manejables .
Para comunicarse dos sistemas , ambos tienen el mismo modelo de capas .
La capa más alta del sistema emisor se comunica con la capa más alta del
sistema receptor , pero esta comunicación se realiza vía capas inferiores de
cada sistema .La única comunicación directa entre capas de ambos sistemas
es en la capa inferior ( capa física ) .
Los datos parten del emisor y cada capa le adjunta datos de control hasta
que llegan a la capa física . En esta capa son pasados a la red y recibidos
por la capa física del receptor . Luego irán siendo captados los datos de
control de cada capa y pasados a una capa superior . Al final , los datos
llegan limpios a la capa superior .
Cada capa tiene la facultad de poder trocear los datos que le llegan en
trozos más pequeños para su propio manejo . Luego serán reensamblados
en la capa paritaria de la estación de destino .
Características
1. Arquitectura:
Conocimiento del trafico.
Trama - división de la información.
Paquete - todos los datos a ser enviados.
Segmento - Conjunto de trama.
2. Medio de Transmisión:
Nic - red
Asociación -router,bridge,gateway.
Tecnología - red "lan, wan,man".
3. Topología:
Distancia.
Distribución.
Enrutamiento
4. Capacidad mucha de banda:
Proceso estocastico.
Probabilidad de llegada.
Distribución "binomial- normal ".
Primitivas de servicio y parámetros
Las capas inferiores suministran a las superiores una serie de funciones o
primitivas y una serie de parámetros .La implementación concreta de estas
funciones está oculta para la capa superior ., ésta sólo puede utilizar las
funciones y los parámetros para comunicarse con la capa inferior( paso de
datos y control).
Características de las redes
23. mar
/
Gnu/Linux
/
9 comentarios
Las redes de computadoras nos
permiten interactuar entre 2 o más dispositivos entre sí a través de un
medio físico que se conoce como “cable” o también puede ser por medios
inalámbricos.
Principalmente usados para la compartición de recursos.
Y pueden encontrar mucha más información si buscan un poco.
Ahora bien de forma general podemos decir que las características de una
red serian:
Compartición de arhivos: Fue la razón principal para tener una red. Para
que se cumpla se requiere de un directorio compartido que pueda ser
accesado por muchos usarios de la red, junto a toda la lógica asociada para
que más de una persona no realice cambios conflictivos a un archivo al
mismo tiempo.
Compartición de impresoras: Con esto reducimos el número de
impresoras en la organización. Se hace necesario el uso de colas de
impresión para que las impresiones se lleven a cabo y de forma automática
enviar los trabajos en espera en dicha cola.
Servicios de aplicación: Así como se pueden compartir archivos o carpetas
en una red, se pueden comparti aplicaciones, las más comunes son
aplicativos de contabilidad. Si se requiere por ejemplo de instalar algún
programa en diversas computadoras de la red, en lugar de ir colocando el
CD-ROM en cada una, se puede tener una carpeta con el contenido del
mismo y ejecutar el instalador desde cada equipo.
Correo electrónico: Es un recurso bastante valioso y que incluso muchas
organizaciones no lo aprovechan al máximo. No solamente es útil para las
comunicaciones internas sino también para las externas.
Acceso remoto: Se usa principalmente para acceder desde el exterior a los
recursos de la red interna. Los usuarios la utilizan para ver sus archivos,
correo electrónico ya sea que se encuentren de viaje, desde su hogar, etc.
Por supuesto no son las únicas, pero las que más se usan hoy en día. Si se
encuentra dentro de una organización y su red no está operando como
debiera, busque replantearse si es lo que necesita, necesita que sea
reparada, modificada o ampliada. Las redes bien implementadas pueden ser
de gran ayuda y utilidad para la organización y con gusto se le puede
asesorar para su mejora.
COMO SE CONECTA A UNA RED
una es la red fisica: el cableado, las targetas de red, las
computadoras y demas equipos que utiliza la red para
trasmitir datos
la otra parte es la disposision logica de esos componentes
fisicos: las reglas que permiten a los componentes fisicos
trabajar en conjunto. en el trascurso de esta guia veremos las
subdivisiones
La parte fisica: el hardware
La red fisica para muchos es facil de ntender porque es la parte
visible ...el hardware (bueno para mi es un poco complicado todo lo
del hardware pero vamos a darle igual)
el hardware de una red esta formado por el cableado, las
targetas de red, las computadoras, los hubs y todo el material
adicional que permiteque la red funcione. si no sabes lo que son
algunas de esas cosas no te preocupes voy intertar explicarlo aunque
si queres ampliar los terminos podes preguntar en la seccion de
hardware..pero por ahora yo voy a definir XD
lo mas importante que se tiene que acordar es que la parte fisica de
la conectividad de redes es totalmente hardware. es algo
tangible que podes tocar o tener agarrado
Topologias fisicas
el aspecto fisico de la red, esta en su forma mas simple, construido
por cables (actualmente cables coaxiales los cuales son muy
similares a los que utilizan la tv por cable) tendidos entre las
computadoras y otros dispositivos de red. Los cables se
conectan a las NICs o targetas de interfaz de red que estan
istaladas en las computadoras; las NICs manejan la
interaccion de las computadoras con el resto de la red. con
estos dos componentes pueden crear una red sencilla basada
en lo que se llama red 10base2 con topologia de bus (vean la
figura)
las imagenes las saco de google simplemente porque no dispongo de
recursos para crearlas
nota: lo mas importante aqui no es que todas las redes utilicen
cableado coaxial (algunas no lo utilizan como lo veran mas tarde); lo
mas importante es que las redes ethernet mas sencillas - las mas
sencillas que existe- utilizan 10base2. los siguientes parrafos
comparan la topologia de bus con una topologia estrella. la cual se
utiliza para describir a las redes que se basan en UTP y que corren
sobre 10base-t o 100base-t
una topologia fisica es simplemente la forma en que se dispone
una red. existen 3 tipos de topologias: bus, anillo y estrella
las topologias bus y de estrella se utilizan a menudo en las redes
ethernet que son las mas populares; las topologias de anillo se
utilizan para token ring. que son menos populares pero igualmente
funcionales.
las redes FDDI (interfaz de datos distribuidos por fibra optica), que
corren a traves de los cables de fibra optica en lugar de cables de
cobre, utilizan una topologia compleja de estrella
las principales diferencias entre las topologías Ethernet, toquen ring y
FDDI estriban en la forma en que se hacen posible la comunicacion
entre computadoras. Sin embargo, para los propositos de este
ejemplo, todo lo que nesesitan saber es que ninguna de estas
topologias puede comunicarse directamente con las demas - es decir,
no coexisten en el mismo cable de red.-
asimismo, a ethernet ,token ring y FDDI se les conoce como
topologias logicas. A diferencia de las topologias fisicas, las cuales
pueden tocar y levantar, las topologias logicas no tienen que ver con
los alambre, el cableado y el hardware XD Las topologias logicas
son las reglas de transito para las redes
Topologias de bus
la ventaja de una red 10base2 con topologia de bus es su simplicidad
-es la mas sencilla que existe- una vez que las computadoras estan
fisicamente conectadas al alambre, todo lo que ustedes tienen que
hacer es instalar el software de red en cada computadora;
generalmente todas las computadoras seran capaces de verse entre
si sin dificultad. el lado malo de una red de bus es que tiene
muchos puntos de fallas. si uno de los dos enlaces entre cualquiera
de las computadoras se rompe, la red deja de funcionar
Topologias de estrella
Existen redes mas complejas contruidas con topologia de estrella. en
contraste con la topologia de bus en la que el cable corre de una
computadora a la otra. las redes con topologia de estrella tienen
una caja de conexiones llamada hub o concentrador en el
centro de la red. todas las computadoras se conectan al hub el
cual administra las comunicaciones entre computadoras. esta imagen
es una red 10base-t con topologia de estrella
se me hizo un poco complicado conseguir la imagen y esta no es del
todo explicativa...vamos a modificar algo....para empezar le dicen
estrella porque si estiran bien los cables de las maquinas con el hub
mas o menos quedaria una estrella y para seguir....para que sea
parecido a al primera imagen y mas explicativo reemplazen una
maquina por una impresora...si ya se la imaginaron veran que es algo
un poco sencillo todavia esto de las redes
aclaracion:10base2 es el estandar mas antiguo, utiliza cable coaxial,
parecodo al de la tv por cable. 10base-t se ve como un conector
telefonico de gran tamaño con muchas conexiones,ademas, estos
estandares no trabjan en conjunto sin equipo especial
no confundan una 10base2 con una 10base-t
las redes que estan construidas con una topologia de estrella
tiene un par de ventajas sobre la de topologia bus, la primera
y mas importante es la confiabilidad. en una red con topologia de
bus, desconectar una computadora es suficiente para que toda la red
colapse, en una red tipo estrella, ustedes pueden conectar
computadoras a pesar de que la red este operando sin causar
ninguna falla en la misma.
las rees topologia de estrella cuestan un poco mas que la de bus -
porque requieren un hub que es un hardware adicional- pero este
costo vala la pena debido al incremento en la confiabilidad inherente
a este diseño.
Topologia de anillo
en una topologia de anillo, la cual se utiliza en las redes token
ring y FDDI el cableado y la disposicion fisica son similares a los de
una topologia de estrella. sin embargo, en lugar de que la red de
anillo tenga un concentrador en el centro tiene un dispositivo
llamado MAU (unidad de acceso a multiestaciones). la MAU realiza
la misma tarea que el concentrador, pero en lugar de trabajar con
redes ethernet lo hace con redes token ring y maneja la
comunicacion entre computadoras de una manera ligeramente
distintas
esto es una red token ring (recuerden que para compararlo con las
otras redes cambien una estacion de trabajo por una impresora y ya
estaria)
En contraste con las demas topologias que mostre, las redes FDDI
operan sobre cables de fibra optica en lugar de cables de
cobre. la topologia de FDDI es muy similar a la de token ring, con
una exepcion: una sola computadora puede ser conectada a dos
concentradores MAUs, por la que si una conexion de red falla, la
otra puede reanudar automaticamente la tarea.
A los sistemas conectados a mas de un concentrador se les
denomina dual homed (la figura que viene a continuacion)
FDDI es muy rapida. sin embargo, su istalacion y operacion son muy
caras, por lo que normalmente se utiliza solo en aplicaciones de
alta tecnologia como terminales de corredores de bolsa y otras
aplicaciones que demanden la capacidad de enviar muchos datos a
traves de un alambre