OFIMATICA

70
“AÑO DE LA DIVERSIFICACIÓN PRODUCTIVA Y DEL FORTALECIMIENTO DE LA EDUCACIÓN” CENTRO DE ESTUDIOS: ALAS PERUANAS CATEDRA: OFIMATICA CATEDRATICO: WILMA PANDO BERRIOS NOMBRES Y APELLIDOS: PARIONA ESTRELLA NEYDE LITHSA CICLO: I CICLO 2015 1

description

computacion terminos basicos

Transcript of OFIMATICA

“AÑO DE LA DIVERSIFICACIÓN PRODUCTIVA Y DEL

FORTALECIMIENTO DE LA EDUCACIÓN”

CENTRO DE

ESTUDIOS:

ALAS PERUANAS

CATEDRA:

OFIMATICA

CATEDRATICO:

WILMA PANDO BERRIOS

NOMBRES Y APELLIDOS:

PARIONA ESTRELLA

NEYDE LITHSA

CICLO:

I CICLO

2015

1

INDICE

2

PRESENTACION

El presente trabajo consta de conceptos básicos que se debe saber para poder

empezar a estudiar la ofimática. En estas hojas podrán informarse sobre palabras

relacionadas con la computación y lo indispensable que es tener conocimiento sobre

esto ya que en el mundo actual el que no conoce de computación tiene una gran

desventaja ante todos los puestos de trabajo en la actualidad ya que el mundo está

modernizado, todo se basa a las computadoras y los usos del internet, la gran ayuda

que da a la humanidad en todos los aspectos tanto en el trabajo, el hogar, escuela,

etc.

Esperando que les sea de utilidad y de su agrado el presente trabajo.

3

DEDICATORIA:

Este trabajo esta dedicado a mis compañeros y a mis maestros que se esfuerzan siempre por nosotros.

1. ¿QUE ES UN DATO?

4

Datos son los hechos que describen sucesos y entidades."Datos" es una palabra

en plural que se refiere a más de un hecho. A un hecho simple se le denomina

"data-ítem" o elemento de dato. Los datos son comunicados por varios tipos de

símbolos tales como las letras del alfabeto, números, movimientos de labios,

puntos y rayas, señales con la mano, dibujos, etc. Estos símbolos se pueden

ordenar y reordenar de forma utilizable y se les denomina información.

Los datos son símbolos que describen condiciones, hechos, situaciones o valores.

Los datos se caracterizan por no contener ninguna información. Un dato puede

significar un número, una letra, un signo ortográfico o cualquier símbolo que

represente una cantidad, una medida, una palabra o una descripción.

La importancia de los datos está en su capacidad de asociarse dentro de un

contexto para convertirse en información. Por si mismos los datos no tienen

capacidad de comunicar un significado y por tanto no pueden afectar el

comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en

información para ofrecer un significado, conocimiento, ideas o conclusiones.

2. ¿QUE ES COMPUTACIÓN?

El término computación proviene del latín computatĭo. Permite hacer referencia al

cómputo como cuenta o cálculo, pero se usa habitualmente como sinónimo

de informática (del francés informatique). De esta manera, la computación es

el conjunto de conocimientos científicos y técnicas que permiten el tratamiento

automático de la información por medio de computadoras.

3. ¿QUE ES INFORMATICA?

La Informática es la ciencia aplicada que abarca el estudio y aplicación del

tratamiento automático de la información, utilizando sistemas computacionales,

generalmente implementados como dispositivos electrónicos. También está

definida como el procesamiento automático de la información.

4. RECURSOS Y COMPONENTES DE UN SISTEMA

COMPONENTES DE UN SISTEMA:

Gestión de procesos: Un proceso es simplemente, un programa en ejecución

que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y

dispositivos de E/S. El SO es el responsable de:

Crear y destruir procesos

5

Parar y reanudar procesos

Ofrecer mecanismos para que los procesos puedan comunicarse y se

sincronicen

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener

una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por

ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y

cuando se terminen seguir con las de prioridad media y después las de baja.

Una vez realizada la tarea se tacha. Esto puede traer un problema que las

tareas de baja prioridad pueden que nunca lleguen a ejecutarse y permanezcan

en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a

las tareas más antiguas.

Gestión de la memoria principal

La memoria es una gran tabla de palabras o bytes que se referencian cada una

mediante una dirección única. Este almacén de datos de rápido acceso es

compartido por la CPU y los dispositivos de E/S, es volátil y pierde su contenido

ante fallos del sistema. El SO es el responsable de:

Conocer qué partes de la memoria están siendo utilizadas y por quién

Decidir qué procesos se cargarán en memoria cuando haya espacio

disponible

Asignar y reclamar espacio de memoria cuando sea necesario

Gestión del almacenamiento secundario

Un sistema de almacenamiento secundario es necesario, ya que la memoria

principal (almacenamiento primario) es volátil y además muy pequeña para

almacenar todos los programas y datos. También es necesario mantener los

datos que no convenga mantener en la memoria principal. El SO se encarga

de:

Planificar los discos.

Gestionar el espacio libre.

Asignar el almacenamiento.

Verificar que los datos se guarden en orden

El sistema de entrada y salida

6

Consiste en un sistema de almacenamiento temporal (caché), una interfaz de

manejadores de dispositivos y otra para dispositivos concretos. El sistema

operativo debe gestionar el almacenamiento temporal de E/S y servir las

interrupciones de los dispositivos de E/S.

Sistema de archivos

Los archivos son colecciones de información relacionada, definidas por sus

creadores. Éstos almacenan programas (en código fuente y objeto) y datos

tales como imágenes, textos, información de bases de datos, etc. El SO es

responsable de:

Construir, eliminar archivos y directorios.

Ofrecer funciones para manipular archivos y directorios.

Establecer la correspondencia entre archivos y unidades de

almacenamiento.

Realizar copias de seguridad de archivos.

Existen diferentes sistemas de archivos, es decir, existen diferentes formas de

organizar la información que se almacena en las memorias (normalmente

discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT,

FAT32, ext3, NTFS, XFS, etc.

Desde el punto de vista del usuario estas diferencias pueden parecer

insignificantes a primera vista, sin embargo, existen diferencias muy

importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se

utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran

diferencia para un usuario que utilice una base de datos con bastante

información ya que el tamaño máximo de un fichero con un sistema de archivos

FAT32 está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el

tamaño es considerablemente mayor.

Sistemas de protección

Mecanismo que controla el acceso de los programas o los usuarios a los

recursos del sistema. El SO se encarga de:

Distinguir entre uso autorizado y no autorizado.

Especificar los controles de seguridad a realizar.

Forzar el uso de estos mecanismos de protección.

7

Sistema de comunicaciones

Para mantener las comunicaciones con otros sistemas es necesario poder

controlar el envío y recepción de información a través de las interfaces de red.

También hay que crear y mantener puntos de comunicación que sirvan a las

aplicaciones para enviar y recibir información, y crear y mantener conexiones

virtuales entre aplicaciones que están ejecutándose localmente y otras que lo

hacen remotamente.

Programas de sistema

Son aplicaciones de utilidad que se suministran con el SO pero no forman parte

de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas,

siendo algunas de las tareas que realizan:

Manipulación y modificación de archivos.

Información del estado del sistema.

Soporte a lenguajes de programación.

Comunicaciones.

Gestor de recursos

Como gestor de recursos, el sistema operativo administra:

La unidad central de procesamiento (donde está alojado el

microprocesador).

Los dispositivos de entrada y salida.

La memoria principal (o de acceso directo).

Los discos (o memoria secundaria).

Los procesos (o programas en ejecución).

Y en general todos los recursos del sistema.

5. MEMORIA:

En informática, la memoria es el dispositivo que retiene, memoriza o

almacena datos informáticos durante algún intervalo de tiempo. La memoria

proporciona una de las principales funciones de la computación moderna: el

almacenamiento de información y conocimiento. Es uno de los componentes

fundamentales de la computadora, que interconectada a la unidad central de

8

procesamiento (CPU, por las siglas en inglés de Central Processing Unit) y

los dispositivos de entrada/salida, implementan lo fundamental del modelo de

computadora de la arquitectura de von Neumann.

En la actualidad, «memoria» suele referirse a una forma de almacenamiento

de estado sólido, conocida como memoria RAM (memoria de acceso aleatorio;

RAM por sus siglas en inglés, de random access memory), y otras veces se

refiere a otras formas de almacenamiento rápido, pero temporal. De forma

similar, se refiere a formas de almacenamiento masivo, como discos ópticos, y

tipos de almacenamiento magnético, como discos duros y otros tipos de

almacenamiento, más lentos que las memorias RAM, pero de naturaleza más

permanente. Estas distinciones contemporáneas son de ayuda, porque son

fundamentales para la arquitectura de computadores en general.

6. PROCESADOR:

Este es el cerebro del computador. Dependiendo del tipo de procesador y

su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen

varias marcas y tipos, de los cuales intentaré darles una idea de sus

características principales.

Las familias (tipos) de procesadores compatibles con el PC de IBM usan

procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586

y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así

sino "Pentium", por razones de mercadeo.

7. CPU:

La unidad central de procesamiento (conocida por las siglas CPU,

del inglés: central processing unit), es el hardware dentro de

una computadora u otros dispositivos programables, que interpreta

las instrucciones de un programa informático mediante la realización de las

operaciones básicas aritméticas, lógicas y de entrada/salida del sistema. El

término en sí mismo y su acrónimo han estado en uso en la industria de la

Informática por lo menos desde el principio de los años 1960.1La forma,

el diseño y la implementación de las CPU ha cambiado drásticamente desde

los primeros ejemplos, pero su operación fundamental sigue siendo la misma.

Una computadora puede tener más de una CPU; esto se

llama multiprocesamiento. Todas las CPU modernas son microprocesadores, lo

9

que significa que contienen un solo circuito integrado (chip). Algunos circuitos

integrados pueden contener varias CPU en un solo chip; estos son

denominados procesadores multinúcleo. Un circuito integrado que contiene una

CPU también puede contener los dispositivos periféricos, y otros componentes

de un sistema informático; a esto se llama un sistema en un chip (SoC).

Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU),

que realiza operaciones aritméticas y lógicas, y la unidad de control (CU), que

extrae instrucciones de la memoria, las decodifica y las ejecuta, llamando a la

ALU cuando sea necesario.

No todos los sistemas computacionales se basan en una unidad central de

procesamiento. Una matriz de procesador o procesador vectorial tiene múltiples

elementos cómputo paralelo, sin una unidad considerada el "centro". En el

modelo de computación distribuido, se resuelven problemas mediante un

conjunto interconectado y distribuido de procesadores.

8. PLACA BASE:

La placa base, también conocida como placa madre, es la encargada de

interconectar y dar soporte físico a todos los dispositivos internos de tu

computadora.

Su importancia radica en que dependiendo de cual elijas estarás delimitando la

capacidad del equipo. De ella dependen todos los demás, como por ejemplo, la

cantidad de memoria RAM y el tipo que podrás usar, el número de

puertos USB o el número de unidades de disco duro.

9. BIOS:

El Basic Input/Output System (BIOS) o sistema básico de entrada/salida,

en computadoras IBM PC compatibles, también conocido como “System BIOS”,

“ROM BIOS”1 o “PC BIOS”, es un estándar de facto que define

la interfaz defirmware.2 El nombre se originó en 1975, en el Basic Input/Output

System usado por el sistema operativo CP/M. El software BIOS es instalado

dentro de la computadora personal (PC), y es el primer programa que se

ejecuta cuando se enciende la computadora. El propósito fundamental del

BIOS es iniciar y probar el hardware del sistema y cargar un gestor de

10

arranque o un sistema operativo de un dispositivo de almacenamiento de

datos. Además, el BIOS provee una capa de abstracción para el hardware, por

ejemplo, que consiste en una vía para los programas de aplicaciones y los

sistemas operativos interactúen con el teclado, el monitor y otros dispositivos

de entrada/salida. Las variaciones que ocurren en el hardware del sistema

quedan ocultos por el BIOS, ya que los programas usan servicios de BIOS en

lugar de acceder directamente al hardware. Los sistemas operativos modernos

ignoran la capa de abstracción provista por el BIOS y acceden al hardware

directamente.

El BIOS de la IBM PC/XT original no tenía interfaz con el usuario interactiva. Lo

mensajes de error eran mostrados en la pantalla, o codificados por medio de

una serie de sonidos. Las opciones en la PC y el XT se establecían por medio

de interruptores y jumpers en la placa base y en las placas de los periféricos.

Las modernas computadoras compatibles Wintel proveen una rutina de

configuración, accesible al iniciar el sistema mediante una secuencia de teclas

específica. El usuario puede configurar las opciones del sistema usando el

teclado y el monitor.

El software del BIOS es almacenado en un circuito integrado de memoria

ROM no-volátil en la placa base. Está específicamente diseñado para trabajar

con cada modelo de computadora en particular, interconectando con diversos

dispositivos que componen el conjunto de chips complementarios del sistema.

En computadores modernos, el BIOS está almacenado en una memoria flash,

por lo que su contenido puede ser reescrito sin remover el circuito integrado de

la placa base. Esto permite que el BIOS sea fácil de actualizar para agregar

nuevas características o corregir errores, pero puede hacer que la computadora

sea vulnerable a los rootkit de BIOS.

10. DISCO DURO:

La unidad de disco duro o unidad de disco rígido (en inglés: Hard Disk

Drive, HDD) es el dispositivo de almacenamiento de datos que emplea un

sistema de grabación magnética para almacenar archivos digitales. Se

compone de uno o más platos o discos rígidos, unidos por un mismo eje que

gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y

en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota

sobre una delgada lámina de aire generada por la rotación de los discos.

Es memoria no volátil.

11

El primer disco duro fue inventado por IBM, en 1956. A lo largo de los años,

han disminuido los precios de los discos duros, al mismo tiempo que han

multiplicado su capacidad, siendo la principal opción de almacenamiento

secundario para computadoras personales, desde su aparición en los años

1960.1 Los discos duros han mantenido su posición dominante gracias a los

constantes incrementos en la densidad de grabación, que se ha mantenido a la

par de las necesidades de almacenamiento secundario.1

Los tamaños también han variado mucho, desde los primeros discos IBM hasta

los formatos estandarizados actualmente: 3,5 pulgadas los modelos

para PC y servidores, y 2,5 pulgadas los modelos para dispositivos portátiles.

Todos se comunican con la computadora a través del controlador de disco,

empleando una interfaz estandarizada. Los más comunes hasta los años

2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado

en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido

masificándose el uso de los SATA. Existe además FC(empleado

exclusivamente en servidores).

Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato

de bajo nivel que defina una o más particiones. La operación de formateo

requiere el uso de una fracción del espacio disponible en el disco, que

dependerá del sistema de archivos o formato empleado. Además, los

fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la

capacidad de los mismos usando prefijos del Sistema Internacional, que

emplean múltiplos de potencias de 1000 según la normativa IEC e IEEE, en

lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y

son los usados por sistemas operativos de Microsoft. Esto provoca que en

algunos sistemas operativos sea representado como múltiplos 1024 o como

1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en

algunos sistemas operativos será representado como 465 GiB (es

decir gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB.

11. PUERTOS PERIFERICOS:

En informática, periférico es la denominación genérica para designar al

aparato o dispositivo auxiliar e independiente conectado a la unidad central de

procesamiento de la computadora.

12

Se consideran periféricos a las unidades o dispositivos de Hardware a través

de los cuales la computadora se comunica con el exterior, y también a los

sistemas que almacenan o archivan la información, sirviendo de memoria

auxiliar de la memoria principal.

Se considera periférico al conjunto de dispositivos que sin pertenecer al núcleo

fundamental de la computadora, formado por la Unidad central de

procesamiento(CPU) y la memoria central, permitan realizar operaciones de

entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU.

Estas tres unidades básicas en un computador, CPU, memoria central y el

subsistema de E/S, están comunicadas entre sí por tres buses o canales de

comunicación:

direcciones, para seleccionar la dirección del dato o del periférico al que se

quiere acceder,

control, básicamente para seleccionar la operación a realizar sobre el dato

(principalmente lectura, escritura o modificación) y

datos, por donde circulan los datos.

Clasificación de Periféricos:

A pesar de que el término periférico implica a menudo el concepto de

«adicional pero no esencial», muchos de ellos son elementos fundamentales

para un sistema informático. El monitor, es prácticamente el único periférico

que la gente considera imprescindible en cualquier computadora personal (no

lo fue en los primeros computadores) pero a pesar de ello, técnicamente no lo

es. El ratón o mouse es posiblemente el ejemplo más claro de este aspecto. A

principios de la década de 1990 no todas las computadoras personales incluían

este dispositivo. El sistema operativo MS-DOS, el más común en esa época,

tenía una interfaz de línea de comandos para la que no era necesario el

empleo de un ratón, todo se hacía mediante comandos de texto. Fue con la

popularización de Finder, sistema operativo de la Macintosh de Apple y la

posterior aparición de Windows cuando el ratón comenzó a ser un elemento

imprescindible en cualquier hogar dotado de una computadora personal.

Actualmente existen sistemas operativos con interfaz de texto que pueden

prescindir del ratón como, por ejemplo, algunos sistemas. El caso del teclado

es también emblemático, pues en las nuevas computadoras tabletas, sistemas

de juego o teléfonos móviles con pantalla táctil, el teclado se emula en la

13

pantalla. Inclusive en casos de adaptaciones especiales los teclados dejan de

ser el periférico de entrada más utilizado, llegando a desaparecer en algunos

casos por el uso de programas reconocedores de voz.

Los periféricos pueden clasificarse en las siguientes categorías principales:

Periféricos de entrada: captan y digitalizan los datos de ser necesario,

introducidos por el usuario o por otro dispositivo y los envían al ordenador para

ser procesados.

Periféricos de salida: son dispositivos que muestran o proyectan información

hacia el exterior del ordenador. La mayoría son para informar, alertar,

comunicar, proyectar o dar al usuario cierta información, de la misma forma se

encargan de convertir los impulsos eléctricos en información legible para el

usuario. Sin embargo, no todos de este tipo de periféricos es información para

el usuario. Un ejemplo: Impresora.

Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación

de la computadora con el medio externo.

Periféricos de almacenamiento: son los dispositivos que almacenan datos

e información por bastante tiempo. La memoria de acceso aleatorio no puede

ser considerada un periférico de almacenamiento, ya que su memoria es volátil

y temporal. Ejemplos: Disco duro, Memoria flash, Cinta magnética, Memoria

portátil, Disquete, Grabadora o lectora de: CD; DVD; Blu-ray; HD-DVD.

12. TARJETA RED:

La tarjeta de red, también conocida como placa de red, adaptador de

red o adaptador LAN, es el periférico que actúa de interfaz de conexión entre

aparatos o dispositivos, y también posibilita compartir recursos (discos

duros, impresoras, etcétera) entre dos o más computadoras, es decir, en

una red de computadoras.

En inglés, se denomina Network Interface Card o Network interface

controller (NIC), cuya traducción literal es «tarjeta de interfaz de red» (TIR).

14

Cada tarjeta de red tiene un número de identificación único, de 48 bits en

hexadecimal, llamado dirección MAC (Media Access Control; control de acceso

al medio). Estas direcciones únicas de hardware son administradas por el

“Instituto de Ingeniería Eléctrica y Electrónica” (IEEE, Institute of Electronic and

Electrical Engineers). Los tres primeros octetos (24 bits) del número MAC,

identifican al proveedor específico y es conocido como

número OUI (Organizationally unique identifier, identificador único de

organización), designado por IEEE, que combinado con otro número de 24 bits

forman la dirección MAC completa.

13. CONECTORES Y PUERTOS:

En informática, un puerto es una forma genérica de denominar a una interfaz a

través de la cual los diferentes tipos de datos se pueden enviar y recibir. La placa

madre o motherboard actual va eliminando paulatinamente los puertos

heredados desde que se diseñó la primera computadora de IBM. Por razones de

compatibilidad aún se pueden encontrar algunos puertos ya en desuso, pero las

nuevas máquinas ya no poseerán los típicos conectores serie, paralelo, ps2, etc.;

y en su lugar encontraremos puertos USB, Fireware o las nuevas tecnologías

que se incorporan constantemente.

Los conectores, normalmente denominados "conectores de entrada/salida" (o

conectores E/S) son interfaces para conectar dispositivos mediante cables.

Generalmente tienen un extremo macho con pines o pernos que sobresalen.

15

Este enchufe debe insertarse en una parte hembra (también denominada

socket), que incluye agujeros para insertar los pernos.

En el frente de la PC se pueden encontrar conectores tipo USB y de sonido. En

el panel trasero la placa madre de un equipo posee diferentes conectores de

entrada/salida.

Dependiendo de su antigüedad, las placas madre tienen algunos de estos

conectores:

Puerto serie, que utiliza un conector DB9 para conectar dispositivos más

antiguos.

Puerto paralelo, que utiliza un conector DB25 para conectar principalmente

impresoras antiguas.

Puerto de Juegos, que utiliza un conector DB15 para conectar principalmente

joystick o instrumentos musicales antiguos.

Conector RJ45 (denominado Puerto LAN o Puerto Ethernet) para conectar el

equipo a una red o un móden.

Conector PS/2, utilizado para conectar teclado y/o Mouse.

Conector VGA (denominado SUB-D15), utilizado para conectar el monitor.

Conector DVI, utiliza un conector DVI28 para conectar monitores LCD o de

plasma.

MiniJack (Entrada de línea, Salida de línea y micrófono) para conectar

parlantes, un sistema de sonido de alta fidelidad o un micrófono.

Puertos USB (1.1 baja velocidad, 2.0 alta velocidad 3.0 súper velocidad) para

conectar diferentes periféricos.

Puertos Fireware, utiliza el conector IEEE-1394 para conectar cámaras o

diferentes equipos.

CONECTOR DIN: EL conector DIN (o DIN5) es un conector con 5 pines o

pernos, que se utilizaba para conectar el teclado a los equipos. Fue

originariamente estandarizado por el  Deutsches Institut für

Normung (acrónimo DIN), la organización de estandarización alemana.

16

Los conectores consisten en una camisa metálica circular para proteger los pines

que sobresalen. La camisa metálica está dentada para que sea insertada con la

orientación correcta en su enchufe y prevenir de esta forma el daño en los

aparatos eléctricos. Todos los conectores macho (plugs) tienen un extremo de

metal con 13.2 mm de diámetro con bordes especiales para limitar la orientación

al ser insertados en conector hembra que posee la placa madre de la PC. El

conector DIN5 se volvió obsoleto con los nuevos conectores PS/2 y USB.

CONECTOR MINIDIN O PS/2: La introducción del PS/2 (formato mini DIN 6 de

IBM) inauguró la moda de utilizar conectores mini DIN para teclado y mouse.  El

nombre utilizado deriva de la serie de ordenadores IBM Personal System/2 que

es creada por IBM en 1987, y empleada para conectar ambos dispositivos. 

La comunicación en ambos casos es serial (bidireccional en el caso del teclado),

y controlada por microcontroladores situados en la placa madre. No han sido

diseñados para ser intercambiados en caliente, como los dispositivos plug and

play, por lo tanto es necesario apagar el equipo para realizar cualquier cambio.

Por lo general la ficha de color verde se utiliza para conectar el mouse y la de

color violeta se utiliza para conectar el teclado.

17

CONECTOR JACK O MINIJACK: Hay conectores Jack de varios

diámetros: 2,5 mm; 3,5 mm y

6,35 mm. Los usados en la

PC son los de 3,5 mm, también

llamados minijack.

Existen dos versiones de cada uno

de estos conectores:

Mono, utilizados para enviar sonido monofónico. Este tipo de enchufe tiene dos

contactos: una referencia, que se encuentra en el cuerpo del cable, y una señal

o canal de audio que se encuentra en la punta.

Estéreo, utilizados para enviar sonido estereofónico. Este tipo de enchufe tiene

tres contactos: Los dos primeros como su equivalente mono y también un anillo

adicional para enviar otro canal de audio.

tarjetas de sonido de las computadoras utilizan este

tipo de conectores, siempre de tipo hembra, al que

hay que conectar los parlantes u otros dispositivos

por medio de un conector macho Jack de 3,5 mm de

diámetro, como tienen varios conectores de este tipo, se utiliza un código de

colores para distinguirlos:

Celeste: entrada de línea para conectar diferentes

dispositivos.

Verde: salida de línea para conectar auriculares o parlantes

Rosa: entrada de micrófono.

Las computadoras dotadas de sistema de sonido

envolvente 5.1 usan además estas conexiones:

Gris: salida de línea para conectar los altavoces

delanteros

Negro: salida de línea para conectar los

altavoces traseros

Calabaza: salida de línea para conectar el altavoz central o el subwoofer

(subgrave)

18

CONECTOR RJ45: Es una interfaz física comúnmente usada para conectar

redes de cableado estructurado, (categorías 4, 5, 5e y 6). El conector RJ45 es

el conector principal utilizado en la actualidad con tarjetas de red Ethernet, que

transmite información a través de cables de par trenzado. Por este motivo, a

veces se le denomina puerto Ethernet. RJ

es un acrónimo inglés de Registered

Jack que a su vez es parte del Código Federal de Regulaciones de Estados

Unidos.

CONECTOR VGA: El conector VGA es el utilizado normalmente para conectar la

salida del monitor a la tarjeta gráfica de la PC. Aunque son conocidos como VGA

(Video Graphics Array), realmente los conectores actuales no trabajan bajo el

estándar VGA, que permite mostrar hasta un máximo de 256 colores de una

paleta de 262.144 colores, con una resolución máxima de 720x480 y un refresco

máximo de 70Hz, sino SVGA (Super Video Graphics Array), que permite una

resolución máxima de 1600x1200 y 16,7 millones de colores.

Estos dos sistemas utilizan el mismo tipo de conector, denominado VGA. El

conector de la tarjeta generalmente es de color azul:

Este tipo de conector se encuentra en la mayoría de las tarjetas gráficas y se

utiliza para enviar 3 señales analógicas al monitor, que corresponden a los

componentes de la imagen rojo, azul y verde: utiliza un conector tipo Mini Sub-D

(o SUB-D15) es un conector de 15 pines (con tres filas de 5 pines cada una)..

19

CONECTOR S-VIDEO: El conector S-video (Separate-Video o Vídeo separado,

también conocido como Y/C) es un conector utilizado en la trasmisión de video

analógico. El conector puede poseer 4 ó 7 pines. Se utiliza para conectar

televisores analógicos en la PC. Hay que tener en cuenta que la señal tiende a

degradarse cuando se utiliza un cable de más de 5 metros.

Dependiendo de la placa de video instalada en la computadora, es posible utilizar

un televisor como pantalla principal de visualización o utilizar la clonación de

imagen y ver en ambas pantallas (TV y PC) simultáneamente. Si se utiliza la

clonación, es posible configurar cada pantalla con distintas resoluciones.

INTERFAZ DVI: La interfaz DVI (Interfaz de video digital), que se encuentra en

algunas tarjetas gráficas, se utiliza para enviar digitalmente señales de video a

pantallas con una interfaz adecuada. Evitan los procesos de conversión digital-

analógica que reducen potencialmente la calidad y resultan innecesarios.

Pero no todos los monitores tienen este tipo de

conexión, por lo que hay en el mercado adaptadores DVI-VGA, ya que la

mayoría de las tarjetas gráficas están adoptando este tipo de conexión,

eliminando incluso en muchos casos las

conexiones VGA.

20

INTERFAZ HDMI: (Interfaz multimedia de alta definición) es una interfaz digital

para transferir datos multimedia de alta definición no comprimidos (audio y

video). Algunos la denominan "SCART de alta definición".

Lanzada por un grupo de fabricantes que incluye a Hitachi, Matsushita, Philips,

Silicon Image, Sony, Thomson y Toshiba, la interfaz HDMI se estandarizó en el

año 2002 como la versión 1.0, después se revisó en mayo de 2004 (versión

1.1) y finalmente en agosto de 2005 (versión 1.2). El estándar HDMI trae un

nuevo conector compacto, compatible con DVI (Interfaz de video digital), que

se asemeja a lo siguiente:

PUERTO SERIE: El puerto serie (también llamados RS-232, por el nombre del

estándar al que hacen referencia) fueron las

primeras interfaces que permitieron que los

equipos intercambien información con el "mundo

exterior". El término serial se refiere a los datos

enviados mediante un solo hilo: los bits se envían

uno detrás del otro

Originalmente, los puertos seriales sólo podían enviar datos, no recibir, por lo

que se desarrollaron puertos bidireccionales

21

Generalmente, en este puerto se conectaba el mouse utilizando un conector de

9 pines (conectores DB9):

PUERTO PARALELO:

La transmisión de datos paralela consiste

en enviar datos en forma simultánea por

varios canales (hilos). Los puertos

paralelos en los PC pueden utilizarse

para enviar 8 bits (un octeto)

simultáneamente por 8 hilos.

Los primeros puertos paralelos bidireccionales permitían una velocidad de 2,4

Mb/s. Sin embargo, los puertos paralelos mejorados han logrado alcanzar

velocidades mayores:

El EPP (puerto paralelo mejorado) alcanza velocidades de 8 a 16 Mbps

El ECP (puerto de capacidad mejorada), desarrollado por Hewlett Packard y

Microsoft. Posee las mismas características del EPP con el agregado de un

dispositivo Plug and Play que permite que el equipo reconozca los periféricos

conectados.

Los puertos paralelos, al igual que los seriales, se encuentran integrados a la

placa madre. Los conectores DB25 permiten la conexión con un elemento

exterior (por ejemplo, una impresora motivo por el cual se le conoce como el

"puerto de impresora" (abreviado LTP).

PUERTO MIDI o PUERTO DE JUEGOS (GAME PORT): Es un conector DB-

15 con la mayoría de sus conectores analógicos que se utiliza principalmente

para conectar palancas de mando (joysticks) y controles de juegos, aunque

dadas sus características analógicas, también es utilizado para adquisición de

22

datos como entrada analógica e inclusive para conectar un sintetizador MIDI

(Musical Instrument Digital Interface) externo, por lo cual usualmente se

encuentra

integrado en las

tarjetas de sonido

o, como sucede en

las tarjetas madre

tipo ATX, se encuentra dispuesto cerca de los conectores de sonido.

Generalmente es de color amarillo. Para usar un puerto de juegos con un

instrumento musical MIDI se necesita un cable (poco común) con un conector

macho y uno hembra DA-15 y dos conectores macho DIN 5-pines. Los drivers y

el hardware para las capacidades MIDI del puerto de juegos se centran en

torno al estándar de interfaz MIDI Roland MPU-401.

PUERTO FIREWARE: El bus FireWire fue introducido por Apple (con

antelación a USB), y más tarde fue estandarizado bajo la especificación IEEE

1394, referido como un bus serie de altas prestaciones. FireWire alcanza

velocidades de transferencia de 400 Mbps y permite la conexión de hasta 63

dispositivos. La mayoría de ventajas del USB están presentes en FireWire

(Plug & Play, conexión/desconexión sin apagar el PC, alimentación incluida en

el bus, etc.). Una primera diferencia se encuentra en el cable, que empaqueta

un total de 6 cables internos (2 para alimentación, y dos pares trenzados para

datos). Otra diferencia fundamental hace referencia a la topología del bus: en

lugar de emplear hubs, se emplea una configuración “en cadena”. En otras

palabras, los dispositivos se unen uno a otro formando una cadena, en la cual

es posible insertar más de un PC (haciendo posible que varias computadoras

accedan a los dispositivos conectados). Conectados a través de FireWire. La

información persiste en toda la cadena en formato digital y viaja a gran

velocidad, por lo que no se pierde calidad y el rendimiento es asombroso. El

estándar IEEE 1934a define dos conectores:

Conector 1394a-1995: Conector 1394a-2000, denominado mini-DV, ya

23

que se utiliza en algunas cámaras DV (Video

digital):

PUERTO USB: El USB (Bus de serie universal), como su nombre lo sugiere,

se basa en una arquitectura de tipo serial. Sin embargo, es una interfaz de

entrada/salida mucho más rápida que los puertos seriales estándar.

Pero además, USB nos proporciona un único conector para

solventar casi todos los problemas de comunicación con el exterior, pudiéndose

formar una auténtica red de periféricos de hasta 127 elementos, además

cuenta con la famosa característica PnP (Plug and Play) y la facilidad de

conexión "en caliente", es decir, que se pueden conectar y desconectar los

periféricos sin necesidad de reiniciar la computadora. Permite suministrar

energía eléctrica a dispositivos que no tengan un alto consumo y que no estén

a más de 5 metros, lo que elimina la necesidad de conectar dichos periféricos a

la red eléctrica, con sus correspondientes fuentes de alimentación, como ahora

ocurre por ejemplo con los modems externos o los mp3.

El estándar USB permite que los dispositivos se encadenen mediante el uso de

una topología en bus o de estrella. Por lo tanto, los dispositivos pueden

conectarse entre ellos tanto en forma de cadena como en forma ramificada. La

ramificación se realiza mediante el uso de cajas llamadas "concentradores" que

constan de una sola entrada y varias salidas. Algunos son activos (es decir,

suministran energía) y otros pasivos (la energía es suministrada por el

computadora). Debido a la longitud máxima de 5 metros del cable entre los dos

dispositivos y a la cantidad máxima de 5 concentradores (a los que se les

suministra energía), es posible crear una cadena de 25 metros de longitud.

Existen dos clases de conectores USB:

24

Conectores "Tipo A", que tienen forma

rectangular y se utilizan generalmente para

dispositivos que consumen poco ancho de

banda (como teclado, mouse, y cámara

Web).

Conectores "Tipo B", que tienen forma cuadrada y se utilizan generalmente

para dispositivos con altos requisitos de ancho de banda (como discos rígidos

externos).

14. CARACTERISTICAS Y PARTES DE LA TARJETA PRINCIPAL:

El principal componente en una placa base es la superficie sobre la cual se

encuentran todos lo demás componentes de las placas, este primer y principal

componente es el PBC o la tarjeta de circuito impreso, sobre esta tarjeta se

encuentran soldados las demás partes de la placa.

La soldadura que viene impresa en la placa base permite llevar las señales de

voltaje y todos los datos de los componentes.

En una placa base las principales característica que un usuario debe verificar

son:

Procesador

Socket

Factor o forma

Chipset

Memoria

Audio

Puertos I/O

Slots PCI

Puertos USB

Slot AGP

LAN

Características adicionales

25

PARTES DE LA TARJETA PRINCIPAL:

15.

SOFTWARE:

Se conoce como software al equipo lógico o soporte lógico de un sistema

informático, que comprende el conjunto de los

componentes lógicos necesarios que hacen posible la realización de tareas

específicas, en contraposición a los componentes físicos que son

llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones

informáticas; tales como el procesador de texto, que permite al usuario realizar

todas las tareas concernientes a la edición de textos; el llamado software de

sistema, tal como el sistema operativo, que básicamente permite al resto de los

programas funcionar adecuadamente, facilitando también la interacción entre

los componentes físicos y el resto de las aplicaciones, y proporcionando

una interfaz con el usuario.

El anglicismo "software" es el más ampliamente difundido al referirse a este

concepto, especialmente en la jerga técnica; en tanto que el término sinónimo

«logicial», derivado del término francés logiciel, es utilizado mayormente en

países y zonas de influencia francesa. Su abreviatura es Sw.

16. INTERNET:

26

Internet  es un conjunto descentralizado de redes de

comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo

cual garantiza que las redes físicas heterogéneas que la componen funcionen

como una red lógica única de alcance mundial. Sus orígenes se remontan

a 1969, cuando se estableció la primera conexión de computadoras, conocida

como Arpanet, entre tres universidades en California, en Utah y en Estados

Unidos. Uno de los servicios que más éxito ha tenido en Internet ha sido

la World Wide Web (WWW o la Web), hasta tal punto que es habitual la

confusión entre ambos términos. La WWW es un conjunto de protocolos que

permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta

fue un desarrollo posterior (1990) y utiliza Internet como medio de

transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la

Web: el envío de correo electrónico(SMTP), la transmisión de archivos

(FTP y P2P), las conversaciones en línea (IRC), la mensajería

instantánea y presencia, la transmisión de contenido y comunicación

multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines

electrónicos(NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o

los juegos en línea

17. RED DE COMPUTADORAS:

Una red de computadoras, también llamada red de ordenadores, red de

comunicaciones de datos o red informática, es un conjunto de equipos

informáticos y software conectados entre sí por medio de dispositivos

físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o

cualquier otro medio para el transporte de datos, con la finalidad de compartir

información, recursos y ofrecer servicios.

Como en todo proceso de comunicación se requiere de un emisor, un mensaje,

un medio y un receptor. La finalidad principal para la creación de una red de

computadoras es compartir los recursos y la información en la distancia,

asegurar la confiabilidad y la disponibilidad de la información, aumentar

la velocidad de transmisión de los datos y reducir el costo general de estas

acciones. Un ejemplo es Internet, la cual es una gran red de millones de

27

computadoras ubicadas en distintos puntos del planeta interconectadas

básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales

están definidos en varios estándares, siendo el más importante y extendido de

todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este

último, estructura cada red en siete capas con funciones concretas pero

relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud

de protocolos repartidos por cada capa, los cuales también están regidos por

sus respectivos estándares.

18. ESTACION DE TRABAJO:

En informática una estación de trabajo (en inglés workstation) es un

computador de altas prestaciones destinado para trabajo técnico o científico.

En una red de computadoras, es una computadora que facilita a los usuarios el

acceso a los servidores y periféricos de la red. A diferencia de una

computadora aislada, tiene una tarjeta de red y está físicamente conectada por

medio de cables u otros medios no guiados con los servidores. Los

componentes para servidores y estaciones de trabajo alcanzan nuevos niveles

de rendimiento informático, al tiempo que ofrecen fiabilidad, compatibilidad,

escalabilidad y arquitectura avanzada ideales para entornos multiproceso.

Lo de las computadoras en general, las computadoras promedio de hoy en día

son más poderosas que las mejores estaciones de trabajo de una generación

atrás. Como resultado, el mercado de las estaciones de trabajo se está

volviendo cada vez más especializado, ya que muchas operaciones complejas

que antes requerían sistemas de alto rendimiento pueden ser ahora dirigidas

a computadores de propósito general. Sin embargo, el hardware de las

estaciones de trabajo está optimizado para situaciones que requieren un alto

rendimiento y fiabilidad, donde generalmente se mantienen operativas en

situaciones en las cuales cualquier computadora personal tradicional dejaría

rápidamente de responder. Actualmente las estaciones de trabajo suelen ser

vendidas por grandes fabricantes de ordenadores como HP o Dell y utilizan

CPUs x86-64 como Intel Xeon o AMD Opteron ejecutando Microsoft

Windows o GNU/Linux. Apple Inc. y Sun Microsystems comercializan también

su propio sistema operativo tipo UNIX para sus workstations.

28

19. SERVIDOR WEB Y CORREO:

Un servidor web o servidor HTTP es un programa informático que procesa

una aplicación del lado del servidor, realizando conexiones bidireccionales y/o

unidireccionales y síncronas o asíncronas con el cliente y generando o

cediendo una respuesta en cualquier lenguaje o Aplicación del lado del cliente.

El código recibido por el cliente suele ser compilado y ejecutado por

un navegador web. Para la transmisión de todos estos datos suele utilizarse

algún protocolo. Generalmente se usa el protocolo HTTP para estas

comunicaciones, perteneciente a la capa de aplicación del modelo OSI. El

término también se emplea para referirse al ordenador que ejecuta el

programa.

Correo electrónico: (en inglés: e-mail), es un servicio de red que permite a los

usuarios enviar y recibir mensajes (también

denominados mensajes electrónicos o cartas digitales) mediante sistemas

de comunicación electrónica. Principalmente se usa este nombre para

denominar al sistema que provee este servicio en Internet, mediante el

protocolo SMTP, aunque por extensión también puede verse aplicado a

sistemas análogos que usen otras tecnologías. Por medio de mensajes de

correo electrónico se puede enviar, no solamente texto, sino todo tipo de

documentos digitales dependiendo del sistema que se use.

20. PROTOCOLO:

Un protocolo es un método estándar que permite la comunicación entre

procesos (que potencialmente se ejecutan en diferentes equipos), es decir, es

un conjunto de reglas y procedimientos que deben respetarse para él

envío y la recepción de datos a través de una redExisten diversosprotocolos de

acuerdo a cómo se espera que sea la comunicación. Algunos protocolos,

por ejemplo, se especializarán en el intercambio de archivos (FTP); otros

pueden utilizarse simplemente para administrar el estado de la transmisión y

los errores (como es el caso de ICMP), etc.

En Internet, los protocolos utilizados pertenecen a una sucesión de

protocolos o a un conjunto de protocolos relacionados entre sí. Este conjunto

de protocolos se denomina TCP/IP. Entre otros, contiene los siguientes

protocolos:

HTTP

29

FTP

ARP

ICMP

IP

TCP

UDP

SMTP

Telnet

NNTP

Protocolo de Internet (IP)

El Protocolo de Internet es un método de transmisión de datos por una red. Los

datos que se envían se dividen en "paquetes" individuales y completamente

independientes. Cada ordenador (o host) de Internet tiene como mínimo una

dirección que lo identifica de forma exclusiva y lo distingue de todos los demás,

y cada paquete de datos contiene la dirección del emisor y la del receptor. El

Protocolo de Internet garantiza que todos los paquetes de datos llegarán a la

dirección apropiada. IP es un protocolo sin conexión, lo cual significa que no

hay ninguna conexión establecida entre los extremos de la comunicación, por

lo que los paquetes se pueden enviar por rutas distintas y no necesitan llegar al

destino en el orden correcto. Una vez que los paquetes de datos han llegado al

destino correcto, otro protocolo, el Protocolo de control de transmisión (TCP),

los coloca en el orden correcto.

21. DIRECCION IP:´

Una dirección IP es una etiqueta numérica que identifica, de manera lógica y

jerárquica, a una interfaz (elemento de comunicación/conexión) de un

dispositivo (habitualmente una computadora) dentro de una red que utilice

el protocolo IP (Internet Protocol), que corresponde al nivel de red del modelo

OSI. Dicho número no se ha de confundir con la dirección MAC, que es un

identificador de 48 bits para identificar de forma única la tarjeta de red y no

depende del protocolo de conexión utilizado ni de la red. La dirección IP puede

cambiar muy a menudo por cambios en la red o porque el dispositivo

encargado dentro de la red de asignar las direcciones IP decida asignar otra IP

(por ejemplo, con el protocolo DHCP). A esta forma de asignación de dirección

IP se denomina también dirección IP dinámica (normalmente abreviado

30

como IP dinámica). Los sitios de Internet que por su naturaleza necesitan estar

permanentemente conectados generalmente tienen una dirección IP

fija (comúnmente, IP fija o IP estática). Esta no cambia con el tiempo. Los

servidores de correo, DNS, FTP públicos y servidores de páginas web

necesariamente deben contar con una dirección IP fija o estática, ya que de

esta forma se permite su localización en la red.

Las computadoras se conectan entre sí mediante sus respectivas direcciones

IP. Sin embargo, a los seres humanos nos es más cómodo utilizar otra

notación más fácil de recordar, como los nombres de dominio; la traducción

entre unos y otros se resuelve mediante los servidores de nombres de

dominio DNS, que a su vez facilita el trabajo en caso de cambio de dirección

IP, ya que basta con actualizar la información en el servidor DNS y el resto de

las personas no se enterarán, ya que seguirán accediendo por el nombre de

dominio.

22. ¿QUE ES INTERNET?

Podemos definir a Internet como una "red de redes", es decir, una red que no

sólo interconecta computadoras, sino que interconecta redes de computadoras

entre sí.  Una red de computadoras es un conjunto de máquinas que se

comunican a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia,

líneas telefónicas, etc.) con el objeto de compartir recursos.

De esta manera, Internet sirve de enlace entre redes más pequeñas y permite

ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene

la característica de que utiliza un lenguaje común que garantiza la

intercomunicación de los diferentes participantes; este lenguaje común

o protocolo (un protocolo es el lenguaje que utilizan las computadoras al

compartir recursos) se conoce como TCP/IP. Así pues, Internet es la "red de

redes" que utiliza TCP/IP como su protocolo de comunicación. Internet es un

acrónimo de INTERconected NETworks (Redes interconectadas).

Para otros, Internet es un acrónimo del inglés INTERnational NET, que

traducido al español sería Red Mundial.

23. HISTORIA DEL INTERNET:

31

Nikola Tesla (1856-1943), un ingeniero, poeta e inventor yugoslavo ya predijo

la existencia de un sistema energético de distribución mundial que permitiría

conectar todas las estaciones telefónicas del mundo, la difusión mundial de

información y noticias, correo y otros escritos, la reproducción y envío de

fotografías e imágenes, la implantación de un sistema de difusión musical, la

impresión a distancia y la implantación de un registro horario universal.

Tratándose de la Internet real, una de las influencias decisivas fue Vannevar

Bush, no sólo por sus ideas sobre el hipertexto, sino también por su labor

política y científica, ya que promovió las relaciones entre el gobierno federal de

los Estados Unidos, la comunidad científica norteamericana y los empresarios.

Así, se crearon la Fundación nacional de la ciencia (NSF, National Science

Foundation) y la Agencia de Proyectos avanzados de Investigación (ARPA,

Advanced Research Projects Agency). En 1957, el gobierno de los Estados

Unidos formó la agencia Advanced Research Projects Agency (ARPA), un

segmento del Departamento de Defensa encargado de asegurar el liderazgo

de los Estados Unidos en la ciencia y la tecnología con aplicaciones militares.

El motivo fue el lanzamiento por parte de los soviéticos del satélite Sputnik que

originó una crisis en la confianza americana. En 1969, ARPA estableció

ARPANET, la red predecesora de Internet. Durante los años 60, se

desarrollaron desarrollaron la mayoría de los protocolos para que

los ordenadores de una red se pudieran conectar entre sí. Se trataba de

establecer unas normas comunes que conformaran un lenguaje universal. El

Protocolo utilizado por aquel entonces por las máquinas conectadas a

ARPANET se llamó NCP (Network Control Protocol ó Protocolo de Control de

Red), pero con el tiempo dio paso a un protocolo más sofisticado: TCP/IP que,

de hecho, está formado no por uno, sino por varios protocolos, siendo los más

importantes el protocolo TCP (Transmission Control Protocol ó Protocolo de

Control de Transmisión) y el Protocolo IP (Internet Protocol ó Protocolo de

Internet). Los protocolos TCP/IP dividen la información en pequeños trozos o

"paquetes de información" que viajan de forma independiente y se ensamblan

de nuevo al final del proceso, mientras que IP es el encargado de encontrar la

ruta al destino.

En julio de 1961, Leonard Kleinrock del MIT, publicó el primer documento

sobre la teoría de conmutación de paquetes, en lugar de circuitos. Un año más

tarde, el psicólogo e informático J.C.R. Licklider del Massachusetts Institute of

Technology, comienza a difundir la idea de "trabajo en red" y el concepto de

32

"Galactic Network" (Red Galáctica) que concebía como una red interconectada

globalmente a través de la cual, cualquier persona pudiera acceder desde

cualquier lugar a datos y programas. A finales de 1962, Licklider se convierte

en el principal responsable del programa de investigación en ordenadores de

la DARPA y allí convence a sus sucesores Ivan Sutherland y Bob Taylor, y al

investigador del MIT Lawrence G. Roberts de la importancia del concepto de

"trabajo en red". Licklider creía que los ordenadores se podrían utilizar para

aumentar el pensamiento humano y sugirió que fuera establecida una red de

ordenadores que permitiera a los investigadores de ARPA comunicar

información de modo eficiente. De esta forma y casi al mismo tiempo confluyen

las ideas de Leonard Kleinrock del MIT que publica el artículo "Flujo de

Información en Redes Amplias de Comunicación", J.C.R. Licklider y W. Clark

que escriben "Comunicación hombre-ordenador" y Paul Baran que publica

"Redes de Comunicación Distribuida", en donde hablaba de redes conmutadas

por paquetes, sin punto único de interrupción.

En 1965 la Agencia de Proyectos de Investigación para la Defensa de Estados

Unidos (DARPA, U.S. Defense Advanced Research Projects

Agency), promueve un estudio sobre "Redes cooperativas de computadoras de

tiempo compartido", y al año siguiente, Larry Roberts del MIT, publica "hacia

una red cooperativa de computadoras de tiempo compartido" lo que da origen a

que en años sucesivos, se vayan presentando proyectos sobre redes

conmutadas por paquetes.

Es en 1965 cuando Larry Roberts conecta por medio de una línea telefónica

conmutada a baja velocidad, un ordenador TX2 en Massachusetts con un Q-32

situado en California. Esta fue la primera red de ordenadores y la demostración

de que los ordenadores de tiempo compartido podían trabajar juntos

correctamente, ejecutar programas y recuperar datos en la máquina remota.

También se comprobó que era preferible la conmutación de paquetes que la de

circuitos. 

Por su parte, Bob Taylor, director de la oficina de técnicas de proceso de

información (IPTO, Information Processing Techniques Office) entre 1966 y

1969, quería encontrar una manera eficiente que permitiera compartir recursos

informáticos a varios trabajadores de la IPTO. Recogió la vieja idea de Licklider

de una red y empleó a Larry Roberts para dirigir el proyecto. Roberts sería el

arquitecto principal de una nueva red de ordenadores que sería conocida como

ARPANET. Así, los principios de Internet estaban en curso.

33

A finales de 1966 Roberts se trasladó a la DARPA para desarrollar el concepto

de red de ordenadores y rápidamente confeccionó su plan para ARPANET,

publicándolo en 1967. En la conferencia en la que presentó el documento se

exponía también un trabajo sobre el concepto de red de paquetes a cargo

de Donald Davies y Roger Scantlebury del NPL. La realidad es que los

trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido

en paralelo sin que unos investigadores de un centro hubieran tenido

conocimiento del trabajo de los demás. La palabra packet (paquete) fue

adoptada a raíz del trabajo del NPL.

En Agosto de 1968, DARPA lanzó un RFQ (Request For Comments) para el

desarrollo de uno de sus componentes clave: los conmutadores de paquetes o

"interface message processors" (IMPs, procesadores de mensajes de interfaz).

Los mensajes deberían enviarse en paquetes, esto es, dividiéndose en

pequeños trozos de información que contendrían la dirección de destino pero

sin especificar una ruta específica para llegar, puesto que cada uno buscaría la

mejor manera de llegar por las rutas disponibles y el destinatario reensamblaría

todos los paquetes para reconstruir el mensaje original.

Curiosamente fue el Laboratorio Nacional de Física de Gran Bretaña quien

creó la primera red Experimental en 1968. Al año siguiente, el Pentágono

decide financiar su propio proyecto: ARPANET (Advanced Research Projects

Agency NETwork) que pretendía eliminar la existencia de cualquier "autoridad

central", para que la red no pudiera ser atacada. Se pensó, pues, en una red

descentralizada en donde cada ordenador conectado tuviera el mismo rango y

la misma capacidad para mandar y recibir información. Así, en

1969 DARPA y Rand Corporation desarrollan una red sin nodos centrales

basada en conmutación de paquetes. Se establece la primera red y el primer

ordenador host (servidor) en Estados Unidos en la Universidad de California

(UCLA) donde trabajaba Kleinrock. Poco más tarde aparecen 3 redes más.

El segundo nodo fue el del proyecto de Douglas Engelbart, "Augmentation of

Human Intelec" (Aumento del Intelecto Humano) que incluía NLS, el sistema de

hipertexto desarrollado en el Instituto de Investigación de Standford (SRI). El

SRI patrocinó el Network Information Center para mantener tablas de nombres

de host para la traducción de direcciones así como un directorio de RFCs

(Request For Comments). El primer mensaje de host a host fue enviado desde

el laboratorio de la UCLA donde trabajaba Leinrock al SRI. El tercer y cuarto

nodos se localizaron en las universidades de California y Utah. Así, a finales de

34

1969, 4 ordenadores host estaban conectados conjuntamente a ARPANET.

Este fue el origen de Internet.

En los años posteriores se fueron conectando más y más ordenadores a la

red ARPANET. En 1970, el Network Working Group (NWG) terminó el

protocolo host a host para ARPANET, denominado Network Control

Protocol (NCP, protocolo de control de red) y se comenzaron a desarrollar

aplicaciones, estándares y protocolos como telnet, ftp, protocolos de voz, etc.

Y empezaron a crearse nuevas redes alrededor del mundo, incluso redes

enlazadas de satélites, redes de paquetes por radio y otros tipos de redes. Sin

embargo, existía un problema, estas redes no podían comunicarse entre sí

porque usaban protocolos diferentes para la transmisión de datos.

En 1971 Ray Tomlinson, del BBN crea el primer programa para enviar correo

electrónico. Se trataba de un programa que combinaba el correo electrónico

con un programa de transferencia de ficheros. Ese mismo año, un grupo de

investigadores del MIT presentan la propuesta del primer "Protocolo para la

transmisión de archivos en Internet", se trataba de un protocolo muy sencillo

basado en el sistema de correo electrónico, pero sentó las bases para el futuro

protocolo de transmisión de ficheros (FTP).

En octubre de 1972, Kahn organizó la primera demostración pública

de ARPANET en la International Computer Communication Conference y a

partir de ahí comienza la carrera de las instituciones académicas por

conectarse a la red.

La red propuesta por Bob Kahn antes de su llegada a DARPA era una red de

arquitectura abierta en donde las redes individuales eran diseñadas y

desarrolladas separadamente y cada una podía tener su propia y única

interfaz, diseñada a la medida de su destino y función y de las necesidades de

sus usuarios. El trabajo de Kahn -un sistema de paquetería por radio- se

convirtió en un programa separado llamado Internetting que utilizaba un

protocolo extremo a extremo que intentaba mantener la comunicación efectiva

35

frente a los cortes e interferencias de radio, pérdidas o bloqueos. Sin embargo,

Kahn se dio cuenta de que necesitaba  saber los detalles de cada sistema

operativo para poder incluir nuevos protocolos de manera eficiente  en un

entorno de arquitectura abierta y le pidió Vinton Cerf, de la Universidad de

Stanford, que trabajaran juntos en el diseño de un verdadero protocolo de

comunicaciones.

En 1974, Vinton Cerf y  Bob Kahn, publican "Protocolo para

Intercomunicación de Redes por paquetes", donde especifican en detalle el

diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP,

Transmission Control Protocol). La naturaleza descentralizada de ARPANET y

la disponibilidad gratuita de los programas basados en TCP/IP fue lo que

permitió que en 1977, otro tipo de redes no vinculadas  a ARPANET,

empezaran a conectarse. Aparecen entonces las primeras referencias a

Internet, como "una serie de redes conectadas entre sí, específicamente

aquellas que utilizan el protocolo TCP/IP". Internet es la abreviatura

de Interconnected Networks, es decir, Redes interconectadas, o red de redes.

La puesta en marcha del protocolo TCP permitió a las diversas redes

conectarse en una verdadera red de redes, por eso se conoce a Vinton Cerf

como el padre de Internet.

En 1979 ARPA crea la primera comisión de control de la configuración de

Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control

Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982,

sustituyendo a NCP.

TCP/IP había sido adoptado como un estándar por el ejército norteamericano.

Esto permitió al ejército empezar a compartir la tecnología DARPA basada en

Internet y llevó a la separación final entre las comunidades militares y no

militares. En 1983 ARPANET estaba siendo usada por un número significativo

de organizaciones operativas y de investigación y desarrollo en el área de la

defensa. La transición desde NCP a TCP/IP en ARPANET permitió que el

segmento militar se separara del segmento de la investigación.

Así, en 1983, el segmento militar de ARPANET decide formar su propia red

denominada MILNET. Y ya, sin fines militares, ARPANET abre las puertas a

universidades, empresas y todo tipo de instituciones. Desde ese momento

ARPANET, y todas sus redes asociadas empiezan a ser conocidas como

Internet. En 1984 la NSF  (National Science Foundation) Fundación Nacional

para la Ciencia dio acceso a sus seis centros de supercomputación a otras

universidades a través de la ARPANET. La NSF inicia una nueva "red de

36

redes" a través de nuevas y más rápidas conexiones. Esta red se le conoció

como NSFNET y adoptó también como protocolo de comunicación a TCP/IP. A

partir de ahí se conectan más y más redes e, incluso, aparecieron nuevas

redes como USENET y BitNet. La interconexión de todas ellas dio lugar a

Internet.

Desde entonces, el desarrollo y extensión de Internet es imparable. Cada vez

se conectan más máquinas a la red, y se van mejorando los servicios. Por

ejemplo, en 1985 se termina el desarrollo del protocolo FTP (File transfer

protocol) para la transmisión de ficheros en Internet, basado en la filosofía de

cliente-servidor.

En 1987 es cuando empieza la verdadera explosión de Internet y ese año se

incorporan diversas redes de Europa. Aparece la primera aplicación informática

de hipertexto de uso popular, Hypercard para Macintoch.

A NSFNET empezaron a conectarse no solamente centros de

supercomputación, sino también instituciones educativas con redes más

pequeñas. El crecimiento exponencial que experimentó NSFNET así como el

incremento continuo de su capacidad de transmisión de datos, determinó que

la mayoría de los miembros de ARPANET terminaran conectándose a esta

nueva red y en 1989, ARPANET se declara disuelta.

Como el modelo original estaba previsto para un conjunto muy reducido de

redes de ámbito nacional, se usó la dirección IP de 32 bits, de la cual los

primeros 8 identificaban la red y los restantes 24 designaban el host  o servidor

dentro de dicha red. Entonces se pensó que 256 redes serían suficientes,

puesto que no se había previsto la proliferación de LANs y mucho menos la de

PCs y estaciones de trabajo. Por su parte, Ethernet estaba desarrollándose en

el PARC de Xerox desde 1973 por Bob Metcalfe y, lo que antes eran unas

pocas redes con un número muy reducido de servidores, se convierte ahora en

un gran número de redes con numerosos servidores.

Así pues, eran precisos nuevos cambios tecnológicos para atender a la nueva

situación. Lo primero que se hizo fue definir los tipos de redes A, B y C. El tipo

A representaba a las grandes redes de escala nacional (pocas redes con

muchos ordenadores); el tipo B a las redes regionales y el tipo C a las redes de

área local (muchas redes con pocos ordenadores). 

En segundo lugar, se asignaron nombres a los hosts para que fueran más

fáciles de recordar que las largas secuencia numéricas de sus direcciones.

Cuando había un número muy limitado de ordenadores bastaba con una simple

tabla con el nombre del ordenador y su dirección, pero había cuando el número

37

creció, había que idear otra fórmula. Esto llevó a Paul Mockapetris de USC/ISI

a inventar el DNS (Domain Name System) o sistema de nombres de dominio.

El DNS permitía resolver de forma jerárquica los nombres de los hosts o

servidores de las direcciones de Internet (por ejemplo, www.acm.org). 

Como NSFNET no sólo conectaba ordenadores en Estados Unidos, sino

también en otros países, se decidió también  una división por categorías de

ordenadores conectados. Nacieron así los dominios geográficos para las redes

de fuera de los Estados Unidos.  En el interior, los integrantes de NSFNET se

agruparon bajo seis categorías básicas o dominios : "gov" (gobierno), "mil"

(instituciones militares), "edu" (instituciones educativas), "com" (instituciones

comerciales), "org" (para instituciones sin fines lucrativos) y "net" (para los

ordenadores que servían de enlace entre las diferentes sub-redes o gateways).

En 1988 se agregó el sufijo "int" para instituciones internacionales derivadas de

tratados entre gobiernos.

En 1989 en Ginebra, Tim Berners-Lee del Centre Européen de Recherche

Nucléaire (CERN), inventa un sistema de información en la red con

posibilidades hipertextuales y multimedia. Había nacido la World Wide Web.

Usando hipertexto, Tim Berners-Lee creó una nueva manera de interactuar con

Internet en 1990: la World Wide Web. Su sistema hace mucho más fácil

compartir y encontrar datos en Internet.

En los Estados Unidos el gran aumento de usuarios provocó en 1990 la

retirada de la agencia ARPA, y su red pasó a estar a cargo de la NSF. Internet

comenzó a saturarse y, para evitar el colapso, se restringieron los accesos.

Eran años de incertidumbre ya que nadie había ideado la red para los fines y

las dimensiones que se estaban alcanzando, y los responsables se veían

desbordados.

La World Wide Web fue creciendo a medida que se desarrollaba nuevo

software y nuevas tecnologías. Marc Andreesen creó un

nuevo navegador llamado Mosaic en 1993 y después dirigió al equipo que

creó Netscape Navigator. Además, Berners-Lee, creó las bases del protocolo

de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los

URL. No nos extenderemos más en estos aspectos ya que hemos dedicado un

capítulo completo a la historia de la World Wide Web.

En España, en 1988, el Plan Nacional de Investigación y Desarrollo, crea un

programa para la Interconexión de los Recursos Informáticos (IRIS) de los

centros de investigación. Al principio fue gestionado por Fundesco (Fundación

de Telefónica), pero desde 1994, la RedIRIS está gestionada por el Consejo

38

Superior de Investigaciones Científicas y es la entidad encargada de asignar

los nombres de dominio .es. Sin embargo, hasta 1991 la red IRIS no se

conectaría a Internet para dar servicio a las universidades españolas. De esta

forma, la RedIRIS se convirtió en el motor de conexión de las universidades

españolas y centros de desarrollo a la red.

En septiembre de 1993 se inició el primer servidor Web en español. En estos

momentos se aumenta la potencia de las redes troncales de EE.UU., y en 1994

se eliminan las restricciones de uso comercial de la red y el gobierno de

EE.UU. deja de controlar la información de Internet. En 1995 nace la Internet

comercial y la Web ya supera en uso al servicio de transferencia de archivos a

través del protocolo FTP y al uso de telnet.

El desarrollo tecnológico de los servicios de Internet y, en concreto, de la World

Wide Web es impresionante. Se desarrollan los motores de búsqueda, otros

lenguajes y tecnologías como los entornos virtuales

(VRML), las videoconferencias, las llamadas telefónicas

a través de Internet al precio de una llamada local, la

banca virtual y el comercio electrónico, etc.

24. Las redes inalámbricas e, incluso, la telefonía móvil

también confluyen con Internet. Se desarrollan los

protocolos(Wireless Application Protocol) y nace el lenguaje WML,

el HTML para ver páginas web sobre los teléfonos móviles. El desarrollo de

Internet es imparable, pero ¿Cuál es el futuro de la red de redes?

El futuro de Internet:

En 1998 el entonces vicepresidente de los EE.UU. anunció a los medios de

comunicación una revolución "más importante que la invención de la

imprenta". Se trataba de Internet2, un proyecto iniciado a finales de 1996 por

un conjunto de 34 universidades estadounidenses que acordaron desarrollar

una nueva infraestructura de red, tanto en el plano físico (hardware), como en

el lógico (definición de nuevos estándares, desarrollo del software necesario,

etc.). Al proyecto se han ido sumando más y más universidades, bibliotecas,

agencias de investigación, gobiernos y empresas. El objetivo es crear un

sistema de redes para la comunidad de investigación, habilitar aplicaciones de

Internet y asegurar una transferencia de datos más veloz  tanto en las

aplicaciones como en la propia red. Se estima que Internet2 (I2)  será entre

100 y 1.000 veces más rápida que la actual Internet) El proyecto está pensado

para aplicaciones como bibliotecas digitales y laboratorios virtuales, 

telemedicina, teleinmersión, educación a distancia y otras aplicaciones que no

39

serían posibles con la tecnología del Internet de hoy. Ya se han desarrollado

proyectos como el protocolo Ipv6, el multicasting (transmisión de mensajes e

información desde un ordenador central hacia los demás ordenadores

conectados a la red) y la calidad de servicio (QoS) que harán posible una

nueva generación de aplicaciones de Internet; pero existen otros muchos

proyectos en marcha que tienen que ver con conexiones y redes avanzadas de

comunicaciones, interoperatibilidad de tecnologías, conocimientos e

inteligencia distribuida, etc.

Internet2 no reemplazará a la Internet actual, sino que se trata de una red que

unirá a las instituciones, gobierno e industria con los recursos para desarrollar

estas nuevas tecnologías. La ingeniería de esta red se basa en la

intercomunicación avanzada entre varios gigaPoPs (gigabit capacity Point of

Presence), esto es, punto de aproximación de 1 gigabit de capacidad, o lo que

es lo mismo, un punto de interconexión de alta capacidad desde donde los

participantes de Internet2 podrán intercambiar servicios avanzados. Las

instituciones de una misma zona geográfica se asociarán para financiar y

adquirir una variedad de servicios en un gigaPop regional y desde los puntos

de las redes locales, como pueden ser las universidades, se podrá tener

acceso a esos servicios.

Esta red estará especialmente dedicada a la investigación y la educación y los

particulares no nos podremos conectar a ella de la misma forma que

accedemos ahora a Internet a través de una red empresarial. Internet2 no es

una red individual que precisa de conexiones individuales, sino un sistema

completo que da paso a una mejor red de intercomunicación e interacción. Por

supuesto, Internet2 será capaz de integrar las redes actuales que interesen,

incluyendo la Web actual.

24. FUNCIONES DEL INTERNET:

Internet posee una gran gama de funcionalidades que abren infinitas nuevas

posibilidades de desarrollo personal y de gestión de nuestras actividades

diarias, como familiares, laborales y lúdicas:

1.- Comunicación: Internet constituye un canal de comunicación (escrita,

visual, sonora...) a escala mundial, cómodo y versátil. La red facilita la

comunicación y la relación interpersonal asíncrona (correo electrónico

como Yahoo, Gmail, Hotmail) o síncrona (Chat, videoconferencia...), permite

40

compartir y debatir ideas y facilita el trabajo cooperativo y la difusión de las

creaciones personales. También permite la publicación de información

accesible desde toda la Red (Web, weblogs, etc.)

2.- Información: Internet integra la mayor base de datos jamás imaginada, con

información multimedia de todo tipo y sobre cualquier temática

(Google, Altavista, etc.) Además puede integrar los "mass media"

convencionales: canales deradio y televisión, prensa, cine.

3.- Comercio y gestiones administrativas: Cada vez son más las empresas

que utilizan Internet como escaparate publicitario para sus productos y

servicios (asesoramiento, mediación, banca...), así como canal de venta o

medio para realizar trámites y gestiones.

4.- Entretenimiento: Además de la satisfacción que proporciona el hallazgo de

información sobre temas que sean de nuestro interés, Internet permite acceder

a numerosos programas y entornos lúdicos (¡y hasta jugar con otras personas

conectadas a la red!).

5.- Tele-trabajo: Cada vez son más las personas que realizan su trabajo, total

o parcialmente, lejos de las dependencias de su empresa. Los ordenadores y

los sistemas de telecomunicación permiten, si es necesario, estar en

permanente contacto y acceder a la información y a las personas de todos los

departamentos de la entidad.

6.- Soporte activo para el aprendizaje: Ante la cambiante y globalizada

sociedad de la información, que exige a sus ciudadanos una formación

permanente, Internet proporciona numerosos instrumentos que facilitan el

aprendizaje autónomo, el trabajo colaborativo y la personalización de la

enseñanza. Con todo ello, y a la luz de las perspectivas socio-constructivistas

del aprendizaje, se va perfilando un nuevo paradigma para la enseñanza en el

que la información está en todas partes, la comunicación puede realizarse en

cualquier momento.

25. CARACTERISITCAS DEL INTERNET:

Universal: Se refiere a que internet es mundial, en casi todos los países se

puede encontrar cualquier tipo de información gracias a ésta red.

Interactiva: en internet se encuentran mucho sitios para compartir opiniones,

41

gustos e información, tales como foros, salas de chat, blogs, ETC.

"libre"?: Internet permite la distribución libre de la información, pero muchos

gobiernos intervienen en las redes que distribuyen archivos, con el fin de

"proteger los derechos de autor". por éste motivo, en repetidas ocasiones la

información se ve limitada a la compra y venta de la misma.

Integral: Gracias a su cobertura mundial, internet puede ser utilizada con

diferentes fines, como por ejemplo los negocios, ya que permite el contacto

entre compañías y personas, facilitando así las relaciones empresariales y de

negocios.

Informativa: los más importantes diarios y canales de noticias a nivel mundial,

cuentan con una página web, a través de la cual los usuarios pueden

mantenerse en contacto con las novedades que ocurren en los diferentes

lugares. Gracias a eso, la información es coincide de manera casi inmediata y

simultánea en cualquier lugar con acceso a internet.

26. ¿WWW QUÉ ES?

WWW tiene dos significados o áreas relacionadas en un mismo concepto: Su

primer significado consiste en ser un acrónimo que viene del concepto World

Wide Web, también conocido como la telaraña, red o malla mundial.

Básicamente consiste en un medio de comunicación en donde se dispone de

documentos de hipertexto (o sea que se incluyen enlaces a otros sitios

documentos) con textos, imágenes, videos, gráficos u otros objetos. Para

acceder a estos documentos o páginas web, se requiere de un navegador, que

no es más que un software o programa capaz de interpretar de manera gráfica

o visible la información que obtiene de la Internet. En otros artículos ya hemos

hablado en extenso sobre la Internet, sus orígenes y su evolución, por lo que

pasaremos de inmediato la otra gran connotación que tiene este acrónimo.

El segundo significado o área de aplicación de WWW es el uso esta sigla

como un prefijo, agregado ya como costumbre al comienzo de la dirección o

URL de un sitio en Internet. Por ejemplo en la página que visitas al momento,

Mis Respuestas, si te fijas en su dirección esta se escribe como

"www.misrespuestas.com". En otros casos, te darás cuenta de que hay sitios

que no emplean este prefijo en su dirección, e incluso hay algunos que tienen

otros diferentes; por ejemplo en la sección de la comunidad de este sitio, la

dirección se escribe como "tuspreguntas.misrespuestas.com", o sea sin usar el

42

www, y en vez de aquello se usa una palabra para identificar la sección del

sitio. La verdad es que el uso de WWW en las direcciones de los sitios no es

un estándar ni una obligación, pero debido a la costumbre de asociar este

término a los sitios o páginas web, es que se sigue usando en la mayoría de

los casos para identificar las direcciones o URLs en la Internet. Cuando no se

usa, entonces es común usar este espacio para dar referencia a una sección

en particular de un sitio. Otro motivo para la generalización del uso de WWW

en los nombres de dominio, es que los servidores por lo general lo asignan

automáticamente a la dirección; es decir los servidores reconocen

generalmente la dirección se le agregue o no el prefijo al comienzo - o sea es

en términos técnicos casi lo mismo (casi porque en muchos casos los

propietarios de sitios modifican estas opciones para que se reconozca solo una

versión del sitio, con o sin el prefijo, para no generar confusión entre los

usuarios). El nombre con el que se conoce a las siglas usadas antes del

dominio o nombre oficial del sitio, es el de "dominio de tercer nivel" o

subdominio. En todo caso lo usual es usar el término subdominio cuando se

usa un prefijo distinto al ya clásico WWW.

27. NAVEGADOR:

Un navegador web (en inglés, web browser) es

un software, aplicación o programa que permite el acceso a la Web,

interpretando la información de distintos tipos de archivos y sitios web para que

estos puedan ser visualizados.

La funcionalidad básica de un navegador web es permitir la visualización de

documentos de texto, posiblemente con recursos multimedia incrustados.

Además, permite visitar páginas web y hacer actividades en ella, es decir,

enlazar un sitio con otro, imprimir, enviar y recibir correo, entre otras

funcionalidades más.

Los documentos que se muestran en un navegador pueden estar ubicados en

la computadora donde está el usuario y también pueden estar en cualquier otro

dispositivo conectado en la computadora del usuario o a través de Internet, y

que tenga los recursos necesarios para la transmisión de los documentos

(un software servidor web).

43

Tales documentos, comúnmente denominados páginas web,

poseen hiperenlaces o hipervínculos que enlazan una porción de texto o una

imagen a otro documento, normalmente relacionado con el texto o la imagen.

El seguimiento de enlaces de una página a otra, ubicada en cualquier

computadora conectada a Internet, se llama "navegación", de donde se origina

el nombre navegador (aplicado tanto para el programa como para la persona

que lo utiliza, a la cual también se le llama "cibernauta"). Por otro

lado, "hojeador" es una traducción literal del original en inglés, browser, aunque

su uso es minoritario.

28. BUSCADOR:

Un buscador es una página de internet que permite realizar búsquedas en la

red. Su forma de utilización es muy sencilla, basta con introducir una o más

palabras clave en una casilla y el buscador generará una lista de páginas web

que se supone guardan relación con el tema solicitado. Digo se supone porque

como veremos más adelante, esto no es siempre así.  Aunque el modo de

utilización es muy fácil a nivel básico, los buscadores permiten opciones

avanzadas para refinar la búsqueda, cuyo resultado puede ser en muchas

ocasiones de miles de páginas. Mediante estas opciones avanzadas se puede

acotar la búsqueda y obtener un número de páginas más manejable. Debido al

gran tamaño de Internet y a su naturaleza cambiante, ningún buscador posee

registro de todas las páginas que se encuentran en la red. Por ello es

aconsejable visitar más de un buscador para contrastar los resultados y en

ningún caso pensar que si una página no aparece en un buscador, es que no

existe. 

29. SERVICIOS DE INTERNET:

El correo electrónico: El correo electrónico o e-mail (electronic mail) es el

servicio más utilizado y más común en la red. Si antes debíamos esperar días

para recibir una carta del extranjero, hoy nos basta con unos minutos o incluso

segundos. Este servicio permite enviar textos y archivos de imagen o sonido de

forma muy fácil y sencilla, transmitiendo mensajes rápidos entre personas o

grupos alrededor de todo el mundo en un tiempo récord.

Mensajeria instantánea: La Mensajería Instantánea es un punto intermedio

entre los sistemas de chat y los mensajes de correo electrónico, las

44

herramientas de mensajería instantánea, son programas regularmente

gratuitos y versátiles, residen en el escritorio y, mientras hay una conexión a

Internet, siempre están activos.

El servicio de mensajería instantánea ofrece una ventana donde se escribe el

mensaje, en texto plano o acompañado de iconos o "emoticons" (figura que

representan estados de ánimo), y se envían a uno o varios destinatarios

quienes reciben los mensajes en tiempo real, el receptor lo lee y puede

contestar en el acto.

La videoconferencia: Si fueras periodista y tuvieras que entrevistar a alguien

que vive a miles de kilómetros de distancia, lo normal sería tomar un avión y

pasar varias horas en el aire hasta llegar a tu entrevistado. Sin embargo, con la

videoconferencia esto ya no es necesario, porque lo puedes hacer desde tu

casa, oficina, colegio o universidad, sin tener que viajar fuera del país.

La videoconferencia es un sistema de comunicación especialmente diseñado

para los encuentros a distancia, permitiéndonos ver, escuchar y hablar con

personas de cualquier parte del mundo en tiempo real. Además, se puede

compartir información de todo tipo, desde documentos hasta imágenes,

fotografías y videos.

El comercio electrónico: Después de todo lo que hemos mencionado,

difícilmente el comercio y cualquier cosa que permita un ingreso extra podría

quedar atrás. Por lo mismo, se creó el ya conocido comercio electrónico, que

permite realizar todo tipo de transacciones y compras a través de Internet.

La ventaja principal de este servicio es que las tiendas virtuales no tienen

horario, por lo que podemos comprar lo que queramos en cualquier parte del

mundo, a cualquier hora y sin movernos de nuestro hogar.

Porque, además, se paga con tarjetas de crédito y el despacho es a domicilio...

¿qué más fácil?

Es una verdadera tienda, porque puedes pasearte por toda la página web

como si estuvieras vitrineando en un mall; vas seleccionando lo que te gusta

hasta que por último llegas a la caja y compras lo que quieres.

Bajar programas: En la red existen diversos lugares de los cuales podemos

obtener los programas más actuales que se están utilizando y bajarlos

directamente a nuestro computador. De todo lo que puedes conseguir en lo

relativo a software, existen dos tipos: shareware y freeware.

45

El shareware tiene un valor económico, pero puedes bajarlo y usarlo gratis

durante un determinado período de tiempo, como una especie de prueba. Si

después de ese tiempo el programa es de tu agrado, puedes comprarlo

directamente en la misma página. De lo contrario, perderá ciertas propiedades

o caducará y no podrás volver a usarlo.

De noticias: Una de las temáticas más buscadas en Internet son las noticias,

ya que mantienen a todos los usuarios muy bien informados de la actualidad

nacional e internacional.

Existen diversos medios de comunicación en Internet que, además de entregar

las noticias a cada minuto, tienen envío diario vía e-mail para sus suscriptores.

La mayor parte de los países del mundo tiene webs de sus medios de

comunicación, lo que significa una gran cantidad de información noticiosa para

los usuarios.

Educación: Los niños de nuestro país y del mundo merecen tener espacios

donde encontrar todo tipo de información para realizar sus tareas y trabajos.

Por lo mismo, en la red existen diversos sitios para aquellos que aún estén

estudiando. La mayoría de los sitios se preocupan de entregar una información

clara y precisa para que los más pequeños entiendan y puedan realizar sus

tareas de manera fácil y entretenida.

Deportes: Los sitios de deporte son de los más visitados en Internet, ya que

consta de millones de adeptos a lo largo de Chile y el mundo. Desde clases

hasta resultados de campeonatos y noticias encontrarás en las millones de

páginas deportivas que existen en toda la red.

Para los niños: Una de las máximas atracciones para los pequeños de la casa

son los innumerables juegos que Internet ofrece. Lo bueno es que no es

necesario bajarlos a tu computador para jugar; puedes hacerlo en línea y

competir con otro jugador que se encuentre conectado igual que tú. Miles son

las personas que juegan a diario, y tal vez en este momento sean millones. La

forma más fácil de encontrar sitios que contengan juegos es entrar a un

buscador y escribir: “computer games” o “onlinegames” y hallarás un sinfín de

páginas destinadas a ellos.

Redes sociales: Las redes sociales en Internet han ganado su lugar de una

46

manera vertiginosa convirtiéndose en promisorios negocios para empresas,

artistas, marcas, freelance y sobretodo en lugares para encuentros humanos.

Las Redes son formas de interacción social, definida como un intercambio

dinámico entre personas, grupos e instituciones en contextos de complejidad.

Un sistema abierto y en construcción permanente que involucra a conjuntos

que se identifican en las mismas necesidades y problemáticas y que se

organizan para potenciar sus recursos.

30.¿QUE ES LA PÁGINA WEB?

Una página web, página electrónica o cyber página,1 2 es un documento o

información electrónica capaz de contener texto, sonido, vídeo, programas,

enlaces, imágenes, y muchas otras cosas, adaptada para la llamada World

Wide Web, y que puede ser accedida mediante un navegador. Esta

información se encuentra generalmente en formato HTML o XHTML, y puede

proporcionar navegación (acceso) a otras páginas web

mediante enlaces de hipertexto. Las páginas web frecuentemente también

incluyen otros recursos como ser hojas de estilo en

cascada, guiones (scripts), imágenes digitales, entre otros.

Las páginas web pueden estar almacenadas en un equipo local o en

un servidor web remoto. El servidor web puede restringir el acceso únicamente

a redes privadas, por ejemplo, en una intranet corporativa, o puede publicar las

páginas en la World Wide Web. El acceso a las páginas web es realizado

mediante una transferencia desde servidores, utilizando el protocolo de

transferencia de hipertexto (HTTP).

 

47

48

49

50