OFIMATICA
-
Upload
jhair-piero-suarez -
Category
Documents
-
view
6 -
download
0
description
Transcript of OFIMATICA
“AÑO DE LA DIVERSIFICACIÓN PRODUCTIVA Y DEL
FORTALECIMIENTO DE LA EDUCACIÓN”
CENTRO DE
ESTUDIOS:
ALAS PERUANAS
CATEDRA:
OFIMATICA
CATEDRATICO:
WILMA PANDO BERRIOS
NOMBRES Y APELLIDOS:
PARIONA ESTRELLA
NEYDE LITHSA
CICLO:
I CICLO
2015
1
PRESENTACION
El presente trabajo consta de conceptos básicos que se debe saber para poder
empezar a estudiar la ofimática. En estas hojas podrán informarse sobre palabras
relacionadas con la computación y lo indispensable que es tener conocimiento sobre
esto ya que en el mundo actual el que no conoce de computación tiene una gran
desventaja ante todos los puestos de trabajo en la actualidad ya que el mundo está
modernizado, todo se basa a las computadoras y los usos del internet, la gran ayuda
que da a la humanidad en todos los aspectos tanto en el trabajo, el hogar, escuela,
etc.
Esperando que les sea de utilidad y de su agrado el presente trabajo.
3
DEDICATORIA:
Este trabajo esta dedicado a mis compañeros y a mis maestros que se esfuerzan siempre por nosotros.
1. ¿QUE ES UN DATO?
4
Datos son los hechos que describen sucesos y entidades."Datos" es una palabra
en plural que se refiere a más de un hecho. A un hecho simple se le denomina
"data-ítem" o elemento de dato. Los datos son comunicados por varios tipos de
símbolos tales como las letras del alfabeto, números, movimientos de labios,
puntos y rayas, señales con la mano, dibujos, etc. Estos símbolos se pueden
ordenar y reordenar de forma utilizable y se les denomina información.
Los datos son símbolos que describen condiciones, hechos, situaciones o valores.
Los datos se caracterizan por no contener ninguna información. Un dato puede
significar un número, una letra, un signo ortográfico o cualquier símbolo que
represente una cantidad, una medida, una palabra o una descripción.
La importancia de los datos está en su capacidad de asociarse dentro de un
contexto para convertirse en información. Por si mismos los datos no tienen
capacidad de comunicar un significado y por tanto no pueden afectar el
comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en
información para ofrecer un significado, conocimiento, ideas o conclusiones.
2. ¿QUE ES COMPUTACIÓN?
El término computación proviene del latín computatĭo. Permite hacer referencia al
cómputo como cuenta o cálculo, pero se usa habitualmente como sinónimo
de informática (del francés informatique). De esta manera, la computación es
el conjunto de conocimientos científicos y técnicas que permiten el tratamiento
automático de la información por medio de computadoras.
3. ¿QUE ES INFORMATICA?
La Informática es la ciencia aplicada que abarca el estudio y aplicación del
tratamiento automático de la información, utilizando sistemas computacionales,
generalmente implementados como dispositivos electrónicos. También está
definida como el procesamiento automático de la información.
4. RECURSOS Y COMPONENTES DE UN SISTEMA
COMPONENTES DE UN SISTEMA:
Gestión de procesos: Un proceso es simplemente, un programa en ejecución
que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y
dispositivos de E/S. El SO es el responsable de:
Crear y destruir procesos
5
Parar y reanudar procesos
Ofrecer mecanismos para que los procesos puedan comunicarse y se
sincronicen
La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener
una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por
ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y
cuando se terminen seguir con las de prioridad media y después las de baja.
Una vez realizada la tarea se tacha. Esto puede traer un problema que las
tareas de baja prioridad pueden que nunca lleguen a ejecutarse y permanezcan
en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a
las tareas más antiguas.
Gestión de la memoria principal
La memoria es una gran tabla de palabras o bytes que se referencian cada una
mediante una dirección única. Este almacén de datos de rápido acceso es
compartido por la CPU y los dispositivos de E/S, es volátil y pierde su contenido
ante fallos del sistema. El SO es el responsable de:
Conocer qué partes de la memoria están siendo utilizadas y por quién
Decidir qué procesos se cargarán en memoria cuando haya espacio
disponible
Asignar y reclamar espacio de memoria cuando sea necesario
Gestión del almacenamiento secundario
Un sistema de almacenamiento secundario es necesario, ya que la memoria
principal (almacenamiento primario) es volátil y además muy pequeña para
almacenar todos los programas y datos. También es necesario mantener los
datos que no convenga mantener en la memoria principal. El SO se encarga
de:
Planificar los discos.
Gestionar el espacio libre.
Asignar el almacenamiento.
Verificar que los datos se guarden en orden
El sistema de entrada y salida
6
Consiste en un sistema de almacenamiento temporal (caché), una interfaz de
manejadores de dispositivos y otra para dispositivos concretos. El sistema
operativo debe gestionar el almacenamiento temporal de E/S y servir las
interrupciones de los dispositivos de E/S.
Sistema de archivos
Los archivos son colecciones de información relacionada, definidas por sus
creadores. Éstos almacenan programas (en código fuente y objeto) y datos
tales como imágenes, textos, información de bases de datos, etc. El SO es
responsable de:
Construir, eliminar archivos y directorios.
Ofrecer funciones para manipular archivos y directorios.
Establecer la correspondencia entre archivos y unidades de
almacenamiento.
Realizar copias de seguridad de archivos.
Existen diferentes sistemas de archivos, es decir, existen diferentes formas de
organizar la información que se almacena en las memorias (normalmente
discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT,
FAT32, ext3, NTFS, XFS, etc.
Desde el punto de vista del usuario estas diferencias pueden parecer
insignificantes a primera vista, sin embargo, existen diferencias muy
importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se
utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran
diferencia para un usuario que utilice una base de datos con bastante
información ya que el tamaño máximo de un fichero con un sistema de archivos
FAT32 está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el
tamaño es considerablemente mayor.
Sistemas de protección
Mecanismo que controla el acceso de los programas o los usuarios a los
recursos del sistema. El SO se encarga de:
Distinguir entre uso autorizado y no autorizado.
Especificar los controles de seguridad a realizar.
Forzar el uso de estos mecanismos de protección.
7
Sistema de comunicaciones
Para mantener las comunicaciones con otros sistemas es necesario poder
controlar el envío y recepción de información a través de las interfaces de red.
También hay que crear y mantener puntos de comunicación que sirvan a las
aplicaciones para enviar y recibir información, y crear y mantener conexiones
virtuales entre aplicaciones que están ejecutándose localmente y otras que lo
hacen remotamente.
Programas de sistema
Son aplicaciones de utilidad que se suministran con el SO pero no forman parte
de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas,
siendo algunas de las tareas que realizan:
Manipulación y modificación de archivos.
Información del estado del sistema.
Soporte a lenguajes de programación.
Comunicaciones.
Gestor de recursos
Como gestor de recursos, el sistema operativo administra:
La unidad central de procesamiento (donde está alojado el
microprocesador).
Los dispositivos de entrada y salida.
La memoria principal (o de acceso directo).
Los discos (o memoria secundaria).
Los procesos (o programas en ejecución).
Y en general todos los recursos del sistema.
5. MEMORIA:
En informática, la memoria es el dispositivo que retiene, memoriza o
almacena datos informáticos durante algún intervalo de tiempo. La memoria
proporciona una de las principales funciones de la computación moderna: el
almacenamiento de información y conocimiento. Es uno de los componentes
fundamentales de la computadora, que interconectada a la unidad central de
8
procesamiento (CPU, por las siglas en inglés de Central Processing Unit) y
los dispositivos de entrada/salida, implementan lo fundamental del modelo de
computadora de la arquitectura de von Neumann.
En la actualidad, «memoria» suele referirse a una forma de almacenamiento
de estado sólido, conocida como memoria RAM (memoria de acceso aleatorio;
RAM por sus siglas en inglés, de random access memory), y otras veces se
refiere a otras formas de almacenamiento rápido, pero temporal. De forma
similar, se refiere a formas de almacenamiento masivo, como discos ópticos, y
tipos de almacenamiento magnético, como discos duros y otros tipos de
almacenamiento, más lentos que las memorias RAM, pero de naturaleza más
permanente. Estas distinciones contemporáneas son de ayuda, porque son
fundamentales para la arquitectura de computadores en general.
6. PROCESADOR:
Este es el cerebro del computador. Dependiendo del tipo de procesador y
su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen
varias marcas y tipos, de los cuales intentaré darles una idea de sus
características principales.
Las familias (tipos) de procesadores compatibles con el PC de IBM usan
procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586
y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así
sino "Pentium", por razones de mercadeo.
7. CPU:
La unidad central de procesamiento (conocida por las siglas CPU,
del inglés: central processing unit), es el hardware dentro de
una computadora u otros dispositivos programables, que interpreta
las instrucciones de un programa informático mediante la realización de las
operaciones básicas aritméticas, lógicas y de entrada/salida del sistema. El
término en sí mismo y su acrónimo han estado en uso en la industria de la
Informática por lo menos desde el principio de los años 1960.1La forma,
el diseño y la implementación de las CPU ha cambiado drásticamente desde
los primeros ejemplos, pero su operación fundamental sigue siendo la misma.
Una computadora puede tener más de una CPU; esto se
llama multiprocesamiento. Todas las CPU modernas son microprocesadores, lo
9
que significa que contienen un solo circuito integrado (chip). Algunos circuitos
integrados pueden contener varias CPU en un solo chip; estos son
denominados procesadores multinúcleo. Un circuito integrado que contiene una
CPU también puede contener los dispositivos periféricos, y otros componentes
de un sistema informático; a esto se llama un sistema en un chip (SoC).
Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU),
que realiza operaciones aritméticas y lógicas, y la unidad de control (CU), que
extrae instrucciones de la memoria, las decodifica y las ejecuta, llamando a la
ALU cuando sea necesario.
No todos los sistemas computacionales se basan en una unidad central de
procesamiento. Una matriz de procesador o procesador vectorial tiene múltiples
elementos cómputo paralelo, sin una unidad considerada el "centro". En el
modelo de computación distribuido, se resuelven problemas mediante un
conjunto interconectado y distribuido de procesadores.
8. PLACA BASE:
La placa base, también conocida como placa madre, es la encargada de
interconectar y dar soporte físico a todos los dispositivos internos de tu
computadora.
Su importancia radica en que dependiendo de cual elijas estarás delimitando la
capacidad del equipo. De ella dependen todos los demás, como por ejemplo, la
cantidad de memoria RAM y el tipo que podrás usar, el número de
puertos USB o el número de unidades de disco duro.
9. BIOS:
El Basic Input/Output System (BIOS) o sistema básico de entrada/salida,
en computadoras IBM PC compatibles, también conocido como “System BIOS”,
“ROM BIOS”1 o “PC BIOS”, es un estándar de facto que define
la interfaz defirmware.2 El nombre se originó en 1975, en el Basic Input/Output
System usado por el sistema operativo CP/M. El software BIOS es instalado
dentro de la computadora personal (PC), y es el primer programa que se
ejecuta cuando se enciende la computadora. El propósito fundamental del
BIOS es iniciar y probar el hardware del sistema y cargar un gestor de
10
arranque o un sistema operativo de un dispositivo de almacenamiento de
datos. Además, el BIOS provee una capa de abstracción para el hardware, por
ejemplo, que consiste en una vía para los programas de aplicaciones y los
sistemas operativos interactúen con el teclado, el monitor y otros dispositivos
de entrada/salida. Las variaciones que ocurren en el hardware del sistema
quedan ocultos por el BIOS, ya que los programas usan servicios de BIOS en
lugar de acceder directamente al hardware. Los sistemas operativos modernos
ignoran la capa de abstracción provista por el BIOS y acceden al hardware
directamente.
El BIOS de la IBM PC/XT original no tenía interfaz con el usuario interactiva. Lo
mensajes de error eran mostrados en la pantalla, o codificados por medio de
una serie de sonidos. Las opciones en la PC y el XT se establecían por medio
de interruptores y jumpers en la placa base y en las placas de los periféricos.
Las modernas computadoras compatibles Wintel proveen una rutina de
configuración, accesible al iniciar el sistema mediante una secuencia de teclas
específica. El usuario puede configurar las opciones del sistema usando el
teclado y el monitor.
El software del BIOS es almacenado en un circuito integrado de memoria
ROM no-volátil en la placa base. Está específicamente diseñado para trabajar
con cada modelo de computadora en particular, interconectando con diversos
dispositivos que componen el conjunto de chips complementarios del sistema.
En computadores modernos, el BIOS está almacenado en una memoria flash,
por lo que su contenido puede ser reescrito sin remover el circuito integrado de
la placa base. Esto permite que el BIOS sea fácil de actualizar para agregar
nuevas características o corregir errores, pero puede hacer que la computadora
sea vulnerable a los rootkit de BIOS.
10. DISCO DURO:
La unidad de disco duro o unidad de disco rígido (en inglés: Hard Disk
Drive, HDD) es el dispositivo de almacenamiento de datos que emplea un
sistema de grabación magnética para almacenar archivos digitales. Se
compone de uno o más platos o discos rígidos, unidos por un mismo eje que
gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y
en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota
sobre una delgada lámina de aire generada por la rotación de los discos.
Es memoria no volátil.
11
El primer disco duro fue inventado por IBM, en 1956. A lo largo de los años,
han disminuido los precios de los discos duros, al mismo tiempo que han
multiplicado su capacidad, siendo la principal opción de almacenamiento
secundario para computadoras personales, desde su aparición en los años
1960.1 Los discos duros han mantenido su posición dominante gracias a los
constantes incrementos en la densidad de grabación, que se ha mantenido a la
par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta
los formatos estandarizados actualmente: 3,5 pulgadas los modelos
para PC y servidores, y 2,5 pulgadas los modelos para dispositivos portátiles.
Todos se comunican con la computadora a través del controlador de disco,
empleando una interfaz estandarizada. Los más comunes hasta los años
2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado
en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido
masificándose el uso de los SATA. Existe además FC(empleado
exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato
de bajo nivel que defina una o más particiones. La operación de formateo
requiere el uso de una fracción del espacio disponible en el disco, que
dependerá del sistema de archivos o formato empleado. Además, los
fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la
capacidad de los mismos usando prefijos del Sistema Internacional, que
emplean múltiplos de potencias de 1000 según la normativa IEC e IEEE, en
lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y
son los usados por sistemas operativos de Microsoft. Esto provoca que en
algunos sistemas operativos sea representado como múltiplos 1024 o como
1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en
algunos sistemas operativos será representado como 465 GiB (es
decir gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB.
11. PUERTOS PERIFERICOS:
En informática, periférico es la denominación genérica para designar al
aparato o dispositivo auxiliar e independiente conectado a la unidad central de
procesamiento de la computadora.
12
Se consideran periféricos a las unidades o dispositivos de Hardware a través
de los cuales la computadora se comunica con el exterior, y también a los
sistemas que almacenan o archivan la información, sirviendo de memoria
auxiliar de la memoria principal.
Se considera periférico al conjunto de dispositivos que sin pertenecer al núcleo
fundamental de la computadora, formado por la Unidad central de
procesamiento(CPU) y la memoria central, permitan realizar operaciones de
entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU.
Estas tres unidades básicas en un computador, CPU, memoria central y el
subsistema de E/S, están comunicadas entre sí por tres buses o canales de
comunicación:
direcciones, para seleccionar la dirección del dato o del periférico al que se
quiere acceder,
control, básicamente para seleccionar la operación a realizar sobre el dato
(principalmente lectura, escritura o modificación) y
datos, por donde circulan los datos.
Clasificación de Periféricos:
A pesar de que el término periférico implica a menudo el concepto de
«adicional pero no esencial», muchos de ellos son elementos fundamentales
para un sistema informático. El monitor, es prácticamente el único periférico
que la gente considera imprescindible en cualquier computadora personal (no
lo fue en los primeros computadores) pero a pesar de ello, técnicamente no lo
es. El ratón o mouse es posiblemente el ejemplo más claro de este aspecto. A
principios de la década de 1990 no todas las computadoras personales incluían
este dispositivo. El sistema operativo MS-DOS, el más común en esa época,
tenía una interfaz de línea de comandos para la que no era necesario el
empleo de un ratón, todo se hacía mediante comandos de texto. Fue con la
popularización de Finder, sistema operativo de la Macintosh de Apple y la
posterior aparición de Windows cuando el ratón comenzó a ser un elemento
imprescindible en cualquier hogar dotado de una computadora personal.
Actualmente existen sistemas operativos con interfaz de texto que pueden
prescindir del ratón como, por ejemplo, algunos sistemas. El caso del teclado
es también emblemático, pues en las nuevas computadoras tabletas, sistemas
de juego o teléfonos móviles con pantalla táctil, el teclado se emula en la
13
pantalla. Inclusive en casos de adaptaciones especiales los teclados dejan de
ser el periférico de entrada más utilizado, llegando a desaparecer en algunos
casos por el uso de programas reconocedores de voz.
Los periféricos pueden clasificarse en las siguientes categorías principales:
Periféricos de entrada: captan y digitalizan los datos de ser necesario,
introducidos por el usuario o por otro dispositivo y los envían al ordenador para
ser procesados.
Periféricos de salida: son dispositivos que muestran o proyectan información
hacia el exterior del ordenador. La mayoría son para informar, alertar,
comunicar, proyectar o dar al usuario cierta información, de la misma forma se
encargan de convertir los impulsos eléctricos en información legible para el
usuario. Sin embargo, no todos de este tipo de periféricos es información para
el usuario. Un ejemplo: Impresora.
Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación
de la computadora con el medio externo.
Periféricos de almacenamiento: son los dispositivos que almacenan datos
e información por bastante tiempo. La memoria de acceso aleatorio no puede
ser considerada un periférico de almacenamiento, ya que su memoria es volátil
y temporal. Ejemplos: Disco duro, Memoria flash, Cinta magnética, Memoria
portátil, Disquete, Grabadora o lectora de: CD; DVD; Blu-ray; HD-DVD.
12. TARJETA RED:
La tarjeta de red, también conocida como placa de red, adaptador de
red o adaptador LAN, es el periférico que actúa de interfaz de conexión entre
aparatos o dispositivos, y también posibilita compartir recursos (discos
duros, impresoras, etcétera) entre dos o más computadoras, es decir, en
una red de computadoras.
En inglés, se denomina Network Interface Card o Network interface
controller (NIC), cuya traducción literal es «tarjeta de interfaz de red» (TIR).
14
Cada tarjeta de red tiene un número de identificación único, de 48 bits en
hexadecimal, llamado dirección MAC (Media Access Control; control de acceso
al medio). Estas direcciones únicas de hardware son administradas por el
“Instituto de Ingeniería Eléctrica y Electrónica” (IEEE, Institute of Electronic and
Electrical Engineers). Los tres primeros octetos (24 bits) del número MAC,
identifican al proveedor específico y es conocido como
número OUI (Organizationally unique identifier, identificador único de
organización), designado por IEEE, que combinado con otro número de 24 bits
forman la dirección MAC completa.
13. CONECTORES Y PUERTOS:
En informática, un puerto es una forma genérica de denominar a una interfaz a
través de la cual los diferentes tipos de datos se pueden enviar y recibir. La placa
madre o motherboard actual va eliminando paulatinamente los puertos
heredados desde que se diseñó la primera computadora de IBM. Por razones de
compatibilidad aún se pueden encontrar algunos puertos ya en desuso, pero las
nuevas máquinas ya no poseerán los típicos conectores serie, paralelo, ps2, etc.;
y en su lugar encontraremos puertos USB, Fireware o las nuevas tecnologías
que se incorporan constantemente.
Los conectores, normalmente denominados "conectores de entrada/salida" (o
conectores E/S) son interfaces para conectar dispositivos mediante cables.
Generalmente tienen un extremo macho con pines o pernos que sobresalen.
15
Este enchufe debe insertarse en una parte hembra (también denominada
socket), que incluye agujeros para insertar los pernos.
En el frente de la PC se pueden encontrar conectores tipo USB y de sonido. En
el panel trasero la placa madre de un equipo posee diferentes conectores de
entrada/salida.
Dependiendo de su antigüedad, las placas madre tienen algunos de estos
conectores:
Puerto serie, que utiliza un conector DB9 para conectar dispositivos más
antiguos.
Puerto paralelo, que utiliza un conector DB25 para conectar principalmente
impresoras antiguas.
Puerto de Juegos, que utiliza un conector DB15 para conectar principalmente
joystick o instrumentos musicales antiguos.
Conector RJ45 (denominado Puerto LAN o Puerto Ethernet) para conectar el
equipo a una red o un móden.
Conector PS/2, utilizado para conectar teclado y/o Mouse.
Conector VGA (denominado SUB-D15), utilizado para conectar el monitor.
Conector DVI, utiliza un conector DVI28 para conectar monitores LCD o de
plasma.
MiniJack (Entrada de línea, Salida de línea y micrófono) para conectar
parlantes, un sistema de sonido de alta fidelidad o un micrófono.
Puertos USB (1.1 baja velocidad, 2.0 alta velocidad 3.0 súper velocidad) para
conectar diferentes periféricos.
Puertos Fireware, utiliza el conector IEEE-1394 para conectar cámaras o
diferentes equipos.
CONECTOR DIN: EL conector DIN (o DIN5) es un conector con 5 pines o
pernos, que se utilizaba para conectar el teclado a los equipos. Fue
originariamente estandarizado por el Deutsches Institut für
Normung (acrónimo DIN), la organización de estandarización alemana.
16
Los conectores consisten en una camisa metálica circular para proteger los pines
que sobresalen. La camisa metálica está dentada para que sea insertada con la
orientación correcta en su enchufe y prevenir de esta forma el daño en los
aparatos eléctricos. Todos los conectores macho (plugs) tienen un extremo de
metal con 13.2 mm de diámetro con bordes especiales para limitar la orientación
al ser insertados en conector hembra que posee la placa madre de la PC. El
conector DIN5 se volvió obsoleto con los nuevos conectores PS/2 y USB.
CONECTOR MINIDIN O PS/2: La introducción del PS/2 (formato mini DIN 6 de
IBM) inauguró la moda de utilizar conectores mini DIN para teclado y mouse. El
nombre utilizado deriva de la serie de ordenadores IBM Personal System/2 que
es creada por IBM en 1987, y empleada para conectar ambos dispositivos.
La comunicación en ambos casos es serial (bidireccional en el caso del teclado),
y controlada por microcontroladores situados en la placa madre. No han sido
diseñados para ser intercambiados en caliente, como los dispositivos plug and
play, por lo tanto es necesario apagar el equipo para realizar cualquier cambio.
Por lo general la ficha de color verde se utiliza para conectar el mouse y la de
color violeta se utiliza para conectar el teclado.
17
CONECTOR JACK O MINIJACK: Hay conectores Jack de varios
diámetros: 2,5 mm; 3,5 mm y
6,35 mm. Los usados en la
PC son los de 3,5 mm, también
llamados minijack.
Existen dos versiones de cada uno
de estos conectores:
Mono, utilizados para enviar sonido monofónico. Este tipo de enchufe tiene dos
contactos: una referencia, que se encuentra en el cuerpo del cable, y una señal
o canal de audio que se encuentra en la punta.
Estéreo, utilizados para enviar sonido estereofónico. Este tipo de enchufe tiene
tres contactos: Los dos primeros como su equivalente mono y también un anillo
adicional para enviar otro canal de audio.
tarjetas de sonido de las computadoras utilizan este
tipo de conectores, siempre de tipo hembra, al que
hay que conectar los parlantes u otros dispositivos
por medio de un conector macho Jack de 3,5 mm de
diámetro, como tienen varios conectores de este tipo, se utiliza un código de
colores para distinguirlos:
Celeste: entrada de línea para conectar diferentes
dispositivos.
Verde: salida de línea para conectar auriculares o parlantes
Rosa: entrada de micrófono.
Las computadoras dotadas de sistema de sonido
envolvente 5.1 usan además estas conexiones:
Gris: salida de línea para conectar los altavoces
delanteros
Negro: salida de línea para conectar los
altavoces traseros
Calabaza: salida de línea para conectar el altavoz central o el subwoofer
(subgrave)
18
CONECTOR RJ45: Es una interfaz física comúnmente usada para conectar
redes de cableado estructurado, (categorías 4, 5, 5e y 6). El conector RJ45 es
el conector principal utilizado en la actualidad con tarjetas de red Ethernet, que
transmite información a través de cables de par trenzado. Por este motivo, a
veces se le denomina puerto Ethernet. RJ
es un acrónimo inglés de Registered
Jack que a su vez es parte del Código Federal de Regulaciones de Estados
Unidos.
CONECTOR VGA: El conector VGA es el utilizado normalmente para conectar la
salida del monitor a la tarjeta gráfica de la PC. Aunque son conocidos como VGA
(Video Graphics Array), realmente los conectores actuales no trabajan bajo el
estándar VGA, que permite mostrar hasta un máximo de 256 colores de una
paleta de 262.144 colores, con una resolución máxima de 720x480 y un refresco
máximo de 70Hz, sino SVGA (Super Video Graphics Array), que permite una
resolución máxima de 1600x1200 y 16,7 millones de colores.
Estos dos sistemas utilizan el mismo tipo de conector, denominado VGA. El
conector de la tarjeta generalmente es de color azul:
Este tipo de conector se encuentra en la mayoría de las tarjetas gráficas y se
utiliza para enviar 3 señales analógicas al monitor, que corresponden a los
componentes de la imagen rojo, azul y verde: utiliza un conector tipo Mini Sub-D
(o SUB-D15) es un conector de 15 pines (con tres filas de 5 pines cada una)..
19
CONECTOR S-VIDEO: El conector S-video (Separate-Video o Vídeo separado,
también conocido como Y/C) es un conector utilizado en la trasmisión de video
analógico. El conector puede poseer 4 ó 7 pines. Se utiliza para conectar
televisores analógicos en la PC. Hay que tener en cuenta que la señal tiende a
degradarse cuando se utiliza un cable de más de 5 metros.
Dependiendo de la placa de video instalada en la computadora, es posible utilizar
un televisor como pantalla principal de visualización o utilizar la clonación de
imagen y ver en ambas pantallas (TV y PC) simultáneamente. Si se utiliza la
clonación, es posible configurar cada pantalla con distintas resoluciones.
INTERFAZ DVI: La interfaz DVI (Interfaz de video digital), que se encuentra en
algunas tarjetas gráficas, se utiliza para enviar digitalmente señales de video a
pantallas con una interfaz adecuada. Evitan los procesos de conversión digital-
analógica que reducen potencialmente la calidad y resultan innecesarios.
Pero no todos los monitores tienen este tipo de
conexión, por lo que hay en el mercado adaptadores DVI-VGA, ya que la
mayoría de las tarjetas gráficas están adoptando este tipo de conexión,
eliminando incluso en muchos casos las
conexiones VGA.
20
INTERFAZ HDMI: (Interfaz multimedia de alta definición) es una interfaz digital
para transferir datos multimedia de alta definición no comprimidos (audio y
video). Algunos la denominan "SCART de alta definición".
Lanzada por un grupo de fabricantes que incluye a Hitachi, Matsushita, Philips,
Silicon Image, Sony, Thomson y Toshiba, la interfaz HDMI se estandarizó en el
año 2002 como la versión 1.0, después se revisó en mayo de 2004 (versión
1.1) y finalmente en agosto de 2005 (versión 1.2). El estándar HDMI trae un
nuevo conector compacto, compatible con DVI (Interfaz de video digital), que
se asemeja a lo siguiente:
PUERTO SERIE: El puerto serie (también llamados RS-232, por el nombre del
estándar al que hacen referencia) fueron las
primeras interfaces que permitieron que los
equipos intercambien información con el "mundo
exterior". El término serial se refiere a los datos
enviados mediante un solo hilo: los bits se envían
uno detrás del otro
Originalmente, los puertos seriales sólo podían enviar datos, no recibir, por lo
que se desarrollaron puertos bidireccionales
21
Generalmente, en este puerto se conectaba el mouse utilizando un conector de
9 pines (conectores DB9):
PUERTO PARALELO:
La transmisión de datos paralela consiste
en enviar datos en forma simultánea por
varios canales (hilos). Los puertos
paralelos en los PC pueden utilizarse
para enviar 8 bits (un octeto)
simultáneamente por 8 hilos.
Los primeros puertos paralelos bidireccionales permitían una velocidad de 2,4
Mb/s. Sin embargo, los puertos paralelos mejorados han logrado alcanzar
velocidades mayores:
El EPP (puerto paralelo mejorado) alcanza velocidades de 8 a 16 Mbps
El ECP (puerto de capacidad mejorada), desarrollado por Hewlett Packard y
Microsoft. Posee las mismas características del EPP con el agregado de un
dispositivo Plug and Play que permite que el equipo reconozca los periféricos
conectados.
Los puertos paralelos, al igual que los seriales, se encuentran integrados a la
placa madre. Los conectores DB25 permiten la conexión con un elemento
exterior (por ejemplo, una impresora motivo por el cual se le conoce como el
"puerto de impresora" (abreviado LTP).
PUERTO MIDI o PUERTO DE JUEGOS (GAME PORT): Es un conector DB-
15 con la mayoría de sus conectores analógicos que se utiliza principalmente
para conectar palancas de mando (joysticks) y controles de juegos, aunque
dadas sus características analógicas, también es utilizado para adquisición de
22
datos como entrada analógica e inclusive para conectar un sintetizador MIDI
(Musical Instrument Digital Interface) externo, por lo cual usualmente se
encuentra
integrado en las
tarjetas de sonido
o, como sucede en
las tarjetas madre
tipo ATX, se encuentra dispuesto cerca de los conectores de sonido.
Generalmente es de color amarillo. Para usar un puerto de juegos con un
instrumento musical MIDI se necesita un cable (poco común) con un conector
macho y uno hembra DA-15 y dos conectores macho DIN 5-pines. Los drivers y
el hardware para las capacidades MIDI del puerto de juegos se centran en
torno al estándar de interfaz MIDI Roland MPU-401.
PUERTO FIREWARE: El bus FireWire fue introducido por Apple (con
antelación a USB), y más tarde fue estandarizado bajo la especificación IEEE
1394, referido como un bus serie de altas prestaciones. FireWire alcanza
velocidades de transferencia de 400 Mbps y permite la conexión de hasta 63
dispositivos. La mayoría de ventajas del USB están presentes en FireWire
(Plug & Play, conexión/desconexión sin apagar el PC, alimentación incluida en
el bus, etc.). Una primera diferencia se encuentra en el cable, que empaqueta
un total de 6 cables internos (2 para alimentación, y dos pares trenzados para
datos). Otra diferencia fundamental hace referencia a la topología del bus: en
lugar de emplear hubs, se emplea una configuración “en cadena”. En otras
palabras, los dispositivos se unen uno a otro formando una cadena, en la cual
es posible insertar más de un PC (haciendo posible que varias computadoras
accedan a los dispositivos conectados). Conectados a través de FireWire. La
información persiste en toda la cadena en formato digital y viaja a gran
velocidad, por lo que no se pierde calidad y el rendimiento es asombroso. El
estándar IEEE 1934a define dos conectores:
Conector 1394a-1995: Conector 1394a-2000, denominado mini-DV, ya
23
que se utiliza en algunas cámaras DV (Video
digital):
PUERTO USB: El USB (Bus de serie universal), como su nombre lo sugiere,
se basa en una arquitectura de tipo serial. Sin embargo, es una interfaz de
entrada/salida mucho más rápida que los puertos seriales estándar.
Pero además, USB nos proporciona un único conector para
solventar casi todos los problemas de comunicación con el exterior, pudiéndose
formar una auténtica red de periféricos de hasta 127 elementos, además
cuenta con la famosa característica PnP (Plug and Play) y la facilidad de
conexión "en caliente", es decir, que se pueden conectar y desconectar los
periféricos sin necesidad de reiniciar la computadora. Permite suministrar
energía eléctrica a dispositivos que no tengan un alto consumo y que no estén
a más de 5 metros, lo que elimina la necesidad de conectar dichos periféricos a
la red eléctrica, con sus correspondientes fuentes de alimentación, como ahora
ocurre por ejemplo con los modems externos o los mp3.
El estándar USB permite que los dispositivos se encadenen mediante el uso de
una topología en bus o de estrella. Por lo tanto, los dispositivos pueden
conectarse entre ellos tanto en forma de cadena como en forma ramificada. La
ramificación se realiza mediante el uso de cajas llamadas "concentradores" que
constan de una sola entrada y varias salidas. Algunos son activos (es decir,
suministran energía) y otros pasivos (la energía es suministrada por el
computadora). Debido a la longitud máxima de 5 metros del cable entre los dos
dispositivos y a la cantidad máxima de 5 concentradores (a los que se les
suministra energía), es posible crear una cadena de 25 metros de longitud.
Existen dos clases de conectores USB:
24
Conectores "Tipo A", que tienen forma
rectangular y se utilizan generalmente para
dispositivos que consumen poco ancho de
banda (como teclado, mouse, y cámara
Web).
Conectores "Tipo B", que tienen forma cuadrada y se utilizan generalmente
para dispositivos con altos requisitos de ancho de banda (como discos rígidos
externos).
14. CARACTERISTICAS Y PARTES DE LA TARJETA PRINCIPAL:
El principal componente en una placa base es la superficie sobre la cual se
encuentran todos lo demás componentes de las placas, este primer y principal
componente es el PBC o la tarjeta de circuito impreso, sobre esta tarjeta se
encuentran soldados las demás partes de la placa.
La soldadura que viene impresa en la placa base permite llevar las señales de
voltaje y todos los datos de los componentes.
En una placa base las principales característica que un usuario debe verificar
son:
Procesador
Socket
Factor o forma
Chipset
Memoria
Audio
Puertos I/O
Slots PCI
Puertos USB
Slot AGP
LAN
Características adicionales
25
PARTES DE LA TARJETA PRINCIPAL:
15.
SOFTWARE:
Se conoce como software al equipo lógico o soporte lógico de un sistema
informático, que comprende el conjunto de los
componentes lógicos necesarios que hacen posible la realización de tareas
específicas, en contraposición a los componentes físicos que son
llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones
informáticas; tales como el procesador de texto, que permite al usuario realizar
todas las tareas concernientes a la edición de textos; el llamado software de
sistema, tal como el sistema operativo, que básicamente permite al resto de los
programas funcionar adecuadamente, facilitando también la interacción entre
los componentes físicos y el resto de las aplicaciones, y proporcionando
una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido al referirse a este
concepto, especialmente en la jerga técnica; en tanto que el término sinónimo
«logicial», derivado del término francés logiciel, es utilizado mayormente en
países y zonas de influencia francesa. Su abreviatura es Sw.
16. INTERNET:
26
Internet es un conjunto descentralizado de redes de
comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo
cual garantiza que las redes físicas heterogéneas que la componen funcionen
como una red lógica única de alcance mundial. Sus orígenes se remontan
a 1969, cuando se estableció la primera conexión de computadoras, conocida
como Arpanet, entre tres universidades en California, en Utah y en Estados
Unidos. Uno de los servicios que más éxito ha tenido en Internet ha sido
la World Wide Web (WWW o la Web), hasta tal punto que es habitual la
confusión entre ambos términos. La WWW es un conjunto de protocolos que
permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta
fue un desarrollo posterior (1990) y utiliza Internet como medio de
transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la
Web: el envío de correo electrónico(SMTP), la transmisión de archivos
(FTP y P2P), las conversaciones en línea (IRC), la mensajería
instantánea y presencia, la transmisión de contenido y comunicación
multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines
electrónicos(NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o
los juegos en línea
17. RED DE COMPUTADORAS:
Una red de computadoras, también llamada red de ordenadores, red de
comunicaciones de datos o red informática, es un conjunto de equipos
informáticos y software conectados entre sí por medio de dispositivos
físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o
cualquier otro medio para el transporte de datos, con la finalidad de compartir
información, recursos y ofrecer servicios.
Como en todo proceso de comunicación se requiere de un emisor, un mensaje,
un medio y un receptor. La finalidad principal para la creación de una red de
computadoras es compartir los recursos y la información en la distancia,
asegurar la confiabilidad y la disponibilidad de la información, aumentar
la velocidad de transmisión de los datos y reducir el costo general de estas
acciones. Un ejemplo es Internet, la cual es una gran red de millones de
27
computadoras ubicadas en distintos puntos del planeta interconectadas
básicamente para compartir información y recursos.
La estructura y el modo de funcionamiento de las redes informáticas actuales
están definidos en varios estándares, siendo el más importante y extendido de
todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este
último, estructura cada red en siete capas con funciones concretas pero
relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud
de protocolos repartidos por cada capa, los cuales también están regidos por
sus respectivos estándares.
18. ESTACION DE TRABAJO:
En informática una estación de trabajo (en inglés workstation) es un
computador de altas prestaciones destinado para trabajo técnico o científico.
En una red de computadoras, es una computadora que facilita a los usuarios el
acceso a los servidores y periféricos de la red. A diferencia de una
computadora aislada, tiene una tarjeta de red y está físicamente conectada por
medio de cables u otros medios no guiados con los servidores. Los
componentes para servidores y estaciones de trabajo alcanzan nuevos niveles
de rendimiento informático, al tiempo que ofrecen fiabilidad, compatibilidad,
escalabilidad y arquitectura avanzada ideales para entornos multiproceso.
Lo de las computadoras en general, las computadoras promedio de hoy en día
son más poderosas que las mejores estaciones de trabajo de una generación
atrás. Como resultado, el mercado de las estaciones de trabajo se está
volviendo cada vez más especializado, ya que muchas operaciones complejas
que antes requerían sistemas de alto rendimiento pueden ser ahora dirigidas
a computadores de propósito general. Sin embargo, el hardware de las
estaciones de trabajo está optimizado para situaciones que requieren un alto
rendimiento y fiabilidad, donde generalmente se mantienen operativas en
situaciones en las cuales cualquier computadora personal tradicional dejaría
rápidamente de responder. Actualmente las estaciones de trabajo suelen ser
vendidas por grandes fabricantes de ordenadores como HP o Dell y utilizan
CPUs x86-64 como Intel Xeon o AMD Opteron ejecutando Microsoft
Windows o GNU/Linux. Apple Inc. y Sun Microsystems comercializan también
su propio sistema operativo tipo UNIX para sus workstations.
28
19. SERVIDOR WEB Y CORREO:
Un servidor web o servidor HTTP es un programa informático que procesa
una aplicación del lado del servidor, realizando conexiones bidireccionales y/o
unidireccionales y síncronas o asíncronas con el cliente y generando o
cediendo una respuesta en cualquier lenguaje o Aplicación del lado del cliente.
El código recibido por el cliente suele ser compilado y ejecutado por
un navegador web. Para la transmisión de todos estos datos suele utilizarse
algún protocolo. Generalmente se usa el protocolo HTTP para estas
comunicaciones, perteneciente a la capa de aplicación del modelo OSI. El
término también se emplea para referirse al ordenador que ejecuta el
programa.
Correo electrónico: (en inglés: e-mail), es un servicio de red que permite a los
usuarios enviar y recibir mensajes (también
denominados mensajes electrónicos o cartas digitales) mediante sistemas
de comunicación electrónica. Principalmente se usa este nombre para
denominar al sistema que provee este servicio en Internet, mediante el
protocolo SMTP, aunque por extensión también puede verse aplicado a
sistemas análogos que usen otras tecnologías. Por medio de mensajes de
correo electrónico se puede enviar, no solamente texto, sino todo tipo de
documentos digitales dependiendo del sistema que se use.
20. PROTOCOLO:
Un protocolo es un método estándar que permite la comunicación entre
procesos (que potencialmente se ejecutan en diferentes equipos), es decir, es
un conjunto de reglas y procedimientos que deben respetarse para él
envío y la recepción de datos a través de una redExisten diversosprotocolos de
acuerdo a cómo se espera que sea la comunicación. Algunos protocolos,
por ejemplo, se especializarán en el intercambio de archivos (FTP); otros
pueden utilizarse simplemente para administrar el estado de la transmisión y
los errores (como es el caso de ICMP), etc.
En Internet, los protocolos utilizados pertenecen a una sucesión de
protocolos o a un conjunto de protocolos relacionados entre sí. Este conjunto
de protocolos se denomina TCP/IP. Entre otros, contiene los siguientes
protocolos:
HTTP
29
FTP
ARP
ICMP
IP
TCP
UDP
SMTP
Telnet
NNTP
Protocolo de Internet (IP)
El Protocolo de Internet es un método de transmisión de datos por una red. Los
datos que se envían se dividen en "paquetes" individuales y completamente
independientes. Cada ordenador (o host) de Internet tiene como mínimo una
dirección que lo identifica de forma exclusiva y lo distingue de todos los demás,
y cada paquete de datos contiene la dirección del emisor y la del receptor. El
Protocolo de Internet garantiza que todos los paquetes de datos llegarán a la
dirección apropiada. IP es un protocolo sin conexión, lo cual significa que no
hay ninguna conexión establecida entre los extremos de la comunicación, por
lo que los paquetes se pueden enviar por rutas distintas y no necesitan llegar al
destino en el orden correcto. Una vez que los paquetes de datos han llegado al
destino correcto, otro protocolo, el Protocolo de control de transmisión (TCP),
los coloca en el orden correcto.
21. DIRECCION IP:´
Una dirección IP es una etiqueta numérica que identifica, de manera lógica y
jerárquica, a una interfaz (elemento de comunicación/conexión) de un
dispositivo (habitualmente una computadora) dentro de una red que utilice
el protocolo IP (Internet Protocol), que corresponde al nivel de red del modelo
OSI. Dicho número no se ha de confundir con la dirección MAC, que es un
identificador de 48 bits para identificar de forma única la tarjeta de red y no
depende del protocolo de conexión utilizado ni de la red. La dirección IP puede
cambiar muy a menudo por cambios en la red o porque el dispositivo
encargado dentro de la red de asignar las direcciones IP decida asignar otra IP
(por ejemplo, con el protocolo DHCP). A esta forma de asignación de dirección
IP se denomina también dirección IP dinámica (normalmente abreviado
30
como IP dinámica). Los sitios de Internet que por su naturaleza necesitan estar
permanentemente conectados generalmente tienen una dirección IP
fija (comúnmente, IP fija o IP estática). Esta no cambia con el tiempo. Los
servidores de correo, DNS, FTP públicos y servidores de páginas web
necesariamente deben contar con una dirección IP fija o estática, ya que de
esta forma se permite su localización en la red.
Las computadoras se conectan entre sí mediante sus respectivas direcciones
IP. Sin embargo, a los seres humanos nos es más cómodo utilizar otra
notación más fácil de recordar, como los nombres de dominio; la traducción
entre unos y otros se resuelve mediante los servidores de nombres de
dominio DNS, que a su vez facilita el trabajo en caso de cambio de dirección
IP, ya que basta con actualizar la información en el servidor DNS y el resto de
las personas no se enterarán, ya que seguirán accediendo por el nombre de
dominio.
22. ¿QUE ES INTERNET?
Podemos definir a Internet como una "red de redes", es decir, una red que no
sólo interconecta computadoras, sino que interconecta redes de computadoras
entre sí. Una red de computadoras es un conjunto de máquinas que se
comunican a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia,
líneas telefónicas, etc.) con el objeto de compartir recursos.
De esta manera, Internet sirve de enlace entre redes más pequeñas y permite
ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene
la característica de que utiliza un lenguaje común que garantiza la
intercomunicación de los diferentes participantes; este lenguaje común
o protocolo (un protocolo es el lenguaje que utilizan las computadoras al
compartir recursos) se conoce como TCP/IP. Así pues, Internet es la "red de
redes" que utiliza TCP/IP como su protocolo de comunicación. Internet es un
acrónimo de INTERconected NETworks (Redes interconectadas).
Para otros, Internet es un acrónimo del inglés INTERnational NET, que
traducido al español sería Red Mundial.
23. HISTORIA DEL INTERNET:
31
Nikola Tesla (1856-1943), un ingeniero, poeta e inventor yugoslavo ya predijo
la existencia de un sistema energético de distribución mundial que permitiría
conectar todas las estaciones telefónicas del mundo, la difusión mundial de
información y noticias, correo y otros escritos, la reproducción y envío de
fotografías e imágenes, la implantación de un sistema de difusión musical, la
impresión a distancia y la implantación de un registro horario universal.
Tratándose de la Internet real, una de las influencias decisivas fue Vannevar
Bush, no sólo por sus ideas sobre el hipertexto, sino también por su labor
política y científica, ya que promovió las relaciones entre el gobierno federal de
los Estados Unidos, la comunidad científica norteamericana y los empresarios.
Así, se crearon la Fundación nacional de la ciencia (NSF, National Science
Foundation) y la Agencia de Proyectos avanzados de Investigación (ARPA,
Advanced Research Projects Agency). En 1957, el gobierno de los Estados
Unidos formó la agencia Advanced Research Projects Agency (ARPA), un
segmento del Departamento de Defensa encargado de asegurar el liderazgo
de los Estados Unidos en la ciencia y la tecnología con aplicaciones militares.
El motivo fue el lanzamiento por parte de los soviéticos del satélite Sputnik que
originó una crisis en la confianza americana. En 1969, ARPA estableció
ARPANET, la red predecesora de Internet. Durante los años 60, se
desarrollaron desarrollaron la mayoría de los protocolos para que
los ordenadores de una red se pudieran conectar entre sí. Se trataba de
establecer unas normas comunes que conformaran un lenguaje universal. El
Protocolo utilizado por aquel entonces por las máquinas conectadas a
ARPANET se llamó NCP (Network Control Protocol ó Protocolo de Control de
Red), pero con el tiempo dio paso a un protocolo más sofisticado: TCP/IP que,
de hecho, está formado no por uno, sino por varios protocolos, siendo los más
importantes el protocolo TCP (Transmission Control Protocol ó Protocolo de
Control de Transmisión) y el Protocolo IP (Internet Protocol ó Protocolo de
Internet). Los protocolos TCP/IP dividen la información en pequeños trozos o
"paquetes de información" que viajan de forma independiente y se ensamblan
de nuevo al final del proceso, mientras que IP es el encargado de encontrar la
ruta al destino.
En julio de 1961, Leonard Kleinrock del MIT, publicó el primer documento
sobre la teoría de conmutación de paquetes, en lugar de circuitos. Un año más
tarde, el psicólogo e informático J.C.R. Licklider del Massachusetts Institute of
Technology, comienza a difundir la idea de "trabajo en red" y el concepto de
32
"Galactic Network" (Red Galáctica) que concebía como una red interconectada
globalmente a través de la cual, cualquier persona pudiera acceder desde
cualquier lugar a datos y programas. A finales de 1962, Licklider se convierte
en el principal responsable del programa de investigación en ordenadores de
la DARPA y allí convence a sus sucesores Ivan Sutherland y Bob Taylor, y al
investigador del MIT Lawrence G. Roberts de la importancia del concepto de
"trabajo en red". Licklider creía que los ordenadores se podrían utilizar para
aumentar el pensamiento humano y sugirió que fuera establecida una red de
ordenadores que permitiera a los investigadores de ARPA comunicar
información de modo eficiente. De esta forma y casi al mismo tiempo confluyen
las ideas de Leonard Kleinrock del MIT que publica el artículo "Flujo de
Información en Redes Amplias de Comunicación", J.C.R. Licklider y W. Clark
que escriben "Comunicación hombre-ordenador" y Paul Baran que publica
"Redes de Comunicación Distribuida", en donde hablaba de redes conmutadas
por paquetes, sin punto único de interrupción.
En 1965 la Agencia de Proyectos de Investigación para la Defensa de Estados
Unidos (DARPA, U.S. Defense Advanced Research Projects
Agency), promueve un estudio sobre "Redes cooperativas de computadoras de
tiempo compartido", y al año siguiente, Larry Roberts del MIT, publica "hacia
una red cooperativa de computadoras de tiempo compartido" lo que da origen a
que en años sucesivos, se vayan presentando proyectos sobre redes
conmutadas por paquetes.
Es en 1965 cuando Larry Roberts conecta por medio de una línea telefónica
conmutada a baja velocidad, un ordenador TX2 en Massachusetts con un Q-32
situado en California. Esta fue la primera red de ordenadores y la demostración
de que los ordenadores de tiempo compartido podían trabajar juntos
correctamente, ejecutar programas y recuperar datos en la máquina remota.
También se comprobó que era preferible la conmutación de paquetes que la de
circuitos.
Por su parte, Bob Taylor, director de la oficina de técnicas de proceso de
información (IPTO, Information Processing Techniques Office) entre 1966 y
1969, quería encontrar una manera eficiente que permitiera compartir recursos
informáticos a varios trabajadores de la IPTO. Recogió la vieja idea de Licklider
de una red y empleó a Larry Roberts para dirigir el proyecto. Roberts sería el
arquitecto principal de una nueva red de ordenadores que sería conocida como
ARPANET. Así, los principios de Internet estaban en curso.
33
A finales de 1966 Roberts se trasladó a la DARPA para desarrollar el concepto
de red de ordenadores y rápidamente confeccionó su plan para ARPANET,
publicándolo en 1967. En la conferencia en la que presentó el documento se
exponía también un trabajo sobre el concepto de red de paquetes a cargo
de Donald Davies y Roger Scantlebury del NPL. La realidad es que los
trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido
en paralelo sin que unos investigadores de un centro hubieran tenido
conocimiento del trabajo de los demás. La palabra packet (paquete) fue
adoptada a raíz del trabajo del NPL.
En Agosto de 1968, DARPA lanzó un RFQ (Request For Comments) para el
desarrollo de uno de sus componentes clave: los conmutadores de paquetes o
"interface message processors" (IMPs, procesadores de mensajes de interfaz).
Los mensajes deberían enviarse en paquetes, esto es, dividiéndose en
pequeños trozos de información que contendrían la dirección de destino pero
sin especificar una ruta específica para llegar, puesto que cada uno buscaría la
mejor manera de llegar por las rutas disponibles y el destinatario reensamblaría
todos los paquetes para reconstruir el mensaje original.
Curiosamente fue el Laboratorio Nacional de Física de Gran Bretaña quien
creó la primera red Experimental en 1968. Al año siguiente, el Pentágono
decide financiar su propio proyecto: ARPANET (Advanced Research Projects
Agency NETwork) que pretendía eliminar la existencia de cualquier "autoridad
central", para que la red no pudiera ser atacada. Se pensó, pues, en una red
descentralizada en donde cada ordenador conectado tuviera el mismo rango y
la misma capacidad para mandar y recibir información. Así, en
1969 DARPA y Rand Corporation desarrollan una red sin nodos centrales
basada en conmutación de paquetes. Se establece la primera red y el primer
ordenador host (servidor) en Estados Unidos en la Universidad de California
(UCLA) donde trabajaba Kleinrock. Poco más tarde aparecen 3 redes más.
El segundo nodo fue el del proyecto de Douglas Engelbart, "Augmentation of
Human Intelec" (Aumento del Intelecto Humano) que incluía NLS, el sistema de
hipertexto desarrollado en el Instituto de Investigación de Standford (SRI). El
SRI patrocinó el Network Information Center para mantener tablas de nombres
de host para la traducción de direcciones así como un directorio de RFCs
(Request For Comments). El primer mensaje de host a host fue enviado desde
el laboratorio de la UCLA donde trabajaba Leinrock al SRI. El tercer y cuarto
nodos se localizaron en las universidades de California y Utah. Así, a finales de
34
1969, 4 ordenadores host estaban conectados conjuntamente a ARPANET.
Este fue el origen de Internet.
En los años posteriores se fueron conectando más y más ordenadores a la
red ARPANET. En 1970, el Network Working Group (NWG) terminó el
protocolo host a host para ARPANET, denominado Network Control
Protocol (NCP, protocolo de control de red) y se comenzaron a desarrollar
aplicaciones, estándares y protocolos como telnet, ftp, protocolos de voz, etc.
Y empezaron a crearse nuevas redes alrededor del mundo, incluso redes
enlazadas de satélites, redes de paquetes por radio y otros tipos de redes. Sin
embargo, existía un problema, estas redes no podían comunicarse entre sí
porque usaban protocolos diferentes para la transmisión de datos.
En 1971 Ray Tomlinson, del BBN crea el primer programa para enviar correo
electrónico. Se trataba de un programa que combinaba el correo electrónico
con un programa de transferencia de ficheros. Ese mismo año, un grupo de
investigadores del MIT presentan la propuesta del primer "Protocolo para la
transmisión de archivos en Internet", se trataba de un protocolo muy sencillo
basado en el sistema de correo electrónico, pero sentó las bases para el futuro
protocolo de transmisión de ficheros (FTP).
En octubre de 1972, Kahn organizó la primera demostración pública
de ARPANET en la International Computer Communication Conference y a
partir de ahí comienza la carrera de las instituciones académicas por
conectarse a la red.
La red propuesta por Bob Kahn antes de su llegada a DARPA era una red de
arquitectura abierta en donde las redes individuales eran diseñadas y
desarrolladas separadamente y cada una podía tener su propia y única
interfaz, diseñada a la medida de su destino y función y de las necesidades de
sus usuarios. El trabajo de Kahn -un sistema de paquetería por radio- se
convirtió en un programa separado llamado Internetting que utilizaba un
protocolo extremo a extremo que intentaba mantener la comunicación efectiva
35
frente a los cortes e interferencias de radio, pérdidas o bloqueos. Sin embargo,
Kahn se dio cuenta de que necesitaba saber los detalles de cada sistema
operativo para poder incluir nuevos protocolos de manera eficiente en un
entorno de arquitectura abierta y le pidió Vinton Cerf, de la Universidad de
Stanford, que trabajaran juntos en el diseño de un verdadero protocolo de
comunicaciones.
En 1974, Vinton Cerf y Bob Kahn, publican "Protocolo para
Intercomunicación de Redes por paquetes", donde especifican en detalle el
diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP,
Transmission Control Protocol). La naturaleza descentralizada de ARPANET y
la disponibilidad gratuita de los programas basados en TCP/IP fue lo que
permitió que en 1977, otro tipo de redes no vinculadas a ARPANET,
empezaran a conectarse. Aparecen entonces las primeras referencias a
Internet, como "una serie de redes conectadas entre sí, específicamente
aquellas que utilizan el protocolo TCP/IP". Internet es la abreviatura
de Interconnected Networks, es decir, Redes interconectadas, o red de redes.
La puesta en marcha del protocolo TCP permitió a las diversas redes
conectarse en una verdadera red de redes, por eso se conoce a Vinton Cerf
como el padre de Internet.
En 1979 ARPA crea la primera comisión de control de la configuración de
Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control
Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982,
sustituyendo a NCP.
TCP/IP había sido adoptado como un estándar por el ejército norteamericano.
Esto permitió al ejército empezar a compartir la tecnología DARPA basada en
Internet y llevó a la separación final entre las comunidades militares y no
militares. En 1983 ARPANET estaba siendo usada por un número significativo
de organizaciones operativas y de investigación y desarrollo en el área de la
defensa. La transición desde NCP a TCP/IP en ARPANET permitió que el
segmento militar se separara del segmento de la investigación.
Así, en 1983, el segmento militar de ARPANET decide formar su propia red
denominada MILNET. Y ya, sin fines militares, ARPANET abre las puertas a
universidades, empresas y todo tipo de instituciones. Desde ese momento
ARPANET, y todas sus redes asociadas empiezan a ser conocidas como
Internet. En 1984 la NSF (National Science Foundation) Fundación Nacional
para la Ciencia dio acceso a sus seis centros de supercomputación a otras
universidades a través de la ARPANET. La NSF inicia una nueva "red de
36
redes" a través de nuevas y más rápidas conexiones. Esta red se le conoció
como NSFNET y adoptó también como protocolo de comunicación a TCP/IP. A
partir de ahí se conectan más y más redes e, incluso, aparecieron nuevas
redes como USENET y BitNet. La interconexión de todas ellas dio lugar a
Internet.
Desde entonces, el desarrollo y extensión de Internet es imparable. Cada vez
se conectan más máquinas a la red, y se van mejorando los servicios. Por
ejemplo, en 1985 se termina el desarrollo del protocolo FTP (File transfer
protocol) para la transmisión de ficheros en Internet, basado en la filosofía de
cliente-servidor.
En 1987 es cuando empieza la verdadera explosión de Internet y ese año se
incorporan diversas redes de Europa. Aparece la primera aplicación informática
de hipertexto de uso popular, Hypercard para Macintoch.
A NSFNET empezaron a conectarse no solamente centros de
supercomputación, sino también instituciones educativas con redes más
pequeñas. El crecimiento exponencial que experimentó NSFNET así como el
incremento continuo de su capacidad de transmisión de datos, determinó que
la mayoría de los miembros de ARPANET terminaran conectándose a esta
nueva red y en 1989, ARPANET se declara disuelta.
Como el modelo original estaba previsto para un conjunto muy reducido de
redes de ámbito nacional, se usó la dirección IP de 32 bits, de la cual los
primeros 8 identificaban la red y los restantes 24 designaban el host o servidor
dentro de dicha red. Entonces se pensó que 256 redes serían suficientes,
puesto que no se había previsto la proliferación de LANs y mucho menos la de
PCs y estaciones de trabajo. Por su parte, Ethernet estaba desarrollándose en
el PARC de Xerox desde 1973 por Bob Metcalfe y, lo que antes eran unas
pocas redes con un número muy reducido de servidores, se convierte ahora en
un gran número de redes con numerosos servidores.
Así pues, eran precisos nuevos cambios tecnológicos para atender a la nueva
situación. Lo primero que se hizo fue definir los tipos de redes A, B y C. El tipo
A representaba a las grandes redes de escala nacional (pocas redes con
muchos ordenadores); el tipo B a las redes regionales y el tipo C a las redes de
área local (muchas redes con pocos ordenadores).
En segundo lugar, se asignaron nombres a los hosts para que fueran más
fáciles de recordar que las largas secuencia numéricas de sus direcciones.
Cuando había un número muy limitado de ordenadores bastaba con una simple
tabla con el nombre del ordenador y su dirección, pero había cuando el número
37
creció, había que idear otra fórmula. Esto llevó a Paul Mockapetris de USC/ISI
a inventar el DNS (Domain Name System) o sistema de nombres de dominio.
El DNS permitía resolver de forma jerárquica los nombres de los hosts o
servidores de las direcciones de Internet (por ejemplo, www.acm.org).
Como NSFNET no sólo conectaba ordenadores en Estados Unidos, sino
también en otros países, se decidió también una división por categorías de
ordenadores conectados. Nacieron así los dominios geográficos para las redes
de fuera de los Estados Unidos. En el interior, los integrantes de NSFNET se
agruparon bajo seis categorías básicas o dominios : "gov" (gobierno), "mil"
(instituciones militares), "edu" (instituciones educativas), "com" (instituciones
comerciales), "org" (para instituciones sin fines lucrativos) y "net" (para los
ordenadores que servían de enlace entre las diferentes sub-redes o gateways).
En 1988 se agregó el sufijo "int" para instituciones internacionales derivadas de
tratados entre gobiernos.
En 1989 en Ginebra, Tim Berners-Lee del Centre Européen de Recherche
Nucléaire (CERN), inventa un sistema de información en la red con
posibilidades hipertextuales y multimedia. Había nacido la World Wide Web.
Usando hipertexto, Tim Berners-Lee creó una nueva manera de interactuar con
Internet en 1990: la World Wide Web. Su sistema hace mucho más fácil
compartir y encontrar datos en Internet.
En los Estados Unidos el gran aumento de usuarios provocó en 1990 la
retirada de la agencia ARPA, y su red pasó a estar a cargo de la NSF. Internet
comenzó a saturarse y, para evitar el colapso, se restringieron los accesos.
Eran años de incertidumbre ya que nadie había ideado la red para los fines y
las dimensiones que se estaban alcanzando, y los responsables se veían
desbordados.
La World Wide Web fue creciendo a medida que se desarrollaba nuevo
software y nuevas tecnologías. Marc Andreesen creó un
nuevo navegador llamado Mosaic en 1993 y después dirigió al equipo que
creó Netscape Navigator. Además, Berners-Lee, creó las bases del protocolo
de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los
URL. No nos extenderemos más en estos aspectos ya que hemos dedicado un
capítulo completo a la historia de la World Wide Web.
En España, en 1988, el Plan Nacional de Investigación y Desarrollo, crea un
programa para la Interconexión de los Recursos Informáticos (IRIS) de los
centros de investigación. Al principio fue gestionado por Fundesco (Fundación
de Telefónica), pero desde 1994, la RedIRIS está gestionada por el Consejo
38
Superior de Investigaciones Científicas y es la entidad encargada de asignar
los nombres de dominio .es. Sin embargo, hasta 1991 la red IRIS no se
conectaría a Internet para dar servicio a las universidades españolas. De esta
forma, la RedIRIS se convirtió en el motor de conexión de las universidades
españolas y centros de desarrollo a la red.
En septiembre de 1993 se inició el primer servidor Web en español. En estos
momentos se aumenta la potencia de las redes troncales de EE.UU., y en 1994
se eliminan las restricciones de uso comercial de la red y el gobierno de
EE.UU. deja de controlar la información de Internet. En 1995 nace la Internet
comercial y la Web ya supera en uso al servicio de transferencia de archivos a
través del protocolo FTP y al uso de telnet.
El desarrollo tecnológico de los servicios de Internet y, en concreto, de la World
Wide Web es impresionante. Se desarrollan los motores de búsqueda, otros
lenguajes y tecnologías como los entornos virtuales
(VRML), las videoconferencias, las llamadas telefónicas
a través de Internet al precio de una llamada local, la
banca virtual y el comercio electrónico, etc.
24. Las redes inalámbricas e, incluso, la telefonía móvil
también confluyen con Internet. Se desarrollan los
protocolos(Wireless Application Protocol) y nace el lenguaje WML,
el HTML para ver páginas web sobre los teléfonos móviles. El desarrollo de
Internet es imparable, pero ¿Cuál es el futuro de la red de redes?
El futuro de Internet:
En 1998 el entonces vicepresidente de los EE.UU. anunció a los medios de
comunicación una revolución "más importante que la invención de la
imprenta". Se trataba de Internet2, un proyecto iniciado a finales de 1996 por
un conjunto de 34 universidades estadounidenses que acordaron desarrollar
una nueva infraestructura de red, tanto en el plano físico (hardware), como en
el lógico (definición de nuevos estándares, desarrollo del software necesario,
etc.). Al proyecto se han ido sumando más y más universidades, bibliotecas,
agencias de investigación, gobiernos y empresas. El objetivo es crear un
sistema de redes para la comunidad de investigación, habilitar aplicaciones de
Internet y asegurar una transferencia de datos más veloz tanto en las
aplicaciones como en la propia red. Se estima que Internet2 (I2) será entre
100 y 1.000 veces más rápida que la actual Internet) El proyecto está pensado
para aplicaciones como bibliotecas digitales y laboratorios virtuales,
telemedicina, teleinmersión, educación a distancia y otras aplicaciones que no
39
serían posibles con la tecnología del Internet de hoy. Ya se han desarrollado
proyectos como el protocolo Ipv6, el multicasting (transmisión de mensajes e
información desde un ordenador central hacia los demás ordenadores
conectados a la red) y la calidad de servicio (QoS) que harán posible una
nueva generación de aplicaciones de Internet; pero existen otros muchos
proyectos en marcha que tienen que ver con conexiones y redes avanzadas de
comunicaciones, interoperatibilidad de tecnologías, conocimientos e
inteligencia distribuida, etc.
Internet2 no reemplazará a la Internet actual, sino que se trata de una red que
unirá a las instituciones, gobierno e industria con los recursos para desarrollar
estas nuevas tecnologías. La ingeniería de esta red se basa en la
intercomunicación avanzada entre varios gigaPoPs (gigabit capacity Point of
Presence), esto es, punto de aproximación de 1 gigabit de capacidad, o lo que
es lo mismo, un punto de interconexión de alta capacidad desde donde los
participantes de Internet2 podrán intercambiar servicios avanzados. Las
instituciones de una misma zona geográfica se asociarán para financiar y
adquirir una variedad de servicios en un gigaPop regional y desde los puntos
de las redes locales, como pueden ser las universidades, se podrá tener
acceso a esos servicios.
Esta red estará especialmente dedicada a la investigación y la educación y los
particulares no nos podremos conectar a ella de la misma forma que
accedemos ahora a Internet a través de una red empresarial. Internet2 no es
una red individual que precisa de conexiones individuales, sino un sistema
completo que da paso a una mejor red de intercomunicación e interacción. Por
supuesto, Internet2 será capaz de integrar las redes actuales que interesen,
incluyendo la Web actual.
24. FUNCIONES DEL INTERNET:
Internet posee una gran gama de funcionalidades que abren infinitas nuevas
posibilidades de desarrollo personal y de gestión de nuestras actividades
diarias, como familiares, laborales y lúdicas:
1.- Comunicación: Internet constituye un canal de comunicación (escrita,
visual, sonora...) a escala mundial, cómodo y versátil. La red facilita la
comunicación y la relación interpersonal asíncrona (correo electrónico
como Yahoo, Gmail, Hotmail) o síncrona (Chat, videoconferencia...), permite
40
compartir y debatir ideas y facilita el trabajo cooperativo y la difusión de las
creaciones personales. También permite la publicación de información
accesible desde toda la Red (Web, weblogs, etc.)
2.- Información: Internet integra la mayor base de datos jamás imaginada, con
información multimedia de todo tipo y sobre cualquier temática
(Google, Altavista, etc.) Además puede integrar los "mass media"
convencionales: canales deradio y televisión, prensa, cine.
3.- Comercio y gestiones administrativas: Cada vez son más las empresas
que utilizan Internet como escaparate publicitario para sus productos y
servicios (asesoramiento, mediación, banca...), así como canal de venta o
medio para realizar trámites y gestiones.
4.- Entretenimiento: Además de la satisfacción que proporciona el hallazgo de
información sobre temas que sean de nuestro interés, Internet permite acceder
a numerosos programas y entornos lúdicos (¡y hasta jugar con otras personas
conectadas a la red!).
5.- Tele-trabajo: Cada vez son más las personas que realizan su trabajo, total
o parcialmente, lejos de las dependencias de su empresa. Los ordenadores y
los sistemas de telecomunicación permiten, si es necesario, estar en
permanente contacto y acceder a la información y a las personas de todos los
departamentos de la entidad.
6.- Soporte activo para el aprendizaje: Ante la cambiante y globalizada
sociedad de la información, que exige a sus ciudadanos una formación
permanente, Internet proporciona numerosos instrumentos que facilitan el
aprendizaje autónomo, el trabajo colaborativo y la personalización de la
enseñanza. Con todo ello, y a la luz de las perspectivas socio-constructivistas
del aprendizaje, se va perfilando un nuevo paradigma para la enseñanza en el
que la información está en todas partes, la comunicación puede realizarse en
cualquier momento.
25. CARACTERISITCAS DEL INTERNET:
Universal: Se refiere a que internet es mundial, en casi todos los países se
puede encontrar cualquier tipo de información gracias a ésta red.
Interactiva: en internet se encuentran mucho sitios para compartir opiniones,
41
gustos e información, tales como foros, salas de chat, blogs, ETC.
"libre"?: Internet permite la distribución libre de la información, pero muchos
gobiernos intervienen en las redes que distribuyen archivos, con el fin de
"proteger los derechos de autor". por éste motivo, en repetidas ocasiones la
información se ve limitada a la compra y venta de la misma.
Integral: Gracias a su cobertura mundial, internet puede ser utilizada con
diferentes fines, como por ejemplo los negocios, ya que permite el contacto
entre compañías y personas, facilitando así las relaciones empresariales y de
negocios.
Informativa: los más importantes diarios y canales de noticias a nivel mundial,
cuentan con una página web, a través de la cual los usuarios pueden
mantenerse en contacto con las novedades que ocurren en los diferentes
lugares. Gracias a eso, la información es coincide de manera casi inmediata y
simultánea en cualquier lugar con acceso a internet.
26. ¿WWW QUÉ ES?
WWW tiene dos significados o áreas relacionadas en un mismo concepto: Su
primer significado consiste en ser un acrónimo que viene del concepto World
Wide Web, también conocido como la telaraña, red o malla mundial.
Básicamente consiste en un medio de comunicación en donde se dispone de
documentos de hipertexto (o sea que se incluyen enlaces a otros sitios
documentos) con textos, imágenes, videos, gráficos u otros objetos. Para
acceder a estos documentos o páginas web, se requiere de un navegador, que
no es más que un software o programa capaz de interpretar de manera gráfica
o visible la información que obtiene de la Internet. En otros artículos ya hemos
hablado en extenso sobre la Internet, sus orígenes y su evolución, por lo que
pasaremos de inmediato la otra gran connotación que tiene este acrónimo.
El segundo significado o área de aplicación de WWW es el uso esta sigla
como un prefijo, agregado ya como costumbre al comienzo de la dirección o
URL de un sitio en Internet. Por ejemplo en la página que visitas al momento,
Mis Respuestas, si te fijas en su dirección esta se escribe como
"www.misrespuestas.com". En otros casos, te darás cuenta de que hay sitios
que no emplean este prefijo en su dirección, e incluso hay algunos que tienen
otros diferentes; por ejemplo en la sección de la comunidad de este sitio, la
dirección se escribe como "tuspreguntas.misrespuestas.com", o sea sin usar el
42
www, y en vez de aquello se usa una palabra para identificar la sección del
sitio. La verdad es que el uso de WWW en las direcciones de los sitios no es
un estándar ni una obligación, pero debido a la costumbre de asociar este
término a los sitios o páginas web, es que se sigue usando en la mayoría de
los casos para identificar las direcciones o URLs en la Internet. Cuando no se
usa, entonces es común usar este espacio para dar referencia a una sección
en particular de un sitio. Otro motivo para la generalización del uso de WWW
en los nombres de dominio, es que los servidores por lo general lo asignan
automáticamente a la dirección; es decir los servidores reconocen
generalmente la dirección se le agregue o no el prefijo al comienzo - o sea es
en términos técnicos casi lo mismo (casi porque en muchos casos los
propietarios de sitios modifican estas opciones para que se reconozca solo una
versión del sitio, con o sin el prefijo, para no generar confusión entre los
usuarios). El nombre con el que se conoce a las siglas usadas antes del
dominio o nombre oficial del sitio, es el de "dominio de tercer nivel" o
subdominio. En todo caso lo usual es usar el término subdominio cuando se
usa un prefijo distinto al ya clásico WWW.
27. NAVEGADOR:
Un navegador web (en inglés, web browser) es
un software, aplicación o programa que permite el acceso a la Web,
interpretando la información de distintos tipos de archivos y sitios web para que
estos puedan ser visualizados.
La funcionalidad básica de un navegador web es permitir la visualización de
documentos de texto, posiblemente con recursos multimedia incrustados.
Además, permite visitar páginas web y hacer actividades en ella, es decir,
enlazar un sitio con otro, imprimir, enviar y recibir correo, entre otras
funcionalidades más.
Los documentos que se muestran en un navegador pueden estar ubicados en
la computadora donde está el usuario y también pueden estar en cualquier otro
dispositivo conectado en la computadora del usuario o a través de Internet, y
que tenga los recursos necesarios para la transmisión de los documentos
(un software servidor web).
43
Tales documentos, comúnmente denominados páginas web,
poseen hiperenlaces o hipervínculos que enlazan una porción de texto o una
imagen a otro documento, normalmente relacionado con el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier
computadora conectada a Internet, se llama "navegación", de donde se origina
el nombre navegador (aplicado tanto para el programa como para la persona
que lo utiliza, a la cual también se le llama "cibernauta"). Por otro
lado, "hojeador" es una traducción literal del original en inglés, browser, aunque
su uso es minoritario.
28. BUSCADOR:
Un buscador es una página de internet que permite realizar búsquedas en la
red. Su forma de utilización es muy sencilla, basta con introducir una o más
palabras clave en una casilla y el buscador generará una lista de páginas web
que se supone guardan relación con el tema solicitado. Digo se supone porque
como veremos más adelante, esto no es siempre así. Aunque el modo de
utilización es muy fácil a nivel básico, los buscadores permiten opciones
avanzadas para refinar la búsqueda, cuyo resultado puede ser en muchas
ocasiones de miles de páginas. Mediante estas opciones avanzadas se puede
acotar la búsqueda y obtener un número de páginas más manejable. Debido al
gran tamaño de Internet y a su naturaleza cambiante, ningún buscador posee
registro de todas las páginas que se encuentran en la red. Por ello es
aconsejable visitar más de un buscador para contrastar los resultados y en
ningún caso pensar que si una página no aparece en un buscador, es que no
existe.
29. SERVICIOS DE INTERNET:
El correo electrónico: El correo electrónico o e-mail (electronic mail) es el
servicio más utilizado y más común en la red. Si antes debíamos esperar días
para recibir una carta del extranjero, hoy nos basta con unos minutos o incluso
segundos. Este servicio permite enviar textos y archivos de imagen o sonido de
forma muy fácil y sencilla, transmitiendo mensajes rápidos entre personas o
grupos alrededor de todo el mundo en un tiempo récord.
Mensajeria instantánea: La Mensajería Instantánea es un punto intermedio
entre los sistemas de chat y los mensajes de correo electrónico, las
44
herramientas de mensajería instantánea, son programas regularmente
gratuitos y versátiles, residen en el escritorio y, mientras hay una conexión a
Internet, siempre están activos.
El servicio de mensajería instantánea ofrece una ventana donde se escribe el
mensaje, en texto plano o acompañado de iconos o "emoticons" (figura que
representan estados de ánimo), y se envían a uno o varios destinatarios
quienes reciben los mensajes en tiempo real, el receptor lo lee y puede
contestar en el acto.
La videoconferencia: Si fueras periodista y tuvieras que entrevistar a alguien
que vive a miles de kilómetros de distancia, lo normal sería tomar un avión y
pasar varias horas en el aire hasta llegar a tu entrevistado. Sin embargo, con la
videoconferencia esto ya no es necesario, porque lo puedes hacer desde tu
casa, oficina, colegio o universidad, sin tener que viajar fuera del país.
La videoconferencia es un sistema de comunicación especialmente diseñado
para los encuentros a distancia, permitiéndonos ver, escuchar y hablar con
personas de cualquier parte del mundo en tiempo real. Además, se puede
compartir información de todo tipo, desde documentos hasta imágenes,
fotografías y videos.
El comercio electrónico: Después de todo lo que hemos mencionado,
difícilmente el comercio y cualquier cosa que permita un ingreso extra podría
quedar atrás. Por lo mismo, se creó el ya conocido comercio electrónico, que
permite realizar todo tipo de transacciones y compras a través de Internet.
La ventaja principal de este servicio es que las tiendas virtuales no tienen
horario, por lo que podemos comprar lo que queramos en cualquier parte del
mundo, a cualquier hora y sin movernos de nuestro hogar.
Porque, además, se paga con tarjetas de crédito y el despacho es a domicilio...
¿qué más fácil?
Es una verdadera tienda, porque puedes pasearte por toda la página web
como si estuvieras vitrineando en un mall; vas seleccionando lo que te gusta
hasta que por último llegas a la caja y compras lo que quieres.
Bajar programas: En la red existen diversos lugares de los cuales podemos
obtener los programas más actuales que se están utilizando y bajarlos
directamente a nuestro computador. De todo lo que puedes conseguir en lo
relativo a software, existen dos tipos: shareware y freeware.
45
El shareware tiene un valor económico, pero puedes bajarlo y usarlo gratis
durante un determinado período de tiempo, como una especie de prueba. Si
después de ese tiempo el programa es de tu agrado, puedes comprarlo
directamente en la misma página. De lo contrario, perderá ciertas propiedades
o caducará y no podrás volver a usarlo.
De noticias: Una de las temáticas más buscadas en Internet son las noticias,
ya que mantienen a todos los usuarios muy bien informados de la actualidad
nacional e internacional.
Existen diversos medios de comunicación en Internet que, además de entregar
las noticias a cada minuto, tienen envío diario vía e-mail para sus suscriptores.
La mayor parte de los países del mundo tiene webs de sus medios de
comunicación, lo que significa una gran cantidad de información noticiosa para
los usuarios.
Educación: Los niños de nuestro país y del mundo merecen tener espacios
donde encontrar todo tipo de información para realizar sus tareas y trabajos.
Por lo mismo, en la red existen diversos sitios para aquellos que aún estén
estudiando. La mayoría de los sitios se preocupan de entregar una información
clara y precisa para que los más pequeños entiendan y puedan realizar sus
tareas de manera fácil y entretenida.
Deportes: Los sitios de deporte son de los más visitados en Internet, ya que
consta de millones de adeptos a lo largo de Chile y el mundo. Desde clases
hasta resultados de campeonatos y noticias encontrarás en las millones de
páginas deportivas que existen en toda la red.
Para los niños: Una de las máximas atracciones para los pequeños de la casa
son los innumerables juegos que Internet ofrece. Lo bueno es que no es
necesario bajarlos a tu computador para jugar; puedes hacerlo en línea y
competir con otro jugador que se encuentre conectado igual que tú. Miles son
las personas que juegan a diario, y tal vez en este momento sean millones. La
forma más fácil de encontrar sitios que contengan juegos es entrar a un
buscador y escribir: “computer games” o “onlinegames” y hallarás un sinfín de
páginas destinadas a ellos.
Redes sociales: Las redes sociales en Internet han ganado su lugar de una
46
manera vertiginosa convirtiéndose en promisorios negocios para empresas,
artistas, marcas, freelance y sobretodo en lugares para encuentros humanos.
Las Redes son formas de interacción social, definida como un intercambio
dinámico entre personas, grupos e instituciones en contextos de complejidad.
Un sistema abierto y en construcción permanente que involucra a conjuntos
que se identifican en las mismas necesidades y problemáticas y que se
organizan para potenciar sus recursos.
30.¿QUE ES LA PÁGINA WEB?
Una página web, página electrónica o cyber página,1 2 es un documento o
información electrónica capaz de contener texto, sonido, vídeo, programas,
enlaces, imágenes, y muchas otras cosas, adaptada para la llamada World
Wide Web, y que puede ser accedida mediante un navegador. Esta
información se encuentra generalmente en formato HTML o XHTML, y puede
proporcionar navegación (acceso) a otras páginas web
mediante enlaces de hipertexto. Las páginas web frecuentemente también
incluyen otros recursos como ser hojas de estilo en
cascada, guiones (scripts), imágenes digitales, entre otros.
Las páginas web pueden estar almacenadas en un equipo local o en
un servidor web remoto. El servidor web puede restringir el acceso únicamente
a redes privadas, por ejemplo, en una intranet corporativa, o puede publicar las
páginas en la World Wide Web. El acceso a las páginas web es realizado
mediante una transferencia desde servidores, utilizando el protocolo de
transferencia de hipertexto (HTTP).
47