Final Computación

151
WI-FI Wi-Fi (pronunciado en español /wɪfɪ/ y en inglés /waɪfaɪ/) es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 relacionados a redes inalámbricas de área local. Seguridad y fiabilidad Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las

description

Trabajo Práctico final de computacion

Transcript of Final Computación

Page 1: Final Computación

WI-FIWi-Fi (pronunciado en español /wɪfɪ/ y en inglés /waɪfaɪ/) es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 relacionados a redes inalámbricas de área local.Seguridad y fiabilidadUno de los

problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias.Un muy elevado porcentaje de redes son instalados sin tener en consideración la

Page 2: Final Computación

seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables a los crackers), sin proteger la información que por ellas circulan.Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos.

La mayoría de las formas son las siguientes: WEP, cifra los datos en su red de forma

que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire. Este tipo de cifrado no está muy recomendado, debido a las grandes vulnerabilidades que presenta, ya que cualquier cracker puede conseguir sacar la clave.

WPA: presenta mejoras como generación dinámica de la clave de acceso. Las

Page 3: Final Computación

claves se insertan como de dígitos alfanuméricos, sin restricción de longitud

IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.

Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo más recomendable si solo se va a usar con los mismos equipos, y si son pocos.

Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.

El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.

Page 4: Final Computación

Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.

Ventajas y desventajasLas redes Wi-Fi poseen una serie de ventajas,

entre las cuales podemos destacar: Al ser redes inalámbricas, la comodidad

que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.

Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.

La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con

Page 5: Final Computación

una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.

Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:

Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.

La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red

Page 6: Final Computación

inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante).

Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.

INMUNIZAR LA PCEn esta época en la que la mayoría de nosotros hemos reemplazado los CDs (y, bueno, nuestros llaveros) con memorias USB para transportar datos, una de manera muy común de infección de virus es precisamente a través de este pequeño aparato.Por qué?

Page 7: Final Computación

Porque una memoria USB puede ( y suele) tener derechos para auto-ejecutar programas apenas la insertamos (de manera similar a los CDs de música o datos, cuando Windowsofrece reproducirlos). Por lo tanto; si tenemos una PC con un antivirus malo o desactualizado, apenas insertamos el USB, corremos el riesgo de quedar infectados inmediatamente.Cómo Sucede?Al igual que los CDs / DVDs, las memorias USB

pueden tener un archivo llamado autorun.inf, con direcciones que Windows reconoce para autoejecutar programas. Un uso común (y correcto), por ejemplo, es si tenemos un autorun.inf creado por nosotros, que automáticamente lance PortableApps, y así ahorrarnos el estarlo buscando.Pero por supuesto, esto puede ser maliciosamente, y obligar al autorun.inf a lanzar un archivo infectado, o al virus mismo, que a su vez, se propagará en nuestra PC y, por supuesto, podría infectar a futuras memorias USB que insertemos.Esto ocasiona un grave fallo de seguridad en Windows, pues usualmente, viene activado por defecto (algo que ya ha sido remediado en

Page 8: Final Computación

Windows 7) y por lo tanto, si no tenemos un antivirus instalado, basta con que alguien inserte un USB con un autorun.inf que apunte a un virus, y listo: PC infectada.Pasos para

PrevenirloUsualmente, lo que

tenemos que hacer es editar las políticas de grupo, o modificar el registro de Windows para obligar al sistema operativo a desactivar la ejecución automática de medios portátiles (tanto memorias USB, como DVDs)Pero existe una excelente herramienta elaborada por Panda que nos permite hacer dos cosas:

Deshabilitar Autorun – Y así evitar que la próxima vez que insertemos la memoria USB de alguien más, se pueda ejecutar algo.

Evitar que nuestro USB contagie – Con esta opción, Panda USB Vaccine evita que nuestro propio USB se vuelva un foco infeccioso: Es decir, previene la posibilidad de que nuestra

Page 9: Final Computación

memoria USB sea contagiada por una PC con virus, pues no permitirá que se cree un archivo autorun.inf, efectivamente volviendo a nuestra memoria inmune.

Este es uno de los programas que realmente deberían estar presentes en las PCs de todos, pues en pocos años, el contagio de virus a través de memorias USB, se ha vuelto alarmante.

NAVEGADORES WEB

Un navegador o navegador web (del inglés, web browser) es un programa que permite ver la información que contiene una página web (ya

se encuentre ésta alojada en un servidor dentro de la World Wide Web o en un servidor local).El navegador interpreta el código, HTML

Page 10: Final Computación

generalmente, en el que está escrita la página web y lo presenta en pantalla permitiendo al usuario interactuar con su contenido y navegar hacia otros lugares de la red mediante enlaces o hipervínculos.La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un softwareservidor web).Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a la Internet, se llama navegación, de donde se origina el nombrenavegador (aplicado tanto para el programa como para la persona que lo utiliza, a la cual también se le llama cibernauta).

Page 11: Final Computación

Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritarioFuncionamiento de los navegadoresLa comunicación entre el servidor web y el

navegador se realiza mediante el protocolo HTTP, aunque la mayoría de los hojeadores soportan otros protocolos comoFTP, Gopher, y HTTPS (una versión cifrada de HTTP basada en Secure Socket Layer o Capa de Conexión Segura (SSL)).La función principal del navegador es descargar documentos HTML y mostrarlos en pantalla. En la actualidad, no solamente descargan este tipo de documentos sino que muestran con el documento sus imágenes, sonidos e incluso vídeos streaming en diferentes formatos y protocolos. Además, permiten almacenar la información en el disco o crear marcadores (bookmarks) de las páginas más visitadas.Algunos de los navegadores web más populares se incluyen en lo que se denomina una Suite. Estas Suite disponen de varios programas integrados para leer noticias de Usenet y correo electrónico mediante los protocolos NNTP, IMAP y POP.

Page 12: Final Computación

Los primeros navegadores web sólo soportaban una versión muy simple de HTML. El rápido desarrollo de los navegadores web propietarios condujo al desarrollo de dialectos no estándares de HTML y a problemas de interoperabilidad en la web. Los más modernos (como Google Chrome, Amaya, Mozilla, Netscape, Opera eInternet Explorer 8.0) soportan los estándares HTML y XHTML (comenzando con HTML 4.01, los cuales deberían visualizarse de la misma manera en todos ellos).Los estándares web son publicados por el World Wide Web Consortium.

CUAL USAR?Firefox es un navegador muy reconocido, desarrollado por la empresa Mozilla, es probablemente el navegador que mejor performance tenga en cuanto a la relación velocidad-configuración. Posee una velocidad de navegación que anda en las mejores de la actualidad y tiene la gran virtud de contar con mas plugins que cualquier otro navegador, por lo que es muy personalizable, aunque no todo es color de rosa, ya que los plugins pueden hacer que nuestro

Page 13: Final Computación

navegador sea más vulnerable. Actualemente la ultima versión de Firefox es la 3, que cuenta con mas de 15000 mejoras con respecto a su versión 2, pero a su vez Firefox 3 consume más, pero no mucho más, recursos que su predecesor.

SMARTPHONEUn smartphone (teléfono inteligente en español) es un dispositivo electrónico que funciona como un teléfono móvil con características similares a

las de un ordenador personal. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica

importante de casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del

Page 14: Final Computación

dispositivo, por el operador o por un tercero. El término "Inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil, o simplemente el acceso a Internet y al correo electrónico de una compañía, pagando o personal, gratuito.Los teléfonos inteligentes se distinguen por muchas características, que incluyen, entre otras, pantallas táctiles, un sistema operativo así como la conectividad aInternet. El completo soporte al correo electrónico parece ser una característica indispensable encontrada en todos los modelos existentes y anunciados en 2007, 2008, 2009 y 2010. Casi todos los teléfonos inteligentes también permiten al usuario instalar programas adicionales, normalmente inclusive desde terceros, pero algunos vendedores gustan de tildar a sus teléfonos como inteligentes aun cuando no tienen esa característica.Un claro ejemplo de teléfonos inteligentes son los Motorolas de la serie MOTO Q, Nokia serie E, Nokia serie N, y los más reconocidos por estas características BlackBerry, iPhone o el Nexus One.Entre las características más importantes están el acceso a Internet y al correo electrónico, a los programas de agenda, las cámaras integradas,

Page 15: Final Computación

administración de contactos, acelerometros y algunos programas de navegación así como ocasionalmente la habilidad de leer documentos de negocios en variedad de formatos como PDF y Microsoft Office.

¿Cual smartphone comprar? Comparativa

Page 16: Final Computación

Una excelente comparativa entre el Iphone 3G s, Iphone 3G, Palm Pre, Android G2 y la Blackberry Storm.

SISTEMAS OPERATIVOS

Para aquellos que quieran comprar un móvil en breve y para los que el sistema operativo sea un factor a tener en cuenta, y también para los curiosos, aquí tenéis unas pequeñas notas sobre los sistemas operativos para smartphones más importantes del mercado actual.

Page 17: Final Computación

IPHONE El sistema operativo del iPhone de Apple. En

concreto se trata de una versión reducida de Mac OS X optimizada para procesadores ARM que actualmente se encuentra en su versión 2.0, liberada el 11 de Julio de 2008.Oficialmente no se pueden instalar programas

que no hayan sido firmados por Apple, para lo cuál hace falta pagar para entrar a formar parte del iPhone Developer Program (descargar el SDK, por otro lado, si es gratuito). Es posible, no obstante, desarrollar aplicaciones web para Safari o instalar aplicaciones de terceros mediante jailbreaking a través de los programas PwnageTool y WinPwn, que también permiten liberar el iPhone de primera generación.Se trata de un buen sistema operativo, con una

interfaz muy interesante, como nos tiene acostumbrados Apple, aunque es una lástima el hardware sobre el que corre el sistema, que tiene muchas carencias, y las restricciones auto impuestas:

restricciones sobre el hardware en el que correrá el sistema

Page 18: Final Computación

restricciones sobre el software que puede ejecutar el sistema

restricciones sobre las aplicaciones que se pueden ejecutar en segundo plano, o lo que es lo mismo, restricciones en la multitarea (que se pueden subsanar de nuevo con PwnageTool y WinPwn)

y restricciones sobre los operadores con los que poder utilizar el teléfono.

WINDOWS MOBILEEl sistema operativo de Microsoft para móviles.

Se trata de un sistema escrito desde cero que tan solo tiene en común con los Windows de escritorio el nombre y algunas convenciones de la interfaz de usuario.Se encuentra en su versión 6.1, de Abril de

2008, estando la versión 7 prevista para la segunda mitad de 2009. Windows Mobile 7 pretende ser revolucionario, dando mayor protagonismo a la pantalla táctil (de nuevo Apple muestra el camino a seguir). Se podrá interactuar con el sistema realizando movimientos sobre la pantalla que el teléfono detectará utilizando la cámara. El aspecto de la interfaz será más parecido a Vista.

Page 19: Final Computación

En la actualidad ya existen teléfonos que corren Windows Mobile y cuentan con pantalla táctil, como el HTC Touch Diamond, que utiliza la interfaz de usuario TouchFLO 3D diseñada por HTC y que algunos consideran uno de los mayores competidores del iPhone.

Tecnología de monitores SED -

OLED - FED -   CRT - LED

Monitores SED | Nueva TecnologíaLa tecnología SED

(Surface conduction Electron emitter Display) reúne casi todas las ventajas de la tecnología CRT y LCD y prácticamente ninguna

Page 20: Final Computación

desventaja, de los monitores conocidos actualmente.Canon comenzó a desarrollar esta tecnología

en el año 1986. EN 1999, Toshiba se sumó a Canon, y desde ese entonces están logrando la solución definitiva en materia de pantallas planas para TV y PC : la tecnología SED.Conserva casi el mismo principio de

funcionamiento que una pantalla CRT. Utiliza rayos catódicos, pero no solamente tres que son desviados para iluminar cada píxel, sino que emplean ¡miles de ellos! Es decir, tres rayos (RGB) para cada pìxel de la pantalla. Los emisores o cañones de rayos se encuentran a unos pocos centímetros de la rejilla y la pantalla de fósforo; por lo tanto, la profundidad de estas pantallas disminuye hasta casi parecerse a una LCD o de plasma.La pantalla de vidrio tambièn está cerrada al

vacío, como en el caso de losCRT, y poseen una diferencia de potencial de 10.000 voltios entre el emisor y el receptor. Todos los rayos de electrones viajan desde sus cañones hasta sus celdas de fósforo, iluminandólas y formando el color deseado.Empleando esta tecnología se evitan los

efectos indeseados como los decontraste,

Page 21: Final Computación

ángulo de visión y profundidad de color, ademas de ser mas livianas y portátiles. En definitiva, la calidad de imagen es excelente, los costos son inferiores a los de una pantalla de plasma o LCD, y tienen una profundidad de tan sólo cuatro centímetros. Se espera que esta tecnología salga al mercado dentro de poco, ya que reúne lo mejor de cada uno de los sistemas empleados en las pantallas actuales

Tecnologia OLED (monitores Ultrafinos)Las pantallas están sufriendo desde hace

tiempo un proceso de adelgazamiento que parece no tener fin. Los monitores de plasma y LCD no han acabado aún de sustituir plenamente a los voluminosos televisores de tubo y ya tenemos a la vista la próxima revolución, las ultrafinas pantallas OLED. (Sony empezará a comercializar estas navidades una televisión que no supera los tres milímetros de grosor basada en esta tecnología.)

La tecnología OLED, basada en la emisión de luz a partir de un diodo orgánico que reacciona a una corriente eléctrica, es según los expertos más eficiente, y permite construir pantallas más

Page 22: Final Computación

ligeras y delgadas que las actuales. El problema, por ahora, parece ser la fabricación de

monitores de gran tamaño, como los que están disponibles en LCD y plasma.

El modelo que Sony empezará a comercializar en navidades en Japón, llamado XEL-1, tendrá un tamaño de 11 pulgadas que se venderá por

200.000 yenes (1.218 euros). Con ella, la compañía japonesa desea recuperar el liderazgo

tecnológico del sector. Actualmente es el segundo fabricante de pantallas de cristal

líquido por número de ventas, por detrás de la coreana Samsung.

Una de las grandes ventajas de las pantallas OLED es que, a diferencia de las pantallas LCD, no necesitan retroiluminación, lo que permite reducir su tamaño aún más. Además ofrecen

mejoras en "calidad de imagen, ángulo de visión, tiempo de respuesta y un mayor ratio de

contraste," según un informe de la firma DisplaySearch.

El mismo estudio señala que el mercado de pantallas de diodos orgánicos emisores de luz

(OLED por sus siglas en inglés) está floreciendo y se prevé que sus ventas crezcan un 117 por ciento en el próximo año, a medida que más

productos clave como teléfonos móviles

Page 23: Final Computación

adoptan la tecnología. Aún así, el problema del tamaño de la pantalla sigue presente y frenará

la extensión de OLED. "No creo que vaya a sustituir al LCD de la noche a la mañana", ha

declarado el presidente ejecutivo de Sony, Ryoji Chubachi, que no obstante insiste en el "gran

potencial de esta tecnología".Sony no es el único fabricante que trabaja con lo diodos orgánicos aplicados a la televisión.

Toshiba ha anunciado que empezará a colocar en las tiendas televisiones OLED en el año 2009.

TECNOLOGIA FED:Como si ya hubiera pocas tecnologías para

monitores y televisores , a ver contemos ... , primero fue el CRT , luego el LCD , luego el plasma , el OLED , el futuro SED , la láser , y ahora la nueva tecnología FED de Sony .El FED es una tecnología similar a la SED pero

utilizando un conjunto de nanotubos de carbono para emitir los electrones necesarios que muevan los puntos de fósforo y así crear la imagen .El monitor presentado por Sony desarrollado

con tecnología SED es de 19.2 pulgadas y una resolución de 1280x960 píxeles , una

Page 24: Final Computación

luminosidad de 400cd/m2 y un increible ratio de contraste de 20.000 : 1 .En cierta manera , la tecnología FED podría

llegar a ser como la antigua Trinitron pero con menos consumo y un panel ultra fino como un LCD . Tiene un gran ángulo de visión y ausencia de píxeles muertos .Y además los monitores FED soportarán

refrescos de 24 a 240 fotogramas por segundo , ahí es nada , y lo mejor de todo es que serían más baratos que un LCD equivalente ya que incorporan menos componentes .

MONITOR CRT: La tecnología CRT para los primeros

televisores blanco y negro fue desarrollada desde 1923, mientras que la televisión a color la desarrolla y patenta el mexicano Ing. Jorge González Camarena en 1940. Los monitores CRT utilizados en las computadoras, inicialmente utilizaban imágenes en blanco y negro, posteriormente se introducen los monitores a color. Las siglas CRT significan ("Catodic Ray Tube") ó tubo de rayos catódicos. El monitor CRT es un dispositivo que permite la visualización de imágenes procedentes de la computadora, por medio del puerto de video

Page 25: Final Computación

hasta los circuitos del monitor. Una vez procesada la información procedente de la computadora, los gráficos son creados por medio de un cañón que lanza electrones contra una pared de fósforo dónde chocan generando una pequeña luz de color.Caracteristicas:    + Tamaño: es la distancia que existe entre

la esquina superior derecha y la esquina inferior izquierda de la pantalla de vidrio, por lo que no se considera la cubierta de plástico que la contiene. La unidad de medida es la pulgada ( " ). Los más comunes son de 14", 17" y 19 pulgadas.  + Color / monocromático: es el tipo de

iluminación que puede mostrar. Monocromático solamente mostrará la escala de grises ó solamente un color verde claro, mientras que a color puede mostrar hasta 16 millones de colores distintos.    + Control digital ó analógico: es

analógico si para encender es necesario un botón rígido que cambia de posición al ser oprimido y los controles de la pantalla utilizan un resistor mecánico (especie de cilindro que se gira a la izquierda o derecha ajustando la

Page 26: Final Computación

pantalla). Será digital si solamente cuenta con botones para controlar el ajuste de la pantalla y estos al ser oprimidos regresan a su estado inicial.    + Tecnología: se le conoce como

tecnología de barrido, ya que la pantalla se actualiza 25 veces por segundo, lo que a simple vista no se percibe, pero en cambio si puede cansar la vista. Compite actualmente contra las pantallas de plasma y pantallas LCD.    + Resolución: se refiere a la cantidad

máxima de píxeles que es capaz de utilizar para desplegar una imagen en la pantalla el monitor. Un píxel es cada uno de los puntos que conforman la pantalla y a medida de que tenga mayor cantidad de ellos, se tendrá un mayor detalle de la imagen.    - Ejemplo: si tenemos 2 monitores CRT que

indican que tienen las siguientes resoluciones: 1024X768 y 1600X1200 significan lo siguiente:1.- (1024) X (768 píxeles) = 786,432 píxeles de

resolución.2.- (1600) X (1200 píxeles) =  1,920,000

píxeles de resolución.Por lo tanto, el segundo monitor puede

desplegar imágenes más grandes.

Page 27: Final Computación

    + Calidad del color: se refiere a la cantidad de bits que utiliza para definir cada píxel, por lo que a mayor cantidad de bits utilizados, se puede desplegar una mayor cantidad de colores.

MONITORES LED:Resulta difícil determinar qué resulta más interesante de la última carta abierta publicada por Steve Jobs, si los planes de la compañía sobre cuestiones medioambientales, en el que se prevé la eliminación de productos tóxicos o el hecho de que una compañía que por lo general tiene sus labios sellados a la hora de ofrecer detalles sobre futuros productos haya hecho precisamente eso: ofrecer detalles específicos sobre productos que todavía no han sido anunciados.

Mientras que los planes de Apple detallan los esfuerzos en el reciclado y programa de recogida de iPods, con la eliminación o reducción de productos químicos como el arsénico, el mercurio y los productos retardantes ignífugos, Jobs también ofreció algún detalle sobre el futuro; y es que Apple

Page 28: Final Computación

tiene previsto introducir equipos Macs a lo largo de 2007 en los que se emplee retroiluminación LED. La retroiluminación LED sustituirá a las lámparas fluorescentes utilizadas actualmente en los monitores LCD de la línea de productos de Apple.¿Qué implicaciones conlleva este cambio? Para Apple supone la eliminación del mercurio en las pantallas de la compañía. Según Jobs, el mercurio y el arsénico son materiales estándares de la industria utilizada en los LCD. El primero se utiliza en las lámparas fluorescentes para iluminar los LCD, mientras que el segundo se añade para prevenir defectos en el cristal utilizado en dicho tipo de monitores. Dichos productos químicos suponen un riesgo para el entorno, particularmente cuando los usuarios desechan este tipo de productos.Apple tiene previsto utilizar cristal libre de arsénico en sus monitores. (Apple indica que una pequeña parte de los circuitos integrados contendrá una mínima cantidad de arsénico, pues se trata de un elemento utilizado en el sustrato de los semiconductores.) El cambio a la retroiluminación basada en tecnología LED (light-emitting diode) eliminaría el uso de mercurio en los monitores.

Page 29: Final Computación

Apple ya ha utilizado tecnología de retroiluminación LED en su línea de productos iPod desde hace algún tiempo. Otros fabricantes de hardware también han incorporado retroiluminación LED en sus monitores. Por ejemplo NEC ha estado vendiendo un monitor de 23 pulgadas desde hace ya algunos años en el que se emplea dicha tecnología. El monitor de NEC (LCD2180WG-LED) utiliza una matriz de 48 LED en tres colores (rojo, verde y azul) cuya combinación permite emitir luz blanca. Mediante esta tecnología, NEC indica que ha podido aumentar la gama de color de una forma importante en sus monitores, con la capacidad de reproducir el 109 por ciento del espacio de color Adobe RGB.NEC también indica que la tecnología LED ofrece una mayor duración en comparación con la retroiluminación basada en fluorescentes, aumentando de este modo la vida útil de las 25.000 horas a las 50.000 horas. Otra característica importante de la tecnología LED, especialmente para los usuarios de móviles, consiste en que realiza un menor consumo de energía, lo que se traduce en una mayor autonomía de la batería.Por otra parte, lo que he podido advertir es que

Page 30: Final Computación

el monitor de NEC tiene un grosor notablemente superior, aunque en un equipo de escritorio no supone una diferencia sensible.Tanto Sony como Asus han comenzado a fabricar sub-notebooks ultrafinos con una pantalla de 11.1 pulgadas en las que se emplea retroiluminación LED. Supongo que en dichos equipos, donde no se requiere la misma precisión en la reproducción de color que la proporcionada por el monitor de Nec, se emplea una matriz de diodos blancos, eliminando así la necesidad del espacio adicional requerido para combinar los tres colores en la producción de la retroiluminación.Frente a una mayor vida útil de los monitores que emplean esta tecnología, el menor consumo realizado y otras ventajas también existe un aspecto negativo: el precio, ostensiblemente superior a un modelo de características similares cuya retroiluminación se base en el uso de lámparas fluorescentes.Seguramente el precio incida en el modo en el que Apple implemente la tecnología de retroiluminación LED en sus monitores, especialmente si tenemos en cuenta la carta abierta de Jobs en la que indicaba que “es factible técnica y económicamente”. Teniendo

Page 31: Final Computación

en cuenta dichos parámetros, parece que el portátil “LED” sería el primero en utilizar dicha tecnología, donde podría implementarse con mayor facilidad (y de un modo más económico) en comparación con, pongamos por caso, el Apple Cinema Display de 30 pulgadas.No obstante, ten en cuenta que sólo estamos especulando, y que Apple no ha anunciado oficialmente ningún plan de producto.

Software LibreEl software libre (en inglés free software, esta

denominación también se confunde a veces con gratis por el doble sentido del inglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin

Page 32: Final Computación

embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmentefreeware), ya que, conservando su carácter de libre, puede ser distribuidocomercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.

Page 33: Final Computación

PROGRAMAS LIBRES:1. Ares2. Google chrome 3. Gimp4. Firefox5. Openoffice

COMPONENTES INTERNOS DE LA PC

Componentes Internos de Una Computadora

En el interior de un gabinete de computadora, veras cables y conectores llendo y viniendo de un lado a otro, Una cosa que hay que recordar es que

Page 34: Final Computación

cada computadora es distinta en cuanto a su interior se refiere. En algunas computadoras la tarjeta de video esta integrada a la tarjeta madre (motherboard) mientras que en otras computadoras, la tarjeta de videopuede estar puesta en un conector PCI o AGP.Veremos un vistazo general de los tipos de componentes internos de una computadora. Hay que recordar que el interior de una computadora varia de modelo a modelo.Lista de Componentes InternosMotherboardCPUBIOSRAMTarjeta de VideoTarjeta de Sonido (Opcional)Tarjeta de Red (Opcional)Unidades de AlmacenamientoFuente de Poder

Motherboard

El motherboard es el corazón de la computadora. El motherboard (tarjeta

Page 35: Final Computación

madre) contiene los conectores para conectar tarjetas adicionales (también llamadas tarjetas de expansión por ejemplo tarjetas de video, de red, MODEM, etc.). Típicamente el motherboard contiene el CPU, BIOS, Memoria, interfaces para dispositivos de almacenamiento, puertos serial y paralelo aunque estos puertos ya son menos comunes por ser tecnología vieja ahora se utilizan mas los puertos USB, ranuras de expansión, y todos los controladores requeridos para manejar los dispositivos periféricos estándar, como el teclado, la pantalla de video y el dispositivo de disco flexible.Al comprar un motherboard es indispensable

que concuerde con el tipo de procesador que vamos a utilizar ya que los distintos procesadores utilizan un conector diferente, por lo tanto deben de hacer juego, también hay que asegurarse de que la velocidad del procesador y la memoria pueda ser manejado por el motherboard. Así que cuando compres un motherboard, procesador y memoria asegúrate de que sean compatibles entre sí.Otro aspecto a considerar en el motherboard es

que existen distintas tipos de formas de la tarjeta madre (form-factor), que definen como se conecta el motherboard al gabinete,

Page 36: Final Computación

losconectores para la fuente de poder y las características eléctricas. Hay bastantes formas de motherboard disponibles Baby AT, ATX, microATX y NLX. Hoy en día se consideran el Baby AT y el ATX como motherboards genéricos.No se puede poner un motherboard ATX en un

Gabinete baby AT, pero si puedes poner un motherboard baby AT y su fuente de poder en muchos Gabinetes ATX que tienen la preparación para montar ambos tipos de motherboard. Muchos motherboard recientes de forma baby AT traen conectores para corriente para los dos tipos de Fuentes de poder.baby AT y ATX. Lista de Componentes Internos.CPUEs la abreviación de las siglas en ingles de las

palabras Unidad Central de Procesamiento (central processing unit). El CPU es el cerebro de la computadora. Algunas veces se le dice simplemente el procesador o

Page 37: Final Computación

procesador central. El CPU es donde se realizan la mayoría de los cálculos. En términos de poder de computación, el CPU es el elemento más importante de un sistema de computo.En computadoras personales y pequeños

servidores, el CPU esta contenido en una pastilla llamada microprocesador.

Dos componentes típicos del CPU son:La unidad lógica aritmética (ALU), la cual

realiza las operaciones lógicas y matemáticas.La unidad de control, la cual extrae

instrucciones de la memoria la decodifica y ejecuta, llamando al ALU cuando es necesario.Actualmente hay 2 productores principales de

Procesadores, Intel y AMD.Intel tiene 2 familias de procesadores, El

Celeron para los equipos menos poderosos y el Pentium 4 para los mas poderosos con el Pentium 5 en camino.AMD también tiene 2 familias de productos, El

Duron para los equipos económicos y el Athlon para los mas poderosos.Los CPU´s de Intel y AMD requieren un

motherboard diseñado especialmente para

Page 38: Final Computación

ellos. El procesador determina el tipo de motherboard que necesitas para tu sistema.En precio y rendimiento los CPU´s de Intel y

AMD están muy parejos.El rendimiento de un CPU generalmente se

mide en ciclos de reloj por segundo. Entre mas alto los ciclos de reloj por segundo, es mas rápido el procesador, Aunque esto no siempre es verdad. Los procesadores AMD corren a menos ciclos de reloj por segundo que los CPU´s de Intel, pero siguen teniendo un rendimiento igual por el precio.Esto se debe a que los procesadores AMD son

mas eficientes por ciclo de reloj, Los ciclos de reloj por segundo se expresan en Giga Hertz. Un procesador que corre a 1 Giga Hertz es considerado de baja velocidad y un procesador que corre a 3 o mas Giga Hertz se considera de alta velocidad.Los procesadores AMD usan un sistema de

calificación basado en el rendimiento en vez de calificar solo la velocidad. Un procesador AMD calificado a 3200+ significa que tiene un rendimiento al mismo nivel que un CPU Pentium de 3200 MHZ o 3.2 GHZ.Los procesadores también se califican por la

velocidad a la cual se conectan al motherboard.

Page 39: Final Computación

Esto se llama velocidad FSB (Front Side Bus). Los procesadores de Intel pueden tener una velocidad hasta 800 MHz FSB y el AMD hasta 400 MHz FSB. Por eso te debes de asegurar que el motherboard soporte la velocidad FSB del procesador.

BIOSBios es un acrónimo de Basic input/output

system (sistema básico de entrada / salida). El BIOS es el software que determina que puede hacer una computadora sin acceder programas de un disco. En las

PCs, el BIOS contiene todo el código requerido para controlar el teclado, el monitor, las unidades de discos, las comunicaciones seriales, y otras tantas funciones.El BIOS típicamente se pone en una pastilla

ROM que viene con la computadora (también se le llama ROM BIOS. Esto asegura que el BIOS siempre estará disponible y no se dañara por

Page 40: Final Computación

falla en el disco. También hace posible que la computadora inicie por sí sola. A causa de que la RAM es más rápida que el ROM, muchos fabricantes de computadoras diseñan sistemas en los cuales el BIOS es copiado de la ROM a la RAM cada vez que la computadora es iniciada. Esto se conoce como shadowing.Muchas computadoras modernas tienen Flash

BIOS, que significa que el BIOS se grabo en una pastilla de memoria flash, que puede ser actualizado si es necesario.RAMRAM es acrónimo para random access memory

(memoria de acceso aleatorio), es un tipo de memoria que puede ser accesado aleatoriamente; esto es, que cualquier byte de memoria puede ser accesado sin tocar los bytes predecesores. RAM

es el tipo de memoria mas común encontrado en computadoras y otros dispositivos, como impresoras.Hay dos tipos básicos de RAMRAM dinámica (DRAM)

Page 41: Final Computación

RAM estatica (SRAM)Los 2 tipos difieren en la tecnología que utilizan

para retener datos, el tipo mas común es la RAM dinámica. La RAM Dinámica necesita refrescarse miles de veces por segundo. La RAM estática no necesita ser refrescada, lo cual la hace mas rápida, pero también mas cara que la RAM dinámica. Ambos tipos de RAM son volátiles, ya que pierden su contenido cuando la energía es apagada.

Tarjeta de VideoLa tarjeta de video, es el componente

encargado de generar la señal de video que se manda a la pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en integrado al motherboard de la computadora o en una placa de expansión. La

tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego

Page 42: Final Computación

de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y elgenerador de caracteres, y en la actualidad también poseen un acelerador de gráficos.El controlador de video va leyendo a intervalos

la información almacenada en la RAM videoy la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de videose conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video.

Tarjeta de Sonido (Opcional)- La mayoría de las

tarjetas madre ahora cuentan con algún tipo de controlador de sonido integrado. Por lo tanto, las tarjetas de sonido no son necesarios a menos que quieras mayor fidelidad de sonido en tu

Page 43: Final Computación

computadora o liberar un poco de carga al CPU con el control del sonido.

Tarjeta de RED (Opcional)- Estar en Red ya sea Internte o una Intranet es

tan comun e indispensable que esta debería ser una característica estándar en todas las placas base. Algunas placas base, incluso, ofrecen

adaptadores de red inalámbrica construido adentro Si la placa no tiene un conector Ethernet, puede ser necesario instalar una tarjeta PCI Ethernet o tal vez una tarjeta inalámbrica 802.11.

Unidades de AlmacenamientoRefiriéndonos a varias técnicas y dispositivos

para almacenar grandes cantidades de datos. Los primeros dispositivos de almacenamiento fueron las tarjetas perforadas, que fueron usadas desde el año 1804 en maquinas

Page 44: Final Computación

tejedoras de ceda. Los dispositivos modernos de almacenamiento incluyen todo tipos de unidades de disco y de unidades de cinta. Almacenamiento masivo es distinto al de memoria, que se refiere a almacenamiento temporal, en cambio los dispositivos de almacenamiento masivo retienen los datos aun cuando la computadora es apagada.Los tipos principales de dispositivos de

almacenamiento masivo son:Discos flexibles (disquetes): Relativamente

lentos y pequeña capacidad, pero muy portables, baratos y universales (casi obsoletos, las computadoras nuevas ya no los utilizán)Discos Duros: rápidos y mucho mayor capacidad, pero más

caros, Algunos dispositivos de disco duro son portátiles pero la mayoría no.Discos Ópticos: (conocidos como CDs y DVD

´s) al contrario de los discos flexibles y los discos duros, los cuales usan electromagnetismo para codificar los datos, los sistemas de discos ópticos usan un láser para leer y escribir datos. Los discos ópticos tienen buena capacidad, pero no son tan rápidos como los discos duros. Y por lo general son de solo lectura, aunque también hay reescribibles.

Page 45: Final Computación

Cintas: Relativamente baratas y pueden tener una gran capacidad, pero no permiten acceso aleatorio a los datos.Discos de memoria Flash USB:

( Jumpdrives, Pocket Drives, Pen Drives, thumb drives) dispositivos muy pequeños, ligeros y portátiles pueden almacenar hasta 2gb de datos estos dispositivos se han vuelto muy populares y están sustituyendo a los discos flexibles al tener mayor capacidad y velocidad, estos dispositivos pueden mantener la información hasta por 10 años.Fuente de Poder:La fuente de poder es el componente que

proporciona el poder eléctrico a la computadora. La mayoría de las computadoras pueden conectarse a un enchufe eléctrico estándar. La fuente de poder jala la cantidad requerida de electricidad y la convierte la corriente AC a corriente DC. También regula el voltaje para eliminar picos y crestas comunes en la mayoría de los sistemas eléctricos. Pero no todas las fuentes de poder, realizan el regulado de voltaje adecuadamente, así que una computadora

Page 46: Final Computación

siempre esta susceptible a fluctuaciones de voltaje.Las fuentes de poder se

califican en términos de los watts que generan. Entre más poderosa sea la computadora, mayor cantidad de watts necesitan sus componentes.

MICROPROCESADORES

Marcas Y Tipos De MicroprocesadoresMARCAS Y TIPOS DE MICROPROCESADORESEn cuanto a los fabricantes, actualmente se

encuentra procesadores de: * INTEL: es la marca estándar. * AMD * CYRIX: fabrica procesadores para Texas, IBM y Thompson * TEXAS INSTRUMENTS: son procesadores Cyrix con la marca Texas Instruments. * IBM: son procesadores Cyrix con la marca IBM. * THOMPSON: son procesadores Cyrix con la

Page 47: Final Computación

marca Thompson. * NEXGEN: necesitan placas especiales al no ser compatibles a nivel de patillaje. No se recomiendan.Destacar que no todos los fabricantes fabrican todos los modelos ni todas las velocidades posibles (la velocidad de un procesador se mide en MHz -mega hertzios-, y cuanto mayor es esta más rápido es el procesador).Actualmente existe la libertad de elegir cual procesador ponerle a nuestra maquina, de que tipo y que características; Esto se da mucho mas en equipos que son de ensamblados (comúnmente conocidos como clones), pero también ya los principales fabricantes han integrado distintas marcas de procesadores a sus sistemas. Precisamente por esta libertad de elección es que muchas veces dudamos acerca de que nos conviene más, pero en realidad no hay mucho que pensar, solamente hay que tener en cuenta la finalidad que tendrá la maquina, y basándose en eso podemos decidir.

La elección de un microprocesadorHoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto

Page 48: Final Computación

microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un AthlonXP o un Celeron sencillito con 512 Mb de RAM es más que de sobra. Sin embargo, según sean más complejos y nuevos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador de gama media. A los programas de retoque fotográfico se les puede poner también un procesador de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 1024 Mb. para un rendimiento medianamente óptimo y recomendablemente 2048).Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Por ello es necesaria la compra de una tarjeta gráfica relativamente potente, dependiendo del presupuesto y las necesidades. Huye de tarjetas muy económicas que el rendimiento puede ser hasta 10 veces inferior el de una tarjeta que cueste el doble.El uso de los últimos micros que sobrepasan la

Page 49: Final Computación

mítica barrera del GHz se justifica por los nuevos sistemas operativos los nuevos formatos de audio o vídeo comprimido (DivX y MP3, a diferencia de videos y archivos de sonido normales, estos se descomprimen en tiempo real ,tarea llevada completamente a cabo por el micro), realizar más trabajo en menos tiempo, como compresiones de archivos, renderizado de dibujos en 3D.... o el simple hecho de cargar un programa como Word o el mismo Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy día que mejor PC en términos generales requieren.

PC(tipos, costos)

Computadoras PersonalesA estos tipos de computadoras se les conocen

como microcomputadoras, computadoras personales o computadoras PC ya que están diseñadas para ser utilizadas por una sola persona a la vez. Estas computadoras utilizan un microprocesador como CPU (Central Processing Unit).

Page 50: Final Computación

Las computadoras PC se usan por lo general en la casa, la escuela o en un negocio. Sus aplicaciones más populares son procesamiento de textos, navegación de internet, correo electrónico, hojas de cálculo, administración de bases de datos, edición de fotografías, creación de gráficos, juegos y música.Las computadoras personales se encuentran en dos presentaciones, computadoras PC de escritorio y computadoras portátiles o laptops.

Los tipos de computadoras de escritorio son más grandes, normálmente permanecen en un solo lugar en un escritorio o mesa y se conectan a un tomacorriente. El gabinete de la computadora contiene la tarjeta madre, unidades de disco, fuente de poder y tarjetas de expansión. El gabinete puede ser horizontal o tipo torre. Este último puede colocarse sobre el escritorio o en el piso.Estas computadoras cuentan por separado con un monitor LCD o de tipo CRT, aunque algunos diseños incluyen la pantalla en el gabinete de la computadora. Un teclado y un ratón complementan la computadora para la entrada de datos y comandos.Existen en el mercado computadoras PC de marca y computadoras ensambladas por

Page 51: Final Computación

algunos distribuidores. Estas últimas son más accesibles en costo.Los tipos de computadoras portátiles, también llamadas computadoras notebook son pequeñas y lo suficientemente livianas para transportarlas sin problema. Funcionan con baterias, pero también se pueden conectar a un tomacorriente. Tipicamente tienen una pantalla LCD interconstruida, la cual se protege al cerrar la computadora para transportarla. También incluyen un teclado y algún tipo de apuntador, tal como una tableta de contacto y un conector para ratón externo.Aunque algunas laptops son menos poderosas que una computadora de escritorio, este no es siempre el caso. Sin embargo, un computadora portátil cuesta más que una de escritorio con capacidad equivalente. Esto es debido a que los componentes miniatura requeridos para fabricar laptops son mas caros.PDA's y

Computadoras de Mano           

Page 52: Final Computación

   Los tipos de computadoras PDA (Personal Digital Assistant) o "palmtop" son microcomputadoras muy pequeñas que sacrifican poder por tamaño y portabilidad. Normalmente utilizan una pantalla de LCD sensible al tacto para la entrada/salida de datos. Las PDA's se pueden comunicar con computadoras portátiles o de escritorio por medio de cables, por rayos infrarojos (IR) o por radio frecuencias. Algunos usos de las PDA's son el manejo de agenda, lista de pendientes, directorios y como cuaderno de notas. Una computadora "handheld" o computadora

de mano es una computadora pequeña que también sacrifica poder por tamaño y portabilidad. Estos aparatos parecen más una laptop pequeña que un PDA por su pantalla movible y su teclado. Pueden utilizar Windows CE o un sistema operativo similar.Algunas palmtops y handelds incluyen la capacidad para red inalambrica para que los usuarios puedan revisar su correo electrónico y navegar la web mientras se desplazan en su trabajo.Estaciones de Trabajo y Servidores

Page 53: Final Computación

Los tipos de computadoras conocidos como estaciónes de trabajo son computadoras de alto nivel y contienen uno o más microprocesadores. Pueden ser utilizadas por un solo usuario en aplicaciones que requieren más poder de cómputo que una computadora PC típica, por ejemplo la ejecución de cálculos científicos intensivos o el renderizado de gráficos complejos.              Alternativamente, estas computadoras pueden usarse como servidores de archivos y servidores de impresión a usuarios (Clientes) en una red de computadoras típica. Estos tipos de computadoras también se utilizan para manejar los procesamientos de datos de muchos usuarios simultaneos conectados vía terminales tontas. En este aspecto, las estaciones de trabajo de alto nivel han substituido a las

minicomputadoras. El término "estación de trabajo" tiene otro significado... En una red, cualquier computadora cliente conectada a la red que accesa los recursos del servidor, puede llamarse estación de trabajo. Dicha estación de trabajo puede ser una computadora personal o una verdadera "estación de trabajo" como se definió mas arriba.

Page 54: Final Computación

Las terminales tontas no se condideran estaciones de trabajo de una red. Las estaciones de trabajo clientes, son capaces de correr programas independientemente del servidor; pero una terminal no es capaz de procesamiento independiente.Hay otros tipos de computadoras que no son microcomputadoras. Estas se conocen como minicomputadoras, computadoras mainframe y supercomputadoras.

PC PARA JUEGOSMedion PC 7233

Características

Page 55: Final Computación

dimensiones:

720x345x660mm.acabado de aluminioProcesador: Intel Core i7-920 con 4 núcleos a

2,66 GHz y 12 GB de RAMTarjeta gráfica: GeForce GT230 con 1536 MBCuenta además con: un procesador de audio

de 8 canales, red integrada, 2 puertos PCIe 16x, 4 SATA, Conectores USB y Fireware.Conexiones: DVI-I, HDMI y D-Sub.Disco duro: 1 TB.

Page 56: Final Computación

Unidad óptica: grabador/reproductor DVDAdicionalmente incluye unconjunto de ratón y

teclado diseñados para juegos.Sistema operativo: Windows 7 Home

Premium, con antivirus gratis durante 90 días.Garantía: 24 meses (2 años)

1.199€

NOTEBOOKSDefinamos entonces algunos parámetros

básicos para comprar una notebook teniendo en cuenta el uso que vamos a darle.* Portátil para el hogar: este equipo no está pensado para reemplazar a una PC sino para aquellos que simplemente quieren llevarlo fuera de su

casa para realizar tareas básicas como usar el Office, correo electrónico, navegar por internet

Page 57: Final Computación

y editar fotos.Características: el procesador debe tener un mínimo de 800MHz y 256 MB de RAM. Sería ideal que tenga Wi-Fi incorporado o bien agregarle una tarjeta para poder navegar desde cualquier lugar.* Notebooks para estudiantes: necesito llevarla a la universidad para desde allí poder trabajar con diferentes aplicaciones de Microsoft Office.Características: puede ser un equipo ultraliviano con un procesador de la familia Pentium-M o similar, Wi-Fi incorporado, un mínimo de 256 de memoria RAM y grabadora de CD o DVD.* Laptop para llevar de viaje con frecuencia: deberás priorizar entonces el tamaño y un poco el poder.Características: conviene comprar una portátil delgada o una ultraliviana con un procesador de la familia Pentium-M o similar, Wi-Fi incorporado y 512MB de RAM.* Notebook para un hombre de negocios: además de viajar debo hacer presentaciones y conectarme a redes.Caracteríticas: compra una ultraliviana o una portátil delgada de avanzadas características, capaz de suplantar en algunos aspectos a una

Page 58: Final Computación

PC de escritorio. Wi-Fi incorporado, por lo menos 512MB de RAM y al menos 80GB de espacio en el rígido.* Portátil para uso multimedia: la usaré para editar audio, video o fotos con programas como el Photoshop.Características: necesitarás como mínimo 512 de RAM, un procesador de 2GHz o más veloz, un mínimo de 80GB en el disco rígido y grabadora de DVD.* Notebook para gamers: necesito velocidad y buenos gráficos para asegurar una buena experiencia al divertirme.Características: son los equipos más caros porque necesitan una placa de video de alta definición, sugiriéndose una de 256 MB 3D. El procesador también encarecerá mucho a la portátil: cualquiera en el rango de 2,8 a 3,4 GHz te dará una buena experiencia. Habrá que sumarle por lo menos 1 GB de memoria RAM y una grabadora de DVD.SISTEMAS OPERATIVOSEn los últimos tiempos, he visto como muchos

de mis amigos han ido adquiriendo equipos portátiles, en gran parte debido a su bajo costo. La mayoría de estos equipos viene con su

Page 59: Final Computación

sistema operativo (Windows Vista generalmente) previamente instalado, lo cual implica un aumento en el costo final del equipo.Los usuarios finales de estos equipos, en

general, no lo utilizan para jugar ni para tareas específicas como CAD y otras, ya que este tipo de aplicaciones tienen requerimientos muy particulares y por lo general, los equipos portátiles no están pensados para este tipo de tareas, por lo que el uso que se les suele dar, es para realizar trabajos es suites de oficina (procesadores de texto, hojas de cálculo, presentaciones, edición de imágenes), muchos lo usan para navegar en internet y algunos para programar.Para agregar puedo decir que absolutamente

todos mis amigos que han adquirido una notebook con Windows Vista, lo han eliminado y han instalado Windows XP (trucho).Lo que yo personalmente hubiese echo, a la

hora de hacer semejante inversión, es adquirir la notebook sin sistema operativo, e instalarle alguna de las tantas opciones de sistemas operativos libres que tenemos a nuestra disposición (Ubuntu, Fedora). Las cuales tienen excelentes suites ofimáticas y una completa gama de aplicaciones desde navegadores,

Page 60: Final Computación

mensajería instantánea, clientes de correo y mucho másDe esta forma podría enumerar algunos pros y

algunas contras de mi decisiónPros Nos ahorramos la licencia del Vista. Tenemos un sistema operativo

completo, gratis y sin soft trucho. Es casi inmune a virus y demás pestes

que andan por ahí. La batería nos durará más, ya que el

sistema utiliza menos recursos al no necesitar antivirus que scaneen el sistema y demás soft de protección.

Usamos software libre!

Contras Alguna incompatibilidad con cierto

hardware.

Con respecto a esta contra deberemos tener algún cuidado a la hora de seleccionar nuestra notebook, en mi experiencia, recomiendo los productos basados en Intel Centrino, los cuales tienen un excelente soporte de hard por parte de intel en cuanto a drivers, por lo que no

Page 61: Final Computación

necesitaremos instalar absolutamente ningún driver y todo el sistema funcionará “out of the box” sin problema alguno con la mayoría de las distribuciones disponibles.

NETBOOKSUn netbook

es un subportátil, es decir, una categoría de ordenador portátil (Laptop) de bajo coste y reducidas dimensiones, lo cual aporta

una mayor movilidad y autonomía. Son utilizados principalmente para navegar por Internet y realizar funciones básicas como procesador de texto y de hojas de cálculo.El término fue creado por la empresa británica

Psion para utilizarlo en una gama de computadoras portátiles (llamadas laptop en

Page 62: Final Computación

algunos países) similares a un handheld, lanzada en 1999. Psion obtuvo el registro de la marca en los Estados Unidos en noviembre del año 2000.[1] El término fue reintroducido por Intel en febrero de 2008[2] con su actual significado.

Como muchos sabréis, GNU/Linux se ha convertido en una de las alternativas más importantes de este mercado, y de hecho la base de usuarios es mucho más amplia que en el mercado "general" de PCs y portátiles. Buena parte de los fabricantes optan por preinstalar tanto Windows como alguna distribución de Linux, pero es que además de estas dos grandes alternativas (y hay unas cuantas distros específicas al respecto) existen tres proyectos con mucho, mucho interés. El artículo está al completo en MuyComputer, pero os desvelamos parte del texto a continuación.

1. Windows XP: el veterano sistema operativo de Microsoft se ha convertido en la salvación de la empresa en este segmento: justo

Page 63: Final Computación

cuando pensaban enterrarlo definitivamente, los responsables de Microsoft prorrogaron la venta de licencias de Windows XP para que OEMs y fabricantes de netbooks lo pudieran preinstalar en sus desarrollos. Esta versión de Windows se ha convertido en la más popular entre usuarios y fabricantes, que recurren a la comodidad de poder seguir usando un sistema operativo muy aceptado y extendido y que además consume muchos menos recursos que Windows Vista.

2. Windows 7: De XP pasaremos directamente a Windows 7, el nuevo sistema operativo de Microsoft que ha sido reescrito aprovechando las mejores características de Vista pero eliminando sus problemas más graves. El consumo de recursos es precisamente uno de ellos, y Windows 7 es algo más ligero que su

Page 64: Final Computación

predecesor, lo que lo convierte en una opción válida para los netbooks de futuro, que también ganarán en potencia y rendimiento con soluciones como los nuevos Intel Atom y VIA Nano dual-core.

3. Ubuntu Netbook Remix: aunque es posible instalar cualquier distribución de Linux en los actuales netbooks, existen desarrollos específicamente destinados a este tipo de

ultraportátiles. La propuesta de Ubuntu con Netbook Remix es una de las más destacadas del mercado, y entre otras cosas permite acceder a una interfaz específica para las

Page 65: Final Computación

pequeñas pantallas y resoluciones de estos equipos. Ese centro de control inicial es en realidad tan sólo un extra para facilitar la vida a los usuarios, que tienen a su disposición todas las ventajas de Ubuntu accesibles en UNR.

4. Xandros Desktop: esta distribución comercial (99,99 dólares, con versión descargable con 30 días de evaluación) fue una de las primeras apuestas del mercado y se implantó en los primeros ASUS Eee PC, pero desde entonces ha perdido fuelle. Una de las razones es, cómo no, su enfoque comercial, ya que las diferencias entre Xandros y otras distros Linux no es tan grande. Eso sí, sus desarrolladores también tratan de facilitarle la

Page 66: Final Computación

vida a los usuarios con una interfaz cuidada y accesos rápidos a las principales aplicaciones.Link:http://www.xandros.com/products/desktop/

5. Eeedora: este peculiar desarrollo toma lo mejor de Fedora para tratar de adaptarlo a los netbooks, y más

concretamente, a los ASUS Eee PC. En realidad el desarrollo es algo antiguo ya que se basa en Fedora 8, pero parece estar muy orientado a los viejos modelos de ASUS Eee con discos SSD de 2 y 4 Gbytes en los que los requisitos de espacio en disco eran especialmente importantes.

6. Mandriva Mini: mandriva es

Page 67: Final Computación

uno de los desarrolladores europeos de GNU/Linux más conocidos, y a su oferta de distribuciones para sobremesa (parte de su catálogo también es comercial, no gratuito) se le une Mandriva Mini, una distribución para netbooks que, curiosamente, no será posible comprar de forma separada a cualquier máquina. Mandriva planea venderla a OEMs y fabricantes para que la preinstalen en sus creaciones, y por el momento poco se sabe de su rendimiento. Uno de los primeros fabricantes en preinstalar esta distro es Emtec, cuyo netbook Gdium hace uso de ella.

7. Linpus Linux Lite: otra de las distribuciones adaptadas a netbooks que se basa en Fedora y que ha sido creada por la empresa taiwanesa Linpus Technologies Inc. El mercado

Page 68: Final Computación

inicial de esta distro era el asiático, y modelos como el Acer Aspire One, el Northtec Gecko o el Airis Kira ofrecen Linpus como sistema operativo preinstalado. Como en otros casos, Linpus Linux Lite trata de facilitar el acceso a las aplicaciones y documentos más frecuentes mediante el uso de una pantalla inicial de interfaz que actúa como centro de control de los recursos del sistema.

8. gOS: la distribución creada por la empresa americana Good OS LLC se basa en Ubuntu, pero se distingue del resto en su concepción de las aplicaciones

instaladas, ya que en realidad muchas de ellas tratan de aprovechar la potencia de los servicios web. De hecho, el apoyo en servicios de Google y en los Google Gadgets es importantísimo en una distribución muy orientada a usuarios "conectados en todo momento". No en vano han

Page 69: Final Computación

rediseñado su producto para llamarlo gOS Cloud, aprovechando la popularidad de la filosofía "Cloud Computing".

9. Easy Peasy: lo que hasta hace poco se llamaba Ubuntu Eee tuvo que cambiar de nombre a petición de Canonical para adoptar su denominación

actual, Easy Peasy. Sus desarrolladores han creado una versión muy similar a Ubuntu Netbook Remix. La versión 1.0 está basada en Ubuntu 8.04.1 LTS, pero la futtura Easy Peasy 2.0 estará basada en las versiones preliminares de Ubuntu 9.04, y de hecho es posible disfrutar de cosas como EXT4 o el nuevo sistema de notificaciones del que Shuttleworth habló no hace mucho. Sin duda, una distro puntera para netbooks.

Page 70: Final Computación

Como podueden comprobar, las opciones son muchas y muy interesantes en el mercado de Windows y de las distribuciones GNU/Linux, pero no se acaba ahí la cosa. Nuevas propuestas muy innovadoras provenientes del mundo de la movilidad parecen querer adaptarse también a este segmento. Hablamos de soluciones tan prometedoras como Moblin, Android o un misterioso Jolicloud del que aún no hay producto disponible.

IMPRESORAS

La mejor impresora de inyección de tinta

Page 71: Final Computación

La mejor impresora de inyección de tinta es la CANON PIXMA iP4300.En ello coinciden la OCU, que la elige como la impresora de mejor relación calidad/precio,

como PC MAGAZINE, que la elige como mejor impresora.PRECIO: entre 95 y 110 euros.La mejor impresora

laser en colorLa mejor impresora

laser es la EPSON ACCULASER C1100.PRECIO: entre 350 y

450 euros.

Otra impresora laser a tener en cuenta, es la CANON LASERSHOT LBP 5000, que se convierte en la mejor impresora laser si imprime menos de 500 páginas al año.PRECIO: entre 280 y 300 euros.¿Que impresora es mejor? ¿de inyección o

laser?

Page 72: Final Computación

Para imprimir páginas de texto, es mejor una impresora laser, sobre todo, si imprime más de 200 páginas al mes.Para fotos, es mejor una impresora de inyección de tinta, ofrecen mejor calidad de impresión, aunque son más lentas que las impresoras laser.De todas formas, para imprimir grandes cantidades de fotos, es mejor encargarlas a un laboratorio (en una tienda o en internet).

HISTORIA DE GRANDES

CORPORACIONESGoogleGoogle es una empresa cuyo principal producto

es el motor de búsqueda del mismo nombre.Google fue

fundado en

Page 73: Final Computación

septiembre de 1998 por Larry Page y Sergey Brin, dos estudiantes de doctorado de Stanford.Sergey Brin (23 años entonces) y Larry Page

(24), confundadores de Google y actualmente presidente y CEO, se conocen en un acto que la Universidad de Stanford organiza para los candidatos de su Doctorado en Informática. Ambos tenían un objetivo común, conseguir información relevante a partir de una importante cantidad de datos.En 1995 Larry y Sergey comienzan a trabajar

en el "Digital Library Project"de la Universidad de Stanford. Comenzando a crear un algoritmo para la búsqueda de datos. Esa tecnología que Larry le da nombre de "PageRank"se convertiría mas tarde en el "corazón" que hará funcionar a Google.En 1996 Comienzan a desarrollar un buscador

llamado "BackRub". Y tal como indican en su descripción, BackRub está escrito en Java y Python, y corre sobre varias máquinas. La base de datos está alojada en un ordenador Sun Ultra II con 28GB de disco duro.En 1997 BackRub se convierte en "Google", el

nombre proviene de un juego de palabras con el término "googol", acuñado por Milton Sirotta, sobrino del matemático norteamericano Edward

Page 74: Final Computación

Kasner, para referirse al número representado por un 1 seguido de 100 ceros. El uso refleja la misión de la compañía de la inmensa cantidad de información disponible en la web. Y ese mismo año Larry y Sergey registran el dominio "google.com".En 1998 Larry y Sergey continuarón trabajando

para perfeccionar la tecnología de búsqueda. A pesar de la fiebre "puntocom", no lograbán encontrar inversionistas que financiarán Google, teniendo que conseguir dinero de sus familiares y amigos. Hasta que en el verano de ese mismo añoAndy Bechtolsheim (cofundador de Sun Microsystems y vicepresidente de Cisco Systems) les firma un cheque por 100,000 dólares a nombre de"Google Inc.. Sin embargo "Google Inc." no existe, y para cobrar el cheque necesitarón buscar un local y fundar una compañía con ese nombre.El 7 de diciembre de 1998, Google Inc., ya

disponía de oficinas propias en Menlo Park, California.Google.com tenía visitas por día de 10,000. En

1999 consiguierón 25 millones de dólares de dos importantes inversionistas Sequoia Capital y Kleiner Perking Caufield & Buyers.

Page 75: Final Computación

Meses después las oficinas en Menlon Park, ya eran pequeñas para ellos, así que se transladaron a Googleplex, la actual sede central de Google en Mountain View, California, con más empleados y respondiendo a alrededor de 500,000 visitas al día. Google es hoy el mejor buscador de la red y el más utilizado.El 10 de Octubre del 2006 Google adquiere el

portal de descargas de vídeo "online" YouTube por 1,650 millones de dólares.Google, se ha convertido en un emblemático

caso de complicidad con la censura al haber pactado con el gobierno de China los contenidos de sus páginas. Actualmente y como parte de su estrategia comercial de búsqueda de nuevos mercados, los resultados del buscador orientados al usuario chino sufren un filtrado previo, que obvia, aunque informando de ello, los resultados que puedan ser contrarios a las políticas del gobierno.Google gana el Premio Príncipe de Asturias de

Comunicación y Humanidades 2008; Premio que le hizo entrega el Principe de Asturias Felipe de Borbón el 24 de Octubre del 2008, en el Teatro Campoamor de Oviedo, España, al cofundador Larry Page y vicepresidente Nikesh Arora.

Page 76: Final Computación

Google está considerado el mejor buscador de la historia de Internet y permite a millones de usuarios de todo el mundo acceder a conocimientos e información de forma rápida y organizada.

MICROSOFT

Todo el mundo relacionado con la informática conoce de esta empresa. Algunas la idolatran y otros la odian. A continuación su historia.

La compañía fue fundada en 1975

por William H. Gates III y Paul Allen. Ambos se habían conocido durante su época de estudiantes por su afición común a programar con la computadora PDP-10 de Digital Equipment Corporation. En ese año, la revista Popular Electronics dedicó su portada y un artículo al Altair 8800, la primera computadora personal. El artículo animó a Gates y Allen a desarrollar la primera versión del lenguaje de

Page 77: Final Computación

programación BASIC para el equipo Altair. Le compraron la licencia de este software a Micro Instrumentation and Telemetry Systems (MITS), la empresa fabricante del Altair, y fundaron Microsoft (originalmente Micro-soft) en Albuquerque, Nuevo México, con el objeto de desarrollar versiones de BASIC para otras compañías del sector. Apple Computer, fabricante del equipo Apple II, Commodore, fabricante del PET, y Tandy Corporation, fabricante del equipo Radio Shack TRS-80, todas ellas compañías creadas por aquel entonces, fueron los primeros clientes de Microsoft. En 1977 Microsoft lanzó al mercado su segundo producto, Microsoft FORTRAN, otro lenguaje de programación, y pronto sacó versiones del lenguaje BASIC para los microprocesadores 8080 y 8086.MS-DOSEn 1979 Gates y Allen trasladaron la compañía

a Bellevue, Washington, muy cerca de Seattle, la ciudad donde ambos nacieron. El traslado a Redmond, muy próximo a Bellevue, se produjo en 1986. En 1980 IBM contrató a Microsoft para escribir el sistema operativo del IBM PC, que saldría al mercado al año siguiente. Presionada

Page 78: Final Computación

por el poco tiempo disponible, Microsoft compró QDOS (Quick and Dirty Operating System) a Tim Paterson, un programador de Seattle, por 50.000 dólares y le cambió el nombre a MS-DOS. El contrato firmado con IBM permitía a Microsoft vender este sistema operativo a otras compañías. En 1984 Microsoft había otorgado licencias de MS-DOS a 200 fabricantes de equipos informáticos y, así, este sistema operativo se convirtió en el más utilizado para PC, lo que permitió a Microsoft crecer vertiginosamente en la década de 1980.Software para aplicacionesA medida que las ventas de MS-DOS se

disparaban, Microsoft empezó a desarrollar una serie de aplicaciones para PC con fines comerciales. En 1982 salió al mercado Multiplan, un programa de hoja de cálculo, y el año siguiente se puso a la venta el procesador de textos denominado Microsoft Word. En 1984 Microsoft fue una de las primeras compañías del sector que se dedicó a desarrollar aplicaciones para Macintosh, una computadora personal creada por la compañía Apple Computer. En un principio, Microsoft obtuvo grandes éxitos de venta de programas para Macintosh como Word,

Page 79: Final Computación

Excel y Works (un grupo de aplicaciones integradas en un paquete). No obstante, Multiplan para MS-DOS fue casi totalmente sustituido por la famosa hoja de cálculo de Lotus Development Corporation, Lotus 1-2-3.WindowsEn 1985 Microsoft lanzó Windows, un sistema

operativo que ampliaba las prestaciones de MS-DOS e incorporaba por primera vez una interfaz gráfica de usuario. Windows 2.0, que salió a la venta en 1987, mejoraba el rendimiento y ofrecía un nuevo aspecto visual. Tres años más tarde apareció una nueva versión, Windows 3.0, a la que siguieron Windows 3.1 y 3.11. Estas versiones, que ya venían preinstaladas en la mayoría de los equipos, se convirtieron rápidamente en los sistemas operativos más utilizados de todo el mundo. En 1990 Microsoft pasó a ser la empresa líder de programas informáticos y alcanzó unas ventas anuales de más de mil millones de dólares.Cuando Microsoft se encontraba en la cima del mercado de los programas para PC, la compañía fue acusada de ejercer prácticas empresariales monopolísticas. En 1990, la Comisión Federal de Comercio estadounidense (FTC, siglas en inglés)

Page 80: Final Computación

comenzó a investigar a Microsoft por supuestas prácticas contrarias a la libre competencia, pero fue incapaz de dictar sentencia y cerró el caso. El Departamento de Justicia estadounidense continuó la investigación.En 1991 Microsoft e IBM finalizaron una década de colaboración cuando decidieron seguir caminos diferentes en la siguiente generación de sistemas operativos para ordenadores personales. IBM continuó con un antiguo proyecto en común con Microsoft, un sistema operativo denominado OS/2 (que salió al mercado en 1987), mientras Microsoft decidió desarrollar su sistema operativo gráfico Windows. En 1993 Apple perdió un juicio contra Microsoft al que acusaba de violación de las leyes de derechos de autor por haber copiado ilegalmente el diseño de la interfaz gráfica de Macintosh. El fallo fue más adelante confirmado por un tribunal de apelación.Windows NT, un sistema operativo diseñado para entornos empresariales, fue lanzado en 1993. Al año siguiente, la compañía y el Departamento de Justicia firmaron un acuerdo en el que se pedía a Microsoft que modificase la forma de vender y conceder licencias para sus sistemas operativos a los fabricantes de

Page 81: Final Computación

computadoras. En 1995 la compañía lanzó Windows 95, un entorno multitarea con interfaz simplificada y con otras funciones mejoradas. A las siete semanas de su lanzamiento se habían vendido siete millones de copias.Mejoras en sus productosMicrosoft empezó a operar en el campo de los

medios de comunicación y creó The Microsoft Network en 1995 y MSNBC un año después. Además, en 1996 Microsoft presentó Windows CE, un sistema operativo para computadoras de bolsillo. En 1997 Microsoft pagó 425 millones de dólares por la adquisición de WebTV Networks, un fabricante de dispositivos de bajo costo para conectar televisiones a Internet. Ese mismo año Microsoft invirtió mil millones de dólares en Comcast Corporation, un operador estadounidense de televisión por cable, como parte de su política de extender la disponibilidad de conexiones de alta velocidad a Internet.A finales de 1997 el Departamento de Justicia acusó a Microsoft de violar el acuerdo de 1994 al obligar a los fabricantes de computadoras que instalaban Windows 95 a la inclusión de Internet Explorer, un programa para navegar por Internet. El gobierno sostuvo que la compañía

Page 82: Final Computación

se estaba aprovechando de su posición en el mercado de los sistemas operativos para obtener el control de los exploradores de Internet. Microsoft afirmó que debía disponer del derecho de mejorar la funcionalidad de Windows integrando en el sistema operativo funciones relacionadas con Internet. Por otra parte, a finales de 1997, la compañía Sun Microsystems demandó a Microsoft, alegando que había incumplido el contrato por el que se le permitía utilizar el lenguaje de programación universal JAVA, de Sun, al introducir mejoras sólo para Windows. En noviembre de 1998 un tribunal dictó sentencia en contra de Microsoft por un mandamiento presentado por Sun ese mismo año. Dicho mandamiento obligaba a Microsoft a revisar su software para cumplir los estándares de compatibilidad con JAVA. Microsoft apeló la sentencia.A principios de 1998 Microsoft llegó a un acuerdo temporal con el Departamento de Justicia que permitía a los fabricantes de PC ofrecer una versión de Windows 95 sin acceso a Internet Explorer. No obstante, en mayo de1998 el Departamento de Justicia y veinte estados de Estados Unidos presentaron demandas contra Microsoft por supuestas prácticas

Page 83: Final Computación

monopolísticas y por abusar de posición dominante en el mercado para hundir a la competencia. Estas demandas obligaron a Microsoft a vender Windows sin Internet Explorer o a incluir Navigator, el explorador de Web de Netscape Communications Corporation, la competencia. Las demandas también obligaron a modificar algunos contratos y la política de precios.En junio de 1998 Microsoft lanzó Windows 98, que incluye funciones integradas para acceso a Internet. Al mes siguiente Bill Gates nombró presidente de la compañía a Steve Ballmer, hasta entonces vicepresidente ejecutivo, y éste se hizo cargo de la supervisión de las actividades empresariales cotidianas de Microsoft.El juicio contra Microsoft por haber violado las leyes antimonopolio comenzó en octubre de 1998. Ejecutivos de Netscape, Sun y otras muchas compañías de software y hardware testificaron acerca de sus contratos empresariales con Microsoft. En noviembre de 1999 el juez del tribunal federal, tras escuchar a los testigos convocados, expuso sus conclusiones y declaró que Microsoft poseía un monopolio en el mercado de sistemas

Page 84: Final Computación

operativos. En abril de 2000, el juez hizo pública la sentencia contra la compañía por haber violado las leyes antimonopolio al emplear tácticas que entorpecían la competitividad. Microsoft recurrió el fallo.En 1999 Microsoft pagó 5.000 millones de dólares a la compañía de telecomunicaciones AT&T Corp. para utilizar su sistema operativo Windows CE en dispositivos diseñados para ofrecer a los consumidores servicios integrados de televisión por cable, teléfono y acceso rápido a Internet. Además, ese mismo año, la compañía lanzó Windows 2000, la versión más actualizada del sistema operativo Windows NT. En enero de 2000 Bill Gates traspasó su cargo de presidente ejecutivo (CEO) a Ballmer, un cambio que le ha permitido a aquél centrarse en el desarrollo de nuevos productos y tecnologías.IPHONEEl iPhone, de la compañía Apple Inc., es un teléfono inteligente multimedia con conexión a Internet, pantalla táctil capacitiva (con soporte multitáctil) y una interfaz de hardware minimalista.Ya que carece de un teclado físico, contiene uno virtual en la pantalla táctil en orientación tanto

Page 85: Final Computación

vertical como apaisado. El iPhone 3GS dispone de una cámara de fotos de 3 megapixeles y un reproductor de música (equivalente al del iPod) además de software para enviar y recibir mensajes de texto y mensajes de voz. También ofrece servicios de Internet como leer correo electrónico, cargar páginas web y conectividad por Wi-Fi. La primera generación de teléfonos eran GSM cuatribanda con la tecnología EDGE; la segunda generación ya incluía UMTS con HSDPA.1

Apple anunció el iPhone en 2007, 2 tras varios rumores y especulaciones que circulaban desde hacía meses.3 El iPhone se introdujo inicialmente en los Estados Unidos el 29 de junio de 2007. Fue nombrado «Invento del año» por la revista Time en el 2009.4 El 11 de julio de 2008 el iPhone 3G salió a la venta, estando disponible en 22 países5 y se prevé que sean 70 para finales de año. Esta versión soporta la transmisión de datos por 3G a una velocidad más rápida y tecnología AGPS.1

Para el evento WWDC'09 se presento el iPhone 3GS (S de Speed, velocidad), presentando el mismo diseño que el 3G, pero completamente

Page 86: Final Computación

renovado por dentro. El iPhone 3GS es hasta dos veces más rápido que su predecesor cargando páginas web o ejecutando aplicaciones, saca partido del estándar OpenGL ES 2.0 para ofrecer mejores gráficos 3D, soporta HSDPA a 7.2 MB (también conocido como 3.5G), cuenta con una nueva cámara de 3 megapíxeles con enfoque automático y grabación de vídeo, control por voz, brújula y soporte integrado para elNike+iPod.

EBOOK

Un libro electrónico, también conocido como e-book, eBook, ecolibro o libro digital, es una versión electrónica o digital de un libro. También suele denominarse así al dispositivo usado para leer estos libros, que es conocido también como e-reader o lector de libros electrónicos.

El libro electrónico posee ventajas y desventajas:

Es necesario distinguir entre el lector y el libro electrónico. Un lector, con una tarjeta de

Page 87: Final Computación

memoria, puede almacenar hasta cientos de libros electrónicos.La accesibilidad es el punto fuerte del libro electrónico. Ya que con él se puede leer casi cualquier documento en cualquier lugar, con luz, ya que no tiene retro-iluminación, como es el caso de otros dispositivos de mano; o una computadora. Esto es como leer un libro en papel; sin cansancio alguno para la vista. Otra de las ventajas es que algunos de estos dispositivos tienen lo que se llama la tinta electrónica, de la que ya se ha hablado antes. Con tal tecnología el aparato puede ser tan fino que puede llegar a enrollarse como un pergamino, y la sensibilidad del ojo humano es mejor, por lo que puede llegar a estar más horas leyendo sin que la vista se perjudique.

Otra de los buenos elementos es que los e-books más avanzados tienen conexión a Internet, con lo que pueden conectarse con los principales portales de venta de libros electrónicos, así como descargarse las ediciones en PDF de los diarios de papel. Por lo que el libro electrónico ya no sólo sería un soporte para leer sino para otras utilidades, ampliando así el campo de uso.

Page 88: Final Computación

En cuanto a los puntos negativos, las principales son las repercusiones de la salud. La columna vertebral puede ser la afectada sólo si hay una mala posición a la hora de leer. Con lo que una buena posición sería más que suficiente.Otro de los inconvenientes es el precio; que en mayo de 2010 ya está bajando. Éste es tan elevado por varios factores. Uno de ellos es por la propiedad intelectual. Ya que los gobiernos gravan estos aparatos con un porcentaje mayor que otros aparatos. Otro de los factores es la novedad. Como ya se ha repetido no es algo común en la sociedad, por lo que hasta que no se ‘imponga’ no bajará precios.El pasar páginas con el dedo, pasó a la historia. Unos simples botones de avance y retroceso lo hacen posible. Y sólo consumen batería con el paso de las páginas, por lo que la duración de la misma es muy alta: alrededor de 8.000 páginas, antes de la recarga.

El error generalizado de los actuales libros electrónicos, es haber querido "sustituir" el libro impreso. Es por esto que la gran mayoría son "copia" del impreso, con versiones en pdf o en archivos de "imagen" muy difíciles de leer. Si la

Page 89: Final Computación

modernidad desea un verdadero libro digital, debe tener presentes los "plus" otorgados por la tecnología; es por esto que la biblioteca llamada Libro Total (leída en más de 120 países), ofrece al lector otras opciones derivadas de un proceso serio de investigación: notas de lectores, comentarios de expertos, imágenes relacionadas a la obra, obras relacionadas, lectura y audio en varios idiomas, música relacionada o inspirada en la obra que se lee, múltiples diccionarios, etc.IPADEl iPad es un dispositivo electrónico tipo tablet desarrollado por Apple Inc. Anunciado el 27 de enero de 2010, se sitúa en una categoría entre un "teléfono inteligente" (smartphone) y un portátil, enfocado más al acceso que a la creación de contenido.

Las funciones son similares al resto de dispositivos portátiles de Apple, como es el caso del iPhone o iPod touch, aunque la pantalla es más grande y su hardware más potente. Funciona sobre una versión adaptada del sistema operativo iOS, con una interfaz de usuario rediseñada para aprovechar el mayor

Page 90: Final Computación

tamaño del dispositivo y la capacidad de utilizar software para lectura de libros electrónicos y periódicos, navegación web y correo electrónico, además de permitir el acceso al usuario a otras actividades de entretenimiento como películas, música y videojuegos.

Posee una pantalla con retroiluminación LED y capacidades multitáctiles de 9,7 pulgadas (24,638 cm), de 16 a 64 gigabytes (GB) de espacio en memoria flash, Bluetooth, y un conector dock de 30 pines que permite la sincronización con el software iTunes además de proporcionar conexión para diversos accesorios.5Existen dos modelos: uno con conectividad a redes inalámbricas Wi-Fi 802.11n y otro con capacidades adicionales de GPS y soporte a redes 3G (puede conectarse a redes de telefonía celular HSDPA). Ambos modelos pueden ser adquiridos en tres capacidades de almacenamiento distintas.

HTML 5HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión importante del lenguaje

Page 91: Final Computación

básico de la World Wide Web, HTML. HTML 5 especifica dos variantes de sintaxis para HTML: un «clásico» HTML (text/html), la variante conocida como HTML5 y una variante XHTML conocida como sintaxis XHTML5 que deberá ser servida como XML (XHTML) (application/xhtml+xml). Esta es la primera vez que HTML y XHTML se han desarrollado en paralelo.

A la par, HTML 5 pretende proporcionar una plataforma con la que desarrollar aplicaciones web más parecidas a las aplicaciones de escritorio, donde su ejecución dentro de un navegador no implique falta de recursos o facilidades para resolver las necesidades reales de los desarrolladores. Para ello se están creando unas APIs que permitan trabajar con cualquiera de los elementos de la página y realizar acciones que hasta hoy era necesario realizar por medio de tecnologías accesorias.

TELEVISIÓN DIGITAL

Page 92: Final Computación

La televisión digital (o DTV, de sus siglas en inglés: Digital TV) se refiere al conjunto de tecnologías de transmisión y recepción de imagen y sonido, a través de señales digitales. En contraste con la televisión tradicional, que codifica los datos de manera analógica, la

televisión digital codifica sus señales de forma binaria, habilitando así la posibilidad de crear vías de retorno entre consumidor y productor de contenidos,

abriendo la posibilidad de crear aplicaciones interactivas, y la capacidad de transmitir varias señales en un mismo canal asignado, gracias a la diversidad de formatos existentes.

La Televisión Digital o TDT es la aplicación de las tecnologías del medio digital a la transmisión de contenidos a través de una antena convencional o de conexión por cable o satélite. Así se consiguen mayores posibilidades, como

Page 93: Final Computación

proveer de un mayor número de canales, mejor calidad de imagen o imagen en alta definición y mejor calidad de sonido. Además, tiene otras ventajas para el usuario de este tipo de televisión, como el acceso a servicios interactivos, la participación en la Sociedad de la Información o una oferta más amplia de canales.

Un sistema integro de televisión digital, incorpora los siguientes actores:

Cámaras de video digitales, que trabajan a resoluciónes mucho más altas que las cámaras analógicas.

Transmisión digital Display digital, de alta resolución (Ej:

LCDs, Plasmas)

ATUBE CATCHEREn el pasado había reseñado la

aplicación aTube Catcher como una sencilla y versátil herramienta gratuita

Page 94: Final Computación

para descargar videos de Youtube y convertir videos que ya tienes a otros formatos.  En su última actualización, sus creadores la han transformado en una extraordinaria aplicación que, siendo aún gratuita, realiza varias funciones como:

Descargar videos de Youtube y otras páginas.

Puedes convertir tus videos a otros simplemente arrastrando el video a la aplicación.

Permite capturar “streamings” y guardarlos en varios formatos.

Puedes grabar lo que haces en tu pantalla.

Puedes quemar DVD’s y VCD’s.

Como es de esperarse, aTube Catcher no tiene las herramientas y opciones  sofisticadas de programas como Nero, pero para tareas básicas es más que adecuado y rápido

Page 95: Final Computación

CREATIVE COMMONS

Page 96: Final Computación

Creative Commons (CC) es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de

nueva legislación y nuevas tecnologías. Fue fundada por

Lawrence Lessig, profesor de derecho en la Universidad de Stanford y especialista en ciberderecho, que la presidió hasta marzo de 2008.Creative Commons (en español: «bienes comunes creativos») es también el nombre dado a las licencias  desarrolladas por esta organización.

Las licencias Creative Commons o CC están inspiradas en la licencia GPL (General Public License) de la Free Software Foundation. No son, sin embargo, un tipo de licenciamiento de software. La idea principal es posibilitar un

Page 97: Final Computación

modelo legal ayudado por herramientas informáticas, para así facilitar la distribución y el uso de contenidos.Existe una serie de licencias Creative Commons, cada una con diferentes configuraciones o principios, como el derecho del autor original a dar libertad para citar su obra, reproducirla, crear obras derivadas, ofrecerla públicamente y con diferentes restricciones, como no permitir el uso comercial o respetar la autoría original.Una de las licencias que ofrecía Creative Commons es la que llevaba por nombre "Developing Nations" (Naciones en Desarrollo), la cual permitía que los derechos de autor y regalías por el uso de las obras se cobraran sólo en los países desarrollados del primer mundo, mientras que se ofrecían de forma abierta en los países en vías de desarrollo. Esta licencia ha sido retirada por problemas comerciales.

PROTECCÍON INFANTIL EN INTERNET

Sugerencias útiles para ayudar con la protección infantil:1. Mantenga abierta la comunicación

Page 98: Final Computación

Anime a sus hijos para que le hablen sin temor acerca de lo que leen o ven en Internet. Coloque el equipo en una habitación común, no en el dormitorio del niño.

     2.  Establezca reglas claras para el uso de Internet

Los niños de cualquier edad necesitan que sus padres establezcan directrices claras acerca del uso de Internet. Establezca un conjunto de reglas en el que usted y su hijo estén de acuerdo. Después, coloque las reglas encima del equipo o en otro lugar común.

    3. Mantenga sus datos personales privados

Dígale a su hijo que no comparta información personal en mensajes de correo electrónico, salones de charla, paneles de mensajes, blogs, sitios de redes sociales u otros lugares en línea.

    4.Use tecnología para reducir riesgos

Page 99: Final Computación

Use herramientas de seguridad para la familia como asistente para la orientación de los padres. El software de filtrado de Internet puede ayudar a automatizar las limitaciones de contenido y contacto.

Redes SocialesLas redes sociales son estructuras sociales compuestas de grupos de personas, las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes o que comparten conocimientos.

Page 100: Final Computación

El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e

identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este

Page 101: Final Computación

caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "sociocéntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal".

AudacityAudacity es una aplicación informática

multiplataforma libre, que se puede usar para grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL.Es el editor de audio más

difundido en los sistemas GNU/Linux.

Page 102: Final Computación

Se lo puede descargar desde la página del proyecto y encontrarás versiones para todas las plataformas: Linux, Mac y Windows.

Conferencias webUna conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí, participan entre 2 y 20 personas y pueden compartir documentos y aplicaciones.

Diferencias entre videoconferencia web, seminario web y videoconferenciaLas videoconferencias web son reuniones ‘virtuales’ a través de Internet cuyos participantes trabajan en distintas ubicaciones físicas. La sala de reuniones real se sustituye por el escritorio del ordenador del anfitrión de la reunión (la persona que la ha organizado). Cada

Page 103: Final Computación

participante se sienta ante su propio ordenador, donde puede ver todo lo que el presentador va mostrando en su pantalla (función de ‘desktop sharing’ o escritorio compartido).Durante la reunión en línea, el anfitrión puede ceder el papel de presentador a cualquiera de los demás participantes. En esencia, las conferencias web poseen características similares a las reuniones ‘en persona’, porque permiten que los asistentes interactúen entre sí (principio de comunicación ‘de muchos a muchos’).’En las conferencias web participan entre 2 y 20 personas, pudiendo compartir documentos y aplicaciones. En cambio los seminarios web (webinars) se utilizan básicamente para formación en línea o eventos en línea, como conferencias de prensa, y pueden tener más de 100 participantes. Las soluciones para seminarios web facilitan considerablemente el proceso de invitación y la presentación de información a grandes audiencias (principio de comunicación ‘de uno a muchos’). Las videoconferencias sirven básicamente para transmitir señal de vídeo en directo a los participantes.

Page 104: Final Computación

Grandes InventosComputadora:La computadora es un invento reciente, que no

ha cumplido ni los cien años de existencia desde su primera generación. Sin embargo es un invento que ha venido a revolucionar la forma en la que trabajamos, nos entretenemos y se ha convertido en un aparato esencial en nuestra vida

diaria.Primera Generación (1951 a 1958)Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más

Page 105: Final Computación

grandes y generaban más calor que los modelos contemporáneos.Segunda Generación (1959-1964)Transistor Compatibilidad Limitada:

El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.Tercera Generación (1964-1971)Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora:

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras

Page 106: Final Computación

nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.Cuarta Generación (1971 a la fecha)Microprocesador, Chips de memoria, Microminiaturización:

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer).

TelevisiónPaul Nipkow ideó la televisión, recogiendo experiencias que el campo de la foto telegrafía habían realizado Bain, Le Blanc,

Page 107: Final Computación

Selencq y otros. Al procedimiento de Paul Nipkow se le denominó luego "Televisión mecánica", en contraposición a la "Televisión electrónica" que, arrancando de las mismas técnicas de la fototelegrafía, continuó las experiencias y descubrimientos de Hallwachs, Braun, Dieckmann, De Forest y Zworykin, Nipkow no volvió a ocuparse de su patente, y ésta caducó. Mientras el "padre de la televisión" se dedicaba "al estudio de las señales y sistemas de de seguridad en los ferrocarriles, inventores de Europa y América trabajaban sobre la televisión siguiendo las instrucciones de la patente", dice Rings, Nipkow, que el 9 de diciembre de 1924, patentó un procedimiento de regulación y sincronización de impulsos eléctricos en los aparatos de transmisión de imágenes, pudo ver los resultados de su idea en 1928. El más destacado de los seguidores del sistema Nipkow de televisión mecánica fue John logie Baird, en 1925 en Nueva York ofreció la primera imagen de color. El secretario de Estado, Hans Bredow, contrató a Baird para proseguir sus experiencias en Berlín, donde se constituyó la Baaird Televisión

Page 108: Final Computación

company, creadora de la Fernseh a.g., compañía que sihue dedicada a la fabricación de material para televisión. El 26 de Agosto de 1936 la BBC inició sus emisiones de prueba con el sistema Baird; pero el sistema Nipkow- Baird había conseguido ya resultados sorprendentes con anterioridad. Camara FotográficaEl primer fotógrafo fue Joseph-Nicéphore Niépce en 1826, utilizando una cámara hecha de

madera fabricada por Charles y Vincent Chevalier en París. Sin embargo, aunque se considera "oficialmente" que éste fue el nacimiento de la fotografía, la invención de la cámara oscura es muy anterior. Pero no fue hasta la invención de la fotografía que

se pudieron fijar permanentemente las imágenes; mientras tanto se tenían que dibujar manualmente las imágenes.La primera cámara que fue lo suficientemente pequeña como para considerarse portátil fue construida por Johann Zahn en 1685. Las primeras cámaras fotográficas eran similares en

Page 109: Final Computación

esencia al modelo de Zahn, aunque generalmente con una mejora en el enfoque. Antes de cada exposición una placa sensibilizada era insertada. El popular daguerrotipo de Louis Daguerre, dado a conocer en 1839, utilizaba placas de cobre plateado, sensibilizadas con vapores de yodo; mientras que en el procedimiento del calotipo inventado por William Fox Talbot se formaban las imágenes negativas sobre soporte de papel.

Cámara Zeiss Ikon Box Tengor, hacia 1950.La invención del proceso de placa húmeda con colodión húmedo inventado por Frederick Scott Archer en 1850 redujo mucho el tiempo de exposición, pero siempre requería que el fotógrafo preparara artesanalmente las placas, en el cuarto oscuro de los estudios fotográficos, o bien en laboratorios portátiles de campaña, en la fotografía exterior de viajes.En el siglo XIX se diseñaron muchos tipos de cámaras fotográficas. Por ejemplo, las cámaras aptas para obtener fotografías estereoscópicas; cuyos pares estereoscópicos finalmente se tenían que mirar con un visor apropiado, para

Page 110: Final Computación

poder visualizar su efecto tridimensional o de relieve. Una típica cámara estereoscópica tenía dos objetivos, para obtener simultáneamente dos imágenes muy parecidas, pero no iguales, desde dos puntos de vista muy cercanos. En realidad se inspiraba en la visión binocular humana.Otras cámaras diferentes eran algunas cámaras de estudio de la época en que se popularizaron los retratos en formato de tarjeta de visita (entre los años 1860 y 1880). Esas cámaras podían tener cuatro o más objetivos, para obtener varios retratos en un mismo negativo de vidrio. De esa manera el positivado (por contacto) era más rápido, pues en una sola hoja de papel se obtenían los retratos realizados; que sólo debían ser cortados y montados en diferentes tarjetas individuales.

Web 1.0, 2.0, 3.0La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales

Page 111: Final Computación

tales como IE, Netscape,explorer (en versiones antiguas), etc.La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.Web 1.0 se refiere a un estado de la World Wide

Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del

impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.[1

El término Web 2.0 (2004–presente) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de

Page 112: Final Computación

diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona.Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un

Page 113: Final Computación

artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cuál sea la definición más adecuada.

WikiUn wiki (o una wiki)es un sitio web cuyas

páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe

el título de una «página wiki» en algún lugar del

Page 114: Final Computación

wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wiki.

RSSRSS se utiliza para crear archivos que contienen información de una página web con las últimas actualizaciones que se han hecho en ella. Este tipo de archivos es muy útil para cualquier sitio de noticias, foros, weblogs o página que emita contenido de forma continuada.De esta forma, ya no es necesario visitar la web original cada cierto tiempo en busca de actualizaciones. Basta con suscribirse al feed RSS y recibiremos rápidamente las actualizaciones del sitio.Para ello es necesario utilizar determinados programas llamados Agregadores o Lectores de RSS, o visitar páginas web o portales que incluyen esta funcionalidad. Reconocer y agregar un feed RSS es muy sencillo. Normalmente los reconocerás por este

Page 115: Final Computación

icono que se ha establecido por consenso como el identificador de feed.