INVESTIGACIÓN DE INFORMATICA

26
INVESTIGACIÓN JORGE VERGARA SINDY MONTERROSA DARY ELENA OCHOA Tutora: NATALIA MARTÍNEZ Asignatura: INFORMATICA III Grupo: BACHILLERES ACADÉMICOS UNIVERSIDAD COOPERATIVA DE COLOMBIA LICENCIATURA CON ÉNFASIS EN TECNOLOGÍA E INFORMÁTICA II SEMESTRE CAUCASIA ANTIOQUIA 28 de Abril de 2012

Transcript of INVESTIGACIÓN DE INFORMATICA

Page 1: INVESTIGACIÓN DE INFORMATICA

INVESTIGACIÓN

JORGE VERGARA

SINDY MONTERROSA

DARY ELENA OCHOA

Tutora:

NATALIA MARTÍNEZ

Asignatura:

INFORMATICA III

Grupo:

BACHILLERES ACADÉMICOS

UNIVERSIDAD COOPERATIVA DE COLOMBIA

LICENCIATURA CON ÉNFASIS EN TECNOLOGÍA E INFORMÁTICA

II SEMESTRE

CAUCASIA – ANTIOQUIA

28 de Abril de 2012

Page 2: INVESTIGACIÓN DE INFORMATICA

INFORMATICA

1. ¿Realice una investigación sobre las 5 generaciones de los

computadores?

Las primeras computadoras eran verdaderos gigantes, como la ENIAC. Las

siglas de ENIAC corresponden a ElectronicNumericalIntegrator and

Computer fue el nombre que recibió la primera computadora electrónica que

en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la

universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de

30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468

válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se

hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones

para las que se había diseñado.

Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había

terminado. El fin de la contienda hizo que los esfuerzos hasta entonces

dedicados principalmente a objetivos militares, se destinaran también a otro

tipo de investigación científica más relacionada con las necesidades de la

empresa privada. Los esfuerzos múltiples dieron resultados en 1945

Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el

EDVAC (ElectronicDiscrete Variable AutomaticComputer) y Aiken inició el

diseño de la Mark II. En 1951, el que está considerado como la primera

computadora ampliamente comercializada, la UNIVAC I , comenzó a

funcionar con éxito. En 1952 John Neumann y Herman Goldstine

construyeron la computadora IAS, que incorporaba notables mejoras al

respecto a sus predecesoras. En 1928 la empresa Fairchild y Texas

Instruments produjeron los primeros circuitos integrados basados en

semiconductores y en 1962, Steven Russell creó el primer juego para

Page 3: INVESTIGACIÓN DE INFORMATICA

computadoras. Se llamaba Spacewar y desde la evolución ha sido continua.

En 1952 la computadora UNIVAC se utilizó para realizar el recuento de

votos en las elecciones presidenciales de EE.UU. El resultado victoria

(Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que

se cerraran los colegios electorales

Primera Generación: (1.940-1.952): En esta etapa las computadoras

funcionaban con válvulas y se utilizaban exclusivamente en el ámbito

científico o militar. La programación implicaba la modificación directa de los

valores de los circuitos de las máquinas, con el consecuente gasto de

tiempo y esfuerzo.

Segunda Generación: (1959-1964) Transistor Compatibilidad Limitada: El

invento del transistor hizo posible una nueva Generación de computadoras,

más rápidas, más pequeñas y con menores necesidades de ventilación. Sin

embargo el costo seguía siendo una porción significativa del presupuesto de

una Compañía. Las computadoras de la segunda generación también

utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para

el almacenamiento primario. Estos núcleos contenían pequeños anillos de

material magnético, enlazados entre sí, en los cuales podían almacenarse

datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL

desarrollado durante la 1era generación estaba ya disponible

Page 4: INVESTIGACIÓN DE INFORMATICA

comercialmente. Los programas escritos para una computadora podían

transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no

requería entender plenamente el hardware de la computación.

Las computadoras de la 2da Generación eran sustancialmente más

pequeñas y rápidas que las de bulbos, y se usaban para nuevas

aplicaciones, como en los sistemas para reservación en líneas aéreas,

control de tráfico aéreo y simulaciones para uso general. Las empresas

comenzaron a aplicar las computadoras a tareas de almacenamiento de

registros, como manejo de inventarios, nómina y contabilidad.

La marina de E.U. utilizó las computadoras de la Segunda Generación para

crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como

el primer competidor durante la segunda generación de computadoras.

Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores

de IBM durante los 60s se conocieron como el grupo BUNCH.

Page 5: INVESTIGACIÓN DE INFORMATICA

Tercera generación de la computadora

Tercera generación de computadoras (1964-1971): A mediados de

los años 60 se produjo la invención del circulo integrado o microchip, por

parte de Jack St. clairekilby y robertnoise. Después llevó a tedhoff a la

invención del hols en Intel. A finales de 1960, investigadores

como gerogegamow notó que las secuencias de nucleótidos en el ADN

formaban un código, otra forma de codificar o programar.

Page 6: INVESTIGACIÓN DE INFORMATICA

A partir de esta fecha, empezaron a empaquetarse

varios transistores diminutos y otros componentes electrónicos en un solo

chip o encapsulado, que contenía en su interior un circuito completo: un

amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos

chips (circuitos integrados) era mucho más fácil montar aparatos

complicados: receptores de radio televisión y computadora. En 1965,

IBM anunció el primer grupo de máquinas construidas con circuitos

integrados, que recibió el nombre de serie 360.

Estas computadoras de tercera generación sustituyeron totalmente a los

de segunda, introduciendo una forma de programar que aún se mantiene en

las grandes computadoras actuales. Esto es lo que ocurrió en (1964-1974)

que comprende de la Tercera generación de computadoras:

Menor consumo de energía

Apreciable reducción del espacio

Aumento de fiabilidad

Teleproceso

Multiprogramación

Renovación de periféricos

Minicomputadoras, no tan costosas y con gran capacidad de

procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-

11

Cuarta Generación: Se generalizó el microchip. Esto dio lugar a las

máquinas de menor tamaño y costo, cada vez más poderosas. Nacieron las

computadoras personales, la primera fue la APPLE desarrollada en 1976.En

1981 IBM lanzó su pc con una arquitectura abierta que permitía integrar

componentes de otros fabricantes.

Page 7: INVESTIGACIÓN DE INFORMATICA

Quinta Generación: La quinta generación de computadoras, también

conocida por sus siglas en inglés, FGCS

(de FifthGenerationComputerSystems) fue un ambicioso proyecto propuesto

por Japón a finales de la década de 1970. Su objetivo era el desarrollo de

una nueva clase de computadoras que utilizarían técnicas y tecnologías

de inteligencia artificial tanto en el plano del hardware como del software,

usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían

capaces de resolver problemas complejos, como la traducción

automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

Como unidad de medida del rendimiento y prestaciones de estas

computadoras se empleaba la cantidad de LIPS (LogicalInferences Per

Second) capaz de realizar durante la ejecución de las distintas tareas

programadas. Para su desarrollo se emplearon diferentes tipos de

arquitecturas VLSI (VeryLargeScaleIntegration).

El proyecto duró once años, pero no obtuvo los resultados esperados:

las computadoras actuales siguieron así, ya que hay muchos casos en los

que, o bien es imposible llevar a cabo una paralelización del mismo, o una

Page 8: INVESTIGACIÓN DE INFORMATICA

vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los

casos, se produce una pérdida de rendimiento. Hay que tener claro que para

realizar un programa paralelo debemos, para empezar, identificar dentro del

mismo partes que puedan ser ejecutadas por separado en

distintos procesadores. Además, es importante señalar que un programa

que se ejecuta de manera secuencial, debe recibir numerosas

modificaciones para que pueda ser ejecutado de manera paralela, es decir,

primero sería interesante estudiar si realmente el trabajo que esto conlleva

se ve compensado con la mejora del rendimiento de la tarea después de

paralelizarla

Page 9: INVESTIGACIÓN DE INFORMATICA

2. ¿Qué es un sistema operativo?, mencione 5 de ellos

Un sistema operativo (SO): Es un programa o conjunto de programas que en

un sistema informático gestiona los recursos de hardware y provee servicios

a los programas de aplicación, y se ejecuta en modo privilegiado respecto

de los restantes.

Nótese que es un error común muy extendido denominar al conjunto

completo de herramientas sistema operativo, es decir, la inclusión en el

mismo término de programas como el explorador de ficheros, el navegador

web y todo tipo de herramientas que permiten la interacción con el sistema

operativo, también llamado núcleo o kernel. Esta identidad entre kernel y

sistema operativo es solo cierta si el núcleo es monolítico. Otro ejemplo para

comprender esta diferencia se encuentra en la plataforma Amiga, donde

el entorno gráfico de usuario se distribuía por separado, de modo que,

también podía reemplazarse por otro, como era el caso de directory Opus o

incluso manejarlo arrancando con una línea de comandos y el sistema

gráfico. De este modo, al arrancar un Amiga, comenzaba a funcionar con

el propio sistema operativo que llevaba incluido en una ROM, por lo que era

cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el

sistema operativo o simplemente otra aplicación. Uno de los más

prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las

llamadas distribuciones Linux, ya que al estar también basadas en Unix,

proporcionan un sistema de funcionamiento similar. Este error de precisión,

se debe a la modernización de la informática llevada a cabo a finales de los

80, cuando la filosofía de estructura básica de funcionamiento de los

grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar

su uso, cambiando el concepto de computador multiusuario, (muchos

Page 10: INVESTIGACIÓN DE INFORMATICA

usuarios al mismo tiempo) por un sistema monousuario (únicamente un

usuario al mismo tiempo) más sencillo de

gestionar. AmigaOS, beOS oMacOS como los pioneros de dicha

modernización, cuando los Amiga fueron bautizados con el sobrenombre

de Video Toasters5 por su capacidad para la Edición de vídeo en

entorno multitarea round robin, con gestión de miles de colores e interfaces

intuitivos para diseño en 3D.

Uno de los propósitos del sistema operativo que gestiona el

núcleo intermediario consiste en gestionar los recursos de localización y

protección de acceso del hardware, hecho que alivia a los programadores de

aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos

electrónicos que utilizan microprocesadores para funcionar, llevan

incorporado un sistema operativo. (Teléfonos móviles, reproductores de

DVD, computadoras, radios, enrutadores, etc). En cuyo caso, son

manejados mediante una Interfaz Gráfica de Usuario, un gestor de

ventanas o un entorno de escritorio, si es un celular, mediante una consola

o control remoto si es un DVD y, mediante una línea de comandos o

navegador web si es un enrutador.

WINDOWS XP

WINDOWS VISTA

WINDOWS SEVEN

LINUX

MAC OS

Page 11: INVESTIGACIÓN DE INFORMATICA

3. ¿Qué es internet?

Internet es un conjunto descentralizado de redes de

comunicación interconectadas que utilizan la familia de protocolos TCP/IP,

garantizando que las redes físicas heterogéneas que la componen funcionen

como una red lógica única, de alcance mundial. Sus orígenes se remontan

a 1969, cuando se estableció la primera conexión de computadoras,

conocida como ARPANET, entre tres universidades en California y una

en Utah, Estados Unidos.

Uno de los servicios que más éxito ha tenido en Internet ha sido la World

Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión

entre ambos términos. La WWW es un conjunto de protocolos que permite,

de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un

desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de

la Web: el envío de correo electrónico (SMTP), la transmisión de archivos

(FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y

presencia, la transmisión de contenido y comunicación multimedia -

telefonía(VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP),

el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea

Page 12: INVESTIGACIÓN DE INFORMATICA

4. ¿Defina que es web 2.0 vs web 3.0? Realice un cuadro comparativo en

la herramienta cmaptools.

EL TÉRMINO WEB 2.0

Está asociado a aplicaciones web que facilitan el compartir información,

la interoperabilidad, el diseño centrado en el usuario y la colaboración en

la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y

colaborar entre sí como creadores de contenido generado por usuarios en

una comunidad virtual, a diferencia de sitios web donde los usuarios se

limitan a la observación pasiva de los contenidos que se ha creado para

ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web,

las aplicaciones Web, los servicios de red social, los servicios de alojamiento

de videos, las wikis, blogs, mashups y folcsonomías.

El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a

la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el

término sugiere una nueva versión de la World Wide Web, no se refiere a

una actualización de las especificaciones técnicas de la web, sino más bien

a cambios acumulativos en la forma en la que desarrolladores de

software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es

cualitativamente diferente de las tecnologías web anteriores ha sido

cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien

calificó al término como "tan sólo una jerga"- precisamente porque tenía la

intención de que la Web incorporase estos valores en el primer lugar.

Tim Berners y Robert Cailliau crearon la web alrededor de 1990, durante

estas dos últimas décadas ha sufrido una evolución extraordinaria y

Page 13: INVESTIGACIÓN DE INFORMATICA

asombrosa, apareciendo en 2004 el concepto de Web 2.0 fruto de esta

evolución.

Antes de la llegada de las tecnologías de la Web 2.0 se utilizaban páginas

estáticas programadas en HTML (Hyper Text Markup Language) que no

eran actualizadas frecuentemente. El éxito de las .com dependía de webs

más dinámicas (a veces llamadas Web 1.5) donde los sistemas de gestión

de contenidos servían páginas HTML dinámicas creadas al vuelo desde

una base de datos actualizada. En ambos sentidos, el conseguir hits (visitas)

y la estética visual eran considerados como factores.

Los teóricos de la aproximación a la Web 2.0 piensan que el uso de la web

está orientado a la interacción y redes sociales, que pueden servir contenido

que explota los efectos de las redes, creando o no webs interactivas y

visuales. Es decir, los sitios Web 2.0 actúan más como punto de encuentro o

webs dependientes de usuarios, que como webs tradicionales.

EL TERMINO WEB 3.0

Es una expresión que se utiliza para describir la evolución del uso y la

interacción de las personas en internet a través de diferentes formas entre

los que se incluyen la transformación de la red en una base de datos, un

movimiento social hacia crear contenidos accesibles por múltiples

aplicaciones non-browser, el empuje de las tecnologías de inteligencia

artificial, la web semántica, la Web Geoespacial o la Web 3D. La expresión

es utilizada por los mercados para promocionar las mejoras respecto a

la Web 2.0. Esta expresión Web 3.0 apareció por primera vez en 2006 en un

artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías

Page 14: INVESTIGACIÓN DE INFORMATICA

como AJAX. Actualmente existe un debate considerable en torno a lo que

significa Web 3.0, y cuál sea la definición más adecuada.

Las tecnologías de la Web 3.0, como programas inteligentes, que

utilizan datos semánticos, se han implementado y usado a pequeña escala

en compañías para conseguir una manipulación de datos más eficiente. En

los últimos años, sin embargo, ha habido un mayor enfoque dirigido a

trasladar estas tecnologías de inteligencia semántica al público general.

El primer paso hacia la "Web 3.0" es el nacimiento de la "Data Web", ya que

los formatos en que se publica la información en Internet son dispares,

como XML, RDF y microformatos; el reciente crecimiento de la

tecnología SPARQL, permite un lenguaje estandarizado y API para la

búsqueda a través de bases de datos en la red. La "Data Web" permite un

nuevo nivel de integración de datos y aplicación inter-operable, haciendo los

datos tan accesibles y enlazables como las páginas web. La "Data Web" es

el primer paso hacia la completa “Web Semántica”. En la fase “Data Web”, el

objetivo es principalmente hacer que los datos estructurados sean

accesibles utilizando RDF. El escenario de la "Web Semántica" ampliará su

alcance en tanto que los datos estructurados e incluso, lo que

tradicionalmente se ha denominado contenido semi-estructurado

(como páginas web, documentos, etc.), estén disponibles en los formatos

semánticos de RDF y OWL.

Page 15: INVESTIGACIÓN DE INFORMATICA

CUADRO COMPARATIVO

5. ¿Qué es inteligencia artificial?

La Inteligencia Artificial es una combinación de la ciencia del computador,

fisiología y filosofía, tan general y amplio como eso, es que reúne varios

campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen

en común la creación de máquinas que pueden pensar.

La idea de construir una máquina que pueda ejecutar tareas percibidas

como requerimientos de inteligencia humana es un atractivo. Las tareas que

han sido estudiadas desde este punto de vista incluyen juegos, traducción

de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica,

suministro de asesoría experta en diversos temas.

Page 16: INVESTIGACIÓN DE INFORMATICA

Es así como los sistemas de administración de base de datos cada vez más

sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción,

borrado y locación de datos, así como el intento de crear máquinas capaces

de realizar tareas que son pensadas como típicas del ámbito de la

inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.

La Inteligencia Artificial trata de conseguir que los ordenadores simulen en

cierta manera la inteligencia humana. Se acude a sus técnicas cuando es

necesario incorporar en un sistema informático, conocimiento o

características propias del ser humano.

6. ¿Qué es oovoo?

ooVoo es un programa de mensajería y chat desarrollado por ooVoo LLC

para las plataformas Microsoft Windows, Mac OS X, Android y ios. Fue

liberado en el año 2007 teniendo un parecido similar a skype y el facetime

de apple. Las llamadas pueden grabarse en tiempo real, tiene soporte para

doce personas en el chat. ooVoo LLC proporciona al usuario datos sobre la

latencia y rendimiento que tiene el programa

Características:

ooVoo permite comunicarse a los usuarios registrados a través de

mensajería instantánea de voz y video chat. Además permite conferencias

de video en alta calidad y llamadas de audio a doce lugares (video y audio)

diferentes, y el intercambio de escritorio y PC o Mac a las llamadas

telefónicas a teléfonos fijos y móviles por una tarifa.

Page 17: INVESTIGACIÓN DE INFORMATICA

Video llamadas (gratis): Video chat con seis personas incluso tú.

Video Conferencia (pago): Permite comenzar un videoconferencia entre

doce personas en una llamada, además de añadir 6 personas más.

Video chat por website (gratis): Permite al creador de una web invitar o

no a distintas personas a una conversación en redes sociales,

mensajerías etc....

Mensajería de video (gratis/pago): Mensajes de video de hasta un minuto

con cuenta free hasta cinco minutos con cuenta Premium, puede ser

grabado y enviado a otro usuario pro correo electrónico.

Mensajería instantánea (gratis): Compatibilidad con sus cliente de

mensajería en el chat de texto como en video.

Llamadas telefónicas (pago): se permite llamadas telefónicas a fijos y

móviles a más de 50 países del todo mundo.

Desktop (pago): Permite al usuario compartir las pantallas del escritorio

durante los videos llamadas.

Intercambio de archivos (gratis): Enviar de forma rápida y segura

archivos de gran tamaño (25 mb).

Grabación videollamas (gratis): Almacenamiento o compartir

videollamadas de diferentes fechas.

7. ¿Qué es Skype?

Skype (pronunciado /ˈskaɪ p/) es un software que permite comunicaciones

de texto, voz y vídeo sobre Internet (VoIP). Fue desarrollado en 2003 por el

danés JanusFriis y el sueco NiklasZennström, también creadores de Kazaa.

El código y protocolo de Skype permanecen cerrados y propietarios, pero los

usuarios interesados pueden descargar gratuitamente

la aplicación ejecutable del sitio web oficial. Los usuarios de Skype pueden

hablar entre ellos gratuitamente.

Page 18: INVESTIGACIÓN DE INFORMATICA

Esta aplicación también incluye una característica denominada YY

SkypeOut, que permite a los usuarios llamar a teléfonos convencionales,

cobrándoseles diversas y bajas tarifas según el país de destino, pudiendo

llamar a casi cualquier teléfono del mundo.

Otra opción que brinda Skype es SkypeIn, gracias a la cual se otorga un

número de teléfono para que desde un aparato telefónico, en cualquier parte

del mundo, se pueda contactar al computador. Además, se provee de un

servicio de buzón de voz.

La interfaz de Skype es muy parecida a la de otro software de mensajería

instantánea, tales como Windows Live Messenger o Yahoo! Messenger, y,

de igual forma que en éstos, es posible entablar una conversación de

mensajes instantáneos entre usuarios del mismo software. Este programa

también permite dejar mensajes de voz (buzón) en caso de que el usuario

no se encuentre disponible, siendo ése un servicio de pago que viene

incluido con SkypeIn.

En septiembre de 2005 la empresa fue comprada por eBay por 2.600

millones de dólares. Sin embargo, en Julio de 2009 los desarrolladores

antiguos del sistema demandaron a eBay porque las licencias de Joltid (que

provee los códigos que utiliza el núcleo del sistema y que es una subsidiaria

de los antiguos dueños) habían caducado y eBay estaba infringiendo sus

derechos al seguir usándolas.3 Finalmente y al no poder reemplazar la

tecnología que estaba siendo infringida, eBay vendió el 70% de su

participación de Skype a Silver Lake Partners, un grupo que si incluye a

Joltid.

Page 19: INVESTIGACIÓN DE INFORMATICA

En octubre de 2010, Skype 5.0 para Windows fue liberada con un conjunto

de complementos y nuevas funciones, entre las más importantes, la

inclusión de una pestaña de Facebook que permite a sus usuarios enviar

mensajes SMS, efectuar chat o llamar a sus amigos de Facebook,

directamente del Feed de Noticias. Por otra parte la versión 5 ha empeorado

la usabilidad de la pantalla compartida y del acceso a los teléfonos de los

contactos.

El 10 de mayo de 2011 Microsoft anunció la compra completa de Skype por

8.500 millones de dólares con el objetivo de reforzar su negocio de

Smartphones.

En 2011 todas las versiones anteriores de Skype se empezaron a actualizar

a Skype 5 sin consentimiento de los usuarios actuando en este caso

como Malware. Es inútil que en configuraciones avanzadas estén

desactivadas las actualizaciones automáticas

Características:

Comunicación gratuita por texto, voz o vídeo entre dos usuarios de

Skype con computadores personales conectados a Internet. Requiere

registro y aceptación de las condiciones del servicio, sin coste.

Comunicación grupal o conferencia de voz gratuita (videoconferencia

grupal es de pago) entre varios usuarios de Skype, todos ellos con PC

conectados a Internet. Requiere registro sin coste.

Generación de llamadas de voz a bajo coste desde un usuario de Skype

con PC conectado a Internet, hacia teléfonos de red fija o móvil.

Requiere contrato de pago, mensual o anual.

Comunicación y envío de datos a bajo coste (texto y gráficos) desde un

usuario de Skype con PC conectado a Internet hacia equipos de fax (u

Page 20: INVESTIGACIÓN DE INFORMATICA

ordenadores con software de fax) conectados a redes de telefonía fija.

Requiere contrato de pago.

Llamadas de voz a tarifa de llamada local desde teléfonos de red fija o

móvil al número telefónico de un usuario abonado a Skype con PC

conectado a Internet. Si el usuario receptor no está disponible, Skype

ofrece un servicio de contestador automático. Requiere contrato de pago

por parte del receptor. Las llamadas generadas desde teléfonos móviles

pagan las tarifas locales del servicio celular.

Comunicación y envío de datos a tarifa de llamada local desde equipos

de fax conectados a redes de telefonía fija hacia un abonado de Skype

con PC conectado a Internet. Requiere contrato de pago por parte del

receptor.

Comunicación por desvío telefónico y de texto a bajo coste desde

teléfonos de red fija o celular hacia un abonado de Skype con PC

conectado a Internet. Requiere contrato de pago por parte del receptor.

CUADRO COMPARATIVO

SKYPE OOVOO

Solo se pueden llamar gratis de computadora a computadora con otro usuario que tenga también Skype, no es como el ooVoo que también se puede realizar llamadas gratis entre computadoras, además se puede realizar llamadas a otros países, pero no a todos solo a unos cuantos totalmente gratis. Con Skype si se puede realizar llamadas a otros países no gratis, se puede llamar a fijos y móviles cobrándoseles diversas y bajas

Es el programa que surge como competidor directo con el famoso y archiconocido Skype y que lanzó su primera versión en 2007. Se trata de un software que permite realizar videoconferencia de calidad de vídeo y audio perfecto, pero la diferencia radica en que con Oovoo se pueden mantener conversaciones múltiples, charlar entre varios contactos. Se amplía la posibilidad de importar contactos, grabar mensajes o realizar play-backs.

Page 21: INVESTIGACIÓN DE INFORMATICA

tarifas según el país de destino, pudiendo llamar a casi cualquier teléfono del mundo.

Entre las mejoras que se pueden encontrar en esta nueva versión 1.5, se encuentra la posibilidad de grabar video o efectos visuales. La grabación de video permite grabar las conversaciones mantenidas a través del programa y guardarlas en un formato AVI, a diferencia de Skype con el que necesitas otra aplicación adicional para poder realizar la misma acción.

8. ¿Qué es un antivirus?

Es un programa creado para prevenir o evitar la activación de los virus, así

como su propagación y contagio. Cuenta además con rutinas de detención,

eliminación y reconstrucción de los archivos y las áreas infectadas del

sistema.

Un antivirus tiene tres principales funciones y componentes:

VACUNA: es un programa que instalado residente en la memoria, actúa

como "filtro" de los programas que son ejecutados, abiertos para ser

leídos o copiados, en tiempo real.

DETECTOR: que es el programa que examina todos los archivos

existentes en el disco o a los que se les indique en una determinada ruta

o PATH. Tiene instrucciones de control y reconocimiento exacto de los

códigos virales que permiten capturar sus pares, debidamente

registrados y en forma sumamente rápida desarman su estructura.

ELIMINADOR: es el programa que una vez desactivada la estructura del

virus procede a eliminarlo e inmediatamente después a reparar o

reconstruir los archivos y áreas afectadas.

Page 22: INVESTIGACIÓN DE INFORMATICA

Es importante aclarar que todo antivirus es un programa y que, como todo

programa, sólo funcionará correctamente si es adecuado y está bien

configurado. Además, un antivirus es una herramienta para el usuario y no

sólo no será eficaz para el 100% de los casos, sino que nunca será una

protección total ni definitiva.

La función de un programa antivirus es detectar, de alguna manera, la

presencia o el accionar de un virus informático en una computadora. Este es

el aspecto más importante de un antivirus, independientemente de las

prestaciones adicionales que pueda ofrecer, puesto que el hecho de

detectar la posible presencia de un virus informático, detener el trabajo y

tomar las medidas necesarias, es suficiente para acotar un buen porcentaje

de los daños posibles. Adicionalmente, un antivirus puede dar la opción de

erradicar un virus informático de una entidad infectada.

El modelo más primario de las funciones de un programa antivirus es la

detección de su presencia y, en lo posible, su identificación. La primera

técnica que se popularizó para la detección de virus informáticos, y que

todavía se sigue utilizando (aunque cada vez con menos eficiencia), es la

técnica de scanning. Esta técnica consiste en revisar el código de todos los

archivos contenidos en la unidad de almacenamiento -fundamentalmente los

archivos ejecutables- en busca de pequeñas porciones de código que

puedan pertenecer a un virus informático. Este procedimiento, denominado

escaneo, se realiza a partir de una base de datos que contiene trozos de

código representativos de cada virus conocido, agregando el empleo de

determinados algoritmos que agilizan los procesos de búsqueda.

Page 23: INVESTIGACIÓN DE INFORMATICA

La técnica de scanning fue bastante eficaz en los primeros tiempos de los

virus informáticos, cuando había pocos y su producción era pequeña. Este

relativamente pequeño volumen de virus informáticos permitía que los

desarrolladores de antivirus escaneadores tuvieran tiempo de analizar el

virus, extraer el pequeño trozo de código que lo iba a identificar y agregarlo

a la base de datos del programa para lanzar una nueva versión. Sin

embargo, la obsolescencia de este mecanismo de identificación como una

solución antivirus completa se encontró en su mismo modelo.

El primer punto grave de este sistema radica en que siempre brinda una

solución a posteriori: es necesario que un virus informático alcance un grado

de dispersión considerable para que sea enviado (por usuarios capacitados,

especialistas o distribuidores del producto) a los desarrolladores de antivirus.

Estos lo analizarán, extraerán el trozo de código que lo identificará, y lo

incluirán en la próxima versión de su programa antivirus. Este proceso

puede demorar meses a partir del momento en que el virus comienza a

tener una dispersión considerable, lapso en el cual puede causar graves

daños sin que pueda ser identificado.

Además, este modelo consiste en una sucesión infinita de soluciones

parciales y momentáneas (cuya sumatoria jamás constituirá una solución

definitiva), que deben actualizarse periódicamente debido a la aparición de

nuevos virus.

En síntesis, la técnica de scanning es altamente ineficiente, pero se sigue

utilizando debido a que permite identificar rápidamente la presencia de los

virus más conocidos y, como son estos los de mayor dispersión, permite una

importante gama de posibilidades. Un ejemplo típico de un antivirus de esta

clase es el Viruscan de McAfee.

Page 24: INVESTIGACIÓN DE INFORMATICA

En virtud del pronto agotamiento técnico de la técnica de scanning, los

desarrolladores de programas antivirus han dotado a sus creaciones de

métodos para búsquedas de virus informáticos (y de sus actividades), que

no identifican específicamente al virus sino a algunas de sus características

generales y comportamientos universalizados.

Este tipo de método rastrea rutinas de alteración de información que no

puedan ser controladas por el usuario, modificación de sectores críticos de

las unidades de almacenamiento (master boot record, boot sector, FAT,

entre otras), etc. Un ejemplo de este tipo de métodos es el que utiliza

algoritmos heurísticos.

De hecho, esta naturaleza de procedimientos busca, de manera bastante

eficiente, códigos de instrucciones potencialmente pertenecientes a un virus

informático. Resulta eficaz para la detección de virus conocidos y es una de

las soluciones utilizadas por los antivirus para la detección de nuevos virus.

El inconveniente que presenta este tipo de algoritmo radica en que puede

llegar a sospecharse de muchisimas cosas que no son virus. Esto hace

necesario que el usuario que lo utiliza conozca un poco acerca de la

estructura del sistema operativo, a fin de poseer herramientas que le faciliten

una discriminación de cualquier falsa alarma generada por un método

heurístico.

Algunos de los antivirus de esta clase son: F-Prot, Norton Anti Virus y Dr.

Solomon'sToolkit. Ahora bien, otra forma de detectar la presencia de un

virus informático en un sistema consiste en monitorear las actividades de la

PC señalando si algún proceso intenta modificar los sectores críticos de los

Page 25: INVESTIGACIÓN DE INFORMATICA

dispositivos de almacenamiento o los archivos ejecutables. Los programas

que realizan esta tarea se denominan chequeadores de integridad.

Sobre la base de estas consideraciones, podemos consignar que un buen

sistema antivirus debe estar compuesto por un programa detector de virus,

que siempre esté residente en memoria y un programa que verifique la

integridad de los sectores críticos del disco rígido y sus archivos ejecutables.

Existen productos antivirus que cubren los dos aspectos, o bien pueden

combinarse productos diferentes configurados de forma que no se

produzcan conflictos entre ellos.

MODELO DE ANTIVIRUS

La estructura de un programa antivirus, está compuesta por dos módulos

principales: el primero denominado de control y el segundo denominado de

respuesta. A su vez, cada uno de ellos se divide en varias partes:

1. Módulo de control: Posee la técnica verificación de integridad que

posibilita el registro de cambios en los archivos ejecutables y las zonas

críticas de un disco rígido. Se trata, en definitiva, de una herramienta

preventiva para mantener y controlar los componentes de información de un

disco rígido que no son modificados a menos que el usuario lo requiera. Otra

opción dentro de este módulo es la identificación de virus, que incluye

diversas técnicas para la detección de virus informáticos. Las formas más

comunes de detección son el scanning y los algoritmos, como por ejemplo,

los heurísticos. Asimismo, la identificación de código dañino es otra de las

herramientas de detección que, en este caso, busca instrucciones peligrosas

incluidas en programas, para la integridad de la información del disco rígido.

Esto implica descompilar (o desensamblar) en forma automática los archivos

Page 26: INVESTIGACIÓN DE INFORMATICA

almacenados y ubicar sentencias o grupos de instrucciones peligrosas.

Finalmente, el módulo de control también posee una administración de

recursos para efectuar un monitoreo de las rutinas a través de las cuales se

accede al hardware de la computadora (acceso a disco, etc.). De esta

manera puede limitarse la acción de un programa restringiéndole el uso de

estos recursos, como por ejemplo impedir el acceso a la escritura de zonas

críticas del disco o evitar que se ejecuten funciones de formato del mismo.

2. Módulo de respuesta: La función alarma se encuentra incluida en todos

los programas antivirus y consiste en detener la acción del sistema ante la

sospecha de la presencia de un virus informático, e informar la situación a

través de un aviso en pantalla. Algunos programas antivirus ofrecen, una

vez detectado un virus informático, la posibilidad de erradicarlo. Por

consiguiente, la función reparar se utiliza como una solución momentánea

para mantener la operatividad del sistema hasta que pueda instrumentarse

una solución adecuada. Por otra parte, existen dos técnicas para evitar el

contagio de entidades ejecutables: evitar que se contagie todo el programa o

prevenir que la infección se expanda más allá de un ámbito fijo. Aunque la

primera opción es la más adecuada, plantea grandes problemas de

implementación.

Avast

Nod32

Norton

Avira

Mcafee

karpesky