resumen de informatica

11

description

descripcion de la materia

Transcript of resumen de informatica

Page 1: resumen   de informatica
Page 2: resumen   de informatica
Page 3: resumen   de informatica

QUE ES INFORMATICA

El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 1957.aparecieron

en francés, italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la

aplicación de las computadoras para almacenar y procesar la información. Es una contracción de las

palabras information y automatik (información automática). En lo que hoy día conocemos como

informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha

desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento

y de comunicación. En el Diccionario de la lengua española de la Real Academia Española se define

informática .

Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos,

procesos, técnicas, desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar,

procesar y transmitir información y datos en formato digital. En 1957 Karl Steinbuch acuñó la palabra

alemana Informatik en la publicación de un documento denominado Informatik: Automatische

Informationsverarbeitung (Informática: procesamiento automático de información). En ruso, Alexander

Ivanovich Mikhailov fue el primero en utilizar informatika con el significado de «estudio, organización, y

la diseminación de la información científica», que sigue siendo su significado en dicha lengua

IMPORTANCIA DE LA INFORMATICA

La informática es la disciplina que estudia el tratamiento automático de la información utilizando

dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de la

información en forma automática. Para esto los sistemas informáticos .

El vocablo Informática es proveniente del francés informatique, acuñado por el ingeniero Philippe

Dreyfus en 1962, es acrónimo de las palabras information y automatique. En lo que hoy conocemos

como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a

lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de

comunicación.La informática se aplica a numerosas y variadas áreas, como por ejemplo: gestión de

negocios, almacenamiento y consulta de información, monitorización y control de procesos, robots

industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño

computarizado, aplicaciones/herramientas multimedia, etc.

QUE ES HADWARE

Hardware (pronunciación AFI: *ˈhɑːdˌwɛə+ ó *ˈhɑɹdˌwɛɚ+) corresponde a todas las partes tangibles de un

sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.1 Son

cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado;

contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma

inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por

tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de

los componentes que integran la parte material de una computadora».2 El término, aunque es lo más

común, no solamente se aplica a una computadora tal como se la conoce, también, por ejemplo, un

robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y

software).3 4

La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una

caracterizada por un cambio tecnológico de importancia. Este hardware se puede clasificar en: básico, el

estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza

funciones específicas.

Page 4: resumen   de informatica

Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de

procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y

uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva)

a los datos procesados

TIPOS DE HARDWARE

Una de las formas de clasificar el hardware es en dos categorías: por un lado, el "básico", que abarca el

conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una

computadora; y por otro lado, el hardware "complementario", que, como su nombre indica, es el

utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el

funcionamiento de la computadora.

Así es que: un medio de entrada de datos, la unidad central de procesamiento (C.P.U.), la memoria

RAM, un medio de salida de datos y un medio de almacenamiento constituyen el "hardware básico".

Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde

el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para

entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una

computadora (por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor; bien

puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de

adquisición/salida de datos

QUE ES SOFTWARE

Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático,

comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de

tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el

procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de

textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los

programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y

el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

Page 5: resumen   de informatica

MEMORIA RAM

La memoria de acceso aleatorio (en inglés: random-access memory),se utiliza como memoria de trabajo

para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las

instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso

aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual

para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera

más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de

memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los

módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria

principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM

indicando fallos mayores en la misma.

MEMORIA ROM

Es memoria no volátil de solo lectura. Igualmente, también hay dos características a destacar en esta

definición. La memoria ROM es memoria no volátil: Los programas almacenados en ROM no se pierden

al apagar el ordenador, sino que se mantienen impresos en los chips ROM durante toda su existencia

además la memoria ROM es, como su nombre indica, memoria de solo lectura; es decir los programas

almacenados en los chips ROM son inmodificables. El usuario puede leer ( y ejecutar ) los programas de

la memoria ROM, pero nunca puede escribir en la memoria ROM otros programas de los ya existentes.

La memoria ROM es ideal para almacenar las rutinas básicas a nivel de hardware, por ejemplo, el

programa de inicialización de arranque el ordenador y realiza el chequeo de la memoria y los

dispositivos.La memoria ROM suele estar ya integrada en el ordenador y en varios periféricos que se

instalan ya en el ordenador. Por ejemplo, en la placa madre del ordenador se encuentran los chips de la

Page 6: resumen   de informatica

ROM BIOS, que es el conjunto de rutinas mas importantes para comunicarse con los dispositivos. O,

también, las tarjetas de vídeo, las tarjetas controladoras de discos y las tarjetas de red tienen un chip de

ROM con rutinas especiales para gestionar dichos periféricos.

GENERACIONES DE LAS COMPUTADORAS

Las primeras computadoras eran verdaderos gigantes, como la ENIAC. Las siglas de ENIAC corresponden

a Electronic Numerical Integrator and Computer fue el nombre que recibió la primera computadora

electrónica que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de

Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas,

estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde

se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había

diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la

contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se

destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la

empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a

trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y

Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora

ampliamente comercializada, la UNIVAC I , comenzó a funcionar con éxito. En 1952 John Neumann y

Herman Goldstine construyeron la computadora IAS, que incorporaba notables mejoras al respecto a

sus predecesoras. En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos

integrados basados en semiconductores y en 1962, Steven Russell creó el primer juego para

computadoras. Se llamaba Spacewar y desde la evolución ha sido continua. En 1952 la computadora

UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El

resultado victoria ( Eisenhower sobre Adlai Stevenson ) se conoció 45 minutos después de que se

cerraran los colegios electorales.

CPU

La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central processing unit), o

simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos

Page 7: resumen   de informatica

programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU

proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de

los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el

almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU

que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los

microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en

día, el término "CPU" es aplicado usualmente a todos los microprocesadores.

La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase

de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia

definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho

antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo

han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La

forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros

ejemplos, pero su operación fundamental ha permanecido bastante similar.

MICROPROCESADORES

Desde la introducción del primer microprocesador, el Intel 4004, en 1971, y del primer microprocesador

ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de

los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y

minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar

sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con

conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares.

Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el

término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores.

Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos

circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado,

los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El

tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa

tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia

parásita de las puertas.

Page 8: resumen   de informatica

MONITOR O PANTALLA

Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display

Adapter) eran monitores monocromáticos (de un solo color) de IBM.

Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e

invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics

Adapter-gráficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta

gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC

optaban por comprar el monitor monocromático por su costo.

Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos

mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más

colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de

video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para

solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también

aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de

fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.

QUE ES UNA IMPRESORA

Una impresora es un periférico de ordenador que permite producir una gama permanente de textos o

gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos,

normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser.

Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un

cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente

Page 9: resumen   de informatica

wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento

para cualquier usuario de la red.

Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia

electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de

captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que

constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un

escáner puede funcionar básicamente como una fotocopiadora.

QUE ES WORD

La primera versión de Microsoft Word fue un desarrollo realizado por Charles Simonyi y Richard Brodie,

dos ex-programadores de Xerox contratados en 1981 por Bill Gates y Paul Allen. Estos programadores

habían trabajado en Xerox Bravo, que fuera el primer procesador de textos desarrollado bajo la técnica

WYSIWYG (“What You See Is What You Get”); es decir el usuario podía ver anticipadamente, en pantalla,

el formato final que aparecería en el impreso del documento. Esta primera versión, Word 1.0, salió al

mercado en octubre de 1983 para la plataforma Xenix MS-DOS; en principio fue rudimentario y le

siguieron otras cuatro versiones muy similares que no produjeron casi impacto en las ventas a usuarios

finales.

La primera versión de Word para Windows salió en el año 1989, que si bien en un entorno gráfico

resultó bastante más fácil de operar, tampoco permitió que las ventas se incrementaran notablemente.

Cuando se lanzó al mercado Windows 3.0, en 1990, se produjo el real despegue. A Word 1.0 le

sucedieron Word 2.0 en 1991, Word 6.0 en 1993. El posterior salto en los números de versión se

introdujo a fin de que coincidiera con la numeración del versionado de Windows, tal como fue Word 95

y Word 97. Con la salida del Windows 2000 (1999) también surgió la versión homóloga de Word. La

versión Word 2002 emergió en la misma época que el paquete Microsoft Office XP, en el año 2001. Un

año después le siguió la versión Microsoft Word 2003. Posteriormente se presentó Microsoft Word 2007

junto con el resto de aplicaciones del paquete Office 2007, en esta versión, Microsoft marcó un nuevo

cambio en la historia de las aplicaciones office presentando la nueva interfaz Ribbons más sencilla e

intuitiva que las anteriores (aunque muy criticada por usuarios acostumbrados a las versiones

anteriores). La versión más reciente lanzada al mercado es Microsoft Word 2010, en el mismo año en el

que salió el sistema Microsoft Windows 7.

Page 10: resumen   de informatica

QUE ES UNA TARJETA MADRE

La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o

mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la

computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil.

Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como

centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de

expansión y otros dispositivos.

Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para

conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes

dentro de la caja.

La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades

básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y

carga del sistema operativo.

Que es un escáner

Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza

para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital. El scanner

nace en 1984 cuando Microtek crea el MS-200, el primer scanner blanco y negro que tenia una

resolución de 200dpi. Este scanner fue desarrollado para Apple Macintosh. Los escáneres pueden tener

accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.

Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o

también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo

dispositivo o aplicaciones especiales.

Page 11: resumen   de informatica