APLICACIÓN

31
APLICACIÓN En informática, una aplicación es un tipo de programa informático diseñado como herramienta para permitir a un usuario realizar uno o diversos tipos de trabajos. Esto lo diferencia principalmente de otros tipos de programas, como los sistemas operativos (que hacen funcionar la computadora), los utilitarios (que realizan tareas de mantenimiento o de uso general), y los lenguajes de programación (para crear programas informáticos). Suele resultar una solución informática para la automatización de ciertas tareas complicadas, como pueden ser la contabilidad, la redacción de documentos, o la gestión de un almacén. Algunos ejemplos de programas de aplicación son los procesadores de textos, hojas de cálculo, y base de datos. Ciertas aplicaciones desarrolladas «a medida» suelen ofrecer una gran potencia ya que están exclusivamente diseñadas para resolver un problema específico. Otros, llamados paquetes integrados de software, ofrecen menos potencia pero a cambio incluyen varias aplicaciones, como un programa procesador de textos, de hoja de cálculo y de base de datos. Diagrama mostrando la ubicación y relación que tienen las aplicaciones frente al usuario final, y con otros programas informáticos existentes. Otros ejemplos de programas de aplicación pueden ser: programas de comunicación de datos, multimedia, presentaciones, diseño gráfico, cálculo, finanzas, correo electrónico, navegador web, compresión de archivos, presupuestos de obras, gestión de empresas, etc. Algunas compañías agrupan diversos programas de distinta naturaleza para que formen un paquete (llamados suites o suite ofimática) que sean satisfactorios para las necesidades más apremiantes del usuario. Todos y cada uno de ellos sirven para ahorrar tiempo y dinero al usuario, al permitirle hacer cosas útiles con la computadora; algunos con

description

trabajo

Transcript of APLICACIÓN

APLICACIÓN

En informática, una aplicación es un tipo de programa informático diseñado como

herramienta para permitir a un usuario realizar uno o diversos tipos de trabajos.

Esto lo diferencia principalmente de otros tipos de programas, como los sistemas

operativos (que hacen funcionar la computadora), los utilitarios (que realizan

tareas de mantenimiento o de uso general), y los lenguajes de programación (para

crear programas informáticos).

Suele resultar una solución informática para la automatización de ciertas tareas

complicadas, como pueden ser la contabilidad, la redacción de documentos, o la

gestión de un almacén. Algunos ejemplos de programas de aplicación son

los procesadores de textos, hojas de cálculo, y base de datos.

Ciertas aplicaciones desarrolladas «a medida» suelen ofrecer una gran potencia

ya que están exclusivamente diseñadas para resolver un problema específico.

Otros, llamados paquetes integrados de software, ofrecen menos potencia pero a

cambio incluyen varias aplicaciones, como un programa procesador de textos, de

hoja de cálculo y de base de datos.

Diagrama mostrando la ubicación y relación que tienen las aplicaciones frente al

usuario final, y con otros programas informáticos existentes.

Otros ejemplos de programas de aplicación pueden ser: programas de

comunicación de datos, multimedia, presentaciones, diseño gráfico,

cálculo, finanzas, correo electrónico, navegador web, compresión de archivos,

presupuestos de obras, gestión de empresas, etc.

Algunas compañías agrupan diversos programas de distinta naturaleza para que

formen un paquete (llamados suites o suite ofimática) que sean satisfactorios para

las necesidades más apremiantes del usuario. Todos y cada uno de ellos sirven

para ahorrar tiempo y dinero al usuario, al permitirle hacer cosas útiles con la

computadora; algunos con ciertas prestaciones, otros con un determinado diseño;

unos son más amigables o fáciles de usar que otros, pero bajo el mismo principio.

Actualmente, con el uso de dispositivos móviles se ha extendido el término app,

aplicación informática para dispositivos móviles o tabletas con multitud de

funcionalidades. Desde juegos hasta aplicaciones para realizar tareas cotidianas.

Es un abanico enorme que hacen más interactivo los dispositivos móviles.

BASE DE DATOS

Se le llama base de datos a los bancos de información que contienen datos relativos a diversas temáticas y categorizados de distinta manera, pero que comparten entre sí algún tipo de vínculo o relación que busca ordenarlos y clasificarlos en conjunto.

Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, y por ende se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.

Existen programas denominados sistemas gestores de bases de datos, abreviado DBMS, que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de estos DBMS, así como su utilización y administración, se estudian dentro del ámbito de la informática.

Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas; También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.

Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran mutuamente protegidos por las leyes de varios países. Por ejemplo en España, los datos personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de Carácter Personal (LOPD), en México por la Ley Federal de Transparencia y Acceso a la Información Pública Gubernamental y en Argentina la Ley de Protección de Datos Personales.1

Las bases de datos pueden clasificarse de varias maneras, de acuerdo al contexto que se esté manejando, la utilidad de las mismas o las necesidades que satisfagan.

Según la variabilidad de la base de datos

Bases de datos estáticas

Son bases de datos únicamente de lectura, utilizadas primordialmente para almacenar datos históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un conjunto de datos a través del tiempo, realizar proyecciones, tomar decisiones y realizar análisis de datos para inteligencia empresarial.

ALGORITMO

En el árabe es donde podemos encontrar el origen etimológico del término algoritmo que ahora vamos a analizar en profundidad. Más exactamente se halla en el nombre del matemático Al-Khwarizmi, que nació en la Edad Media en una de las zonas de lo que hoy se conoce como Uzbiekistán, en Asia central.

Algoritmo

En Bagdad fue donde este desarrolló gran parte de su carrera y es que hasta allí se trasladó para, por orden del califa, crear un centro superior de investigaciones científicas que se dio en llamar Casa de la Sabiduría. Diversos tratados de álgebra o astronomía fueron algunos de los trabajos que realizó dicho sabio que también ha dado lugar a la creación de otra serie de términos científicos tales como álgebra o guarismo.

Tal fue la importancia que tuvo dicho personaje histórico que actualmente está considerado no sólo como el padre del álgebra sino también como quien se encargó de introducir nuestro sistema de numeración.

Se denomina algoritmo a un grupo finito de operaciones organizadas de manera lógica y ordenada que permite solucionar un determinado problema. Se trata de una serie de instrucciones o reglas establecidas que, por medio de una sucesión de pasos, permiten arribar a un resultado o solución.

Según los expertos en matemática, los algoritmos permiten trabajar a partir de un estado básico o inicial y, tras seguir los pasos propuestos, llegar a una solución. Cabe resaltar que, si bien los algoritmos suelen estar asociados al ámbito matemático (ya que permiten, por citar casos concretos, averiguar el cociente entre un par de dígitos o determinar cuál es el máximo común divisor entre dos cifras pertenecientes al grupo de los enteros), aunque no siempre implican la presencia de números.

Además de todo lo expuesto, en el ámbito matemático, y cuando estamos decididos a llevar a cabo la descripción de uno de esos algoritmos hay que tener en cuenta que se puede efectuar mediante tres niveles. Así, en primer lugar, nos encontramos con el de alto nivel, lo que es la descripción formal y finalmente la tarea de implementación.

Asimismo tampoco podemos pasar por alto que los algoritmos se pueden expresar a través de lenguajes de programación, pseudocódigo, el lenguaje natural y también a través de los conocidos como diagramas de flujo.

PSEUDOCODIGO

En ciencias de la computación, y análisis numérico, el pseudocódigo (o falso lenguaje) es una descripción de alto nivel compacta e informal1 del principio operativo de un programa informático u otro algoritmo.

Utiliza las convenciones estructurales de un lenguaje de programación real,2 pero está diseñado para la lectura humana en lugar de la lectura mediante máquina, y con independencia de cualquier otro lenguaje de programación. Normalmente, el pseudocódigo omite detalles que no son esenciales para la comprensión humana del algoritmo, tales como declaraciones de variables, código específico del sistema y algunas subrutinas. El lenguaje de programación se complementa, donde sea conveniente, con descripciones detalladas en lenguaje natural, o con notación matemática compacta. Se utiliza pseudocódigo pues este es más fácil de entender para las personas que el código del lenguaje de programación convencional, ya que es una descripción eficiente y con un entorno independiente de los principios fundamentales de un algoritmo. Se utiliza comúnmente en los libros de texto y publicaciones científicas que se documentan varios algoritmos, y también en la planificación del desarrollo de programas informáticos, para esbozar la estructura del programa antes de realizar la efectiva codificación.

No existe una sintaxis estándar para el pseudocódigo, aunque los ocho IDE's que manejan pseudocódigo tengan su sintaxis propia. Aunque sea parecido, el pseudocódigo no debe confundirse con los programas esqueleto que incluyen código ficticio, que pueden ser compilados sin errores. Los diagramas de flujo y UML pueden ser considerados como una alternativa gráfica al pseudocódigo, aunque sean más amplios en papel.

Generalmente se utiliza pseudocódigo en los libros de texto y publicaciones científicas relacionadas con la informática y la computación numérica, para la descripción de algoritmos, de manera que todos los programadores puedan entenderlo, aunque no todos conozcan el mismo lenguaje de programación. Generalmente, en los libros de texto se adjunta una explicación que acompaña a la introducción y que explica las convenciones particulares en uso. El nivel de detalle del pseudocódigo puede, en algunos casos, acercarse a la de formalizar los idiomas de propósito general. Un programador que tiene que aplicar un algoritmo específico, sobre todo uno desfamiliarizado, generalmente comienza con una descripción en pseudocódigo, y luego "traduce" esa descripción en el lenguaje de programación meta y lo modifica para que interactúe correctamente con el resto del programa. Los programadores también pueden iniciar un proyecto describiendo la forma del código en pseudocódigo en el papel antes de escribirlo en su lenguaje de programación, como ocurre en la estructuración de un enfoque de Top-down y Bottom-up arriba hacia abajo.

ESTRUCTURA DE DATOS

En programación, una estructura de datos es una forma particular de organizar

datos en una computadora para que pueda ser utilizado de manera eficiente.

Diferentes tipos de estructuras de datos son adecuados para diferentes tipos

de aplicaciones, y algunos son altamente especializados para tareas específicas.

Las estructuras de datos son un medio para manejar grandes cantidades de datos

de manera eficiente para usos tales como grandes bases de datos y servicios de

indización de internet. Por lo general, las estructuras de datos eficientes son clave

para diseñar eficientes algoritmos. Algunos métodos formales de diseño y

lenguajes de programación destacan las estructuras de datos, en lugar de los

algoritmos, como el factor clave de organización en el diseño de software.

Descripción

Las estructuras de datos se basan generalmente en la capacidad de

un ordenador para recuperar y almacenar datos en cualquier lugar de su memoria.

Estructuras de datos en programación

En Programación una estructura de datos puede ser declarada inicialmente

escribiendo una palabra reservada, luego un identificador para la estructura y un

nombre para cada uno de sus miembros, sin olvidar los tipos de datos que estos

representan. Generalmente, cada miembro va separado por algún tipo de

operador, caracter o palabra reservada.

En el lenguaje de programación Pauscal es posible crear una estructura de datos

de la forma recién mencionada. La sintaxis basica es:

Estruc Identificador, _ Miembro1:TipoDeDato, _ Miembro2:TipoDeDato, _ ... Miembro9:TipoDeDato

Para acceder a los miembros de una estructura primero se debe crear una

referencia a esta, generalmente con una variable de tipo, luego se pueden editar y

obtener los datos de los miembros libremente.

FUNCION

En programación, una función es un grupo de instrucciones con un objetivo en particular y que se ejecuta al ser llamada desde otra función o procedimiento. Una función puede llamarse múltiples veces e incluso llamarse a sí misma (función recurrente).

Las funciones pueden recibir datos desde afuera al ser llamadas a través de los parámetros y deben entregar un resultado.

Se diferencian de los procedimientos porque estos no devuelven un resultado.

En general las funciones deben tener un nombre único en el ámbito para poder ser llamadas, un tipo de dato de resultado, una lista de parámetros de entrada y su código.

Una función, en matemáticas, es el término usado para indicar la relación o correspondencia entre dos o más cantidades. El término función fue usado por primera vez en 1637 por el matemático francés René Descartes para designar una potencia xn de la variable x. En 1694 el matemático alemán Gottfried Wilhelm Leibniz utilizó el término para referirse a varios aspectos de una curva, como su pendiente. Hasta recientemente, su uso más generalizado ha sido el definido en 1829 por el matemático alemán, J.P.G. Lejeune-Dirichlet (1805-1859), quien escribió: "Una variable es un símbolo que representa un número dentro de un conjunto de ello. Dos variables X y Y están asociadas de tal forma que al asignar un valor a X entonces, por alguna regla o correspondencia, se asigna automáticamente un valor a Y, se dice que Y es una función (unívoca) de X. La variable X, a la que se asignan libremente valores, se llama variable independiente, mientras que la variable Y, cuyos valores dependen de la X, se llama variables dependientes. Los valores permitidos de X constituyen el dominio de definición de la función y los valores que toma Y constituye su recorrido".

Una función f de A en B es una relación que le hace corresponder a cada elemento x E A uno y solo un elemento y E B, llamado imagen de x por f, que se escribe y=f (x). En símbolos, f: A à B

Es decir que para que una relación de un conjunto A en otro B sea función, debe cumplir dos condiciones, a saber:

Todo elemento del conjunto de partida A debe tener imagen.

La imagen de cada elemento x E A debe ser única. Es decir, ningún elemento del dominio puede tener más de una imagen.

El conjunto formado por todos los elementos de B que son imagen de algún elemento del dominio se denomina conjunto imagen o recorrido de f.

METODO

En la programación orientada a objetos, un método es una subrutina cuyo código es definido en una clase y puede pertenecer tanto a una clase, como es el caso de los métodos de clase o estáticos, como a un objeto, como es el caso de los métodos de instancia. Análogamente a los procedimientos en los lenguajes imperativos, un método consiste generalmente de una serie de sentencias para llevar a cabo una acción, un juego de parámetros de entrada que regularán dicha acción o, posiblemente, un valor de salida (o valor de retorno) de algún tipo.

La diferencia entre un procedimiento (generalmente llamado función si devuelve un valor) y un método es que éste último, al estar asociado con un objeto o clase en particular, puede acceder y modificar los datos privados del objeto correspondiente de forma tal que sea consistente con el comportamiento deseado para el mismo. Así, es recomendable entender a un método no como una secuencia de instrucciones sino como la forma en que el objeto es útil (el método para hacer su trabajo). Por lo tanto, podemos considerar al método como el pedido a un objeto para que realice una tarea determinada o como la vía para enviar un mensaje al objeto y que éste reaccione acorde a dicho mensaje.

Tipos de métodos

Como ya se mencionó, los métodos de instancia están relacionados con un objeto en particular, mientras que los métodos estáticos o de clase (también denominados métodos compartidos) están asociados a una clase en particular. En una implementación de constructores, siendo estos métodos de instancia especiales llamados automáticamente cuando se crea una instancia de alguna clase. En Java y C++ se distinguen por tener el mismo nombre de la clases a la que están asociados. Lenguajes como Smalltalk no requieren constructores ni destructores.

Los métodos de acceso son un tipo de método normalmente pequeño y simple que se limita a proveer información acerca del estado de un objeto. Aunque introduce una nueva dependencia, la utilización de métodos es preferida a acceder directamente a la información para proveer de una nueva capa de abstracción (programación orientada a objetos). Por ejemplo, si una clase que modela una cuenta bancaria provee de un método de acceso "obtenerBalance()" en versiones posteriores de la clase se podría cambiar el código de dicho método substancialmente sin que el código dependiente de la clase tuviese que ser modificado (un cambio sería necesario siempre que el tipo de dato devuelto por el método cambie). Los métodos de acceso que pueden cambiar el estado de un objeto son llamados, frecuentemente, métodos de actualización ó métodos de mutación; a su vez, los objetos que proveen de dichos métodos son denominados objetos mutables.

VARIABLE

En programación, una variable está formada por un espacio en el sistema de almacenaje (memoria principal de un ordenador) y un nombre simbólico (un identificador) que está asociado a dicho espacio. Ese espacio contiene una cantidad o información conocida o desconocida, es decir un valor. El nombre de la variable es la forma usual de referirse al valor almacenado: esta separación entre nombre y contenido permite que el nombre sea usado independientemente de la información exacta que representa. El identificador, en el codigo fuente de la computadora puede estar ligado a un valor durante el tiempo de ejecución y el valor de la variable puede por lo tanto cambiar durante el curso de la ejecución del programa. El concepto de variables en computación puede no corresponder directamente al concepto de variables en matemática. El valor de una variable en computación no es necesariamente parte de una ecuación o fórmula como en matemáticas. En computación una variable puede ser utilizada en un proceso repetitivo: puede asignársele un valor en un sitio, ser luego utilizada en otro, más adelante reasignársele un nuevo valor para más tarde utilizarla de la misma manera.Procedimientos de este tipo son conocidos con el nombre de iteración. En programación de computadoras, a las variables, frecuentemente se le asignan nombres largos para hacerlos relativamente descriptivas para su uso, mientras que las variables en matemáticas a menudo tienen nombres escuetos, formados por uno o dos caracteres para hacer breve en su transcripción y manipulación.

El espacio en el sistema de almacenaje puede ser referido por distintos identificadores diferentes. Esta situación es conocida entre los angloparlantes como "aliasing" y podría traducirse como "sobrenombramiento" para los hispanoparlantes. Asignarle un valor a una variable utilizando uno de los identificadores cambiará el valor al que se puede acceder a través de los otros identificadores.

Los compiladores deben reemplazar los nombres simbólicos de las variables con la real ubicación de los datos. Mientras que el nombre, tipo y ubicación de una variable permanecen fijos, los datos almacenados en la ubicación pueden ser cambiados durante la ejecución del programa.

Las variables pueden ser de longitud:

Fija.- Cuando el tamaño de la misma no variará a lo largo de la ejecución del programa. Todas las variables, sean del tipo que sean tienen longitud fija, salvo algunas excepciones — como las colecciones de otras variables (arrays) o las cadenas.

Variable.- Cuando el tamaño de la misma puede variar a lo largo de la ejecución. Típicamente colecciones de datos.

ERROS DE SINTAXIS

La sintaxis de un lenguaje de programación se define como el conjunto de reglas que deben seguirse al escribir el código fuente de los programas para considerarse como correctos para ese lenguaje de programación.

La sintaxis de JavaScript es muy similar a la de otros lenguajes de programación como Java y C. Las normas básicas que definen la sintaxis de JavaScript son las siguientes:

No se tienen en cuenta los espacios en blanco y las nuevas líneas: como sucede con XHTML, el intérprete de JavaScript ignora cualquier espacio en blanco sobrante, por lo que el código se puede ordenar de forma adecuada para entenderlo mejor (tabulando las líneas, añadiendo espacios, creando nuevas líneas, etc.)

Se distinguen las mayúsculas y minúsculas: al igual que sucede con la sintaxis de las etiquetas y elementos XHTML. Sin embargo, si en una página XHTML se utilizan indistintamente mayúsculas y minúsculas, la página se visualiza correctamente, siendo el único problema la no validación de la página. En cambio, si en JavaScript se intercambian mayúsculas y minúsculas el script no funciona.

No se define el tipo de las variables: al crear una variable, no es necesario indicar el tipo de dato que almacenará. De esta forma, una misma variable puede almacenar diferentes tipos de datos durante la ejecución del script.

No es necesario terminar cada sentencia con el carácter de punto y coma (;): en la mayoría de lenguajes de programación, es obligatorio terminar cada sentencia con el carácter ;. Aunque JavaScript no obliga a hacerlo, es conveniente seguir la tradición de terminar cada sentencia con el carácter del punto y coma (;).

Se pueden incluir comentarios: los comentarios se utilizan para añadir información en el código fuente del programa. Aunque el contenido de los comentarios no se visualiza por pantalla, si que se envía al navegador del usuario junto con el resto del script, por lo que es necesario extremar las precauciones sobre la información incluida en los comentarios.

JavaScript define dos tipos de comentarios: los de una sola línea y los que ocupan varias líneas.

Ejemplo de comentario de una sola línea:

// a continuación se muestra un mensaje

alert("mensaje de prueba");

COMPUTADORA

La computadora1 2 (del inglés: computer; y este del latín: computare, 'calcular'), también denominada computador3 1 u ordenador4 5 (del francés: ordinateur; y este del latín: ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Una computadora está formada, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.

Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etcétera). Una no funciona sin la otra.

Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones arimético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.

El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, ésto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, en base a datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.

Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.

Si bien esta máquina puede ser de dos tipos diferentes, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida,

utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de "la computadora" se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.

SOFTWARE

El software es una palabra que proviene del idioma inglés, pero que gracias a la masificación de uso, ha sido aceptada por la Real Academia Española. Según la RAE, el software es un conjunto de programas, instrucciones y reglas informáticas que permiten ejecutar distintas tareas en una computadora.

Software

Se considera que el software es el equipamiento lógico e intangible de un ordenador. En otras palabras, el concepto de software abarca a todas las aplicaciones informáticas, como los procesadores de textos, las planillas de cálculo y los editores de imágenes.

El software es desarrollado mediante distintos lenguajes de programación, que permiten controlar el comportamiento de una máquina. Estos lenguajes consisten en un conjunto de símbolos y reglas sintácticas y semánticas, que definen el significado de sus elementos y expresiones. Un lenguaje de programación permite a los programadores del software especificar, en forma precisa, sobre qué datos debe operar una computadora.

Dentro de los tipos de software, uno de los más importantes es el software de sistema o software de base, que permite al usuario tener el control sobre el hardware (componentes físicos) y dar soporte a otros programas informáticos. Los llamados sistemas operativos, que comienzan a funcionar cuando se enciende la computadora, son software de base.

La industria del desarrollo de software se ha convertido en un protagonista importante dentro de la economía global, ya que mueve millones de dólares al año. La compañía más grande y popular del mundo es Microsoft, fundada en 1975 por Bill Gates y Paul Allen. Esta empresa logró trascender gracias a su sistema operativo Windows y a su suite de programas de oficina Office.

HARDWARE

El origen etimológico del término hardware que ahora vamos a analizar en profundidad lo encontramos claramente en el inglés. Y es que aquel está conformado por la unión de dos vocablos de la lengua anglosajona: hard que puede traducirse como “duro” y ware que es sinónimo de “cosas”.

Hardware

La Real Academia Española define al hardware como el conjunto de los componentes que conforman la parte material (física) de una computadora, a diferencia del software que refiere a los componentes lógicos (intangibles). Sin embargo, el concepto suele ser entendido de manera más amplia y se utiliza para denominar a todos los componentes físicos de una tecnología.

En el caso de la informática y de las computadoras personales, el hardware permite definir no sólo a los componentes físicos internos (disco duro, placa madre, microprocesador, circuitos, cables, etc.), sino también a los periféricos (escáners, impresoras). El hardware suele distinguirse entre básico (los dispositivos necesarios para iniciar el funcionamiento de un ordenador) y complementario (realizan ciertas funciones específicas). En cuanto a los tipos de hardware, pueden mencionarse a los periféricos de entrada (permiten ingresar información al sistema, como el teclado y el mouse), los periféricos de salida (muestran al usuario el resultado de distintas operaciones realizadas en la computadora. Ejemplo: monitor, impresora), los periféricos de entrada/salida (módems, tarjetas de red, memorias USB), la unidad central de procesamiento o CPU (los componentes que interpretan las instrucciones y procesan los datos) y la memoria de acceso aleatorio o RAM (que se utiliza para el almacenamiento temporal de información). En el caso de lo que es la memoria RAM tenemos que subrayar además que existe una clasificación de la misma en dos grandes categorías. Así, por un lado, tenemos lo que se conoce como dinámicas, el conjunto de tarjetas que en los ordenadores están conectadas al bus de memoria de la placa base, y por otro lado están las especiales. Estas últimas, al contrario que las anteriores, no se utilizan en las computadoras como memoria central. Entre estas últimas habría que destacar las VRAM (Video Random Access Memory), las SRAM (Static Random Acces Memory) y las NVRAM (Non-Volatile Random Access Memory). La historia del desarrollo del hardware, por otra parte, marca diversos hitos y etapas. Se habla de una primera generación (con tubos de vidrio que albergaban circuitos eléctricos), una segunda generación (con transistores), una tercera generación (que permitió empaquetar cientos de transistores en un circuito integrado de un chip de silicio) y una cuarta generación (con el advenimiento del microprocesador). El avance en los estudios sobre nanotecnología permite prever la aparición de un hardware más avanzado en los próximos años.

SISTEMA

Un sistema informático (SI) es un sistema que permite almacenar y

procesar información; es el conjunto de partes

interrelacionadas:hardware, software y personal informático. El hardware

incluye computadoras o cualquier tipo de dispositivo electrónico, que consisten

en procesadores, memoria, sistemas de almacenamiento externo, etc. El software

incluye al sistema operativo, firmware y aplicaciones, siendo especialmente

importante los sistemas de gestión de bases de datos. Por último, el soporte

humano incluye al personal técnico que crean y mantienen el sistema (analistas,

programadores, operarios, etcétera) y a los usuarios que lo utilizan.

Índice

  [ocultar] 

1   Desarrollo de los SI 2   Estructura del SI 3   Clasificación de los SI 4   Referencias 5   Véase también

Desarrollo de los SI

Los sistemas informáticos pasan por diferentes fases en su ciclo de vida, desde la

captura de requisitos hasta el mantenimiento. En la actualidad se emplean

numerosos sistemas informáticos en la administración pública, por ejemplo: las

operadoras de la policía, el servicio al cliente, etcétera.

Estructura del SI

Los sistemas informáticos suelen estructurarse en subsistemas:

Subsistema físico: asociado al hardware. Incluye entre otros elementos: CPU,

memoria principal, placa base, periféricos de entrada y salida, etc.

Subsistema lógico: asociado al software y la arquitectura; incluye, sistema

operativo, firmware, aplicaciones y bases de datos.

Clasificación de los SI

Los SI pueden clasificarse con base a numerosos criterios. Las clasificaciones no

son estancas y es común encontrar sistemas híbridos que no encajen en una

única categoría.

VIRUS

Un virus informático es un malware que tiene por objetivo alterar el normal funcionamiento del ordenador, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan Archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.

Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.

El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, incluso cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm a creeper... catch me if you can!» («¡Soy una enredadera... agárrame si puedes!»). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (cortadora).

Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Victor Vyssotsky, Robert Morris Sr. y Doug McIlroy, investigadores de Bell Labs (se cita erróneamente a Dennis Ritchie o Ken Thompson como cuarto coautor) desarrollaron un juego de ordenador llamado Darwin (del que derivará Core Wars) que consiste en eliminar al programa adversario ocupando toda la RAM de la zona de juego (arena')1

Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.

RED DE COMPUTADORAS

Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.1

Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo general de estas acciones.2 Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.

El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC comienzan a usar los módems para compartir archivos con otros ordenadores, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL.

La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa física y la capa lógica.

La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con otros equipos dentro de la red, como, por ejemplo, las tarjetas de

red, los cables, las antenas, etc.La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible construir los denominados protocolos, que son normas de comunicación más complejas (mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.

CLASIFICACION DE VIRUS

En informatica, un virus de computadora es un programa malicioso desarrollado por programadores que infecta un sistema para realizar alguna acción determinada. Puede dañar el sistema de archivos, robar o secuestrar información o hacer copias de si mismo e intentar esparcirse a otras computadoras utilizando diversos medios. Siguiendo este link, podrás saber cómo un virus infecta a un sistema.

A continuación se detallan los distintos tipos de virus de computadoras hasta ahora conocidos:

Virus de Boot

Uno de los primeros tipos de virus conocido, el virus de boot infecta la partición de inicialización del sistema operativo. El virus se activa cuando la computadora es encendida y el sistema operativo se carga.

Tipos de virus de computadoras

Time Bomb o Bomba de Tiempo

Los virus del tipo "bomba de tiempo" son programados para que se activen en determinados momentos, definido por su creador. Una vez infectado un determinado sistema, el virus solamente se activará y causará algún tipo de daño el día o el instante previamente definido. Algunos virus se hicieron famosos, como el "Viernes 13" y el "Michelangelo".

Lombrices, worm o gusanos

Con el interés de hacer un virus pueda esparcirse de la forma más amplia posible, sus creadores a veces, dejaron de lado el hecho de dañar el sistema de los usuarios infectados y pasaron a programar sus virus de forma que sólo se repliquen, sin el objetivo de causar graves daños al sistema. De esta forma, sus autores tratan de hacer sus creaciones más conocidas en internet. Este tipo de virus pasó a ser llamado gusano o worm. Son cada vez más perfectos, hay una versión que al atacar la computadora, no sólo se replica, sino que también se propaga por internet enviandose a los e-mail que están registrados en el cliente de e-mail, infectando las computadoras que abran aquel e-mail, reiniciando el ciclo.

Troyanos o caballos de Troya

Ciertos virus traen en su interior un código aparte, que le permite a una persona acceder a la computadora infectada o recolectar datos y enviarlos por Internet a un desconocido, sin que el usuario se de cuenta de esto. Estos códigos son denominados Troyanos o caballos de Troya.

ANTIVIRUS

Un antivirus es un programa informático que tiene el propósito de detectar y eliminar virus y otros programas perjudiciales antes o después de que ingresen al sistema.

Los virus, gusanos, troyanos, spyware son tipos de programas informáticos que suelen ejecutarse sin el consentimiento (e incluso, conocimiento) del usuario o propietario de un ordenador y que cumplen diversas funciones dañinas para el sistema. Entre ellas, robo y pérdida de información, alteración del funcionamiento, disrupción del sistema y propagación hacia otras computadoras.

Los antivirus son aplicaciones de software que han sido diseñados como medida de protección y seguridad para resguardar los datos y el funcionamiento de sistemas informáticos caseros y empresariales de aquellas otras aplicaciones conocidas comúnmente como virus o malware que tienen el fin de alterar, perturbar o destruir el correcto desempeño de las computadoras.

Un programa de protección de virus tiene un funcionamiento común que a menudo compara el código de cada archivo que revisa con una base de datos de códigos de virus ya conocidos y, de esta manera, puede determinar si se trata de un elemento perjudicial para el sistema. También puede reconocer un comportamiento o patrón de conducta típico de un virus. Los antivirus pueden registrar tanto los archivos que se encuentran adentro del sistema como aquellos que procuran ingresar o interactuar con el mismo.

Como nuevos virus se crean en forma casi constante, siempre es preciso mantener actualizado el programa antivirus, de forma de que pueda reconocer a las nuevas versiones maliciosas. Así, el antivirus puede permanecer en ejecución durante todo el tiempo que el sistema informático permanezca encendido, o bien, registrar un archivo o serie de archivos cada vez que el usuario lo requiera. Normalmente, los antivirus también pueden revisar correos electrónicos entrantes y salientes y sitios web visitados.

Un antivirus puede complementarse con otras aplicaciones de seguridad como firewalls o anti-spyware que cumplen funciones accesorias para evitar el ingreso de virus.

RED DE COMPUTADORAS

Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.1

Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo general de estas acciones.2 Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.

El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC comienzan a usar los módems para compartir archivos con otros ordenadores, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL.

La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa física y la capa lógica.

La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las antenas, etc.La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible construir los denominados protocolos, que son normas de comunicación más complejas (mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.

CLASIFICACION DE RED DE COMPUTADORAS

Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución lógica.

Clasificación segun su tamaño

Las redes PAN (red de administración personal) son redes pequeñas, las cuales están conformadas por no más de 8 equipos, por ejemplo: café Internet.

CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros. Una CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicación tales como fibra óptica y espectro disperso.

Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos, es decir, aquellas que se utilizan en nuestra empresa. Son redes pequeñas, entendiendo como pequeñas las redes de una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas en las cuales cada estación se puede comunicar con el resto. Están restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce. Además, simplifica la administración de la red.

Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.

Características preponderantes:

Los canales son propios de los usuarios o empresas.

Los enlaces son líneas de alta velocidad.

Las estaciones están cercas entre sí.

Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir información.

Las tasas de error son menores que en las redes WAN.

La arquitectura permite compartir recursos.

LANs mucha veces usa una tecnología de transmisión, dada por un simple cable, donde todas las computadoras están conectadas. Existen varias topologías posibles en la comunicación sobre LANs, las cuales se verán mas adelante.

SOFTWARE LIBRE

El término software1 libre refiere el conjunto de software que por elección manifiesta de su autor, puede ser copiado, estudiado, modificado, utilizado libremente con cualquier fin y redistribuido con o sin cambios o mejoras.2 3 Su definición está asociada al nacimiento del movimiento de software libre, encabezado por Richard Stallman y la consecuente fundación en 1985 de la Free Software Foundation, que coloca la libertad del usuario informático como propósito ético4 fundamental. Proviene del término en inglés free software, que presenta ambigüedad entre los significados «libre» y «gratis» asociados a la palabra free.

Un programa informático es software libre si otorga a los usuarios todas estas libertades de manera adecuada. De lo contrario no es libre. Existen diversos esquemas de distribución que no son libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser libres, su uso bien puede ser considerado contrario a la ética en todos los casos por igual.3

El software libre suele estar disponible gratuitamente, o al precio de coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar «software libre» a «software gratuito» (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente. Análogamente, el software gratis o gratuito incluye en ocasiones el código fuente; no obstante, este tipo de software no es «libre» en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.

Tampoco debe confundirse software libre con «software de dominio público». Éste último es aquel que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.

Entre los años 1960 y 1970, el software no era considerado un producto sino un añadido que los vendedores de las grandes computadoras de la época (las

mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de la década de 1970, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.