Avance Semestre 1

86
REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA, CIENCIA Y TECNOLOGÍA INSTITUTO UNIVERSITARIO DE TECNOLOGÍA DEL ESTADO BOLÍVAR PROGRAMA NACIONAL DE FORMACIÓN EN INFORMÁTICA PROYECTO SOCIOTECNOLÓGICO I TRAYECTO I SEMESTRE 1 AVANCE DEL SEMESTRE I GRUPO N° 5 SECCIÓN 4M-INF-I TURNO MAÑANA INVESTIGADORES: C.I. ERICK FLORES 25.036.498 JEFFERSON ALFARO 25.087.093 ÁNGEL RAMOS 25.361.387 MARÍA CASTILLO 26.512.109 CIUDAD BOLÍVAR, 02 DE DICIEMBRE DE 2014

Transcript of Avance Semestre 1

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA,

CIENCIA Y TECNOLOGÍA

INSTITUTO UNIVERSITARIO DE TECNOLOGÍA DEL ESTADO BOLÍVAR

PROGRAMA NACIONAL DE FORMACIÓN EN INFORMÁTICA

PROYECTO SOCIOTECNOLÓGICO I

TRAYECTO I SEMESTRE 1

AVANCE DEL SEMESTRE I

GRUPO N° 5 SECCIÓN 4M-INF-I TURNO MAÑANA

INVESTIGADORES: C.I.

ERICK FLORES 25.036.498

JEFFERSON ALFARO 25.087.093

ÁNGEL RAMOS 25.361.387

MARÍA CASTILLO 26.512.109

CIUDAD BOLÍVAR, 02 DE DICIEMBRE DE 2014

NOMBRE DEL PROYECTO SOCIO-TECNOLÓGICO I

Alfabetización Tecnológica en el Sistema Operativo Canaima a Las Alumnas,

Alumnos y Docente de Aula del 5to Grado Sección “A” de la Unidad Educativa

Estadal Bachiller “Felipe Hernández” Beneficiarios del Proyecto Educativo

Canaima

TUTORES DEL PROYECTO:

TUTOR TÉCNICO: Jocenh Blanco

TUTORA INSTITUCIONAL: Milagro Velásquez

TUTORA ACADÉMICA: Msc. Carmen Díaz

NOMBRE COMPLETO DE LA INSTITUCIÓN EDUCATIVA

“Unidad Educativa Estadal Bachiller “Felipe Hernández”

UBICACIÓN GEOGRÁFICA:

DIRECCIÓN: Calle Carutal de Casanova Norte

PARROQUIA: Marhuanta MUNICIPIO: Heres

LOCALIDAD: Ciudad Bolívar ESTADO: Bolívar

GOOGLE MAPS

PUNTOS DE REFERENCIAS DE LA INSTITUCIÓN ABORDADA:

1.- Ambulatorio de Casanova Norte

2.- Escuela Técnica Comercial “Juan Bautista Farrera”

3.- Altura del Km 8

CAPITULO I

EL PROBLEMA

PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA

ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON

HARDWARE Y SOFTWARE

HARDWARE SOFTWARE

Equipos a los cuales no se les ha realizado Mantenimiento Correctivo.

Programas Instalados Desactualizados.

Algunos Equipos requieren cambio totalmente necesario de algunas de las Partes (Piezas) que lo conforman.

Sistema Operativo de los Equipos en Condiciones Pésimas, debido a Archivos Maliciosos.

EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABER SOFTWARE QUE

AFECTA A LA INSTITUCIÓN:

Gravedad que Presentan Los Sistemas Operativos de los Equipos de la Institución

en su Funcionamiento.

EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABERES HARDWARE QUE

AFECTA A LA INSTITUCIÓN:

Equipos de la Institución faltantes de Piezas en el Case.

PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA

ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON

INFORMÁTICA Y TELEMÁTICA

INFORMÁTICA TELEMÁTICA

Sala de Computación en Condiciones Negativas.

Inaccesibilidad a La Red Internet.

Gran parte de los Equipos de Computación Inoperativos.

No Cuenta con Red Salón

EL PRINCIPAL PROBLEMA INFORMÁTICO QUE AFECTA A LA

INSTITUCIÓN:

Inoperatividad de algunos Equipos de La Institución, debido a las Deficiencias que

Presentan.

EL PRINCIPAL PROBLEMA TELEMÁTICO QUE AFECTA A LA INSTITUCIÓN:

Privación del Acceso a Internet.

PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA

ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON EL

PROYECTO CANAIMA EDUCATIVO

Desconocimiento por parte de los Alumnos, en cuanto a los Programas de Grado Instalados en las Canaimas.

Ejecución Inadecuada del Soporte Técnico a ciertos Equipos, por parte de Organismos Encargados de ello.

Canaimas con deficiencias en la parte del Hardware y Software.

Canaimitas que no cuentan con Cargadores.

Niños que no cuentan con una Portátil Canaima.

Docente de Aula que no cuentan con los Conocimientos Necesarios de Canaima Educativo.

EL PRINCIPAL PROBLEMA QUE AFECTA AL PROYECTO CANAIMA

EDUCATIVO EN LA INSTITUCIÓN:

Analfabetismo en el uso de las Canaimas por parte de Las Alumnas, Alumnos y La

Docente de Aula del 5to Grado Sección “A”.

POSIBLES SOLUCIONES A ESTE PROBLEMA:

1.- Incentivar a los Padres Representantes a llevar Las Canaimas con problemas

de Hardware, a los distintos Organismos encargados de brindarle Soporte Técnico

a Las Portátiles Canaima.

2.- Diseñar una Metodología para que todos los Niños, además de la Docente de

Aula, que no poseen Canaimitas puedan, de igual manera que los demás recibir,

Los Instructivos de Alfabetización.

3.- Solucionar los Inconvenientes de Software que tengan ciertos Portátiles

Canaima.

N° DE BENEFICIARIOS RECURSOS NECESARIOS

FECHA PROBABLE DE EJECUCIÓN DEL

PROYECTO

37 Alumnos y la Docente de Aula.

HUMANOS Tutor Técnico Tutor Institucional TÉCNICOS Integrantes del Grupo 5: Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Marzo de 2015 Aproximadamente.

GRADO SECCIÓN TURNO

5TO

A

MAÑANA

N° DE CANAIMITAS OPERATIVAS NO OPERATIVAS

35 TOTAL

21

14

CRONOGRAMA DE ACTIVIDADES REALIZADAS EN EL SEMESTRE I

ACTIVIDADES FECHAS RESPONSABLES OBSERVACIONES

Diagnóstico a la Institución Abordada

29-09-2014

Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Recolección de Datos en la Institución Asignada

El Levantamiento de la

Información

08-10-2014

Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Obtención de Datos e Inventarios a los Equipos de la Institución.

Visitas a los Medios de Comunicación (Radio, Prensa y Televisión) para Invitar a la Realización del Diagnóstico Participativo

06-10-2014 08-10-2014

Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Difusión de Notas de Prensa, Volantes, etc. para asistir al Diagnóstico Participativo.

Diagnóstico Participativo en la Institución Asignada

16-10-2014

Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Identificar Fortalezas y Debilidades en la Ejecución del Proyecto así como sus Oportunidades y Amenazas.

Visitas Organismos que Apoyan el Proyecto (CBIT, Infocentro, CGP, Biblioteca

Virtual)

12-11-2014

14-11-2014

Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Recolección de Datos en los Organismos que apoyan la Ejecución del Proyecto.

Visita a la Institución

Asignada Para Realización de la “Validación de la

Comunidad”

18-11-2014

Erick Flores Jefferson Alfaro Ángel Ramos María Castillo

Validación Final por parte de la Institución Educativa para la realización del Proyecto.

CAPITULO II

MARCO TEÓRICO

BASES TEÓRICAS DEL PROYECTO I

SOFTWARE: Existen varias definiciones similares aceptadas para software, pero

probablemente la más formal sea la siguiente: Es el conjunto de los programas de

cómputo, procedimientos, reglas, documentación y datos asociados, que forman

parte de las operaciones de un sistema de computación. Considerando esta

definición, el concepto de software va más allá de los programas de computación

en sus distintos estados: código fuente, binario o ejecutable; también su

documentación, los datos a procesar e incluso la información de usuario forman

parte del software: es decir, abarca todo lo intangible, todo lo no físico relacionado.

El término software fue usado por primera vez en este sentido por John W. Tukey

en 1957. En la ingeniería de software y las ciencias de la computación, el software

es toda la información procesada por los sistemas informáticos: programas y

datos. El concepto de leer diferentes secuencias de instrucciones (programa)

desde la memoria de un dispositivo para controlar los cálculos fue introducido por

Charles Babbage como parte de su máquina diferencial. La teoría que forma la

base de la mayor parte del software moderno fue propuesta por Alan Turing en su

ensayo de 1936, Los números computables, con una aplicación al problema de

decisión.

CLASIFICACIÓN DEL SOFTWARE

Software de Sistema: Su objetivo es desvincular adecuadamente al usuario y al

programador de los detalles del sistema informático en particular que se use,

aislándolo especialmente del procesamiento referido a las características internas

de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras,

pantallas, teclados, etc. El software de sistema le procura al usuario y

programador adecuadas interfaces de alto nivel, controlador, herramientas y

utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye

entre otros:

Sistemas operativos

Controladores de dispositivos

Herramientas de diagnóstico

Herramientas de Corrección y Optimización

Software de Programación: Es el conjunto de herramientas que permiten al

programador desarrollar programas informáticos, usando diferentes alternativas y

lenguajes de programación, de una manera práctica. Incluyen básicamente:

Editores de texto

Compiladores

Intérpretes

Enlazadores

Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,

usualmente en un entorno visual, de forma tal que el programador no necesite

introducir múltiples comandos para compilar, interpretar, depurar, etc.

Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

Software de Aplicación: Es aquel que permite a los usuarios llevar a cabo una o

varias tareas específicas, en cualquier campo de actividad susceptible de ser

automatizado o asistido, con especial énfasis en los negocios. Incluye entre

muchos otros:

Aplicaciones para Control de sistemas y automatización industrial

Aplicaciones ofimáticas

Software educativo

Software empresarial

Bases de datos

Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

Videojuegos

Software médico

Software de cálculo numérico y simbólico.

Software de diseño asistido (CAD)

Software de control numérico (CAM)

PROCESO DE CREACIÓN DEL SOFTWARE

Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la

solución de un problema u obtención de un producto, en este caso particular, para

lograr un producto software que resuelva un problema específico. El proceso de

creación de software puede llegar a ser muy complejo, dependiendo de su porte,

características y criticidad del mismo. Por ejemplo la creación de un sistema

operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo

un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo

programa (por ejemplo, la resolución de una ecuación de segundo orden), éste

puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es

así que normalmente se dividen en tres categorías según su tamaño (líneas de

código) o costo: de pequeño, mediano y gran porte. Existen varias metodologías

para estimarlo, una de las más populares es el sistema COCOMO que provee

métodos y un software (programa) que calcula y provee una aproximación de

todos los costos de producción en un «proyecto software» (relación horas/hombre,

costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).

Considerando los de gran porte, es necesario realizar complejas tareas, tanto

técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras

cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica

para tratar su estudio y realización: es conocida como Ingeniería de Software. En

tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un

avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre

en casos de mediano y gran porte (y a veces también en algunos de pequeño

porte, según su complejidad), se deben seguir ciertas etapas que son necesarias

para la construcción del software. Tales etapas, si bien deben existir, son flexibles

en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo

escogido y utilizado por el equipo de desarrollo o por el analista-programador

solitario (si fuere el caso).

HARDWARE: El término hardware se refiere a todas las partes tangibles de un

sistema informático; sus componentes son: eléctricos, electrónicos,

electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo

tipo y la Real Academia Española lo define como Conjunto de los componentes

que integran la parte material de una computadora. El término, aunque sea lo más

común, no solamente se aplica a las computadoras; del mismo modo, también un

robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia

poseen hardware. La historia del hardware de computador se puede clasificar en

cuatro generaciones, cada una caracterizada por un cambio tecnológico de

importancia. Una primera delimitación podría hacerse entre hardware básico, el

estrictamente necesario para el funcionamiento normal del equipo, y

complementario, el que realiza funciones específicas. Un sistema informático se

compone de una unidad central de procesamiento (UCP o CPU), encargada de

procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso

de la información y uno o varios periféricos de salida, los que posibilitan dar salida

(normalmente en forma visual o auditiva) a los datos procesados.

CLASIFICACIÓN DEL HARDWARE

Una de las formas de clasificar el hardware es en dos categorías: por un lado, el

básico, que abarca el conjunto de componentes indispensables necesarios para

otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware

complementario, que, como su nombre indica, es el utilizado para realizar

funciones específicas (más allá de las básicas), no estrictamente necesarias para

el funcionamiento de la computadora. Necesita un medio de entrada de datos, la

unidad central de procesamiento, la memoria RAM, un medio de salida de datos y

un medio de almacenamiento constituyen el hardware básico. Los medios de

entrada y salida de datos estrictamente indispensables dependen de la aplicación:

desde el punto de vista de un usuario común, se debería disponer, al menos, de

un teclado y un monitor para entrada y salida de información, respectivamente;

pero ello no implica que no pueda haber una computadora en la que no sea

necesario teclado ni monitor; bien puede ingresar información y sacar sus datos

procesados, por ejemplo, a través de una placa de adquisición/salida de datos.

Desde un punto de vista básico y general, un dispositivo de entrada es el que

provee el medio para permitir el ingreso de información, datos y programas

(lectura); un dispositivo de salida brinda el medio para registrar la información y

datos de salida (escritura); la memoria otorga la capacidad de almacenamiento,

temporal o permanente (almacenamiento); y la CPU provee la capacidad de

cálculo y procesamiento de la información ingresada.

La Unidad Central de Procesamiento: conocida por las siglas en inglés CPU, es el

componente fundamental de la computadora, encargado de interpretar y ejecutar

instrucciones y de procesar datos. En computadores modernos, la función de la

CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a

una CPU que es manufacturada como un único circuito integrado. Un servidor de

red o una máquina de cálculo de alto rendimiento (supercomputación), puede

tener varios, incluso miles de microprocesadores trabajando simultáneamente o en

paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU

de la máquina. Las unidades centrales de proceso (CPU) en la forma de un único

microprocesador no sólo están presentes en las computadoras personales (PC),

sino también en otros tipos de dispositivos que incorporan una cierta capacidad de

proceso o "inteligencia electrónica", como pueden ser: controladores de procesos

industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles,

electrodomésticos, juguetes y muchos más.

Placa Principal o Placa Base: es un gran circuito impreso sobre el que se suelda el

chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos

integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás

componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas

de expansión, periféricos de entrada y salida. Para comunicar esos componentes,

la placa base posee una serie de buses mediante los cuales se trasmiten los datos

dentro y hacia afuera del sistema.

La tendencia de integración ha hecho que la placa base se convierta en un

elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red,

puertos de varios tipos), funciones que antes se realizaban con tarjetas de

expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas

adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición

de datos, etc.

Las principales funciones que presenta una placa base son:

• Conexión física

• Administración, control y distribución de energía eléctrica

• Comunicación de datos

• Temporización

• Sincronismo

• Control y monitoreo

Memoria RAM: La sigla RAM, del inglés Random Access Memory, literalmente

significa memoria de acceso aleatorio. El término tiene relación con la

característica de presentar iguales tiempos de acceso a cualquiera de sus

posiciones (ya sea para lectura o para escritura). Esta particularidad también se

conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM

es la memoria utilizada en una computadora para el almacenamiento transitorio y

de trabajo (no masivo). En la RAM se almacena temporalmente la información,

datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta.

La memoria RAM es conocida como Memoria principal de la computadora,

también como "Central o de Trabajo". A diferencia de las llamadas memorias

auxiliares, secundarias o de almacenamiento masivo (como discos duros,

unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias

RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su

contenido al interrumpir su alimentación eléctrica.

Periféricos: Se entiende por periférico a las unidades o dispositivos que permiten a

la computadora comunicarse con el exterior, esto es, tanto ingresar como

exteriorizar información y datos. Los periféricos son los que permiten realizar las

operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente

considerados “accesorios” o no esenciales, muchos de ellos son fundamentales

para el funcionamiento adecuado de la computadora moderna; por ejemplo, el

teclado, el disco duro y el monitor son elementos actualmente imprescindibles;

pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80,

muchas de las primeras computadoras personales no utilizaban disco duro ni

mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como

únicos periféricos.

INFORMÁTICA: Se entiende como el resultado de los términos información y

automatización. Trata de la concepción, realización y utilización de los sistemas

para procesamiento de información. “INFORMÁTICA es la ciencia que estudia el

tratamiento automático y racional de la información.” Se dice que el tratamiento es

automático por ser máquinas las que realizan los trabajos de captura, proceso y

presentación de la información, y se habla de racional por estar todo el proceso

definido a través de programas que siguen el razonamiento humano.

IMPORTANCIA DE LA INFORMÁTICA: Las computadoras son esenciales para

enfrentar el reto de la competencia global, donde los negocios deben ser eficientes

y sensibles a las necesidades y producir bienes y servicios de alta calidad a un

costo siempre más bajo. Sin las computadoras, que proveen información precisa y

actualizada necesaria para tomar decisiones estratégicas y administrar los

procesos de producción, muchas compañías no podrían sobrevivir. Las

computadoras utilizan información almacenada para construir simulaciones que

van desde un simple análisis hasta ilustraciones realistas y animadas de nuevos

productos. Esto permite predecir el efecto de las múltiples decisiones de negocios.

Las computadoras ayudan a la gente a comunicarse, tanto directa como

indirectamente. El mundo industrial no podrá vivir mucho tiempo sin

computadores, está sometido a una sobrecarga de información y no podrá

manejarlos sin ellos. Teniéndose en cuenta que los avances de la sociedad

humana desde la aparición del alfabeto se han debido a su capacidad de registrar

y conservar la información.

LA INFORMÁTICA EN LA SOCIEDAD: Nuestros días se caracterizan por un

explosivo, colosal y omnipresente desarrollo de la técnica, y su aplicación cada

vez más extensa a todos los ámbitos de la vida humana. Sin duda alguna, el más

significativo desarrollo tecnológico durante el último siglo, ha sido la construcción

de computadoras de finalidades generales, capaces de hacer cosas que en el

hombre se consideran como comportamiento inteligente. El desarrollo tecnológico

alcanzado por el hombre a finales del siglo XIX y principios del XX, los

conocimientos acumulados en las distintas ciencias como la Matemática, favoreció

el surgimiento teórico de la construcción de las computadoras, materializado en la

primera mitad de este siglo. La computadora es una máquina capaz de realizar

una gran cantidad de cálculos aritméticos y procesos de control a una gran

velocidad (procesos repetitivos y tediosos que desgastan al hombre). La

computadora es una de las herramientas más poderosas de la sociedad actual. La

computación es el método idóneo para facilitar el registro, la elaboración y

procesamiento de la información, así como los cálculos matemáticos para su

análisis y para lograr la adopción de decisiones. En todos los sentidos la

computación constituye una herramienta que ayuda a resolver los problemas que

se presentan y esta ayuda no puede ni debe ser subestimada. Las nuevas

tecnologías de la información han permitido la rápida difusión de los conocimientos

científicos, contribuyendo sin lugar a dudas a la introducción de nuevas técnicas

en el desarrollo de la producción material y los servicios. Las grandes redes de

computadoras y las novedosas tecnologías en las telecomunicaciones permiten

hoy en día que la información pueda circundar el mundo a altas velocidades. Es

indiscutible que el desarrollo de determinadas ramas de las ciencias, en particular

la electrónica, ha revolucionado en unos pocos años la construcción de las

computadoras, permitiendo su introducción vertiginosa en prácticamente todas las

esferas de la vida del hombre moderno. Tal es la influencia de la informática en la

actualidad, que es popular decir que vivimos en "LA ERA DE LA INFORMACIÓN",

donde el poder personal o de un país se mide en cierta forma por la cantidad de

información que posea. Un dato que no es posible pasar por alto es el incremento

de la industria informática. Ya no sólo se automatiza la producción, sino también la

transferencia de conocimientos científicos a la producción y se produce en cierto

sentido la automatización del proceso de obtención de nuevos conocimientos.

TELEMÁTICA: La Telemática es una disciplina científica y tecnológica, originada

por la convergencia entre las tecnologías de las telecomunicaciones y de la

informática. Algunas de las aplicaciones de la telemática podrían ser cualquiera de

las siguientes:

Cualquier tipo de comunicación a través de internet (como por ejemplo el

acceso a páginas web o el envío de correos electrónicos) es posible gracias

al uso de las tecnologías desarrolladas en este ámbito.

El uso de las mensajerías instantáneas está directamente relacionado con

la telemática, ya que esta materia se encarga en parte de controlar ese

intercambio de mensajes entre dos entidades distintas.

Los sistemas GPS (Global Positioning System).

La telemática cubre un campo científico y tecnológico de una considerable

amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y

servicios de comunicaciones, para el transporte, almacenamiento y procesado de

cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y

diseño de tecnologías y sistemas de conmutación. La telemática abarca entre

otros conceptos los siguientes planos funcionales:

El plano de usuario, donde se distribuye y procesa la información de los

servicios y aplicaciones finales.

El plano de señalización y control, donde se distribuye y procesa la

información de control del propio sistema, y su interacción con los usuarios;

El plano de gestión, donde se distribuye y procesa la información de

operación y gestión del sistema y los servicios, y su interacción con los

operadores de la red.

Cada uno de los planos se estructura en subsistemas denominados entidades de

protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos

niveles son agrupaciones de funcionalidad, y según el modelo de interconexión de

sistemas abiertos (modelo OSI) de la Organización Internacional de Normalización

(ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de

transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de

aplicación. Trata también servicios como la tele-educación, el comercio electrónico

(e-commerce) o la administración electrónica (e-government), servicios Web, TV

digital, la conmutación y la arquitectura de conmutadores, y también toca temas

como el análisis de prestaciones, modelado y simulación de redes: optimización,

planificación de la capacidad, ingeniería de tráfico y diseño de redes. Otra

modalidad es encontrarla focalizada en una actividad específica como telemática

educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la

Educación; entre ellos la comunicación interactiva, la distribución de la información

y el uso pedagógico de los servicios.

ORIGEN DEL TÉRMINO: El término telemática se acuñó en Francia (télématique).

En 1976, en un informe encargado por el presidente francés y elaborado por

Simon Nora y Alain Minc (conocido como informe Nora-Minc y distribuido por el

título: Informatización de la Sociedad), en el que se daba una visión

increíblemente precisa de la evolución tecnológica futura. Pero al igual que en

Francia, en los países anglosajones también existe la disciplina telemática, la cual

es denominada como Computer and Communications (del inglés: ‘Ordenador y

Comunicaciones’) o Compunication (concepto acuñado por Wen Gao1 en su

artículo Compunication: From Concept to Practice2). No obstante hay matices

claves a distinguir entre los dos términos. Para aclarar esto, conviene situarse en

el contexto de la época: por una parte Francia, que ponía claro énfasis en las

telecomunicaciones como motor de su transformación social en los 70's, mientras

que Estados Unidos estaba viviendo una gran revolución de la informática. Así,

Compunication (computadores + comunicación) apunta a un modelo con mayor

relevancia de los sistemas informáticos; telemática (télématique) por su parte,

refiere a un mayor énfasis en la telecomunicación en sí. En la actualidad, esta

diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica

ha convergido por completo a nivel mundial, para formar un único cuerpo de

conocimiento bien establecido. Naciendo de esta forma el actual significado de la

telemática.

SOFTWARE LIBRE: Es la denominación del software que respeta la libertad de

todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el

mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido

libremente de varias formas. Según la Free Software Foundation, el software libre

se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar

el software, e incluso modificarlo y distribuirlo modificado. Un programa es

software libre si otorga a los usuarios todas estas libertades de manera adecuada.

De lo contrario no es libre. Existen diversos esquemas de distribución que no son

libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser

libres, nosotros los consideramos contrarios a la ética a todos por igual. El

software libre suele estar disponible gratuitamente, o al precio de costo de la

distribución a través de otros medios; sin embargo no es obligatorio que sea así,

por lo tanto no hay que asociar software libre a software gratuito (denominado

usualmente freeware), ya que, conservando su carácter de libre, puede ser

distribuido comercialmente (software comercial). Análogamente, el software gratis

o gratuito incluye en ocasiones el código fuente; no obstante, este tipo de software

no es libre en el mismo sentido que el software libre, a menos que se garanticen

los derechos de modificación y redistribución de dichas versiones modificadas del

programa. Tampoco debe confundirse software libre con software de dominio

público. Éste último es aquel software que no requiere de licencia, pues sus

derechos de explotación son para toda la humanidad, porque pertenece a todos

por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este

software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor

han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que

sea, ya no es del dominio público.

VENTAJAS DEL SOFTWARE LIBRE

Escrutinio Público: Al ser muchos las personas que tienen acceso al

código fuente, eso lleva a un proceso de corrección de errores muy

dinámico, no hace falta esperar que el proveedor del software saque una

nueva versión.

Independencia del proveedor: Al disponer del código fuente, cualquier

persona puede continuar ofreciendo soporte, desarrollo u otro tipo de

servicios para el software. No estamos supeditados a las condiciones del

mercado de nuestro proveedor, es decir que si este se va del mercado

porque no le conviene y discontinua el soporte, nosotros podemos

contratar a otra persona.

Traducción: cualquier persona capacitada puede traducir y adaptar un

software libre a cualquier lengua.

Corrección ortográfica y gramatical: una vez traducido el software libre

puede presentar errores de este tipo, los cuales pueden ser subsanados

con mayor rapidez por una persona capacitada.

Mayor seguridad y privacidad: Los sistemas de almacenamiento y

recuperación de la información son públicos. Cualquier persona puede ver

y entender cómo se almacenan los datos en un determinado formato o

sistema. Existe una mayor dificultad para introducir código malicioso como

ser: espía (p/ej. Capturador de Teclas), de control remoto (p/ej. Troyano),

de entrada al sistema (p/ej. puerta trasera), etc.

Garantía de continuidad: el software libre puede seguir siendo usado aun

después de que haya desaparecido la persona que lo elaboro, dado que

cualquier técnico informático puede continuar desarrollándolo, mejorándolo

o adaptándolo.

Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro

grandes costos: de adquisición, de implantación (este a su vez se

compone de costos de migración y de instalación), de soporte o

mantenimiento, y de interoperabilidad. El software libre principalmente

disminuye el costo de adquisición ya que al otorgar la libertad de distribuir

copias la puedo ejercer con la compra de una sola licencia y no con tantas

como computadoras posea (como sucede en la mayoría de los casos de

software propietario). Cabe aclarar que también hay una disminución

significativa en el costo de soporte, no ocurriendo lo mismo con los costos

de implantación y de interoperabilidad.

DESVENTAJAS DEL SOFTWARE LIBRE

Si observamos la situación actual, es decir la existencia mayoritaria de Software

Propietario, tenemos:

Dificultad en el intercambio de archivos: esto se da mayormente en los

documentos de texto (generalmente creados con Microsoft Word), ya que si

los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos

da error o se pierden datos. Pero está claro que si Microsoft Word creara

sus documentos con un formato abierto (o público) esto no sucedería.

Mayores costos de implantación e interoperabilidad: dado que el software

constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de

instalación, de migración, de interoperabilidad, etc., cuya cuantía puede

verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso

de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución

sería instalar alguna distribución de GNU/Linux y luego un emulador de

Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el

costo de migración está referido al software, ya que en lo que hace a

Hardware generalmente el Software Libre no posee mayores

requerimientos que el Software Propietario.

TIPOS DE LICENCIAS: Una licencia es aquella autorización formal con carácter

contractual que un autor de un software da a un interesado para ejercer "actos de

explotación legales". Pueden existir tantas licencias como acuerdos concretos se

den entre el autor y el licenciatario. Desde el punto de vista del software libre,

existen distintas variantes del concepto o grupos de licencias:

Licencias GPL: Una de las más utilizadas es la Licencia Pública General de

GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y

permite la redistribución y modificación bajo términos diseñados para

asegurarse de que todas las versiones modificadas del software

permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto

hace que sea imposible crear un producto con partes no licenciadas GPL: el

conjunto tiene que ser GPL. Es decir, la licencia GNU GPL posibilita la

modificación y redistribución del software, pero únicamente bajo esa misma

licencia. Y añade que si se reutiliza en un mismo programa código "A"

licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de

licencia libre, el código final "C", independientemente de la cantidad y

calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia

GNU GPL. En la práctica esto hace que las licencias de software libre se

dividan en dos grandes grupos, aquellas que pueden ser mezcladas con

código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en

el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que

no lo permiten al incluir mayores u otros requisitos que no contemplan ni

admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni

mezcladas con código gobernado por la licencia GNU GPL. En el sitio web

oficial de GNU hay una lista de licencias que cumplen las condiciones

impuestas por la GNU GPL y otras que no.6 Aproximadamente el 60% del

software licenciado como software libre emplea una licencia GPL o de

manejo.

Licencias AGPL: La Licencia Pública General de Affero (en inglés Affero

General Public License, también Affero GPL o AGPL) es una licencia

copyleft derivada de la Licencia Pública General de GNU diseñada

específicamente para asegurar la cooperación con la comunidad en el caso

de software que corra en servidores de red. La Affero GPL es íntegramente

una GNU GPL con una cláusula nueva que añade la obligación de distribuir

el software si éste se ejecuta para ofrecer servicios a través de una red de

ordenadores. La Free Software Foundation recomienda que el uso de la

GNU AGPLv3 sea considerado para cualquier software que usualmente

corra sobre una red.7

Licencias Estilo BSD: Llamadas así porque se utilizan en gran cantidad de

software distribuido junto a los sistemas operativos BSD. El autor, bajo tales

licencias, mantiene la protección de copyright únicamente para la renuncia

de garantía y para requerir la adecuada atribución de la autoría en trabajos

derivados, pero permite la libre redistribución y modificación, incluso si

dichos trabajos tienen propietario. Son muy permisivas, tanto que son

fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con

quienes son compatibles. Puede argumentarse que esta licencia asegura

“verdadero” software libre, en el sentido que el usuario tiene libertad

ilimitada con respecto al software, y que puede decidir incluso redistribuirlo

como no libre. Otras opiniones están orientadas a destacar que este tipo de

licencia no contribuye al desarrollo de más software libre (normalmente

utilizando la siguiente analogía: "una licencia BSD es más libre que una

GPL si y sólo si se opina también que un país que permita la esclavitud es

más libre que otro que no la permite").

Licencias Estilo MPL y Derivadas: Esta licencia es de Software Libre y tiene

un gran valor porque fue el instrumento que empleó Netscape

Communications Corp. para liberar su Netscape Communicator 4.0 y

empezar ese proyecto tan importante para el mundo del Software Libre:

Mozilla. Se utilizan en gran cantidad de productos de software libre de uso

cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y

promueve eficazmente la colaboración evitando el efecto "viral" de la GPL

(si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado

GPL). Desde un punto de vista del desarrollador la GPL presenta un

inconveniente en este punto, y lamentablemente mucha gente se cierra en

banda ante el uso de dicho código. No obstante la MPL no es tan

excesivamente permisiva como las licencias tipo BSD. Estas licencias son

denominadas de copyleft débil. La NPL (luego la MPL) fue la primera

licencia nueva después de muchos años, que se encargaba de algunos

puntos que no fueron tomados en cuenta por las licencias BSD y GNU. En

el espectro de las licencias de software libre se la puede considerar

adyacente a la licencia estilo BSD, pero perfeccionada.

ALFABETIZACIÓN TECNOLÓGICA EN SOFTWARE LIBRE: Es el estado de

derecho que tenemos todos los venezolanos para acceder a los avances

tecnológicos en comunicaciones, consagrado constitucionalmente en el artículo 3

de nuestra carta magna, anteriormente esto no era posible pues los software de

computadora eran privados y quien quería hacer uso de los mismos tenía que

pagar un costo monetario muy elevado, por lo que el gobierno consiguió regular su

funcionamiento aunó más accesible para todos sin discriminación de ningún tipo.

En la actualidad el entorno social, económico y cultural que rodea al ser humano

evoluciona de una manera estrepitosa. La revolución de la tecnología informática,

ha provocado una transformación radical de las formas de producción, difusión y

consumo del conocimiento y la cultura. La aparición de nuevas tecnologías tales

como son: La televisión digital y de paga, la introducción de las Pc"s en los

hogares, el acceso a Internet (red mundial de información), telefonía móvil están

provocando nuevas necesidades formativas y de conocimiento en los ciudadanos.

Es claro, que las personas de hoy, requieren de nuevas habilidades y

conocimientos para poder desarrollarse en el mundo contemporáneo. Se ha

puesto mucho énfasis a la alfabetización convencional en las escuelas, pero hoy

se llega a saber que hay múltiples alfabetizaciones. Sabemos que el concepto de

alfabetización se refiere al hecho de saber leer y escribir, pero la alfabetización

tecnológica es el saber "leer y escribir" pero con la computadora, además de

entender y utilizar la información para apoyar el aprendizaje, la productividad

personal, la toma de decisiones y la vida diaria. En otras palabras, la

alfabetización tecnológica es desarrollar los conocimientos y habilidades tanto

instrumentales como cognitivas en relación con la información vehiculada a través

de nuevas tecnologías (manejar el software, buscar información, enviar y recibir

correos electrónicos, utilizar los distintos servicios de WWW, etc.), además

plantear y desarrollar valores y actitudes de naturaleza social y política con

relación a las tecnologías.

PRINCIPIOS Y VALORES QUE ORIENTAN LA ALFABETIZACIÓN

TECNOLÓGICA

La alfabetización tecnológica, tiene como principio fundamental el dar educación y

conocimiento a los venezolanos del uso adecuado y veras de la tecnología como

herramienta de desarrollo social y productivo, de demostrar y dar a entender que

hay principios de igualdad y libertad, como lo dictan los principios fundamentales

de la Constitución de la República Bolivariana de Venezuela, que definen al

Estado Venezolano como "Democrático y Social, de Derechos y de Justicia que

propugna como valores superiores: la vida, la libertad, la justicia, la igualdad, la

solidaridad, la democracia, la responsabilidad individual y social, la preeminencia

de los derechos humanos, la ética pública y el pluralismo político. Los cuales

tienen como sus fines esenciales (art. Nº 3) "la defensa y el desarrollo de la

persona y el respecto a su dignidad, la profundización del ejercicio democrático de

la voluntad popular, la construcción de una sociedad justa, solidaria amante de la

paz y garante del cumplimiento de los principios derechos y deberes asumiendo el

principio de equidad como nuevo orden de justicia social y base material de la

sociedad venezolana." En la Constitución de la República Bolivariana de

Venezuela propugna como elementos fundamentales la Educación y el Trabajo

para la construcción de la nueva República sobre la base de la justicia social el

desarrollo endógeno, la democracia participativa y la soberanía nacional. Esto

define que los valores que orientan a la alfabetización tecnológica, no son otros

que el de que los principios de igualdad y justicia social para el desarrollo del país.

DECRETO 3390

El referido decreto, nos habla de los planes y acciones que toma el gobierno de la

República Bolivariana de Venezuela, para la implementación de software libre en

los sistemas de la administración pública y en la sociedad, a través de la

capacitación de los funcionarios públicos y usuarios, para el manejo y uso de

estos mediante acciones conjuntas del Ministerio de Educación y Deporte y el

Ministerio de Ciencia y Tecnología, promoviendo la cooperación internacional en

asuntos que refiere la materia. Así como también, de fomentar y dar apoyo al

desarrollo de software libre con estándares abiertos bajo incentivos especiales a

los desarrolladores de los mismos.

PLAN NACIONAL DE ALFABETIZACIÓN TECNOLÓGICA: El programa básico

del Plan Nacional de Alfabetización Tecnológica es un curso introductorio al

conocimiento del hardware y software del computador, uso, utilidad y la

importancia de las Tecnologías de Información y Comunicación (TIC) para el

desarrollo científico e integral del país y también para la soberanía e

independencia tecnológica. Va dirigido A Personas adultas y a estudiantes en

general pertenecientes a los diferentes niveles de Educación y a las Misiones y

comunidad en general. Ya que la Persona que lo desee aun cuando nunca haya

tenido contacto con un equipo de computación.

El curso consta de (5) cinco módulos con una duración de 20 horas académicas,

es de carácter presencial por lo que la asistencia a cada una de las unidades es

imprescindible para su aprobación.

Unidad I: Conociendo el computador. Identificación del hardware y el

software. al igual identificar, sus dispositivos y aplicar el proceso adecuado

de las funciones.

Unidad II: Alfabetización Tecnológica para el ejercicio de ciudadanía. Esta

unidad constituye el eje transversal del curso porque permite la articulación

entre el conocimiento y la práctica en (TIC) y su importancia para el

desarrollo integral del país.

Unidad III: Uso básico del computador. Encendido y apagado del

computador, definición del sistema operativo Linux, ingreso a Linux,

elementos de la interfaz gráfica, funciones del programa nautilus, cambio de

apariencia de Linux, funciones del menú aplicaciones y acciones y distintas

operaciones de directorios y archivos.

Unidad IV: Programas de aplicación en Linux. Procedimiento para abrir el

programa OpenOfficeWriter, conocer la pantalla principal, procedimiento

para crear y cerrar un documento, insertar, seleccionar y dar formato a un

texto, copiar, cortar, pegar y mover textos, crear tablas, abrir y cerrar

presentaciones, diseñar e insertar diapositivas, insertar objetos, ver

presentaciones, etc.

Unidad V: Internet Básico. Definición de Internet, principales usos de la red,

definición de la www. Navegadores, los buscadores, página Web, correo

electrónico: partes de un mensaje, redacción de una dirección de correo,

nombre de buzón y dominio de una dirección de correo.

En los Infocentros se imparten cursos y talleres de Alfabetización tecnológica

(GRATUITOS), bajo un Margen y/o Lapso de una (1) semana, que está

distribuidos en cinco días (5), en donde está representado entre las modalidades

Matutino y Vespertino, ya que ambos turnos están comprendidos por (3) tres horas

diarias. Cabe mencionar que las capacitaciones en base al Plan Nacional de

alfabetización tecnológica “P.N.A.T”, se dicta de manera intensiva en todos los

Infocentros del país y a su vez en otros espacios comunitarios que estén

destinados a la formación de este plan que está regido por el decreto #3390 de los

Estándares Abiertos de Migración de Software Libre.

SOPORTE TÉCNICO A USUARIAS Y USUARIOS: Es el nivel de soporte inicial,

responsable de las incidencias básicas del cliente. Es sinónimo de soporte de

primera línea El principal trabajo de un especialista de es reunir toda la

información del cliente y determinar la incidencia mediante el análisis de los

síntomas y la determinación del problema subyacente. Cuando se analizan los

síntomas, es importante para el técnico de soporte identificar qué es lo que el

cliente está intentando llevar a cabo de forma que no se pierda tiempo intentando

resolver un síntoma en lugar de un problema. Una vez que se ha logrado

identificar el problema subyacente, el especialista puede comenzar a prestar la

verdadera asistencia iterando de forma ordenada sobre el catálogo de posibles

soluciones disponibles. Los especialistas de soporte técnico en este grupo

habitualmente manejan problemas simples de resolución sencilla, posiblemente

haciendo uso de algún tipo de herramienta de gestión del conocimiento. Esto

incluye métodos de resolución de problemas como la verificación de incidencias

en las líneas físicas, resolución de problemas de usuario y contraseña,

instalación/reinstalación básica de aplicaciones software, verificación de

configuración apropiada de hardware y software, y asistencia mediante la

navegación de menús de aplicación. El personal a este nivel tiene un conocimiento

entre básico y general del producto o servicio y no siempre ha de tener la

competencia necesaria para resolver problemas complejos. No en vano, el

objetivo de este grupo es manejar entre el 70-80 % del de los problemas del

usuario antes de concluir en la necesidad de escalar la incidencia a un nivel

superior. En algunos sectores, el soporte de 1.er nivel en realidad requiere muy

buen conocimiento de los productos y de los términos y condiciones ofrecidas por

el negocio más allá de los conocimientos técnicos propiamente dichos. Este es el

nivel básico de soporte técnico. Los conocimientos con los que cuenta son:

Formateo de computadoras, instalación de paquetería y cambios de piezas de

computadoras. Existen diferentes tipo de soporte técnico que se pueden realizar a

los usuarios entre estos encontramos los siguientes:

Soporte Técnico Presencial: Es aquella asistencia que se proporciona a

cualquier usuario que presente un desperfecto, anomalía, daño o problema

en su computadora. Se proporciona al hardware y software en el lugar

donde se encuentre el equipo de cómputo. Consiste en que haya contacto

entre el técnico y la computadora a reparar.

Soporte Técnico A Distancia: Consisten en una asistencia que se

proporciona a cualquier usuario para su equipo de cómputo a largas

distancias a través de línea telefónica, internet o cualquier otro tipo de

contacto.

En Línea: es el que se da a través de correos electrónicos, chat, páginas

web, etc. para ayudar a un usuario a resolver sus problemas diciéndole

como lo debe de hacer paso por paso para que el problema se resuelva

correctamente.

Asistencia Telefónica: este es el más común, es el que mayormente ponen

en práctica las empresas.

SOPORTE TÉCNICO A EQUIPOS

El Soporte Técnico a Equipos es una serie de Servicios que Proporcionan Asistencia con el Hardware o el Software de un Equipo, como los Portátiles, Computadores de Escritorio, Periféricos de Computador e Impresoras. Los Servicios de Soporte Técnico a Equipos tratan de resolver determinados problemas propios del Hardware o Software, que se encuentran fuera de la posibilidad de solucionarlos el Usuario aun con Asistencia Especializada. SISTEMA OPERATIVO CANAIMA: Canaima es una distribución GNU/Linux

Venezolana basada en Debian surgida como consecuencia del Decreto

Presidencial 3.3901 sobre el uso de Tecnologías Libres en la APN Venezolana,

promulgado por el Presidente Hugo Chávez Frías. El 14 de marzo de 2011 en la

Gaceta Oficial Nº 39.633.

Características Principales:

Totalmente desarrollada en Software Libre.

No está limitada al uso en la APN, sino que puede ser usado por cualquier

persona.

Se encuentra equipado con herramientas ofimáticas

Permite la interacción con Internet, a través de su navegador web, gestor

de correo electrónico y aplicaciones para realizar llamadas telefónicas por

la red.

Es estable y segura, basada en la versión estable de GNU/Linux Debian, la

cual pasa por una serie de procesos y pruebas rigurosas de calidad.

Realizada en Venezuela por talento nacional.

SOFTWARE INCLUIDO

Escritorio de Canaima GNU/Linux 2.0: Como otras distribuciones, Canaima

GNU/Linux posee aplicaciones diversas para llevar a cabo tareas de ofimática,

entretenimiento, desarrollo y configuración de todo el sistema. Su interfaz

predeterminada es GNOME. Existen otras versiones extraoficiales mantenidas por

la comunidad, con diferentes escritorios, como XFCE.

OFIMÁTICA:

Suite de Oficina LibreOffice, con los siguientes módulos:

Procesador de textos

Hoja de cálculo

Generador de Presentaciones

Generador de fórmulas matemáticas y software de dibujo

Gestión de proyectos: Planner

Editor de HTML.: Siguiendo la tendencia impuesta por otras organizaciones

que realizan distribuciones GNU/Linux, desde la versión 3, LibreOffice

sustituyó a OpenOffice.org y a partir de la versión 3.1 deja de ser

incorporado el gestor de base de datos de esta suite de oficina.

INTERNET:

Navegador web: Cunaguaro,7 basado en Iceweasel, presente desde la

versión 3.0 de Canaima y que sustituye al navegador Curiara.

Cliente de correo electrónico: Guácharo.8

Cliente de mensajería instantánea: Pidgin.9

Cliente Twitter: Turpial.10

GRÁFICOS:

Libreoffice Draw.

GNU Paint.

Editor de diagramas Dia.

Gimp

Inkscape

Visor de cámara Web Cheese.

Shotwell Photo Manager.

Software de escaneo de imágenes Xsane.

PROGRAMACIÓN:

Quanta Plus.

Eclipse.

Anjuta: Entorno de desarrollo integrado para programar en los lenguajes de

programación C, C++, Java, Python y Vala, en sistemas GNU/Linux y

BSDen los lenguajes C, C++, Java y Python, en sistemas GNU/Linux.

PROYECTO CANAIMA EDUCATIVO: El Proyecto Canaima Educativo es un

proyecto desarrollado por el Gobierno de la República Bolivariana de Venezuela

con el objetivo de garantizar el acceso de los venezolanos y las venezolanas a las

Tecnologías de información, mediante:

La dotación de una computadora portátil a los estudiantes y los

docentes de las escuelas nacionales, estadales, municipales,

autónomas y las privadas subsidiadas por el Estado.

La conexión de escuelas a la red de Internet.

La formación para el buen uso de estas tecnologías.

OBJETIVOS DEL PROYECTO CANAIMA EDUCATIVO

Objetivo General: Promover la formación integral de los niños y niñas

venezolanos (as), mediante el aprendizaje liberador y emancipador

apoyado por las tecnologías de información libres.

Objetivos Específicos:

1) Promover el desarrollo integral de los niños y niñas en correspondencia con

los fines educativos.

2) Profundizar la concreción del desarrollo curricular para la formación integral

y con calidad de los niños y niñas venezolanos.

3) Transformar la praxis docente con el uso crítico y creativo de las

Tecnologías de Información Libres.

4) Desarrollar las potencialidades en Tecnologías de Información Libres, para

el apoyo a los procesos educativos.

El Proyecto está desarrollado bajo software libre, desde la elaboración del Sistema

Operativo y de contenidos educativos 100% venezolanos. Se mani-esta en dos

modalidades: “Canaima va a la escuela” realizada en 1er grado bajo el sistema de

red salón y “Canaima va a mi casa” desde 2do grado a 6to grado del Nivel de

Educación Primaria.

CANAIMITAS: El Computador Portátil Canaima Educativo, Dirigido a Estudiantes,

Es un Equipo creado con el propósito de ser utilizado por Niños y Niñas en Edad

Escolar. Por su Tamaño, Peso y Autonomía de Uso, es Ideal para el Aula de

Clases. Cuentan con un Procesador Intel Mobile y Tarjeta de Red con Tecnología

Wi-fi, lo cual hace posible que se Conecten Inalámbricamente a Internet. También

incluyen Cámara Web, Sonido Estéreo, Parlantes, Micrófono Incorporado y una

Batería de larga Duración, La cual misma varía según el Modelo del Equipo.

Adquiridas en convenio con Portugal, Desde el año 2011 en Venezuela, se

Ensamblan Computadoras Canaimas en el Complejo Tecnológico Simón

Rodríguez, Ubicado en el Municipio Baruta del Estado Miranda, al igual que en el

Complejo Tecnológico Simón Bolívar, Ubicado en La Carlota (Caracas) y así

muchos otras Instalaciones que se encuentran en todo el País. Se han entregado

cinco modelos de computadora a alumnos y profesores, con las características

que se detallan:

CANAIMA 1

Portátil Magallanes Canaima MG10T

Procesador: Intel Atom N270 1600MHz

Memoria RAM: 1 GB.

Disco duro: 40GB de 2,5”

Monitor: TFT de 7”

Webcam.

3 puertos USB.

Lector y grabador de para memorias Secure Digital.

Sistema Operativo: Canaima GNU/Linux.

CANAIMA 2

Portátil Magallanes Canaima MG10T

Procesador: Intel Atom N270 1600MHz

Memoria RAM: 2 GB.

Disco duro: 160GB 2.5”

Monitor: TFT de 7”

Webcam.

3 puertos USB.

Lector y grabador de para memorias Secure Digital.

Sistema Operativo: Canaima GNU/Linux.

CANAIMA 3.1

Procesador: Intel celeron N455 1660MHz

Memoria RAM: 1GB ddr3.

Disco duro: 300 GB 2,5”

Monitor: LED 10.1”

Tarjeta de red: según la norma 802.11 B/G

Webcam de 0,3 Megapíxeles.

Batería de 3 celdas

3 puertos USB.

Lector y grabador de para memorias Secure Digital.

Sistema Operativo: Canaima GNU/Linux.

CANAIMA 4

Portátil Magalhaes 5 Canaima XL

Procesador: Intel® Celeron(R) CPU 847 @ 1.10GHZ

Memoria RAM: 2GB

Disco duro: Samsung HDD 250GB HM251HI

Monitor: TFT 11.6”

Webcam: Bison BN1RM6YKU-320(1.0M HD)

3 puertos USB

Lector y grabador de para memorias Secure Digital

Sistema Operativo: Canaima GNU/Linux

CANAIMA DOCENTE

Portátil Magallanes Canaima MG3 Canaima XL

Procesador: Intel Atom N455 1660MHz

Memoria RAM: 1GB DDR3.

Disco duro: 250 GB 2,5”

Tarjeta de red: según la norma 802.11 B/G/N.

Monitor: 11.6”

Webcam de 0,3 Megapixeles.

Batería de 3 celdas.

Botón de inicio: Launch Button X 2

3 puertos USB.

Lector y grabador de para memorias Secure Digital.

Sistema Operativo: Canaima GNU/Linux.

CANAIMA DOCENTE VIT D2100

Computadora Portátil VIT D2100.

Procesador: Intel Core Duo T8100.

Disco duro: 80 GB. 2.5” SATA.

Tarjeta de red: según la norma 802.11 B/G/N.

Monitor: TFT 14.1” WXGA (1280×800)

3 puertos USB.

Adaptador de corriente.

Batería removible de 6-celdas con capacidad de 4000mAh o 4400mAh

CANAIMA DOCENTE VIT M2400

Computadora Portátil VIT M2400

Procesador: Intel Core Duo FSB800 2.1GHZ.

Disco duro: 560GB SATA de 5400 RPM.

Memoria: 2GB DDR2.

Tarjeta de red: según la norma 802.11 B/G/N.

Monitor: TFT 14.1” (1280×800)

3 puertos USB.

Batería removible de 6-celdas con capacidad de 4000mAh.

VINCULACIÓN DEL PROYECTO CON EL PLAN DE LA PATRIA 2013 – 2019

OBJETIVOS HISTÓRICOS OBJETIVOS NACIONALES

OBJETIVOS ESTRATEGICOS

I.- Defender, Expandir y Consolidar el bien más preciado que hemos reconquistado después de 200 años: la Independencia Nacional.

1.5- Desarrollar nuestras capacidades Científico-Tecnológicas vinculadas a las necesidades del Pueblo.

1.5.1 – 1.5.1.1 – 1.5.1.2 – 1.5.1.3 – 1.5.1.4 – 1.5.2.1 – 1.5.3 – 1.5.3.1 – 1.5.3.3

III.- Convertir a Venezuela en un País Potencia en lo Social, lo Económico y lo Político dentro de la Gran Potencia Naciente de América Latina y el Caribe, que garanticen la conformación de una Zona de Paz en Nuestra América.

3.4- Profundizar el Desarrollo de la nueva Geopolítica Nacional y Regional, Latinoamericana y Caribeña.

3.4.12.11- Incorporar los Nuevos Desarrollos y las Zonas Sin Servicio a la Red de Telecomunicaciones, para asegurar el Acceso a Telefonía, Televisión e Internet.

CAPITULO III

MARCO METODOLÓGICO

METODOLOGÍA DE CAMPO

Es el proceso que, utilizando el método científico, permite obtener nuevos

conocimientos en el campo de la realidad social. O bien, estudiar una situación

para diagnosticar necesidades y problemas a efectos de aplicar los conocimientos

con fines prácticos).

La investigación de campo corresponde a un tipo de diseño de investigación, para

la cual Carlos Sabino (S/f) en su texto "El proceso de Investigación" señala que se

basa en informaciones obtenidas directamente de la realidad, permitiéndole al

investigador cerciorarse de las condiciones reales en que se han conseguido los

datos.

En otras palabras, el investigador efectúa una medición de los datos. Sin embargo,

qué tanto datos se pueden obtener considerando las restricciones de cada estudio

como por la carencia de recursos materiales, humanos, monetarios, físicos.

Sabino señala en el texto referido, algunos tipos de diseño empleados con

frecuencia, estos son:

Diseño experimental: consiste en someter el objeto de estudio a variables,

condiciones controladas y conocidas por el investigador para observar los

resultados que cada variable ejerce sobre el objeto bajo estudio. No aplica

para estudios sociales.

Diseño post – facto: consiste en que le investigador realice una prueba

donde no controla ni regula el entorno se efectúa posterior a los hechos.

Diseño encuesta: consiste en preguntar de forma directa y simple a

determinadas personas representativas de la población bajo estudio, para

conocer su comportamiento. Aplica para ciencias sociales.

Diseño panel: consiste en encuestas repetidas que se aplica a una misma

muestra para observar la evolución, efectuándose en lapsos prefijados y

regulares. Sin embargo, la progresiva reducción de la muestras por

diversas causas (fatiga, traslado, etc.,) ocasiona que el error muestral se

incrementa progresivamente afectando negativamente la calidad de los

resultados.

Diseños cualitativos: trata de recuperar para el análisis, parte de la

complejidad del sujeto, modo de ser y hacer en el medio que lo rodea, lo

subjetivo.

Estudio de Casos: consiste en profundizar el estudio en uno o varios

objetos de investigación.

METODOLOGÍA

1. Concebir la Idea a Investigar: La interacción constante con el ambiente nos permite observar situaciones que a menudo despiertan una serie de interrogantes. Por ejemplo, en la práctica de enfermería podemos observar que la mayoría de pacientes prefiere la atención de determinadas enfermeras. Ante esto, surgen inevitablemente preguntas como:

¿Por qué prefieren a "fulanita" para que los atienda? ¿Cuál es la calidad de la atención que proporcionarnos las demás

enfermeras? ¿La calidad de la atención tiene que ver en la recuperación del paciente?

Son muchas las interrogantes que el investigador se plantea a la hora de

elegir un tema de investigación.

Lo primero es ¿Qué investigar? Aunque esta interrogante parece fácil, no lo

es. En el mundo complejo donde el investigador se mueve, existe un

universo de problemas que solo el deberá descifrar.

El primer problema será entre varias alternativas, es decir, establecer

prioridades al momento de enfrentarse con lo que de ahora en adelante, se

llamara: objeto de investigación, problema de investigación o tema de

investigación.

El investigador deberá seleccionar aquel problema que responda a muchas

condiciones propias a él, como se explican a continuación: Objetividad:

Escogerá el problema y lo investigara lo más objetivamente posible,

tratando que lo subjetivo no intervenga a priori, para así no distorsionar la

investigación y aunque es un tanto difícil desprenderse de esa subjetividad,

debe procurar hacerlo. Ello no significa el desprendimiento total de ello, por

cuanto a la hora de analizar e interpretar los datos, producto de la recogida

de la información por diferentes técnicas de recolección de datos, esa

información requerirá de la capacidad de interpretación del investigador,

para así determinar los logros que se pretenden alcanzar, cuando utiliza los

referentes empíricos (datos, hechos) y que el mismo deberá identificar

dentro del proceso de investigación.

Agrado del tema: Es parte del éxito de la investigación. Cuando el tema no

es de agrado, existirá una predisposición a que todo lo que vaya a hacer le

salga mal, hay desaliento, no hay motivación. Por ello es recomendable que

el investigador se compenetre con el objeto, como si se tratara de un

matrimonio del sujeto con el objeto.

Conocimientos previos sobre el tema: Es importante que investigador sea

una persona que tenga hábitos de lectura. Esta constancia le permitirá ser

conocedor del problema que va a someter a investigación. No es lo mismo

partir de la nada que con un conocimiento previo del tema objeto de

estudio, pues ello será importante como fuente de información general y así

el podrá comparar y determinar cuáles serán las fuentes principales de la

investigación.

Apoyo documental o bibliográfico: Es la condición que permitirá brindarle el

mayor soporte para lo que se pretende investigar. El material de apoyo

significa que el tema ha sido estudiado por otros autores, pero con variables

distintas y de ser coincidentes deberá considerarlos en periodos de tiempo

diferente o bien, con otros indicadores o referentes empíricos, dentro de las

mismas variables. Esta revisión hará que el tema no sea igual a otras

investigaciones y que estará con mayor conocimiento para abordar, desde

todo punto de vista, la temática seleccionada en ese momento.

2. Selección de la Muestra: La muestra es, en esencia, un subgrupo de la población. Se puede decir que es un subconjunto de elementos que pertenecen a ese conjunto definido en sus necesidades al que llamamos población. De la población es conveniente extraer muestras representativas del universo. Se debe definir en el plan, y justificar, los universos en estudio, el tamaño de la muestra, el método a utilizar, y el proceso de selección de las unidades de análisis. En realidad, pocas veces es posible medir a la población por lo que obtendremos o seleccionaremos y, desde luego, esperamos que este subgrupo sea un reflejo fiel de la población.

Básicamente se categorizar las muestras es dos grandes ramas: las probabilísticas y las no probabilísticas. Entiéndase por muestras probabilísticas como el subgrupo de la población en el que todos los elemento de este tienen la

misma probabilidad de ser escogidos; por consiguiente, las muestras no probabilísticas es cuando la elección de los elementos no depende la probabilidad, sino con causas relacionadas con las características de la investigación o de quien hace la muestra.

La selección de la muestra también la podemos ver desde dos puntos de vista: muestra cuantitativa y muestra cualitativa. La muestra cuantitativa es un subgrupo de la población del cual se recolectan los datos y debe ser representativo en dicha población. Por otra parte, la muestra cualitativa es la unidad de análisis o conjunto de personas, contextos, eventos o sucesos sobre la cual se recolectan los datos sin que necesariamente sea representativo.

3. Marco Teórico: Representa el soporte inicial de la investigación. También se le llama Marco Teórico Conceptual, Marco Referencial, Marco Estructural Conceptual de la Investigación y Marco Conceptual.

Aborda las características del fenómeno o problema en estudio. Estas características (cualidades) constituyen las variables, que no son más que las diferentes proposiciones, diversos conocimientos, que permitirán estudiar al problema. Es razonable que el investigador conozca de las diferentes teorías que soportaran inicialmente el estudio, de allí la importancia de las bases teóricas.

Las funciones que cumple el marco teórico, permite visualizar las técnicas que operaran metodológicamente en el estudio, por cuanto que está compuesta por un conjunto de categorías básicas. Este marco brinda a la investigación un sistema coordinado y coherente de conceptos y proposiciones que permiten abordar el problema para que este cobre sentido.

El marco teórico nos amplía la descripción del problema. Integra la teoría con la investigación y sus relaciones mutuas. Es la teoría del problema, por lo tanto, conviene relacionar el marco teórico con el problema y no con la problemática de donde éste surge. No puede haber un marco teórico que no tenga relación con el problema.

Todo hecho anterior a la formulación del problema que sirve para aclarar, juzgar e interpretar el problema planteado, constituye los antecedentes del problema. Establecer los antecedentes del problema, de ninguna manera es hacer un recuento histórico del problema, o presentar fuentes bibliográficas que se va a utilizar, o los datos recolectados los cuales no sabemos en dónde ubicar, o la descripción de las causas del problema. En los antecedentes se hará una síntesis conceptual de las investigaciones o trabajos realizados sobre el problema formulado con el fin de determinar en enfoque metodológico de la misma investigación. El antecedente puede indicar conclusiones existentes en torno al problema planteado.

Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir las relaciones que hay entre ellos. Un concepto es una abstracción

obtenida den la realidad y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un mismo nombre. Algunos conceptos están estrechamente ligados a objetos de lo que representan, por eso, cuando se define, se busca asegurar que las personas que lleguen a una investigación determinada conozcan perfectamente el significado con el cual se va a utilizar el término o concepto a través de toda la investigación.

También la metodología para toda investigación es de importancia fundamental. Para ello se deberá planear una metodología o procedimiento ordenado que se seguirá para establecer lo significativo de los hechos y fenómenos hacia los cuales está encaminado el significado de la investigación. Científicamente, la metodología es un procedimiento general para lograr de una manera precisa el objetivo de la investigación.

4. Definir el Tipo de Investigación: Es necesario tener en cuenta el tipo de investigación o de estudio que se va a realizar, ya que cada uno de estos tiene una estrategia diferente para su tratamiento metodológico. Por ello, se debe indicar el tipo de investigación, si es una investigación, histórica, descriptivas o experimental. Si es un estudio causal, exploratorio o productivo.

Conviene señalar que el que investiga debe tener claro los distintos métodos que son posibles de aplicar a las ciencias. Algunos son comunes como el inductivo y el deductivo; el analítico y el sintético, el objetivismo y el subjetivismo, así como otros más, que son específicos a cada ciencia.

5. Establecer las Hipótesis: La hipótesis es el eslabón necesario entre la teoría y la investigación que nos lleva al descubrimiento de nuevos hechos. Por tal, se debe sugerir explicación a ciertos hechos y orientar la investigación a otros. La hipótesis puede ser desarrollada desde distinto puntos de vista, puede estar basada en una presunción, en el resultado de otros estudios, en la posibilidad de una relación semejante entre dos o más variables representadas en un estudio, o puede estar basada en una teoría mediante la cual una suposición de proceso deductivo nos lleva a la pretensión de que si se dan ciertas condiciones se pueden obtener ciertos resultados, es decir, la relación causa - efecto. Una hipótesis sirve de guía para la obtención de datos en función del interrogante presentado en el problema y para indicar la forma como debe ser organizado según el tipo de estudio.

6. Selección de la Muestra: Es la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a extraer algunos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad. Una muestra debe ser representativa si va a ser usada para estimar las características de la población. Los métodos para seleccionar una muestra representativa son numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar una muestra y la naturaleza de los elementos individuales de la población. Por lo tanto, se requiere un gran volumen para incluir todos los tipos de métodos de muestreo.

Entre los tipos de muestra más usados en la Investigación tenemos:

Muestreo aleatorio simple: la forma más común de obtener una muestra es

la selección al azar. Es decir, cada uno de los individuos de una población

tiene la misma posibilidad de ser elegido. Si no se cumple este requisito, se

dice que la muestra es viciada. Para tener la seguridad de que la muestra

aleatoria no es viciada, debe emplearse para su constitución una tabla de

números aleatorios.

Muestreo estratificado: una muestra es estratificada cuando los elementos

de la muestra son proporcionales a su presencia en la población. La

presencia de un elemento en un estrato excluye su presencia en otro. Para

este tipo de muestreo, se divide a la población en varios grupos o estratos

con el fin de dar representatividad a los distintos factores que integran el

universo de estudio. Para la selección de los elementos o unidades

representantes, se utiliza el método de muestreo aleatorio.

Muestreo por cuotas: se divide a la población en estratos o categorías, y se

asigna una cuota para las diferentes categorías y, a juicio del investigador,

se selecciona las unidades de muestreo. La muestra debe ser proporcional

a la población, y en ella deberán tenerse en cuenta las diferentes

categorías. El muestreo por cuotas se presta a distorsiones, al quedar a

criterio del investigador la selección de las categorías.

Muestreo intencionado: también recibe el nombre de sesgado. El

investigador selecciona los elementos que a su juicio son representativos,

lo que exige un conocimiento previo de la población que se investiga.

Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se

puede seleccionar las unidades de la muestra en forma aleatoria y después

aplicar el muestreo por cuotas.

Muestreo tipo master simple: es una aplicación combinada y especial de los

tipos de muestra existentes. Consiste en seleccionar una muestra "para ser

usada" al disponer de tiempo, la muestra se establece empleando

procedimientos sofisticados; y una vez establecida, constituirá el módulo

general del cual se extraerá la muestra definitiva conforme a la necesidad

específica de cada investigación.

7. Recolección de Datos: La investigación no tiene sentido sin las técnicas de recolección de datos. Estas técnicas conducen a la verificación del problema planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que serán empleados.

Todo lo que va a realizar el investigador tiene su apoyo en la técnica de la observación. Aunque utilice métodos diferentes, su marco metodológico de recogida de datos se centra en la técnica de la observación y el éxito o fracaso de la investigación dependerá de cual empleó.

Los instrumentos que se construirán llevaran a la obtención de los datos de la realidad y una vez recogidos podrá pasarse a la siguiente fase: el procesamiento de datos. Lo que se pretende obtener responde a los indicadores de estudio, los cuales aparecen en forma de preguntas, es decir, de características a observar y así se elaboraran una serie de instrumentos que serán los que en realidad, requiere la investigación u objeto de estudio.

La recolección de datos se refiere al uso de una gran diversidad de técnicas y herramientas que pueden ser utilizadas por el analista para desarrollar los sistemas de información, los cuales pueden ser la entrevistas, la encuesta, el cuestionario, la observación, el diagrama de flujo y el diccionario de datos.

Todos estos instrumentos se aplicarán en un momento en particular, con la finalidad de buscar información que será útil a una investigación.

8. Análisis de Datos: Es en esta etapa cuando el investigador siente que su labor se está viendo culminada. Aquí estarán cifradas sus esperanzas de comprobación de sus supuestos, como también el amargo sabor de que algo faltó y que debe iniciar de nuevo el camino para ver qué ocurrió.

Los cuadros elaborarlos deberá analizarlos e interpretarlos para sacar sus conclusiones. Aquí entra el sentido crítico objetivo-subjetivo que le impartirá a esos números recogidos en los cuadros. Esos números son abstractos y es el investigador quien les dará sentido.

Para llegar a esta parte crucial del proceso, ha tenido que recorrer un largo camino, horas incontables que se pierden en el tiempo, recursos no fáciles de recuperar, horas de paciencia y de malos ratos, horas de sueño y de recompensa, de angustias y de alegrías. Estos son apenas unos indicadores de lo que significa realizar un trabajo de investigación.

9. Presentación de los Resultados: Con el material ya recogido y organizado, inicia una de las etapas más interesantes, darle sentido, forma, explicación de los resultados obtenidos.

Consiste en la culminación. La labor completa de la información con los datos procesados, analizados e interpretados, donde se ha podido llegar a la determinación de la validez de las posiciones, donde se ha llegado a establecer la eficacia de todo el proceso planificado, donde se han verificado las hipótesis según el diseño seleccionado, donde las variables han sido operacionalizadas.

El Diseño Encuesta:

Es un proceso prácticamente exclusivo de las ciencias sociales. Parte de la premisa de que si queremos conocer algo acerca del comportamiento de las personas, lo mejor es preguntárselo directamente a ellas. La encuesta puede aplicarse de diferentes modos, a explicar:

Auto Administrado: La encuesta se proporciona directamente a los

respondientes, quienes lo contestan. No hay intermediarios y las respuestas

las hacen ellos mismos. Por ejemplo, si los encuestados fueran los

estudiantes de Derecho de la Facultad de Ciencias Jurídicas, Políticas y

Criminológicas de la Universidad de Los Andes, se acudirá directamente a

ellos y se les entregara el cuestionario. Evidentemente que este modo de

aplicar el cuestionario es impropio para analfabetas, personas que tienen

dificultades de lectura o niños que todavía no leen de manera adecuada.

Por entrevista personal: El entrevistador deberá aplicar el cuestionario a los

encuestados haciéndole preguntas al respondiente e ir anotando los

resultados. En este caso las instrucciones deben ser para el entrevistador.

Normalmente se tienen varios encuestadores quienes deberán estar

capacitados en el arte de entrevistar y conocer a fondo el cuestionario. De

igual forma, no puede sesgar o influir en las respuestas.

Por entrevista telefónica: Esta situación es similar a la anterior, solo que la

entrevista no es "cara a cara", sino a través del teléfono. El entrevistador le

hace preguntas al entrevistado solo por medio de la voz y deberá el mismo

anotar las respuestas.

Auto administrado y enviado por correo postal o electrónico: Los

respondientes contestan directamente el cuestionario, estos marcan o

anotan las respuestas sin intermediarios. La diferencia está en que el

cuestionario se entrega directamente en las manos del entrevistado y este

se reenvía por correo u otro medio. Si es por correo o mensajería, no hay

retroalimentación inmediata y si los sujetos tienen alguna duda no se les

puede aclarar. Las encuestas por Internet han ido ganando terreno y, a

diferencia de la anterior, estas si ofrecen la posibilidad de interacción y

asesoría. Conforme más personas tengan acceso a Internet, este medio

cobrara más fuerza.

La Observación:

La observación puede ser participante o no participante. En la primera el observador interactúa con los sujetos observados, pero en la segunda no ocurre tal interacción. Por ejemplo, un estudio sobre la conducta de aprendizaje de niños autistas, donde el instructor tiene que interactuar con los niños y al mismo tiempo codificar.

La observación tiene varias ventajas, a seguir:

Son técnicas de medición no obstructivas, en el sentido que el instrumento de medición no estimula el comportamiento de los sujetos. Los métodos no obstructivos simplemente registran algo que fue estimulado por otros factores ajenos al instrumento de medición.

Acepta material no estructurado.

Pueden trabajar con grandes volúmenes de datos.

El Dato:

Una vez planteada la investigación y realizadas todas las tareas que permitan la puesta en marcha de una investigación, corresponde pasar al campo mismo de estudio para efectuar en el la recolección de datos e información, con el fin de dar respuesta al problema planteado como forma de estudio.

Existen numerosos procedimientos para la tarea de recolección de datos, variables conforme a las circunstancias concretas de la índole de la investigación.

Las técnicas más utilizadas en la recolección de datos son: La observación, la entrevista, el cuestionario, las escalas de actitudes y opiniones, los test, la sociometría, la recopilación documental, la semántica documental, el análisis de contenido, etc.

También la "práctica social" es fuente de conocimiento en una investigación.

Recolección de Datos:

Constituye una fase completamente mecánica, la cual puede llevarse a cabo de forma manual o computarizada. Todo depende del tipo de muestra que se haya determinado dentro de la investigación, es decir, la muestra que representa el objeto de estudio.

Si la muestra es pequeña, el investigador puede manejar los datos utilizando sus medios manuales, pero si la muestra es grande, necesitara apoyarse en medios más tecnificados como el uso de computadoras que permitan ofrecerles resultados más rápidos y quizás menos riesgosos que si los realizara manualmente.

En cualquiera de las dos formas que emplee, deberá llevar a cabo todo un proceso sistematizado, que parte de clasificar los datos de tal forma que le sea fácil su estudio.

Previamente los ordenará y procederá a elaborar su propia guía, permitiendo así el fácil procesamiento de los datos. Para ello deberá considerar cuatro pasos, los cuales son: Agrupación, Categorización, Codificación y Tabulación. (ACCT).

Cualquiera que sea el instrumento o medio utilizado para recabar la información, esta tendrá carácter meramente empírico. Los datos recogidos están en función de los tipos de preguntas elaboradas. Algunas respuestas serán directas y otras teóricas, que permitirán comprobar la validez de las hipótesis.

Las respuestas deben analizarse y el primer paso será el proceso de Agrupación.

Agrupación: Consiste en la facultad que tiene el investigador de agrupar

todas las respuestas similares o con gran parecido, de tal manera que la

información obtenida pueda manejarse con mayor comodidad, tratando que

los grupos que la conforman no serán demasiados y se haga fácil el

proceso.

Categorización: La agrupación anterior conlleva al señalamiento de las

categorías o ítems en que estas respuestas deben concentrarse.

Establecerá las que considere convenientes para su estudio según lo

señalado en la fase de operacionalización.

Codificación: Consiste en la expresión numérica a la que será sometida

cada una de las respuestas verbales y que en el caso estudiado,

corresponderá asignarle a cada una de las categorías. El código podrá ser

también en letras, queda a elección del sistema que elija el procesador de

datos.

Tabulación: Consiste en la contabilización que se efectúa de cada una de

las preguntas para determinar numéricamente las respuestas obtenidas.

Importancia de la Recolección de Datos:

La investigación no tiene sentido sin las técnicas de recolección de datos, estas técnicas conducen a la verificación del problema planteado.

Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que sean empleados. Todo lo que va a realizar el investigador tiene su tiene su apoyo en la técnica de recolección de datos. Aunque utilice medios diferentes, su marco metodológico de recolección de datos se concentra en la técnica de la observación y el éxito o fracaso del proceso investigativo dependerá de cual empleo.

Los Instrumentos que se construirán, llevaran a la obtención de los datos de la realidad y una vez recogidos se podrá pasar a la siguiente fase del procesamiento de los datos obtenidos como información.

Análisis de los Datos:

Los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", esto es, encontrarles significación. En esto consiste, en esencia, el análisis e interpretación de los datos. El propósito es poner de relieve todas y cada una de las partes del conjunto que proporcionan respuestas a los integrantes de la investigación, es decir, a los problemas formulados.

El objetivo del análisis es buscar un significado más amplio a las respuestas mediante su comparación con otros conocimientos disponibles: generalizaciones, leyes, teorías, etc. Básicamente, el análisis e interpretación de datos es la culminación de todo el proceso de la investigación, porque las fases precedentes se ordenan en función de esta tarea.

Cabe destacar que tanto el análisis como la interpretación de los datos tienen mucho más de trabajo artesanal, por tanto, esta fase no puede reducirse a una simple operación contable. METODOLOGÍA DOCUMENTAL

La Investigación Documental como una variante de la investigación científica, cuyo objetivo fundamental es el análisis de diferentes fenómenos (de orden histórico, psicológico, sociológico, etc.), utiliza técnicas muy precisas, de la Documentación existente, que directa o indirectamente, aporte la información.

Podemos definir a la investigación documental como parte esencial de un proceso de investigación científica, constituyéndose en una estrategia donde se observa y reflexiona sistemáticamente sobre realidades (teóricas o no) usando para ello diferentes tipos de documentos. Indaga, interpreta, presenta datos e informaciones sobre un tema determinado de cualquier ciencia, utilizando para ello, una metódica

de análisis; teniendo como finalidad obtener resultados que pudiesen ser base para el desarrollo de la creación científica.

Visto en estos términos, la Investigación Documental podemos caracterizarla de la siguiente manera:

Se caracteriza por la utilización de documentos; recolecta, selecciona, analiza y presenta resultados coherentes.

Utiliza los procedimientos lógicos y mentales de toda investigación; análisis, síntesis, deducción, inducción, etc.

Realiza un proceso de abstracción científica, generalizando sobre la base de lo fundamental.

Realiza una recopilación adecuada de datos que permiten redescubrir hechos, sugerir problemas, orientar hacia otras fuentes de investigación, orientar formas para elaborar instrumentos de investigación, elaborar hipótesis, etc.

Puede considerarse como parte fundamental de un proceso de investigación científica, mucho más amplio y acabado.

Es una investigación que se realiza en forma ordenada y con objetivos precisos, con la finalidad de ser base a la construcción de conocimientos.

Se basa en la utilización de diferentes técnicas de: localización y fijación de datos, análisis de documentos y de contenidos.

En un sentido restringido, entendemos a la investigación documental como un proceso de búsqueda que se realiza en fuentes impresas (documentos escritos). Es decir, se realiza una investigación bibliográfica especializada para producir nuevos asientos bibliográficos sobre el particular.

Una confusión muy generalizada, coloca como iguales, a la investigación bibliográfica y a la investigación documental. Esta afirmación como podemos observar, reduce la investigación documental a la revisión y análisis de libros dejando muy pobremente reducido su radio de acción. La investigación bibliográfica, aclaramos, es un cuerpo de investigación documental. Asumimos la bibliografía como un tipo específico de documento, pero no como el Documento.

Las Fuentes de Información de la Investigación Documental son:

FUENTE PRIMARIA: Libros, artículos, monografías, tesis, documentos, trabajos de investigación presentados en conferencias, congresos y seminarios .Estas fuentes son los documentos que registran o corroboran el conocimiento inmediato de la investigación. Incluyen libros, revistas, informes técnicos y tesis. Libros: De

acuerdo con la UNESCO (1964), se llama libro a aquella publicación que tiene más de 49 páginas, y folleto a la que tiene entre cinco y 48 páginas.

Informes técnicos: En este tipo de informes se incluyen las memorias de conferencias, los informes de congresos, reuniones y otros. Son importantes debido a que la información generalmente versa sobre asuntos de actualidad que afectan a una comunidad particular o son de interés grupal. Diarios y periódicos.

FUENTE SECUNDARIA: Resúmenes y listados de referencias publicados en un área específica de conocimiento. Cualquier fuente secundaria que se utilice tendrá que ser objeto de comprobación de cualquier factor que puedan afectar la exactitud o la validez de la información Este renglón incluye las enciclopedias, los anuarios, manuales, almanaques, las bibliografías y los índices, entre otros; los datos que integran las fuentes secundarias se basan en documentos primarios. Depósitos de información: el primer paso para recabar datos es acudir a los centros de información, como biblioteca, hemeroteca, archivos y museos. En la búsqueda de información en la biblioteca es importante tener algunas nociones sobre su organización y funcionamiento, tales como: Los libros están ordenados de manera alfabética. Se clasifican por fichas. Se marca en los lomos del libro el código por fechas. Se forman catálogos Se elaboran registros para localizar materiales afines a la obra. Por lo tanto se trata de hacer una cuidadosa revisión de los estudios teóricos y prácticos que ya se han realizado y que tienen relación con el problema planteado. Esta revisión se debe hacer porque no existe campo del conocimiento, completamente nuevo o inexplorado.

Todo estudio debe tomar elementos del pasado y reconocer lo que otras personas o investigadores han hecho. No realizar una exhaustiva revisión documental conduce a errores graves y a desaprovechar la oportunidad de hacer un trabajo más original y metodológicamente más objetivo.

Por eso la investigación documental puede iniciarse directamente en el acopio de las fuentes primarias, situación que ocurre cuando el investigador conoce la ubicación de la información y se encuentra familiarizado con el campo de estudio.

Sin embargo se dan casos en los que hay poco material en hemerotecas número reducido de centros de información, donde muchas veces las colecciones de revistas son incompletas o no se encuentran actualizadas y no disponen de documentos muy fiables.

OTRAS FUENTES: Con la expansión de las comunicaciones en red una nueva sociedad está emergiendo al lado de la sociedad real. Se trata de la sociedad virtual. Su territorio es el ciberespacio y su tiempo, como no, es el tiempo virtual. Se trata de un fenómeno novedoso, cuyas características son escasamente conocidas, puesto que esta sociedad está en pleno despliegue. Es una sociedad que no podría existir al margen de la sociedad real, que es su soporte material. Pero, aunque comparte con ella un conjunto de rasgos comunes, tiene sus propias especificaciones, que la han convertido en un tema de gran interés para los académicos interesados en indagar las características que tendrá la nueva

sociedad que se está gestando en medio de la crisis de la sociedad industrial.¿ Que es la Web grafía ? es un directorio de aplicaciones y recursos libres, puede seleccionar una categoría y explorar los diferentes recursos. ¿Cuáles son las categorías? Actualmente se cuenta con 21 recursos distribuidos en las siguientes 17 categorías Redes, Oficina, Multimedia, Desarrollo, Matemáticas, Juegos, Técnicas, Gráficos, Educación, Ciencia, Ingeniería, Bases de datos, Sistemas operativos, Escritorio, Seguridad, Utilidades, entre otros. ¿Cuáles son los tipos de recursos? En este momento se clasifican los tipos de recursos en 3: Programas, Documentos, Enlaces, en el caso de programas y documentos no se encuentran al interior del portal, de hecho el directorio solo organiza, clasifica y enlaza los recursos.

METODOLOGÍA

1.- Elección del Tema:

Está comprobado que con un mayor conocimiento sobre un campo de estudio, será más fácil detectar el área que necesita ser investigada.

El investigador debiera preguntarse lo siguiente:

¿Cuál es el problema que necesita ser investigado?

¿Ayuda la investigación a ampliar los conocimientos en este campo?

Es muy importante que el tema sea motivante, ya que la investigación requiere mucho tiempo y es posible que el interés decaiga.

2.- Acopio de Bibliografía Básica sobre el Tema:

Se reúne todo el material publicado o inédito; artículos, estudios críticos, monografías, ensayos, documentos de archivo, libros, tesis, etc.

Conocer las ideas o datos expuestos anteriormente provee de bases sólidas para mejorar nuestra idea y no repetirla.

Los artículos críticos de revista especializada resultan más ricos y aprovechables por sobre los de tratamiento indirecto.

3.- Elaboración de Fichas Bibliográficas y Hemerográficas:

Permite localizar rápidamente el material en el momento oportuno.

Con los datos básicos de un documento (nombre de libro, autor, editorial, número de edición, etc.) se hace el registro en las fichas.

4.- Lectura Rápida del Material:

Su fin, el de ubicar las principales ideas y conocer la calidad del material recabado

Se recomienda leer las partes que más podrían interesar; índice, introducción, prologo, conclusiones, párrafos específicos, etc.

Alguna idea relevante puede aparecer en un principio en la lectura, no se recomienda subrayarla, probablemente esta aparezca con mayor claridad.

5.- Delimitación del Tema:

Después de la lectura rápida es más fácil delimitar el tema, porque se puede medir su dimensión y alcance, su aspecto formal y su complejidad.

El tema central debe ser preciso, así se enfoca la atención en él y no se dispersa.

Evitar los temas encontrados en las fronteras de 2 o más ciencias. Su estudio requiere conocimientos de diversos campos.

Desde el principio se preferible escoger un tema pequeño y sencillo.

6.- Elaboración del Esquema de Trabajo:

Es un registro visual que representa el esqueleto del escrito con que se concluye el proceso de investigación.

Algunos objetivos del esquema son:

Identificar de forma gráfica y analítica, las partes pares y subordinadas del problema.

Detectar defectos de relación

Facilitar el inventario de la información recolectada.

Orientar la recopilación de la información faltante.

El primer esquema sirve fundamentalmente para el acopio de información.

El esquema debe ser tan simple como lo permita; la sencillez o complejidad del problema; la profundidad y la extensión del trabajo; la cantidad de información recabada.

7.- Ampliación del Material Sobre el Tema ya Delimitado:

Se busca nueva información directamente ligada con el tema.

La nueva bibliografía necesita sus fichas.

8.- Lectura Minuciosa de la Bibliografía:

Implica reflexión e interpretación y su resultado son las ideas más importantes que pasan a la fichas de contenido.

Si el libro es nuestro, se destacan las ideas principales de las secundarias con colores, corchetes, llaves, etc.

9.- Elaboración de Fichas de Contenido:

Contiene las ideas más importantes.

Pueden ser mixtas cuando contienen; las ideas del autor y nuestras propias reflexiones y comentarios, de esta manera se imprime orden y coherencia al mismo.

Permiten el fácil manejo de datos e ideas ajenas o propias.

Las fichas nos acercan a la elaboración de un primer borrador del trabajo final.

10.- Organización de las Fichas de Contenido y Revisión del Esquema:

Su objetivo; la valoración del material recopilado, la localización de posibles lagunas, detección de excesos en las ideas transcritas.

La posibilidad de revisar el esquema de trabajo con el fin de darle mayor orden y uniformidad, antes de redactar el borrador.

11.- Organización Definitiva del Fichero:

Para saber si faltan datos esenciales.

Se numeran las fichas con lápiz, para evitas dificultades de reorganización si esta se altera.

12.- Redacción del Trabajo Final:

Conclusión de la investigación, la cual comunica sus resultados mediante un texto escrito, el cual pueda ser consultado por cualquier persona que requiera de esta.

Borrador.

Primera exposición de los hechos o ideas del trabajo final.

Índice e introducción se deja al final de la redacción del borrador.

Se recomienda dejar descansar el borrador, durante un tiempo, para así realizar un análisis frío, crítico, sin ataduras emocionales, con el fin de corregir y redactar el trabajo final.

Redacción final.

Su objetivo; comunicar con la mayor claridad y' coherencia posibles los resultados, descubrimientos, comprobaciones o reflexiones logradas a través de todo el proceso de la investigación documental.

METODOLOGÍA DESCRIPTIVA

Consiste en la Caracterización de un hecho, fenómeno o grupo, con el fin de

establecer su estructura o comportamiento. Tiene como objetivo la descripción

precisa del evento de estudio. Este tipo de investigación se asocia con el

diagnóstico. El método se basa en la indagación, observación, el registro y la

definición.

Objetivo:

El objetivo de la investigación descriptiva consiste en llegar a conocer las situaciones, costumbres y actitudes predominantes a través de la descripción exacta de las actividades, objetos, procesos y personas. Su meta no se limita a la recolección de datos, sino a la predicción e identificación de las relaciones que existen entre dos o más variables. Los investigadores no son meros tabuladores, sino que recogen los datos sobre la base de una hipótesis o teoría, exponen y resumen la información de manera cuidadosa y luego analizan minuciosamente los resultados, a fin de extraer generalizaciones significativas que contribuyan al conocimiento.

METODOLOGÍA

1. Examinan las características del problema escogido. 2. Lo definen y formulan sus hipótesis. 3. Enuncian los supuestos en que se basan las hipótesis y los procesos

adoptados. 4. Eligen los temas y las fuentes apropiados. 5. Seleccionan o elaboran técnicas para la recolección de datos. 6. Establecen, a fin de clasificar los datos, categorías precisas, que se

adecuen al propósito del estudio y permitan poner de manifiesto las semejanzas, diferencias y relaciones significativas.

7. Verifican la validez de las técnicas empleadas para la recolección de datos. 8. Realizan observaciones objetivas y exactas. 9. Describen, analizan e interpretan los datos obtenidos, en términos claros y

precisos. Recolección de Datos: En el informe de la investigación se señalan los datos obtenidos y la naturaleza exacta de la población de donde fueron extraídos. La población —a veces llamada universo o agregado— constituye siempre una totalidad. Las unidades que la integran pueden ser individuos, hechos o elementos de otra índole. Una vez identificada la población con la que se trabajará, entonces se decide si se recogerán datos de la población total o de una muestra representativa de ella. El método elegido dependerá de la naturaleza del problema y de la finalidad para la que se desee utilizar los datos.

Población Total: Muchas veces no es difícil obtener información acerca de todas las unidades que componen una población reducida, pero los resultados no pueden aplicarse a ningún otro grupo que no sea el estudiado.

Muestra de la Población: Cuando se trata de una población excesivamente amplia se recoge la información a partir de unas pocas unidades cuidadosamente seleccionadas, ya que si se aborda cada grupo, los datos perderían vigencia antes de concluir el estudio. Si los elementos de la muestra representan las características de la población, las generalizaciones basadas en los datos obtenidos pueden aplicarse a todo el grupo.

Expresión de Datos: Los datos descriptivos se expresan en términos cualitativos y cuantitativos. Se puede utilizar uno de ellos o ambos a la vez.

Cualitativos (mediante símbolos verbales): Se usan en estudios cuyo objetivo es examinar la naturaleza general de los fenómenos. Los estudios cualitativos proporcionan una gran cantidad de información valiosa, pero poseen un limitado grado de precisión, porque emplean términos cuyo significado varía para las diferentes personas, épocas y contextos. Los estudios cualitativos contribuyen a identificar los factores importantes que deben ser medidos. (Visión cientificista).

Cuantitativos (por medio de símbolos matemáticos): Los símbolos numéricos que se utilizan para la exposición de los datos provienen de un cálculo o medición. Se pueden medir las diferentes unidades, elementos o categorías identificables.

Tipos de investigación Descriptiva: Tomando en cuenta que las siguientes categorías no son rígidas, muchos estudios pueden encuadrarse sólo en alguna de estas áreas, y otros corresponden a más de una de ellas.

1. Estudios Tipo Encuesta: Se llevan a cabo cuando se desea encontrar la solución de los problemas que surgen en organizaciones educacionales, gubernamentales, industriales o políticas. Se efectúan minuciosas descripciones de los fenómenos a estudiar, a fin de justificar las disposiciones y prácticas vigentes o elaborar planes más inteligentes que permitan mejorarlas. Su objetivo no es sólo determinar el estado de los fenómenos o problemas analizados, sino también en comparar la situación existente con las pautas aceptadas. El alcance de estos estudios varía considerablemente; pueden circunscribirse a una nación, región, Estado, sistema escolar de una ciudad o alguna otra unidad. Los datos pueden extraerse a partir de toda la población o de una muestra cuidadosamente seleccionada. La información recogida puede referirse a un gran número de factores relacionados con el fenómeno o sólo a unos pocos aspectos recogidos. Su alcance y profundidad dependen de la naturaleza del problema.

2. Estudios de interrelaciones: Si el objeto es identificar las relaciones que existen entre los hechos para lograr una verdadera comprensión del fenómeno a estudiar, los estudios de esta índole son los estudios de casos, estudios causales comparativos y estudios de correlación.

Estudio de casos: El educador realiza una investigación intensiva de una unidad social o comunidad. Para ello recoge información acerca de la situación existente en el momento en que realiza su tarea, las experiencias y condiciones pasadas y las variables ambientales que ayudan a determinar las características específicas y conducta de la unidad. Después de analizar las secuencias e interrelaciones de esos factores, elabora un cuadro amplio e integrado de la unidad social, tal como ella funciona en la realidad. El interés en los individuos no es considerándolo como personalidad única, sino como tipos representativos. Se reúnen los datos a partir de una muestra de sujetos cuidadosamente seleccionados y se procuran extraer generalizaciones válidas sobre la población que representa la muestra. El objetivo de los estudios de casos consiste en realizar una indagación a profundidad dentro de un marco de referencia social; las dimensiones o aspectos de dicho marco dependen de la naturaleza del caso estudiado. Un estudio de casos debe incluir una considerable cantidad de información acerca de las personas, grupos y hechos con los cuales el individuo entra en contacto y la naturaleza de sus relaciones con aquéllos. Los seres humanos desarrollan una constante interacción con diversos factores ambientales, por eso es imposible comprender su conducta sin examinar tales relaciones. Los datos deben provenir de muchas fuentes. Se puede interrogar a los sujetos mediante entrevistas o cuestionarios y pedirles que evoquen experiencias pasadas o sus deseos y expectativas presentes. Se estudian documentos personales como diarios y cartas, efectuando distintas mediciones físicas, psicológicas o sociológicas. Se puede interrogar a padres, hermanos y amigos de los sujetos, analizar archivos de los tribunales, escuelas, hospitales, empresas o instituciones sociales. Los estudios de casos son similares a las encuestas, pero en ellos hay un estudio intensivo de una cantidad limitada de casos representativos, en lugar de reunir datos de pocos aspectos de un gran número de unidades sociales. Tiene un alcance más limitado pero es más exhaustivo que el de encuestas, y le da más importancia a los factores cualitativos.

Estudios causales comparativos: Si además de pretender descubrir cómo es un fenómeno se quiere saber de qué manera y por qué ocurre, entonces se comparan semejanzas y diferencias que existen entre fenómenos, para descubrir los factores o condiciones que parecen acompañar o contribuir a la aparición de ciertos hechos y situaciones. Por la complejidad y naturaleza de los fenómenos sociales, es menester estudiar las relaciones de causalidad. Este tipo de estudio se usa en los casos en que los investigadores no pueden manejar una variable independiente y establecer los controles requeridos en los experimentos. En un estudio causal comparativo el investigador analiza la situación vital en la cual los sujetos han experimentado el fenómeno que se quiere investigar. Después de estudiar las semejanzas y diferencias que hay entre dos situaciones, entonces

podrá describir los factores que parecen explicar la presencia del fenómeno en una situación y su ausencia en la otra. Esta investigación tiene su origen por el método utilizado por John Stuart Mill para descubrir las situaciones causales, que establece que “si dos o más instancias del fenómeno investigado tienen sólo una circunstancia en común, en la cual todas las instancias concuerdan, es la causa (o efecto) del fenómeno dado”. Este método proporciona al investigador la doble posibilidad de control sobre sus conclusiones acerca de las relaciones de causalidad. Las dificultades posibles de explicar los fenómenos en este tipo de estudios reside en la imposibilidad de establecer un control más allá de poner a prueba tantas hipótesis alternativas como sea posible; si al estudiar el problema el factor produce un efecto determinado no se incluye entre los puntos considerados, entonces no será posible averiguar la causa (si se desea hallar las posibles causas de los fenómenos y desechar los factores aleatorios se debe poseer suficiente información general acerca de tales fenómenos y elaborar cuidadosamente sus procedimientos de observación); al exigir que sea un solo factor el que determine la aparición o ausencia de un fenómeno, muchas veces en los fenómenos sociales complejos se obedece a múltiples causas; cuando dos variables se hallan relacionadas entre sí es difícil determinar cuál de ellas es la causa y cuál el efecto; al intentar clasificar a los sujetos en grupos dicotómicos a fin de establecer comparaciones entre ellos, los fenómenos sociales sólo presentan similitudes si los incluimos en las más amplias categorías, aunque sabemos que los hechos sociales no se clasifican automáticamente en categorías exclusivas (por lo general la comparación entre dos variables indefinidas proporciona escasa información útil sobre el fenómeno que se pretende explicar); cuando se trata de estudios en los que se comparan situaciones normales, la tarea de seleccionar no requiere los mismos cuidados y precauciones que en el caso de los estudios experimentales, generalmente resulta difícil hallar grupos de elementos que sean similares en todos sus aspectos, excepto en lo que respecta al hecho de hallarse expuestos a una variable distinta (siempre existe el peligro de que los grupos presenten diferencias en relación con otras dimensiones —salud, inteligencia, antecedentes familiares, experiencia anterior— que pueden afectar los resultados del estudio).

Estudios de correlación: Se utilizan para determinar la medida en que dos variables se correlacionan entre sí, es decir el grado en que las variaciones que sufre un factor se corresponden con las que experimenta el otro. Las variables pueden hallarse estrecha o parcialmente relacionadas entre sí, pero también es posible que no exista entre ellas relación alguna. Puede decirse, en general, que la magnitud de una correlación depende de la medida en que los valores de dos variables aumenten o disminuyan en la misma o en diferente dirección. Si los valores de dos variables aumentan o disminuyen de la misma manera, existe una correlación positiva; si, en cambio, los valores de una variable aumentan en tanto que disminuyen los de la otra, se trata de una correlación negativa; y si los valores de una variable aumentan, los de la otra pueden aumentar o disminuir, entonces hay poca o ninguna correlación. En consecuencia la gama de correlaciones se extiende desde la perfecta correlación negativa hasta la no correlación o la

perfecta correlación positiva. Las técnicas de correlación son muy útiles en los estudios de carácter predictivo. Si bien el coeficiente de correlación sólo permite expresar en términos cuantitativos el grado de relación que dos variables guardan entre sí, no significa que tal relación sea de orden causal. Para interpretar el significado de una relación se debe recurrir al análisis lógico, porque la computación estadística no dilucida el problema. Sus riesgos son los mismos que en los estudios causales comparativos.

3. Estudios de desarrollo: Consiste en determinar no sólo las interrelaciones y el estado en que se hallan los fenómenos, sino también en los cambios que se producen en el transcurso del tiempo. En él se describe el desarrollo que experimentan las variables durante un lapso que puede abarcar meses o años. Abarca estudios de crecimiento y de tendencia. Los estudios de crecimiento se refieren a la identificación de los diversos factores interrelacionados que influyen sobre el crecimiento en sus diferentes etapas, saber en qué momento se tornan observables los diversos aspectos y cuándo surgen, permanecen estacionarios, alcanzan su desarrollo óptimo y, finalmente, decaen. Para el estudio del desarrollo humano se usan dos métodos: las técnicas lineales y las de corte transversal. En ambos tipos de investigación, se deben efectuar una serie de observaciones sistemáticas. El objetivo de las técnicas lineales es medir el grado de crecimiento de determinados niños en diferentes edades, por ejemplo; y en los de corte transversal no se medirían los mismos niños a intervalos regulares, sino se efectuaría un registro de medidas de diferentes niños pertenecientes a distintos grupos de edad. Los estudios de corte transversal incluyen generalmente a una mayor cantidad de sujetos, y describen un número menos de factores de crecimiento que los estudios lineales. La técnica de corte transversal se usa con más frecuencia por su bajo costo y porque ocupa menos tiempo; la técnica lineal es el más adecuado para estudiar el desarrollo humano. Ambas técnicas plantean problemas de muestreo: en los de corte transversal es posible que los diferentes sujetos de cada nivel de edad no sean comparables; los lineales obtienen información de un número limitado de sujetos, sin la confiabilidad de muestras más amplias, asimismo la dificultad para el investigador de evaluar y perfeccionar con cierta frecuencia sus técnicas, pues una vez iniciada la investigación no es posible interrumpirla para modificar o mejorar los procedimientos empleados. Para estudios lineales hacen falta apoyos económicos y un equipo de trabajo ininterrumpido durante años. Los estudios de tendencia consisten en obtener datos sobre aspectos sociales, económicos y políticos y en analizarlos posteriormente para identificar las tendencias fundamentales y predecir los hechos que pueden producirse en el futuro. En ellos se combinan a veces técnicas históricas, documentales y las que se usan en las encuestas. Resulta aventurado formular predicciones basadas en los datos de tendencia social, porque las condiciones económicas, los avances tecnológicos, las guerras, las aspiraciones individuales y otros hechos imprevisibles pueden modificar de manera repentina el curso esperado de los acontecimientos. A causa de los innumerables factores impredictibles que pueden ejercer influencia sobre los fenómenos sociales, la duración de los análisis de tendencia afecta en una medida considerable la validez

de la predicción; la mayoría de las predicciones de largo alcance constituyen meras estimaciones, en tanto que las que se refieren a lapsos más breves gozan de mayores posibilidades de certeza.

Evaluación: Algunos problemas con que suelen tropieza los investigadores se refieren a examen crítico de los materiales originales, el vocabulario técnico, la formulación de hipótesis, la observación y experimentación, y la generalización y predicción.

DIAGNÓSTICO PARTICIPATIVO

El Diagnóstico Participativo es un método para determinar, desde el punto de vista

de los miembros de la comunidad, qué actividades son necesarias y pueden

apoyarse; si los miembros de la comunidad aceptan las actividades propuestas

por el personal externo y si tales actividades son razonables y prácticas.

Los miembros de la comunidad, ayudados por el personal externo, pasan por un

proceso en el cual identifican las condiciones que son necesarias para la

realización exitosa de las actividades y acopian información para determinar si la

comunidad reúne estas condiciones o si puede crearlas. El «marco referencial del

diagnóstico» examina cada actividad en relación con las condiciones necesarias y

elimina aquellas actividades para las que no se dan estas condiciones.

“Las decisiones pueden haber sido tomadas por el personal externo”

Con frecuencia la manera como las actividades están planificadas puede significar

que ya se han tomado algunas decisiones sin recibir aportes de la comunidad.

Puede ser:

Que los problemas y las soluciones a los problemas hayan sido

determinados por el personal externo,

Que se haya decidido en cuanto al financiamiento,

Que la administración nacional o local haya negociado con el personal

externo o, en algunos casos, haya iniciado el proyecto,

Que se haya determinado una zona de trabajo y se hayan asignado roles

específicos al personal de campo.

Una de las decisiones que, con frecuencia, está en manos del personal de campo

es la elección de las comunidades en las cuales llevar a cabo las actividades. Por

ejemplo, en una zona designada puede haber un gran número de comunidades en

las cuales pueden introducirse las actividades. Sin embargo, puede haber

limitaciones en cuanto al personal de campo, tales como falta de vehículos y

personal capacitado, que hacen difícil prestar servicios a algunas comunidades. El

personal de campo habrá de considerar sus propias capacidades y limitaciones. Al

mismo tiempo, tendrá que considerar qué comunidades tienen los problemas que

las actividades pueden abordar y las condiciones físicas y comunitarias necesarias

para el éxito.

Si el personal de campo debe elegir las comunidades, una modificación del

método de diagnóstico participativo que se describe en este capítulo puede

ayudarle a decidir a qué comunidades debe acercarse.

En la actividad forestal comunitaria los miembros de la comunidad local

proporcionan muchos de los aportes, tales como el trabajo, los materiales y la

gestión. Si bien el personal externo puede haber elegido la comunidad por

considerar que tiene las condiciones necesarias para que las actividades tengan

éxito, la población local no siempre estará de acuerdo; tendrá que decidir ella

misma.

El Diagnóstico Participativo proporciona un marco para que los miembros de la

comunidad y el personal externo determinen si quieren, necesitan y pueden

apoyar las actividades propuestas.

Un diagnóstico participativo puede ser muy útil cuando los miembros de la

comunidad recurren al personal externo pidiéndole asistencia para sus

actividades. Este diagnóstico puede confirmar a los miembros de la comunidad

que han identificado el problema pertinente y las soluciones adecuadas. También

puede ayudar al personal externo a entender las actividades propuestas y por qué

la comunidad las ha elegido.

MATRIZ F.O.D.A.

Es una metodología de estudio de la situación de una empresa o un proyecto,

analizando sus características internas (Debilidades y Fortalezas) y su situación

externa (Amenazas y Oportunidades) en una matriz cuadrada. Proviene de las

siglas en inglés SWOT (Strengths, Weaknesses, Opportunities y Threats).

Es una herramienta para conocer la situación real en que se encuentra una

organización, empresa o proyecto, y planear una estrategia de futuro.

Durante la etapa de planeamiento estratégico y a partir del análisis DAFO se

deben contestar cada una de las siguientes preguntas:

¿Cómo se puede destacar cada fortaleza?

¿Cómo se puede disfrutar cada oportunidad?

¿Cómo se puede defender cada debilidad?

¿Cómo se puede detener cada amenaza?

Este recurso fue creado a principios de la década de los setenta y produjo una

revolución en el campo de la estrategia empresarial. El objetivo del análisis DAFO

es determinar las ventajas competitivas de la empresa bajo análisis y la estrategia

genérica a emplear por la misma que más le convenga en función de sus

características propias y de las del mercado en que se mueve. El análisis consta

de cuatro pasos:

Análisis Externo (también conocido como "Modelo de las cinco fuerzas de

Porter")

Análisis Interno

Confección de la matriz DAFO

Determinación de la estrategia a emplear

Fortalezas: son las capacidades especiales con que cuenta la empresa, y que le

permite tener una posición privilegiada frente a la competencia. Recursos que se

controlan, capacidades y habilidades que se poseen, actividades que se

desarrollan positivamente, etc.

Oportunidades: son aquellos factores que resultan positivos, favorables,

explotables, que se deben descubrir en el entorno en el que actúa la empresa, y

que permiten obtener ventajas competitivas.

Debilidades: son aquellos factores que provocan una posición desfavorable frente

a la competencia, recursos de los que se carece, habilidades que no se poseen,

actividades que no se desarrollan positivamente, etc.

Amenazas: son aquellas situaciones que provienen del entorno y que pueden

llegar a atentar incluso contra la permanencia de la organización.

ENFOQUE DEL MARCO LÓGICO

Es una herramienta analítica, desarrollada en 1969, para la planificación de la

gestión de proyectos orientados a procesos. Es utilizado con frecuencia por

organismos de cooperación internacional.

En el EML se considera que la ejecución de un proyecto es consecuencia de un

conjunto de acontecimientos con una relación causal interna. Estos se describen

en: insumos, actividades, resultados, objetivo específico y objetivo global. Las

incertidumbres del proceso se explican con los factores externos (o supuestos) en

cada nivel. Nivel oso De modo general, se hace un resumen del proceso de

desarrollo en una matriz que consiste en los elementos básicos arriba

mencionados, dicha matriz es conocida como la Matriz del Proyecto (MP) [a veces

es conocida como Matriz de Planificación].

Se denomina Matriz del Proyecto, de un programa o proyecto de desarrollo social,

a un documento que sintetiza:

El Objetivo General;

Los Objetivos Específicos;

Los Resultados Esperados;

Las Actividades necesarias para alcanzar dichos Resultados;

Los recursos necesarios para desarrollar las actividades;

Las limitantes externas del programa o proyecto;

Los indicadores medibles y objetivos para evaluar el programa o proyecto;

y,

El procedimiento para determinar los indicadores.

El concepto de marco lógico fue desarrollado originalmente por la USAID, agencia

de cooperación de Estados Unidos, a principios de los años 70 y posteriormente

adoptado, con algunas modificaciones, por la agencia de cooperación alemana

GTZ en su método de planificación de proyectos conocido como ZOPP. La

metodología es implementada actualmente por muchas agencias de cooperación

internacional. Se trata de un instrumento útil para que el equipo involucrado en un

proyecto de desarrollo llegue a un consenso sobre la concepción general del

proyecto o programa.

ARBOL DE PROBLEMAS

SOFTWARE

Equipos Desactualizados

Algunas Canaimas tienen Software

Privativo

Canaimitas con Gran cantidad de Imágenes

y Juegos

Manipulación de las Portátiles Canaima

por Terceros

Déficit Severo en el uso de las Portátiles Canaima

Sistemas Operativos Sobrecargados

Poseen Virus

ARBOL DE PROBLEMAS

HARDWARE

Canaimas con Cargadores

Dañados

Canaimitas que no poseen la Batería

Equipos con Piezas faltantes

Internamente

Falta de Mantenimiento

Inutilización de algunos Equipos

Equipos Dañados Inoperatividad de las Portátiles Canaima

ARBOL DE PROBLEMAS

PROYECTO CANAIMA EDUCATIVO

Docente de Aula no capacitado en

Proyecto Canaima Educativo

Programas de Grado Desactualizados

Inoperatividad de algunas Canaimas

Niños que no poseen sus Canaimitas

Deficiencias en la Ejecución del Proyecto Canaima Educativo

Posibilidad de que algunos Niños no reciban el Proyecto de Alfabetización de Manera Completa

Dificultades en el uso de las Portátiles Canaima

METODOLOGÍAS

UTILIZADAS

TÉCNICAS APLICADAS INSTRUMENTOS DE

RECOLECCIÓN DE DATOS

Investigación de Campo

Entrevista, Observación

Directa o Descriptiva,

Registro Fotográfico

Encuesta, Cuestionario, Vídeos,

Galería Fotográfica.

MATRIZ F.O.D.A.

FORTALEZAS OPORTUNIDADES DEBILIDADES AMENAZAS

Motivación de las y Alumnas y Alumnos

por aprender sobre el uso de sus Portátiles

Canaima.

Cantidad menor de Canaimas soló con

Cargadores Dañados.

Inoperatividad de las Canaimitas.

No impartir la Alfabetización a

todos los niños por igual.

Clases Esporádicas impartidas por la Docente de Aula.

Tendencia favorable por parte de la Docente de

Aula al ser también representante.

Docentes que no tienen conocimiento amplio de

como impartir los Programas Informáticos

de Grado.

No tener acceso a Internet.

Total disposición de la Docente de Aula

(Tutora Institucional) en cuanto a ideas de

beneficio a la Ejecución del

Proyecto.

Disponibilidad absoluta por parte del personal

Directivo de la Institución.

Inexperiencia en el uso de los equipos

Canaima.

No solucionar las deficiencias que presentan ciertas

Canaimitas.

PROYECTO SOCIOTECNOLÓGICO I

UNIDAD III

VALIDACIÓN DEL PROBLEMA CON LA INSTITUCIÓN O COMUNIDAD

GRUPO N° 5 SECCIÓN: I-INF-4M

INTEGRANTES: C.I.

ERICK FLORES 25.036.498

JEFFERSON ALFARO 25.087.093

ÁNGEL RAMOS 25.361.387

MARÍA CASTILLO 26.512.109

TUTOR INSTITUCIONAL:

MILAGRO VELÁSQUEZ

CIUDAD BOLÍVAR, 19 DE NOVIEMBRE DE 2014

Canaima Educativo es un Proyecto del Gobierno Bolivariano que tiene por

Objetivo apoyar la Formación Integral de las Niñas y los Niños, mediante la

dotación de una Computadora Portátil Escolar con Contenidos Educativos a los

Maestros y Estudiantes del Subsistema de Educación Primaria.

SI (X) NO

INSTITUCION EDUCATIVA:

UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ”

DEPENDENCIA:

NACIONAL (ESTATAL) MUNICIPAL PRIVADA OTRA

GRADO 5TO SECCION “A”

TODOS SUS ALUMNAS Y ALUMNOS TIENEN LA CANAIMITA?

SI NO (X)

EN CASO NEGATIVO: CUANTAS COMPUTADORAS PORTATILES FALTA EN

SU SECCION?

(2) 4 7 10 OTRO

TIENE USTED SU COMPUTADORA PORTATIL?

SI NO (X)

TODAS LAS CANAIMITAS TRABAJAN CON SOFTWARE LIBRE?

SI (X) NO

EN CASO NEGATIVO: CUANTAS TIENEN OTRO SISTEMA OPERATIVO?

2 4 6 9 OTRO

ESTAN ACTUALIZADAS CON EL CONTENIDO DEL GRADO QUE CURSAN?

SI (X) NO

TODAS TIENEN SUS BATERIAS??

SI (X) NO

TODAS LAS CANAIMITAS TIENEN SUS CARGADORES?

SI NO (X)

EL SALON TIENE FALLAS CON LA ELECTRICIDAD?

SI NO (X)

EL SALON CUENTA CON CONEXIÓN DE INTERNET?

SI NO (X)

EN CASO AFIRMATIVO COMO ES LA CALIDAD DE ESA CONEXIÓN?

REGULAR BUENA MUY BUENA

EN CASO NEGATIVO: QUE OCURRE CON LA CONEXIÓN DE INTERNET EN

SU AULA?

NO HAY, YA QUE EL PLANTEL NO CUENTA CON ACCESO A LA RED DE

INTERNET.

HIZO EL CURSO DE ACTUALIZACION DOCENTE DEL PROYECTO CANAIMA

EDUCATIVO?

SI NO (X)

USA Y MANEJA SOFTWARE LIBRE?

SI (X) NO

Los Contenidos Educativos, Aplicaciones y Funciones Son totalmente

Desarrollados en Software Libre?

SI (X) NO

EL OBJETIVO GENERAL DEL PROYECTO CANAIMA EDUCATIVO ES?

•Promover la formación integral de los niños y niñas venezolanos (as), mediante el

aprendizaje liberador y emancipador apoyado por las Tecnologías de Información

Libres. (SI)

•Promover el desarrollo integral de los niños y niñas en correspondencia con los

fines educativos. (SI)

•Profundizar la concreción del Desarrollo Curricular para la formación integral y

con calidad de los niños y niñas venezolanos. (SI)

•Transformar la praxis docente con el uso crítico y creativo de las Tecnologías de

Información Libres. (SI)

•Desarrollar las potencialidades en Tecnologías de Información Libres, para el

apoyo a los procesos educativos en pro de la soberanía y la independencia

tecnológica. (SI)

Las computadoras portátiles escolares quedan bajo resguardo de los planteles en

Gabinetes Móviles, en los cuales son cargadas sus baterías y transportadas hasta

los pupitres de las niñas y los niños

SI NO (X)

EN CASO NEGATIVO: EXPLIQUE COMO FUNCIONA EN SU SECCION.

LOS ALUMNOS SE LLEVAN SUS PORTÁTILES HASTA SUS HOGARES.

Mediante un dispositivo inalámbrico se conecta la computadora portátil escolar de

cada niña y cada niño con la computadora portátil del maestro, conformando una

Red Salón que le permite guiar y orientar el proceso de aprendizaje.

SI NO (X)

EN CASO NEGATIVO EXPLIQUE EL PROCESO

SE ORIENTA A LOS NIÑOS A QUE REFUERCEN LO ENSEÑADO, AL INDAGAR

EN LAS “ÁREAS DE APRENDIZAJE” Y RESOLVER LAS ACTIVIDADES QUE EN

ELLAS ESTÁN.

CUALES SON LAS CATEGORÍAS DE LOS CONTENIDOS EDUCATIVOS DE SU

GRADO?

PARA LA FAMILIA

GALERÍA.

LECTURAS SUGERIDAS.

VIDEOS.

PARA EL DOCENTE

LECTURAS SUGERIDAS

VIDEOS.

CARACTERIZACIONES.

GALERÍA.

PARA LOS ESTUDIANTES

CULTURA.

CIENCIA Y TECNOLOGIA.

DEPORTE Y RECREACIÓN.

CIENCIAS SOCIALES Y GEOHISTORIA.

LENGUAJE Y COMUNICACIÓN.

LA TAPARITA MÁGICA.

TIEMPO TRABAJANDO CON ESTE PROYECTO?

APROXIMADAMENTE 4 AÑOS.

QUE OPINA DE ESTE PROYECTO EN EL DESARROLLO DE SU LABOR

DOCENTE??

ES UN APORTE MUY IMPORTANTE NOS PROVEE DE HERRAMIENTAS QUE

SE PUEDEN DESARROLLAR EN PROCESO E-A DEL ESTUDIANTE: EN LA

MÚSICA, ACTUACIÓN, INVESTIGACIÓN ENTRE OTROS.

ESTA CONFORME CON LOS RESULTADOS?

SI (X) NO

LE PARECE INTERESANTE EL APOYO DEL PNF INFORMATICA IUTEB PARA

SOLUCIONAR ALGUNOS INCONVENIENTES?

SI (X) NO

BLOGS INDIVIDUALES

BLOG GRUPAL BLOG INSTITUCIONAL

http://arr3036.blogspot.com/ http://erickflores-inf-4m.blogspot.com/ http://jeffersonrafa12.blogspot.com/ http://marijocas17.blogspot.com/

http://pst1grupo5.blogspot.com/

http://eliutebenescuelafelipehernandez.blogspot.com/

VIDEOS PUBLICADOS

https://www.youtube.com/watch?v=V5xN5FIRPdg https://www.youtube.com/watch?v=xp2WzkDBclY https://www.youtube.com/watch?v=A0xXxKlDcw8 https://www.youtube.com/watch?v=UsH6cqAxDog