SlideShare una empresa de Scribd logo
1 de 86
Descargar para leer sin conexión
REPÚBLICA BOLIVARIANA DE VENEZUELA 
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA, CIENCIA Y TECNOLOGÍA 
INSTITUTO UNIVERSITARIO DE TECNOLOGÍA DEL ESTADO BOLÍVAR 
PROGRAMA NACIONAL DE FORMACIÓN EN INFORMÁTICA 
PROYECTO SOCIOTECNOLÓGICO I 
TRAYECTO I SEMESTRE 1 
AVANCE DEL SEMESTRE I 
GRUPO N° 5 SECCIÓN 4M-INF-I TURNO MAÑANA 
INVESTIGADORES: C.I. 
ERICK FLORES 25.036.498 
JEFFERSON ALFARO 25.087.093 
ÁNGEL RAMOS 25.361.387 
MARÍA CASTILLO 26.512.109 
CIUDAD BOLÍVAR, 02 DE DICIEMBRE DE 2014
NOMBRE DEL PROYECTO SOCIO-TECNOLÓGICO I 
Alfabetización Tecnológica en el Sistema Operativo Canaima a Las Alumnas, Alumnos y Docente de Aula del 5to Grado Sección “A” de la Unidad Educativa Estadal Bachiller “Felipe Hernández” Beneficiarios del Proyecto Educativo Canaima 
TUTORES DEL PROYECTO: 
TUTOR TÉCNICO: Jocenh Blanco 
TUTORA INSTITUCIONAL: Milagro Velásquez 
TUTORA ACADÉMICA: Msc. Carmen Díaz 
NOMBRE COMPLETO DE LA INSTITUCIÓN EDUCATIVA 
“Unidad Educativa Estadal Bachiller “Felipe Hernández” 
UBICACIÓN GEOGRÁFICA: 
DIRECCIÓN: Calle Carutal de Casanova Norte 
PARROQUIA: Marhuanta MUNICIPIO: Heres 
LOCALIDAD: Ciudad Bolívar ESTADO: Bolívar
GOOGLE MAPS 
PUNTOS DE REFERENCIAS DE LA INSTITUCIÓN ABORDADA: 
1.- Ambulatorio de Casanova Norte 
2.- Escuela Técnica Comercial “Juan Bautista Farrera” 
3.- Altura del Km 8
CAPITULO I 
EL PROBLEMA 
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON HARDWARE Y SOFTWARE 
HARDWARE 
SOFTWARE 
Equipos a los cuales no se les ha realizado Mantenimiento Correctivo. 
Programas Instalados Desactualizados. 
Algunos Equipos requieren cambio totalmente necesario de algunas de las Partes (Piezas) que lo conforman. 
Sistema Operativo de los Equipos en Condiciones Pésimas, debido a Archivos Maliciosos. 
EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABER SOFTWARE QUE AFECTA A LA INSTITUCIÓN: 
Gravedad que Presentan Los Sistemas Operativos de los Equipos de la Institución en su Funcionamiento. 
EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABERES HARDWARE QUE AFECTA A LA INSTITUCIÓN: 
Equipos de la Institución faltantes de Piezas en el Case. 
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON INFORMÁTICA Y TELEMÁTICA 
INFORMÁTICA 
TELEMÁTICA 
Sala de Computación en Condiciones Negativas. 
Inaccesibilidad a La Red Internet. 
Gran parte de los Equipos de Computación Inoperativos. 
No Cuenta con Red Salón
EL PRINCIPAL PROBLEMA INFORMÁTICO QUE AFECTA A LA INSTITUCIÓN: 
Inoperatividad de algunos Equipos de La Institución, debido a las Deficiencias que Presentan. 
EL PRINCIPAL PROBLEMA TELEMÁTICO QUE AFECTA A LA INSTITUCIÓN: 
Privación del Acceso a Internet. 
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON EL PROYECTO CANAIMA EDUCATIVO 
Desconocimiento por parte de los Alumnos, en cuanto a los Programas de Grado Instalados en las Canaimas. 
Ejecución Inadecuada del Soporte Técnico a ciertos Equipos, por parte de Organismos Encargados de ello. 
Canaimas con deficiencias en la parte del Hardware y Software. 
Canaimitas que no cuentan con Cargadores. 
Niños que no cuentan con una Portátil Canaima. 
Docente de Aula que no cuentan con los Conocimientos Necesarios de Canaima Educativo. 
EL PRINCIPAL PROBLEMA QUE AFECTA AL PROYECTO CANAIMA EDUCATIVO EN LA INSTITUCIÓN: 
Analfabetismo en el uso de las Canaimas por parte de Las Alumnas, Alumnos y La Docente de Aula del 5to Grado Sección “A”.
POSIBLES SOLUCIONES A ESTE PROBLEMA: 
1.- Incentivar a los Padres Representantes a llevar Las Canaimas con problemas de Hardware, a los distintos Organismos encargados de brindarle Soporte Técnico a Las Portátiles Canaima. 
2.- Diseñar una Metodología para que todos los Niños, además de la Docente de Aula, que no poseen Canaimitas puedan, de igual manera que los demás recibir, Los Instructivos de Alfabetización. 
3.- Solucionar los Inconvenientes de Software que tengan ciertos Portátiles Canaima. 
N° DE BENEFICIARIOS 
RECURSOS NECESARIOS 
FECHA PROBABLE DE EJECUCIÓN DEL PROYECTO 
37 Alumnos y la Docente de Aula. 
HUMANOS 
Tutor Técnico 
Tutor Institucional 
TÉCNICOS 
Integrantes del Grupo 5: 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Marzo de 2015 Aproximadamente. 
GRADO 
SECCIÓN 
TURNO 
5TO 
A 
MAÑANA 
N° DE CANAIMITAS 
OPERATIVAS 
NO OPERATIVAS 
35 TOTAL 
21 
14
CRONOGRAMA DE ACTIVIDADES REALIZADAS EN EL SEMESTRE I 
ACTIVIDADES 
FECHAS 
RESPONSABLES 
OBSERVACIONES 
Diagnóstico a la Institución Abordada 
29-09-2014 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Recolección de Datos en la Institución Asignada 
El Levantamiento de la Información 
08-10-2014 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Obtención de Datos e Inventarios a los Equipos de la Institución. 
Visitas a los Medios de Comunicación (Radio, Prensa y Televisión) para Invitar a la Realización del Diagnóstico Participativo 
06-10-2014 
08-10-2014 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Difusión de Notas de Prensa, Volantes, etc. para asistir al Diagnóstico Participativo. 
Diagnóstico Participativo en la Institución Asignada 
16-10-2014 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Identificar Fortalezas y Debilidades en la Ejecución del Proyecto así como sus Oportunidades y Amenazas. 
Visitas Organismos que Apoyan el Proyecto (CBIT, Infocentro, CGP, Biblioteca Virtual) 
12-11-2014 
14-11-2014 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Recolección de Datos en los Organismos que apoyan la Ejecución del Proyecto. 
Visita a la Institución Asignada Para Realización de la “Validación de la Comunidad” 
18-11-2014 
Erick Flores 
Jefferson Alfaro 
Ángel Ramos 
María Castillo 
Validación Final por parte de la Institución Educativa para la realización del Proyecto.
CAPITULO II 
MARCO TEÓRICO 
BASES TEÓRICAS DEL PROYECTO I 
SOFTWARE: Existen varias definiciones similares aceptadas para software, pero probablemente la más formal sea la siguiente: Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que forman parte de las operaciones de un sistema de computación. Considerando esta definición, el concepto de software va más allá de los programas de computación en sus distintos estados: código fuente, binario o ejecutable; también su documentación, los datos a procesar e incluso la información de usuario forman parte del software: es decir, abarca todo lo intangible, todo lo no físico relacionado. 
El término software fue usado por primera vez en este sentido por John W. Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de 1936, Los números computables, con una aplicación al problema de decisión. 
CLASIFICACIÓN DEL SOFTWARE 
Software de Sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, controlador, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye entre otros: 
 Sistemas operativos 
 Controladores de dispositivos 
 Herramientas de diagnóstico 
 Herramientas de Corrección y Optimización
Software de Programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluyen básicamente: 
 Editores de texto 
 Compiladores 
 Intérpretes 
 Enlazadores 
 Depuradores 
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI). 
Software de Aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre muchos otros: 
 Aplicaciones para Control de sistemas y automatización industrial 
 Aplicaciones ofimáticas 
 Software educativo 
 Software empresarial 
 Bases de datos 
 Telecomunicaciones (por ejemplo Internet y toda su estructura lógica) 
 Videojuegos 
 Software médico 
 Software de cálculo numérico y simbólico. 
 Software de diseño asistido (CAD) 
 Software de control numérico (CAM) 
PROCESO DE CREACIÓN DEL SOFTWARE 
Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr un producto software que resuelva un problema específico. El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (por ejemplo, la resolución de una ecuación de segundo orden), éste
puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) o costo: de pequeño, mediano y gran porte. Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y provee una aproximación de todos los costos de producción en un «proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.). Considerando los de gran porte, es necesario realizar complejas tareas, tanto técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica para tratar su estudio y realización: es conocida como Ingeniería de Software. En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-programador solitario (si fuere el caso). 
HARDWARE: El término hardware se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y la Real Academia Española lo define como Conjunto de los componentes que integran la parte material de una computadora. El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware. La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas. Un sistema informático se compone de una unidad central de procesamiento (UCP o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados. 
CLASIFICACIÓN DEL HARDWARE 
Una de las formas de clasificar el hardware es en dos categorías: por un lado, el básico, que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware
complementario, que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora. Necesita un medio de entrada de datos, la unidad central de procesamiento, la memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el hardware básico. Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora en la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos. Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada. 
La Unidad Central de Procesamiento: conocida por las siglas en inglés CPU, es el componente fundamental de la computadora, encargado de interpretar y ejecutar instrucciones y de procesar datos. En computadores modernos, la función de la CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a una CPU que es manufacturada como un único circuito integrado. Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina. Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica", como pueden ser: controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más. 
Placa Principal o Placa Base: es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses mediante los cuales se trasmiten los datos dentro y hacia afuera del sistema.
La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc. 
Las principales funciones que presenta una placa base son: 
• Conexión física 
• Administración, control y distribución de energía eléctrica 
• Comunicación de datos 
• Temporización 
• Sincronismo 
• Control y monitoreo 
Memoria RAM: La sigla RAM, del inglés Random Access Memory, literalmente significa memoria de acceso aleatorio. El término tiene relación con la característica de presentar iguales tiempos de acceso a cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta particularidad también se conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM es conocida como Memoria principal de la computadora, también como "Central o de Trabajo". A diferencia de las llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como discos duros, unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica. 
Periféricos: Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los periféricos son los que permiten realizar las operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80,
muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos. 
INFORMÁTICA: Se entiende como el resultado de los términos información y automatización. Trata de la concepción, realización y utilización de los sistemas para procesamiento de información. “INFORMÁTICA es la ciencia que estudia el tratamiento automático y racional de la información.” Se dice que el tratamiento es automático por ser máquinas las que realizan los trabajos de captura, proceso y presentación de la información, y se habla de racional por estar todo el proceso definido a través de programas que siguen el razonamiento humano. 
IMPORTANCIA DE LA INFORMÁTICA: Las computadoras son esenciales para enfrentar el reto de la competencia global, donde los negocios deben ser eficientes y sensibles a las necesidades y producir bienes y servicios de alta calidad a un costo siempre más bajo. Sin las computadoras, que proveen información precisa y actualizada necesaria para tomar decisiones estratégicas y administrar los procesos de producción, muchas compañías no podrían sobrevivir. Las computadoras utilizan información almacenada para construir simulaciones que van desde un simple análisis hasta ilustraciones realistas y animadas de nuevos productos. Esto permite predecir el efecto de las múltiples decisiones de negocios. Las computadoras ayudan a la gente a comunicarse, tanto directa como indirectamente. El mundo industrial no podrá vivir mucho tiempo sin computadores, está sometido a una sobrecarga de información y no podrá manejarlos sin ellos. Teniéndose en cuenta que los avances de la sociedad humana desde la aparición del alfabeto se han debido a su capacidad de registrar y conservar la información. 
LA INFORMÁTICA EN LA SOCIEDAD: Nuestros días se caracterizan por un explosivo, colosal y omnipresente desarrollo de la técnica, y su aplicación cada vez más extensa a todos los ámbitos de la vida humana. Sin duda alguna, el más significativo desarrollo tecnológico durante el último siglo, ha sido la construcción de computadoras de finalidades generales, capaces de hacer cosas que en el hombre se consideran como comportamiento inteligente. El desarrollo tecnológico alcanzado por el hombre a finales del siglo XIX y principios del XX, los conocimientos acumulados en las distintas ciencias como la Matemática, favoreció el surgimiento teórico de la construcción de las computadoras, materializado en la primera mitad de este siglo. La computadora es una máquina capaz de realizar una gran cantidad de cálculos aritméticos y procesos de control a una gran velocidad (procesos repetitivos y tediosos que desgastan al hombre). La computadora es una de las herramientas más poderosas de la sociedad actual. La computación es el método idóneo para facilitar el registro, la elaboración y
procesamiento de la información, así como los cálculos matemáticos para su análisis y para lograr la adopción de decisiones. En todos los sentidos la computación constituye una herramienta que ayuda a resolver los problemas que se presentan y esta ayuda no puede ni debe ser subestimada. Las nuevas tecnologías de la información han permitido la rápida difusión de los conocimientos científicos, contribuyendo sin lugar a dudas a la introducción de nuevas técnicas en el desarrollo de la producción material y los servicios. Las grandes redes de computadoras y las novedosas tecnologías en las telecomunicaciones permiten hoy en día que la información pueda circundar el mundo a altas velocidades. Es indiscutible que el desarrollo de determinadas ramas de las ciencias, en particular la electrónica, ha revolucionado en unos pocos años la construcción de las computadoras, permitiendo su introducción vertiginosa en prácticamente todas las esferas de la vida del hombre moderno. Tal es la influencia de la informática en la actualidad, que es popular decir que vivimos en "LA ERA DE LA INFORMACIÓN", donde el poder personal o de un país se mide en cierta forma por la cantidad de información que posea. Un dato que no es posible pasar por alto es el incremento de la industria informática. Ya no sólo se automatiza la producción, sino también la transferencia de conocimientos científicos a la producción y se produce en cierto sentido la automatización del proceso de obtención de nuevos conocimientos. 
TELEMÁTICA: La Telemática es una disciplina científica y tecnológica, originada por la convergencia entre las tecnologías de las telecomunicaciones y de la informática. Algunas de las aplicaciones de la telemática podrían ser cualquiera de las siguientes: 
 Cualquier tipo de comunicación a través de internet (como por ejemplo el acceso a páginas web o el envío de correos electrónicos) es posible gracias al uso de las tecnologías desarrolladas en este ámbito. 
 El uso de las mensajerías instantáneas está directamente relacionado con la telemática, ya que esta materia se encarga en parte de controlar ese intercambio de mensajes entre dos entidades distintas. 
 Los sistemas GPS (Global Positioning System). 
La telemática cubre un campo científico y tecnológico de una considerable amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y servicios de comunicaciones, para el transporte, almacenamiento y procesado de cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y diseño de tecnologías y sistemas de conmutación. La telemática abarca entre otros conceptos los siguientes planos funcionales:
 El plano de usuario, donde se distribuye y procesa la información de los servicios y aplicaciones finales. 
 El plano de señalización y control, donde se distribuye y procesa la información de control del propio sistema, y su interacción con los usuarios; 
 El plano de gestión, donde se distribuye y procesa la información de operación y gestión del sistema y los servicios, y su interacción con los operadores de la red. 
Cada uno de los planos se estructura en subsistemas denominados entidades de protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos niveles son agrupaciones de funcionalidad, y según el modelo de interconexión de sistemas abiertos (modelo OSI) de la Organización Internacional de Normalización (ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de aplicación. Trata también servicios como la tele-educación, el comercio electrónico (e-commerce) o la administración electrónica (e-government), servicios Web, TV digital, la conmutación y la arquitectura de conmutadores, y también toca temas como el análisis de prestaciones, modelado y simulación de redes: optimización, planificación de la capacidad, ingeniería de tráfico y diseño de redes. Otra modalidad es encontrarla focalizada en una actividad específica como telemática educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la Educación; entre ellos la comunicación interactiva, la distribución de la información y el uso pedagógico de los servicios. 
ORIGEN DEL TÉRMINO: El término telemática se acuñó en Francia (télématique). En 1976, en un informe encargado por el presidente francés y elaborado por Simon Nora y Alain Minc (conocido como informe Nora-Minc y distribuido por el título: Informatización de la Sociedad), en el que se daba una visión increíblemente precisa de la evolución tecnológica futura. Pero al igual que en Francia, en los países anglosajones también existe la disciplina telemática, la cual es denominada como Computer and Communications (del inglés: ‘Ordenador y Comunicaciones’) o Compunication (concepto acuñado por Wen Gao1 en su artículo Compunication: From Concept to Practice2). No obstante hay matices claves a distinguir entre los dos términos. Para aclarar esto, conviene situarse en el contexto de la época: por una parte Francia, que ponía claro énfasis en las telecomunicaciones como motor de su transformación social en los 70's, mientras que Estados Unidos estaba viviendo una gran revolución de la informática. Así, Compunication (computadores + comunicación) apunta a un modelo con mayor relevancia de los sistemas informáticos; telemática (télématique) por su parte, refiere a un mayor énfasis en la telecomunicación en sí. En la actualidad, esta
diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica ha convergido por completo a nivel mundial, para formar un único cuerpo de conocimiento bien establecido. Naciendo de esta forma el actual significado de la telemática. 
SOFTWARE LIBRE: Es la denominación del software que respeta la libertad de todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido libremente de varias formas. Según la Free Software Foundation, el software libre se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar el software, e incluso modificarlo y distribuirlo modificado. Un programa es software libre si otorga a los usuarios todas estas libertades de manera adecuada. De lo contrario no es libre. Existen diversos esquemas de distribución que no son libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser libres, nosotros los consideramos contrarios a la ética a todos por igual. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a software gratuito (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente (software comercial). Análogamente, el software gratis o gratuito incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con software de dominio público. Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. 
VENTAJAS DEL SOFTWARE LIBRE 
 Escrutinio Público: Al ser muchos las personas que tienen acceso al código fuente, eso lleva a un proceso de corrección de errores muy dinámico, no hace falta esperar que el proveedor del software saque una nueva versión. 
 Independencia del proveedor: Al disponer del código fuente, cualquier persona puede continuar ofreciendo soporte, desarrollo u otro tipo de servicios para el software. No estamos supeditados a las condiciones del mercado de nuestro proveedor, es decir que si este se va del mercado
porque no le conviene y discontinua el soporte, nosotros podemos contratar a otra persona. 
 Traducción: cualquier persona capacitada puede traducir y adaptar un software libre a cualquier lengua. 
 Corrección ortográfica y gramatical: una vez traducido el software libre puede presentar errores de este tipo, los cuales pueden ser subsanados con mayor rapidez por una persona capacitada. 
 Mayor seguridad y privacidad: Los sistemas de almacenamiento y recuperación de la información son públicos. Cualquier persona puede ver y entender cómo se almacenan los datos en un determinado formato o sistema. Existe una mayor dificultad para introducir código malicioso como ser: espía (p/ej. Capturador de Teclas), de control remoto (p/ej. Troyano), de entrada al sistema (p/ej. puerta trasera), etc. 
 Garantía de continuidad: el software libre puede seguir siendo usado aun después de que haya desaparecido la persona que lo elaboro, dado que cualquier técnico informático puede continuar desarrollándolo, mejorándolo o adaptándolo. 
 Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro grandes costos: de adquisición, de implantación (este a su vez se compone de costos de migración y de instalación), de soporte o mantenimiento, y de interoperabilidad. El software libre principalmente disminuye el costo de adquisición ya que al otorgar la libertad de distribuir copias la puedo ejercer con la compra de una sola licencia y no con tantas como computadoras posea (como sucede en la mayoría de los casos de software propietario). Cabe aclarar que también hay una disminución significativa en el costo de soporte, no ocurriendo lo mismo con los costos de implantación y de interoperabilidad. 
DESVENTAJAS DEL SOFTWARE LIBRE 
Si observamos la situación actual, es decir la existencia mayoritaria de Software Propietario, tenemos: 
 Dificultad en el intercambio de archivos: esto se da mayormente en los documentos de texto (generalmente creados con Microsoft Word), ya que si los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos da error o se pierden datos. Pero está claro que si Microsoft Word creara sus documentos con un formato abierto (o público) esto no sucedería.
 Mayores costos de implantación e interoperabilidad: dado que el software constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de instalación, de migración, de interoperabilidad, etc., cuya cuantía puede verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución sería instalar alguna distribución de GNU/Linux y luego un emulador de Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el costo de migración está referido al software, ya que en lo que hace a Hardware generalmente el Software Libre no posee mayores requerimientos que el Software Propietario. 
TIPOS DE LICENCIAS: Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias: 
 Licencias GPL: Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL. Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL. En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL. En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.6 Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL o de manejo.
 Licencias AGPL: La Licencia Pública General de Affero (en inglés Affero General Public License, también Affero GPL o AGPL) es una licencia copyleft derivada de la Licencia Pública General de GNU diseñada específicamente para asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red. La Affero GPL es íntegramente una GNU GPL con una cláusula nueva que añade la obligación de distribuir el software si éste se ejecuta para ofrecer servicios a través de una red de ordenadores. La Free Software Foundation recomienda que el uso de la GNU AGPLv3 sea considerado para cualquier software que usualmente corra sobre una red.7 
 Licencias Estilo BSD: Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite"). 
 Licencias Estilo MPL y Derivadas: Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos
puntos que no fueron tomados en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada. 
ALFABETIZACIÓN TECNOLÓGICA EN SOFTWARE LIBRE: Es el estado de derecho que tenemos todos los venezolanos para acceder a los avances tecnológicos en comunicaciones, consagrado constitucionalmente en el artículo 3 de nuestra carta magna, anteriormente esto no era posible pues los software de computadora eran privados y quien quería hacer uso de los mismos tenía que pagar un costo monetario muy elevado, por lo que el gobierno consiguió regular su funcionamiento aunó más accesible para todos sin discriminación de ningún tipo. En la actualidad el entorno social, económico y cultural que rodea al ser humano evoluciona de una manera estrepitosa. La revolución de la tecnología informática, ha provocado una transformación radical de las formas de producción, difusión y consumo del conocimiento y la cultura. La aparición de nuevas tecnologías tales como son: La televisión digital y de paga, la introducción de las Pc"s en los hogares, el acceso a Internet (red mundial de información), telefonía móvil están provocando nuevas necesidades formativas y de conocimiento en los ciudadanos. Es claro, que las personas de hoy, requieren de nuevas habilidades y conocimientos para poder desarrollarse en el mundo contemporáneo. Se ha puesto mucho énfasis a la alfabetización convencional en las escuelas, pero hoy se llega a saber que hay múltiples alfabetizaciones. Sabemos que el concepto de alfabetización se refiere al hecho de saber leer y escribir, pero la alfabetización tecnológica es el saber "leer y escribir" pero con la computadora, además de entender y utilizar la información para apoyar el aprendizaje, la productividad personal, la toma de decisiones y la vida diaria. En otras palabras, la alfabetización tecnológica es desarrollar los conocimientos y habilidades tanto instrumentales como cognitivas en relación con la información vehiculada a través de nuevas tecnologías (manejar el software, buscar información, enviar y recibir correos electrónicos, utilizar los distintos servicios de WWW, etc.), además plantear y desarrollar valores y actitudes de naturaleza social y política con relación a las tecnologías. 
PRINCIPIOS Y VALORES QUE ORIENTAN LA ALFABETIZACIÓN TECNOLÓGICA 
La alfabetización tecnológica, tiene como principio fundamental el dar educación y conocimiento a los venezolanos del uso adecuado y veras de la tecnología como herramienta de desarrollo social y productivo, de demostrar y dar a entender que hay principios de igualdad y libertad, como lo dictan los principios fundamentales de la Constitución de la República Bolivariana de Venezuela, que definen al Estado Venezolano como "Democrático y Social, de Derechos y de Justicia que
propugna como valores superiores: la vida, la libertad, la justicia, la igualdad, la solidaridad, la democracia, la responsabilidad individual y social, la preeminencia de los derechos humanos, la ética pública y el pluralismo político. Los cuales tienen como sus fines esenciales (art. Nº 3) "la defensa y el desarrollo de la persona y el respecto a su dignidad, la profundización del ejercicio democrático de la voluntad popular, la construcción de una sociedad justa, solidaria amante de la paz y garante del cumplimiento de los principios derechos y deberes asumiendo el principio de equidad como nuevo orden de justicia social y base material de la sociedad venezolana." En la Constitución de la República Bolivariana de Venezuela propugna como elementos fundamentales la Educación y el Trabajo para la construcción de la nueva República sobre la base de la justicia social el desarrollo endógeno, la democracia participativa y la soberanía nacional. Esto define que los valores que orientan a la alfabetización tecnológica, no son otros que el de que los principios de igualdad y justicia social para el desarrollo del país. 
DECRETO 3390 
El referido decreto, nos habla de los planes y acciones que toma el gobierno de la República Bolivariana de Venezuela, para la implementación de software libre en los sistemas de la administración pública y en la sociedad, a través de la capacitación de los funcionarios públicos y usuarios, para el manejo y uso de estos mediante acciones conjuntas del Ministerio de Educación y Deporte y el Ministerio de Ciencia y Tecnología, promoviendo la cooperación internacional en asuntos que refiere la materia. Así como también, de fomentar y dar apoyo al desarrollo de software libre con estándares abiertos bajo incentivos especiales a los desarrolladores de los mismos. 
PLAN NACIONAL DE ALFABETIZACIÓN TECNOLÓGICA: El programa básico del Plan Nacional de Alfabetización Tecnológica es un curso introductorio al conocimiento del hardware y software del computador, uso, utilidad y la importancia de las Tecnologías de Información y Comunicación (TIC) para el desarrollo científico e integral del país y también para la soberanía e independencia tecnológica. Va dirigido A Personas adultas y a estudiantes en general pertenecientes a los diferentes niveles de Educación y a las Misiones y comunidad en general. Ya que la Persona que lo desee aun cuando nunca haya tenido contacto con un equipo de computación. 
El curso consta de (5) cinco módulos con una duración de 20 horas académicas, es de carácter presencial por lo que la asistencia a cada una de las unidades es imprescindible para su aprobación.
 Unidad I: Conociendo el computador. Identificación del hardware y el software. al igual identificar, sus dispositivos y aplicar el proceso adecuado de las funciones. 
 Unidad II: Alfabetización Tecnológica para el ejercicio de ciudadanía. Esta unidad constituye el eje transversal del curso porque permite la articulación entre el conocimiento y la práctica en (TIC) y su importancia para el desarrollo integral del país. 
 Unidad III: Uso básico del computador. Encendido y apagado del computador, definición del sistema operativo Linux, ingreso a Linux, elementos de la interfaz gráfica, funciones del programa nautilus, cambio de apariencia de Linux, funciones del menú aplicaciones y acciones y distintas operaciones de directorios y archivos. 
 Unidad IV: Programas de aplicación en Linux. Procedimiento para abrir el programa OpenOfficeWriter, conocer la pantalla principal, procedimiento para crear y cerrar un documento, insertar, seleccionar y dar formato a un texto, copiar, cortar, pegar y mover textos, crear tablas, abrir y cerrar presentaciones, diseñar e insertar diapositivas, insertar objetos, ver presentaciones, etc. 
 Unidad V: Internet Básico. Definición de Internet, principales usos de la red, definición de la www. Navegadores, los buscadores, página Web, correo electrónico: partes de un mensaje, redacción de una dirección de correo, nombre de buzón y dominio de una dirección de correo. 
En los Infocentros se imparten cursos y talleres de Alfabetización tecnológica (GRATUITOS), bajo un Margen y/o Lapso de una (1) semana, que está distribuidos en cinco días (5), en donde está representado entre las modalidades Matutino y Vespertino, ya que ambos turnos están comprendidos por (3) tres horas diarias. Cabe mencionar que las capacitaciones en base al Plan Nacional de alfabetización tecnológica “P.N.A.T”, se dicta de manera intensiva en todos los Infocentros del país y a su vez en otros espacios comunitarios que estén destinados a la formación de este plan que está regido por el decreto #3390 de los Estándares Abiertos de Migración de Software Libre. 
SOPORTE TÉCNICO A USUARIAS Y USUARIOS: Es el nivel de soporte inicial, responsable de las incidencias básicas del cliente. Es sinónimo de soporte de primera línea El principal trabajo de un especialista de es reunir toda la información del cliente y determinar la incidencia mediante el análisis de los síntomas y la determinación del problema subyacente. Cuando se analizan los síntomas, es importante para el técnico de soporte identificar qué es lo que el
cliente está intentando llevar a cabo de forma que no se pierda tiempo intentando resolver un síntoma en lugar de un problema. Una vez que se ha logrado identificar el problema subyacente, el especialista puede comenzar a prestar la verdadera asistencia iterando de forma ordenada sobre el catálogo de posibles soluciones disponibles. Los especialistas de soporte técnico en este grupo habitualmente manejan problemas simples de resolución sencilla, posiblemente haciendo uso de algún tipo de herramienta de gestión del conocimiento. Esto incluye métodos de resolución de problemas como la verificación de incidencias en las líneas físicas, resolución de problemas de usuario y contraseña, instalación/reinstalación básica de aplicaciones software, verificación de configuración apropiada de hardware y software, y asistencia mediante la navegación de menús de aplicación. El personal a este nivel tiene un conocimiento entre básico y general del producto o servicio y no siempre ha de tener la competencia necesaria para resolver problemas complejos. No en vano, el objetivo de este grupo es manejar entre el 70-80 % del de los problemas del usuario antes de concluir en la necesidad de escalar la incidencia a un nivel superior. En algunos sectores, el soporte de 1.er nivel en realidad requiere muy buen conocimiento de los productos y de los términos y condiciones ofrecidas por el negocio más allá de los conocimientos técnicos propiamente dichos. Este es el nivel básico de soporte técnico. Los conocimientos con los que cuenta son: Formateo de computadoras, instalación de paquetería y cambios de piezas de computadoras. Existen diferentes tipo de soporte técnico que se pueden realizar a los usuarios entre estos encontramos los siguientes: 
 Soporte Técnico Presencial: Es aquella asistencia que se proporciona a cualquier usuario que presente un desperfecto, anomalía, daño o problema en su computadora. Se proporciona al hardware y software en el lugar donde se encuentre el equipo de cómputo. Consiste en que haya contacto entre el técnico y la computadora a reparar. 
 Soporte Técnico A Distancia: Consisten en una asistencia que se proporciona a cualquier usuario para su equipo de cómputo a largas distancias a través de línea telefónica, internet o cualquier otro tipo de contacto. 
 En Línea: es el que se da a través de correos electrónicos, chat, páginas web, etc. para ayudar a un usuario a resolver sus problemas diciéndole como lo debe de hacer paso por paso para que el problema se resuelva correctamente.
 Asistencia Telefónica: este es el más común, es el que mayormente ponen en práctica las empresas. 
SOPORTE TÉCNICO A EQUIPOS El Soporte Técnico a Equipos es una serie de Servicios que Proporcionan Asistencia con el Hardware o el Software de un Equipo, como los Portátiles, Computadores de Escritorio, Periféricos de Computador e Impresoras. Los Servicios de Soporte Técnico a Equipos tratan de resolver determinados problemas propios del Hardware o Software, que se encuentran fuera de la posibilidad de solucionarlos el Usuario aun con Asistencia Especializada. 
SISTEMA OPERATIVO CANAIMA: Canaima es una distribución GNU/Linux Venezolana basada en Debian surgida como consecuencia del Decreto Presidencial 3.3901 sobre el uso de Tecnologías Libres en la APN Venezolana, promulgado por el Presidente Hugo Chávez Frías. El 14 de marzo de 2011 en la Gaceta Oficial Nº 39.633. 
Características Principales: 
 Totalmente desarrollada en Software Libre. 
 No está limitada al uso en la APN, sino que puede ser usado por cualquier persona. 
 Se encuentra equipado con herramientas ofimáticas 
 Permite la interacción con Internet, a través de su navegador web, gestor de correo electrónico y aplicaciones para realizar llamadas telefónicas por la red. 
 Es estable y segura, basada en la versión estable de GNU/Linux Debian, la cual pasa por una serie de procesos y pruebas rigurosas de calidad. 
 Realizada en Venezuela por talento nacional. 
SOFTWARE INCLUIDO 
Escritorio de Canaima GNU/Linux 2.0: Como otras distribuciones, Canaima GNU/Linux posee aplicaciones diversas para llevar a cabo tareas de ofimática, entretenimiento, desarrollo y configuración de todo el sistema. Su interfaz predeterminada es GNOME. Existen otras versiones extraoficiales mantenidas por la comunidad, con diferentes escritorios, como XFCE.
OFIMÁTICA: 
Suite de Oficina LibreOffice, con los siguientes módulos: 
 Procesador de textos 
 Hoja de cálculo 
 Generador de Presentaciones 
 Generador de fórmulas matemáticas y software de dibujo 
 Gestión de proyectos: Planner 
 Editor de HTML.: Siguiendo la tendencia impuesta por otras organizaciones que realizan distribuciones GNU/Linux, desde la versión 3, LibreOffice sustituyó a OpenOffice.org y a partir de la versión 3.1 deja de ser incorporado el gestor de base de datos de esta suite de oficina. 
INTERNET: 
 Navegador web: Cunaguaro,7 basado en Iceweasel, presente desde la versión 3.0 de Canaima y que sustituye al navegador Curiara. 
 Cliente de correo electrónico: Guácharo.8 
 Cliente de mensajería instantánea: Pidgin.9 
 Cliente Twitter: Turpial.10 
GRÁFICOS: 
 Libreoffice Draw. 
 GNU Paint. 
 Editor de diagramas Dia. 
 Gimp 
 Inkscape 
 Visor de cámara Web Cheese. 
 Shotwell Photo Manager. 
 Software de escaneo de imágenes Xsane.
PROGRAMACIÓN: 
 Quanta Plus. 
 Eclipse. 
 Anjuta: Entorno de desarrollo integrado para programar en los lenguajes de programación C, C++, Java, Python y Vala, en sistemas GNU/Linux y BSDen los lenguajes C, C++, Java y Python, en sistemas GNU/Linux. 
PROYECTO CANAIMA EDUCATIVO: El Proyecto Canaima Educativo es un proyecto desarrollado por el Gobierno de la República Bolivariana de Venezuela con el objetivo de garantizar el acceso de los venezolanos y las venezolanas a las Tecnologías de información, mediante: 
 La dotación de una computadora portátil a los estudiantes y los docentes de las escuelas nacionales, estadales, municipales, autónomas y las privadas subsidiadas por el Estado. 
 La conexión de escuelas a la red de Internet. 
 La formación para el buen uso de estas tecnologías. 
OBJETIVOS DEL PROYECTO CANAIMA EDUCATIVO 
 Objetivo General: Promover la formación integral de los niños y niñas venezolanos (as), mediante el aprendizaje liberador y emancipador apoyado por las tecnologías de información libres. 
 Objetivos Específicos: 
1) Promover el desarrollo integral de los niños y niñas en correspondencia con los fines educativos. 
2) Profundizar la concreción del desarrollo curricular para la formación integral y con calidad de los niños y niñas venezolanos. 
3) Transformar la praxis docente con el uso crítico y creativo de las Tecnologías de Información Libres. 
4) Desarrollar las potencialidades en Tecnologías de Información Libres, para el apoyo a los procesos educativos. 
El Proyecto está desarrollado bajo software libre, desde la elaboración del Sistema Operativo y de contenidos educativos 100% venezolanos. Se mani-esta en dos modalidades: “Canaima va a la escuela” realizada en 1er grado bajo el sistema de
red salón y “Canaima va a mi casa” desde 2do grado a 6to grado del Nivel de Educación Primaria. 
CANAIMITAS: El Computador Portátil Canaima Educativo, Dirigido a Estudiantes, Es un Equipo creado con el propósito de ser utilizado por Niños y Niñas en Edad Escolar. Por su Tamaño, Peso y Autonomía de Uso, es Ideal para el Aula de Clases. Cuentan con un Procesador Intel Mobile y Tarjeta de Red con Tecnología Wi-fi, lo cual hace posible que se Conecten Inalámbricamente a Internet. También incluyen Cámara Web, Sonido Estéreo, Parlantes, Micrófono Incorporado y una Batería de larga Duración, La cual misma varía según el Modelo del Equipo. Adquiridas en convenio con Portugal, Desde el año 2011 en Venezuela, se Ensamblan Computadoras Canaimas en el Complejo Tecnológico Simón Rodríguez, Ubicado en el Municipio Baruta del Estado Miranda, al igual que en el Complejo Tecnológico Simón Bolívar, Ubicado en La Carlota (Caracas) y así muchos otras Instalaciones que se encuentran en todo el País. Se han entregado cinco modelos de computadora a alumnos y profesores, con las características que se detallan: 
CANAIMA 1 
 Portátil Magallanes Canaima MG10T 
 Procesador: Intel Atom N270 1600MHz 
 Memoria RAM: 1 GB. 
 Disco duro: 40GB de 2,5” 
 Monitor: TFT de 7” 
 Webcam. 
 3 puertos USB. 
 Lector y grabador de para memorias Secure Digital. 
 Sistema Operativo: Canaima GNU/Linux. 
CANAIMA 2 
 Portátil Magallanes Canaima MG10T 
 Procesador: Intel Atom N270 1600MHz 
 Memoria RAM: 2 GB.
 Disco duro: 160GB 2.5” 
 Monitor: TFT de 7” 
 Webcam. 
 3 puertos USB. 
 Lector y grabador de para memorias Secure Digital. 
 Sistema Operativo: Canaima GNU/Linux. 
CANAIMA 3.1 
 Procesador: Intel celeron N455 1660MHz 
 Memoria RAM: 1GB ddr3. 
 Disco duro: 300 GB 2,5” 
 Monitor: LED 10.1” 
 Tarjeta de red: según la norma 802.11 B/G 
 Webcam de 0,3 Megapíxeles. 
 Batería de 3 celdas 
 3 puertos USB. 
 Lector y grabador de para memorias Secure Digital. 
 Sistema Operativo: Canaima GNU/Linux. 
CANAIMA 4 
 Portátil Magalhaes 5 Canaima XL 
 Procesador: Intel® Celeron(R) CPU 847 @ 1.10GHZ 
 Memoria RAM: 2GB 
 Disco duro: Samsung HDD 250GB HM251HI 
 Monitor: TFT 11.6” 
 Webcam: Bison BN1RM6YKU-320(1.0M HD)
 3 puertos USB 
 Lector y grabador de para memorias Secure Digital 
 Sistema Operativo: Canaima GNU/Linux 
CANAIMA DOCENTE 
 Portátil Magallanes Canaima MG3 Canaima XL 
 Procesador: Intel Atom N455 1660MHz 
 Memoria RAM: 1GB DDR3. 
 Disco duro: 250 GB 2,5” 
 Tarjeta de red: según la norma 802.11 B/G/N. 
 Monitor: 11.6” 
 Webcam de 0,3 Megapixeles. 
 Batería de 3 celdas. 
 Botón de inicio: Launch Button X 2 
 3 puertos USB. 
 Lector y grabador de para memorias Secure Digital. 
 Sistema Operativo: Canaima GNU/Linux. 
CANAIMA DOCENTE VIT D2100 
 Computadora Portátil VIT D2100. 
 Procesador: Intel Core Duo T8100. 
 Disco duro: 80 GB. 2.5” SATA. 
 Tarjeta de red: según la norma 802.11 B/G/N. 
 Monitor: TFT 14.1” WXGA (1280×800) 
 3 puertos USB. 
 Adaptador de corriente.
 Batería removible de 6-celdas con capacidad de 4000mAh o 4400mAh 
CANAIMA DOCENTE VIT M2400 
 Computadora Portátil VIT M2400 
 Procesador: Intel Core Duo FSB800 2.1GHZ. 
 Disco duro: 560GB SATA de 5400 RPM. 
 Memoria: 2GB DDR2. 
 Tarjeta de red: según la norma 802.11 B/G/N. 
 Monitor: TFT 14.1” (1280×800) 
 3 puertos USB. 
 Batería removible de 6-celdas con capacidad de 4000mAh. 
VINCULACIÓN DEL PROYECTO CON EL PLAN DE LA PATRIA 2013 – 2019 
OBJETIVOS HISTÓRICOS 
OBJETIVOS NACIONALES 
OBJETIVOS ESTRATEGICOS 
I.- Defender, Expandir y Consolidar el bien más preciado que hemos reconquistado después de 200 años: la Independencia Nacional. 
1.5- Desarrollar nuestras capacidades Científico- Tecnológicas vinculadas a las necesidades del Pueblo. 
1.5.1 – 1.5.1.1 – 1.5.1.2 – 1.5.1.3 – 1.5.1.4 – 1.5.2.1 – 1.5.3 – 1.5.3.1 – 1.5.3.3 
III.- Convertir a Venezuela en un País Potencia en lo Social, lo Económico y lo Político dentro de la Gran Potencia Naciente de América Latina y el Caribe, que garanticen la conformación de una Zona de Paz en Nuestra América. 
3.4- Profundizar el Desarrollo de la nueva Geopolítica Nacional y Regional, Latinoamericana y Caribeña. 
3.4.12.11- Incorporar los Nuevos Desarrollos y las Zonas Sin Servicio a la Red de Telecomunicaciones, para asegurar el Acceso a Telefonía, Televisión e Internet.
CAPITULO III 
MARCO METODOLÓGICO 
METODOLOGÍA DE CAMPO 
Es el proceso que, utilizando el método científico, permite obtener nuevos conocimientos en el campo de la realidad social. O bien, estudiar una situación para diagnosticar necesidades y problemas a efectos de aplicar los conocimientos con fines prácticos). 
La investigación de campo corresponde a un tipo de diseño de investigación, para la cual Carlos Sabino (S/f) en su texto "El proceso de Investigación" señala que se basa en informaciones obtenidas directamente de la realidad, permitiéndole al investigador cerciorarse de las condiciones reales en que se han conseguido los datos. 
En otras palabras, el investigador efectúa una medición de los datos. Sin embargo, qué tanto datos se pueden obtener considerando las restricciones de cada estudio como por la carencia de recursos materiales, humanos, monetarios, físicos. 
Sabino señala en el texto referido, algunos tipos de diseño empleados con frecuencia, estos son: 
 Diseño experimental: consiste en someter el objeto de estudio a variables, condiciones controladas y conocidas por el investigador para observar los resultados que cada variable ejerce sobre el objeto bajo estudio. No aplica para estudios sociales. 
 Diseño post – facto: consiste en que le investigador realice una prueba donde no controla ni regula el entorno se efectúa posterior a los hechos. 
 Diseño encuesta: consiste en preguntar de forma directa y simple a determinadas personas representativas de la población bajo estudio, para conocer su comportamiento. Aplica para ciencias sociales. 
 Diseño panel: consiste en encuestas repetidas que se aplica a una misma muestra para observar la evolución, efectuándose en lapsos prefijados y regulares. Sin embargo, la progresiva reducción de la muestras por diversas causas (fatiga, traslado, etc.,) ocasiona que el error muestral se
incrementa progresivamente afectando negativamente la calidad de los resultados. 
 Diseños cualitativos: trata de recuperar para el análisis, parte de la complejidad del sujeto, modo de ser y hacer en el medio que lo rodea, lo subjetivo. 
 Estudio de Casos: consiste en profundizar el estudio en uno o varios objetos de investigación. 
METODOLOGÍA 
1. Concebir la Idea a Investigar: La interacción constante con el ambiente nos permite observar situaciones que a menudo despiertan una serie de interrogantes. Por ejemplo, en la práctica de enfermería podemos observar que la mayoría de pacientes prefiere la atención de determinadas enfermeras. Ante esto, surgen inevitablemente preguntas como: 
 ¿Por qué prefieren a "fulanita" para que los atienda? 
 ¿Cuál es la calidad de la atención que proporcionarnos las demás enfermeras? 
 ¿La calidad de la atención tiene que ver en la recuperación del paciente? 
 Son muchas las interrogantes que el investigador se plantea a la hora de elegir un tema de investigación. 
 Lo primero es ¿Qué investigar? Aunque esta interrogante parece fácil, no lo es. En el mundo complejo donde el investigador se mueve, existe un universo de problemas que solo el deberá descifrar. 
 El primer problema será entre varias alternativas, es decir, establecer prioridades al momento de enfrentarse con lo que de ahora en adelante, se llamara: objeto de investigación, problema de investigación o tema de investigación. 
 El investigador deberá seleccionar aquel problema que responda a muchas condiciones propias a él, como se explican a continuación: Objetividad: Escogerá el problema y lo investigara lo más objetivamente posible, tratando que lo subjetivo no intervenga a priori, para así no distorsionar la investigación y aunque es un tanto difícil desprenderse de esa subjetividad, debe procurar hacerlo. Ello no significa el desprendimiento total de ello, por cuanto a la hora de analizar e interpretar los datos, producto de la recogida
de la información por diferentes técnicas de recolección de datos, esa información requerirá de la capacidad de interpretación del investigador, para así determinar los logros que se pretenden alcanzar, cuando utiliza los referentes empíricos (datos, hechos) y que el mismo deberá identificar dentro del proceso de investigación. 
 Agrado del tema: Es parte del éxito de la investigación. Cuando el tema no es de agrado, existirá una predisposición a que todo lo que vaya a hacer le salga mal, hay desaliento, no hay motivación. Por ello es recomendable que el investigador se compenetre con el objeto, como si se tratara de un matrimonio del sujeto con el objeto. 
 Conocimientos previos sobre el tema: Es importante que investigador sea una persona que tenga hábitos de lectura. Esta constancia le permitirá ser conocedor del problema que va a someter a investigación. No es lo mismo partir de la nada que con un conocimiento previo del tema objeto de estudio, pues ello será importante como fuente de información general y así el podrá comparar y determinar cuáles serán las fuentes principales de la investigación. 
 Apoyo documental o bibliográfico: Es la condición que permitirá brindarle el mayor soporte para lo que se pretende investigar. El material de apoyo significa que el tema ha sido estudiado por otros autores, pero con variables distintas y de ser coincidentes deberá considerarlos en periodos de tiempo diferente o bien, con otros indicadores o referentes empíricos, dentro de las mismas variables. Esta revisión hará que el tema no sea igual a otras investigaciones y que estará con mayor conocimiento para abordar, desde todo punto de vista, la temática seleccionada en ese momento. 
2. Selección de la Muestra: La muestra es, en esencia, un subgrupo de la población. Se puede decir que es un subconjunto de elementos que pertenecen a ese conjunto definido en sus necesidades al que llamamos población. De la población es conveniente extraer muestras representativas del universo. Se debe definir en el plan, y justificar, los universos en estudio, el tamaño de la muestra, el método a utilizar, y el proceso de selección de las unidades de análisis. En realidad, pocas veces es posible medir a la población por lo que obtendremos o seleccionaremos y, desde luego, esperamos que este subgrupo sea un reflejo fiel de la población. 
Básicamente se categorizar las muestras es dos grandes ramas: las probabilísticas y las no probabilísticas. Entiéndase por muestras probabilísticas como el subgrupo de la población en el que todos los elemento de este tienen la
misma probabilidad de ser escogidos; por consiguiente, las muestras no probabilísticas es cuando la elección de los elementos no depende la probabilidad, sino con causas relacionadas con las características de la investigación o de quien hace la muestra. 
La selección de la muestra también la podemos ver desde dos puntos de vista: muestra cuantitativa y muestra cualitativa. La muestra cuantitativa es un subgrupo de la población del cual se recolectan los datos y debe ser representativo en dicha población. Por otra parte, la muestra cualitativa es la unidad de análisis o conjunto de personas, contextos, eventos o sucesos sobre la cual se recolectan los datos sin que necesariamente sea representativo. 
3. Marco Teórico: Representa el soporte inicial de la investigación. También se le llama Marco Teórico Conceptual, Marco Referencial, Marco Estructural Conceptual de la Investigación y Marco Conceptual. 
Aborda las características del fenómeno o problema en estudio. Estas características (cualidades) constituyen las variables, que no son más que las diferentes proposiciones, diversos conocimientos, que permitirán estudiar al problema. Es razonable que el investigador conozca de las diferentes teorías que soportaran inicialmente el estudio, de allí la importancia de las bases teóricas. 
Las funciones que cumple el marco teórico, permite visualizar las técnicas que operaran metodológicamente en el estudio, por cuanto que está compuesta por un conjunto de categorías básicas. Este marco brinda a la investigación un sistema coordinado y coherente de conceptos y proposiciones que permiten abordar el problema para que este cobre sentido. 
El marco teórico nos amplía la descripción del problema. Integra la teoría con la investigación y sus relaciones mutuas. Es la teoría del problema, por lo tanto, conviene relacionar el marco teórico con el problema y no con la problemática de donde éste surge. No puede haber un marco teórico que no tenga relación con el problema. 
Todo hecho anterior a la formulación del problema que sirve para aclarar, juzgar e interpretar el problema planteado, constituye los antecedentes del problema. Establecer los antecedentes del problema, de ninguna manera es hacer un recuento histórico del problema, o presentar fuentes bibliográficas que se va a utilizar, o los datos recolectados los cuales no sabemos en dónde ubicar, o la descripción de las causas del problema. En los antecedentes se hará una síntesis conceptual de las investigaciones o trabajos realizados sobre el problema formulado con el fin de determinar en enfoque metodológico de la misma investigación. El antecedente puede indicar conclusiones existentes en torno al problema planteado. 
Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir las relaciones que hay entre ellos. Un concepto es una abstracción
obtenida den la realidad y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un mismo nombre. Algunos conceptos están estrechamente ligados a objetos de lo que representan, por eso, cuando se define, se busca asegurar que las personas que lleguen a una investigación determinada conozcan perfectamente el significado con el cual se va a utilizar el término o concepto a través de toda la investigación. 
También la metodología para toda investigación es de importancia fundamental. Para ello se deberá planear una metodología o procedimiento ordenado que se seguirá para establecer lo significativo de los hechos y fenómenos hacia los cuales está encaminado el significado de la investigación. Científicamente, la metodología es un procedimiento general para lograr de una manera precisa el objetivo de la investigación. 
4. Definir el Tipo de Investigación: Es necesario tener en cuenta el tipo de investigación o de estudio que se va a realizar, ya que cada uno de estos tiene una estrategia diferente para su tratamiento metodológico. Por ello, se debe indicar el tipo de investigación, si es una investigación, histórica, descriptivas o experimental. Si es un estudio causal, exploratorio o productivo. 
Conviene señalar que el que investiga debe tener claro los distintos métodos que son posibles de aplicar a las ciencias. Algunos son comunes como el inductivo y el deductivo; el analítico y el sintético, el objetivismo y el subjetivismo, así como otros más, que son específicos a cada ciencia. 
5. Establecer las Hipótesis: La hipótesis es el eslabón necesario entre la teoría y la investigación que nos lleva al descubrimiento de nuevos hechos. Por tal, se debe sugerir explicación a ciertos hechos y orientar la investigación a otros. La hipótesis puede ser desarrollada desde distinto puntos de vista, puede estar basada en una presunción, en el resultado de otros estudios, en la posibilidad de una relación semejante entre dos o más variables representadas en un estudio, o puede estar basada en una teoría mediante la cual una suposición de proceso deductivo nos lleva a la pretensión de que si se dan ciertas condiciones se pueden obtener ciertos resultados, es decir, la relación causa - efecto. Una hipótesis sirve de guía para la obtención de datos en función del interrogante presentado en el problema y para indicar la forma como debe ser organizado según el tipo de estudio. 
6. Selección de la Muestra: Es la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a extraer algunos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad. Una muestra debe ser representativa si va a ser usada para estimar las características de la población. Los métodos para seleccionar una muestra representativa son numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar una muestra y la naturaleza de los elementos individuales de la población. Por lo tanto, se requiere un gran volumen para incluir todos los tipos de métodos de muestreo.
Entre los tipos de muestra más usados en la Investigación tenemos: 
 Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección al azar. Es decir, cada uno de los individuos de una población tiene la misma posibilidad de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su constitución una tabla de números aleatorios. 
 Muestreo estratificado: una muestra es estratificada cuando los elementos de la muestra son proporcionales a su presencia en la población. La presencia de un elemento en un estrato excluye su presencia en otro. Para este tipo de muestreo, se divide a la población en varios grupos o estratos con el fin de dar representatividad a los distintos factores que integran el universo de estudio. Para la selección de los elementos o unidades representantes, se utiliza el método de muestreo aleatorio. 
 Muestreo por cuotas: se divide a la población en estratos o categorías, y se asigna una cuota para las diferentes categorías y, a juicio del investigador, se selecciona las unidades de muestreo. La muestra debe ser proporcional a la población, y en ella deberán tenerse en cuenta las diferentes categorías. El muestreo por cuotas se presta a distorsiones, al quedar a criterio del investigador la selección de las categorías. 
 Muestreo intencionado: también recibe el nombre de sesgado. El investigador selecciona los elementos que a su juicio son representativos, lo que exige un conocimiento previo de la población que se investiga. 
 Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se puede seleccionar las unidades de la muestra en forma aleatoria y después aplicar el muestreo por cuotas. 
 Muestreo tipo master simple: es una aplicación combinada y especial de los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada" al disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y una vez establecida, constituirá el módulo general del cual se extraerá la muestra definitiva conforme a la necesidad específica de cada investigación.
7. Recolección de Datos: La investigación no tiene sentido sin las técnicas de recolección de datos. Estas técnicas conducen a la verificación del problema planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que serán empleados. 
Todo lo que va a realizar el investigador tiene su apoyo en la técnica de la observación. Aunque utilice métodos diferentes, su marco metodológico de recogida de datos se centra en la técnica de la observación y el éxito o fracaso de la investigación dependerá de cual empleó. 
Los instrumentos que se construirán llevaran a la obtención de los datos de la realidad y una vez recogidos podrá pasarse a la siguiente fase: el procesamiento de datos. Lo que se pretende obtener responde a los indicadores de estudio, los cuales aparecen en forma de preguntas, es decir, de características a observar y así se elaboraran una serie de instrumentos que serán los que en realidad, requiere la investigación u objeto de estudio. 
La recolección de datos se refiere al uso de una gran diversidad de técnicas y herramientas que pueden ser utilizadas por el analista para desarrollar los sistemas de información, los cuales pueden ser la entrevistas, la encuesta, el cuestionario, la observación, el diagrama de flujo y el diccionario de datos. 
Todos estos instrumentos se aplicarán en un momento en particular, con la finalidad de buscar información que será útil a una investigación. 
8. Análisis de Datos: Es en esta etapa cuando el investigador siente que su labor se está viendo culminada. Aquí estarán cifradas sus esperanzas de comprobación de sus supuestos, como también el amargo sabor de que algo faltó y que debe iniciar de nuevo el camino para ver qué ocurrió. 
Los cuadros elaborarlos deberá analizarlos e interpretarlos para sacar sus conclusiones. Aquí entra el sentido crítico objetivo-subjetivo que le impartirá a esos números recogidos en los cuadros. Esos números son abstractos y es el investigador quien les dará sentido. 
Para llegar a esta parte crucial del proceso, ha tenido que recorrer un largo camino, horas incontables que se pierden en el tiempo, recursos no fáciles de recuperar, horas de paciencia y de malos ratos, horas de sueño y de recompensa, de angustias y de alegrías. Estos son apenas unos indicadores de lo que significa realizar un trabajo de investigación.
9. Presentación de los Resultados: Con el material ya recogido y organizado, inicia una de las etapas más interesantes, darle sentido, forma, explicación de los resultados obtenidos. 
Consiste en la culminación. La labor completa de la información con los datos procesados, analizados e interpretados, donde se ha podido llegar a la determinación de la validez de las posiciones, donde se ha llegado a establecer la eficacia de todo el proceso planificado, donde se han verificado las hipótesis según el diseño seleccionado, donde las variables han sido operacionalizadas. 
El Diseño Encuesta: 
Es un proceso prácticamente exclusivo de las ciencias sociales. Parte de la premisa de que si queremos conocer algo acerca del comportamiento de las personas, lo mejor es preguntárselo directamente a ellas. La encuesta puede aplicarse de diferentes modos, a explicar: 
 Auto Administrado: La encuesta se proporciona directamente a los respondientes, quienes lo contestan. No hay intermediarios y las respuestas las hacen ellos mismos. Por ejemplo, si los encuestados fueran los estudiantes de Derecho de la Facultad de Ciencias Jurídicas, Políticas y Criminológicas de la Universidad de Los Andes, se acudirá directamente a ellos y se les entregara el cuestionario. Evidentemente que este modo de aplicar el cuestionario es impropio para analfabetas, personas que tienen dificultades de lectura o niños que todavía no leen de manera adecuada. 
 Por entrevista personal: El entrevistador deberá aplicar el cuestionario a los encuestados haciéndole preguntas al respondiente e ir anotando los resultados. En este caso las instrucciones deben ser para el entrevistador. Normalmente se tienen varios encuestadores quienes deberán estar capacitados en el arte de entrevistar y conocer a fondo el cuestionario. De igual forma, no puede sesgar o influir en las respuestas. 
 Por entrevista telefónica: Esta situación es similar a la anterior, solo que la entrevista no es "cara a cara", sino a través del teléfono. El entrevistador le hace preguntas al entrevistado solo por medio de la voz y deberá el mismo anotar las respuestas. 
 Auto administrado y enviado por correo postal o electrónico: Los respondientes contestan directamente el cuestionario, estos marcan o anotan las respuestas sin intermediarios. La diferencia está en que el cuestionario se entrega directamente en las manos del entrevistado y este se reenvía por correo u otro medio. Si es por correo o mensajería, no hay
retroalimentación inmediata y si los sujetos tienen alguna duda no se les puede aclarar. Las encuestas por Internet han ido ganando terreno y, a diferencia de la anterior, estas si ofrecen la posibilidad de interacción y asesoría. Conforme más personas tengan acceso a Internet, este medio cobrara más fuerza. 
La Observación: 
La observación puede ser participante o no participante. En la primera el observador interactúa con los sujetos observados, pero en la segunda no ocurre tal interacción. Por ejemplo, un estudio sobre la conducta de aprendizaje de niños autistas, donde el instructor tiene que interactuar con los niños y al mismo tiempo codificar. 
La observación tiene varias ventajas, a seguir: 
 Son técnicas de medición no obstructivas, en el sentido que el instrumento de medición no estimula el comportamiento de los sujetos. Los métodos no obstructivos simplemente registran algo que fue estimulado por otros factores ajenos al instrumento de medición. 
 Acepta material no estructurado. 
 Pueden trabajar con grandes volúmenes de datos. 
El Dato: 
Una vez planteada la investigación y realizadas todas las tareas que permitan la puesta en marcha de una investigación, corresponde pasar al campo mismo de estudio para efectuar en el la recolección de datos e información, con el fin de dar respuesta al problema planteado como forma de estudio. 
Existen numerosos procedimientos para la tarea de recolección de datos, variables conforme a las circunstancias concretas de la índole de la investigación. 
Las técnicas más utilizadas en la recolección de datos son: La observación, la entrevista, el cuestionario, las escalas de actitudes y opiniones, los test, la sociometría, la recopilación documental, la semántica documental, el análisis de contenido, etc. 
También la "práctica social" es fuente de conocimiento en una investigación. 
Recolección de Datos: 
Constituye una fase completamente mecánica, la cual puede llevarse a cabo de forma manual o computarizada. Todo depende del tipo de muestra que se haya determinado dentro de la investigación, es decir, la muestra que representa el objeto de estudio.
Si la muestra es pequeña, el investigador puede manejar los datos utilizando sus medios manuales, pero si la muestra es grande, necesitara apoyarse en medios más tecnificados como el uso de computadoras que permitan ofrecerles resultados más rápidos y quizás menos riesgosos que si los realizara manualmente. 
En cualquiera de las dos formas que emplee, deberá llevar a cabo todo un proceso sistematizado, que parte de clasificar los datos de tal forma que le sea fácil su estudio. 
Previamente los ordenará y procederá a elaborar su propia guía, permitiendo así el fácil procesamiento de los datos. Para ello deberá considerar cuatro pasos, los cuales son: Agrupación, Categorización, Codificación y Tabulación. (ACCT). 
Cualquiera que sea el instrumento o medio utilizado para recabar la información, esta tendrá carácter meramente empírico. Los datos recogidos están en función de los tipos de preguntas elaboradas. Algunas respuestas serán directas y otras teóricas, que permitirán comprobar la validez de las hipótesis. 
Las respuestas deben analizarse y el primer paso será el proceso de Agrupación. 
 Agrupación: Consiste en la facultad que tiene el investigador de agrupar todas las respuestas similares o con gran parecido, de tal manera que la información obtenida pueda manejarse con mayor comodidad, tratando que los grupos que la conforman no serán demasiados y se haga fácil el proceso. 
 Categorización: La agrupación anterior conlleva al señalamiento de las categorías o ítems en que estas respuestas deben concentrarse. Establecerá las que considere convenientes para su estudio según lo señalado en la fase de operacionalización. 
 Codificación: Consiste en la expresión numérica a la que será sometida cada una de las respuestas verbales y que en el caso estudiado, corresponderá asignarle a cada una de las categorías. El código podrá ser también en letras, queda a elección del sistema que elija el procesador de datos. 
 Tabulación: Consiste en la contabilización que se efectúa de cada una de las preguntas para determinar numéricamente las respuestas obtenidas.
Importancia de la Recolección de Datos: 
La investigación no tiene sentido sin las técnicas de recolección de datos, estas técnicas conducen a la verificación del problema planteado. 
Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que sean empleados. Todo lo que va a realizar el investigador tiene su tiene su apoyo en la técnica de recolección de datos. Aunque utilice medios diferentes, su marco metodológico de recolección de datos se concentra en la técnica de la observación y el éxito o fracaso del proceso investigativo dependerá de cual empleo. 
Los Instrumentos que se construirán, llevaran a la obtención de los datos de la realidad y una vez recogidos se podrá pasar a la siguiente fase del procesamiento de los datos obtenidos como información. 
Análisis de los Datos: 
Los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", esto es, encontrarles significación. En esto consiste, en esencia, el análisis e interpretación de los datos. El propósito es poner de relieve todas y cada una de las partes del conjunto que proporcionan respuestas a los integrantes de la investigación, es decir, a los problemas formulados. 
El objetivo del análisis es buscar un significado más amplio a las respuestas mediante su comparación con otros conocimientos disponibles: generalizaciones, leyes, teorías, etc. Básicamente, el análisis e interpretación de datos es la culminación de todo el proceso de la investigación, porque las fases precedentes se ordenan en función de esta tarea. 
Cabe destacar que tanto el análisis como la interpretación de los datos tienen mucho más de trabajo artesanal, por tanto, esta fase no puede reducirse a una simple operación contable. 
METODOLOGÍA DOCUMENTAL La Investigación Documental como una variante de la investigación científica, cuyo objetivo fundamental es el análisis de diferentes fenómenos (de orden histórico, psicológico, sociológico, etc.), utiliza técnicas muy precisas, de la Documentación existente, que directa o indirectamente, aporte la información. Podemos definir a la investigación documental como parte esencial de un proceso de investigación científica, constituyéndose en una estrategia donde se observa y reflexiona sistemáticamente sobre realidades (teóricas o no) usando para ello diferentes tipos de documentos. Indaga, interpreta, presenta datos e informaciones sobre un tema determinado de cualquier ciencia, utilizando para ello, una metódica
de análisis; teniendo como finalidad obtener resultados que pudiesen ser base para el desarrollo de la creación científica. Visto en estos términos, la Investigación Documental podemos caracterizarla de la siguiente manera:  Se caracteriza por la utilización de documentos; recolecta, selecciona, analiza y presenta resultados coherentes.  Utiliza los procedimientos lógicos y mentales de toda investigación; análisis, síntesis, deducción, inducción, etc.  Realiza un proceso de abstracción científica, generalizando sobre la base de lo fundamental.  Realiza una recopilación adecuada de datos que permiten redescubrir hechos, sugerir problemas, orientar hacia otras fuentes de investigación, orientar formas para elaborar instrumentos de investigación, elaborar hipótesis, etc.  Puede considerarse como parte fundamental de un proceso de investigación científica, mucho más amplio y acabado.  Es una investigación que se realiza en forma ordenada y con objetivos precisos, con la finalidad de ser base a la construcción de conocimientos.  Se basa en la utilización de diferentes técnicas de: localización y fijación de datos, análisis de documentos y de contenidos. En un sentido restringido, entendemos a la investigación documental como un proceso de búsqueda que se realiza en fuentes impresas (documentos escritos). Es decir, se realiza una investigación bibliográfica especializada para producir nuevos asientos bibliográficos sobre el particular. Una confusión muy generalizada, coloca como iguales, a la investigación bibliográfica y a la investigación documental. Esta afirmación como podemos observar, reduce la investigación documental a la revisión y análisis de libros dejando muy pobremente reducido su radio de acción. La investigación bibliográfica, aclaramos, es un cuerpo de investigación documental. Asumimos la bibliografía como un tipo específico de documento, pero no como el Documento. Las Fuentes de Información de la Investigación Documental son: FUENTE PRIMARIA: Libros, artículos, monografías, tesis, documentos, trabajos de investigación presentados en conferencias, congresos y seminarios .Estas fuentes son los documentos que registran o corroboran el conocimiento inmediato de la investigación. Incluyen libros, revistas, informes técnicos y tesis. Libros: De
acuerdo con la UNESCO (1964), se llama libro a aquella publicación que tiene más de 49 páginas, y folleto a la que tiene entre cinco y 48 páginas. Informes técnicos: En este tipo de informes se incluyen las memorias de conferencias, los informes de congresos, reuniones y otros. Son importantes debido a que la información generalmente versa sobre asuntos de actualidad que afectan a una comunidad particular o son de interés grupal. Diarios y periódicos. FUENTE SECUNDARIA: Resúmenes y listados de referencias publicados en un área específica de conocimiento. Cualquier fuente secundaria que se utilice tendrá que ser objeto de comprobación de cualquier factor que puedan afectar la exactitud o la validez de la información Este renglón incluye las enciclopedias, los anuarios, manuales, almanaques, las bibliografías y los índices, entre otros; los datos que integran las fuentes secundarias se basan en documentos primarios. Depósitos de información: el primer paso para recabar datos es acudir a los centros de información, como biblioteca, hemeroteca, archivos y museos. En la búsqueda de información en la biblioteca es importante tener algunas nociones sobre su organización y funcionamiento, tales como: Los libros están ordenados de manera alfabética. Se clasifican por fichas. Se marca en los lomos del libro el código por fechas. Se forman catálogos Se elaboran registros para localizar materiales afines a la obra. Por lo tanto se trata de hacer una cuidadosa revisión de los estudios teóricos y prácticos que ya se han realizado y que tienen relación con el problema planteado. Esta revisión se debe hacer porque no existe campo del conocimiento, completamente nuevo o inexplorado. Todo estudio debe tomar elementos del pasado y reconocer lo que otras personas o investigadores han hecho. No realizar una exhaustiva revisión documental conduce a errores graves y a desaprovechar la oportunidad de hacer un trabajo más original y metodológicamente más objetivo. Por eso la investigación documental puede iniciarse directamente en el acopio de las fuentes primarias, situación que ocurre cuando el investigador conoce la ubicación de la información y se encuentra familiarizado con el campo de estudio. Sin embargo se dan casos en los que hay poco material en hemerotecas número reducido de centros de información, donde muchas veces las colecciones de revistas son incompletas o no se encuentran actualizadas y no disponen de documentos muy fiables. OTRAS FUENTES: Con la expansión de las comunicaciones en red una nueva sociedad está emergiendo al lado de la sociedad real. Se trata de la sociedad virtual. Su territorio es el ciberespacio y su tiempo, como no, es el tiempo virtual. Se trata de un fenómeno novedoso, cuyas características son escasamente conocidas, puesto que esta sociedad está en pleno despliegue. Es una sociedad que no podría existir al margen de la sociedad real, que es su soporte material. Pero, aunque comparte con ella un conjunto de rasgos comunes, tiene sus propias especificaciones, que la han convertido en un tema de gran interés para los académicos interesados en indagar las características que tendrá la nueva
sociedad que se está gestando en medio de la crisis de la sociedad industrial.¿ Que es la Web grafía ? es un directorio de aplicaciones y recursos libres, puede seleccionar una categoría y explorar los diferentes recursos. ¿Cuáles son las categorías? Actualmente se cuenta con 21 recursos distribuidos en las siguientes 17 categorías Redes, Oficina, Multimedia, Desarrollo, Matemáticas, Juegos, Técnicas, Gráficos, Educación, Ciencia, Ingeniería, Bases de datos, Sistemas operativos, Escritorio, Seguridad, Utilidades, entre otros. ¿Cuáles son los tipos de recursos? En este momento se clasifican los tipos de recursos en 3: Programas, Documentos, Enlaces, en el caso de programas y documentos no se encuentran al interior del portal, de hecho el directorio solo organiza, clasifica y enlaza los recursos. 
METODOLOGÍA 
1.- Elección del Tema: 
 Está comprobado que con un mayor conocimiento sobre un campo de estudio, será más fácil detectar el área que necesita ser investigada. 
 El investigador debiera preguntarse lo siguiente: 
¿Cuál es el problema que necesita ser investigado? 
¿Ayuda la investigación a ampliar los conocimientos en este campo? 
 Es muy importante que el tema sea motivante, ya que la investigación requiere mucho tiempo y es posible que el interés decaiga. 
2.- Acopio de Bibliografía Básica sobre el Tema: 
 Se reúne todo el material publicado o inédito; artículos, estudios críticos, monografías, ensayos, documentos de archivo, libros, tesis, etc. 
 Conocer las ideas o datos expuestos anteriormente provee de bases sólidas para mejorar nuestra idea y no repetirla. 
 Los artículos críticos de revista especializada resultan más ricos y aprovechables por sobre los de tratamiento indirecto. 
3.- Elaboración de Fichas Bibliográficas y Hemerográficas: 
 Permite localizar rápidamente el material en el momento oportuno. 
 Con los datos básicos de un documento (nombre de libro, autor, editorial, número de edición, etc.) se hace el registro en las fichas. 
4.- Lectura Rápida del Material: 
 Su fin, el de ubicar las principales ideas y conocer la calidad del material recabado 
 Se recomienda leer las partes que más podrían interesar; índice, introducción, prologo, conclusiones, párrafos específicos, etc.
 Alguna idea relevante puede aparecer en un principio en la lectura, no se recomienda subrayarla, probablemente esta aparezca con mayor claridad. 
5.- Delimitación del Tema: 
 Después de la lectura rápida es más fácil delimitar el tema, porque se puede medir su dimensión y alcance, su aspecto formal y su complejidad. 
 El tema central debe ser preciso, así se enfoca la atención en él y no se dispersa. 
 Evitar los temas encontrados en las fronteras de 2 o más ciencias. Su estudio requiere conocimientos de diversos campos. 
 Desde el principio se preferible escoger un tema pequeño y sencillo. 
6.- Elaboración del Esquema de Trabajo: 
 Es un registro visual que representa el esqueleto del escrito con que se concluye el proceso de investigación. 
Algunos objetivos del esquema son: 
 Identificar de forma gráfica y analítica, las partes pares y subordinadas del problema. 
 Detectar defectos de relación 
 Facilitar el inventario de la información recolectada. 
 Orientar la recopilación de la información faltante. 
 El primer esquema sirve fundamentalmente para el acopio de información. 
 El esquema debe ser tan simple como lo permita; la sencillez o complejidad del problema; la profundidad y la extensión del trabajo; la cantidad de información recabada. 
7.- Ampliación del Material Sobre el Tema ya Delimitado: 
 Se busca nueva información directamente ligada con el tema. 
 La nueva bibliografía necesita sus fichas. 
8.- Lectura Minuciosa de la Bibliografía: 
 Implica reflexión e interpretación y su resultado son las ideas más importantes que pasan a la fichas de contenido. 
 Si el libro es nuestro, se destacan las ideas principales de las secundarias con colores, corchetes, llaves, etc.
9.- Elaboración de Fichas de Contenido: 
 Contiene las ideas más importantes. 
 Pueden ser mixtas cuando contienen; las ideas del autor y nuestras propias reflexiones y comentarios, de esta manera se imprime orden y coherencia al mismo. 
 Permiten el fácil manejo de datos e ideas ajenas o propias. 
 Las fichas nos acercan a la elaboración de un primer borrador del trabajo final. 
10.- Organización de las Fichas de Contenido y Revisión del Esquema: 
 Su objetivo; la valoración del material recopilado, la localización de posibles lagunas, detección de excesos en las ideas transcritas. 
 La posibilidad de revisar el esquema de trabajo con el fin de darle mayor orden y uniformidad, antes de redactar el borrador. 
11.- Organización Definitiva del Fichero: 
 Para saber si faltan datos esenciales. 
 Se numeran las fichas con lápiz, para evitas dificultades de reorganización si esta se altera. 
12.- Redacción del Trabajo Final: 
 Conclusión de la investigación, la cual comunica sus resultados mediante un texto escrito, el cual pueda ser consultado por cualquier persona que requiera de esta. 
 Borrador. 
 Primera exposición de los hechos o ideas del trabajo final. 
 Índice e introducción se deja al final de la redacción del borrador. 
 Se recomienda dejar descansar el borrador, durante un tiempo, para así realizar un análisis frío, crítico, sin ataduras emocionales, con el fin de corregir y redactar el trabajo final. 
 Redacción final. 
Su objetivo; comunicar con la mayor claridad y' coherencia posibles los resultados, descubrimientos, comprobaciones o reflexiones logradas a través de todo el proceso de la investigación documental.
METODOLOGÍA DESCRIPTIVA 
Consiste en la Caracterización de un hecho, fenómeno o grupo, con el fin de establecer su estructura o comportamiento. Tiene como objetivo la descripción precisa del evento de estudio. Este tipo de investigación se asocia con el diagnóstico. El método se basa en la indagación, observación, el registro y la definición. Objetivo: El objetivo de la investigación descriptiva consiste en llegar a conocer las situaciones, costumbres y actitudes predominantes a través de la descripción exacta de las actividades, objetos, procesos y personas. Su meta no se limita a la recolección de datos, sino a la predicción e identificación de las relaciones que existen entre dos o más variables. Los investigadores no son meros tabuladores, sino que recogen los datos sobre la base de una hipótesis o teoría, exponen y resumen la información de manera cuidadosa y luego analizan minuciosamente los resultados, a fin de extraer generalizaciones significativas que contribuyan al conocimiento. 
METODOLOGÍA 1. Examinan las características del problema escogido. 2. Lo definen y formulan sus hipótesis. 3. Enuncian los supuestos en que se basan las hipótesis y los procesos adoptados. 4. Eligen los temas y las fuentes apropiados. 5. Seleccionan o elaboran técnicas para la recolección de datos. 6. Establecen, a fin de clasificar los datos, categorías precisas, que se adecuen al propósito del estudio y permitan poner de manifiesto las semejanzas, diferencias y relaciones significativas. 7. Verifican la validez de las técnicas empleadas para la recolección de datos. 8. Realizan observaciones objetivas y exactas. 9. Describen, analizan e interpretan los datos obtenidos, en términos claros y precisos. Recolección de Datos: En el informe de la investigación se señalan los datos obtenidos y la naturaleza exacta de la población de donde fueron extraídos. La población —a veces llamada universo o agregado— constituye siempre una totalidad. Las unidades que la integran pueden ser individuos, hechos o elementos de otra índole. Una vez identificada la población con la que se trabajará, entonces se decide si se recogerán datos de la población total o de una muestra representativa de ella. El método elegido dependerá de la naturaleza del problema y de la finalidad para la que se desee utilizar los datos.
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1
Avance  semestre 1

Más contenido relacionado

La actualidad más candente

Presentacion tecnología informatica
Presentacion tecnología informaticaPresentacion tecnología informatica
Presentacion tecnología informaticaRosy Guerrero
 
Abordaje a la institución educativa completo
Abordaje  a la institución educativa completoAbordaje  a la institución educativa completo
Abordaje a la institución educativa completoCarlosmo90
 
Proyecto sociotecnologico i completo
Proyecto sociotecnologico i completoProyecto sociotecnologico i completo
Proyecto sociotecnologico i completoDaniel Gomez
 
incorporación de la computadora en el aula en Republica Dominicana
incorporación de la computadora en el aula en Republica Dominicanaincorporación de la computadora en el aula en Republica Dominicana
incorporación de la computadora en el aula en Republica DominicanaNolberto Jesus Rodriguez Rivera
 
Maria elizabeth cepedalopez_matrizreconocimientotic.xls
Maria elizabeth cepedalopez_matrizreconocimientotic.xlsMaria elizabeth cepedalopez_matrizreconocimientotic.xls
Maria elizabeth cepedalopez_matrizreconocimientotic.xlsWalter Correa Sanchez
 
El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...
El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...
El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...Carlos Macallums
 
Guia n.1 informatica alida 6y 7
Guia   n.1  informatica  alida  6y 7Guia   n.1  informatica  alida  6y 7
Guia n.1 informatica alida 6y 7ALIDA OSPINA
 
Documentacion del sistema de registro academico fundageo
Documentacion del sistema de registro academico fundageoDocumentacion del sistema de registro academico fundageo
Documentacion del sistema de registro academico fundageoCecy Villalta
 
144955443 guia-de-aprendizaje-juan-david-10-1
144955443 guia-de-aprendizaje-juan-david-10-1144955443 guia-de-aprendizaje-juan-david-10-1
144955443 guia-de-aprendizaje-juan-david-10-1Melizitha Zolo Verde
 

La actualidad más candente (15)

Presentacion tecnología informatica
Presentacion tecnología informaticaPresentacion tecnología informatica
Presentacion tecnología informatica
 
Avance semestre i listo
Avance  semestre i listoAvance  semestre i listo
Avance semestre i listo
 
Abordaje a la institución educativa completo
Abordaje  a la institución educativa completoAbordaje  a la institución educativa completo
Abordaje a la institución educativa completo
 
Proyecto sociotecnologico i completo
Proyecto sociotecnologico i completoProyecto sociotecnologico i completo
Proyecto sociotecnologico i completo
 
incorporación de la computadora en el aula en Republica Dominicana
incorporación de la computadora en el aula en Republica Dominicanaincorporación de la computadora en el aula en Republica Dominicana
incorporación de la computadora en el aula en Republica Dominicana
 
Maria elizabeth cepedalopez_matrizreconocimientotic.xls
Maria elizabeth cepedalopez_matrizreconocimientotic.xlsMaria elizabeth cepedalopez_matrizreconocimientotic.xls
Maria elizabeth cepedalopez_matrizreconocimientotic.xls
 
El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...
El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...
El Levantamiento de la Información de la Institución U.E.M. "Manuel Palacio F...
 
Guia n.1 informatica alida 6y 7
Guia   n.1  informatica  alida  6y 7Guia   n.1  informatica  alida  6y 7
Guia n.1 informatica alida 6y 7
 
Documentacion del sistema de registro academico fundageo
Documentacion del sistema de registro academico fundageoDocumentacion del sistema de registro academico fundageo
Documentacion del sistema de registro academico fundageo
 
144955443 guia-de-aprendizaje-juan-david-10-1
144955443 guia-de-aprendizaje-juan-david-10-1144955443 guia-de-aprendizaje-juan-david-10-1
144955443 guia-de-aprendizaje-juan-david-10-1
 
Avance del semestre i diapositivas
Avance del semestre i  diapositivasAvance del semestre i  diapositivas
Avance del semestre i diapositivas
 
Diagnostico participativo
Diagnostico participativoDiagnostico participativo
Diagnostico participativo
 
Diagnostico participativo
Diagnostico participativoDiagnostico participativo
Diagnostico participativo
 
Diagnostico participativo
Diagnostico participativoDiagnostico participativo
Diagnostico participativo
 
Diagnostico participativo
Diagnostico participativoDiagnostico participativo
Diagnostico participativo
 

Similar a Avance semestre 1

Similar a Avance semestre 1 (20)

Avance del semestre I.
Avance del semestre I.Avance del semestre I.
Avance del semestre I.
 
Avance del Semestre I
Avance del Semestre IAvance del Semestre I
Avance del Semestre I
 
Avance del semestre i grupo n°1 1-inf-4M (INFORME)
Avance del semestre i grupo n°1  1-inf-4M (INFORME)Avance del semestre i grupo n°1  1-inf-4M (INFORME)
Avance del semestre i grupo n°1 1-inf-4M (INFORME)
 
Avance semestre 1
Avance  semestre 1Avance  semestre 1
Avance semestre 1
 
Avance del semestre i
Avance del semestre i Avance del semestre i
Avance del semestre i
 
Avance del semestre i
Avance del semestre iAvance del semestre i
Avance del semestre i
 
Plan de sesion 01 abril 2011
Plan de sesion 01 abril 2011Plan de sesion 01 abril 2011
Plan de sesion 01 abril 2011
 
2011 02-11 plan de sesion
2011 02-11 plan de sesion2011 02-11 plan de sesion
2011 02-11 plan de sesion
 
Proyecto sociotecnologico i corregido
Proyecto sociotecnologico i corregidoProyecto sociotecnologico i corregido
Proyecto sociotecnologico i corregido
 
Proyecto sociotecnologico I
Proyecto sociotecnologico IProyecto sociotecnologico I
Proyecto sociotecnologico I
 
Actividad de aprendizaje 3
Actividad de aprendizaje 3Actividad de aprendizaje 3
Actividad de aprendizaje 3
 
Adaaaaaaaa3
Adaaaaaaaa3Adaaaaaaaa3
Adaaaaaaaa3
 
CURSO HABILIDADES DE PROGRAMACIÓN PARA LA SIMULACIÓN.pptx
CURSO HABILIDADES DE PROGRAMACIÓN PARA LA SIMULACIÓN.pptxCURSO HABILIDADES DE PROGRAMACIÓN PARA LA SIMULACIÓN.pptx
CURSO HABILIDADES DE PROGRAMACIÓN PARA LA SIMULACIÓN.pptx
 
Ada 3
Ada 3Ada 3
Ada 3
 
Informe: Avance Semestre I
Informe: Avance Semestre IInforme: Avance Semestre I
Informe: Avance Semestre I
 
Original (2)gjf
Original (2)gjfOriginal (2)gjf
Original (2)gjf
 
Estructura SO Comfacor
Estructura SO ComfacorEstructura SO Comfacor
Estructura SO Comfacor
 
Guia SO Lectura
Guia SO LecturaGuia SO Lectura
Guia SO Lectura
 
Ada 3
Ada 3 Ada 3
Ada 3
 
Avance semestre 1
Avance  semestre 1Avance  semestre 1
Avance semestre 1
 

Más de Jefferson Alfaro

Validacion de la comunidad
Validacion de la comunidadValidacion de la comunidad
Validacion de la comunidadJefferson Alfaro
 
Visita a la biblioteca virtual digital
Visita a la biblioteca virtual digitalVisita a la biblioteca virtual digital
Visita a la biblioteca virtual digitalJefferson Alfaro
 
Visita a un centro de gestion parroquial
Visita a un centro de gestion parroquialVisita a un centro de gestion parroquial
Visita a un centro de gestion parroquialJefferson Alfaro
 
Diagnostico participativo actualizado
Diagnostico participativo actualizadoDiagnostico participativo actualizado
Diagnostico participativo actualizadoJefferson Alfaro
 
Datos del proyecto sociotecnologico i (1)
Datos del proyecto sociotecnologico i (1)Datos del proyecto sociotecnologico i (1)
Datos del proyecto sociotecnologico i (1)Jefferson Alfaro
 
Informe del diagnostico participativo
Informe del diagnostico participativoInforme del diagnostico participativo
Informe del diagnostico participativoJefferson Alfaro
 

Más de Jefferson Alfaro (10)

Validacion de la comunidad
Validacion de la comunidadValidacion de la comunidad
Validacion de la comunidad
 
Visita a la biblioteca virtual digital
Visita a la biblioteca virtual digitalVisita a la biblioteca virtual digital
Visita a la biblioteca virtual digital
 
Visita a un centro de gestion parroquial
Visita a un centro de gestion parroquialVisita a un centro de gestion parroquial
Visita a un centro de gestion parroquial
 
Visita a un infocentro
Visita a un infocentroVisita a un infocentro
Visita a un infocentro
 
Visita a un cbit
Visita a un cbitVisita a un cbit
Visita a un cbit
 
Diagnostico participativo actualizado
Diagnostico participativo actualizadoDiagnostico participativo actualizado
Diagnostico participativo actualizado
 
Datos del proyecto sociotecnologico i (1)
Datos del proyecto sociotecnologico i (1)Datos del proyecto sociotecnologico i (1)
Datos del proyecto sociotecnologico i (1)
 
Informe del diagnostico participativo
Informe del diagnostico participativoInforme del diagnostico participativo
Informe del diagnostico participativo
 
Organigrama
OrganigramaOrganigrama
Organigrama
 
Abordaje
Abordaje Abordaje
Abordaje
 

Último

DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
Estrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfEstrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfromanmillans
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialpatriciaines1993
 
plan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativaplan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativafiorelachuctaya2
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
Fundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfFundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfsamyarrocha1
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxOscarEduardoSanchezC
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024IES Vicent Andres Estelles
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdfOswaldoGonzalezCruz
 
Cuadernillo de las sílabas trabadas.pdf
Cuadernillo de las sílabas trabadas.pdfCuadernillo de las sílabas trabadas.pdf
Cuadernillo de las sílabas trabadas.pdfBrandonsanchezdoming
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxlclcarmen
 
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALEDUCCUniversidadCatl
 
Tarea 5-Selección de herramientas digitales-Carol Eraso.pdf
Tarea 5-Selección de herramientas digitales-Carol Eraso.pdfTarea 5-Selección de herramientas digitales-Carol Eraso.pdf
Tarea 5-Selección de herramientas digitales-Carol Eraso.pdfCarol Andrea Eraso Guerrero
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 

Último (20)

DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Estrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfEstrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdf
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundial
 
plan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativaplan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativa
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
Fundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfFundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdf
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Unidad 4 | Teorías de las Comunicación | MCDI
Unidad 4 | Teorías de las Comunicación | MCDIUnidad 4 | Teorías de las Comunicación | MCDI
Unidad 4 | Teorías de las Comunicación | MCDI
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
 
Cuadernillo de las sílabas trabadas.pdf
Cuadernillo de las sílabas trabadas.pdfCuadernillo de las sílabas trabadas.pdf
Cuadernillo de las sílabas trabadas.pdf
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
 
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
 
Earth Day Everyday 2024 54th anniversary
Earth Day Everyday 2024 54th anniversaryEarth Day Everyday 2024 54th anniversary
Earth Day Everyday 2024 54th anniversary
 
Tarea 5-Selección de herramientas digitales-Carol Eraso.pdf
Tarea 5-Selección de herramientas digitales-Carol Eraso.pdfTarea 5-Selección de herramientas digitales-Carol Eraso.pdf
Tarea 5-Selección de herramientas digitales-Carol Eraso.pdf
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 

Avance semestre 1

  • 1. REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA, CIENCIA Y TECNOLOGÍA INSTITUTO UNIVERSITARIO DE TECNOLOGÍA DEL ESTADO BOLÍVAR PROGRAMA NACIONAL DE FORMACIÓN EN INFORMÁTICA PROYECTO SOCIOTECNOLÓGICO I TRAYECTO I SEMESTRE 1 AVANCE DEL SEMESTRE I GRUPO N° 5 SECCIÓN 4M-INF-I TURNO MAÑANA INVESTIGADORES: C.I. ERICK FLORES 25.036.498 JEFFERSON ALFARO 25.087.093 ÁNGEL RAMOS 25.361.387 MARÍA CASTILLO 26.512.109 CIUDAD BOLÍVAR, 02 DE DICIEMBRE DE 2014
  • 2. NOMBRE DEL PROYECTO SOCIO-TECNOLÓGICO I Alfabetización Tecnológica en el Sistema Operativo Canaima a Las Alumnas, Alumnos y Docente de Aula del 5to Grado Sección “A” de la Unidad Educativa Estadal Bachiller “Felipe Hernández” Beneficiarios del Proyecto Educativo Canaima TUTORES DEL PROYECTO: TUTOR TÉCNICO: Jocenh Blanco TUTORA INSTITUCIONAL: Milagro Velásquez TUTORA ACADÉMICA: Msc. Carmen Díaz NOMBRE COMPLETO DE LA INSTITUCIÓN EDUCATIVA “Unidad Educativa Estadal Bachiller “Felipe Hernández” UBICACIÓN GEOGRÁFICA: DIRECCIÓN: Calle Carutal de Casanova Norte PARROQUIA: Marhuanta MUNICIPIO: Heres LOCALIDAD: Ciudad Bolívar ESTADO: Bolívar
  • 3. GOOGLE MAPS PUNTOS DE REFERENCIAS DE LA INSTITUCIÓN ABORDADA: 1.- Ambulatorio de Casanova Norte 2.- Escuela Técnica Comercial “Juan Bautista Farrera” 3.- Altura del Km 8
  • 4. CAPITULO I EL PROBLEMA PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON HARDWARE Y SOFTWARE HARDWARE SOFTWARE Equipos a los cuales no se les ha realizado Mantenimiento Correctivo. Programas Instalados Desactualizados. Algunos Equipos requieren cambio totalmente necesario de algunas de las Partes (Piezas) que lo conforman. Sistema Operativo de los Equipos en Condiciones Pésimas, debido a Archivos Maliciosos. EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABER SOFTWARE QUE AFECTA A LA INSTITUCIÓN: Gravedad que Presentan Los Sistemas Operativos de los Equipos de la Institución en su Funcionamiento. EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABERES HARDWARE QUE AFECTA A LA INSTITUCIÓN: Equipos de la Institución faltantes de Piezas en el Case. PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON INFORMÁTICA Y TELEMÁTICA INFORMÁTICA TELEMÁTICA Sala de Computación en Condiciones Negativas. Inaccesibilidad a La Red Internet. Gran parte de los Equipos de Computación Inoperativos. No Cuenta con Red Salón
  • 5. EL PRINCIPAL PROBLEMA INFORMÁTICO QUE AFECTA A LA INSTITUCIÓN: Inoperatividad de algunos Equipos de La Institución, debido a las Deficiencias que Presentan. EL PRINCIPAL PROBLEMA TELEMÁTICO QUE AFECTA A LA INSTITUCIÓN: Privación del Acceso a Internet. PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON EL PROYECTO CANAIMA EDUCATIVO Desconocimiento por parte de los Alumnos, en cuanto a los Programas de Grado Instalados en las Canaimas. Ejecución Inadecuada del Soporte Técnico a ciertos Equipos, por parte de Organismos Encargados de ello. Canaimas con deficiencias en la parte del Hardware y Software. Canaimitas que no cuentan con Cargadores. Niños que no cuentan con una Portátil Canaima. Docente de Aula que no cuentan con los Conocimientos Necesarios de Canaima Educativo. EL PRINCIPAL PROBLEMA QUE AFECTA AL PROYECTO CANAIMA EDUCATIVO EN LA INSTITUCIÓN: Analfabetismo en el uso de las Canaimas por parte de Las Alumnas, Alumnos y La Docente de Aula del 5to Grado Sección “A”.
  • 6. POSIBLES SOLUCIONES A ESTE PROBLEMA: 1.- Incentivar a los Padres Representantes a llevar Las Canaimas con problemas de Hardware, a los distintos Organismos encargados de brindarle Soporte Técnico a Las Portátiles Canaima. 2.- Diseñar una Metodología para que todos los Niños, además de la Docente de Aula, que no poseen Canaimitas puedan, de igual manera que los demás recibir, Los Instructivos de Alfabetización. 3.- Solucionar los Inconvenientes de Software que tengan ciertos Portátiles Canaima. N° DE BENEFICIARIOS RECURSOS NECESARIOS FECHA PROBABLE DE EJECUCIÓN DEL PROYECTO 37 Alumnos y la Docente de Aula. HUMANOS Tutor Técnico Tutor Institucional TÉCNICOS Integrantes del Grupo 5: Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Marzo de 2015 Aproximadamente. GRADO SECCIÓN TURNO 5TO A MAÑANA N° DE CANAIMITAS OPERATIVAS NO OPERATIVAS 35 TOTAL 21 14
  • 7. CRONOGRAMA DE ACTIVIDADES REALIZADAS EN EL SEMESTRE I ACTIVIDADES FECHAS RESPONSABLES OBSERVACIONES Diagnóstico a la Institución Abordada 29-09-2014 Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Recolección de Datos en la Institución Asignada El Levantamiento de la Información 08-10-2014 Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Obtención de Datos e Inventarios a los Equipos de la Institución. Visitas a los Medios de Comunicación (Radio, Prensa y Televisión) para Invitar a la Realización del Diagnóstico Participativo 06-10-2014 08-10-2014 Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Difusión de Notas de Prensa, Volantes, etc. para asistir al Diagnóstico Participativo. Diagnóstico Participativo en la Institución Asignada 16-10-2014 Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Identificar Fortalezas y Debilidades en la Ejecución del Proyecto así como sus Oportunidades y Amenazas. Visitas Organismos que Apoyan el Proyecto (CBIT, Infocentro, CGP, Biblioteca Virtual) 12-11-2014 14-11-2014 Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Recolección de Datos en los Organismos que apoyan la Ejecución del Proyecto. Visita a la Institución Asignada Para Realización de la “Validación de la Comunidad” 18-11-2014 Erick Flores Jefferson Alfaro Ángel Ramos María Castillo Validación Final por parte de la Institución Educativa para la realización del Proyecto.
  • 8. CAPITULO II MARCO TEÓRICO BASES TEÓRICAS DEL PROYECTO I SOFTWARE: Existen varias definiciones similares aceptadas para software, pero probablemente la más formal sea la siguiente: Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que forman parte de las operaciones de un sistema de computación. Considerando esta definición, el concepto de software va más allá de los programas de computación en sus distintos estados: código fuente, binario o ejecutable; también su documentación, los datos a procesar e incluso la información de usuario forman parte del software: es decir, abarca todo lo intangible, todo lo no físico relacionado. El término software fue usado por primera vez en este sentido por John W. Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de 1936, Los números computables, con una aplicación al problema de decisión. CLASIFICACIÓN DEL SOFTWARE Software de Sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, controlador, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye entre otros:  Sistemas operativos  Controladores de dispositivos  Herramientas de diagnóstico  Herramientas de Corrección y Optimización
  • 9. Software de Programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluyen básicamente:  Editores de texto  Compiladores  Intérpretes  Enlazadores  Depuradores Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI). Software de Aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre muchos otros:  Aplicaciones para Control de sistemas y automatización industrial  Aplicaciones ofimáticas  Software educativo  Software empresarial  Bases de datos  Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)  Videojuegos  Software médico  Software de cálculo numérico y simbólico.  Software de diseño asistido (CAD)  Software de control numérico (CAM) PROCESO DE CREACIÓN DEL SOFTWARE Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr un producto software que resuelva un problema específico. El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (por ejemplo, la resolución de una ecuación de segundo orden), éste
  • 10. puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) o costo: de pequeño, mediano y gran porte. Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y provee una aproximación de todos los costos de producción en un «proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.). Considerando los de gran porte, es necesario realizar complejas tareas, tanto técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica para tratar su estudio y realización: es conocida como Ingeniería de Software. En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-programador solitario (si fuere el caso). HARDWARE: El término hardware se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y la Real Academia Española lo define como Conjunto de los componentes que integran la parte material de una computadora. El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware. La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas. Un sistema informático se compone de una unidad central de procesamiento (UCP o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados. CLASIFICACIÓN DEL HARDWARE Una de las formas de clasificar el hardware es en dos categorías: por un lado, el básico, que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware
  • 11. complementario, que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora. Necesita un medio de entrada de datos, la unidad central de procesamiento, la memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el hardware básico. Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora en la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos. Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada. La Unidad Central de Procesamiento: conocida por las siglas en inglés CPU, es el componente fundamental de la computadora, encargado de interpretar y ejecutar instrucciones y de procesar datos. En computadores modernos, la función de la CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a una CPU que es manufacturada como un único circuito integrado. Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina. Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica", como pueden ser: controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más. Placa Principal o Placa Base: es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses mediante los cuales se trasmiten los datos dentro y hacia afuera del sistema.
  • 12. La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc. Las principales funciones que presenta una placa base son: • Conexión física • Administración, control y distribución de energía eléctrica • Comunicación de datos • Temporización • Sincronismo • Control y monitoreo Memoria RAM: La sigla RAM, del inglés Random Access Memory, literalmente significa memoria de acceso aleatorio. El término tiene relación con la característica de presentar iguales tiempos de acceso a cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta particularidad también se conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM es conocida como Memoria principal de la computadora, también como "Central o de Trabajo". A diferencia de las llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como discos duros, unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica. Periféricos: Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los periféricos son los que permiten realizar las operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80,
  • 13. muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos. INFORMÁTICA: Se entiende como el resultado de los términos información y automatización. Trata de la concepción, realización y utilización de los sistemas para procesamiento de información. “INFORMÁTICA es la ciencia que estudia el tratamiento automático y racional de la información.” Se dice que el tratamiento es automático por ser máquinas las que realizan los trabajos de captura, proceso y presentación de la información, y se habla de racional por estar todo el proceso definido a través de programas que siguen el razonamiento humano. IMPORTANCIA DE LA INFORMÁTICA: Las computadoras son esenciales para enfrentar el reto de la competencia global, donde los negocios deben ser eficientes y sensibles a las necesidades y producir bienes y servicios de alta calidad a un costo siempre más bajo. Sin las computadoras, que proveen información precisa y actualizada necesaria para tomar decisiones estratégicas y administrar los procesos de producción, muchas compañías no podrían sobrevivir. Las computadoras utilizan información almacenada para construir simulaciones que van desde un simple análisis hasta ilustraciones realistas y animadas de nuevos productos. Esto permite predecir el efecto de las múltiples decisiones de negocios. Las computadoras ayudan a la gente a comunicarse, tanto directa como indirectamente. El mundo industrial no podrá vivir mucho tiempo sin computadores, está sometido a una sobrecarga de información y no podrá manejarlos sin ellos. Teniéndose en cuenta que los avances de la sociedad humana desde la aparición del alfabeto se han debido a su capacidad de registrar y conservar la información. LA INFORMÁTICA EN LA SOCIEDAD: Nuestros días se caracterizan por un explosivo, colosal y omnipresente desarrollo de la técnica, y su aplicación cada vez más extensa a todos los ámbitos de la vida humana. Sin duda alguna, el más significativo desarrollo tecnológico durante el último siglo, ha sido la construcción de computadoras de finalidades generales, capaces de hacer cosas que en el hombre se consideran como comportamiento inteligente. El desarrollo tecnológico alcanzado por el hombre a finales del siglo XIX y principios del XX, los conocimientos acumulados en las distintas ciencias como la Matemática, favoreció el surgimiento teórico de la construcción de las computadoras, materializado en la primera mitad de este siglo. La computadora es una máquina capaz de realizar una gran cantidad de cálculos aritméticos y procesos de control a una gran velocidad (procesos repetitivos y tediosos que desgastan al hombre). La computadora es una de las herramientas más poderosas de la sociedad actual. La computación es el método idóneo para facilitar el registro, la elaboración y
  • 14. procesamiento de la información, así como los cálculos matemáticos para su análisis y para lograr la adopción de decisiones. En todos los sentidos la computación constituye una herramienta que ayuda a resolver los problemas que se presentan y esta ayuda no puede ni debe ser subestimada. Las nuevas tecnologías de la información han permitido la rápida difusión de los conocimientos científicos, contribuyendo sin lugar a dudas a la introducción de nuevas técnicas en el desarrollo de la producción material y los servicios. Las grandes redes de computadoras y las novedosas tecnologías en las telecomunicaciones permiten hoy en día que la información pueda circundar el mundo a altas velocidades. Es indiscutible que el desarrollo de determinadas ramas de las ciencias, en particular la electrónica, ha revolucionado en unos pocos años la construcción de las computadoras, permitiendo su introducción vertiginosa en prácticamente todas las esferas de la vida del hombre moderno. Tal es la influencia de la informática en la actualidad, que es popular decir que vivimos en "LA ERA DE LA INFORMACIÓN", donde el poder personal o de un país se mide en cierta forma por la cantidad de información que posea. Un dato que no es posible pasar por alto es el incremento de la industria informática. Ya no sólo se automatiza la producción, sino también la transferencia de conocimientos científicos a la producción y se produce en cierto sentido la automatización del proceso de obtención de nuevos conocimientos. TELEMÁTICA: La Telemática es una disciplina científica y tecnológica, originada por la convergencia entre las tecnologías de las telecomunicaciones y de la informática. Algunas de las aplicaciones de la telemática podrían ser cualquiera de las siguientes:  Cualquier tipo de comunicación a través de internet (como por ejemplo el acceso a páginas web o el envío de correos electrónicos) es posible gracias al uso de las tecnologías desarrolladas en este ámbito.  El uso de las mensajerías instantáneas está directamente relacionado con la telemática, ya que esta materia se encarga en parte de controlar ese intercambio de mensajes entre dos entidades distintas.  Los sistemas GPS (Global Positioning System). La telemática cubre un campo científico y tecnológico de una considerable amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y servicios de comunicaciones, para el transporte, almacenamiento y procesado de cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y diseño de tecnologías y sistemas de conmutación. La telemática abarca entre otros conceptos los siguientes planos funcionales:
  • 15.  El plano de usuario, donde se distribuye y procesa la información de los servicios y aplicaciones finales.  El plano de señalización y control, donde se distribuye y procesa la información de control del propio sistema, y su interacción con los usuarios;  El plano de gestión, donde se distribuye y procesa la información de operación y gestión del sistema y los servicios, y su interacción con los operadores de la red. Cada uno de los planos se estructura en subsistemas denominados entidades de protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos niveles son agrupaciones de funcionalidad, y según el modelo de interconexión de sistemas abiertos (modelo OSI) de la Organización Internacional de Normalización (ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de aplicación. Trata también servicios como la tele-educación, el comercio electrónico (e-commerce) o la administración electrónica (e-government), servicios Web, TV digital, la conmutación y la arquitectura de conmutadores, y también toca temas como el análisis de prestaciones, modelado y simulación de redes: optimización, planificación de la capacidad, ingeniería de tráfico y diseño de redes. Otra modalidad es encontrarla focalizada en una actividad específica como telemática educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la Educación; entre ellos la comunicación interactiva, la distribución de la información y el uso pedagógico de los servicios. ORIGEN DEL TÉRMINO: El término telemática se acuñó en Francia (télématique). En 1976, en un informe encargado por el presidente francés y elaborado por Simon Nora y Alain Minc (conocido como informe Nora-Minc y distribuido por el título: Informatización de la Sociedad), en el que se daba una visión increíblemente precisa de la evolución tecnológica futura. Pero al igual que en Francia, en los países anglosajones también existe la disciplina telemática, la cual es denominada como Computer and Communications (del inglés: ‘Ordenador y Comunicaciones’) o Compunication (concepto acuñado por Wen Gao1 en su artículo Compunication: From Concept to Practice2). No obstante hay matices claves a distinguir entre los dos términos. Para aclarar esto, conviene situarse en el contexto de la época: por una parte Francia, que ponía claro énfasis en las telecomunicaciones como motor de su transformación social en los 70's, mientras que Estados Unidos estaba viviendo una gran revolución de la informática. Así, Compunication (computadores + comunicación) apunta a un modelo con mayor relevancia de los sistemas informáticos; telemática (télématique) por su parte, refiere a un mayor énfasis en la telecomunicación en sí. En la actualidad, esta
  • 16. diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica ha convergido por completo a nivel mundial, para formar un único cuerpo de conocimiento bien establecido. Naciendo de esta forma el actual significado de la telemática. SOFTWARE LIBRE: Es la denominación del software que respeta la libertad de todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido libremente de varias formas. Según la Free Software Foundation, el software libre se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar el software, e incluso modificarlo y distribuirlo modificado. Un programa es software libre si otorga a los usuarios todas estas libertades de manera adecuada. De lo contrario no es libre. Existen diversos esquemas de distribución que no son libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser libres, nosotros los consideramos contrarios a la ética a todos por igual. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a software gratuito (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente (software comercial). Análogamente, el software gratis o gratuito incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con software de dominio público. Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. VENTAJAS DEL SOFTWARE LIBRE  Escrutinio Público: Al ser muchos las personas que tienen acceso al código fuente, eso lleva a un proceso de corrección de errores muy dinámico, no hace falta esperar que el proveedor del software saque una nueva versión.  Independencia del proveedor: Al disponer del código fuente, cualquier persona puede continuar ofreciendo soporte, desarrollo u otro tipo de servicios para el software. No estamos supeditados a las condiciones del mercado de nuestro proveedor, es decir que si este se va del mercado
  • 17. porque no le conviene y discontinua el soporte, nosotros podemos contratar a otra persona.  Traducción: cualquier persona capacitada puede traducir y adaptar un software libre a cualquier lengua.  Corrección ortográfica y gramatical: una vez traducido el software libre puede presentar errores de este tipo, los cuales pueden ser subsanados con mayor rapidez por una persona capacitada.  Mayor seguridad y privacidad: Los sistemas de almacenamiento y recuperación de la información son públicos. Cualquier persona puede ver y entender cómo se almacenan los datos en un determinado formato o sistema. Existe una mayor dificultad para introducir código malicioso como ser: espía (p/ej. Capturador de Teclas), de control remoto (p/ej. Troyano), de entrada al sistema (p/ej. puerta trasera), etc.  Garantía de continuidad: el software libre puede seguir siendo usado aun después de que haya desaparecido la persona que lo elaboro, dado que cualquier técnico informático puede continuar desarrollándolo, mejorándolo o adaptándolo.  Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro grandes costos: de adquisición, de implantación (este a su vez se compone de costos de migración y de instalación), de soporte o mantenimiento, y de interoperabilidad. El software libre principalmente disminuye el costo de adquisición ya que al otorgar la libertad de distribuir copias la puedo ejercer con la compra de una sola licencia y no con tantas como computadoras posea (como sucede en la mayoría de los casos de software propietario). Cabe aclarar que también hay una disminución significativa en el costo de soporte, no ocurriendo lo mismo con los costos de implantación y de interoperabilidad. DESVENTAJAS DEL SOFTWARE LIBRE Si observamos la situación actual, es decir la existencia mayoritaria de Software Propietario, tenemos:  Dificultad en el intercambio de archivos: esto se da mayormente en los documentos de texto (generalmente creados con Microsoft Word), ya que si los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos da error o se pierden datos. Pero está claro que si Microsoft Word creara sus documentos con un formato abierto (o público) esto no sucedería.
  • 18.  Mayores costos de implantación e interoperabilidad: dado que el software constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de instalación, de migración, de interoperabilidad, etc., cuya cuantía puede verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución sería instalar alguna distribución de GNU/Linux y luego un emulador de Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el costo de migración está referido al software, ya que en lo que hace a Hardware generalmente el Software Libre no posee mayores requerimientos que el Software Propietario. TIPOS DE LICENCIAS: Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:  Licencias GPL: Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL. Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL. En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL. En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.6 Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL o de manejo.
  • 19.  Licencias AGPL: La Licencia Pública General de Affero (en inglés Affero General Public License, también Affero GPL o AGPL) es una licencia copyleft derivada de la Licencia Pública General de GNU diseñada específicamente para asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red. La Affero GPL es íntegramente una GNU GPL con una cláusula nueva que añade la obligación de distribuir el software si éste se ejecuta para ofrecer servicios a través de una red de ordenadores. La Free Software Foundation recomienda que el uso de la GNU AGPLv3 sea considerado para cualquier software que usualmente corra sobre una red.7  Licencias Estilo BSD: Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").  Licencias Estilo MPL y Derivadas: Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos
  • 20. puntos que no fueron tomados en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada. ALFABETIZACIÓN TECNOLÓGICA EN SOFTWARE LIBRE: Es el estado de derecho que tenemos todos los venezolanos para acceder a los avances tecnológicos en comunicaciones, consagrado constitucionalmente en el artículo 3 de nuestra carta magna, anteriormente esto no era posible pues los software de computadora eran privados y quien quería hacer uso de los mismos tenía que pagar un costo monetario muy elevado, por lo que el gobierno consiguió regular su funcionamiento aunó más accesible para todos sin discriminación de ningún tipo. En la actualidad el entorno social, económico y cultural que rodea al ser humano evoluciona de una manera estrepitosa. La revolución de la tecnología informática, ha provocado una transformación radical de las formas de producción, difusión y consumo del conocimiento y la cultura. La aparición de nuevas tecnologías tales como son: La televisión digital y de paga, la introducción de las Pc"s en los hogares, el acceso a Internet (red mundial de información), telefonía móvil están provocando nuevas necesidades formativas y de conocimiento en los ciudadanos. Es claro, que las personas de hoy, requieren de nuevas habilidades y conocimientos para poder desarrollarse en el mundo contemporáneo. Se ha puesto mucho énfasis a la alfabetización convencional en las escuelas, pero hoy se llega a saber que hay múltiples alfabetizaciones. Sabemos que el concepto de alfabetización se refiere al hecho de saber leer y escribir, pero la alfabetización tecnológica es el saber "leer y escribir" pero con la computadora, además de entender y utilizar la información para apoyar el aprendizaje, la productividad personal, la toma de decisiones y la vida diaria. En otras palabras, la alfabetización tecnológica es desarrollar los conocimientos y habilidades tanto instrumentales como cognitivas en relación con la información vehiculada a través de nuevas tecnologías (manejar el software, buscar información, enviar y recibir correos electrónicos, utilizar los distintos servicios de WWW, etc.), además plantear y desarrollar valores y actitudes de naturaleza social y política con relación a las tecnologías. PRINCIPIOS Y VALORES QUE ORIENTAN LA ALFABETIZACIÓN TECNOLÓGICA La alfabetización tecnológica, tiene como principio fundamental el dar educación y conocimiento a los venezolanos del uso adecuado y veras de la tecnología como herramienta de desarrollo social y productivo, de demostrar y dar a entender que hay principios de igualdad y libertad, como lo dictan los principios fundamentales de la Constitución de la República Bolivariana de Venezuela, que definen al Estado Venezolano como "Democrático y Social, de Derechos y de Justicia que
  • 21. propugna como valores superiores: la vida, la libertad, la justicia, la igualdad, la solidaridad, la democracia, la responsabilidad individual y social, la preeminencia de los derechos humanos, la ética pública y el pluralismo político. Los cuales tienen como sus fines esenciales (art. Nº 3) "la defensa y el desarrollo de la persona y el respecto a su dignidad, la profundización del ejercicio democrático de la voluntad popular, la construcción de una sociedad justa, solidaria amante de la paz y garante del cumplimiento de los principios derechos y deberes asumiendo el principio de equidad como nuevo orden de justicia social y base material de la sociedad venezolana." En la Constitución de la República Bolivariana de Venezuela propugna como elementos fundamentales la Educación y el Trabajo para la construcción de la nueva República sobre la base de la justicia social el desarrollo endógeno, la democracia participativa y la soberanía nacional. Esto define que los valores que orientan a la alfabetización tecnológica, no son otros que el de que los principios de igualdad y justicia social para el desarrollo del país. DECRETO 3390 El referido decreto, nos habla de los planes y acciones que toma el gobierno de la República Bolivariana de Venezuela, para la implementación de software libre en los sistemas de la administración pública y en la sociedad, a través de la capacitación de los funcionarios públicos y usuarios, para el manejo y uso de estos mediante acciones conjuntas del Ministerio de Educación y Deporte y el Ministerio de Ciencia y Tecnología, promoviendo la cooperación internacional en asuntos que refiere la materia. Así como también, de fomentar y dar apoyo al desarrollo de software libre con estándares abiertos bajo incentivos especiales a los desarrolladores de los mismos. PLAN NACIONAL DE ALFABETIZACIÓN TECNOLÓGICA: El programa básico del Plan Nacional de Alfabetización Tecnológica es un curso introductorio al conocimiento del hardware y software del computador, uso, utilidad y la importancia de las Tecnologías de Información y Comunicación (TIC) para el desarrollo científico e integral del país y también para la soberanía e independencia tecnológica. Va dirigido A Personas adultas y a estudiantes en general pertenecientes a los diferentes niveles de Educación y a las Misiones y comunidad en general. Ya que la Persona que lo desee aun cuando nunca haya tenido contacto con un equipo de computación. El curso consta de (5) cinco módulos con una duración de 20 horas académicas, es de carácter presencial por lo que la asistencia a cada una de las unidades es imprescindible para su aprobación.
  • 22.  Unidad I: Conociendo el computador. Identificación del hardware y el software. al igual identificar, sus dispositivos y aplicar el proceso adecuado de las funciones.  Unidad II: Alfabetización Tecnológica para el ejercicio de ciudadanía. Esta unidad constituye el eje transversal del curso porque permite la articulación entre el conocimiento y la práctica en (TIC) y su importancia para el desarrollo integral del país.  Unidad III: Uso básico del computador. Encendido y apagado del computador, definición del sistema operativo Linux, ingreso a Linux, elementos de la interfaz gráfica, funciones del programa nautilus, cambio de apariencia de Linux, funciones del menú aplicaciones y acciones y distintas operaciones de directorios y archivos.  Unidad IV: Programas de aplicación en Linux. Procedimiento para abrir el programa OpenOfficeWriter, conocer la pantalla principal, procedimiento para crear y cerrar un documento, insertar, seleccionar y dar formato a un texto, copiar, cortar, pegar y mover textos, crear tablas, abrir y cerrar presentaciones, diseñar e insertar diapositivas, insertar objetos, ver presentaciones, etc.  Unidad V: Internet Básico. Definición de Internet, principales usos de la red, definición de la www. Navegadores, los buscadores, página Web, correo electrónico: partes de un mensaje, redacción de una dirección de correo, nombre de buzón y dominio de una dirección de correo. En los Infocentros se imparten cursos y talleres de Alfabetización tecnológica (GRATUITOS), bajo un Margen y/o Lapso de una (1) semana, que está distribuidos en cinco días (5), en donde está representado entre las modalidades Matutino y Vespertino, ya que ambos turnos están comprendidos por (3) tres horas diarias. Cabe mencionar que las capacitaciones en base al Plan Nacional de alfabetización tecnológica “P.N.A.T”, se dicta de manera intensiva en todos los Infocentros del país y a su vez en otros espacios comunitarios que estén destinados a la formación de este plan que está regido por el decreto #3390 de los Estándares Abiertos de Migración de Software Libre. SOPORTE TÉCNICO A USUARIAS Y USUARIOS: Es el nivel de soporte inicial, responsable de las incidencias básicas del cliente. Es sinónimo de soporte de primera línea El principal trabajo de un especialista de es reunir toda la información del cliente y determinar la incidencia mediante el análisis de los síntomas y la determinación del problema subyacente. Cuando se analizan los síntomas, es importante para el técnico de soporte identificar qué es lo que el
  • 23. cliente está intentando llevar a cabo de forma que no se pierda tiempo intentando resolver un síntoma en lugar de un problema. Una vez que se ha logrado identificar el problema subyacente, el especialista puede comenzar a prestar la verdadera asistencia iterando de forma ordenada sobre el catálogo de posibles soluciones disponibles. Los especialistas de soporte técnico en este grupo habitualmente manejan problemas simples de resolución sencilla, posiblemente haciendo uso de algún tipo de herramienta de gestión del conocimiento. Esto incluye métodos de resolución de problemas como la verificación de incidencias en las líneas físicas, resolución de problemas de usuario y contraseña, instalación/reinstalación básica de aplicaciones software, verificación de configuración apropiada de hardware y software, y asistencia mediante la navegación de menús de aplicación. El personal a este nivel tiene un conocimiento entre básico y general del producto o servicio y no siempre ha de tener la competencia necesaria para resolver problemas complejos. No en vano, el objetivo de este grupo es manejar entre el 70-80 % del de los problemas del usuario antes de concluir en la necesidad de escalar la incidencia a un nivel superior. En algunos sectores, el soporte de 1.er nivel en realidad requiere muy buen conocimiento de los productos y de los términos y condiciones ofrecidas por el negocio más allá de los conocimientos técnicos propiamente dichos. Este es el nivel básico de soporte técnico. Los conocimientos con los que cuenta son: Formateo de computadoras, instalación de paquetería y cambios de piezas de computadoras. Existen diferentes tipo de soporte técnico que se pueden realizar a los usuarios entre estos encontramos los siguientes:  Soporte Técnico Presencial: Es aquella asistencia que se proporciona a cualquier usuario que presente un desperfecto, anomalía, daño o problema en su computadora. Se proporciona al hardware y software en el lugar donde se encuentre el equipo de cómputo. Consiste en que haya contacto entre el técnico y la computadora a reparar.  Soporte Técnico A Distancia: Consisten en una asistencia que se proporciona a cualquier usuario para su equipo de cómputo a largas distancias a través de línea telefónica, internet o cualquier otro tipo de contacto.  En Línea: es el que se da a través de correos electrónicos, chat, páginas web, etc. para ayudar a un usuario a resolver sus problemas diciéndole como lo debe de hacer paso por paso para que el problema se resuelva correctamente.
  • 24.  Asistencia Telefónica: este es el más común, es el que mayormente ponen en práctica las empresas. SOPORTE TÉCNICO A EQUIPOS El Soporte Técnico a Equipos es una serie de Servicios que Proporcionan Asistencia con el Hardware o el Software de un Equipo, como los Portátiles, Computadores de Escritorio, Periféricos de Computador e Impresoras. Los Servicios de Soporte Técnico a Equipos tratan de resolver determinados problemas propios del Hardware o Software, que se encuentran fuera de la posibilidad de solucionarlos el Usuario aun con Asistencia Especializada. SISTEMA OPERATIVO CANAIMA: Canaima es una distribución GNU/Linux Venezolana basada en Debian surgida como consecuencia del Decreto Presidencial 3.3901 sobre el uso de Tecnologías Libres en la APN Venezolana, promulgado por el Presidente Hugo Chávez Frías. El 14 de marzo de 2011 en la Gaceta Oficial Nº 39.633. Características Principales:  Totalmente desarrollada en Software Libre.  No está limitada al uso en la APN, sino que puede ser usado por cualquier persona.  Se encuentra equipado con herramientas ofimáticas  Permite la interacción con Internet, a través de su navegador web, gestor de correo electrónico y aplicaciones para realizar llamadas telefónicas por la red.  Es estable y segura, basada en la versión estable de GNU/Linux Debian, la cual pasa por una serie de procesos y pruebas rigurosas de calidad.  Realizada en Venezuela por talento nacional. SOFTWARE INCLUIDO Escritorio de Canaima GNU/Linux 2.0: Como otras distribuciones, Canaima GNU/Linux posee aplicaciones diversas para llevar a cabo tareas de ofimática, entretenimiento, desarrollo y configuración de todo el sistema. Su interfaz predeterminada es GNOME. Existen otras versiones extraoficiales mantenidas por la comunidad, con diferentes escritorios, como XFCE.
  • 25. OFIMÁTICA: Suite de Oficina LibreOffice, con los siguientes módulos:  Procesador de textos  Hoja de cálculo  Generador de Presentaciones  Generador de fórmulas matemáticas y software de dibujo  Gestión de proyectos: Planner  Editor de HTML.: Siguiendo la tendencia impuesta por otras organizaciones que realizan distribuciones GNU/Linux, desde la versión 3, LibreOffice sustituyó a OpenOffice.org y a partir de la versión 3.1 deja de ser incorporado el gestor de base de datos de esta suite de oficina. INTERNET:  Navegador web: Cunaguaro,7 basado en Iceweasel, presente desde la versión 3.0 de Canaima y que sustituye al navegador Curiara.  Cliente de correo electrónico: Guácharo.8  Cliente de mensajería instantánea: Pidgin.9  Cliente Twitter: Turpial.10 GRÁFICOS:  Libreoffice Draw.  GNU Paint.  Editor de diagramas Dia.  Gimp  Inkscape  Visor de cámara Web Cheese.  Shotwell Photo Manager.  Software de escaneo de imágenes Xsane.
  • 26. PROGRAMACIÓN:  Quanta Plus.  Eclipse.  Anjuta: Entorno de desarrollo integrado para programar en los lenguajes de programación C, C++, Java, Python y Vala, en sistemas GNU/Linux y BSDen los lenguajes C, C++, Java y Python, en sistemas GNU/Linux. PROYECTO CANAIMA EDUCATIVO: El Proyecto Canaima Educativo es un proyecto desarrollado por el Gobierno de la República Bolivariana de Venezuela con el objetivo de garantizar el acceso de los venezolanos y las venezolanas a las Tecnologías de información, mediante:  La dotación de una computadora portátil a los estudiantes y los docentes de las escuelas nacionales, estadales, municipales, autónomas y las privadas subsidiadas por el Estado.  La conexión de escuelas a la red de Internet.  La formación para el buen uso de estas tecnologías. OBJETIVOS DEL PROYECTO CANAIMA EDUCATIVO  Objetivo General: Promover la formación integral de los niños y niñas venezolanos (as), mediante el aprendizaje liberador y emancipador apoyado por las tecnologías de información libres.  Objetivos Específicos: 1) Promover el desarrollo integral de los niños y niñas en correspondencia con los fines educativos. 2) Profundizar la concreción del desarrollo curricular para la formación integral y con calidad de los niños y niñas venezolanos. 3) Transformar la praxis docente con el uso crítico y creativo de las Tecnologías de Información Libres. 4) Desarrollar las potencialidades en Tecnologías de Información Libres, para el apoyo a los procesos educativos. El Proyecto está desarrollado bajo software libre, desde la elaboración del Sistema Operativo y de contenidos educativos 100% venezolanos. Se mani-esta en dos modalidades: “Canaima va a la escuela” realizada en 1er grado bajo el sistema de
  • 27. red salón y “Canaima va a mi casa” desde 2do grado a 6to grado del Nivel de Educación Primaria. CANAIMITAS: El Computador Portátil Canaima Educativo, Dirigido a Estudiantes, Es un Equipo creado con el propósito de ser utilizado por Niños y Niñas en Edad Escolar. Por su Tamaño, Peso y Autonomía de Uso, es Ideal para el Aula de Clases. Cuentan con un Procesador Intel Mobile y Tarjeta de Red con Tecnología Wi-fi, lo cual hace posible que se Conecten Inalámbricamente a Internet. También incluyen Cámara Web, Sonido Estéreo, Parlantes, Micrófono Incorporado y una Batería de larga Duración, La cual misma varía según el Modelo del Equipo. Adquiridas en convenio con Portugal, Desde el año 2011 en Venezuela, se Ensamblan Computadoras Canaimas en el Complejo Tecnológico Simón Rodríguez, Ubicado en el Municipio Baruta del Estado Miranda, al igual que en el Complejo Tecnológico Simón Bolívar, Ubicado en La Carlota (Caracas) y así muchos otras Instalaciones que se encuentran en todo el País. Se han entregado cinco modelos de computadora a alumnos y profesores, con las características que se detallan: CANAIMA 1  Portátil Magallanes Canaima MG10T  Procesador: Intel Atom N270 1600MHz  Memoria RAM: 1 GB.  Disco duro: 40GB de 2,5”  Monitor: TFT de 7”  Webcam.  3 puertos USB.  Lector y grabador de para memorias Secure Digital.  Sistema Operativo: Canaima GNU/Linux. CANAIMA 2  Portátil Magallanes Canaima MG10T  Procesador: Intel Atom N270 1600MHz  Memoria RAM: 2 GB.
  • 28.  Disco duro: 160GB 2.5”  Monitor: TFT de 7”  Webcam.  3 puertos USB.  Lector y grabador de para memorias Secure Digital.  Sistema Operativo: Canaima GNU/Linux. CANAIMA 3.1  Procesador: Intel celeron N455 1660MHz  Memoria RAM: 1GB ddr3.  Disco duro: 300 GB 2,5”  Monitor: LED 10.1”  Tarjeta de red: según la norma 802.11 B/G  Webcam de 0,3 Megapíxeles.  Batería de 3 celdas  3 puertos USB.  Lector y grabador de para memorias Secure Digital.  Sistema Operativo: Canaima GNU/Linux. CANAIMA 4  Portátil Magalhaes 5 Canaima XL  Procesador: Intel® Celeron(R) CPU 847 @ 1.10GHZ  Memoria RAM: 2GB  Disco duro: Samsung HDD 250GB HM251HI  Monitor: TFT 11.6”  Webcam: Bison BN1RM6YKU-320(1.0M HD)
  • 29.  3 puertos USB  Lector y grabador de para memorias Secure Digital  Sistema Operativo: Canaima GNU/Linux CANAIMA DOCENTE  Portátil Magallanes Canaima MG3 Canaima XL  Procesador: Intel Atom N455 1660MHz  Memoria RAM: 1GB DDR3.  Disco duro: 250 GB 2,5”  Tarjeta de red: según la norma 802.11 B/G/N.  Monitor: 11.6”  Webcam de 0,3 Megapixeles.  Batería de 3 celdas.  Botón de inicio: Launch Button X 2  3 puertos USB.  Lector y grabador de para memorias Secure Digital.  Sistema Operativo: Canaima GNU/Linux. CANAIMA DOCENTE VIT D2100  Computadora Portátil VIT D2100.  Procesador: Intel Core Duo T8100.  Disco duro: 80 GB. 2.5” SATA.  Tarjeta de red: según la norma 802.11 B/G/N.  Monitor: TFT 14.1” WXGA (1280×800)  3 puertos USB.  Adaptador de corriente.
  • 30.  Batería removible de 6-celdas con capacidad de 4000mAh o 4400mAh CANAIMA DOCENTE VIT M2400  Computadora Portátil VIT M2400  Procesador: Intel Core Duo FSB800 2.1GHZ.  Disco duro: 560GB SATA de 5400 RPM.  Memoria: 2GB DDR2.  Tarjeta de red: según la norma 802.11 B/G/N.  Monitor: TFT 14.1” (1280×800)  3 puertos USB.  Batería removible de 6-celdas con capacidad de 4000mAh. VINCULACIÓN DEL PROYECTO CON EL PLAN DE LA PATRIA 2013 – 2019 OBJETIVOS HISTÓRICOS OBJETIVOS NACIONALES OBJETIVOS ESTRATEGICOS I.- Defender, Expandir y Consolidar el bien más preciado que hemos reconquistado después de 200 años: la Independencia Nacional. 1.5- Desarrollar nuestras capacidades Científico- Tecnológicas vinculadas a las necesidades del Pueblo. 1.5.1 – 1.5.1.1 – 1.5.1.2 – 1.5.1.3 – 1.5.1.4 – 1.5.2.1 – 1.5.3 – 1.5.3.1 – 1.5.3.3 III.- Convertir a Venezuela en un País Potencia en lo Social, lo Económico y lo Político dentro de la Gran Potencia Naciente de América Latina y el Caribe, que garanticen la conformación de una Zona de Paz en Nuestra América. 3.4- Profundizar el Desarrollo de la nueva Geopolítica Nacional y Regional, Latinoamericana y Caribeña. 3.4.12.11- Incorporar los Nuevos Desarrollos y las Zonas Sin Servicio a la Red de Telecomunicaciones, para asegurar el Acceso a Telefonía, Televisión e Internet.
  • 31. CAPITULO III MARCO METODOLÓGICO METODOLOGÍA DE CAMPO Es el proceso que, utilizando el método científico, permite obtener nuevos conocimientos en el campo de la realidad social. O bien, estudiar una situación para diagnosticar necesidades y problemas a efectos de aplicar los conocimientos con fines prácticos). La investigación de campo corresponde a un tipo de diseño de investigación, para la cual Carlos Sabino (S/f) en su texto "El proceso de Investigación" señala que se basa en informaciones obtenidas directamente de la realidad, permitiéndole al investigador cerciorarse de las condiciones reales en que se han conseguido los datos. En otras palabras, el investigador efectúa una medición de los datos. Sin embargo, qué tanto datos se pueden obtener considerando las restricciones de cada estudio como por la carencia de recursos materiales, humanos, monetarios, físicos. Sabino señala en el texto referido, algunos tipos de diseño empleados con frecuencia, estos son:  Diseño experimental: consiste en someter el objeto de estudio a variables, condiciones controladas y conocidas por el investigador para observar los resultados que cada variable ejerce sobre el objeto bajo estudio. No aplica para estudios sociales.  Diseño post – facto: consiste en que le investigador realice una prueba donde no controla ni regula el entorno se efectúa posterior a los hechos.  Diseño encuesta: consiste en preguntar de forma directa y simple a determinadas personas representativas de la población bajo estudio, para conocer su comportamiento. Aplica para ciencias sociales.  Diseño panel: consiste en encuestas repetidas que se aplica a una misma muestra para observar la evolución, efectuándose en lapsos prefijados y regulares. Sin embargo, la progresiva reducción de la muestras por diversas causas (fatiga, traslado, etc.,) ocasiona que el error muestral se
  • 32. incrementa progresivamente afectando negativamente la calidad de los resultados.  Diseños cualitativos: trata de recuperar para el análisis, parte de la complejidad del sujeto, modo de ser y hacer en el medio que lo rodea, lo subjetivo.  Estudio de Casos: consiste en profundizar el estudio en uno o varios objetos de investigación. METODOLOGÍA 1. Concebir la Idea a Investigar: La interacción constante con el ambiente nos permite observar situaciones que a menudo despiertan una serie de interrogantes. Por ejemplo, en la práctica de enfermería podemos observar que la mayoría de pacientes prefiere la atención de determinadas enfermeras. Ante esto, surgen inevitablemente preguntas como:  ¿Por qué prefieren a "fulanita" para que los atienda?  ¿Cuál es la calidad de la atención que proporcionarnos las demás enfermeras?  ¿La calidad de la atención tiene que ver en la recuperación del paciente?  Son muchas las interrogantes que el investigador se plantea a la hora de elegir un tema de investigación.  Lo primero es ¿Qué investigar? Aunque esta interrogante parece fácil, no lo es. En el mundo complejo donde el investigador se mueve, existe un universo de problemas que solo el deberá descifrar.  El primer problema será entre varias alternativas, es decir, establecer prioridades al momento de enfrentarse con lo que de ahora en adelante, se llamara: objeto de investigación, problema de investigación o tema de investigación.  El investigador deberá seleccionar aquel problema que responda a muchas condiciones propias a él, como se explican a continuación: Objetividad: Escogerá el problema y lo investigara lo más objetivamente posible, tratando que lo subjetivo no intervenga a priori, para así no distorsionar la investigación y aunque es un tanto difícil desprenderse de esa subjetividad, debe procurar hacerlo. Ello no significa el desprendimiento total de ello, por cuanto a la hora de analizar e interpretar los datos, producto de la recogida
  • 33. de la información por diferentes técnicas de recolección de datos, esa información requerirá de la capacidad de interpretación del investigador, para así determinar los logros que se pretenden alcanzar, cuando utiliza los referentes empíricos (datos, hechos) y que el mismo deberá identificar dentro del proceso de investigación.  Agrado del tema: Es parte del éxito de la investigación. Cuando el tema no es de agrado, existirá una predisposición a que todo lo que vaya a hacer le salga mal, hay desaliento, no hay motivación. Por ello es recomendable que el investigador se compenetre con el objeto, como si se tratara de un matrimonio del sujeto con el objeto.  Conocimientos previos sobre el tema: Es importante que investigador sea una persona que tenga hábitos de lectura. Esta constancia le permitirá ser conocedor del problema que va a someter a investigación. No es lo mismo partir de la nada que con un conocimiento previo del tema objeto de estudio, pues ello será importante como fuente de información general y así el podrá comparar y determinar cuáles serán las fuentes principales de la investigación.  Apoyo documental o bibliográfico: Es la condición que permitirá brindarle el mayor soporte para lo que se pretende investigar. El material de apoyo significa que el tema ha sido estudiado por otros autores, pero con variables distintas y de ser coincidentes deberá considerarlos en periodos de tiempo diferente o bien, con otros indicadores o referentes empíricos, dentro de las mismas variables. Esta revisión hará que el tema no sea igual a otras investigaciones y que estará con mayor conocimiento para abordar, desde todo punto de vista, la temática seleccionada en ese momento. 2. Selección de la Muestra: La muestra es, en esencia, un subgrupo de la población. Se puede decir que es un subconjunto de elementos que pertenecen a ese conjunto definido en sus necesidades al que llamamos población. De la población es conveniente extraer muestras representativas del universo. Se debe definir en el plan, y justificar, los universos en estudio, el tamaño de la muestra, el método a utilizar, y el proceso de selección de las unidades de análisis. En realidad, pocas veces es posible medir a la población por lo que obtendremos o seleccionaremos y, desde luego, esperamos que este subgrupo sea un reflejo fiel de la población. Básicamente se categorizar las muestras es dos grandes ramas: las probabilísticas y las no probabilísticas. Entiéndase por muestras probabilísticas como el subgrupo de la población en el que todos los elemento de este tienen la
  • 34. misma probabilidad de ser escogidos; por consiguiente, las muestras no probabilísticas es cuando la elección de los elementos no depende la probabilidad, sino con causas relacionadas con las características de la investigación o de quien hace la muestra. La selección de la muestra también la podemos ver desde dos puntos de vista: muestra cuantitativa y muestra cualitativa. La muestra cuantitativa es un subgrupo de la población del cual se recolectan los datos y debe ser representativo en dicha población. Por otra parte, la muestra cualitativa es la unidad de análisis o conjunto de personas, contextos, eventos o sucesos sobre la cual se recolectan los datos sin que necesariamente sea representativo. 3. Marco Teórico: Representa el soporte inicial de la investigación. También se le llama Marco Teórico Conceptual, Marco Referencial, Marco Estructural Conceptual de la Investigación y Marco Conceptual. Aborda las características del fenómeno o problema en estudio. Estas características (cualidades) constituyen las variables, que no son más que las diferentes proposiciones, diversos conocimientos, que permitirán estudiar al problema. Es razonable que el investigador conozca de las diferentes teorías que soportaran inicialmente el estudio, de allí la importancia de las bases teóricas. Las funciones que cumple el marco teórico, permite visualizar las técnicas que operaran metodológicamente en el estudio, por cuanto que está compuesta por un conjunto de categorías básicas. Este marco brinda a la investigación un sistema coordinado y coherente de conceptos y proposiciones que permiten abordar el problema para que este cobre sentido. El marco teórico nos amplía la descripción del problema. Integra la teoría con la investigación y sus relaciones mutuas. Es la teoría del problema, por lo tanto, conviene relacionar el marco teórico con el problema y no con la problemática de donde éste surge. No puede haber un marco teórico que no tenga relación con el problema. Todo hecho anterior a la formulación del problema que sirve para aclarar, juzgar e interpretar el problema planteado, constituye los antecedentes del problema. Establecer los antecedentes del problema, de ninguna manera es hacer un recuento histórico del problema, o presentar fuentes bibliográficas que se va a utilizar, o los datos recolectados los cuales no sabemos en dónde ubicar, o la descripción de las causas del problema. En los antecedentes se hará una síntesis conceptual de las investigaciones o trabajos realizados sobre el problema formulado con el fin de determinar en enfoque metodológico de la misma investigación. El antecedente puede indicar conclusiones existentes en torno al problema planteado. Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir las relaciones que hay entre ellos. Un concepto es una abstracción
  • 35. obtenida den la realidad y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un mismo nombre. Algunos conceptos están estrechamente ligados a objetos de lo que representan, por eso, cuando se define, se busca asegurar que las personas que lleguen a una investigación determinada conozcan perfectamente el significado con el cual se va a utilizar el término o concepto a través de toda la investigación. También la metodología para toda investigación es de importancia fundamental. Para ello se deberá planear una metodología o procedimiento ordenado que se seguirá para establecer lo significativo de los hechos y fenómenos hacia los cuales está encaminado el significado de la investigación. Científicamente, la metodología es un procedimiento general para lograr de una manera precisa el objetivo de la investigación. 4. Definir el Tipo de Investigación: Es necesario tener en cuenta el tipo de investigación o de estudio que se va a realizar, ya que cada uno de estos tiene una estrategia diferente para su tratamiento metodológico. Por ello, se debe indicar el tipo de investigación, si es una investigación, histórica, descriptivas o experimental. Si es un estudio causal, exploratorio o productivo. Conviene señalar que el que investiga debe tener claro los distintos métodos que son posibles de aplicar a las ciencias. Algunos son comunes como el inductivo y el deductivo; el analítico y el sintético, el objetivismo y el subjetivismo, así como otros más, que son específicos a cada ciencia. 5. Establecer las Hipótesis: La hipótesis es el eslabón necesario entre la teoría y la investigación que nos lleva al descubrimiento de nuevos hechos. Por tal, se debe sugerir explicación a ciertos hechos y orientar la investigación a otros. La hipótesis puede ser desarrollada desde distinto puntos de vista, puede estar basada en una presunción, en el resultado de otros estudios, en la posibilidad de una relación semejante entre dos o más variables representadas en un estudio, o puede estar basada en una teoría mediante la cual una suposición de proceso deductivo nos lleva a la pretensión de que si se dan ciertas condiciones se pueden obtener ciertos resultados, es decir, la relación causa - efecto. Una hipótesis sirve de guía para la obtención de datos en función del interrogante presentado en el problema y para indicar la forma como debe ser organizado según el tipo de estudio. 6. Selección de la Muestra: Es la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a extraer algunos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad. Una muestra debe ser representativa si va a ser usada para estimar las características de la población. Los métodos para seleccionar una muestra representativa son numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar una muestra y la naturaleza de los elementos individuales de la población. Por lo tanto, se requiere un gran volumen para incluir todos los tipos de métodos de muestreo.
  • 36. Entre los tipos de muestra más usados en la Investigación tenemos:  Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección al azar. Es decir, cada uno de los individuos de una población tiene la misma posibilidad de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su constitución una tabla de números aleatorios.  Muestreo estratificado: una muestra es estratificada cuando los elementos de la muestra son proporcionales a su presencia en la población. La presencia de un elemento en un estrato excluye su presencia en otro. Para este tipo de muestreo, se divide a la población en varios grupos o estratos con el fin de dar representatividad a los distintos factores que integran el universo de estudio. Para la selección de los elementos o unidades representantes, se utiliza el método de muestreo aleatorio.  Muestreo por cuotas: se divide a la población en estratos o categorías, y se asigna una cuota para las diferentes categorías y, a juicio del investigador, se selecciona las unidades de muestreo. La muestra debe ser proporcional a la población, y en ella deberán tenerse en cuenta las diferentes categorías. El muestreo por cuotas se presta a distorsiones, al quedar a criterio del investigador la selección de las categorías.  Muestreo intencionado: también recibe el nombre de sesgado. El investigador selecciona los elementos que a su juicio son representativos, lo que exige un conocimiento previo de la población que se investiga.  Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se puede seleccionar las unidades de la muestra en forma aleatoria y después aplicar el muestreo por cuotas.  Muestreo tipo master simple: es una aplicación combinada y especial de los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada" al disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y una vez establecida, constituirá el módulo general del cual se extraerá la muestra definitiva conforme a la necesidad específica de cada investigación.
  • 37. 7. Recolección de Datos: La investigación no tiene sentido sin las técnicas de recolección de datos. Estas técnicas conducen a la verificación del problema planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que serán empleados. Todo lo que va a realizar el investigador tiene su apoyo en la técnica de la observación. Aunque utilice métodos diferentes, su marco metodológico de recogida de datos se centra en la técnica de la observación y el éxito o fracaso de la investigación dependerá de cual empleó. Los instrumentos que se construirán llevaran a la obtención de los datos de la realidad y una vez recogidos podrá pasarse a la siguiente fase: el procesamiento de datos. Lo que se pretende obtener responde a los indicadores de estudio, los cuales aparecen en forma de preguntas, es decir, de características a observar y así se elaboraran una serie de instrumentos que serán los que en realidad, requiere la investigación u objeto de estudio. La recolección de datos se refiere al uso de una gran diversidad de técnicas y herramientas que pueden ser utilizadas por el analista para desarrollar los sistemas de información, los cuales pueden ser la entrevistas, la encuesta, el cuestionario, la observación, el diagrama de flujo y el diccionario de datos. Todos estos instrumentos se aplicarán en un momento en particular, con la finalidad de buscar información que será útil a una investigación. 8. Análisis de Datos: Es en esta etapa cuando el investigador siente que su labor se está viendo culminada. Aquí estarán cifradas sus esperanzas de comprobación de sus supuestos, como también el amargo sabor de que algo faltó y que debe iniciar de nuevo el camino para ver qué ocurrió. Los cuadros elaborarlos deberá analizarlos e interpretarlos para sacar sus conclusiones. Aquí entra el sentido crítico objetivo-subjetivo que le impartirá a esos números recogidos en los cuadros. Esos números son abstractos y es el investigador quien les dará sentido. Para llegar a esta parte crucial del proceso, ha tenido que recorrer un largo camino, horas incontables que se pierden en el tiempo, recursos no fáciles de recuperar, horas de paciencia y de malos ratos, horas de sueño y de recompensa, de angustias y de alegrías. Estos son apenas unos indicadores de lo que significa realizar un trabajo de investigación.
  • 38. 9. Presentación de los Resultados: Con el material ya recogido y organizado, inicia una de las etapas más interesantes, darle sentido, forma, explicación de los resultados obtenidos. Consiste en la culminación. La labor completa de la información con los datos procesados, analizados e interpretados, donde se ha podido llegar a la determinación de la validez de las posiciones, donde se ha llegado a establecer la eficacia de todo el proceso planificado, donde se han verificado las hipótesis según el diseño seleccionado, donde las variables han sido operacionalizadas. El Diseño Encuesta: Es un proceso prácticamente exclusivo de las ciencias sociales. Parte de la premisa de que si queremos conocer algo acerca del comportamiento de las personas, lo mejor es preguntárselo directamente a ellas. La encuesta puede aplicarse de diferentes modos, a explicar:  Auto Administrado: La encuesta se proporciona directamente a los respondientes, quienes lo contestan. No hay intermediarios y las respuestas las hacen ellos mismos. Por ejemplo, si los encuestados fueran los estudiantes de Derecho de la Facultad de Ciencias Jurídicas, Políticas y Criminológicas de la Universidad de Los Andes, se acudirá directamente a ellos y se les entregara el cuestionario. Evidentemente que este modo de aplicar el cuestionario es impropio para analfabetas, personas que tienen dificultades de lectura o niños que todavía no leen de manera adecuada.  Por entrevista personal: El entrevistador deberá aplicar el cuestionario a los encuestados haciéndole preguntas al respondiente e ir anotando los resultados. En este caso las instrucciones deben ser para el entrevistador. Normalmente se tienen varios encuestadores quienes deberán estar capacitados en el arte de entrevistar y conocer a fondo el cuestionario. De igual forma, no puede sesgar o influir en las respuestas.  Por entrevista telefónica: Esta situación es similar a la anterior, solo que la entrevista no es "cara a cara", sino a través del teléfono. El entrevistador le hace preguntas al entrevistado solo por medio de la voz y deberá el mismo anotar las respuestas.  Auto administrado y enviado por correo postal o electrónico: Los respondientes contestan directamente el cuestionario, estos marcan o anotan las respuestas sin intermediarios. La diferencia está en que el cuestionario se entrega directamente en las manos del entrevistado y este se reenvía por correo u otro medio. Si es por correo o mensajería, no hay
  • 39. retroalimentación inmediata y si los sujetos tienen alguna duda no se les puede aclarar. Las encuestas por Internet han ido ganando terreno y, a diferencia de la anterior, estas si ofrecen la posibilidad de interacción y asesoría. Conforme más personas tengan acceso a Internet, este medio cobrara más fuerza. La Observación: La observación puede ser participante o no participante. En la primera el observador interactúa con los sujetos observados, pero en la segunda no ocurre tal interacción. Por ejemplo, un estudio sobre la conducta de aprendizaje de niños autistas, donde el instructor tiene que interactuar con los niños y al mismo tiempo codificar. La observación tiene varias ventajas, a seguir:  Son técnicas de medición no obstructivas, en el sentido que el instrumento de medición no estimula el comportamiento de los sujetos. Los métodos no obstructivos simplemente registran algo que fue estimulado por otros factores ajenos al instrumento de medición.  Acepta material no estructurado.  Pueden trabajar con grandes volúmenes de datos. El Dato: Una vez planteada la investigación y realizadas todas las tareas que permitan la puesta en marcha de una investigación, corresponde pasar al campo mismo de estudio para efectuar en el la recolección de datos e información, con el fin de dar respuesta al problema planteado como forma de estudio. Existen numerosos procedimientos para la tarea de recolección de datos, variables conforme a las circunstancias concretas de la índole de la investigación. Las técnicas más utilizadas en la recolección de datos son: La observación, la entrevista, el cuestionario, las escalas de actitudes y opiniones, los test, la sociometría, la recopilación documental, la semántica documental, el análisis de contenido, etc. También la "práctica social" es fuente de conocimiento en una investigación. Recolección de Datos: Constituye una fase completamente mecánica, la cual puede llevarse a cabo de forma manual o computarizada. Todo depende del tipo de muestra que se haya determinado dentro de la investigación, es decir, la muestra que representa el objeto de estudio.
  • 40. Si la muestra es pequeña, el investigador puede manejar los datos utilizando sus medios manuales, pero si la muestra es grande, necesitara apoyarse en medios más tecnificados como el uso de computadoras que permitan ofrecerles resultados más rápidos y quizás menos riesgosos que si los realizara manualmente. En cualquiera de las dos formas que emplee, deberá llevar a cabo todo un proceso sistematizado, que parte de clasificar los datos de tal forma que le sea fácil su estudio. Previamente los ordenará y procederá a elaborar su propia guía, permitiendo así el fácil procesamiento de los datos. Para ello deberá considerar cuatro pasos, los cuales son: Agrupación, Categorización, Codificación y Tabulación. (ACCT). Cualquiera que sea el instrumento o medio utilizado para recabar la información, esta tendrá carácter meramente empírico. Los datos recogidos están en función de los tipos de preguntas elaboradas. Algunas respuestas serán directas y otras teóricas, que permitirán comprobar la validez de las hipótesis. Las respuestas deben analizarse y el primer paso será el proceso de Agrupación.  Agrupación: Consiste en la facultad que tiene el investigador de agrupar todas las respuestas similares o con gran parecido, de tal manera que la información obtenida pueda manejarse con mayor comodidad, tratando que los grupos que la conforman no serán demasiados y se haga fácil el proceso.  Categorización: La agrupación anterior conlleva al señalamiento de las categorías o ítems en que estas respuestas deben concentrarse. Establecerá las que considere convenientes para su estudio según lo señalado en la fase de operacionalización.  Codificación: Consiste en la expresión numérica a la que será sometida cada una de las respuestas verbales y que en el caso estudiado, corresponderá asignarle a cada una de las categorías. El código podrá ser también en letras, queda a elección del sistema que elija el procesador de datos.  Tabulación: Consiste en la contabilización que se efectúa de cada una de las preguntas para determinar numéricamente las respuestas obtenidas.
  • 41. Importancia de la Recolección de Datos: La investigación no tiene sentido sin las técnicas de recolección de datos, estas técnicas conducen a la verificación del problema planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que sean empleados. Todo lo que va a realizar el investigador tiene su tiene su apoyo en la técnica de recolección de datos. Aunque utilice medios diferentes, su marco metodológico de recolección de datos se concentra en la técnica de la observación y el éxito o fracaso del proceso investigativo dependerá de cual empleo. Los Instrumentos que se construirán, llevaran a la obtención de los datos de la realidad y una vez recogidos se podrá pasar a la siguiente fase del procesamiento de los datos obtenidos como información. Análisis de los Datos: Los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", esto es, encontrarles significación. En esto consiste, en esencia, el análisis e interpretación de los datos. El propósito es poner de relieve todas y cada una de las partes del conjunto que proporcionan respuestas a los integrantes de la investigación, es decir, a los problemas formulados. El objetivo del análisis es buscar un significado más amplio a las respuestas mediante su comparación con otros conocimientos disponibles: generalizaciones, leyes, teorías, etc. Básicamente, el análisis e interpretación de datos es la culminación de todo el proceso de la investigación, porque las fases precedentes se ordenan en función de esta tarea. Cabe destacar que tanto el análisis como la interpretación de los datos tienen mucho más de trabajo artesanal, por tanto, esta fase no puede reducirse a una simple operación contable. METODOLOGÍA DOCUMENTAL La Investigación Documental como una variante de la investigación científica, cuyo objetivo fundamental es el análisis de diferentes fenómenos (de orden histórico, psicológico, sociológico, etc.), utiliza técnicas muy precisas, de la Documentación existente, que directa o indirectamente, aporte la información. Podemos definir a la investigación documental como parte esencial de un proceso de investigación científica, constituyéndose en una estrategia donde se observa y reflexiona sistemáticamente sobre realidades (teóricas o no) usando para ello diferentes tipos de documentos. Indaga, interpreta, presenta datos e informaciones sobre un tema determinado de cualquier ciencia, utilizando para ello, una metódica
  • 42. de análisis; teniendo como finalidad obtener resultados que pudiesen ser base para el desarrollo de la creación científica. Visto en estos términos, la Investigación Documental podemos caracterizarla de la siguiente manera:  Se caracteriza por la utilización de documentos; recolecta, selecciona, analiza y presenta resultados coherentes.  Utiliza los procedimientos lógicos y mentales de toda investigación; análisis, síntesis, deducción, inducción, etc.  Realiza un proceso de abstracción científica, generalizando sobre la base de lo fundamental.  Realiza una recopilación adecuada de datos que permiten redescubrir hechos, sugerir problemas, orientar hacia otras fuentes de investigación, orientar formas para elaborar instrumentos de investigación, elaborar hipótesis, etc.  Puede considerarse como parte fundamental de un proceso de investigación científica, mucho más amplio y acabado.  Es una investigación que se realiza en forma ordenada y con objetivos precisos, con la finalidad de ser base a la construcción de conocimientos.  Se basa en la utilización de diferentes técnicas de: localización y fijación de datos, análisis de documentos y de contenidos. En un sentido restringido, entendemos a la investigación documental como un proceso de búsqueda que se realiza en fuentes impresas (documentos escritos). Es decir, se realiza una investigación bibliográfica especializada para producir nuevos asientos bibliográficos sobre el particular. Una confusión muy generalizada, coloca como iguales, a la investigación bibliográfica y a la investigación documental. Esta afirmación como podemos observar, reduce la investigación documental a la revisión y análisis de libros dejando muy pobremente reducido su radio de acción. La investigación bibliográfica, aclaramos, es un cuerpo de investigación documental. Asumimos la bibliografía como un tipo específico de documento, pero no como el Documento. Las Fuentes de Información de la Investigación Documental son: FUENTE PRIMARIA: Libros, artículos, monografías, tesis, documentos, trabajos de investigación presentados en conferencias, congresos y seminarios .Estas fuentes son los documentos que registran o corroboran el conocimiento inmediato de la investigación. Incluyen libros, revistas, informes técnicos y tesis. Libros: De
  • 43. acuerdo con la UNESCO (1964), se llama libro a aquella publicación que tiene más de 49 páginas, y folleto a la que tiene entre cinco y 48 páginas. Informes técnicos: En este tipo de informes se incluyen las memorias de conferencias, los informes de congresos, reuniones y otros. Son importantes debido a que la información generalmente versa sobre asuntos de actualidad que afectan a una comunidad particular o son de interés grupal. Diarios y periódicos. FUENTE SECUNDARIA: Resúmenes y listados de referencias publicados en un área específica de conocimiento. Cualquier fuente secundaria que se utilice tendrá que ser objeto de comprobación de cualquier factor que puedan afectar la exactitud o la validez de la información Este renglón incluye las enciclopedias, los anuarios, manuales, almanaques, las bibliografías y los índices, entre otros; los datos que integran las fuentes secundarias se basan en documentos primarios. Depósitos de información: el primer paso para recabar datos es acudir a los centros de información, como biblioteca, hemeroteca, archivos y museos. En la búsqueda de información en la biblioteca es importante tener algunas nociones sobre su organización y funcionamiento, tales como: Los libros están ordenados de manera alfabética. Se clasifican por fichas. Se marca en los lomos del libro el código por fechas. Se forman catálogos Se elaboran registros para localizar materiales afines a la obra. Por lo tanto se trata de hacer una cuidadosa revisión de los estudios teóricos y prácticos que ya se han realizado y que tienen relación con el problema planteado. Esta revisión se debe hacer porque no existe campo del conocimiento, completamente nuevo o inexplorado. Todo estudio debe tomar elementos del pasado y reconocer lo que otras personas o investigadores han hecho. No realizar una exhaustiva revisión documental conduce a errores graves y a desaprovechar la oportunidad de hacer un trabajo más original y metodológicamente más objetivo. Por eso la investigación documental puede iniciarse directamente en el acopio de las fuentes primarias, situación que ocurre cuando el investigador conoce la ubicación de la información y se encuentra familiarizado con el campo de estudio. Sin embargo se dan casos en los que hay poco material en hemerotecas número reducido de centros de información, donde muchas veces las colecciones de revistas son incompletas o no se encuentran actualizadas y no disponen de documentos muy fiables. OTRAS FUENTES: Con la expansión de las comunicaciones en red una nueva sociedad está emergiendo al lado de la sociedad real. Se trata de la sociedad virtual. Su territorio es el ciberespacio y su tiempo, como no, es el tiempo virtual. Se trata de un fenómeno novedoso, cuyas características son escasamente conocidas, puesto que esta sociedad está en pleno despliegue. Es una sociedad que no podría existir al margen de la sociedad real, que es su soporte material. Pero, aunque comparte con ella un conjunto de rasgos comunes, tiene sus propias especificaciones, que la han convertido en un tema de gran interés para los académicos interesados en indagar las características que tendrá la nueva
  • 44. sociedad que se está gestando en medio de la crisis de la sociedad industrial.¿ Que es la Web grafía ? es un directorio de aplicaciones y recursos libres, puede seleccionar una categoría y explorar los diferentes recursos. ¿Cuáles son las categorías? Actualmente se cuenta con 21 recursos distribuidos en las siguientes 17 categorías Redes, Oficina, Multimedia, Desarrollo, Matemáticas, Juegos, Técnicas, Gráficos, Educación, Ciencia, Ingeniería, Bases de datos, Sistemas operativos, Escritorio, Seguridad, Utilidades, entre otros. ¿Cuáles son los tipos de recursos? En este momento se clasifican los tipos de recursos en 3: Programas, Documentos, Enlaces, en el caso de programas y documentos no se encuentran al interior del portal, de hecho el directorio solo organiza, clasifica y enlaza los recursos. METODOLOGÍA 1.- Elección del Tema:  Está comprobado que con un mayor conocimiento sobre un campo de estudio, será más fácil detectar el área que necesita ser investigada.  El investigador debiera preguntarse lo siguiente: ¿Cuál es el problema que necesita ser investigado? ¿Ayuda la investigación a ampliar los conocimientos en este campo?  Es muy importante que el tema sea motivante, ya que la investigación requiere mucho tiempo y es posible que el interés decaiga. 2.- Acopio de Bibliografía Básica sobre el Tema:  Se reúne todo el material publicado o inédito; artículos, estudios críticos, monografías, ensayos, documentos de archivo, libros, tesis, etc.  Conocer las ideas o datos expuestos anteriormente provee de bases sólidas para mejorar nuestra idea y no repetirla.  Los artículos críticos de revista especializada resultan más ricos y aprovechables por sobre los de tratamiento indirecto. 3.- Elaboración de Fichas Bibliográficas y Hemerográficas:  Permite localizar rápidamente el material en el momento oportuno.  Con los datos básicos de un documento (nombre de libro, autor, editorial, número de edición, etc.) se hace el registro en las fichas. 4.- Lectura Rápida del Material:  Su fin, el de ubicar las principales ideas y conocer la calidad del material recabado  Se recomienda leer las partes que más podrían interesar; índice, introducción, prologo, conclusiones, párrafos específicos, etc.
  • 45.  Alguna idea relevante puede aparecer en un principio en la lectura, no se recomienda subrayarla, probablemente esta aparezca con mayor claridad. 5.- Delimitación del Tema:  Después de la lectura rápida es más fácil delimitar el tema, porque se puede medir su dimensión y alcance, su aspecto formal y su complejidad.  El tema central debe ser preciso, así se enfoca la atención en él y no se dispersa.  Evitar los temas encontrados en las fronteras de 2 o más ciencias. Su estudio requiere conocimientos de diversos campos.  Desde el principio se preferible escoger un tema pequeño y sencillo. 6.- Elaboración del Esquema de Trabajo:  Es un registro visual que representa el esqueleto del escrito con que se concluye el proceso de investigación. Algunos objetivos del esquema son:  Identificar de forma gráfica y analítica, las partes pares y subordinadas del problema.  Detectar defectos de relación  Facilitar el inventario de la información recolectada.  Orientar la recopilación de la información faltante.  El primer esquema sirve fundamentalmente para el acopio de información.  El esquema debe ser tan simple como lo permita; la sencillez o complejidad del problema; la profundidad y la extensión del trabajo; la cantidad de información recabada. 7.- Ampliación del Material Sobre el Tema ya Delimitado:  Se busca nueva información directamente ligada con el tema.  La nueva bibliografía necesita sus fichas. 8.- Lectura Minuciosa de la Bibliografía:  Implica reflexión e interpretación y su resultado son las ideas más importantes que pasan a la fichas de contenido.  Si el libro es nuestro, se destacan las ideas principales de las secundarias con colores, corchetes, llaves, etc.
  • 46. 9.- Elaboración de Fichas de Contenido:  Contiene las ideas más importantes.  Pueden ser mixtas cuando contienen; las ideas del autor y nuestras propias reflexiones y comentarios, de esta manera se imprime orden y coherencia al mismo.  Permiten el fácil manejo de datos e ideas ajenas o propias.  Las fichas nos acercan a la elaboración de un primer borrador del trabajo final. 10.- Organización de las Fichas de Contenido y Revisión del Esquema:  Su objetivo; la valoración del material recopilado, la localización de posibles lagunas, detección de excesos en las ideas transcritas.  La posibilidad de revisar el esquema de trabajo con el fin de darle mayor orden y uniformidad, antes de redactar el borrador. 11.- Organización Definitiva del Fichero:  Para saber si faltan datos esenciales.  Se numeran las fichas con lápiz, para evitas dificultades de reorganización si esta se altera. 12.- Redacción del Trabajo Final:  Conclusión de la investigación, la cual comunica sus resultados mediante un texto escrito, el cual pueda ser consultado por cualquier persona que requiera de esta.  Borrador.  Primera exposición de los hechos o ideas del trabajo final.  Índice e introducción se deja al final de la redacción del borrador.  Se recomienda dejar descansar el borrador, durante un tiempo, para así realizar un análisis frío, crítico, sin ataduras emocionales, con el fin de corregir y redactar el trabajo final.  Redacción final. Su objetivo; comunicar con la mayor claridad y' coherencia posibles los resultados, descubrimientos, comprobaciones o reflexiones logradas a través de todo el proceso de la investigación documental.
  • 47. METODOLOGÍA DESCRIPTIVA Consiste en la Caracterización de un hecho, fenómeno o grupo, con el fin de establecer su estructura o comportamiento. Tiene como objetivo la descripción precisa del evento de estudio. Este tipo de investigación se asocia con el diagnóstico. El método se basa en la indagación, observación, el registro y la definición. Objetivo: El objetivo de la investigación descriptiva consiste en llegar a conocer las situaciones, costumbres y actitudes predominantes a través de la descripción exacta de las actividades, objetos, procesos y personas. Su meta no se limita a la recolección de datos, sino a la predicción e identificación de las relaciones que existen entre dos o más variables. Los investigadores no son meros tabuladores, sino que recogen los datos sobre la base de una hipótesis o teoría, exponen y resumen la información de manera cuidadosa y luego analizan minuciosamente los resultados, a fin de extraer generalizaciones significativas que contribuyan al conocimiento. METODOLOGÍA 1. Examinan las características del problema escogido. 2. Lo definen y formulan sus hipótesis. 3. Enuncian los supuestos en que se basan las hipótesis y los procesos adoptados. 4. Eligen los temas y las fuentes apropiados. 5. Seleccionan o elaboran técnicas para la recolección de datos. 6. Establecen, a fin de clasificar los datos, categorías precisas, que se adecuen al propósito del estudio y permitan poner de manifiesto las semejanzas, diferencias y relaciones significativas. 7. Verifican la validez de las técnicas empleadas para la recolección de datos. 8. Realizan observaciones objetivas y exactas. 9. Describen, analizan e interpretan los datos obtenidos, en términos claros y precisos. Recolección de Datos: En el informe de la investigación se señalan los datos obtenidos y la naturaleza exacta de la población de donde fueron extraídos. La población —a veces llamada universo o agregado— constituye siempre una totalidad. Las unidades que la integran pueden ser individuos, hechos o elementos de otra índole. Una vez identificada la población con la que se trabajará, entonces se decide si se recogerán datos de la población total o de una muestra representativa de ella. El método elegido dependerá de la naturaleza del problema y de la finalidad para la que se desee utilizar los datos.