Este documento resume el proyecto sociotecnológico de un grupo de estudiantes de informática para alfabetizar tecnológicamente a alumnos y docentes de una escuela en el uso del sistema operativo Canaima. El proyecto busca solucionar problemas relacionados con hardware, software y acceso a internet en la escuela. Los estudiantes realizaron un diagnóstico y validaron con la comunidad educativa la falta de conocimientos sobre Canaima como el principal problema a resolver, beneficiando a 37 alumnos y una docente.
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
Avance Semestre 1
1. REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA,
CIENCIA Y TECNOLOGÍA
INSTITUTO UNIVERSITARIO DE TECNOLOGÍA DEL ESTADO BOLÍVAR
PROGRAMA NACIONAL DE FORMACIÓN EN INFORMÁTICA
PROYECTO SOCIOTECNOLÓGICO I
TRAYECTO I SEMESTRE 1
AVANCE DEL SEMESTRE I
GRUPO N° 5 SECCIÓN 4M-INF-I TURNO MAÑANA
INVESTIGADORES: C.I.
ERICK FLORES 25.036.498
JEFFERSON ALFARO 25.087.093
ÁNGEL RAMOS 25.361.387
MARÍA CASTILLO 26.512.109
CIUDAD BOLÍVAR, 02 DE DICIEMBRE DE 2014
2. NOMBRE DEL PROYECTO SOCIO-TECNOLÓGICO I
Alfabetización Tecnológica en el Sistema Operativo Canaima a Las Alumnas,
Alumnos y Docente de Aula del 5to Grado Sección “A” de la Unidad Educativa
Estadal Bachiller “Felipe Hernández” Beneficiarios del Proyecto Educativo
Canaima
TUTORES DEL PROYECTO:
TUTOR TÉCNICO: Jocenh Blanco
TUTORA INSTITUCIONAL: Milagro Velásquez
TUTORA ACADÉMICA: Msc. Carmen Díaz
NOMBRE COMPLETO DE LA INSTITUCIÓN EDUCATIVA
“Unidad Educativa Estadal Bachiller “Felipe Hernández”
UBICACIÓN GEOGRÁFICA:
DIRECCIÓN: Calle Carutal de Casanova Norte
PARROQUIA: Marhuanta MUNICIPIO: Heres
LOCALIDAD: Ciudad Bolívar ESTADO: Bolívar
3. GOOGLE MAPS
PUNTOS DE REFERENCIAS DE LA INSTITUCIÓN ABORDADA:
1.- Ambulatorio de Casanova Norte
2.- Escuela Técnica Comercial “Juan Bautista Farrera”
3.- Altura del Km 8
4. CAPITULO I
EL PROBLEMA
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA
ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON
HARDWARE Y SOFTWARE
HARDWARE SOFTWARE
Equipos a los cuales no se les ha
realizado Mantenimiento Correctivo.
Programas Instalados
Desactualizados.
Algunos Equipos requieren cambio
totalmente necesario de algunas de
las Partes (Piezas) que lo conforman.
Sistema Operativo de los Equipos en
Condiciones Pésimas, debido a
Archivos Maliciosos.
EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABER SOFTWARE QUE
AFECTA A LA INSTITUCIÓN:
Gravedad que Presentan Los Sistemas Operativos de los Equipos de la Institución
en su Funcionamiento.
EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABERES HARDWARE QUE
AFECTA A LA INSTITUCIÓN:
Equipos de la Institución faltantes de Piezas en el Case.
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA
ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON
INFORMÁTICA Y TELEMÁTICA
INFORMÁTICA TELEMÁTICA
Sala de Computación en
Condiciones Negativas.
Inaccesibilidad a La Red Internet.
Gran parte de los Equipos de
Computación Inoperativos.
No Cuenta con Red Salón
5. EL PRINCIPAL PROBLEMA INFORMÁTICO QUE AFECTA A LA
INSTITUCIÓN:
Inoperatividad de algunos Equipos de La Institución, debido a las Deficiencias que
Presentan.
EL PRINCIPAL PROBLEMA TELEMÁTICO QUE AFECTA A LA INSTITUCIÓN:
Privación del Acceso a Internet.
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA
ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON EL
PROYECTO CANAIMA EDUCATIVO
Desconocimiento por
parte de los Alumnos,
en cuanto a los
Programas de Grado
Instalados en las
Canaimas.
Ejecución Inadecuada
del Soporte Técnico a
ciertos Equipos, por
parte de Organismos
Encargados de ello.
Canaimas con
deficiencias en la parte
del Hardware y
Software.
Canaimitas que no
cuentan con
Cargadores.
Niños que no cuentan
con una Portátil
Canaima.
Docente de Aula que no
cuentan con los
Conocimientos
Necesarios de Canaima
Educativo.
EL PRINCIPAL PROBLEMA QUE AFECTA AL PROYECTO CANAIMA
EDUCATIVO EN LA INSTITUCIÓN:
Analfabetismo en el uso de las Canaimas por parte de Las Alumnas, Alumnos y La
Docente de Aula del 5to Grado Sección “A”.
6. POSIBLES SOLUCIONES A ESTE PROBLEMA:
1.- Incentivar a los Padres Representantes a llevar Las Canaimas con problemas
de Hardware, a los distintos Organismos encargados de brindarle Soporte Técnico
a Las Portátiles Canaima.
2.- Diseñar una Metodología para que todos los Niños, además de la Docente de
Aula, que no poseen Canaimitas puedan, de igual manera que los demás recibir,
Los Instructivos de Alfabetización.
3.- Solucionar los Inconvenientes de Software que tengan ciertos Portátiles
Canaima.
N° DE BENEFICIARIOS RECURSOS
NECESARIOS
FECHA PROBABLE DE
EJECUCIÓN DEL
PROYECTO
37 Alumnos y la
Docente de Aula.
HUMANOS
Tutor Técnico
Tutor Institucional
TÉCNICOS
Integrantes del Grupo 5:
Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Marzo de 2015
Aproximadamente.
GRADO SECCIÓN TURNO
5TO A MAÑANA
N° DE CANAIMITAS OPERATIVAS NO OPERATIVAS
35 TOTAL 21 14
7. CRONOGRAMA DE ACTIVIDADES REALIZADAS EN EL SEMESTRE I
ACTIVIDADES FECHAS RESPONSABLES OBSERVACIONES
Diagnóstico a la Institución
Abordada
29-09-2014 Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Recolección de
Datos en la
Institución
Asignada
El Levantamiento de la
Información
08-10-2014
Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Obtención de Datos
e Inventarios a los
Equipos de la
Institución.
Visitas a los Medios de
Comunicación (Radio,
Prensa y Televisión) para
Invitar a la Realización del
Diagnóstico Participativo
06-10-2014
08-10-2014
Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Difusión de Notas
de Prensa,
Volantes, etc. para
asistir al
Diagnóstico
Participativo.
Diagnóstico Participativo
en la Institución Asignada
16-10-2014
Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Identificar
Fortalezas y
Debilidades en la
Ejecución del
Proyecto así como
sus Oportunidades
y Amenazas.
Visitas Organismos que
Apoyan el Proyecto (CBIT,
Infocentro, CGP, Biblioteca
Virtual)
12-11-2014
14-11-2014
Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Recolección de
Datos en los
Organismos que
apoyan la Ejecución
del Proyecto.
Visita a la Institución
Asignada Para Realización
de la “Validación de la
Comunidad”
18-11-2014
Erick Flores
Jefferson Alfaro
Ángel Ramos
María Castillo
Validación Final por
parte de la
Institución
Educativa para la
realización del
Proyecto.
8. CAPITULO II
MARCO TEÓRICO
BASES TEÓRICAS DEL PROYECTO I
SOFTWARE: Existen varias definiciones similares aceptadas para software, pero
probablemente la más formal sea la siguiente: Es el conjunto de los programas de
cómputo, procedimientos, reglas, documentación y datos asociados, que forman
parte de las operaciones de un sistema de computación. Considerando esta
definición, el concepto de software va más allá de los programas de computación
en sus distintos estados: código fuente, binario o ejecutable; también su
documentación, los datos a procesar e incluso la información de usuario forman
parte del software: es decir, abarca todo lo intangible, todo lo no físico relacionado.
El término software fue usado por primera vez en este sentido por John W. Tukey
en 1957. En la ingeniería de software y las ciencias de la computación, el software
es toda la información procesada por los sistemas informáticos: programas y
datos. El concepto de leer diferentes secuencias de instrucciones (programa)
desde la memoria de un dispositivo para controlar los cálculos fue introducido por
Charles Babbage como parte de su máquina diferencial. La teoría que forma la
base de la mayor parte del software moderno fue propuesta por Alan Turing en su
ensayo de 1936, Los números computables, con una aplicación al problema de
decisión.
CLASIFICACIÓN DEL SOFTWARE
Software de Sistema: Su objetivo es desvincular adecuadamente al usuario y al
programador de los detalles del sistema informático en particular que se use,
aislándolo especialmente del procesamiento referido a las características internas
de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras,
pantallas, teclados, etc. El software de sistema le procura al usuario y
programador adecuadas interfaces de alto nivel, controlador, herramientas y
utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye
entre otros:
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
9. Software de Programación: Es el conjunto de herramientas que permiten al
programador desarrollar programas informáticos, usando diferentes alternativas y
lenguajes de programación, de una manera práctica. Incluyen básicamente:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,
usualmente en un entorno visual, de forma tal que el programador no necesite
introducir múltiples comandos para compilar, interpretar, depurar, etc.
Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
Software de Aplicación: Es aquel que permite a los usuarios llevar a cabo una o
varias tareas específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
muchos otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software médico
Software de cálculo numérico y simbólico.
Software de diseño asistido (CAD)
Software de control numérico (CAM)
PROCESO DE CREACIÓN DEL SOFTWARE
Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la
solución de un problema u obtención de un producto, en este caso particular, para
lograr un producto software que resuelva un problema específico. El proceso de
creación de software puede llegar a ser muy complejo, dependiendo de su porte,
características y criticidad del mismo. Por ejemplo la creación de un sistema
operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo
un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo
programa (por ejemplo, la resolución de una ecuación de segundo orden), éste
10. puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es
así que normalmente se dividen en tres categorías según su tamaño (líneas de
código) o costo: de pequeño, mediano y gran porte. Existen varias metodologías
para estimarlo, una de las más populares es el sistema COCOMO que provee
métodos y un software (programa) que calcula y provee una aproximación de
todos los costos de producción en un «proyecto software» (relación horas/hombre,
costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar complejas tareas, tanto
técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras
cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica
para tratar su estudio y realización: es conocida como Ingeniería de Software. En
tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un
avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre
en casos de mediano y gran porte (y a veces también en algunos de pequeño
porte, según su complejidad), se deben seguir ciertas etapas que son necesarias
para la construcción del software. Tales etapas, si bien deben existir, son flexibles
en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo
escogido y utilizado por el equipo de desarrollo o por el analista-programador
solitario (si fuere el caso).
HARDWARE: El término hardware se refiere a todas las partes tangibles de un
sistema informático; sus componentes son: eléctricos, electrónicos,
electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo
tipo y la Real Academia Española lo define como Conjunto de los componentes
que integran la parte material de una computadora. El término, aunque sea lo más
común, no solamente se aplica a las computadoras; del mismo modo, también un
robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia
poseen hardware. La historia del hardware de computador se puede clasificar en
cuatro generaciones, cada una caracterizada por un cambio tecnológico de
importancia. Una primera delimitación podría hacerse entre hardware básico, el
estrictamente necesario para el funcionamiento normal del equipo, y
complementario, el que realiza funciones específicas. Un sistema informático se
compone de una unidad central de procesamiento (UCP o CPU), encargada de
procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso
de la información y uno o varios periféricos de salida, los que posibilitan dar salida
(normalmente en forma visual o auditiva) a los datos procesados.
CLASIFICACIÓN DEL HARDWARE
Una de las formas de clasificar el hardware es en dos categorías: por un lado, el
básico, que abarca el conjunto de componentes indispensables necesarios para
otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware
11. complementario, que, como su nombre indica, es el utilizado para realizar
funciones específicas (más allá de las básicas), no estrictamente necesarias para
el funcionamiento de la computadora. Necesita un medio de entrada de datos, la
unidad central de procesamiento, la memoria RAM, un medio de salida de datos y
un medio de almacenamiento constituyen el hardware básico. Los medios de
entrada y salida de datos estrictamente indispensables dependen de la aplicación:
desde el punto de vista de un usuario común, se debería disponer, al menos, de
un teclado y un monitor para entrada y salida de información, respectivamente;
pero ello no implica que no pueda haber una computadora en la que no sea
necesario teclado ni monitor; bien puede ingresar información y sacar sus datos
procesados, por ejemplo, a través de una placa de adquisición/salida de datos.
Desde un punto de vista básico y general, un dispositivo de entrada es el que
provee el medio para permitir el ingreso de información, datos y programas
(lectura); un dispositivo de salida brinda el medio para registrar la información y
datos de salida (escritura); la memoria otorga la capacidad de almacenamiento,
temporal o permanente (almacenamiento); y la CPU provee la capacidad de
cálculo y procesamiento de la información ingresada.
La Unidad Central de Procesamiento: conocida por las siglas en inglés CPU, es el
componente fundamental de la computadora, encargado de interpretar y ejecutar
instrucciones y de procesar datos. En computadores modernos, la función de la
CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a
una CPU que es manufacturada como un único circuito integrado. Un servidor de
red o una máquina de cálculo de alto rendimiento (supercomputación), puede
tener varios, incluso miles de microprocesadores trabajando simultáneamente o en
paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU
de la máquina. Las unidades centrales de proceso (CPU) en la forma de un único
microprocesador no sólo están presentes en las computadoras personales (PC),
sino también en otros tipos de dispositivos que incorporan una cierta capacidad de
proceso o "inteligencia electrónica", como pueden ser: controladores de procesos
industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles,
electrodomésticos, juguetes y muchos más.
Placa Principal o Placa Base: es un gran circuito impreso sobre el que se suelda el
chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos
integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás
componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas
de expansión, periféricos de entrada y salida. Para comunicar esos componentes,
la placa base posee una serie de buses mediante los cuales se trasmiten los datos
dentro y hacia afuera del sistema.
12. La tendencia de integración ha hecho que la placa base se convierta en un
elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red,
puertos de varios tipos), funciones que antes se realizaban con tarjetas de
expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas
adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición
de datos, etc.
Las principales funciones que presenta una placa base son:
• Conexión física
• Administración, control y distribución de energía eléctrica
• Comunicación de datos
• Temporización
• Sincronismo
• Control y monitoreo
Memoria RAM: La sigla RAM, del inglés Random Access Memory, literalmente
significa memoria de acceso aleatorio. El término tiene relación con la
característica de presentar iguales tiempos de acceso a cualquiera de sus
posiciones (ya sea para lectura o para escritura). Esta particularidad también se
conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM
es la memoria utilizada en una computadora para el almacenamiento transitorio y
de trabajo (no masivo). En la RAM se almacena temporalmente la información,
datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta.
La memoria RAM es conocida como Memoria principal de la computadora,
también como "Central o de Trabajo". A diferencia de las llamadas memorias
auxiliares, secundarias o de almacenamiento masivo (como discos duros,
unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias
RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su
contenido al interrumpir su alimentación eléctrica.
Periféricos: Se entiende por periférico a las unidades o dispositivos que permiten a
la computadora comunicarse con el exterior, esto es, tanto ingresar como
exteriorizar información y datos. Los periféricos son los que permiten realizar las
operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente
considerados “accesorios” o no esenciales, muchos de ellos son fundamentales
para el funcionamiento adecuado de la computadora moderna; por ejemplo, el
teclado, el disco duro y el monitor son elementos actualmente imprescindibles;
pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80,
13. muchas de las primeras computadoras personales no utilizaban disco duro ni
mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como
únicos periféricos.
INFORMÁTICA: Se entiende como el resultado de los términos información y
automatización. Trata de la concepción, realización y utilización de los sistemas
para procesamiento de información. “INFORMÁTICA es la ciencia que estudia el
tratamiento automático y racional de la información.” Se dice que el tratamiento es
automático por ser máquinas las que realizan los trabajos de captura, proceso y
presentación de la información, y se habla de racional por estar todo el proceso
definido a través de programas que siguen el razonamiento humano.
IMPORTANCIA DE LA INFORMÁTICA: Las computadoras son esenciales para
enfrentar el reto de la competencia global, donde los negocios deben ser eficientes
y sensibles a las necesidades y producir bienes y servicios de alta calidad a un
costo siempre más bajo. Sin las computadoras, que proveen información precisa y
actualizada necesaria para tomar decisiones estratégicas y administrar los
procesos de producción, muchas compañías no podrían sobrevivir. Las
computadoras utilizan información almacenada para construir simulaciones que
van desde un simple análisis hasta ilustraciones realistas y animadas de nuevos
productos. Esto permite predecir el efecto de las múltiples decisiones de negocios.
Las computadoras ayudan a la gente a comunicarse, tanto directa como
indirectamente. El mundo industrial no podrá vivir mucho tiempo sin
computadores, está sometido a una sobrecarga de información y no podrá
manejarlos sin ellos. Teniéndose en cuenta que los avances de la sociedad
humana desde la aparición del alfabeto se han debido a su capacidad de registrar
y conservar la información.
LA INFORMÁTICA EN LA SOCIEDAD: Nuestros días se caracterizan por un
explosivo, colosal y omnipresente desarrollo de la técnica, y su aplicación cada
vez más extensa a todos los ámbitos de la vida humana. Sin duda alguna, el más
significativo desarrollo tecnológico durante el último siglo, ha sido la construcción
de computadoras de finalidades generales, capaces de hacer cosas que en el
hombre se consideran como comportamiento inteligente. El desarrollo tecnológico
alcanzado por el hombre a finales del siglo XIX y principios del XX, los
conocimientos acumulados en las distintas ciencias como la Matemática, favoreció
el surgimiento teórico de la construcción de las computadoras, materializado en la
primera mitad de este siglo. La computadora es una máquina capaz de realizar
una gran cantidad de cálculos aritméticos y procesos de control a una gran
velocidad (procesos repetitivos y tediosos que desgastan al hombre). La
computadora es una de las herramientas más poderosas de la sociedad actual. La
computación es el método idóneo para facilitar el registro, la elaboración y
14. procesamiento de la información, así como los cálculos matemáticos para su
análisis y para lograr la adopción de decisiones. En todos los sentidos la
computación constituye una herramienta que ayuda a resolver los problemas que
se presentan y esta ayuda no puede ni debe ser subestimada. Las nuevas
tecnologías de la información han permitido la rápida difusión de los conocimientos
científicos, contribuyendo sin lugar a dudas a la introducción de nuevas técnicas
en el desarrollo de la producción material y los servicios. Las grandes redes de
computadoras y las novedosas tecnologías en las telecomunicaciones permiten
hoy en día que la información pueda circundar el mundo a altas velocidades. Es
indiscutible que el desarrollo de determinadas ramas de las ciencias, en particular
la electrónica, ha revolucionado en unos pocos años la construcción de las
computadoras, permitiendo su introducción vertiginosa en prácticamente todas las
esferas de la vida del hombre moderno. Tal es la influencia de la informática en la
actualidad, que es popular decir que vivimos en "LA ERA DE LA INFORMACIÓN",
donde el poder personal o de un país se mide en cierta forma por la cantidad de
información que posea. Un dato que no es posible pasar por alto es el incremento
de la industria informática. Ya no sólo se automatiza la producción, sino también la
transferencia de conocimientos científicos a la producción y se produce en cierto
sentido la automatización del proceso de obtención de nuevos conocimientos.
TELEMÁTICA: La Telemática es una disciplina científica y tecnológica, originada
por la convergencia entre las tecnologías de las telecomunicaciones y de la
informática. Algunas de las aplicaciones de la telemática podrían ser cualquiera de
las siguientes:
Cualquier tipo de comunicación a través de internet (como por ejemplo el
acceso a páginas web o el envío de correos electrónicos) es posible gracias
al uso de las tecnologías desarrolladas en este ámbito.
El uso de las mensajerías instantáneas está directamente relacionado con
la telemática, ya que esta materia se encarga en parte de controlar ese
intercambio de mensajes entre dos entidades distintas.
Los sistemas GPS (Global Positioning System).
La telemática cubre un campo científico y tecnológico de una considerable
amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y
servicios de comunicaciones, para el transporte, almacenamiento y procesado de
cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y
diseño de tecnologías y sistemas de conmutación. La telemática abarca entre
otros conceptos los siguientes planos funcionales:
15. El plano de usuario, donde se distribuye y procesa la información de los
servicios y aplicaciones finales.
El plano de señalización y control, donde se distribuye y procesa la
información de control del propio sistema, y su interacción con los usuarios;
El plano de gestión, donde se distribuye y procesa la información de
operación y gestión del sistema y los servicios, y su interacción con los
operadores de la red.
Cada uno de los planos se estructura en subsistemas denominados entidades de
protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos
niveles son agrupaciones de funcionalidad, y según el modelo de interconexión de
sistemas abiertos (modelo OSI) de la Organización Internacional de Normalización
(ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de
transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de
aplicación. Trata también servicios como la tele-educación, el comercio electrónico
(e-commerce) o la administración electrónica (e-government), servicios Web, TV
digital, la conmutación y la arquitectura de conmutadores, y también toca temas
como el análisis de prestaciones, modelado y simulación de redes: optimización,
planificación de la capacidad, ingeniería de tráfico y diseño de redes. Otra
modalidad es encontrarla focalizada en una actividad específica como telemática
educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la
Educación; entre ellos la comunicación interactiva, la distribución de la información
y el uso pedagógico de los servicios.
ORIGEN DEL TÉRMINO: El término telemática se acuñó en Francia (télématique).
En 1976, en un informe encargado por el presidente francés y elaborado por
Simon Nora y Alain Minc (conocido como informe Nora-Minc y distribuido por el
título: Informatización de la Sociedad), en el que se daba una visión
increíblemente precisa de la evolución tecnológica futura. Pero al igual que en
Francia, en los países anglosajones también existe la disciplina telemática, la cual
es denominada como Computer and Communications (del inglés: ‘Ordenador y
Comunicaciones’) o Compunication (concepto acuñado por Wen Gao1 en su
artículo Compunication: From Concept to Practice2). No obstante hay matices
claves a distinguir entre los dos términos. Para aclarar esto, conviene situarse en
el contexto de la época: por una parte Francia, que ponía claro énfasis en las
telecomunicaciones como motor de su transformación social en los 70's, mientras
que Estados Unidos estaba viviendo una gran revolución de la informática. Así,
Compunication (computadores + comunicación) apunta a un modelo con mayor
relevancia de los sistemas informáticos; telemática (télématique) por su parte,
refiere a un mayor énfasis en la telecomunicación en sí. En la actualidad, esta
16. diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica
ha convergido por completo a nivel mundial, para formar un único cuerpo de
conocimiento bien establecido. Naciendo de esta forma el actual significado de la
telemática.
SOFTWARE LIBRE: Es la denominación del software que respeta la libertad de
todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el
mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido
libremente de varias formas. Según la Free Software Foundation, el software libre
se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar
el software, e incluso modificarlo y distribuirlo modificado. Un programa es
software libre si otorga a los usuarios todas estas libertades de manera adecuada.
De lo contrario no es libre. Existen diversos esquemas de distribución que no son
libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser
libres, nosotros los consideramos contrarios a la ética a todos por igual. El
software libre suele estar disponible gratuitamente, o al precio de costo de la
distribución a través de otros medios; sin embargo no es obligatorio que sea así,
por lo tanto no hay que asociar software libre a software gratuito (denominado
usualmente freeware), ya que, conservando su carácter de libre, puede ser
distribuido comercialmente (software comercial). Análogamente, el software gratis
o gratuito incluye en ocasiones el código fuente; no obstante, este tipo de software
no es libre en el mismo sentido que el software libre, a menos que se garanticen
los derechos de modificación y redistribución de dichas versiones modificadas del
programa. Tampoco debe confundirse software libre con software de dominio
público. Éste último es aquel software que no requiere de licencia, pues sus
derechos de explotación son para toda la humanidad, porque pertenece a todos
por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este
software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor
han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que
sea, ya no es del dominio público.
VENTAJAS DEL SOFTWARE LIBRE
Escrutinio Público: Al ser muchos las personas que tienen acceso al
código fuente, eso lleva a un proceso de corrección de errores muy
dinámico, no hace falta esperar que el proveedor del software saque una
nueva versión.
Independencia del proveedor: Al disponer del código fuente, cualquier
persona puede continuar ofreciendo soporte, desarrollo u otro tipo de
servicios para el software. No estamos supeditados a las condiciones del
mercado de nuestro proveedor, es decir que si este se va del mercado
17. porque no le conviene y discontinua el soporte, nosotros podemos
contratar a otra persona.
Traducción: cualquier persona capacitada puede traducir y adaptar un
software libre a cualquier lengua.
Corrección ortográfica y gramatical: una vez traducido el software libre
puede presentar errores de este tipo, los cuales pueden ser subsanados
con mayor rapidez por una persona capacitada.
Mayor seguridad y privacidad: Los sistemas de almacenamiento y
recuperación de la información son públicos. Cualquier persona puede ver
y entender cómo se almacenan los datos en un determinado formato o
sistema. Existe una mayor dificultad para introducir código malicioso como
ser: espía (p/ej. Capturador de Teclas), de control remoto (p/ej. Troyano),
de entrada al sistema (p/ej. puerta trasera), etc.
Garantía de continuidad: el software libre puede seguir siendo usado aun
después de que haya desaparecido la persona que lo elaboro, dado que
cualquier técnico informático puede continuar desarrollándolo, mejorándolo
o adaptándolo.
Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro
grandes costos: de adquisición, de implantación (este a su vez se
compone de costos de migración y de instalación), de soporte o
mantenimiento, y de interoperabilidad. El software libre principalmente
disminuye el costo de adquisición ya que al otorgar la libertad de distribuir
copias la puedo ejercer con la compra de una sola licencia y no con tantas
como computadoras posea (como sucede en la mayoría de los casos de
software propietario). Cabe aclarar que también hay una disminución
significativa en el costo de soporte, no ocurriendo lo mismo con los costos
de implantación y de interoperabilidad.
DESVENTAJAS DEL SOFTWARE LIBRE
Si observamos la situación actual, es decir la existencia mayoritaria de Software
Propietario, tenemos:
Dificultad en el intercambio de archivos: esto se da mayormente en los
documentos de texto (generalmente creados con Microsoft Word), ya que si
los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos
da error o se pierden datos. Pero está claro que si Microsoft Word creara
sus documentos con un formato abierto (o público) esto no sucedería.
18. Mayores costos de implantación e interoperabilidad: dado que el software
constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de
instalación, de migración, de interoperabilidad, etc., cuya cuantía puede
verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso
de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución
sería instalar alguna distribución de GNU/Linux y luego un emulador de
Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el
costo de migración está referido al software, ya que en lo que hace a
Hardware generalmente el Software Libre no posee mayores
requerimientos que el Software Propietario.
TIPOS DE LICENCIAS: Una licencia es aquella autorización formal con carácter
contractual que un autor de un software da a un interesado para ejercer "actos de
explotación legales". Pueden existir tantas licencias como acuerdos concretos se
den entre el autor y el licenciatario. Desde el punto de vista del software libre,
existen distintas variantes del concepto o grupos de licencias:
Licencias GPL: Una de las más utilizadas es la Licencia Pública General de
GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y
permite la redistribución y modificación bajo términos diseñados para
asegurarse de que todas las versiones modificadas del software
permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto
hace que sea imposible crear un producto con partes no licenciadas GPL: el
conjunto tiene que ser GPL. Es decir, la licencia GNU GPL posibilita la
modificación y redistribución del software, pero únicamente bajo esa misma
licencia. Y añade que si se reutiliza en un mismo programa código "A"
licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de
licencia libre, el código final "C", independientemente de la cantidad y
calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia
GNU GPL. En la práctica esto hace que las licencias de software libre se
dividan en dos grandes grupos, aquellas que pueden ser mezcladas con
código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en
el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que
no lo permiten al incluir mayores u otros requisitos que no contemplan ni
admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni
mezcladas con código gobernado por la licencia GNU GPL. En el sitio web
oficial de GNU hay una lista de licencias que cumplen las condiciones
impuestas por la GNU GPL y otras que no.6 Aproximadamente el 60% del
software licenciado como software libre emplea una licencia GPL o de
manejo.
19. Licencias AGPL: La Licencia Pública General de Affero (en inglés Affero
General Public License, también Affero GPL o AGPL) es una licencia
copyleft derivada de la Licencia Pública General de GNU diseñada
específicamente para asegurar la cooperación con la comunidad en el caso
de software que corra en servidores de red. La Affero GPL es íntegramente
una GNU GPL con una cláusula nueva que añade la obligación de distribuir
el software si éste se ejecuta para ofrecer servicios a través de una red de
ordenadores. La Free Software Foundation recomienda que el uso de la
GNU AGPLv3 sea considerado para cualquier software que usualmente
corra sobre una red.7
Licencias Estilo BSD: Llamadas así porque se utilizan en gran cantidad de
software distribuido junto a los sistemas operativos BSD. El autor, bajo tales
licencias, mantiene la protección de copyright únicamente para la renuncia
de garantía y para requerir la adecuada atribución de la autoría en trabajos
derivados, pero permite la libre redistribución y modificación, incluso si
dichos trabajos tienen propietario. Son muy permisivas, tanto que son
fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con
quienes son compatibles. Puede argumentarse que esta licencia asegura
“verdadero” software libre, en el sentido que el usuario tiene libertad
ilimitada con respecto al software, y que puede decidir incluso redistribuirlo
como no libre. Otras opiniones están orientadas a destacar que este tipo de
licencia no contribuye al desarrollo de más software libre (normalmente
utilizando la siguiente analogía: "una licencia BSD es más libre que una
GPL si y sólo si se opina también que un país que permita la esclavitud es
más libre que otro que no la permite").
Licencias Estilo MPL y Derivadas: Esta licencia es de Software Libre y tiene
un gran valor porque fue el instrumento que empleó Netscape
Communications Corp. para liberar su Netscape Communicator 4.0 y
empezar ese proyecto tan importante para el mundo del Software Libre:
Mozilla. Se utilizan en gran cantidad de productos de software libre de uso
cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y
promueve eficazmente la colaboración evitando el efecto "viral" de la GPL
(si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado
GPL). Desde un punto de vista del desarrollador la GPL presenta un
inconveniente en este punto, y lamentablemente mucha gente se cierra en
banda ante el uso de dicho código. No obstante la MPL no es tan
excesivamente permisiva como las licencias tipo BSD. Estas licencias son
denominadas de copyleft débil. La NPL (luego la MPL) fue la primera
licencia nueva después de muchos años, que se encargaba de algunos
20. puntos que no fueron tomados en cuenta por las licencias BSD y GNU. En
el espectro de las licencias de software libre se la puede considerar
adyacente a la licencia estilo BSD, pero perfeccionada.
ALFABETIZACIÓN TECNOLÓGICA EN SOFTWARE LIBRE: Es el estado de
derecho que tenemos todos los venezolanos para acceder a los avances
tecnológicos en comunicaciones, consagrado constitucionalmente en el artículo 3
de nuestra carta magna, anteriormente esto no era posible pues los software de
computadora eran privados y quien quería hacer uso de los mismos tenía que
pagar un costo monetario muy elevado, por lo que el gobierno consiguió regular su
funcionamiento aunó más accesible para todos sin discriminación de ningún tipo.
En la actualidad el entorno social, económico y cultural que rodea al ser humano
evoluciona de una manera estrepitosa. La revolución de la tecnología informática,
ha provocado una transformación radical de las formas de producción, difusión y
consumo del conocimiento y la cultura. La aparición de nuevas tecnologías tales
como son: La televisión digital y de paga, la introducción de las Pc"s en los
hogares, el acceso a Internet (red mundial de información), telefonía móvil están
provocando nuevas necesidades formativas y de conocimiento en los ciudadanos.
Es claro, que las personas de hoy, requieren de nuevas habilidades y
conocimientos para poder desarrollarse en el mundo contemporáneo. Se ha
puesto mucho énfasis a la alfabetización convencional en las escuelas, pero hoy
se llega a saber que hay múltiples alfabetizaciones. Sabemos que el concepto de
alfabetización se refiere al hecho de saber leer y escribir, pero la alfabetización
tecnológica es el saber "leer y escribir" pero con la computadora, además de
entender y utilizar la información para apoyar el aprendizaje, la productividad
personal, la toma de decisiones y la vida diaria. En otras palabras, la
alfabetización tecnológica es desarrollar los conocimientos y habilidades tanto
instrumentales como cognitivas en relación con la información vehiculada a través
de nuevas tecnologías (manejar el software, buscar información, enviar y recibir
correos electrónicos, utilizar los distintos servicios de WWW, etc.), además
plantear y desarrollar valores y actitudes de naturaleza social y política con
relación a las tecnologías.
PRINCIPIOS Y VALORES QUE ORIENTAN LA ALFABETIZACIÓN
TECNOLÓGICA
La alfabetización tecnológica, tiene como principio fundamental el dar educación y
conocimiento a los venezolanos del uso adecuado y veras de la tecnología como
herramienta de desarrollo social y productivo, de demostrar y dar a entender que
hay principios de igualdad y libertad, como lo dictan los principios fundamentales
de la Constitución de la República Bolivariana de Venezuela, que definen al
Estado Venezolano como "Democrático y Social, de Derechos y de Justicia que
21. propugna como valores superiores: la vida, la libertad, la justicia, la igualdad, la
solidaridad, la democracia, la responsabilidad individual y social, la preeminencia
de los derechos humanos, la ética pública y el pluralismo político. Los cuales
tienen como sus fines esenciales (art. Nº 3) "la defensa y el desarrollo de la
persona y el respecto a su dignidad, la profundización del ejercicio democrático de
la voluntad popular, la construcción de una sociedad justa, solidaria amante de la
paz y garante del cumplimiento de los principios derechos y deberes asumiendo el
principio de equidad como nuevo orden de justicia social y base material de la
sociedad venezolana." En la Constitución de la República Bolivariana de
Venezuela propugna como elementos fundamentales la Educación y el Trabajo
para la construcción de la nueva República sobre la base de la justicia social el
desarrollo endógeno, la democracia participativa y la soberanía nacional. Esto
define que los valores que orientan a la alfabetización tecnológica, no son otros
que el de que los principios de igualdad y justicia social para el desarrollo del país.
DECRETO 3390
El referido decreto, nos habla de los planes y acciones que toma el gobierno de la
República Bolivariana de Venezuela, para la implementación de software libre en
los sistemas de la administración pública y en la sociedad, a través de la
capacitación de los funcionarios públicos y usuarios, para el manejo y uso de
estos mediante acciones conjuntas del Ministerio de Educación y Deporte y el
Ministerio de Ciencia y Tecnología, promoviendo la cooperación internacional en
asuntos que refiere la materia. Así como también, de fomentar y dar apoyo al
desarrollo de software libre con estándares abiertos bajo incentivos especiales a
los desarrolladores de los mismos.
PLAN NACIONAL DE ALFABETIZACIÓN TECNOLÓGICA: El programa básico
del Plan Nacional de Alfabetización Tecnológica es un curso introductorio al
conocimiento del hardware y software del computador, uso, utilidad y la
importancia de las Tecnologías de Información y Comunicación (TIC) para el
desarrollo científico e integral del país y también para la soberanía e
independencia tecnológica. Va dirigido A Personas adultas y a estudiantes en
general pertenecientes a los diferentes niveles de Educación y a las Misiones y
comunidad en general. Ya que la Persona que lo desee aun cuando nunca haya
tenido contacto con un equipo de computación.
El curso consta de (5) cinco módulos con una duración de 20 horas académicas,
es de carácter presencial por lo que la asistencia a cada una de las unidades es
imprescindible para su aprobación.
22. Unidad I: Conociendo el computador. Identificación del hardware y el
software. al igual identificar, sus dispositivos y aplicar el proceso adecuado
de las funciones.
Unidad II: Alfabetización Tecnológica para el ejercicio de ciudadanía. Esta
unidad constituye el eje transversal del curso porque permite la articulación
entre el conocimiento y la práctica en (TIC) y su importancia para el
desarrollo integral del país.
Unidad III: Uso básico del computador. Encendido y apagado del
computador, definición del sistema operativo Linux, ingreso a Linux,
elementos de la interfaz gráfica, funciones del programa nautilus, cambio de
apariencia de Linux, funciones del menú aplicaciones y acciones y distintas
operaciones de directorios y archivos.
Unidad IV: Programas de aplicación en Linux. Procedimiento para abrir el
programa OpenOfficeWriter, conocer la pantalla principal, procedimiento
para crear y cerrar un documento, insertar, seleccionar y dar formato a un
texto, copiar, cortar, pegar y mover textos, crear tablas, abrir y cerrar
presentaciones, diseñar e insertar diapositivas, insertar objetos, ver
presentaciones, etc.
Unidad V: Internet Básico. Definición de Internet, principales usos de la red,
definición de la www. Navegadores, los buscadores, página Web, correo
electrónico: partes de un mensaje, redacción de una dirección de correo,
nombre de buzón y dominio de una dirección de correo.
En los Infocentros se imparten cursos y talleres de Alfabetización tecnológica
(GRATUITOS), bajo un Margen y/o Lapso de una (1) semana, que está
distribuidos en cinco días (5), en donde está representado entre las modalidades
Matutino y Vespertino, ya que ambos turnos están comprendidos por (3) tres horas
diarias. Cabe mencionar que las capacitaciones en base al Plan Nacional de
alfabetización tecnológica “P.N.A.T”, se dicta de manera intensiva en todos los
Infocentros del país y a su vez en otros espacios comunitarios que estén
destinados a la formación de este plan que está regido por el decreto #3390 de los
Estándares Abiertos de Migración de Software Libre.
SOPORTE TÉCNICO A USUARIAS Y USUARIOS: Es el nivel de soporte inicial,
responsable de las incidencias básicas del cliente. Es sinónimo de soporte de
primera línea El principal trabajo de un especialista de es reunir toda la
información del cliente y determinar la incidencia mediante el análisis de los
síntomas y la determinación del problema subyacente. Cuando se analizan los
síntomas, es importante para el técnico de soporte identificar qué es lo que el
23. cliente está intentando llevar a cabo de forma que no se pierda tiempo intentando
resolver un síntoma en lugar de un problema. Una vez que se ha logrado
identificar el problema subyacente, el especialista puede comenzar a prestar la
verdadera asistencia iterando de forma ordenada sobre el catálogo de posibles
soluciones disponibles. Los especialistas de soporte técnico en este grupo
habitualmente manejan problemas simples de resolución sencilla, posiblemente
haciendo uso de algún tipo de herramienta de gestión del conocimiento. Esto
incluye métodos de resolución de problemas como la verificación de incidencias
en las líneas físicas, resolución de problemas de usuario y contraseña,
instalación/reinstalación básica de aplicaciones software, verificación de
configuración apropiada de hardware y software, y asistencia mediante la
navegación de menús de aplicación. El personal a este nivel tiene un conocimiento
entre básico y general del producto o servicio y no siempre ha de tener la
competencia necesaria para resolver problemas complejos. No en vano, el
objetivo de este grupo es manejar entre el 70-80 % del de los problemas del
usuario antes de concluir en la necesidad de escalar la incidencia a un nivel
superior. En algunos sectores, el soporte de 1.er nivel en realidad requiere muy
buen conocimiento de los productos y de los términos y condiciones ofrecidas por
el negocio más allá de los conocimientos técnicos propiamente dichos. Este es el
nivel básico de soporte técnico. Los conocimientos con los que cuenta son:
Formateo de computadoras, instalación de paquetería y cambios de piezas de
computadoras. Existen diferentes tipo de soporte técnico que se pueden realizar a
los usuarios entre estos encontramos los siguientes:
Soporte Técnico Presencial: Es aquella asistencia que se proporciona a
cualquier usuario que presente un desperfecto, anomalía, daño o problema
en su computadora. Se proporciona al hardware y software en el lugar
donde se encuentre el equipo de cómputo. Consiste en que haya contacto
entre el técnico y la computadora a reparar.
Soporte Técnico A Distancia: Consisten en una asistencia que se
proporciona a cualquier usuario para su equipo de cómputo a largas
distancias a través de línea telefónica, internet o cualquier otro tipo de
contacto.
En Línea: es el que se da a través de correos electrónicos, chat, páginas
web, etc. para ayudar a un usuario a resolver sus problemas diciéndole
como lo debe de hacer paso por paso para que el problema se resuelva
correctamente.
24. Asistencia Telefónica: este es el más común, es el que mayormente ponen
en práctica las empresas.
SOPORTE TÉCNICO A EQUIPOS
El Soporte Técnico a Equipos es una serie de Servicios que Proporcionan
Asistencia con el Hardware o el Software de un Equipo, como los Portátiles,
Computadores de Escritorio, Periféricos de Computador e Impresoras.
Los Servicios de Soporte Técnico a Equipos tratan de resolver determinados
problemas propios del Hardware o Software, que se encuentran fuera de la
posibilidad de solucionarlos el Usuario aun con Asistencia Especializada.
SISTEMA OPERATIVO CANAIMA: Canaima es una distribución GNU/Linux
Venezolana basada en Debian surgida como consecuencia del Decreto
Presidencial 3.3901 sobre el uso de Tecnologías Libres en la APN Venezolana,
promulgado por el Presidente Hugo Chávez Frías. El 14 de marzo de 2011 en la
Gaceta Oficial Nº 39.633.
Características Principales:
Totalmente desarrollada en Software Libre.
No está limitada al uso en la APN, sino que puede ser usado por cualquier
persona.
Se encuentra equipado con herramientas ofimáticas
Permite la interacción con Internet, a través de su navegador web, gestor
de correo electrónico y aplicaciones para realizar llamadas telefónicas por
la red.
Es estable y segura, basada en la versión estable de GNU/Linux Debian, la
cual pasa por una serie de procesos y pruebas rigurosas de calidad.
Realizada en Venezuela por talento nacional.
SOFTWARE INCLUIDO
Escritorio de Canaima GNU/Linux 2.0: Como otras distribuciones, Canaima
GNU/Linux posee aplicaciones diversas para llevar a cabo tareas de ofimática,
entretenimiento, desarrollo y configuración de todo el sistema. Su interfaz
predeterminada es GNOME. Existen otras versiones extraoficiales mantenidas por
la comunidad, con diferentes escritorios, como XFCE.
25. OFIMÁTICA:
Suite de Oficina LibreOffice, con los siguientes módulos:
Procesador de textos
Hoja de cálculo
Generador de Presentaciones
Generador de fórmulas matemáticas y software de dibujo
Gestión de proyectos: Planner
Editor de HTML.: Siguiendo la tendencia impuesta por otras organizaciones
que realizan distribuciones GNU/Linux, desde la versión 3, LibreOffice
sustituyó a OpenOffice.org y a partir de la versión 3.1 deja de ser
incorporado el gestor de base de datos de esta suite de oficina.
INTERNET:
Navegador web: Cunaguaro,7 basado en Iceweasel, presente desde la
versión 3.0 de Canaima y que sustituye al navegador Curiara.
Cliente de correo electrónico: Guácharo.8
Cliente de mensajería instantánea: Pidgin.9
Cliente Twitter: Turpial.10
GRÁFICOS:
Libreoffice Draw.
GNU Paint.
Editor de diagramas Dia.
Gimp
Inkscape
Visor de cámara Web Cheese.
Shotwell Photo Manager.
Software de escaneo de imágenes Xsane.
26. PROGRAMACIÓN:
Quanta Plus.
Eclipse.
Anjuta: Entorno de desarrollo integrado para programar en los lenguajes de
programación C, C++, Java, Python y Vala, en sistemas GNU/Linux y
BSDen los lenguajes C, C++, Java y Python, en sistemas GNU/Linux.
PROYECTO CANAIMA EDUCATIVO: El Proyecto Canaima Educativo es un
proyecto desarrollado por el Gobierno de la República Bolivariana de Venezuela
con el objetivo de garantizar el acceso de los venezolanos y las venezolanas a las
Tecnologías de información, mediante:
La dotación de una computadora portátil a los estudiantes y los
docentes de las escuelas nacionales, estadales, municipales,
autónomas y las privadas subsidiadas por el Estado.
La conexión de escuelas a la red de Internet.
La formación para el buen uso de estas tecnologías.
OBJETIVOS DEL PROYECTO CANAIMA EDUCATIVO
Objetivo General: Promover la formación integral de los niños y niñas
venezolanos (as), mediante el aprendizaje liberador y emancipador
apoyado por las tecnologías de información libres.
Objetivos Específicos:
1) Promover el desarrollo integral de los niños y niñas en correspondencia con
los fines educativos.
2) Profundizar la concreción del desarrollo curricular para la formación integral
y con calidad de los niños y niñas venezolanos.
3) Transformar la praxis docente con el uso crítico y creativo de las
Tecnologías de Información Libres.
4) Desarrollar las potencialidades en Tecnologías de Información Libres, para
el apoyo a los procesos educativos.
El Proyecto está desarrollado bajo software libre, desde la elaboración del Sistema
Operativo y de contenidos educativos 100% venezolanos. Se mani-esta en dos
modalidades: “Canaima va a la escuela” realizada en 1er grado bajo el sistema de
27. red salón y “Canaima va a mi casa” desde 2do grado a 6to grado del Nivel de
Educación Primaria.
CANAIMITAS: El Computador Portátil Canaima Educativo, Dirigido a Estudiantes,
Es un Equipo creado con el propósito de ser utilizado por Niños y Niñas en Edad
Escolar. Por su Tamaño, Peso y Autonomía de Uso, es Ideal para el Aula de
Clases. Cuentan con un Procesador Intel Mobile y Tarjeta de Red con Tecnología
Wi-fi, lo cual hace posible que se Conecten Inalámbricamente a Internet. También
incluyen Cámara Web, Sonido Estéreo, Parlantes, Micrófono Incorporado y una
Batería de larga Duración, La cual misma varía según el Modelo del Equipo.
Adquiridas en convenio con Portugal, Desde el año 2011 en Venezuela, se
Ensamblan Computadoras Canaimas en el Complejo Tecnológico Simón
Rodríguez, Ubicado en el Municipio Baruta del Estado Miranda, al igual que en el
Complejo Tecnológico Simón Bolívar, Ubicado en La Carlota (Caracas) y así
muchos otras Instalaciones que se encuentran en todo el País. Se han entregado
cinco modelos de computadora a alumnos y profesores, con las características
que se detallan:
CANAIMA 1
Portátil Magallanes Canaima MG10T
Procesador: Intel Atom N270 1600MHz
Memoria RAM: 1 GB.
Disco duro: 40GB de 2,5”
Monitor: TFT de 7”
Webcam.
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA 2
Portátil Magallanes Canaima MG10T
Procesador: Intel Atom N270 1600MHz
Memoria RAM: 2 GB.
28. Disco duro: 160GB 2.5”
Monitor: TFT de 7”
Webcam.
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA 3.1
Procesador: Intel celeron N455 1660MHz
Memoria RAM: 1GB ddr3.
Disco duro: 300 GB 2,5”
Monitor: LED 10.1”
Tarjeta de red: según la norma 802.11 B/G
Webcam de 0,3 Megapíxeles.
Batería de 3 celdas
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA 4
Portátil Magalhaes 5 Canaima XL
Procesador: Intel® Celeron(R) CPU 847 @ 1.10GHZ
Memoria RAM: 2GB
Disco duro: Samsung HDD 250GB HM251HI
Monitor: TFT 11.6”
Webcam: Bison BN1RM6YKU-320(1.0M HD)
29. 3 puertos USB
Lector y grabador de para memorias Secure Digital
Sistema Operativo: Canaima GNU/Linux
CANAIMA DOCENTE
Portátil Magallanes Canaima MG3 Canaima XL
Procesador: Intel Atom N455 1660MHz
Memoria RAM: 1GB DDR3.
Disco duro: 250 GB 2,5”
Tarjeta de red: según la norma 802.11 B/G/N.
Monitor: 11.6”
Webcam de 0,3 Megapixeles.
Batería de 3 celdas.
Botón de inicio: Launch Button X 2
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA DOCENTE VIT D2100
Computadora Portátil VIT D2100.
Procesador: Intel Core Duo T8100.
Disco duro: 80 GB. 2.5” SATA.
Tarjeta de red: según la norma 802.11 B/G/N.
Monitor: TFT 14.1” WXGA (1280×800)
3 puertos USB.
Adaptador de corriente.
30. Batería removible de 6-celdas con capacidad de 4000mAh o 4400mAh
CANAIMA DOCENTE VIT M2400
Computadora Portátil VIT M2400
Procesador: Intel Core Duo FSB800 2.1GHZ.
Disco duro: 560GB SATA de 5400 RPM.
Memoria: 2GB DDR2.
Tarjeta de red: según la norma 802.11 B/G/N.
Monitor: TFT 14.1” (1280×800)
3 puertos USB.
Batería removible de 6-celdas con capacidad de 4000mAh.
VINCULACIÓN DEL PROYECTO CON EL PLAN DE LA PATRIA 2013 – 2019
OBJETIVOS HISTÓRICOS OBJETIVOS
NACIONALES
OBJETIVOS
ESTRATEGICOS
I.- Defender, Expandir y
Consolidar el bien más
preciado que hemos
reconquistado después de
200 años: la
Independencia Nacional.
1.5- Desarrollar nuestras
capacidades Científico-
Tecnológicas vinculadas
a las necesidades del
Pueblo.
1.5.1 – 1.5.1.1 – 1.5.1.2 –
1.5.1.3 – 1.5.1.4 – 1.5.2.1 –
1.5.3 – 1.5.3.1 – 1.5.3.3
III.- Convertir a Venezuela
en un País Potencia en lo
Social, lo Económico y lo
Político dentro de la Gran
Potencia Naciente de
América Latina y el
Caribe, que garanticen la
conformación de una
Zona de Paz en Nuestra
América.
3.4- Profundizar el
Desarrollo de la nueva
Geopolítica Nacional y
Regional,
Latinoamericana y
Caribeña.
3.4.12.11- Incorporar los
Nuevos Desarrollos y las
Zonas Sin Servicio a la
Red de
Telecomunicaciones, para
asegurar el Acceso a
Telefonía, Televisión e
Internet.
31. CAPITULO III
MARCO METODOLÓGICO
METODOLOGÍA DE CAMPO
Es el proceso que, utilizando el método científico, permite obtener nuevos
conocimientos en el campo de la realidad social. O bien, estudiar una situación
para diagnosticar necesidades y problemas a efectos de aplicar los conocimientos
con fines prácticos).
La investigación de campo corresponde a un tipo de diseño de investigación, para
la cual Carlos Sabino (S/f) en su texto "El proceso de Investigación" señala que se
basa en informaciones obtenidas directamente de la realidad, permitiéndole al
investigador cerciorarse de las condiciones reales en que se han conseguido los
datos.
En otras palabras, el investigador efectúa una medición de los datos. Sin embargo,
qué tanto datos se pueden obtener considerando las restricciones de cada estudio
como por la carencia de recursos materiales, humanos, monetarios, físicos.
Sabino señala en el texto referido, algunos tipos de diseño empleados con
frecuencia, estos son:
Diseño experimental: consiste en someter el objeto de estudio a variables,
condiciones controladas y conocidas por el investigador para observar los
resultados que cada variable ejerce sobre el objeto bajo estudio. No aplica
para estudios sociales.
Diseño post – facto: consiste en que le investigador realice una prueba
donde no controla ni regula el entorno se efectúa posterior a los hechos.
Diseño encuesta: consiste en preguntar de forma directa y simple a
determinadas personas representativas de la población bajo estudio, para
conocer su comportamiento. Aplica para ciencias sociales.
Diseño panel: consiste en encuestas repetidas que se aplica a una misma
muestra para observar la evolución, efectuándose en lapsos prefijados y
regulares. Sin embargo, la progresiva reducción de la muestras por
diversas causas (fatiga, traslado, etc.,) ocasiona que el error muestral se
32. incrementa progresivamente afectando negativamente la calidad de los
resultados.
Diseños cualitativos: trata de recuperar para el análisis, parte de la
complejidad del sujeto, modo de ser y hacer en el medio que lo rodea, lo
subjetivo.
Estudio de Casos: consiste en profundizar el estudio en uno o varios
objetos de investigación.
METODOLOGÍA
1. Concebir la Idea a Investigar: La interacción constante con el ambiente nos
permite observar situaciones que a menudo despiertan una serie de interrogantes.
Por ejemplo, en la práctica de enfermería podemos observar que la mayoría de
pacientes prefiere la atención de determinadas enfermeras. Ante esto, surgen
inevitablemente preguntas como:
¿Por qué prefieren a "fulanita" para que los atienda?
¿Cuál es la calidad de la atención que proporcionarnos las demás
enfermeras?
¿La calidad de la atención tiene que ver en la recuperación del paciente?
Son muchas las interrogantes que el investigador se plantea a la hora de
elegir un tema de investigación.
Lo primero es ¿Qué investigar? Aunque esta interrogante parece fácil, no lo
es. En el mundo complejo donde el investigador se mueve, existe un
universo de problemas que solo el deberá descifrar.
El primer problema será entre varias alternativas, es decir, establecer
prioridades al momento de enfrentarse con lo que de ahora en adelante, se
llamara: objeto de investigación, problema de investigación o tema de
investigación.
El investigador deberá seleccionar aquel problema que responda a muchas
condiciones propias a él, como se explican a continuación: Objetividad:
Escogerá el problema y lo investigara lo más objetivamente posible,
tratando que lo subjetivo no intervenga a priori, para así no distorsionar la
investigación y aunque es un tanto difícil desprenderse de esa subjetividad,
debe procurar hacerlo. Ello no significa el desprendimiento total de ello, por
cuanto a la hora de analizar e interpretar los datos, producto de la recogida
33. de la información por diferentes técnicas de recolección de datos, esa
información requerirá de la capacidad de interpretación del investigador,
para así determinar los logros que se pretenden alcanzar, cuando utiliza los
referentes empíricos (datos, hechos) y que el mismo deberá identificar
dentro del proceso de investigación.
Agrado del tema: Es parte del éxito de la investigación. Cuando el tema no
es de agrado, existirá una predisposición a que todo lo que vaya a hacer le
salga mal, hay desaliento, no hay motivación. Por ello es recomendable que
el investigador se compenetre con el objeto, como si se tratara de un
matrimonio del sujeto con el objeto.
Conocimientos previos sobre el tema: Es importante que investigador sea
una persona que tenga hábitos de lectura. Esta constancia le permitirá ser
conocedor del problema que va a someter a investigación. No es lo mismo
partir de la nada que con un conocimiento previo del tema objeto de
estudio, pues ello será importante como fuente de información general y así
el podrá comparar y determinar cuáles serán las fuentes principales de la
investigación.
Apoyo documental o bibliográfico: Es la condición que permitirá brindarle el
mayor soporte para lo que se pretende investigar. El material de apoyo
significa que el tema ha sido estudiado por otros autores, pero con variables
distintas y de ser coincidentes deberá considerarlos en periodos de tiempo
diferente o bien, con otros indicadores o referentes empíricos, dentro de las
mismas variables. Esta revisión hará que el tema no sea igual a otras
investigaciones y que estará con mayor conocimiento para abordar, desde
todo punto de vista, la temática seleccionada en ese momento.
2. Selección de la Muestra: La muestra es, en esencia, un subgrupo de la
población. Se puede decir que es un subconjunto de elementos que pertenecen a
ese conjunto definido en sus necesidades al que llamamos población. De la
población es conveniente extraer muestras representativas del universo. Se debe
definir en el plan, y justificar, los universos en estudio, el tamaño de la muestra, el
método a utilizar, y el proceso de selección de las unidades de análisis. En
realidad, pocas veces es posible medir a la población por lo que obtendremos o
seleccionaremos y, desde luego, esperamos que este subgrupo sea un reflejo fiel
de la población.
Básicamente se categorizar las muestras es dos grandes ramas: las
probabilísticas y las no probabilísticas. Entiéndase por muestras probabilísticas
como el subgrupo de la población en el que todos los elemento de este tienen la
34. misma probabilidad de ser escogidos; por consiguiente, las muestras no
probabilísticas es cuando la elección de los elementos no depende la probabilidad,
sino con causas relacionadas con las características de la investigación o de quien
hace la muestra.
La selección de la muestra también la podemos ver desde dos puntos de vista:
muestra cuantitativa y muestra cualitativa. La muestra cuantitativa es un subgrupo
de la población del cual se recolectan los datos y debe ser representativo en dicha
población. Por otra parte, la muestra cualitativa es la unidad de análisis o conjunto
de personas, contextos, eventos o sucesos sobre la cual se recolectan los datos
sin que necesariamente sea representativo.
3. Marco Teórico: Representa el soporte inicial de la investigación. También se le
llama Marco Teórico Conceptual, Marco Referencial, Marco Estructural Conceptual
de la Investigación y Marco Conceptual.
Aborda las características del fenómeno o problema en estudio. Estas
características (cualidades) constituyen las variables, que no son más que las
diferentes proposiciones, diversos conocimientos, que permitirán estudiar al
problema. Es razonable que el investigador conozca de las diferentes teorías que
soportaran inicialmente el estudio, de allí la importancia de las bases teóricas.
Las funciones que cumple el marco teórico, permite visualizar las técnicas que
operaran metodológicamente en el estudio, por cuanto que está compuesta por un
conjunto de categorías básicas. Este marco brinda a la investigación un sistema
coordinado y coherente de conceptos y proposiciones que permiten abordar el
problema para que este cobre sentido.
El marco teórico nos amplía la descripción del problema. Integra la teoría con la
investigación y sus relaciones mutuas. Es la teoría del problema, por lo tanto,
conviene relacionar el marco teórico con el problema y no con la problemática de
donde éste surge. No puede haber un marco teórico que no tenga relación con el
problema.
Todo hecho anterior a la formulación del problema que sirve para aclarar, juzgar e
interpretar el problema planteado, constituye los antecedentes del problema.
Establecer los antecedentes del problema, de ninguna manera es hacer un
recuento histórico del problema, o presentar fuentes bibliográficas que se va a
utilizar, o los datos recolectados los cuales no sabemos en dónde ubicar, o la
descripción de las causas del problema. En los antecedentes se hará una síntesis
conceptual de las investigaciones o trabajos realizados sobre el problema
formulado con el fin de determinar en enfoque metodológico de la misma
investigación. El antecedente puede indicar conclusiones existentes en torno al
problema planteado.
Todo investigador debe hacer uso de conceptos para poder organizar sus datos y
percibir las relaciones que hay entre ellos. Un concepto es una abstracción
35. obtenida den la realidad y, por tanto, su finalidad es simplificar resumiendo una
serie de observaciones que se pueden clasificar bajo un mismo nombre. Algunos
conceptos están estrechamente ligados a objetos de lo que representan, por eso,
cuando se define, se busca asegurar que las personas que lleguen a una
investigación determinada conozcan perfectamente el significado con el cual se va
a utilizar el término o concepto a través de toda la investigación.
También la metodología para toda investigación es de importancia fundamental.
Para ello se deberá planear una metodología o procedimiento ordenado que se
seguirá para establecer lo significativo de los hechos y fenómenos hacia los cuales
está encaminado el significado de la investigación. Científicamente, la metodología
es un procedimiento general para lograr de una manera precisa el objetivo de la
investigación.
4. Definir el Tipo de Investigación: Es necesario tener en cuenta el tipo de
investigación o de estudio que se va a realizar, ya que cada uno de estos tiene
una estrategia diferente para su tratamiento metodológico. Por ello, se debe
indicar el tipo de investigación, si es una investigación, histórica, descriptivas o
experimental. Si es un estudio causal, exploratorio o productivo.
Conviene señalar que el que investiga debe tener claro los distintos métodos que
son posibles de aplicar a las ciencias. Algunos son comunes como el inductivo y el
deductivo; el analítico y el sintético, el objetivismo y el subjetivismo, así como otros
más, que son específicos a cada ciencia.
5. Establecer las Hipótesis: La hipótesis es el eslabón necesario entre la teoría y la
investigación que nos lleva al descubrimiento de nuevos hechos. Por tal, se debe
sugerir explicación a ciertos hechos y orientar la investigación a otros. La hipótesis
puede ser desarrollada desde distinto puntos de vista, puede estar basada en una
presunción, en el resultado de otros estudios, en la posibilidad de una relación
semejante entre dos o más variables representadas en un estudio, o puede estar
basada en una teoría mediante la cual una suposición de proceso deductivo nos
lleva a la pretensión de que si se dan ciertas condiciones se pueden obtener
ciertos resultados, es decir, la relación causa - efecto. Una hipótesis sirve de guía
para la obtención de datos en función del interrogante presentado en el problema
y para indicar la forma como debe ser organizado según el tipo de estudio.
6. Selección de la Muestra: Es la actividad por la cual se toman ciertas muestras
de una población de elementos de los cuales vamos a extraer algunos criterios de
decisión, el muestreo es importante porque a través de él podemos hacer análisis
de situaciones de una empresa o de algún campo de la sociedad. Una muestra
debe ser representativa si va a ser usada para estimar las características de la
población. Los métodos para seleccionar una muestra representativa son
numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar
una muestra y la naturaleza de los elementos individuales de la población. Por lo
tanto, se requiere un gran volumen para incluir todos los tipos de métodos de
muestreo.
36. Entre los tipos de muestra más usados en la Investigación tenemos:
Muestreo aleatorio simple: la forma más común de obtener una muestra es
la selección al azar. Es decir, cada uno de los individuos de una población
tiene la misma posibilidad de ser elegido. Si no se cumple este requisito, se
dice que la muestra es viciada. Para tener la seguridad de que la muestra
aleatoria no es viciada, debe emplearse para su constitución una tabla de
números aleatorios.
Muestreo estratificado: una muestra es estratificada cuando los elementos
de la muestra son proporcionales a su presencia en la población. La
presencia de un elemento en un estrato excluye su presencia en otro. Para
este tipo de muestreo, se divide a la población en varios grupos o estratos
con el fin de dar representatividad a los distintos factores que integran el
universo de estudio. Para la selección de los elementos o unidades
representantes, se utiliza el método de muestreo aleatorio.
Muestreo por cuotas: se divide a la población en estratos o categorías, y se
asigna una cuota para las diferentes categorías y, a juicio del investigador,
se selecciona las unidades de muestreo. La muestra debe ser proporcional
a la población, y en ella deberán tenerse en cuenta las diferentes
categorías. El muestreo por cuotas se presta a distorsiones, al quedar a
criterio del investigador la selección de las categorías.
Muestreo intencionado: también recibe el nombre de sesgado. El
investigador selecciona los elementos que a su juicio son representativos,
lo que exige un conocimiento previo de la población que se investiga.
Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se
puede seleccionar las unidades de la muestra en forma aleatoria y después
aplicar el muestreo por cuotas.
Muestreo tipo master simple: es una aplicación combinada y especial de los
tipos de muestra existentes. Consiste en seleccionar una muestra "para ser
usada" al disponer de tiempo, la muestra se establece empleando
procedimientos sofisticados; y una vez establecida, constituirá el módulo
general del cual se extraerá la muestra definitiva conforme a la necesidad
específica de cada investigación.
37. 7. Recolección de Datos: La investigación no tiene sentido sin las técnicas de
recolección de datos. Estas técnicas conducen a la verificación del problema
planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada
técnica establece sus herramientas, instrumentos o medios que serán empleados.
Todo lo que va a realizar el investigador tiene su apoyo en la técnica de la
observación. Aunque utilice métodos diferentes, su marco metodológico de
recogida de datos se centra en la técnica de la observación y el éxito o fracaso de
la investigación dependerá de cual empleó.
Los instrumentos que se construirán llevaran a la obtención de los datos de la
realidad y una vez recogidos podrá pasarse a la siguiente fase: el procesamiento
de datos. Lo que se pretende obtener responde a los indicadores de estudio, los
cuales aparecen en forma de preguntas, es decir, de características a observar y
así se elaboraran una serie de instrumentos que serán los que en realidad,
requiere la investigación u objeto de estudio.
La recolección de datos se refiere al uso de una gran diversidad de técnicas y
herramientas que pueden ser utilizadas por el analista para desarrollar los
sistemas de información, los cuales pueden ser la entrevistas, la encuesta, el
cuestionario, la observación, el diagrama de flujo y el diccionario de datos.
Todos estos instrumentos se aplicarán en un momento en particular, con la
finalidad de buscar información que será útil a una investigación.
8. Análisis de Datos: Es en esta etapa cuando el investigador siente que su labor
se está viendo culminada. Aquí estarán cifradas sus esperanzas de comprobación
de sus supuestos, como también el amargo sabor de que algo faltó y que debe
iniciar de nuevo el camino para ver qué ocurrió.
Los cuadros elaborarlos deberá analizarlos e interpretarlos para sacar sus
conclusiones. Aquí entra el sentido crítico objetivo-subjetivo que le impartirá a
esos números recogidos en los cuadros. Esos números son abstractos y es el
investigador quien les dará sentido.
Para llegar a esta parte crucial del proceso, ha tenido que recorrer un largo
camino, horas incontables que se pierden en el tiempo, recursos no fáciles de
recuperar, horas de paciencia y de malos ratos, horas de sueño y de recompensa,
de angustias y de alegrías. Estos son apenas unos indicadores de lo que significa
realizar un trabajo de investigación.
38. 9. Presentación de los Resultados: Con el material ya recogido y organizado, inicia
una de las etapas más interesantes, darle sentido, forma, explicación de los
resultados obtenidos.
Consiste en la culminación. La labor completa de la información con los datos
procesados, analizados e interpretados, donde se ha podido llegar a la
determinación de la validez de las posiciones, donde se ha llegado a establecer la
eficacia de todo el proceso planificado, donde se han verificado las hipótesis
según el diseño seleccionado, donde las variables han sido operacionalizadas.
El Diseño Encuesta:
Es un proceso prácticamente exclusivo de las ciencias sociales. Parte de la
premisa de que si queremos conocer algo acerca del comportamiento de las
personas, lo mejor es preguntárselo directamente a ellas. La encuesta puede
aplicarse de diferentes modos, a explicar:
Auto Administrado: La encuesta se proporciona directamente a los
respondientes, quienes lo contestan. No hay intermediarios y las respuestas
las hacen ellos mismos. Por ejemplo, si los encuestados fueran los
estudiantes de Derecho de la Facultad de Ciencias Jurídicas, Políticas y
Criminológicas de la Universidad de Los Andes, se acudirá directamente a
ellos y se les entregara el cuestionario. Evidentemente que este modo de
aplicar el cuestionario es impropio para analfabetas, personas que tienen
dificultades de lectura o niños que todavía no leen de manera adecuada.
Por entrevista personal: El entrevistador deberá aplicar el cuestionario a los
encuestados haciéndole preguntas al respondiente e ir anotando los
resultados. En este caso las instrucciones deben ser para el entrevistador.
Normalmente se tienen varios encuestadores quienes deberán estar
capacitados en el arte de entrevistar y conocer a fondo el cuestionario. De
igual forma, no puede sesgar o influir en las respuestas.
Por entrevista telefónica: Esta situación es similar a la anterior, solo que la
entrevista no es "cara a cara", sino a través del teléfono. El entrevistador le
hace preguntas al entrevistado solo por medio de la voz y deberá el mismo
anotar las respuestas.
Auto administrado y enviado por correo postal o electrónico: Los
respondientes contestan directamente el cuestionario, estos marcan o
anotan las respuestas sin intermediarios. La diferencia está en que el
cuestionario se entrega directamente en las manos del entrevistado y este
se reenvía por correo u otro medio. Si es por correo o mensajería, no hay
39. retroalimentación inmediata y si los sujetos tienen alguna duda no se les
puede aclarar. Las encuestas por Internet han ido ganando terreno y, a
diferencia de la anterior, estas si ofrecen la posibilidad de interacción y
asesoría. Conforme más personas tengan acceso a Internet, este medio
cobrara más fuerza.
La Observación:
La observación puede ser participante o no participante. En la primera el
observador interactúa con los sujetos observados, pero en la segunda no ocurre
tal interacción. Por ejemplo, un estudio sobre la conducta de aprendizaje de niños
autistas, donde el instructor tiene que interactuar con los niños y al mismo tiempo
codificar.
La observación tiene varias ventajas, a seguir:
Son técnicas de medición no obstructivas, en el sentido que el instrumento
de medición no estimula el comportamiento de los sujetos. Los métodos no
obstructivos simplemente registran algo que fue estimulado por otros
factores ajenos al instrumento de medición.
Acepta material no estructurado.
Pueden trabajar con grandes volúmenes de datos.
El Dato:
Una vez planteada la investigación y realizadas todas las tareas que permitan la
puesta en marcha de una investigación, corresponde pasar al campo mismo de
estudio para efectuar en el la recolección de datos e información, con el fin de dar
respuesta al problema planteado como forma de estudio.
Existen numerosos procedimientos para la tarea de recolección de datos,
variables conforme a las circunstancias concretas de la índole de la investigación.
Las técnicas más utilizadas en la recolección de datos son: La observación, la
entrevista, el cuestionario, las escalas de actitudes y opiniones, los test, la
sociometría, la recopilación documental, la semántica documental, el análisis de
contenido, etc.
También la "práctica social" es fuente de conocimiento en una investigación.
Recolección de Datos:
Constituye una fase completamente mecánica, la cual puede llevarse a cabo de
forma manual o computarizada. Todo depende del tipo de muestra que se haya
determinado dentro de la investigación, es decir, la muestra que representa el
objeto de estudio.
40. Si la muestra es pequeña, el investigador puede manejar los datos utilizando sus
medios manuales, pero si la muestra es grande, necesitara apoyarse en medios
más tecnificados como el uso de computadoras que permitan ofrecerles resultados
más rápidos y quizás menos riesgosos que si los realizara manualmente.
En cualquiera de las dos formas que emplee, deberá llevar a cabo todo un
proceso sistematizado, que parte de clasificar los datos de tal forma que le sea
fácil su estudio.
Previamente los ordenará y procederá a elaborar su propia guía, permitiendo así
el fácil procesamiento de los datos. Para ello deberá considerar cuatro pasos, los
cuales son: Agrupación, Categorización, Codificación y Tabulación. (ACCT).
Cualquiera que sea el instrumento o medio utilizado para recabar la información,
esta tendrá carácter meramente empírico. Los datos recogidos están en función
de los tipos de preguntas elaboradas. Algunas respuestas serán directas y otras
teóricas, que permitirán comprobar la validez de las hipótesis.
Las respuestas deben analizarse y el primer paso será el proceso de Agrupación.
Agrupación: Consiste en la facultad que tiene el investigador de agrupar
todas las respuestas similares o con gran parecido, de tal manera que la
información obtenida pueda manejarse con mayor comodidad, tratando que
los grupos que la conforman no serán demasiados y se haga fácil el
proceso.
Categorización: La agrupación anterior conlleva al señalamiento de las
categorías o ítems en que estas respuestas deben concentrarse.
Establecerá las que considere convenientes para su estudio según lo
señalado en la fase de operacionalización.
Codificación: Consiste en la expresión numérica a la que será sometida
cada una de las respuestas verbales y que en el caso estudiado,
corresponderá asignarle a cada una de las categorías. El código podrá ser
también en letras, queda a elección del sistema que elija el procesador de
datos.
Tabulación: Consiste en la contabilización que se efectúa de cada una de
las preguntas para determinar numéricamente las respuestas obtenidas.
41. Importancia de la Recolección de Datos:
La investigación no tiene sentido sin las técnicas de recolección de datos, estas
técnicas conducen a la verificación del problema planteado.
Cada tipo de investigación determinara las técnicas a utilizar y cada técnica
establece sus herramientas, instrumentos o medios que sean empleados. Todo lo
que va a realizar el investigador tiene su tiene su apoyo en la técnica de
recolección de datos. Aunque utilice medios diferentes, su marco metodológico de
recolección de datos se concentra en la técnica de la observación y el éxito o
fracaso del proceso investigativo dependerá de cual empleo.
Los Instrumentos que se construirán, llevaran a la obtención de los datos de la
realidad y una vez recogidos se podrá pasar a la siguiente fase del procesamiento
de los datos obtenidos como información.
Análisis de los Datos:
Los datos en sí mismos tienen limitada importancia, es necesario "hacerlos
hablar", esto es, encontrarles significación. En esto consiste, en esencia, el
análisis e interpretación de los datos. El propósito es poner de relieve todas y cada
una de las partes del conjunto que proporcionan respuestas a los integrantes de la
investigación, es decir, a los problemas formulados.
El objetivo del análisis es buscar un significado más amplio a las respuestas
mediante su comparación con otros conocimientos disponibles: generalizaciones,
leyes, teorías, etc. Básicamente, el análisis e interpretación de datos es la
culminación de todo el proceso de la investigación, porque las fases precedentes
se ordenan en función de esta tarea.
Cabe destacar que tanto el análisis como la interpretación de los datos tienen
mucho más de trabajo artesanal, por tanto, esta fase no puede reducirse a una
simple operación contable.
METODOLOGÍA DOCUMENTAL
La Investigación Documental como una variante de la investigación científica, cuyo
objetivo fundamental es el análisis de diferentes fenómenos (de orden histórico,
psicológico, sociológico, etc.), utiliza técnicas muy precisas, de la Documentación
existente, que directa o indirectamente, aporte la información.
Podemos definir a la investigación documental como parte esencial de un proceso
de investigación científica, constituyéndose en una estrategia donde se observa y
reflexiona sistemáticamente sobre realidades (teóricas o no) usando para ello
diferentes tipos de documentos. Indaga, interpreta, presenta datos e informaciones
sobre un tema determinado de cualquier ciencia, utilizando para ello, una metódica
42. de análisis; teniendo como finalidad obtener resultados que pudiesen ser base
para el desarrollo de la creación científica.
Visto en estos términos, la Investigación Documental podemos caracterizarla de la
siguiente manera:
Se caracteriza por la utilización de documentos; recolecta, selecciona,
analiza y presenta resultados coherentes.
Utiliza los procedimientos lógicos y mentales de toda investigación; análisis,
síntesis, deducción, inducción, etc.
Realiza un proceso de abstracción científica, generalizando sobre la base
de lo fundamental.
Realiza una recopilación adecuada de datos que permiten redescubrir
hechos, sugerir problemas, orientar hacia otras fuentes de investigación,
orientar formas para elaborar instrumentos de investigación, elaborar
hipótesis, etc.
Puede considerarse como parte fundamental de un proceso de
investigación científica, mucho más amplio y acabado.
Es una investigación que se realiza en forma ordenada y con objetivos
precisos, con la finalidad de ser base a la construcción de conocimientos.
Se basa en la utilización de diferentes técnicas de: localización y fijación de
datos, análisis de documentos y de contenidos.
En un sentido restringido, entendemos a la investigación documental como un
proceso de búsqueda que se realiza en fuentes impresas (documentos escritos).
Es decir, se realiza una investigación bibliográfica especializada para producir
nuevos asientos bibliográficos sobre el particular.
Una confusión muy generalizada, coloca como iguales, a la investigación
bibliográfica y a la investigación documental. Esta afirmación como podemos
observar, reduce la investigación documental a la revisión y análisis de libros
dejando muy pobremente reducido su radio de acción. La investigación
bibliográfica, aclaramos, es un cuerpo de investigación documental. Asumimos la
bibliografía como un tipo específico de documento, pero no como el Documento.
Las Fuentes de Información de la Investigación Documental son:
FUENTE PRIMARIA: Libros, artículos, monografías, tesis, documentos, trabajos
de investigación presentados en conferencias, congresos y seminarios .Estas
fuentes son los documentos que registran o corroboran el conocimiento inmediato
de la investigación. Incluyen libros, revistas, informes técnicos y tesis. Libros: De
43. acuerdo con la UNESCO (1964), se llama libro a aquella publicación que tiene
más de 49 páginas, y folleto a la que tiene entre cinco y 48 páginas.
Informes técnicos: En este tipo de informes se incluyen las memorias de
conferencias, los informes de congresos, reuniones y otros. Son importantes
debido a que la información generalmente versa sobre asuntos de actualidad que
afectan a una comunidad particular o son de interés grupal. Diarios y periódicos.
FUENTE SECUNDARIA: Resúmenes y listados de referencias publicados en un
área específica de conocimiento. Cualquier fuente secundaria que se utilice tendrá
que ser objeto de comprobación de cualquier factor que puedan afectar la
exactitud o la validez de la información Este renglón incluye las enciclopedias, los
anuarios, manuales, almanaques, las bibliografías y los índices, entre otros; los
datos que integran las fuentes secundarias se basan en documentos primarios.
Depósitos de información: el primer paso para recabar datos es acudir a los
centros de información, como biblioteca, hemeroteca, archivos y museos. En la
búsqueda de información en la biblioteca es importante tener algunas nociones
sobre su organización y funcionamiento, tales como: Los libros están ordenados
de manera alfabética. Se clasifican por fichas. Se marca en los lomos del libro el
código por fechas. Se forman catálogos Se elaboran registros para localizar
materiales afines a la obra. Por lo tanto se trata de hacer una cuidadosa revisión
de los estudios teóricos y prácticos que ya se han realizado y que tienen relación
con el problema planteado. Esta revisión se debe hacer porque no existe campo
del conocimiento, completamente nuevo o inexplorado.
Todo estudio debe tomar elementos del pasado y reconocer lo que otras personas
o investigadores han hecho. No realizar una exhaustiva revisión documental
conduce a errores graves y a desaprovechar la oportunidad de hacer un trabajo
más original y metodológicamente más objetivo.
Por eso la investigación documental puede iniciarse directamente en el acopio de
las fuentes primarias, situación que ocurre cuando el investigador conoce la
ubicación de la información y se encuentra familiarizado con el campo de estudio.
Sin embargo se dan casos en los que hay poco material en hemerotecas número
reducido de centros de información, donde muchas veces las colecciones de
revistas son incompletas o no se encuentran actualizadas y no disponen de
documentos muy fiables.
OTRAS FUENTES: Con la expansión de las comunicaciones en red una nueva
sociedad está emergiendo al lado de la sociedad real. Se trata de la sociedad
virtual. Su territorio es el ciberespacio y su tiempo, como no, es el tiempo virtual.
Se trata de un fenómeno novedoso, cuyas características son escasamente
conocidas, puesto que esta sociedad está en pleno despliegue. Es una sociedad
que no podría existir al margen de la sociedad real, que es su soporte material.
Pero, aunque comparte con ella un conjunto de rasgos comunes, tiene sus propias
especificaciones, que la han convertido en un tema de gran interés para los
académicos interesados en indagar las características que tendrá la nueva
44. sociedad que se está gestando en medio de la crisis de la sociedad industrial.¿
Que es la Web grafía ? es un directorio de aplicaciones y recursos libres, puede
seleccionar una categoría y explorar los diferentes recursos. ¿Cuáles son las
categorías? Actualmente se cuenta con 21 recursos distribuidos en las siguientes
17 categorías Redes, Oficina, Multimedia, Desarrollo, Matemáticas, Juegos,
Técnicas, Gráficos, Educación, Ciencia, Ingeniería, Bases de datos, Sistemas
operativos, Escritorio, Seguridad, Utilidades, entre otros. ¿Cuáles son los tipos de
recursos? En este momento se clasifican los tipos de recursos en 3: Programas,
Documentos, Enlaces, en el caso de programas y documentos no se encuentran
al interior del portal, de hecho el directorio solo organiza, clasifica y enlaza los
recursos.
METODOLOGÍA
1.- Elección del Tema:
Está comprobado que con un mayor conocimiento sobre un campo de
estudio, será más fácil detectar el área que necesita ser investigada.
El investigador debiera preguntarse lo siguiente:
¿Cuál es el problema que necesita ser investigado?
¿Ayuda la investigación a ampliar los conocimientos en este campo?
Es muy importante que el tema sea motivante, ya que la investigación
requiere mucho tiempo y es posible que el interés decaiga.
2.- Acopio de Bibliografía Básica sobre el Tema:
Se reúne todo el material publicado o inédito; artículos, estudios críticos,
monografías, ensayos, documentos de archivo, libros, tesis, etc.
Conocer las ideas o datos expuestos anteriormente provee de bases
sólidas para mejorar nuestra idea y no repetirla.
Los artículos críticos de revista especializada resultan más ricos y
aprovechables por sobre los de tratamiento indirecto.
3.- Elaboración de Fichas Bibliográficas y Hemerográficas:
Permite localizar rápidamente el material en el momento oportuno.
Con los datos básicos de un documento (nombre de libro, autor, editorial,
número de edición, etc.) se hace el registro en las fichas.
4.- Lectura Rápida del Material:
Su fin, el de ubicar las principales ideas y conocer la calidad del material
recabado
Se recomienda leer las partes que más podrían interesar; índice,
introducción, prologo, conclusiones, párrafos específicos, etc.
45. Alguna idea relevante puede aparecer en un principio en la lectura, no se
recomienda subrayarla, probablemente esta aparezca con mayor claridad.
5.- Delimitación del Tema:
Después de la lectura rápida es más fácil delimitar el tema, porque se
puede medir su dimensión y alcance, su aspecto formal y su complejidad.
El tema central debe ser preciso, así se enfoca la atención en él y no se
dispersa.
Evitar los temas encontrados en las fronteras de 2 o más ciencias. Su
estudio requiere conocimientos de diversos campos.
Desde el principio se preferible escoger un tema pequeño y sencillo.
6.- Elaboración del Esquema de Trabajo:
Es un registro visual que representa el esqueleto del escrito con que se
concluye el proceso de investigación.
Algunos objetivos del esquema son:
Identificar de forma gráfica y analítica, las partes pares y subordinadas del
problema.
Detectar defectos de relación
Facilitar el inventario de la información recolectada.
Orientar la recopilación de la información faltante.
El primer esquema sirve fundamentalmente para el acopio de información.
El esquema debe ser tan simple como lo permita; la sencillez o complejidad
del problema; la profundidad y la extensión del trabajo; la cantidad de
información recabada.
7.- Ampliación del Material Sobre el Tema ya Delimitado:
Se busca nueva información directamente ligada con el tema.
La nueva bibliografía necesita sus fichas.
8.- Lectura Minuciosa de la Bibliografía:
Implica reflexión e interpretación y su resultado son las ideas más
importantes que pasan a la fichas de contenido.
Si el libro es nuestro, se destacan las ideas principales de las secundarias
con colores, corchetes, llaves, etc.
46. 9.- Elaboración de Fichas de Contenido:
Contiene las ideas más importantes.
Pueden ser mixtas cuando contienen; las ideas del autor y nuestras propias
reflexiones y comentarios, de esta manera se imprime orden y coherencia
al mismo.
Permiten el fácil manejo de datos e ideas ajenas o propias.
Las fichas nos acercan a la elaboración de un primer borrador del trabajo
final.
10.- Organización de las Fichas de Contenido y Revisión del Esquema:
Su objetivo; la valoración del material recopilado, la localización de posibles
lagunas, detección de excesos en las ideas transcritas.
La posibilidad de revisar el esquema de trabajo con el fin de darle mayor
orden y uniformidad, antes de redactar el borrador.
11.- Organización Definitiva del Fichero:
Para saber si faltan datos esenciales.
Se numeran las fichas con lápiz, para evitas dificultades de reorganización
si esta se altera.
12.- Redacción del Trabajo Final:
Conclusión de la investigación, la cual comunica sus resultados mediante
un texto escrito, el cual pueda ser consultado por cualquier persona que
requiera de esta.
Borrador.
Primera exposición de los hechos o ideas del trabajo final.
Índice e introducción se deja al final de la redacción del borrador.
Se recomienda dejar descansar el borrador, durante un tiempo, para así
realizar un análisis frío, crítico, sin ataduras emocionales, con el fin de
corregir y redactar el trabajo final.
Redacción final.
Su objetivo; comunicar con la mayor claridad y' coherencia posibles los
resultados, descubrimientos, comprobaciones o reflexiones logradas a
través de todo el proceso de la investigación documental.
47. METODOLOGÍA DESCRIPTIVA
Consiste en la Caracterización de un hecho, fenómeno o grupo, con el fin de
establecer su estructura o comportamiento. Tiene como objetivo la descripción
precisa del evento de estudio. Este tipo de investigación se asocia con el
diagnóstico. El método se basa en la indagación, observación, el registro y la
definición.
Objetivo:
El objetivo de la investigación descriptiva consiste en llegar a conocer las
situaciones, costumbres y actitudes predominantes a través de la descripción
exacta de las actividades, objetos, procesos y personas. Su meta no se limita a la
recolección de datos, sino a la predicción e identificación de las relaciones que
existen entre dos o más variables. Los investigadores no son meros tabuladores,
sino que recogen los datos sobre la base de una hipótesis o teoría, exponen y
resumen la información de manera cuidadosa y luego analizan minuciosamente
los resultados, a fin de extraer generalizaciones significativas que contribuyan al
conocimiento.
METODOLOGÍA
1. Examinan las características del problema escogido.
2. Lo definen y formulan sus hipótesis.
3. Enuncian los supuestos en que se basan las hipótesis y los procesos
adoptados.
4. Eligen los temas y las fuentes apropiados.
5. Seleccionan o elaboran técnicas para la recolección de datos.
6. Establecen, a fin de clasificar los datos, categorías precisas, que se
adecuen al propósito del estudio y permitan poner de manifiesto las
semejanzas, diferencias y relaciones significativas.
7. Verifican la validez de las técnicas empleadas para la recolección de datos.
8. Realizan observaciones objetivas y exactas.
9. Describen, analizan e interpretan los datos obtenidos, en términos claros y
precisos.
Recolección de Datos: En el informe de la investigación se señalan los datos
obtenidos y la naturaleza exacta de la población de donde fueron extraídos. La
población —a veces llamada universo o agregado— constituye siempre una
totalidad. Las unidades que la integran pueden ser individuos, hechos o elementos
de otra índole. Una vez identificada la población con la que se trabajará, entonces
se decide si se recogerán datos de la población total o de una muestra
representativa de ella. El método elegido dependerá de la naturaleza del problema
y de la finalidad para la que se desee utilizar los datos.
48. Población Total: Muchas veces no es difícil obtener información acerca de todas
las unidades que componen una población reducida, pero los resultados no
pueden aplicarse a ningún otro grupo que no sea el estudiado.
Muestra de la Población: Cuando se trata de una población excesivamente amplia
se recoge la información a partir de unas pocas unidades cuidadosamente
seleccionadas, ya que si se aborda cada grupo, los datos perderían vigencia antes
de concluir el estudio. Si los elementos de la muestra representan las
características de la población, las generalizaciones basadas en los datos
obtenidos pueden aplicarse a todo el grupo.
Expresión de Datos: Los datos descriptivos se expresan en términos cualitativos y
cuantitativos. Se puede utilizar uno de ellos o ambos a la vez.
Cualitativos (mediante símbolos verbales): Se usan en estudios cuyo objetivo es
examinar la naturaleza general de los fenómenos. Los estudios cualitativos
proporcionan una gran cantidad de información valiosa, pero poseen un limitado
grado de precisión, porque emplean términos cuyo significado varía para las
diferentes personas, épocas y contextos. Los estudios cualitativos contribuyen a
identificar los factores importantes que deben ser medidos. (Visión cientificista).
Cuantitativos (por medio de símbolos matemáticos): Los símbolos numéricos que
se utilizan para la exposición de los datos provienen de un cálculo o medición. Se
pueden medir las diferentes unidades, elementos o categorías identificables.
Tipos de investigación Descriptiva: Tomando en cuenta que las siguientes
categorías no son rígidas, muchos estudios pueden encuadrarse sólo en alguna
de estas áreas, y otros corresponden a más de una de ellas.
1. Estudios Tipo Encuesta: Se llevan a cabo cuando se desea encontrar la
solución de los problemas que surgen en organizaciones educacionales,
gubernamentales, industriales o políticas. Se efectúan minuciosas descripciones
de los fenómenos a estudiar, a fin de justificar las disposiciones y prácticas
vigentes o elaborar planes más inteligentes que permitan mejorarlas. Su objetivo
no es sólo determinar el estado de los fenómenos o problemas analizados, sino
también en comparar la situación existente con las pautas aceptadas. El alcance
de estos estudios varía considerablemente; pueden circunscribirse a una nación,
región, Estado, sistema escolar de una ciudad o alguna otra unidad. Los datos
pueden extraerse a partir de toda la población o de una muestra cuidadosamente
seleccionada. La información recogida puede referirse a un gran número de
factores relacionados con el fenómeno o sólo a unos pocos aspectos recogidos.
Su alcance y profundidad dependen de la naturaleza del problema.