Este documento contiene 3 oraciones. Presenta un proyecto de investigación sobre procesamiento distribuido realizado por 3 estudiantes para una clase de auditoría y evaluación de sistemas. Incluye la introducción, objetivos, y definiciones sobre procesamiento distribuido. También describe los conceptos de arquitectura de comunicaciones, auditoría de redes, y metodología para elaborar un informe sobre procesamiento distribuido.
Este documento presenta información sobre Oracle, incluyendo su historia, arquitectura e instancias. Brevemente describe su cronología desde 1977, componentes principales como procesos y estructuras de memoria, y procesos clave como DBWR, LGWR y CKPT. También cubre temas de administración como cuentas de usuario, roles y perfiles, así como ventajas como su amplia compatibilidad y desventajas como sus altos costos.
Un documento sobre una base de datos Oracle describe que una base de datos Oracle almacena y recupera información relacionada, tiene características como la gestión de grandes bases de datos y usuarios concurrentes, y ventajas como ser el motor de base de datos más usado y permitir el uso de particiones para mejorar la eficiencia. También describe algunos tipos de datos de Oracle como CHAR, VARCHAR2, NUMBER y DATE.
Este documento proporciona una introducción a Active Directory. Explica que Active Directory es el servicio de directorio de Windows que organiza, administra y controla los recursos de red de forma centralizada. También describe algunas de las tecnologías compatibles como DNS y DHCP, y explica brevemente la estructura lógica y física de Active Directory, incluyendo dominios, unidades organizativas, árboles y bosques.
Manual apache cassandra y comandos en la shellKevin López
Tutoria de instación de apache cassandra
comandos de apache cassandra
lugar de referencia para mas información
http://www.tutorialspoint.com/cassandra/index.htm
La programación concurrente tiene sus raíces en los sistemas operativos de los años 60 que introdujeron dispositivos de entrada-salida independientes. Los pioneros en este campo incluyen a Edsger Dijkstra, Per Brinch Hansen y Charles Hoare. La programación concurrente permite la ejecución simultánea de múltiples tareas a través de procesos o hilos, y ofrece ventajas como un modelo más natural para aplicaciones, compartir recursos de forma eficiente y optimizar el uso de recursos en sistemas monoprocesador.
Este documento describe la tecnología Ethernet. Ethernet es una tecnología de red de área local que transmite información entre computadores a velocidades de 10 Mbps, 100 Mbps o 1000 Mbps. El elemento clave de Ethernet es el frame, que contiene campos para la dirección de origen, destino y datos. Ethernet ha evolucionado a través de varios estándares de IEEE para soportar diferentes medios de transmisión y velocidades más altas.
Este documento presenta una tabla comparativa de los protocolos TCP y UDP. TCP es orientado a conexiones, garantiza la entrega confiable de datos en orden, pero es más pesado que UDP. UDP no es orientado a conexiones, no garantiza la entrega de datos ni el orden, pero es más liviano y rápido que TCP. La tabla compara aspectos como el uso, confiabilidad, velocidad, tamaño de encabezado y ventajas/desventajas de cada protocolo.
Este documento presenta información sobre Oracle, incluyendo su historia, arquitectura e instancias. Brevemente describe su cronología desde 1977, componentes principales como procesos y estructuras de memoria, y procesos clave como DBWR, LGWR y CKPT. También cubre temas de administración como cuentas de usuario, roles y perfiles, así como ventajas como su amplia compatibilidad y desventajas como sus altos costos.
Un documento sobre una base de datos Oracle describe que una base de datos Oracle almacena y recupera información relacionada, tiene características como la gestión de grandes bases de datos y usuarios concurrentes, y ventajas como ser el motor de base de datos más usado y permitir el uso de particiones para mejorar la eficiencia. También describe algunos tipos de datos de Oracle como CHAR, VARCHAR2, NUMBER y DATE.
Este documento proporciona una introducción a Active Directory. Explica que Active Directory es el servicio de directorio de Windows que organiza, administra y controla los recursos de red de forma centralizada. También describe algunas de las tecnologías compatibles como DNS y DHCP, y explica brevemente la estructura lógica y física de Active Directory, incluyendo dominios, unidades organizativas, árboles y bosques.
Manual apache cassandra y comandos en la shellKevin López
Tutoria de instación de apache cassandra
comandos de apache cassandra
lugar de referencia para mas información
http://www.tutorialspoint.com/cassandra/index.htm
La programación concurrente tiene sus raíces en los sistemas operativos de los años 60 que introdujeron dispositivos de entrada-salida independientes. Los pioneros en este campo incluyen a Edsger Dijkstra, Per Brinch Hansen y Charles Hoare. La programación concurrente permite la ejecución simultánea de múltiples tareas a través de procesos o hilos, y ofrece ventajas como un modelo más natural para aplicaciones, compartir recursos de forma eficiente y optimizar el uso de recursos en sistemas monoprocesador.
Este documento describe la tecnología Ethernet. Ethernet es una tecnología de red de área local que transmite información entre computadores a velocidades de 10 Mbps, 100 Mbps o 1000 Mbps. El elemento clave de Ethernet es el frame, que contiene campos para la dirección de origen, destino y datos. Ethernet ha evolucionado a través de varios estándares de IEEE para soportar diferentes medios de transmisión y velocidades más altas.
Este documento presenta una tabla comparativa de los protocolos TCP y UDP. TCP es orientado a conexiones, garantiza la entrega confiable de datos en orden, pero es más pesado que UDP. UDP no es orientado a conexiones, no garantiza la entrega de datos ni el orden, pero es más liviano y rápido que TCP. La tabla compara aspectos como el uso, confiabilidad, velocidad, tamaño de encabezado y ventajas/desventajas de cada protocolo.
Creación de bases de datos en SQL Serverjose C Leal
Este documento describe los pasos para crear una base de datos de una biblioteca en SQL. Primero, se crea una carpeta en el disco local C llamada "BDBiblioteca". Luego, se abre SQL y se crea la base de datos "BDBiblioteca" especificando la ruta de archivo de la carpeta creada. Seguidamente, se crean tres tablas - "Libros", "Autores" y "Usuarios" - con sus respectivos campos. Finalmente, las tablas se llenan con datos de ejemplo.
Este documento define conceptos básicos sobre estructuras de datos y tipos de datos. Explica que un dato es un hecho o referencia que no tiene relevancia por sí solo, sino cuando se relaciona con otros datos para producir información. También define variables, algoritmos, tipos abstractos de datos y tipos de datos, y describe el ciclo básico de desarrollo de programas.
Este documento proporciona instrucciones para corregir un examen sobre clasificación y funciones de archivos, sistemas de gestión de bases de datos, conceptos básicos de bases de datos como registros, campos, tablas y llaves. El examen contiene preguntas de selección múltiple, completar espacios en blanco y emparejar términos con sus definiciones correspondientes.
Taller: Prueba Unitaria con JUnit en NetBeansEmerson Garay
Este documento describe cómo crear pruebas unitarias con JUnit en NetBeans para validar funciones en clases Java. Inicialmente se crean dos clases, Validar y Util, con métodos de validación y utilidad. Luego, se generan clases de prueba JUnit para cada clase aplicando aserciones y validando que los resultados coinciden con los esperados. Finalmente, se muestran técnicas avanzadas como pruebas parametrizadas y suites de pruebas para ejecutar varias pruebas de forma agrupada.
Se describen los tipos básicos (Bool, Char, String, Int, Integer, Float y Double), los tipos compuestos (listas, tuplas y funciones) y las clases básicas (Eq, Ord, Show, Read, Num, Integral y Fractional) de Haskell.
Este es el 3º tema del curso de introducción a Haskell. El código y los restantes temas se encuentran en http://www.cs.us.es/~jalonso/cursos/i1m/temas.html
El documento habla sobre los lenguajes de manipulación de datos, que son lenguajes que los usuarios utilizan para consultar y modificar la base de datos. Describe operadores relacionales como selección, proyección, unión, diferencia, producto cartesiano y renombre, los cuales permiten derivar tablas deseadas a partir de las tablas base del modelo relacional. También explica conceptos como álgebra relacional, lenguajes procedimentales y no procedimentales, y la evolución histórica de los lenguajes de manipulación de datos.
Este documento presenta un proyecto realizado por estudiantes de la Universidad Nacional de Trujillo sobre un sistema de control para una veterinaria desarrollado en Java utilizando Netbeans y una base de datos MySQL. El proyecto incluye el marco teórico sobre estas herramientas, la ingeniería del proyecto mediante el modelado entidad-relación y relacional de la base de datos de una veterinaria, y la implementación de formularios y reportes en Netbeans.
Este documento presenta un resumen sobre diagramas de clases en UML. Explica que un diagrama de clases muestra las relaciones entre las clases de un sistema, incluyendo herencia, agregación y asociación. Luego define los elementos clave de un diagrama de clases como clases, atributos, métodos y las diferentes relaciones entre clases.
Fast Ethernet es una especificación de Ethernet que permite un mayor ancho de banda de hasta 100 Mbps. Funciona en las capas física y de enlace de datos del modelo OSI utilizando el protocolo CSMA/CD para evitar colisiones entre las estaciones conectadas a través de diferentes tipos de cableado. Fast Ethernet incluye estándares como 100BaseFX que definen los protocolos y tecnologías para proporcionar mayores velocidades de transmisión.
Clasificación de las memorias en informáticaa11konti
La memoria se refiere a los componentes que almacenan datos e instrucciones de forma temporal o permanente en un ordenador. Existen dos tipos principales de memoria: la memoria central RAM y ROM, y las memorias auxiliares como discos ópticos y magnéticos. La RAM se usa como memoria de trabajo y almacena instrucciones y datos de forma volátil, mientras que la ROM almacena información de forma permanente como firmware. Distintas tecnologías de memoria como DRAM, SRAM y SDRAM han mejorado la velocidad y capacidad de
Este documento habla sobre la importancia de resumir textos de forma concisa para captar la idea principal. Explica que un buen resumen debe identificar la idea central y los detalles más relevantes del documento original en una o dos oraciones como máximo.
El documento explica los conceptos fundamentales del protocolo IP, incluyendo las clases de direcciones IP, cómo se dividen las redes en subredes utilizando máscaras de red, y los rangos de direcciones IP asignados a cada clase. También incluye recomendaciones sobre el manejo adecuado de las direcciones IP y define términos clave como octeto, punto de acceso, red ad hoc y encriptación AES.
Este documento describe los conceptos de memoria virtual paginada y segmentada. Explica que la memoria virtual permite a un programa ejecutarse en un espacio de memoria lógica que no corresponde necesariamente a la memoria física real del sistema. Divide la memoria lógica y física en páginas y segmentos de igual tamaño mediante tablas de páginas y segmentos respectivamente, y carga solo las páginas y segmentos necesarios en memoria física bajo demanda para mejorar la multiprogramación.
A flowchart diagram shows the steps for a program using object-oriented programming. It starts with defining the classes needed for the program and their attributes and behaviors. Then objects are created by instantiating from the classes. The program is run by calling methods on the objects which will manipulate the object's attributes and interact with each other.
El modelo relacional es un modelo de datos basado en la lógica de predicados y conjuntos. En este modelo, los datos se almacenan en relaciones o tablas compuestas por registros (filas) y columnas (campos). Es el modelo más utilizado actualmente para modelar problemas reales y administrar datos dinámicamente. Provee herramientas para evitar duplicidad de datos y garantiza la integridad referencial.
Este documento describe los sistemas de información y las bases de datos. Explica que los sistemas de información gestionan los datos de una empresa y se dividen en subsistemas como el productivo y el financiero. Luego describe los dos tipos principales de sistemas de información: los orientados a procesos y los orientados a datos o bases de datos. Finalmente, explica los elementos clave de un sistema de base de datos como el hardware, software, datos y usuarios.
El documento describe los diferentes modelos de bases de datos, incluyendo el modelo de red. El modelo de red fue desarrollado originalmente por Charles Bachman en 1969 y permitía una representación flexible de registros y su relación a través de enlaces. El modelo de red evita la redundancia al incorporar un tipo de registro conector para vincular otros registros.
Firebird es una base de datos relacional que ofrece características SQL estándar y alto rendimiento. Puede ejecutarse como servicio o aplicación y suministra utilidades para copias de seguridad y administración. Firebird ha estado en uso desde 1981 y es compatible con múltiples plataformas como Linux, Windows y Mac.
Este documento presenta un cuadro comparativo de los protocolos TCP y UDP, destacando que TCP es orientado a conexión, más lento pero confiable, mientras que UDP es sin conexión, más rápido pero no confiable. Explica las diferencias en los campos de la cabecera, el control de flujo de datos, la fragmentación y otros aspectos.
La computación en malla (Grid computing) permite compartir el poder de procesamiento de millones de computadoras conectadas a Internet. Se originó en 1998 y permite flexibilidad, alta calidad a bajo costo, y el poder de un supercomputador sin necesidad de hardware adicional. Globus es el middleware más usado que maneja recursos como gestión de recursos, servicios de información y gestión de datos.
El documento describe el Grid Computing y el Globus Toolkit. Explica que el Grid Computing permite compartir recursos de forma coordinada entre instituciones, y que el Globus Toolkit es un conjunto de herramientas de código abierto que permite construir grids mediante la segura distribución y gestión de recursos e intercambio de datos entre organizaciones.
Creación de bases de datos en SQL Serverjose C Leal
Este documento describe los pasos para crear una base de datos de una biblioteca en SQL. Primero, se crea una carpeta en el disco local C llamada "BDBiblioteca". Luego, se abre SQL y se crea la base de datos "BDBiblioteca" especificando la ruta de archivo de la carpeta creada. Seguidamente, se crean tres tablas - "Libros", "Autores" y "Usuarios" - con sus respectivos campos. Finalmente, las tablas se llenan con datos de ejemplo.
Este documento define conceptos básicos sobre estructuras de datos y tipos de datos. Explica que un dato es un hecho o referencia que no tiene relevancia por sí solo, sino cuando se relaciona con otros datos para producir información. También define variables, algoritmos, tipos abstractos de datos y tipos de datos, y describe el ciclo básico de desarrollo de programas.
Este documento proporciona instrucciones para corregir un examen sobre clasificación y funciones de archivos, sistemas de gestión de bases de datos, conceptos básicos de bases de datos como registros, campos, tablas y llaves. El examen contiene preguntas de selección múltiple, completar espacios en blanco y emparejar términos con sus definiciones correspondientes.
Taller: Prueba Unitaria con JUnit en NetBeansEmerson Garay
Este documento describe cómo crear pruebas unitarias con JUnit en NetBeans para validar funciones en clases Java. Inicialmente se crean dos clases, Validar y Util, con métodos de validación y utilidad. Luego, se generan clases de prueba JUnit para cada clase aplicando aserciones y validando que los resultados coinciden con los esperados. Finalmente, se muestran técnicas avanzadas como pruebas parametrizadas y suites de pruebas para ejecutar varias pruebas de forma agrupada.
Se describen los tipos básicos (Bool, Char, String, Int, Integer, Float y Double), los tipos compuestos (listas, tuplas y funciones) y las clases básicas (Eq, Ord, Show, Read, Num, Integral y Fractional) de Haskell.
Este es el 3º tema del curso de introducción a Haskell. El código y los restantes temas se encuentran en http://www.cs.us.es/~jalonso/cursos/i1m/temas.html
El documento habla sobre los lenguajes de manipulación de datos, que son lenguajes que los usuarios utilizan para consultar y modificar la base de datos. Describe operadores relacionales como selección, proyección, unión, diferencia, producto cartesiano y renombre, los cuales permiten derivar tablas deseadas a partir de las tablas base del modelo relacional. También explica conceptos como álgebra relacional, lenguajes procedimentales y no procedimentales, y la evolución histórica de los lenguajes de manipulación de datos.
Este documento presenta un proyecto realizado por estudiantes de la Universidad Nacional de Trujillo sobre un sistema de control para una veterinaria desarrollado en Java utilizando Netbeans y una base de datos MySQL. El proyecto incluye el marco teórico sobre estas herramientas, la ingeniería del proyecto mediante el modelado entidad-relación y relacional de la base de datos de una veterinaria, y la implementación de formularios y reportes en Netbeans.
Este documento presenta un resumen sobre diagramas de clases en UML. Explica que un diagrama de clases muestra las relaciones entre las clases de un sistema, incluyendo herencia, agregación y asociación. Luego define los elementos clave de un diagrama de clases como clases, atributos, métodos y las diferentes relaciones entre clases.
Fast Ethernet es una especificación de Ethernet que permite un mayor ancho de banda de hasta 100 Mbps. Funciona en las capas física y de enlace de datos del modelo OSI utilizando el protocolo CSMA/CD para evitar colisiones entre las estaciones conectadas a través de diferentes tipos de cableado. Fast Ethernet incluye estándares como 100BaseFX que definen los protocolos y tecnologías para proporcionar mayores velocidades de transmisión.
Clasificación de las memorias en informáticaa11konti
La memoria se refiere a los componentes que almacenan datos e instrucciones de forma temporal o permanente en un ordenador. Existen dos tipos principales de memoria: la memoria central RAM y ROM, y las memorias auxiliares como discos ópticos y magnéticos. La RAM se usa como memoria de trabajo y almacena instrucciones y datos de forma volátil, mientras que la ROM almacena información de forma permanente como firmware. Distintas tecnologías de memoria como DRAM, SRAM y SDRAM han mejorado la velocidad y capacidad de
Este documento habla sobre la importancia de resumir textos de forma concisa para captar la idea principal. Explica que un buen resumen debe identificar la idea central y los detalles más relevantes del documento original en una o dos oraciones como máximo.
El documento explica los conceptos fundamentales del protocolo IP, incluyendo las clases de direcciones IP, cómo se dividen las redes en subredes utilizando máscaras de red, y los rangos de direcciones IP asignados a cada clase. También incluye recomendaciones sobre el manejo adecuado de las direcciones IP y define términos clave como octeto, punto de acceso, red ad hoc y encriptación AES.
Este documento describe los conceptos de memoria virtual paginada y segmentada. Explica que la memoria virtual permite a un programa ejecutarse en un espacio de memoria lógica que no corresponde necesariamente a la memoria física real del sistema. Divide la memoria lógica y física en páginas y segmentos de igual tamaño mediante tablas de páginas y segmentos respectivamente, y carga solo las páginas y segmentos necesarios en memoria física bajo demanda para mejorar la multiprogramación.
A flowchart diagram shows the steps for a program using object-oriented programming. It starts with defining the classes needed for the program and their attributes and behaviors. Then objects are created by instantiating from the classes. The program is run by calling methods on the objects which will manipulate the object's attributes and interact with each other.
El modelo relacional es un modelo de datos basado en la lógica de predicados y conjuntos. En este modelo, los datos se almacenan en relaciones o tablas compuestas por registros (filas) y columnas (campos). Es el modelo más utilizado actualmente para modelar problemas reales y administrar datos dinámicamente. Provee herramientas para evitar duplicidad de datos y garantiza la integridad referencial.
Este documento describe los sistemas de información y las bases de datos. Explica que los sistemas de información gestionan los datos de una empresa y se dividen en subsistemas como el productivo y el financiero. Luego describe los dos tipos principales de sistemas de información: los orientados a procesos y los orientados a datos o bases de datos. Finalmente, explica los elementos clave de un sistema de base de datos como el hardware, software, datos y usuarios.
El documento describe los diferentes modelos de bases de datos, incluyendo el modelo de red. El modelo de red fue desarrollado originalmente por Charles Bachman en 1969 y permitía una representación flexible de registros y su relación a través de enlaces. El modelo de red evita la redundancia al incorporar un tipo de registro conector para vincular otros registros.
Firebird es una base de datos relacional que ofrece características SQL estándar y alto rendimiento. Puede ejecutarse como servicio o aplicación y suministra utilidades para copias de seguridad y administración. Firebird ha estado en uso desde 1981 y es compatible con múltiples plataformas como Linux, Windows y Mac.
Este documento presenta un cuadro comparativo de los protocolos TCP y UDP, destacando que TCP es orientado a conexión, más lento pero confiable, mientras que UDP es sin conexión, más rápido pero no confiable. Explica las diferencias en los campos de la cabecera, el control de flujo de datos, la fragmentación y otros aspectos.
La computación en malla (Grid computing) permite compartir el poder de procesamiento de millones de computadoras conectadas a Internet. Se originó en 1998 y permite flexibilidad, alta calidad a bajo costo, y el poder de un supercomputador sin necesidad de hardware adicional. Globus es el middleware más usado que maneja recursos como gestión de recursos, servicios de información y gestión de datos.
El documento describe el Grid Computing y el Globus Toolkit. Explica que el Grid Computing permite compartir recursos de forma coordinada entre instituciones, y que el Globus Toolkit es un conjunto de herramientas de código abierto que permite construir grids mediante la segura distribución y gestión de recursos e intercambio de datos entre organizaciones.
Este documento describe un sistema de gestión de base de datos desarrollado por estudiantes de la Universidad de Cuenca. Explica los componentes clave de un sistema de gestión de base de datos como tablas, formularios, consultas e informes. También cubre conceptos como el almacenamiento de datos, patrones de diseño como Abstract Factory y Template Method, y la encriptación de datos para proteger la información.
El documento describe la computación en red o Grid computing, la cual permite compartir recursos computacionales distribuidos geográficamente como ordenadores, software, datos e instrumentos para resolver problemas a gran escala. Se explican los orígenes y ejemplos de proyectos Grid, así como sus ventajas, desventajas, arquitectura, tolerancia a fallos, escalabilidad y tipos.
Este documento presenta una introducción a la computación Grid y la e-Ciencia. Explica brevemente los conceptos clave de Grid como middleware, arquitectura en capas y funcionalidad. También introduce iniciativas históricas de Grid como el proyecto del CERN y describe brevemente el plan del curso.
UNEG-AS 2012-Pres7: Procesamieno distribuido y RedesUNEG-AS
Este documento trata sobre procesamiento distribuido y redes. Explica conceptos clave como clasificaciones de procesamiento distribuido como Globus, XML y clustering. También cubre componentes de redes, protocolos como TCP/IP, y auditoría de redes que incluye evaluación de la red física, lógica y análisis de vulnerabilidades.
Este documento describe la evolución de las aplicaciones informáticas desde aplicaciones monolíticas hasta aplicaciones distribuidas de múltiples capas. Explica que las aplicaciones monolíticas almacenan y ejecutan toda la lógica en una sola máquina, mientras que las aplicaciones cliente-servidor dividen la lógica entre clientes y servidores. Luego describe arquitecturas de 2, 3 y n capas que distribuyen aún más la lógica entre capas lógicas y físicas ejecutadas en diferentes máquinas.
El documento describe los antecedentes y objetivos de los sistemas de bases de datos distribuidas. Explica que la disponibilidad de bases de datos y redes de computadoras ha promovido el desarrollo de este nuevo campo. Aunque ofrecen ventajas como la transparencia en el acceso a la información, su diseño y administración plantean desafíos no encontrados en bases de datos centralizadas. El objetivo es introducir los conceptos y aspectos fundamentales de estos sistemas, así como los problemas más importantes y soluciones relacionadas.
Seminario Almacenamiento Datos Hoy - 13/12/10CAESCG.org
El documento trata sobre el almacenamiento de datos ambientales. Explica que los científicos generan grandes cantidades de datos de campo y de laboratorio, incluyendo datos espaciales. Estos datos se suelen guardar de forma desorganizada en papel o de manera digital, dificultando su comparación y colaboración. Lo mejor es usar una base de datos geográfica que siga estándares, permitiendo compartir y analizar los datos de una forma organizada.
Este documento ofrece una guía para que las empresas de tecnología de la información (TIC) puedan gestionar con éxito la transición a un modelo de negocio basado en la nube. Explica las percepciones y motivaciones de los clientes para adoptar la nube, así como los impactos en los ingresos y costes de las TIC. Además, proporciona consideraciones iniciales y recomendaciones sobre la planificación estratégica, financiera, de marketing, ventas e implementación para aprovechar las oportunidades que ofrece la nube
El documento habla sobre los sistemas distribuidos. Explica que un sistema distribuido ofrece servicios a través de una red de computadoras que parecen un único sistema. Describe algunos conceptos clave como transparencia, paradigmas como cliente-servidor y código bajo demanda, y arquitecturas como capas y objetos. También menciona retos, características, aplicaciones y evolución de este tipo de sistemas.
Arquitecturas y modelos de programación en computación grid (1)Tensor
Este artículo analiza los principales modelos de programación para computación Grid, como OpenMP para memoria compartida, MPI para memoria distribuida, y modelos orientados a servicios. También describe las arquitecturas y servicios clave de Grid Computing, incluyendo Globus Toolkit. El objetivo de los modelos de programación Grid es soportar características como paralelismo, heterogeneidad, rendimiento y tolerancia a fallos en ambientes distribuidos y dinámicos.
Infraestructuras A La Carta Jguijarro CescaJordi Guijarro
El documento habla sobre infraestructuras virtualizadas en entornos de nube. Explica conceptos clave como virtualización, multitenencia e interoperabilidad. También describe casos de estudio como OpenNebula, Amazon AWS y el proyecto MEGHACLOUD para crear una federación de nubes académicas en España. El objetivo final es promover el uso de tecnologías nube abiertas e interoperables.
Este documento presenta un resumen de cuatro sistemas de gestión de bases de datos: MySQL, Firebird, WebPublisher y Oracle. Describe brevemente las características técnicas, licencias, ventajas y desventajas de cada uno. El documento proporciona información sobre estos sistemas de bases de datos para comparar sus funcionalidades.
Permite la creaciÃ3n de asistentes para guiar al usuario en la
navegaciÃ3n de las páginas.
Editor de páginas: Editor WYSIWYG para crear y editar páginas web.
Plantillas: Posibilidad de crear plantillas para aplicar formatos comunes.
Estilos CSS: Soporte para hojas de estilo en cascada para dar formato a los
elementos.
Importar/exportar: Importar y exportar páginas y contenidos desde y hacia
otros formatos como XML.
Seguridad
Este documento presenta un resumen de cuatro sistemas de gestión de bases de datos: MySQL, Firebird, WebPublisher y Oracle. Describe brevemente las características técnicas, licencias, ventajas y desventajas de cada uno. El documento analiza estas herramientas para proponer cuál sería la mejor opción para un proyecto.
Este documento describe el proyecto gvPontis de la Comunidad Valenciana para migrar a soluciones de software libre. La Comunidad Valenciana tiene 5 millones de habitantes y su presupuesto en 2008 fue de 13.828.194 €. El proyecto gvPontis ha migrado con éxito 900 usuarios a Linux y ha desarrollado aplicaciones de código abierto como gvSIG y MOSkitt. El documento también discute los beneficios del modelo gvPontis para la administración, las empresas y las universidades.
El documento habla sobre las bases de datos distribuidas. Explica que estas evolucionaron a partir de la necesidad de los usuarios de integrar datos de diferentes fuentes y la presión tecnológica de distribuir la sobrecarga de E/S y aprovechar la velocidad de las redes. También describe los diferentes niveles en los que pueden distribuirse los datos y procesos, como en un solo sitio, múltiples procesos en un solo sitio de datos, o datos distribuidos en múltiples sitios. Finalmente, resalta algunas ventajas y
Objetivo: Conocer los fundamentos, técnicas y aplicaciones del procesamiento paralelo y distribuido que permitan el diseño de aplicaciones que requieran cómputo de altas prestaciones.
El documento habla sobre los sistemas operativos distribuidos. Explica que estos sistemas unen lógicamente varios sistemas operativos que funcionan en nodos independientes conectados en red. Cada nodo contiene parte del sistema operativo distribuido. Luego describe algunos desafíos como la heterogeneidad, tolerancia a fallos, escalabilidad, concurrencia, seguridad y transparencia que deben abordar los sistemas operativos distribuidos. Finalmente menciona algunas ventajas y desventajas de estos sistemas
Similar a UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes (20)
UNEG-AS 2012-Pres5: Controles internos para la seguridad en el área de sistemasUNEG-AS
El documento trata sobre los controles internos para la seguridad en el área de sistemas. Explica conceptos clave como sistema, control, seguridad, detección y prevención. Describe los tipos de controles y aquellos que se aplican a todos los sistemas. Además, detalla los controles de seguridad en sistemas informáticos y fraudes informáticos. Finalmente, explica técnicas para detectar irregularidades y los mecanismos de seguridad en el área de sistemas.
UNEG-AS 2012-Pres8: Verificación del rendimiento de sistemasUNEG-AS
Este documento presenta información sobre la verificación del rendimiento de sistemas. En 3 oraciones o menos: El documento discute los objetivos y metodología para verificar el rendimiento de sistemas, incluyendo investigación preliminar, control de proyectos, diseño de sistemas y programación, e instructivos de operación. También cubre temas como seguridad lógica, confidencialidad, evaluación de redes y mejora del rendimiento del sistema operativo.
UNEG-AS 2012-Inf8: Verificación del rendimiento de sistemasUNEG-AS
Este documento presenta la investigación sobre la verificación del rendimiento de sistemas realizada por estudiantes de la Universidad Nacional Experimental de Guayana. El documento define la auditoría informática y su importancia para verificar el desempeño de los sistemas utilizados en una empresa. Luego, describe las herramientas y metodologías utilizadas para analizar la seguridad, rendimiento y control de los sistemas, incluyendo una lista de verificación y evaluación de la red, sistema operativo, análisis, diseño y desarrollo del sistema. Finalmente
UNEG-AS 2012-Inf10: Instrumentos y técnicas aplicables a la auditoría de sist...UNEG-AS
Este documento presenta los instrumentos y técnicas aplicables a una auditoría de sistemas computacionales. Introduce conceptos clave como instrumentos de recopilación de información como entrevistas, cuestionarios y observación. También describe técnicas de evaluación como exámenes, inspecciones y comparaciones que ayudan a evaluar los sistemas. Finalmente, presenta técnicas especiales como guías de evaluación y ponderación que guían el proceso de auditoría.
UNEG-AS 2012-Pres9: Elaboración del informe de auditoríaUNEG-AS
El documento presenta información sobre la elaboración de informes de auditoría. Explica las etapas de planificación del trabajo de auditoría, la estructura del informe, las conclusiones de auditoría, las normas de redacción y presentación, y los papeles de trabajo de la auditoría.
UNEG-AS 2012-Inf9: Elaboración del informe de auditoríaUNEG-AS
El documento describe el proceso de planificación para la elaboración de un informe de auditoría. Incluye las siguientes etapas clave:
1. Definir los objetivos de la auditoría
2. Realizar una investigación preliminar
3. Definir el alcance de la auditoría
4. Documentar el plan de auditoría
5. Recopilar información utilizando herramientas como observación, entrevistas, revisión de documentos
6. Analizar la información recopilada
7. Estructurar el informe de auditoría según lineamientos establecidos
8.
UNEG-AS 2012-Pres10: Instrumentos y técnicas aplicables a la auditoría de sis...UNEG-AS
Este documento describe diferentes instrumentos y técnicas para realizar una auditoría de sistemas computacionales, incluyendo entrevistas, cuestionarios, observación, muestreo, inspección, revisión documental, listas de verificación, análisis de diagramas y programas de revisión por computadora. El objetivo es evaluar el uso y procesamiento de la información en los sistemas de una organización.
Este documento presenta la investigación sobre el control interno realizada por los estudiantes Ortiz Evert y Pinelly Carlos de la Universidad Nacional Experimental de Guayana. El objetivo general fue desarrollar una investigación documental sobre el control interno y generar una presentación, un video y un informe. Se define control interno y sus objetivos. También se describen los requisitos para su implantación como la estructura organizacional y racionalización de trámites. Finalmente, se clasifican los controles y cómo implantar un sistema de control interno.
Este documento resume los conceptos clave de riesgo, riesgo informático y administración de riesgos. Define riesgo como la posibilidad de que ocurra un evento adverso y explica que existen riesgos inherentes en auditorías. Describe los tipos de riesgos informáticos como riesgos de integridad, disponibilidad, confidencialidad y cumplimiento. Resalta que para minimizar riesgos se requiere implementar estrategias, procesos, controles y conocimientos en la administración de riesgos.
UNEG-AS 2012-Inf4: Controles internos para la operación de sistemas. Controle...UNEG-AS
Este documento describe los objetivos y desarrollo de un proyecto de investigación sobre el control interno informático en sistemas de información. El proyecto explica los controles internos para la operación del sistema y para la entrada, procesamiento, resguardo y salida de datos mediante herramientas informáticas como video y software. Los objetivos del proyecto son explicar estos controles internos, elaborar un informe y herramientas para presentar en una conferencia universitaria. El documento también describe los objetivos del evento de conferencia que es servir de referencia
UNEG-AS 2012-Pres4: Controles internos para la operación de sistemas. Control...UNEG-AS
Este documento describe los elementos y normas de control interno para sistemas de información. Cubre controles sobre la operación del sistema, procedimientos de entrada, procesamiento y salida de datos, incluyendo normas para datos fuente, operación y salida. El objetivo es asegurar la eficiencia, eficacia, confiabilidad y seguridad de los sistemas y la información.
UNEG-AS 2012-Inf3: Control interno para la organización del área de informáti...UNEG-AS
Este documento presenta los objetivos y elementos de control interno para la organización del área de informática y para el análisis, diseño e implementación de sistemas. Incluye secciones sobre la dirección, división de trabajo, asignación de responsabilidad y autoridad, establecimiento de estándares y métodos, y perfiles de puestos para el control interno del área de informática. También cubre subelementos como la estandarización de metodologías, estudios de factibilidad, y documentación para el control interno en el análisis, diseño e
UNEG-AS 2012-Pres3: Control interno para la organización del área de informát...UNEG-AS
El documento habla sobre los controles internos necesarios para la organización del área de informática y para el análisis, diseño e implementación de sistemas. Para la organización del área de informática, señala la importancia de la dirección, división de trabajo, asignación de responsabilidades, establecimiento de estándares y perfiles de puestos. Para el análisis, diseño e implementación de sistemas, enfatiza la estandarización de metodologías, asegurar beneficios óptimos, estudios de factibilidad, eficiencia en
UNEG-AS 2012-Inf11: Métodos usados para abusar de las nuevas tecnologíasUNEG-AS
Este documento describe objetivos para identificar métodos de abuso de tecnología, prevenirlos y detectarlos. Los objetivos generales son dar a conocer estas amenazas al público y cómo protegerse, así como recolectar y exhibir información sobre métodos de ataque y protección.
UNEG-AS 2012-Pres6: Auditorías de rutina y reglamentarias. Auditoría de siste...UNEG-AS
El documento presenta información sobre la asignatura de Auditoría y Evaluación de Sistemas de la Universidad Nacional Experimental de Guayana. Se describen diversos temas relacionados con auditorías como auditorías de rutina, reglamentarias, de sistemas y centros de procesamiento. También se explican conceptos como gestión de la continuidad del negocio y diseño de planes de contingencia.
UNEG-AS 2012-Inf6: Auditorías de rutina y reglamentarias. Auditoría de sistem...UNEG-AS
Este documento presenta una introducción sobre diferentes tipos de auditorías como auditorías de rutina, reglamentarias, de sistemas y centros de procesamiento. También describe la gestión de continuidad del negocio y planes de contingencia. Los objetivos son elaborar un informe detallado sobre estos temas de auditoría e incluir una búsqueda de información, análisis, organización de la información y presentación del informe.
UNEG-AS 2012-Inf5: Controles internos para la seguridad en el área de sistemasUNEG-AS
Este documento presenta un proyecto de investigación sobre controles internos para la seguridad en el área de sistemas realizado por estudiantes de la Universidad Nacional Experimental de Guayana para la asignatura de Auditoría y Evaluación de Sistemas. El proyecto busca establecer mecanismos para la detección y prevención de pérdidas y fraudes a través del desarrollo de un portal web que contenga información sobre la asignatura. El documento incluye la introducción del proyecto, la justificación, objetivos, metodología y
UNEG-AS 2012-Pres11: Métodos usados para abusar de las nuevas tecnologíasUNEG-AS
El documento habla sobre los usos maliciosos de la tecnología y cómo protegerse de ellos. Menciona que la tecnología puede usarse para satisfacer necesidades pero también de forma abusiva, por lo que es importante conocer estos usos y amenazas como ataques a redes, secuencias de comandos y vulnerabilidades para proteger la información.
La auditoría forense es el uso de técnicas de investigación para recopilar y analizar evidencia de actividades ilegales o irregulares. Se han desarrollado varios tipos de auditoría forense a lo largo de la historia, incluida la comercial y la corporativa. La metodología de la auditoría forense implica definir el problema, recopilar evidencia, evaluarla, elaborar un informe y evaluar el riesgo. Las normas como SAS N° 82 y SAS N° 99 guían la detección de fraude. La auditoría forense informática ab
Este documento presenta información sobre la gestión de riesgos en auditoría y sistemas de información. Explica los conceptos de riesgo inherente, de control y de detección en auditoría, así como los tipos de riesgos informáticos como de integridad, acceso, utilidad e infraestructura. Describe las etapas de la gestión de riesgos como identificación, evaluación, gestión y revisión, así como la metodología que incluye controles, transferencia, contingencias y comunicación.
UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes
1. Vicerrectorado Académico.
Proyecto de Carrera: Ingeniería en Informática.
Cátedra: Auditoría y Evaluación de Sistemas.
Semestre 2012-I.
Sección 1.
Profesor: Integrantes:
Carlos Guevara Cristancho Yenifer C.I.: 17.632.071
Rodríguez, Joselyn C.I. 20.299.475
Rodríguez Keyla C.I.: 18.247.016
Puerto Ordaz, Mayo de 2012.
2. Índice
Página
Introducción 3
Objetivo General 4
Objetivos Específicos 4
Procesamiento Distribuido:
Definición 5
Características 5
Objetivo 6
Clasificación 6
Seguridad 8
Aplicaciones 8
Ejemplo 9
Arquitectura de Comunicaciones 10
Futuro del Procesamiento Distribuido 12
Auditoria de Redes 14
Etapas de la Auditorias de Redes 14
Auditoria Red Física 14
Auditoria Red Lógica 15
Analisis de Vulnerabilidad 15
Estrategia de Saneamiento 15
Plan de Contención 16
Seguimiento Continuo del desempeño del Sistema 16
Procedimiento y Metodología para Informe P. Distribuido 16
Planificación 18
Objetivo general Pagina Web 19
Objetivos Específicos Pagina Web 19
Conclusión 20
Bibliografía 21
Anexos 22
3. Introducción
Dada la creciente disponibilidad de PC y minicomputadores económicos
pero potentes, se ha producido una tendencia al alza del procesamiento de datos
distribuidos (DDP). El uso de DDP permite dispersar los procesadores, datos y
otros elementos del sistema dentro de una organización.
La tendencia de estas aplicaciones ha sido apoyada por la evolución de las
capacidades distribuidas del Sistema Operativo y de las utilidades de soporte. Se
ha explorado un amplio espectro de posibilidades:
Arquitectura de Comunicaciones.
Sistema Operativo de Red: Es la configuración en que existe una red
de máquinas de aplicación, generalmente workstations monousuario
y una o más máquinas servidoras.
Sistemas Operativos Distribuidos: Es un Sistema Operativo común
compartido por una red de computadores.
El Procesamiento Distribuido se define como la forma en que es posible
conectar distintas maquinas, PCs, en cierto tipo de red de comunicaciones,
generalmente una LAN o una red de área amplia o una red como Internet,
logrando así, que una sola tarea de procesamiento de datos pueda ser procesada o
ejecutada entre varias maquinas de la red, es decir que un solo proceso se pueda
realizar entre varias maquinas diferentes y conectadas a una red.
22
4. Objetivo General
Realizar informe, presentación y video sobre el Procesamiento Distribuido
(Redes).
Objetivos Específicos
Identificación del problema.
Búsqueda de la información.
Análisis de la información.
Tratamiento de la información.
Transformación de la información.
Elaboración de informa, presentación y video.
Aplicación de productos multimedia en el proceso didáctico (página
web).
22
5. Procesamiento Distribuido
Definición:
Distintas máquinas pueden estar conectadas en una red de comunicación tal
que una sola tarea de procesamiento de datos puede ocupar muchas máquinas en
la red. En general, cada servidor puede servir a muchos clientes, y cada cliente
puede accesar muchos servidores.
Un sistema de base de datos distribuido es cuando un cliente puede accesar
muchos servidores simultáneamente. Es decir, que una sola petición a "la base de
datos" puede combinar datos de varios servidores.
Método de procesamiento de la información en el que varios procesos
(programas en ejecución) en paralelo, en paralelo, en la misma máquina o
distribuidos entre ordenadores o computadoras interconectados a través de una red
de comunicaciones, colaboran en la realización de una tarea. Esta colaboración
pude ser tan sencilla como distribuir la carga de trabajo entre procesos idénticos,
en el caso por ejemplo de una red de cajeros automáticos, o tan complejo como
multitud de procesos distintos.
Características:
Para cada uno de los usuarios debe ser similar al trabajo en el Sistema
Centralizado.
Seguridad interna en el sistema distribuido.
Se ejecuta en múltiples computadoras.
Tiene varias copias del mismo Sistema Operativo o de diferentes Sistemas
Operativos que proveen los mismos servicios.
Entorno de trabajo cómodo.
22
6. Dependiente de redes (LAN, MAN, WAN, entre otros.).
Compatibilidad entre los dispositivos conectados.
Transparencia (El uso de múltiples procesadores y el acceso remoto debe
ser invisible).
Interacción entre los equipos.
Diseño de software compatible con varios usuarios y Sistemas Operativos.
Objetivo:
El procesamiento distribuido ha sido diseñado para resolver problemas
demasiado grandes para cualquier supercomputadora y mainframe, mientras se
mantiene la flexibilidad de trabajar en múltiples problemas más pequeños.
Clasificación:
En términos de funcionalidad, las mallas (como también es conocido el
procesamiento distribuido) se clasifican en computacionales (incluyendo mallas
de barrido de la CPU) y en mallas de datos; y en los estados son:
1. Globus: La herramienta Globus ha emergido como el estándar de
facto para la capa intermedia (middleware) de la malla. Globus tiene
recursos para manejar:
La gestión de recursos (Protocolo de Gestión de Recursos en
Malla o Grid Resource Management Protocol).
Servicios de Información (Servicio de Descubrimiento y
Monitorización o Monitoring and Discovery Service).
Gestión y Movimiento de Datos (Acceso Global al
Almacenamiento Secundario, Global Access to secondary
Storage y FTP en malla, GridFTP).
22
7. La mayoría de mallas que se expanden sobre las comunidades
académicas y de investigación de Globus Toolkit como núcleo de la
capa intermedia.
2. XML: Los servicios web basados en XML ofrecen una forma de
acceder a diversos servicios/aplicaciones en un entorno distribuido.
Recientemente, el mundo de la informática en malla y los servicios
web caminan juntos para ofrecer la malla con un servicio web. La
arquitectura está definida por la Open Grid Services Architecture
(OGSA). La versión 3.0 de Globus Toolkit, que actualmente se
encuentra fase alfa, será una implementación de referencia acorde
con el estándar OGSA.
Las mallas ofrecen una forma de resolver grandes retos, como el
plegamiento de las proteínas y descubrimiento de medicamentos,
modelización financiera, simulación de terremotos, inundaciones y
otras catástrofes naturales, modelización del clima/tiempo, entre
otros. Ofrecen un camino para utilizar los recursos de las tecnologías
de la información de forma óptima en una organización.
3. Computación de Ciclos Redundantes: El modelo de computación
de ciclos redundantes, también conocido como computación zombi,
es el empleado por aplicaciones como SETI@Home, consistente en
que un servidor o grupo de servidores distribuyen trabajo de
procesamiento en grupo de computadoras voluntarias a ceder
capacidad de procesamiento no utilizada. Básicamente, cuando
dejamos nuestro ordenador encendido, pero sin utilizarlo, la
capacidad de procesamiento se desperdicia por lo general en algún
protector de pantalla, este tipo de procesamiento distribuido utiliza
nuestra computadora cuando nosotros no la necesitamos,
aprovechando al máximo la capacidad de procesamiento.
4. Clustering: Otro método para crear sistemas de supercomputadoras
es el clustering. Un cluster o racimo de computadoras consiste en un
grupo de computadoras de relativo bajo costo conectadas entre sí
22
8. mediante un sistema de red de alta velocidad (Gigabit de fibra óptica
por lo general) y un software que realiza la distribución de la carga
de trabajo entre los equipos. Por lo general, este tipo de sistemas
cuentan con un centro de almacenamiento de datos único. Los
clusters tienen la ventaja de ser sistemas redundantes, al estar fuera
de servicio el procesador principal se dispara y actúa como un Fail
Over.
5. Grid: la computación en Grid o en malla es un nuevo paradigma de
computación distribuida en el cual todos los recursos de un número
indeterminado de computadores son englobados para ser tratados
como un único superordenador de manera transparente.
Estas computadoras englobadas no están conectadas o enlazadas
firmemente, es decir, no tienen por qué estar en el mismo lugar
geográfico. Se pueden tomar como ejemplo el proyecto
SETI@Home, en el cual trabajan computadoras alrededor de todo el
planeta para buscar vida extraterrestre.
Seguridad:
El punto de la seguridad es delicado en este tipo de computación distribuida
pues las conexiones se hacen de forma remota y no local, entonces suelen surgir
problemas para controlar el acceso a los otros nodos. Esto puede aprovecharse
para un ataque de DOS, aunque la red no va a dejar de funcionar porque uno falle.
Esa es una ventaja de este sistema Grid.
Aplicaciones:
Los ambientes en los que se encuentra con mayor frecuencia el uso de las
bases de datos distribuidas son:
Cualquier organización que tiene una estructura descentralizada.
22
9. Casos típicos de lo anterior son: Organismos gubernamentales y/o
servicio público.
La industria de la manufactura, particularmente, aquella con plantas
múltiples. Por ejemplo, la industria automotriz.
Aplicaciones de control y comando militar.
Líneas de transportación aérea.
Cadenas hoteleras.
Servicios bancarios y financieros.
Ejemplo:
En una compañía, la realización de tareas que requieran altas capacidades de
proceso, para lo cual se utilizarán los PCs conectados a la intranet de esta
empresa. Sin embargo, si queremos afrontar un proyecto de ámbito universal y
con un elevado grado de complejidad habremos de ser capaces de abordarlo
mediante análisis diferenciales que puedan ser realizados de forma separada, en
paralelo mediante diferentes máquinas presentes en nuestro ambicioso terreno de
juego: Internet. A continuación presentaremos dos de estos proyectos.
El proyecto SETI@Home desarrollado por la Universidad de California en
Berkeley comienza en Mayo de 1999. Más de 2 millones de voluntarios lo
convierten en la experiencia más grande de procesamiento distribuido hasta la
fecha. SETI (the Search for Extra-Terrestrial Inteligente) es un nombre colectivo
para designar los diferentes programas encargados de buscar evidencias de vida en
el cosmos. Para ello se utiliza como fuente los datos recogidos por
radiotelescopios, que como si de grandes pabellones auditivos se tratase, se
encargan de escudriñar el cielo en busca de señales de radio provenientes del
espacio. Como se comprenderá, la capacidad de computación necesaria para
analizar todos los datos que se recogen es desmesurada. Pero, ahí es precisamente
donde nace SETI@Home como proyecto de aplicación de computación
distribuida de la Universidad de Berkeley. Los datos de partida en este caso son
22
10. los recogidos por el telescopio de Arecibo en Puerto Rico, el más grande del
mundo.
De una forma similar a SETI@Home surge una nueva iniciativa conjunta
de las empresas Intel y United Devices centrada esta vez en la investigación del
cáncer. En este caso se pone el procesamiento distribuido de Internet al servicio de
la investigación molecular realizada en el departamento de Química de la
Universidad de Oxford en Inglaterra y la Fundación Nacional para la
Investigación del Cáncer en los EE.UU. El objetivo de estos centros es la
búsqueda de drogas que actúen contra el cáncer y la leucemia. Para ello es
necesario realizar complejos análisis de compatibilidad molecular sobre
moléculas, susceptibles de convertirse en un tratamiento efectivo para lo que se
precisa de una alta potencia de proceso.
Arquitectura de Comunicaciones:
Arquitectura Simple: Está dividida en 3 niveles:
Nivel de Acceso a la Red: Se ocupa del intercambio de datos entre el
computador y la red a la que está conectada. El computador que emite
debe proporcionarle a la red la dirección del destino, de forma que la red
pueda encaminar los datos al destino apropiado.
Nivel de Transporte: Asegura que los datos lleguen a su aplicación de
destino y que lo hacen en el mismo oren en que fueron enviados.
Nivel de Aplicación: Contiene la lógica necesaria para soportar varias
aplicaciones de usuario. Para cada clase diferente de aplicación, como la
transferencia de archivos, se necesitará un módulo separado y particular
para la misma.
Cada aplicación de un computador debe tener una dirección que sea única
dentro de su computador, lo que permite que el nivel de transporte envíe datos a la
22
11. aplicación correcta. Estas últimas direcciones se conocen como Puntos de Acceso
al Sistema (SAP).
Arquitectura OSI: La Organización Internacional de Estándares (ISO)
desarrolló una arquitectura de comunicaciones conocida como modelo de
Interconexión de Sistemas Abiertos (OSI). Una de las arquitecturas de redes
existentes se basa en el modelo OSI. Se compone de 7 capas, y cada una de ellas
posee un protocolo denominado Protocolo de Capa, que establece las funciones
que debe cumplir. Las 7 capas del modelo son las siguientes:
Capa Física: Conecta el computador con el medio de
comunicaciones. Controla y codifica la corriente de bits y permite
que ésta sea transferida hacia la red o hacia otro computador.
Capa de Enlace: Responsable de establecer, mantener y desactivar el
enlace entre el ETD fuente y el colector. Permite la transferencia
ordenada de las tramas, detecta y corrige errores que pudieron
haberse producido y contiene la dirección destino.
Capa de Red: Permite direccionar el tráfico de paquetes desde la
fuente hasta una estación colectora remota. Mediante mecanismos de
conmutación establece el camino que los paquetes deben seguir.
Capa de Transporte: Permite mantener la integridad de los datos en
la comunicación. Proporciona el encaminamiento y la segmentación,
y luego su unión en el mensaje original transmitido. Recupera
errores, si fuera el caso. Esta capa maneja mensajes.
Capa de Sesión: Maneja las disponibilidades de red. Controla las
memorias intermedias y verifica que la capacidad de procesamiento
de ésta no se vea saturada por la cantidad de datos que se transfieren;
provee la sincronización entre ETD.
Capa de Presentación: Se ocupa de la sintaxis de los datos, la
conversión de código, la compresión y descompresión de la
información, y todo otro tipo de funciones que se refieran a la
modificación de los datos enviados.
22
12. Capa de Aplicación: Controla y ejecuta las actividades que requiere
una determinada aplicación para que pueda ser transmitida hacia el
otro extremo. Facilita la transferencia de archivos y de mensajes de
correo, emulando terminales virtuales, y permite el acceso a bases de
datos remotas, o tareas que hacen el gerenciamiento de la red.
Protocolo TCP/IP: La arquitectura TCP/IP está también estructura en
niveles. Los niveles existentes son:
Acceso a la Red: Incluye los protocolos que ofrecen acceso a la red
de comunicaciones. Los protocolos de este nivel se establecen entre
un nodo de comunicaciones y un computador conectado.
Internet: Consta de los procedimientos necesarios para que los datos
puedan atravesar múltiples redes entre computadores, ofreciendo una
función de encaminamiento. El protocolo IP (Internet Protocol) se
implementa en computadores y encaminadores (routers).
Transporte: Proporciona la lógica necesaria para asegurar que los
datos intercambiados entre los computadores son enviados en forma
fiable. El protocolo de este nivel en conocido como Transmission
Control Protocol (TCP).
Aplicación: Incluye protocolos para aplicaciones específicas del
usuario.
Futuro del Procesamiento Distribuido:
Aunque la idea de distribución de datos es bastante atractiva, su realización
conlleva la superación de una serie de dificultades tecnológicas entre las que se
pueden mencionar:
Asegurar que el acceso entre diferentes sitios o nodos y el
procesamiento de datos se realice de manera eficiente,
presumiblemente óptima.
22
13. Transformar datos e integrar diferentes tipos de procesamiento entre
nodos de un ambiente distribuido.
Distribuir datos en los nodos del ambiente distribuido de una manera
óptima.
Controlar el acceso a los datos disponibles en el ambiente
distribuido.
Soportar la recuperación de errores de diferentes módulos del
sistema de manera segura y eficiente.
Asegurar que los sistemas locales y globales permanezcan como una
imagen fiel del mundo real evitando la interferencia destructiva que
pueden ocasionar diferentes transacciones en el sistema.
Así también, la aplicación de técnicas de distribución de información
requiere de superar algunas dificultades de índole organizacional y algunas otras
relacionadas con los usuarios. Entre ellas se puede mencionar:
El desarrollo de modelos para estimar la capacidad y el tráfico
esperado en el sistema distribuido.
Soportar el diseño de sistemas de información. Por ejemplo, ayudar a
decidir donde localizar algún dato particular o donde es mejor
ejecutar un programa de aplicación.
Considerar la competencia que habrá por el uso de los recursos entre
nodos diferentes.
Aun cuando las dificultades mencionadas son importantes, las ventajas de la
distribución de información han promovido su aplicación en ambientes del
presente y del futuro.
22
14. Auditoria de Redes
Es una serie de mecanismos mediante los cuales se pone a prueba una red
informática, evaluando su desempeño y seguridad, a fin de lograr una utilización
más eficiente y segura de la información.
Etapas de la Auditoria de Redes
Auditoria de Red Física
Auditoria de Red Lógica
Análisis de la Vulnerabilidad
Estrategia de Saneamiento
Plan de Contención ante posibles incidentes
Seguimiento Continuo del desempeño del Sistema
Auditoria de Red Física
Áreas de equipo de comunicación con control de acceso
Protección y tendido adecuado de cables y líneas de comunicación para
evitar accesos físicos
Control de utilización de equipos de prueba de comunicaciones para
monitorear la red y el tráfico en ella.
Prioridad de recuperación del sistema
Control de las líneas telefónicas
Equipos de comunicaciones deben estar en un lugar cerrado y con acceso
limitado
Seguridad fisica del equipo sea adecuada
Se tomen medidas para separar las actividades de los electricistass y de
cableado de lineas telfonicas
Las lineas de comunicación esten fuera de la vista
22
15. Auditoria de Red Lógica
En líneas telefónicas: No debe darse el numero como público y tenerlas
configuradas con retro-llamada, código de conexión o interruptores.
Usar contraseñas de acceso
Garantizar que en una transmisión, solo sea recibida por el destinatario.
Registrar actividades de los usuarios en la red.
Comprobar
Encriptar la información pertinente
Evitar la importación y exportación de datos
Inhabilidad el software o hardware con acceso libre
Generar estadísticas de las tasas de errores y transmisión
Crear protocolos con detección de errores.
Analisis de Vulnerabilidad
Este es sin duda el punto más crítico de toda la Auditoria, debido a que de
él dependerá directamente el curso de acción a tomar en las siguientes etapas y el
éxito de estas.
Estrategia de Saneamiento
Se identifican las “brechas” en la red y se procede a “parchearlas”, ya sea
actualizado el software afectado, reconfigurándolo de una manera mejor o
removiéndolo para reemplazarlo por otro software similar.
22
16. Plan de Contención
Consta de elaborar un “Plan B”, que previa un incidente aun después de
tomadas las medidas de seguridad, y que da respuesta a posibles eventualidades.
Seguimiento Continuo del desempeño del Sistema
La seguridad no es producto, es un proceso. Constante mente surgen
nuevos fallos de seguridad, nuevos virus, nuevas herramientas que facilitan la
intrusión en sistemas, como también nuevas y más efectivas tecnologías para
solucionar estos y otros problemas.
Procedimiento y Metodología para Informe Procesamiento Distribuido
1.- ¿Qué estrategias de búsqueda de Información se aplicará?
La búsqueda de Información que aplicaremos es la búsqueda en Internet,
como apoyo a la existente sobre procesamiento distribuido, de manera que se
pueda definir que contenidos abarca el tema, que se desconoce o se tiene poco
conocimientos, las relaciones y subtemas que abarcan el procedimiento distribuido
es decir, tipos de redes, arquitectura de cliente-servidor, procesamiento paralelo.
Debido a que realiza una búsqueda en Internet la cual puede llegar hacer muy
amplia, se hace uso de herramientas como buscadores que facilitan las búsqueda
de información, rapidez y con mayor validez, para ello es necesario definir
palabras claves como ayuda para obtener de información deseada.
2. ¿Cuál será el proceso de Diseño a seguir?
• Identificación del problema.
• Búsqueda de la información.
22
17. • Análisis de la información.
• Tratamiento de la información.
• Transformación de la información.
3.- Herramientas a Utilizar
• Internet.
• Libros.
• Software GanttProject
4.- ¿Cuál será el proceso para la Toma de Decisiones de las herramientas a
utilizar?
Observación -> Comparación -> Codificación -> Organización ->
Clasificación -> Resolución -> Evaluación -> Retroalimentación
22
19. Página Web
Objetivo General
Desarrollar un portal web que sirva de alojamiento y permita la visualización de
los contenidos multimedia generados en el curso de Auditoría y Evaluación de
Sistemas, sirviendo de referencia para la búsqueda de información por parte de
profesionales o personas con actividades afines a la cátedra.
Objetivos Específicos
Definir el nombre, la estructura organizativa y pautas generales del
proyecto.
Crear un plan de trabajo para monitorear el trabajo.
Analizar y escoger la plataforma de desarrollo web que mejor satisfaga la
necesidad con los recursos disponibles
Establecer el formato y la diagramación de los temas para el sitio web.
Diseñar una interfaz sencilla y cómoda para la visualización del contenido.
Preparar la ponencia del producto.
Presentar el producto en las VII Jornadas de Investigación Institucional
UNEG.
22
20. Conclusión
Un error común es confundir procesamiento distribuido y paralelo, el
termino “procesamiento paralelo”, básicamente es el mismo, con excepción que
las maquinas distintas tienden a estar físicamente muy cerca en un sistema
“paralelo”, lo que no es necesario en un sistema “distribuido”. Por ejemplo una
aplicación distribuida podría ser una calculadora que usa una suma hecha en Java
en un equipo y la división implementada en C en otro equipo distinto.
El procesamiento distribuido permite una mejor utilización de equipos y
mejora el balanceo del procesamiento dentro de una aplicación, tiene una gran
importancia debido a que en algunas aplicaciones simplemente no hay una
maquina que sea capaz de realizar todo el procesamiento.
Para manejar este tipo de procesamiento en las aplicaciones existen diversas
maneras, siendo la arquitectura “cliente-servidor” la tendencia actual. Es tanto el
uso actual de esta arquitectura que por diversas razones, el termino “cliente-
servidor” ha llegado a aplicarse casi exclusivamente al caso en el que el cliente y
el servidor están, en efecto en maquinas distintas.
Una aplicación muy común del procesamiento distribuido es en las bases
de datos, donde el Procesamiento distribuido podría realizar la entrada/salida, la
selección y la validación de los datos en una computadora, y luego crear un
reporte basado en esos datos o una consulta en otra computadora.
22
21. Bibliografía
Ian Foster, Carl Kesselman (1999). La Grilla 2: Planos para una Nueva
Infraestructura Informática (The Grid 2: Blueprint for a New Computing
Infrastructure). Morgan Kaufmann Publishers. ISBN. Website.
Fran Berman, Anthony J.G. Hey, Geoffrey Fox (2003). La malla informática:
haciendo realidad la Infraestructura Global (Grid Computing: Making The
Global Infrastructure a Reality). Wiley. ISBN. Online version.
http://www.lania.mx/biblioteca/seminarios/basedatos/arq2.html
http://html.rincondelvago.com/bases-de-datos-distribuidas.html
http://www.cs.cinvestav.mx/SC/prof_personal/adiaz/Disdb/Cap_1.html
http://www.coit.es/publicac/publbit/bit131/internet.htm
22