Este documento presenta un proyecto para implementar clientes ligeros en un instituto utilizando equipos obsoletos. Se utilizarán dos máquinas virtuales alojadas en un servidor, una con Ubuntu y otra con Windows 2008 Server, para proporcionar escritorios remotos a los clientes ligeros a través de LTSP y Thinstation respectivamente. El objetivo es aprovechar los equipos antiguos sin necesidad de comprar hardware nuevo.
Comparación de herramientas tanto Open Source como Comerciales para una mejor toma de decisiones de acuerdo a la necesidad del proyecto.
Estudio realizado por Jorge Bustillos en el año 2014
Data Streaming with Apache Kafka & MongoDBconfluent
Explore the use-cases and architecture for Apache Kafka, and how it integrates with MongoDB to build sophisticated data-driven applications that exploit new sources of data.
Comparación de herramientas tanto Open Source como Comerciales para una mejor toma de decisiones de acuerdo a la necesidad del proyecto.
Estudio realizado por Jorge Bustillos en el año 2014
Data Streaming with Apache Kafka & MongoDBconfluent
Explore the use-cases and architecture for Apache Kafka, and how it integrates with MongoDB to build sophisticated data-driven applications that exploit new sources of data.
Change Data Streaming Patterns for Microservices With Debezium confluent
(Gunnar Morling, RedHat) Kafka Summit SF 2018
Debezium (noun | de·be·zi·um | /dɪ:ˈbɪ:ziːəm/): secret sauce for change data capture (CDC) streaming changes from your datastore that enables you to solve multiple challenges: synchronizing data between microservices, gradually extracting microservices from existing monoliths, maintaining different read models in CQRS-style architectures, updating caches and full-text indexes and feeding operational data to your analytics tools
Join this session to learn what CDC is about, how it can be implemented using Debezium, an open source CDC solution based on Apache Kafka and how it can be utilized for your microservices. Find out how Debezium captures all the changes from datastores such as MySQL, PostgreSQL and MongoDB, how to react to the change events in near real time and how Debezium is designed to not compromise on data correctness and completeness also if things go wrong. In a live demo we’ll show how to set up a change data stream out of your application’s database without any code changes needed. You’ll see how to sink the change events into other databases and how to push data changes to your clients using WebSockets.
Kafka streams - From pub/sub to a complete stream processing platformPaolo Castagna
A presentation on Kafka Streams APIs (part of Apache Kafka) and the innovative capabilities which brings in the world of open source stream processing engines. Simplicity (but powerful) and focus on developers being the biggest innovation.
DevOps is the next buzz word that all organization have to apply. This presentation will show you overview of all DevOps Technology you need to learn to transform your organization to DevOps organization.
OSEDA 2017 Seminar at Kasetsart University on December 16, 2017
Migrating Databases to the Cloud with AWS Database Migration Service (DAT207)...Amazon Web Services
Learn how to convert and migrate your relational databases, nonrelational databases, and data warehouses to the cloud. AWS Database Migration Service (AWS DMS) and AWS Schema Conversion Tool (AWS SCT) can help with homogeneous migrations as well as migrations between different database engines, such as Oracle or SQL Server, to Amazon Aurora. Hear from Verizon about how they intend to migrate critical databases to Amazon Aurora with PostgreSQL compatibility from their current on-premises Oracle databases, and learn how they intend to deal with challenges such as conversion of legacy code and complex data types, supporting business resiliency, and maintaining data synchronization during the transition phase.
Learn how the Blue/Green Deployment methodology combined with AWS tools and services can help reduce the risks associated with software deployment. We will illustrate common patterns and highlight ways deployment risks are mitigated by each pattern. Topics will include how services like AWS CloudFormation, AWS Elastic Beanstalk, Amazon EC2 Container Service, Amazon Route53, Auto Scaling and Elastic Load Balancing can help automate deployment. We will also address how to effectively manage deployments in the context of data model and schema changes. Learn how you can adopt blue/green for your software release processes in a cost-effective and low-risk way.
Introduction To Streaming Data and Stream Processing with Apache Kafkaconfluent
Modern businesses have data at their core, and this data is changing continuously. How can we harness this torrent of continuously changing data in real time? The answer is stream processing, and one system that has become a core hub for streaming data is Apache Kafka.
This presentation will give a brief introduction to Apache Kafka and describe its usage as a platform for streaming data. It will explain how Kafka serves as a foundation for both streaming data pipelines and applications that consume and process real-time data streams. It will introduce some of the newer components of Kafka that help make this possible, including Kafka Connect, a framework for capturing continuous data streams, and Kafka Streams, a lightweight stream processing library.
This is talk 1 out of 6 from the Kafka Talk Series.
http://www.confluent.io/apache-kafka-talk-series/introduction-to-stream-processing-with-apache-kafka
Dockerfile Tutorial with Example | Creating your First Dockerfile | Docker Tr...Edureka!
** DevOps Docker Training : https://www.edureka.co/devops**
This Edureka video on Dockerfile Tutorial will help you understand how a Dockerfile can be written from scratch and how it can be used to create custom Docker Images and eventually spin Docker containers out of those images. The following topics are covered in this video:
1. What is Docker?
2. What is a Dockerfile?
3. Dockerfile syntax
4. DockerFile Example: Dockerizing Apache & Nginx
To learn how Docker can be used to integrate multiple DevOps tools, watch the video titled 'DevOps Tools', by clicking this link: https://goo.gl/up9iwd
Check our complete DevOps playlist here: http://goo.gl/O2vo13
KVM and docker LXC Benchmarking with OpenStackBoden Russell
Passive benchmarking with docker LXC and KVM using OpenStack hosted in SoftLayer. These results provide initial incite as to why LXC as a technology choice offers benefits over traditional VMs and seek to provide answers as to the typical initial LXC question -- "why would I consider Linux Containers over VMs" from a performance perspective.
Results here provide insight as to:
- Cloudy ops times (start, stop, reboot) using OpenStack.
- Guest micro benchmark performance (I/O, network, memory, CPU).
- Guest micro benchmark performance of MySQL; OLTP read, read / write complex and indexed insertion.
- Compute node resource consumption; VM / Container density factors.
- Lessons learned during benchmarking.
The tests here were performed using OpenStack Rally to drive the OpenStack cloudy tests and various other linux tools to test the guest performance on a "micro level". The nova docker virt driver was used in the Cloud scenario to realize VMs as docker LXC containers and compared to the nova virt driver for libvirt KVM.
Please read the disclaimers in the presentation as this is only intended to be the "chip of the ice burg".
Event-Driven Stream Processing and Model Deployment with Apache Kafka, Kafka ...Kai Wähner
Talk from Kafka Summit San Francisco 2019 (https://kafka-summit.org/sessions/event-driven-model-serving-stream-processing-vs-rpc-kafka-tensorflow/). Video recording will be available for free on the Summit website.
Event-based stream processing is a modern paradigm to continuously process incoming data feeds, e.g. for IoT sensor analytics, payment and fraud detection, or logistics. Machine Learning / Deep Learning models can be leveraged in different ways to do predictions and improve the business processes. Either analytic models are deployed natively in the application or they are hosted in a remote model server. In the latter you combine stream processing with RPC / Request-Response paradigm instead of direct doing direct inference within the application. This talk discusses the pros and cons of both approaches and shows examples of stream processing vs. RPC model serving using Kubernetes, Apache Kafka, Kafka Streams, gRPC and TensorFlow Serving. The trade-offs of using a public cloud service like AWS or GCP for model deployment are also discussed and compared to local hosting for offline predictions directly “at the edge”.
Key takeaways
• Machine Learning / Deep Learning models can be used in different ways to do predictions. Scalability and loose coupling are important success factors
• Stream processing vs. RPC / Request-Response for model serving has many trade-offs – learn about alternatives and best practices for your different scenarios
• Understand the alternatives and trade-offs of model deployment in modern infrastructures like Kubernetes or Cloud Services like AWS or GCP
• See live demos with Java, gRPC, Apache Kafka, KSQL and TensorFlow Serving to understand the trade-offs
Amazon Web Services gives you fast access to flexible and low cost IT resources, so you can rapidly scale and build virtually any big data and analytics application including data warehousing, clickstream analytics, fraud detection, recommendation engines, event-driven ETL, serverless computing, and internet-of-things processing regardless of volume, velocity, and variety of data.
In this one-hour webinar, we will look at the portfolio of AWS Big Data services and how they can be used to build a modern data architecture.
We will cover:
Using different SQL engines to analyze large amounts of structured data
Analysing streaming data in near-real time
Architectures for batch processing
Best practices for Data Lake architectures
This session is suited for:
Solution and enterprise architects
Data architects/ Data warehouse owners
IT & Innovation team members
Change Data Streaming Patterns for Microservices With Debezium confluent
(Gunnar Morling, RedHat) Kafka Summit SF 2018
Debezium (noun | de·be·zi·um | /dɪ:ˈbɪ:ziːəm/): secret sauce for change data capture (CDC) streaming changes from your datastore that enables you to solve multiple challenges: synchronizing data between microservices, gradually extracting microservices from existing monoliths, maintaining different read models in CQRS-style architectures, updating caches and full-text indexes and feeding operational data to your analytics tools
Join this session to learn what CDC is about, how it can be implemented using Debezium, an open source CDC solution based on Apache Kafka and how it can be utilized for your microservices. Find out how Debezium captures all the changes from datastores such as MySQL, PostgreSQL and MongoDB, how to react to the change events in near real time and how Debezium is designed to not compromise on data correctness and completeness also if things go wrong. In a live demo we’ll show how to set up a change data stream out of your application’s database without any code changes needed. You’ll see how to sink the change events into other databases and how to push data changes to your clients using WebSockets.
Kafka streams - From pub/sub to a complete stream processing platformPaolo Castagna
A presentation on Kafka Streams APIs (part of Apache Kafka) and the innovative capabilities which brings in the world of open source stream processing engines. Simplicity (but powerful) and focus on developers being the biggest innovation.
DevOps is the next buzz word that all organization have to apply. This presentation will show you overview of all DevOps Technology you need to learn to transform your organization to DevOps organization.
OSEDA 2017 Seminar at Kasetsart University on December 16, 2017
Migrating Databases to the Cloud with AWS Database Migration Service (DAT207)...Amazon Web Services
Learn how to convert and migrate your relational databases, nonrelational databases, and data warehouses to the cloud. AWS Database Migration Service (AWS DMS) and AWS Schema Conversion Tool (AWS SCT) can help with homogeneous migrations as well as migrations between different database engines, such as Oracle or SQL Server, to Amazon Aurora. Hear from Verizon about how they intend to migrate critical databases to Amazon Aurora with PostgreSQL compatibility from their current on-premises Oracle databases, and learn how they intend to deal with challenges such as conversion of legacy code and complex data types, supporting business resiliency, and maintaining data synchronization during the transition phase.
Learn how the Blue/Green Deployment methodology combined with AWS tools and services can help reduce the risks associated with software deployment. We will illustrate common patterns and highlight ways deployment risks are mitigated by each pattern. Topics will include how services like AWS CloudFormation, AWS Elastic Beanstalk, Amazon EC2 Container Service, Amazon Route53, Auto Scaling and Elastic Load Balancing can help automate deployment. We will also address how to effectively manage deployments in the context of data model and schema changes. Learn how you can adopt blue/green for your software release processes in a cost-effective and low-risk way.
Introduction To Streaming Data and Stream Processing with Apache Kafkaconfluent
Modern businesses have data at their core, and this data is changing continuously. How can we harness this torrent of continuously changing data in real time? The answer is stream processing, and one system that has become a core hub for streaming data is Apache Kafka.
This presentation will give a brief introduction to Apache Kafka and describe its usage as a platform for streaming data. It will explain how Kafka serves as a foundation for both streaming data pipelines and applications that consume and process real-time data streams. It will introduce some of the newer components of Kafka that help make this possible, including Kafka Connect, a framework for capturing continuous data streams, and Kafka Streams, a lightweight stream processing library.
This is talk 1 out of 6 from the Kafka Talk Series.
http://www.confluent.io/apache-kafka-talk-series/introduction-to-stream-processing-with-apache-kafka
Dockerfile Tutorial with Example | Creating your First Dockerfile | Docker Tr...Edureka!
** DevOps Docker Training : https://www.edureka.co/devops**
This Edureka video on Dockerfile Tutorial will help you understand how a Dockerfile can be written from scratch and how it can be used to create custom Docker Images and eventually spin Docker containers out of those images. The following topics are covered in this video:
1. What is Docker?
2. What is a Dockerfile?
3. Dockerfile syntax
4. DockerFile Example: Dockerizing Apache & Nginx
To learn how Docker can be used to integrate multiple DevOps tools, watch the video titled 'DevOps Tools', by clicking this link: https://goo.gl/up9iwd
Check our complete DevOps playlist here: http://goo.gl/O2vo13
KVM and docker LXC Benchmarking with OpenStackBoden Russell
Passive benchmarking with docker LXC and KVM using OpenStack hosted in SoftLayer. These results provide initial incite as to why LXC as a technology choice offers benefits over traditional VMs and seek to provide answers as to the typical initial LXC question -- "why would I consider Linux Containers over VMs" from a performance perspective.
Results here provide insight as to:
- Cloudy ops times (start, stop, reboot) using OpenStack.
- Guest micro benchmark performance (I/O, network, memory, CPU).
- Guest micro benchmark performance of MySQL; OLTP read, read / write complex and indexed insertion.
- Compute node resource consumption; VM / Container density factors.
- Lessons learned during benchmarking.
The tests here were performed using OpenStack Rally to drive the OpenStack cloudy tests and various other linux tools to test the guest performance on a "micro level". The nova docker virt driver was used in the Cloud scenario to realize VMs as docker LXC containers and compared to the nova virt driver for libvirt KVM.
Please read the disclaimers in the presentation as this is only intended to be the "chip of the ice burg".
Event-Driven Stream Processing and Model Deployment with Apache Kafka, Kafka ...Kai Wähner
Talk from Kafka Summit San Francisco 2019 (https://kafka-summit.org/sessions/event-driven-model-serving-stream-processing-vs-rpc-kafka-tensorflow/). Video recording will be available for free on the Summit website.
Event-based stream processing is a modern paradigm to continuously process incoming data feeds, e.g. for IoT sensor analytics, payment and fraud detection, or logistics. Machine Learning / Deep Learning models can be leveraged in different ways to do predictions and improve the business processes. Either analytic models are deployed natively in the application or they are hosted in a remote model server. In the latter you combine stream processing with RPC / Request-Response paradigm instead of direct doing direct inference within the application. This talk discusses the pros and cons of both approaches and shows examples of stream processing vs. RPC model serving using Kubernetes, Apache Kafka, Kafka Streams, gRPC and TensorFlow Serving. The trade-offs of using a public cloud service like AWS or GCP for model deployment are also discussed and compared to local hosting for offline predictions directly “at the edge”.
Key takeaways
• Machine Learning / Deep Learning models can be used in different ways to do predictions. Scalability and loose coupling are important success factors
• Stream processing vs. RPC / Request-Response for model serving has many trade-offs – learn about alternatives and best practices for your different scenarios
• Understand the alternatives and trade-offs of model deployment in modern infrastructures like Kubernetes or Cloud Services like AWS or GCP
• See live demos with Java, gRPC, Apache Kafka, KSQL and TensorFlow Serving to understand the trade-offs
Amazon Web Services gives you fast access to flexible and low cost IT resources, so you can rapidly scale and build virtually any big data and analytics application including data warehousing, clickstream analytics, fraud detection, recommendation engines, event-driven ETL, serverless computing, and internet-of-things processing regardless of volume, velocity, and variety of data.
In this one-hour webinar, we will look at the portfolio of AWS Big Data services and how they can be used to build a modern data architecture.
We will cover:
Using different SQL engines to analyze large amounts of structured data
Analysing streaming data in near-real time
Architectures for batch processing
Best practices for Data Lake architectures
This session is suited for:
Solution and enterprise architects
Data architects/ Data warehouse owners
IT & Innovation team members
A medida que avanza la tecnología nosotros queremos avanzar con ella y dejar a
un lado esos aparatos viejos que consideramos ya “Pasados de moda”. Pero si nos detenemos a pensar que uso podríamos dar a estos aparatos que ocupan un espacio en nuestro lugar destinado a lo que nos estorba seria una re-utilización que quizá podrá servir a otros y para esto existen proyectos super interesantes y uno de ellos es LTSP, pero veamos que es esto.
Reparación Instalación y Mantenimiento de Equipos y Redes InformáticasFomento Profesional
En la actualidad, casi cualquier función que se quiera desempeñar depende de las nuevas tecnologías. No es necesario hablar de empresas tecnológicas para saber que
cualquier negocio requiere de equipos informáticos y conexión a Internet, para desempeñar su labor, sea cual sea esta.
Por otro lado, dadas las necesidades de las empresas por mantener una red con todos sus equipos, se hace necesaria la labor de un técnico capaz de implementar una
red, gestionarla y administrarla para su adecuado funcionamiento. Dentro de sus funciones estarán no sólo la de planificar y ejecutar dicha instalación, sino también dar soporte a las personas que usen los equipos informáticos, mejorar las comunicaciones, etc.
Actividad 4:
Manual básico de usuario.
Un Manual de Usuario expone los procesos que el usuario puede realizar con el sistema implantado, instruyéndolo en su uso y en la solución de los problemas que puedan suceder durante la operación. Para lograr esto, es necesario que se detallen todas las características que tienen los programas y la forma de acceder e introducir la información. Permite a los usuarios conocer en detalle qué actividades deberán desarrollar para la consecución de los objetivos del sistema. Reúne la información, normas y documentación necesarias para que el usuario conozca y utilice adecuadamente la aplicación desarrollada.
El estudiante deberá entregar el manual de usuario básico con la siguiente estructura:
• Introducción
• Requerimientos Técnicos del Sistema
• Entrada y Salida del Sistema
• Uso del Aplicativo
• Glosario
• Recomendaciones
Es importante que el estudiante que haya asumido el rol de Arquitecto de Software, revise los avances que los compañeros han publicado en el foro con fines de ajuste y optimización de procesos conforme a las observaciones planteadas. El estudiante deberá publicar la URL (libre de restricciones para facilitar la exploración por parte de los compañeros de grupo y del tutor) producto de la digitalización del manual de usuario a través del uso de una de las siguientes herramientas sugeridas:
• Slideshare: https://www.slideshare.net/
• Scribd: https://es.scribd.com/
• Issuu: https://issuu.com/
• Calameo: https://es.calameo.com/
Se hace necesario crear la respectiva cuenta según la herramienta seleccionada para la publicación del documento en ese recurso. Se aconseja que la publicación del documento esté en formato PDF para evitar que el contenido sufra alguna desconfiguración de márgenes, tipos de letras y distorsión de las imágenes.
NOTA ACLARATORIA: Los productos que se entregan como resultado del desarrollo de cada una de las actividades de la Tarea 3: actividades 1, 2, 3 y 4 corresponden al componente práctico inmerso del curso.
IMPORTANTE: No se aceptarán aportes durante los últimos tres (3) días para el cierre de la actividad para ser incluidos en el trabajo grupal de la Tarea 3.
Similar a Proyecto, Implantacion de Clientes Ligeros (20)
Catalogo Cajas Fuertes BTV Amado Salvador Distribuidor OficialAMADO SALVADOR
Explora el catálogo completo de cajas fuertes BTV, disponible a través de Amado Salvador, distribuidor oficial de BTV. Este catálogo presenta una amplia variedad de cajas fuertes, cada una diseñada con la más alta calidad para ofrecer la máxima seguridad y satisfacer las diversas necesidades de protección de nuestros clientes.
En Amado Salvador, como distribuidor oficial de BTV, ofrecemos productos que destacan por su innovación, durabilidad y robustez. Las cajas fuertes BTV son reconocidas por su eficiencia en la protección contra robos, incendios y otros riesgos, lo que las convierte en una opción ideal tanto para uso doméstico como comercial.
Amado Salvador, distribuidor oficial BTV, asegura que cada producto cumpla con los más estrictos estándares de calidad y seguridad. Al adquirir una caja fuerte a través de Amado Salvador, distribuidor oficial BTV, los clientes pueden tener la tranquilidad de que están obteniendo una solución confiable y duradera para la protección de sus pertenencias.
Este catálogo incluye detalles técnicos, características y opciones de personalización de cada modelo de caja fuerte BTV. Desde cajas fuertes empotrables hasta modelos de alta seguridad, Amado Salvador, como distribuidor oficial de BTV, tiene la solución perfecta para cualquier necesidad de seguridad. No pierdas la oportunidad de conocer todos los beneficios y características de las cajas fuertes BTV y protege lo que más valoras con la calidad y seguridad que solo BTV y Amado Salvador, distribuidor oficial BTV, pueden ofrecerte.
Catalogo Buzones BTV Amado Salvador Distribuidor Oficial ValenciaAMADO SALVADOR
Descubra el catálogo completo de buzones BTV, una marca líder en la fabricación de buzones y cajas fuertes para los sectores de ferretería, bricolaje y seguridad. Como distribuidor oficial de BTV, Amado Salvador se enorgullece de presentar esta amplia selección de productos diseñados para satisfacer las necesidades de seguridad y funcionalidad en cualquier entorno.
Descubra una variedad de buzones residenciales, comerciales y corporativos, cada uno construido con los más altos estándares de calidad y durabilidad. Desde modelos clásicos hasta diseños modernos, los buzones BTV ofrecen una combinación perfecta de estilo y resistencia, garantizando la protección de su correspondencia en todo momento.
Amado Salvador, se compromete a ofrecer productos de primera clase respaldados por un servicio excepcional al cliente. Como distribuidor oficial de BTV, entendemos la importancia de la seguridad y la tranquilidad para nuestros clientes. Por eso, trabajamos en colaboración con BTV para brindarle acceso a los mejores productos del mercado.
Explore el catálogo de buzones ahora y encuentre la solución perfecta para sus necesidades de correo y seguridad. Confíe en Amado Salvador y BTV para proporcionarle buzones de calidad excepcional que cumplan y superen sus expectativas.
Catalogo Refrigeracion Miele Distribuidor Oficial Amado Salvador ValenciaAMADO SALVADOR
Descubre el catálogo general de la gama de productos de refrigeración del fabricante de electrodomésticos Miele, presentado por Amado Salvador distribuidor oficial Miele en Valencia. Como distribuidor oficial de electrodomésticos Miele, Amado Salvador ofrece una amplia selección de refrigeradores, congeladores y soluciones de refrigeración de alta calidad, resistencia y diseño superior de esta marca.
La gama de productos de Miele se caracteriza por su innovación tecnológica y eficiencia energética, garantizando que cada electrodoméstico no solo cumpla con las expectativas, sino que las supere. Los refrigeradores Miele están diseñados para ofrecer un rendimiento óptimo y una conservación perfecta de los alimentos, con características avanzadas como la tecnología de enfriamiento Dynamic Cooling, sistemas de almacenamiento flexible y acabados premium.
En este catálogo, encontrarás detalles sobre los distintos modelos de refrigeradores y congeladores Miele, incluyendo sus especificaciones técnicas, características destacadas y beneficios para el usuario. Amado Salvador, como distribuidor oficial de electrodomésticos Miele, garantiza que todos los productos cumplen con los más altos estándares de calidad y durabilidad.
Explora el catálogo completo y encuentra el refrigerador Miele perfecto para tu hogar con Amado Salvador, el distribuidor oficial de electrodomésticos Miele.
KAWARU CONSULTING presenta el projecte amb l'objectiu de permetre als ciutadans realitzar tràmits administratius de manera telemàtica, des de qualsevol lloc i dispositiu, amb seguretat jurídica. Aquesta plataforma redueix els desplaçaments físics i el temps invertit en tràmits, ja que es pot fer tot en línia. A més, proporciona evidències de la correcta realització dels tràmits, garantint-ne la validesa davant d'un jutge si cal. Inicialment concebuda per al Ministeri de Justícia, la plataforma s'ha expandit per adaptar-se a diverses organitzacions i països, oferint una solució flexible i fàcil de desplegar.
1. IES Gran Capitán
Departamento de Informática
Ciclo Formativo de Grado Superior de
Administración de Sistemas Informáticos
Módulo de Proyecto Integrado
Juan José López López
Juan Manuel de Torres Encinas
2ASIR
Proyecto: Servidor de clientes ligeros
Curso 2012/2013
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
2. Índice
1.- Introducción.....................................................................................................................................................................3
2.- Objetivos y requisitos del proyecto.................................................................................................................................4
Objetivos..........................................................................................................................................4
Requisitos.........................................................................................................................................4
3.- Estudio previo.................................................................................................................................................................5
3.1.- Estado actual............................................................................................................................5
3.2.- Estudio de soluciones existentes.............................................................................................5
4.- Plan de trabajo.................................................................................................................................................................7
5.- Diseño..............................................................................................................................................................................8
5.1.- Diseño general.........................................................................................................................8
5.2.- Diseño detallado....................................................................................................................10
6.- Implantación..................................................................................................................................................................14
6.1.- Servidor Linux (Ubuntu).......................................................................................................14
6.2.- Servidor Windows 2008 Server.............................................................................................16
6.4.- Comprobación.......................................................................................................................24
7.- Recursos........................................................................................................................................................................29
7.1.- Herramientas hardware..........................................................................................................29
7.2.- Herramientas software...........................................................................................................29
7.3.- Personal.................................................................................................................................30
7.4.- Presupuesto............................................................................................................................30
8.- Conclusiones.................................................................................................................................................................32
8.1.- Grado de consecución de objetivos.......................................................................................32
8.2.- Problemas encontrados..........................................................................................................32
8.3.- Futuras mejoras......................................................................................................................33
9.- Referencias / bibliografía..............................................................................................................................................33
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
4. 2. Objetivos y requisitos del proyecto
El instituto dispone de una gran cantidad de ordenadores obsoletos sin utilizar ocupando
gran espacio. Con este proyecto lo que conseguimos es aprovecharlos sin tener que invertir
en equipos nuevos, ahorrándonos costes, ya que el instituto no dispone de suficiente
presupuesto.
Objetivos
• Dotar al centro de clientes ligeros aprovechando los equipos obsoletos del
departamento.
Requisitos
• El servidor del departamento, llamado PROXMOX, es el contenedor que
almacene las máquinas virtuales que los clientes ligeros utilizaran.
• Debemos utilizar dos máquinas virtuales, una será Ubuntu 12.04 64bits y la otra
Windows 2008 Server, como servidores de terminales.
• Utilizar software libre en medida de lo posible.
• Configurar el servicio TFTP que permitirá la transferencia de los archivos para el
arranque por red.
• Los equipos obsoletos serán configurados para el arranque por red y así poder
elegir mediante un menú el sistema operativo a iniciar.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
5. 3. Estudio previo
3.1. Estado actual
En el centro hay una gran cantidad de ordenadores obsoletos sin utilizar. Estos equipos
tienen un versión de sistema operativo instalada en el disco duro, llamada Puppy.
Queremos sustituir la instalación local por un arranque por red.
3.2. Estudio de soluciones existentes
• Servidor virtual
Vamos a utilizar las dos maquinas virtuales ya instaladas en el servidor del instituto
(Ubuntu 64bits y Windows 2008 Server 64bits).
El hecho de utilizar los sistemas de 64 bits es la capacidad de poder utilizar más de 2,98GB
de memoria RAM, ya que el servidor necesitara suficiente RAM para que los clientes
funcionen con fluidez.
• Clientes
Para los clientes, existen una gran cantidad de opciones basadas en software libre, entre las
cuales destacamos:
• Cliente Ubuntu
◦ LTSP (Linux Terminal Server Project): carga por red, con los mecanismos PXE,
el cliente primero solicita su propia dirección IP y la dirección IP para el servidor
LTSP por medio de DHCP y carga el núcleo Linux de una imagen Linux
preconfigurada en el servidor LTSP vía el servicio Trivial File Transfer Protocol
(TFTP) que funciona en el servidor LTSP.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
6. ◦ Thinstation Nx. Puede arrancar directamente desde la red vía PXE desde un
servidor TFTP, se basa en un protocolo NX, que realiza conexiones remotas muy
rápidas, lo que permite a los usuarios acceder a escritorios remotos de Linux o
Unix incluso bajo conexiones lentas como las realizadas con módem.
◦ PXES: es la micro distribución de Linux que le permite crear clientes ligeros
usando PXE. La configuración es muy compleja y la documentación no es muy
clara.
Nuestra elección será LTSP, ya que es sencillo de implementar, el arranque es ligero y
hemos encontrado gran cantidad de documentación, facilitándonos la configuración.
• Cliente Windows
◦ Thinstation: puede arrancar directamente desde la red vía PXE desde un
servidor TFTP o de dispositivos locales tales como discos duros. Thinstation
soporta servidores no Linux tales como Microsoft Windows. Es muy completa,
teniendo protocolos de escritorio remoto como NX, VNC, Rdesktop, etc. Es muy
ligera y personalizable.
◦ Citrix ICA: es un protocolo propietario para un sistema servidor de aplicaciones,
diseñado por Citrix Systems. El protocolo crea una especificación para
conectarnos entre el servidor y los clientes.
Para los clientes ligeros de Windows 2008 Server hemos elegido Thinstation, debido a la
facilidad de configuración y que soporta servidores Windows. El protocolo de conexión
remota elegido ha sido RDP, ya que es compatible con sistemas Windows mediante
Terminal Server.
Citrix no lo hemos elegido porque no te deja la implementación de los usb. Y en cambio con
Thinstation si lo podemos implementar.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
7. 4. Plan de trabajo
Semana 20 agosto Recopilación de la información para la implementación el
servidor Ubuntu.
Semana 27 agosto Recopilación de la información para la implementación del
Semana 3 septiembre servidor Windows 2008 Server y de la instalación del muen
de arranque por red.
Semana 10 septiembre Estudio de las soluciones posibles y elección del software
adecuado para la elaboración de nuestro proyecto.
Semana 24 septiembre Instalación de VirtualBox con los dos sistemas operativos
para las distintas pruebas llevadas a cabo.
Semana 1 octubre Tras varias pruebas, elegimos LTSP para la ejecución de
Linux (Ubuntu) en los clientes.
Semana 15 octubre Elaboración del Menú de arranque por red (PXE).
Semana 22 octubre Pruebas con otros sistemas de arranque por red para el
servidor Windows y elección de Thinstation.
Semana 29 octubre Configuración de Terminal Server en Windows 2008 Server.
Semana 5 Noviembre Configuración de Thinstation para el acceso remoto mediante
Rdesktop.
Semana 12 Noviembre
Semana 19 Noviembre Instalación de los servicios en el servidor del departamento.
Semana 26 Noviembre
Semana 3 Diciembre
Solución de problemas existentes.
Semana 10 Diciembre
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
8. 5. Diseño
5.1. Diseño general
EL diseño se compone del servidor Titan y del contenedor Proxmox, en el cual se alojan los
servidores Ubuntu 64bits y Windows 2008 Server.
5.1.1. Titan
Servicios que contiene:
•
◦ TFTP: protocolo de transferencia de archivos utilizado para transferir archivos
entre ordenadores en una red o, en nuestro caso, utilizado para trasferir los
archivos necesarios a los clientes ligeros para que arranquen a través de la red.
◦ DHCP: protocolo de red que asigna automáticamente una dirección ip a los
clientes ligeros.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
9. 5.1.2. Ubuntu 64 bits
◦ LTSP: para ejecutar Linux en máquinas con pocas prestaciones. Carga por red,
con los mecanismos PXE, el cliente primero solicita su propia dirección IP y la
dirección IP para el servidor LTSP por medio de DHCP y carga el núcleo Linux de
una imagen Linux preconfigurada.
◦ Nbdserver: es un servicio que nos permite compartir una imagen de un sistema
de archivos o una partición en el sistema con un sistema Linux a través de una
red. Su principal ventajas es que mientras se vayan conectando los usuarios, el
equipo no se va a ralentizar.
5.1.3. Windows 2008 Server
◦ Terminal Server: basado en el protocolo de escritorio remoto, permite a un
usuario acceder a las aplicaciones y datos almacenados en otro ordenador
mediante un acceso por red.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
10. 5.2. Diseño detallado
5.2.1. Servidor Titán
El servicio DHCP y TFTP no debemos configurarlo en el servidor ya que este está
configurado de antemano. Con lo que utilizaremos esta configuración para implementación
del proyecto.
En el servidor DHCP, tenemos que añadir unas lineas de configuración, indicando el
servidor que contiene el servicio TFTP, rango de Ips y ficheros a cargar por los clientes.
Y en el servicio TFTP, tenemos que guardar las imágenes que tienen que cargar los clientes.
Esto lo haremos dentro de la carpeta “/tftpboot/ltsp/i386”
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
11. 5.2.2. Servidor Ubuntu 64bits
En primer lugar, como ya tenemos instalados los sistemas operativos, nos centramos en lo
necesario. Procedemos a la instalación de los paquetes necesarios en el servidor Linux
(Ubuntu).
1. Primero instalamos el servicio ltspserver
2. Instalación del servicio nbdserver.
Posteriormente, crearemos la imagen que será utilizada por los clientes, esta sera
almacenada en /opt/ltsp.
5.2.3. Servidor Windows 2008 Server
En el servidor de Windows, tenemos que instalar el servicio terminal server. Como este
servicio ya esta instalado en el servidor del departamento, procedemos a configurar los
ficheros necesarios para el arranque por red y posteriormente descargarlos. Para ello
utilizaremos la aplicación web Thinstation, accediendo a la página web
http://www.thinstation.org/TSoM. En esta página, en primer lugar configuraremos:
1. Tarjeta de red que utiliza cada cliente.
2. Pack Idioma del teclado.
3. Aplicación que utilizaremos para conectarnos, en nuestro caso rdesktop.
Una vez configurados procedemos a la creación de los ficheros.
Posteriormente, debemos configurar:
• El idioma del teclado:
KEYBOARD_MAP = es
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
12. • Habilitar USB:
USB_ENABLED = on
• Menú para reconectar o apagar el equipo tras cerrar la sesión:
RECONNECT_PROMPT = MENU
• Opciones de la sesión
◦ Título de la sesión:
SESSION_0_TITLE = “2008”
◦ Tipo de conexión:
SESSION_0_TYPE= rdesktop
◦ La ip del servidor Windows:
SESSION_0_RDESKTOP_SERVER= 192.168.12.102
◦ Opciones de la conexión rdesktop para utilizar usb:
SESSION_0_RDESKTOP_OPTIONS= “f x lan a 24 r disk:usb=/mnt/usbdevice"
A la hora de la descarga, debemos elegir los ficheros para el arranque PXE (initrd y
vmlinuz). Estos ficheros se pasan al servidor Titán, dentro de la carpeta que comparte
tftp(/var/lib/tftpboot/ltsp/i386/), para poder añadirlos al menú de arranque.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
14. 6. Implantación
6.1. Servidor Linux (Ubuntu)
6.1.1 Configuración servidor ltsp
• Instalamos el servicio ltsp y nbd.
#aptget install ltspserver
#aptget install nbdserver
• Editamos el archivo de configuración dhcp “/etc/dhcp/dhcpd.conf”:
#Estas son las direcciones ip con las que hemos realizado las pruebas, a la hora de
implementarlo en el departamento, las debimos cambiar por las de allí#
• Generamos el cliente, el cual será almacenado dentro de /opt/ltsp/:
◦ ltspbuildclient arch i386
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
15. • Para usar nbd, debemos instalar los siguientes módulos en el chroot:
◦ squashfstools
◦ aufstools
Hacemos el chroot:
Ahora que estamos en el entorno chroot de los terminales ejecutamos:
Actualizamos la lista de paquetes:
Instalamos los paquetes para los módulos squashfs y aufs:
# aptget install squashfstools
# aptget install aufstools
Una vez instalados, actualizamos el initrd:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
16. Desmontamos /proc y escribimos el comando exit para salir de chroot:
Por último, al usar nbd, debemos actualizar la imagen que se servirá a los clientes y
posteriormente es aconsejable reiniciar el servidor.
6.2. Servidor Windows 2008 Server
El servidor Windows, lo único que debemos tener es el servicio Terminal Server, como ya
estaba instalado en el servidor, no hemos tenido que configurar nada.
6.3. Implementación del Menú para el arranque
6.3.1. Configuración Menú Ubuntu Server.
• Descargamos syslinux con el siguiente comando:
i
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
17. ◦ Descomprimimos el archivo con el siguiente comando:
▪ tar xzvf syslinux4.05.tar.gz
◦ Accedemos a la carpeta descomprimida Syslinux4.05 y copiamos los siguientes
archivos a la carpeta “/var/lib/tftpboot/ltsp/i386/”:
▪ com32/mboot/mboot.c32
▪ com32/modules/chain.c32
▪ core/pxelinux.0
▪ com32/menu/vesamenu.c32
▪ com32/menu/menu.c32
▪ memdisk/memdisk
6.3.2 Configuración Arranque Clientes Windows 2008 server.
Desde el servidor Ubuntu, accedemos a la web “http://www.thinstation.org/TSoM”. Desde
esta web crearemos los archivos necesarios para el arranque de los clientes windows
mediante rdesktop, que posteriormente copiaremos en la carpeta que aloja los archivos de
syslinux (/var/lib/tftpboot/ltsp/i386/) para agregarlo al menú de arranque.
Para ello realizamos los siguientes pasos:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
18. • Accedemos a la web:
• En primer lugar, debemos seleccionar todas las tarjetas de red Ethernet de 10100
1000 Mbit. Para ello, accedemos a la pestaña Hardware y desplegamos Network y
seleccionamos todas las tarjetas.
◦ Ethernet 10100Mbit modules
◦
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
19. ◦ Ethernet 1000Mbit modules
• El segundo paso es seleccionar el idioma español para el teclado:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
20. • El tercer paso es seleccionar el tipo de conexión para el arranque. Entramos en
Apllications, desplegamos “connection Package types. Choose at least one” y
seleccionamos rdesktop únicamente.
• Una vez realizados los pasos anteriores, hacemos click en el icono del destornillador
y la llave para construir la imagen:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
21. • El último paso de configuración es modificar el archivo de configuración de
Thinstation, en el que se encuentran las líneas de idioma, habilitar usb, menu de
reconexión/apagado, opciones de sesión, resolución,etc.
◦ Estas son las líneas del fichero de configuración que hemos modificado:
AUDIO_LEVEL=67
KEYBOARD_MAP=es
TIME_ZONE="UTC12:30"
SYSLOG_SERVER=local
USB_ENABLED=On
USB_STORAGE_SYNC=On
USB_MOUNT_DIR="/mnt/usbdevice"
USB_MOUNT_USELABEL="Yes"
USB_MOUNT_OPTIONS="utf8,shortname=win95"
DAILY_REBOOT=On
#AUTOPLAYCD=On
CUSTOM_CONFIG=Off
RECONNECT_PROMPT=MENU
#CRON_JOB="00 20 * * * /bin/poweroff"
SCREEN=0
WORKSPACE=1
AUTOSTART=On
ICONMODE=AUTO
SESSION_0_TITLE= "2008"
SESSION_0_TYPE=rdesktop
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
22. SESSION_0_RDESKTOP_SERVER=192.168.12.102
SESSION_0_RDESKTOP_OPTIONS="f x lan a 24 r disk:USB=/mnt/usbdevice/"
Al finalizar la configuración del fichero, hacemos click sobre el siguiente icono
para crear la imagen.
Al crearse la imagen, procederemos a descargar los ficheros initrd y vmlinuz dentro del
apartado PXE, que copiaremos posteriormente en la carpeta /tftpboot/ltsp/i386/, con el
nombre initrdw y vmlinuzw ya que en esa ubicación también se encuentran los ficheros
para ubuntu con el mismo nombre.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
23. 6.3.3. Configuración entradas del Menú.
• En el servidor Ubuntu, editamos el archivo
/var/lib/tftpboot/ltsp/i386/pxelinux.cfg/default para configurar el menú de
arranque, añadiendo las entradas para el sistema local y los Clientes ligeros.
Cuando creamos un nuevo usuario, deberemos lanzar:
• ltspupdatesshkeys
Posteriormente, actualizamos la imagen de los clientes:
• ltspupdateimage arch i386
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
24. 6.4. Comprobación
• Iniciamos un cliente configurado para que arranque por red, que tiene instalado la
versión Puppy como local.
• Comprobamos que arranca por PXE, asignándole el servidor DHCP una dirección IP.
• Nos aparece el menú que nos permitirá elegir el sistema a arrancar.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
25. • Arrancamos el sistema local en primer lugar.
• Cliente ligero Ubuntu:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
26. • Cliente ligero Windows 2008:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
27. Comprobamos en un cliente, que funciona correctamente la conexión usb:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
28. Al cerrar la sesión de Windows, nos aparecerá un menú para elegir entre reconectar con
el servidor o apagar el equipo:
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
29. 7. Recursos
7.1. Herramientas hardware
El Servidor anfitrión dispone de estas características:
• Procesador: Intel i7 8 núcleos.
• Memoria RAM: 32 Gigabytes.
• Disco Duro: 1TB.
Dentro del servidor anfitrión alojamos los dos servidores virtuales (Ubuntu 12.04 64bits y
Windows 2008 Server)
7.2. Herramientas software
Para la implementación del proyecto, hemos trabajado con varias herramientas software como son:
• Proxmox.Una completa plataforma de virtualización basada en sistemas de código
abierto que permite la virtualización. No es solo una maquina virtual más, con una
interfaz gráfica muy sencilla esta herramienta permite la migración en vivo de
maquinas virtuales, clustering de servidores, backups automáticos.
• Ubuntu 12.04 64bits. Sistema operativo que utiliza un núcleo Linux, y su origen
está basado en Debian. En el cual hemos instalado los servicios necesarios para la
implementación del proyecto.
• Windows 2008 Server. Es el nombre de un sistema operativo de Microsoft
diseñado para servidores. En él, hemos instalado Terminal Server, para conectarnos
de forma remota.
•
http://www.thinstation.org/TSoM. Página web, en la cual hemos trabajado para
la creación de los ficheros con los cuales arrancaremos de forma remota para
trabajar con el servidor Windows.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
30. 7.3. Personal
Este proyecto ha sido llevado a cabo por dos alumnos de Grado Superior Administración de
Sistemas Informáticos en Red del instituto Gran Capitán de Córdoba.
• Juan José López López
• Juan Manuel de Torres Encinas
7.4. Presupuesto
En este apartado vamos a apuntar, los gastos que supondría la implantación de un sistema
de clientes ligeros. No supondrá un gran gasto, ya que disponemos de los equipos y
servidores, tan solo indicaremos el gasto por las horas invertidas en el proyecto.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
32. 8. Conclusiones
8.1. Grado de consecución de objetivos
• Servidor Ubuntu 12.04. Está todo acabado, pero se podría implementar el usb de
mejor forma.
• Servidor Windows 2008 Server. Está totalmente terminado, hemos implementado
de forma correcta el idioma del teclado, los usb y el menú de apagado.
• Menú de arranque. El menú de arranque esta implementado de forma correcta,
hemos insertado bien todas las entradas pudiendo añadir todas las que quisieramos.
8.2. Problemas encontrados
Cuando comenzamos a implementarlo en el departamento nos encontramos con varios
problemas:
• Al estar el servicio tftp alojado en un servidor distinto al del dhcp, hemos tenido que
indicar en el archivo de configuración de dhcp (/etc/dhcp3/dhcpd.conf) la dirección
ip del servidor tftp con la siguiente línea: nextserver 192.168.12.103;
• El servidor que contiene el servicio tftp es un contenedor, por lo que daba problemas
de compatibilidad con el servicio “nfskernelserver”. La solución fue sustituir nfs por
el servicio nbdserver. Este servicio, además, tiene la ventaja frente a nfs de que a
mayor número de usuarios conectados el sistema no se ralentiza.
• El idioma del teclado en Windows, asignaba automáticamente inglés. Lo hemos
solucionado instalando el paquete de idioma español en Thinstation.
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org
33. 8.3. Futuras mejoras
• Implementar reproducción de vídeo hd.
• Solucionar el problema de búsqueda del archivo de arranque y asignarle que busque
en primer lugar el archivo default.
9. Referencias / bibliografía
Funcionamiento del Servicio LTSP
•
http://www.mauriciomatamala.net/TIPS/ltsp.php
•
http://administradores.educarex.es/wiki/index.php/Montar_un_servidor_de_termin
ales_con_LTSP
•
http://www.ecured.cu/index.php/Implementaci
%C3%B3n_de_Clientes_Ligeros_en_Servidores_GNU/Linux
Funcionamiento del Servicio TFTP
•
http://www.tutoriales.com/servicios/linux/19tftppxearranqueatravesdered
•
http://recursostic.educacion.es/observatorio/web/es/cajondesastre/38cajonde
sastre/959ltsp
Funcionamiento del Servicio NBD
•
http://www.tutoriales.com/servicios/linux/19tftppxearranqueatravesdered
•
http://enavas.blogspot.com.es/2009/04/montarunservidordeterminalescon.html
Idioma de entrada del teclado en Windows 2008 Server
•
http://support.microsoft.com/kb/322042/es
IES Gran Capitán C/. Arcos de la Frontera, S/N 14014 Córdoba 957379710
http://www.iesgrancapitan.org – http://www.iesgrancapitan.org/blog04 informatica@iesgrancapitan.org