Infraestructura Virtualizada:Cloud Computing
Cloud Computing es …
Evolución hacia Cloud Computing
Características de Cloud Computing
Clasificación de Cloud Computing
Fisonomía de Cloud Computing
Nivel de transferencia de responsabilidad
Arquitectura Cloud Computing
Ventajas y Retos de Cloud Computing
Proveedores Mayores
Previsión de Mercado y Proveedores Actuales
Amazon Web Services (AWS)
Microsoft Azure
Google Cloud Platform
Internet de las Cosas: IoT
¿Qué es Big Data?
Which Change Data Capture Strategy is Right for You?Precisely
Change Data Capture or CDC is the practice of moving the changes made in an important transactional system to other systems, so that data is kept current and consistent across the enterprise. CDC keeps reporting and analytic systems working on the latest, most accurate data.
Many different CDC strategies exist. Each strategy has advantages and disadvantages. Some put an undue burden on the source database. They can cause queries or applications to become slow or even fail. Some bog down network bandwidth, or have big delays between change and replication.
Each business process has different requirements, as well. For some business needs, a replication delay of more than a second is too long. For others, a delay of less than 24 hours is excellent.
Which CDC strategy will match your business needs? How do you choose?
View this webcast on-demand to learn:
• Advantages and disadvantages of different CDC methods
• The replication latency your project requires
• How to keep data current in Big Data technologies like Hadoop
Relational databases vs Non-relational databasesJames Serra
There is a lot of confusion about the place and purpose of the many recent non-relational database solutions ("NoSQL databases") compared to the relational database solutions that have been around for so many years. In this presentation I will first clarify what exactly these database solutions are, compare them, and discuss the best use cases for each. I'll discuss topics involving OLTP, scaling, data warehousing, polyglot persistence, and the CAP theorem. We will even touch on a new type of database solution called NewSQL. If you are building a new solution it is important to understand all your options so you take the right path to success.
Which Change Data Capture Strategy is Right for You?Precisely
Change Data Capture or CDC is the practice of moving the changes made in an important transactional system to other systems, so that data is kept current and consistent across the enterprise. CDC keeps reporting and analytic systems working on the latest, most accurate data.
Many different CDC strategies exist. Each strategy has advantages and disadvantages. Some put an undue burden on the source database. They can cause queries or applications to become slow or even fail. Some bog down network bandwidth, or have big delays between change and replication.
Each business process has different requirements, as well. For some business needs, a replication delay of more than a second is too long. For others, a delay of less than 24 hours is excellent.
Which CDC strategy will match your business needs? How do you choose?
View this webcast on-demand to learn:
• Advantages and disadvantages of different CDC methods
• The replication latency your project requires
• How to keep data current in Big Data technologies like Hadoop
Relational databases vs Non-relational databasesJames Serra
There is a lot of confusion about the place and purpose of the many recent non-relational database solutions ("NoSQL databases") compared to the relational database solutions that have been around for so many years. In this presentation I will first clarify what exactly these database solutions are, compare them, and discuss the best use cases for each. I'll discuss topics involving OLTP, scaling, data warehousing, polyglot persistence, and the CAP theorem. We will even touch on a new type of database solution called NewSQL. If you are building a new solution it is important to understand all your options so you take the right path to success.
SOA es un concepto de diseño de arquitectura que describe un sistema o software en términos de servicios (considerados como componentes) y la relación entre éstos (denominada composición).
Con SOA, los sistemas son altamente escalables ya que reflejan el negocio de la organización y utilizan capacidades distribuidas bajo el control de diferentes propietarios y dominios. Lo que provee una forma bien definida de ofrecer, descubrir, interactuar y usar dichas capacidades para producir los efectos deseados de manera consistente y medible.
Presentación sobre MongoDB Avanzado para el Codemotion 2015. Novedades en MongoDB 3.2. Queries e Indices Avanzados. Modelado con MongoDB. MongoDB en el Cloud: DBaaS. Tooling para MongoDB y URLs con recursos.
El Marco de Trabajo Zachman es un marco de trabajo de Arquitecturas empresariales creado por John A. Zachman en 1984 y publicado por primera vez en el IBM Systems Journal en 1987. Es uno de los marcos de trabajo más antiguos y de mayor difusión en la actualidad.
Se describe la capacidad de las bases de datos NoSQL y se enfoca en CouchDB una base de datos no relacional de tipo documental cuyo motor de programación está basado en JavaScript y estructura establecida en JSON. Además se da un estudio de las principales características de esta base de datos tales como tolerancia a particiones, y disponibilidad.
Posteriormente se da uso al Teorema CAP para conocer en qué caso es conveniente el uso de CouchDB y así hacer que la elección de CouchDB sea la más apropiada para algún proyecto en particular.
Finalmente se muestra un ejemplo Map Reduce
ArchiMate nace como un lenguaje de modelado de arquitecturas empresariales el cual tiene como objetivo proveer una representación uniforme de los diagramas que describen la arquitectura empresarial de una organización
SOA es un concepto de diseño de arquitectura que describe un sistema o software en términos de servicios (considerados como componentes) y la relación entre éstos (denominada composición).
Con SOA, los sistemas son altamente escalables ya que reflejan el negocio de la organización y utilizan capacidades distribuidas bajo el control de diferentes propietarios y dominios. Lo que provee una forma bien definida de ofrecer, descubrir, interactuar y usar dichas capacidades para producir los efectos deseados de manera consistente y medible.
Presentación sobre MongoDB Avanzado para el Codemotion 2015. Novedades en MongoDB 3.2. Queries e Indices Avanzados. Modelado con MongoDB. MongoDB en el Cloud: DBaaS. Tooling para MongoDB y URLs con recursos.
El Marco de Trabajo Zachman es un marco de trabajo de Arquitecturas empresariales creado por John A. Zachman en 1984 y publicado por primera vez en el IBM Systems Journal en 1987. Es uno de los marcos de trabajo más antiguos y de mayor difusión en la actualidad.
Se describe la capacidad de las bases de datos NoSQL y se enfoca en CouchDB una base de datos no relacional de tipo documental cuyo motor de programación está basado en JavaScript y estructura establecida en JSON. Además se da un estudio de las principales características de esta base de datos tales como tolerancia a particiones, y disponibilidad.
Posteriormente se da uso al Teorema CAP para conocer en qué caso es conveniente el uso de CouchDB y así hacer que la elección de CouchDB sea la más apropiada para algún proyecto en particular.
Finalmente se muestra un ejemplo Map Reduce
ArchiMate nace como un lenguaje de modelado de arquitecturas empresariales el cual tiene como objetivo proveer una representación uniforme de los diagramas que describen la arquitectura empresarial de una organización
This talks covers the following:
- IoT need for Linked Data
- Eco-aware devices: why and what for?
- Eco-aware Linked Data Devices
- A practical case: Sustainable Linked Data Coffee Maker
¿Qué es la Internet del Futuro?
Big Data = IoT + Cloud Computing + Linked Data
El progreso en campos clave de Future Internet como IoT + Cloud Computing + Linked Data nos está llevando hacia el siguiente gran palabro: Big Data
Talk given at FBK, Trento with my views on how we could progress towards Smarter Cities, those cities that do not only pursue resource efficiency but mainly focus on addressing the citizen actual needs in their daily interactions with the city. This presentation addresses: a) how an enabling platform for Smarter Cities must support developers by providing well-known interfaces and data management languages (REST, JSON and SQL) and b) also end-users by enabling them to contribute with data, still continuously analyzing the quality of their provided data.
Research on infrastructure-less and off-the-shelf hardware based research on Ubiquitous Computing, through software sensors, rule-based engines, middleware, semantic web, Linked Data and IoT, for two key domains: Smart Cities and AAL
La Internet del Futuro
La internet del futuro: definición, objetivos, limitaciones y desafíos.
Los pilares de la internet del futuro.
Internet de las cosas
Los nuevos protocolos de internet: IPv6 y HTTP 2.0.
La Web del Futuro
Evolución de la web: Web 3.0
El futuro de los navegadores web: HTML5, CSS3, RWD.
El futuro de los buscadores web.
La web como plataforma de servicios: REST, Comet, …
Cloud Computing
Definición.
Manifestaciones de cloud computing: SaaS, PaaS y IaaS.
Aplicaciones cloud más significativas.
Infraestructura cloud: Amazon Web Services.
Plataformas cloud: Google App Engine.
Web de Datos y Big Data
Web Semántica: principios.
Anotación de contenidos, lenguajes, y mash-ups semánticos.
Linked Data: tecnologías, aplicaciones y LOD-Cloud.
Big Data: definición, tecnologías y aplicabilidad.
Conclusión y Preguntas
Curso impartido en Curso de Verano Big Data & Data Science, Universidade de Santiago de Compostela, CITIUS (http://www.citius.usc.es/), 18 de Julio 2013
Conceptos básicos de NoSQL. Introducción a Cassandra, CouchDB, MongoDB y Neo4j.
Presentación en castellano escrita por Alex Rayón, revisada y extendida por Diego López de Ipiña, cuyo objetivo es indicar el potencial del paradigma cloud computing para el mundo empresarial y los profesionales en Economía y Gestión empresarial
In the era of digital transformation, the concept of Digital Twins has emerged as a revolutionary approach to managing and optimizing the lifecycle of physical assets, systems, and processes. This talk delves into the transformative potential of Digital Maintenance in the Digital Twin Era, highlighting the seamless integration of digital replicas with real-world operations to foster unprecedented levels of efficiency, predictability, and sustainability in maintenance practices. We will explore how Digital Twins serve as dynamic, real-time reflections of physical assets, allowing for meticulous monitoring, analysis, and simulation. Through vivid examples, we'll demonstrate the benefits of this paradigm, such as predictive maintenance, which leverages data analytics and machine learning to anticipate failures and optimize maintenance schedules, thereby reducing downtime and extending asset lifespan. Further, the talk will showcase the role of Digital Twins in facilitating remote maintenance operations. By providing a comprehensive, virtual view of assets, maintenance professionals can perform diagnostics and identify issues without being physically present, enhancing safety and reducing response times. We'll also explore the environmental benefits of Digital Maintenance within the Digital Twin framework. By optimizing maintenance schedules and operations, organizations can significantly reduce their carbon footprint and resource consumption, contributing to more sustainable industrial practices. Finally, the presentation will highlight case studies from various industries, including manufacturing, energy, and transportation, where the adoption of Digital Twins has led to substantial cost savings, improved operational efficiency, and enhanced decision-making processes. These examples will illustrate the tangible value and competitive advantage that Digital Maintenance in the Digital Twin Era offers to forward-thinking organizations.
Large Techno Social Systems (LTSS) involve leveraging technological advancements and digital platforms to improve access to essential services, enhance quality of life, and ensure social inclusivity. In LTSS, people cannot be mere users of networked technologies and services designed for optimization purposes. Their behaviour should become one of the key levers for designing technologies turning them into real “Smart citizens” that teach their surrounding environment (and embedded devices) but learn reciprocally from it. LTSS can be realized by promoting smart communities which leverage technology, data, and innovation to improve the quality of life for its residents, enhance sustainability, and optimize the use of resources. Human-centric technology can empower citizens to actively engage in societal decision-making processes, participate in deliberative systems, and contribute to societal welfare. On the other hand, technological advancements, including data analytics and artificial intelligence, can inform evidence-based policymaking and planning processes. Indeed, digital technologies have the potential to influence human behaviour change by providing information, personalized feedback, social support, targeted interventions, and opportunities for learning. This work explores two approaches to realize LTSS driven smart communities that leverage digital technologies to achieve a higher collaboration and reciprocal learning between machines and people. On one hand, co-production in smart communities promotes behaviour change by empowering citizens in the co-design and co-delivery process, designing user-centric solutions, leveraging local knowledge, fostering collaboration, and facilitating capacity building. On the other hand, Citizen Science can inspire and enable behaviour change that leads to more sustainable, responsible, and community-oriented actions by promoting awareness, empowering individuals, and facilitating collaboration.
realizing human-centric innovation around public services
From data collector to co-researcher - how to successfully collaborate with society
Delivered to UNIC CityLab 10 November 2022, 10:00-12:00, https://unic.eu/en
Towards more citizen-centric and sustainable public services
INTERLINK co-production methodology
INTERLINK’s key principles and concepts
INTERLINK Collaborative Environment
INTERLINK: co-production of public services
A public service is an aggregation of all activities that realize a public authority's commitment to make available to individuals, businesses, or other public authorities some capabilities intended to answer their needs, giving them some possibilities to control whether, how and when such capabilities are manifested
Co-production is defined as the process in which services are jointly designed and/or delivered by public authorities and other stakeholders
Internet of People is a new computing paradigm designed to enable Smart Sustainable Places which follow Social Good principles
Smart Sustainable Places =
IoT +
Big Data +
Blockchain +
People Participation through CO-PRODUCTION
FAIR Data
Principles
FAIR vs Open Data
Implementing FAIR & FAIRmetrics
FAIRness de ASIO-HERCULES
Research Objects
Definition
Standard RO-CRATE
Usage examples
What is linked data
What is open data
What is the difference between linked and open data
How to publish linked data (5-star schema)
The economic and social aspects of linked data.
Introducción a la Web de Datos
Grafos de Conocimiento
Web Semántica
Ontologías
Linked Data: Wikidata & Dbpedia
Ontología ROH: Red de Ontologías Hércules
Proceso de diseño de la ontología
Descripción de la ontología en detalle
Entidades principales explicadas en base a casos de uso
Más de Diego López-de-Ipiña González-de-Artaza (20)
Clases de Informática primaria para niños de colegios católicos
Cloud Computing: una perspectiva tecnológica
1. 1
Cloud Computing: una perspectiva tecnológica Jornada “Tocando la Nube” Sala Gárate, Universidad de Deusto, 7 de Octubre de 2014 Dr. Diego López-de-Ipiña González-de-Artaza DeustoTech-INTERNET, DeustoTech – Deusto Institute of Technology dipina@deusto.es http://paginaspersonales.deusto.es/dipina http://www.morelab.deusto.es
2. 2
Infraestructura Virtualizada: Cloud Computing
Un paradigma de computación emergente donde los datos y servicios residen en centros de datos muy escalables que pueden ser accedidos ubicuamente desde cualquier dispositivo conectado a Internet.
3. 3
Cloud Computing es …
•… capacidad computacional y almacenamiento virtualizada expuesta mediante infraestructura agnóstica a la plataforma y accedida por Internet
–Recursos IT compartidos en demanda, creados y eliminados eficientemente y de modo escalable a través de una variedad de interfaces programáticos facturados en base a su uso
4. 4
Evolución hacia Cloud Computing
•La coexistencia y limitaciones de cluster computing y supercomputing dieron lugar a grid computing
•De grid computing progresamos hacia utility computing, i.e. Servicios computacionales empaquetados como agua, electricidad, etc.
•Esto derivó en Cloud Computing, es decir, todo como servicio (XaaS) :
•Plataforma como Servicio
•Software como Servicio
•Infraestructura como Servicio
7. 7
Fisonomía de Cloud Computing
Tipos de despliegue
•Cloud privada
–Propiedad de o alquilada por una empresa (centros de datos,…)
•Cloud comunitaria
–Infraestructura compartida por una comunidad específica
•Cloud pública
–Vendida al público, gran escala (ec2, S3,…)
•Cloud híbrida / de comunidad
–Composición de dos o más clouds
Manifestaciones
•Cloud Software as a Service (SaaS)
–Uso de la aplicación del proveedor sobre la red, e.j., Salesforce.com,…
•Cloud Platform as a Service (PaaS)
–Despliega aplicaciones creadas por los clientes a la nube, e.j. Google App Engine, Microsoft Azure, IBM BlueMix …
•Cloud Infrastructure as a Service (IaaS)
–Alquilar procesamiento, almacenamiento, capacidad de red y otros recursos computacionales e.j., EC2 – Elastic Compute Cloud, S3 – Simple Storage Service, Simple DB,…
10. 10
Aplicaciones Cloud
•Corresponden con lo que se denomina como SaaS
•Manifestación de cloud más popular
•Ejemplos: SalesForce, Gmail, Yahoo! Mail, rememberthemilk, doodle, Google Docs, DropBox, picnik, Panda Cloud Antivirus, scribd, slideshare
•Ventajas: Libre, Fácil, Adopción de consumo
•Desventajas: Funcionalidad limitada, no hay control de acceso a la tecnología subyacente
11. 11
Plataformas Cloud
•Contenedores de aplicaciones, se denominan PaaS
•Entornos cerrados generalmente (excepción Cloud Foundry)
•Ejemplos: Google App Engine, Microsoft Azure, IBM BlueMix, Heroku, Mosso, Engine Yard, Joyent o Force.com
•Ventajas: buenas para desarrolladores, más control que en las aplicaciones cloud, configuradas estrechamente
•Desventajas: restringidas a lo que está disponible, dependencia tecnológica
12. 12
Infraestructura Cloud
•Proveen nubes de computación y almacenamiento IaaS
•Ofrecen capas de virtualización (hardware/software)
•Ejemplos: Amazon EC2, GoGrid, Amazon S3, Arsys CloudBuilder, rackspace, OpenStack
•Ventajas: control completo del entorno y la infraestructura
•Desventajas: precio premium, competencia limitada
15. 15
Previsión de Mercado y Proveedores Actuales
“2013 Market Share of $67 Billion Cloud Services represented only 1% of the total IT and Communications market: SaaS, IaaS and PaaS accounting for $41, $18 and $8 Billion, respectively” – IT Candor
16. 16
¿Qué Cloud necesita mi empresa?
Fuente: “Cloud Computing: La Tercera Ola de las Tecnologías de la Información”, Fundación de la Innovación Bankinter 2010
17. 17
Amazon Web Services (AWS)
•AWS proporciona una infraestructura de servicios elástica donde alojar computación, almacenamiento o sistemas empresariales
–Amazon Elastic Cloud (EC2) – permite configurar y ejecutar un Amazon Machine Instance (AMI) – servidores en demanda
–Amazon Simple Storage Service (S3) – permite guardar y recuperar datos en la nube
–Amazon SimpleDB – proporciona la funcionalidad de una base de datos sobre S3 – basada en pares clave-valor
–Amazon Simple Queue Service (SQS) – servicio de mensajería para encolar tareas y mensajes
–Amazon Relational Database Service (RDS) – servicio web para crear, operar y escalar una base de datos en la nube
–Amazon CloudFront – copias de tus objetos más populares son cacheados en una red de nodos alrededor del mundo
–…
•Documentación: http://aws.amazon.com/documentation/
20. 20
Google Cloud Platform
•Consiste de los siguientes componentes:
–Google App Engine – plataforma como servicio que usa tecnologías conocidas para construir y alojar aplicaciones en la misma infraestructura que Google.
–Google Compute Engine – infraestructura como servicio que permite ejecutar grandes cargas de trabajo sobre máquinas virtuales Linux alojadas en la infraestructura de Google.
•https://cloud.google.com/products/compute-engine
–Google Cloud Storage – almacena, accede y gestiona tus datos en forma de objetos en la infraestructura de Google.
•https://developers.google.com/storage/docs/hellogooglestorage
–Google BigQuery – analiza grandes datos en la nube usando SQL, utiliza un servicio de análisis de datos sin servidores que instalar o mantener
•https://developers.google.com/bigquery/sign-up
–Google Cloud SQL – ejecuta una base de datos MySQL en la nube de Google. Usa un servicio gestionado para mantener y administrar las BBDD.
•https://cloud.google.com/products/cloud-sql
–Google Cloud Datastore – base de datos sin esquemas NoSQL para guardar datos no relacionales.
•https://developers.google.com/datastore/
21. 21
•Google App Engine es una herramienta para el alojamiento de aplicaciones web escalables sobre la infraestructura de Google
–Su misión es permitir al desarrollador web crear fácilmente aplicaciones web escalables sin ser un experto en sistemas
•Aporta las siguientes características a los desarrolladores:
–Limita la responsabilidad del programador al desarrollo y primer despliegue
•Google App Engine provee recursos computacionales dinámicamente según son necesarios
–Toma control de los picos de tráfico – si nuestro portal crece en popularidad no es necesario actualizar nuestra infraestructura (servidores, BBDD)
•Ofrece replicación y balanceo de carga automática apoyado en componentes como Bigtable
–Fácilmente integrable con otros servicios de Google – los desarrolladores pueden hacer uso de componentes existentes y la librería de APIs de Google (email, autenticación, pagos, etc.)
Ejemplo Plataforma Cloud: Google App Engine
23. 23
¿Qué es Big Data?
•Esfuerzo por desarrollar procesos de análisis más rápidos y escalables que el data warehousing tradicional, y que extraen valor de los inmensos volúmenes de datos no estructurados producidos a diario
–Es la información de tu empresa, obtenida y procesada con diferentes técnicas para producir valor
–Da respuesta a ¡¡Explosión de los datos!!
•48 horas de datos del mercado de valores ~ 5 TB
•Datos semi y no estructurados en tiempo real de redes sociales: Twitter, Facebook, …
26. 26
Cloud Computing: una perspectiva tecnológica Jornada “Tocando la Nube” Sala Gárate, Universidad de Deusto, 7 de Octubre de 2014 Dr. Diego López-de-Ipiña González-de-Artaza DeustoTech-INTERNET, DeustoTech – Deusto Institute of Technology dipina@deusto.es http://paginaspersonales.deusto.es/dipina http://www.morelab.deusto.es
27. 27
Referencias
•Cloud Computing: Retos y Oportunidades, ONTSI – Observatorio Nacional de las Telecomunicaciones y de la SI, http://www.ontsi.red.es/ontsi/sites/default/files/1- _estudio_cloud_computing_retos_y_oportunidades_vdef.pdf
•Estudio sobre el cloud computing en el sector público en España, INTECO, 2012, http://www.inteco.es/pressRoom/Prensa/Actualidad_INTECO/Estudio_cloud_computing_sector_publico_Espana
•Amazon Web Services: http://aws.amazon.com/es/
•Microsoft Azure: https://azure.microsoft.com/es-es/
•Google Cloud Platform: https://cloud.google.com/
•IBM BlueMix: http://www- 01.ibm.com/software/ebusiness/jstart/bluemix/