NoSQL in Practice with TIBCO: Real World Use Cases and Customer Success Stori...Kai Wähner
NoSQL is not just about different storage alternatives such as document store, key value store, graphs or column-based databases. The hardware is also getting much more important. Besides common disks and SSDs, enterprises begin to use in-memory storages more and more because a distributed in-memory data grid provides very fast data access and update. While its performance will vary depending on multiple factors, it is not uncommon to be 100 times faster than corresponding database implementations. For this reason and others described in this session, in-memory computing is a great solution for lifting the burden of big data, reducing reliance on costly transactional systems, and building highly scalable, fault-tolerant applications. The session begins with a short introduction to in-memory computing. Afterwards, different frameworks and product alternatives are discussed for implementing in-memory solutions. Finally, the main part of this session shows several different real world uses cases where in-memory computing delivers business value by supercharging the infrastructure, e.g. to accelerate services, handle spikes in processing or ensure fault tolerance and disaster recovery.
A lot of in-memory data grid products are available. TIBCO ActiveSpaces, Oracle Coherence, Infinispan, IBM WebSphere eXtreme Scale, Hazelcast, Gigaspaces, GridGain, Pivotal Gemfire to name most of the important ones.
Real World Use Cases and Success Stories for In-Memory Data Grids (TIBCO Acti...Kai Wähner
Kai Wähner is a technical lead who discusses in-memory computing and real-world use cases. In-memory computing uses memory for data storage and processing to enable acting in real-time. It offers benefits like eventing, fault tolerance, and high performance beyond traditional caching. Examples where in-memory computing has been applied include personalized customer experiences, routing messages, handling spikes in data, and storing stateful enterprise application data.
Demostración: ¿Cómo acelera la plataforma Denodo su tiempo para obtener infor...Denodo
Watch full webinar here: https://bit.ly/3N6Jc6G
In this demo session, we will illustrate the power of Denodo and delve into how Denodo helps organisations make sense of disparate silos of data. We will demonstrate the Denodo advanced data catalog and our AI/ML features that help organizations democratize and govern their data.
Cada vez más observamos la creciente necesidad de tomar decisiones en tiempo real. Nuestro negocio esta vivo y el tomar decisiones cuanto antes nos puede suponer una ventaja competitiva respecto al resto.
Durante la siguiente sesión vamos a explorar todas las mejoras que trae SQL Server 2014 y que podemos aprovechar para dar un empujón de velocidad a nuestro sistema de BI.
El documento presenta a Stratebi como socio oficial de Talend y describe sus servicios de proyectos, consultoría y formación relacionados con Talend. Incluye ejemplos de integración de datos usando Talend como la extracción de datos de la API del Instituto de Estadística de Cataluña y la integración entre Talend y Google BigQuery. También describe las capacidades de carga incremental, depuración y sincronización de bases de datos que ofrece Talend.
http://summit.solidq.com
Aprovecha las novedades en el motor SQL Server 2016 para analizar información operacional. ¿Y si no tengo 2016? ¿Qué estrategias puedo llevar a cabo?
NoSQL in Practice with TIBCO: Real World Use Cases and Customer Success Stori...Kai Wähner
NoSQL is not just about different storage alternatives such as document store, key value store, graphs or column-based databases. The hardware is also getting much more important. Besides common disks and SSDs, enterprises begin to use in-memory storages more and more because a distributed in-memory data grid provides very fast data access and update. While its performance will vary depending on multiple factors, it is not uncommon to be 100 times faster than corresponding database implementations. For this reason and others described in this session, in-memory computing is a great solution for lifting the burden of big data, reducing reliance on costly transactional systems, and building highly scalable, fault-tolerant applications. The session begins with a short introduction to in-memory computing. Afterwards, different frameworks and product alternatives are discussed for implementing in-memory solutions. Finally, the main part of this session shows several different real world uses cases where in-memory computing delivers business value by supercharging the infrastructure, e.g. to accelerate services, handle spikes in processing or ensure fault tolerance and disaster recovery.
A lot of in-memory data grid products are available. TIBCO ActiveSpaces, Oracle Coherence, Infinispan, IBM WebSphere eXtreme Scale, Hazelcast, Gigaspaces, GridGain, Pivotal Gemfire to name most of the important ones.
Real World Use Cases and Success Stories for In-Memory Data Grids (TIBCO Acti...Kai Wähner
Kai Wähner is a technical lead who discusses in-memory computing and real-world use cases. In-memory computing uses memory for data storage and processing to enable acting in real-time. It offers benefits like eventing, fault tolerance, and high performance beyond traditional caching. Examples where in-memory computing has been applied include personalized customer experiences, routing messages, handling spikes in data, and storing stateful enterprise application data.
Demostración: ¿Cómo acelera la plataforma Denodo su tiempo para obtener infor...Denodo
Watch full webinar here: https://bit.ly/3N6Jc6G
In this demo session, we will illustrate the power of Denodo and delve into how Denodo helps organisations make sense of disparate silos of data. We will demonstrate the Denodo advanced data catalog and our AI/ML features that help organizations democratize and govern their data.
Cada vez más observamos la creciente necesidad de tomar decisiones en tiempo real. Nuestro negocio esta vivo y el tomar decisiones cuanto antes nos puede suponer una ventaja competitiva respecto al resto.
Durante la siguiente sesión vamos a explorar todas las mejoras que trae SQL Server 2014 y que podemos aprovechar para dar un empujón de velocidad a nuestro sistema de BI.
El documento presenta a Stratebi como socio oficial de Talend y describe sus servicios de proyectos, consultoría y formación relacionados con Talend. Incluye ejemplos de integración de datos usando Talend como la extracción de datos de la API del Instituto de Estadística de Cataluña y la integración entre Talend y Google BigQuery. También describe las capacidades de carga incremental, depuración y sincronización de bases de datos que ofrece Talend.
http://summit.solidq.com
Aprovecha las novedades en el motor SQL Server 2016 para analizar información operacional. ¿Y si no tengo 2016? ¿Qué estrategias puedo llevar a cabo?
Este documento presenta una introducción a la optimización de modelos multidimensionales en SSAS. Explica que la mejora del desempeño depende de cuatro aspectos: hardware, sistema operativo, servicios de Analysis Services y diseño. Describe brevemente mejoras en la configuración del sistema operativo, servicios de SSAS, hardware y diseño de cubos y dimensiones que pueden optimizar el desempeño. El orador ofrece su experiencia para ayudar con la optimización.
Este documento presenta una introducción al entorno de datos de Microsoft Cloud. Comienza introduciendo al orador, Jose Redondo, y su experiencia. Luego presenta una breve agenda que incluye definiciones de nube, Microsoft Azure y nube híbrida, así como demostraciones de Azure IaaS y PaaS. Finalmente, ofrece descripciones generales de conceptos clave como qué es la nube, Microsoft Azure, nube híbrida y los beneficios de usar la nube.
Este documento presenta las soluciones de virtualización y optimización de centros de datos de PlateSpin. PlateSpin PowerRecon permite el inventario y análisis de recursos y cargas de trabajo para planificar la consolidación de servidores. PlateSpin PowerConvert permite la migración de sistemas operativos, aplicaciones y datos entre servidores físicos y virtuales de forma automática e independiente de la marca. Juntos, estos productos permiten optimizar la utilización de recursos en el centro de datos mediante la consolidación y redistribución dinámica de
Conferencia MySQL, NoSQL & Cloud: Construyendo una infraestructura de big dat...Socialmetrix
Juan Martín Pampliega presenta sobre la construcción de una infraestructura de Big Data escalable y rentable. Explica que evolucionaron su arquitectura para manejar un volumen creciente de datos, reducir tiempos de procesamiento, y mitigar errores. Adoptaron conceptos como la arquitectura Lambda y sistemas distribuidos. Implementaron Kafka, Spark y Cassandra para lograr procesamiento distribuido, robusto y escalable. Aprendieron que es importante probar los sistemas y monitorearlos, y que herramientas no deben usarse
Optimizando con Open Source y Postgres en espanolEDB
Recientes avances en Postgres han propulsado la base de datos a entornos donde debe enfrentarse a los retos tecnológicos de hoy en día. En algunas de las compañías más grandes del mundo, PostgreSQL juega un papel esencial en el control del coste y en la reducción de la dependencia de los proveedores tradicionales.
Juan Zamora abordará los siguientes puntos:
* Qué cargas de trabajo son las más apropiadas para la introducción de Postgres en su entorno
* Las métricas que se deben tener en cuenta para evaluar el 'cuándo y cómo' de la expansión de las instalaciones de Postgres
* Avances claves en las últimas versiones de Postgres que soportan nuevos tipos de datos y permiten afrontar nuevos retos
Buenas prácticas de codificación para capas de acceso a datos de aplicaciones...SolidQ
Página oficial del SolidQ Summit: http://summit.solidq.com/madrid/2013/
En esta sesión, daremos un repaso a diferentes patrones de acceso a datos desde aplicaciones, viendo sus pros y sus contras, pensando en aprovechar las nuevas características que vienen con nuestros motores SQL. Hablaremos de patrones MERGE+TVP, de Entity Framework, de LINQ2SQL,… trataremos los siguientes aspectos: 1) Applicaciones Java con JDBC; 2) ENtityFramework (EAGER loading, lazy loading); 3) EF traducciones a TSQL; 4)JPA/Hibernate traducciones a TSQL
Ponentes: Enrique Catalá y Enrique Puig Nouselles
En esta presentación Guillermo Taylor, John Bulla y Julián Castiblanco, hablan sobre algunas de las mejores características de sQL Server 2016, como migrar a SQL Databas, características de sql database y en general varios tips para DBA's en arquitecturas híbridas
SolidQ Health Check es el servicio de SolidQ que realiza un análisis y diagnóstico preciso y detallado del estado de su servidor SQL Server; el servicio se ofrece para todas las versiones de SQL Server soportadas por Microsoft
Nuestro diagnóstico Health Check revela las causas de los problemas — no sólo los síntomas — ayudando a adoptar un enfoque proactivo en la solución de los problemas. Este tipo de enfoque ayuda a mejorar la productividad y descubrir los riesgos que su sistema pueda tener antes de que afecten a sus usuarios: • Mediciones automatizadas en su sistema: operaciones 100% probadas y garantizadas en la industria y libre de errores. • El equipo de SolidQ que adecua el servicio a sus necesidades y le ayudará a comprender las mediciones, conclusiones y acciones a realizar.
Mañana empiezo un nuevo proyecto: ¿qué metodología ágil me pongo?
El ecosistema ágil está formado por un conjunto de organismos “vivos” llamados “métodos y prácticas ágiles” (biocenosis) y el medio físico donde se relacionan, llamados Organizaciones (biotopo). Estas últimas están conformadas por personas y estas personas usan distintas clases de biocenosis, es decir, de métodos y prácticas ágiles, según sus necesidades.
Como todo ecosistema, el ágil tiene barreras que a veces impiden su normal evolución. Barreras físicas, como la falta de entornos adecuados dentro de las Organizaciones para albergar equipos que respiren “agilidad”. Barreras culturales y hasta emocionales, arraigos y miedos que se dan entre las personas, quienes experimentan temores muchas veces infundados debido a la falta de información o de acompañamiento efectivo por parte de expertos, de conocedores de ese ecosistema ágil en formación.
Pero, ¿cuáles son esos métodos y prácticas ágiles? ¿Para qué sirve cada uno de ellos? En esta sesión exploraremos, a manera de introducción, las metodologías más usadas, como Scrum, eXtreme Programming (XP), Kanban, Lean; y algunas de las técnicas necesarias en un primer esfuerzo por implementar la Cultura Ágil en una Organización: User Story Mapping, Product Vision Board, User Persona, User Stories, TDD, BDD, para mencionar solo algunas.
Y lo más importante, ¿para qué sirve cada uno de estos especímenes ágiles? ¿Alguno de ellos es adecuado para el proyecto que inicio mañana? ¿Varios de estos? ¿Son complementarios? ¿Qué problemas puedo encontrar si elijo mal? Y en el fondo, ¿cuáles son las razones por las que debo permitir el nacimiento y expansión de un nuevo ecosistema aun si el actual me está rindiendo beneficios? Y hablando de utilidades, ¿cuáles puedo obtener al implementar la “agilidad” en mi Organización?
Finalmente, sabemos que los ecosistemas están gobernados principalmente por eventos estocásticos (azar), por las reacciones que estos eventos ocasionan en sus componentes y por las respuestas de los organismos a las condiciones que los rodean. ¿Cómo controlar estos eventos y sobrevivir en el intento? Una mirada Darwiniana nos ayudará a entender cómo, mediante la inspección y la adaptación, nos iremos adecuando a los cambios que ocurren en todo proceso de evolución y entenderemos que la cultura ágil es el siguiente paso en la evolución de la inteligencia.
Gánale la partida a tu SQL Server, configuración ideal para que todo vaya bie...SolidQ
Este documento resume las recomendaciones para configurar el hardware y software de SQL Server de forma óptima. Se destacan factores como la memoria RAM, discos, configuración de servicios, cuentas de usuario, ubicación de archivos, configuración de TempDB, collation y planes de mantenimiento como reindexación e integridad de datos.
SQL Server 2014 y La Plataforma de DatosJoseph Lopez
Un análisis objetivo y amplio (Vista rápida) sobre las nuevas características en la versión 2014, aplicadas al desempeño y ejecución de escenarios empresariales de alto desempeño como lo es In-Memory for OLTP, Update Capable Column Store Index, Alta Disponibilidad y Misión Critica sobre altos volúmenes de transaccionalidad de datos.
Sql server 2014 y la plataforma de datosSpanishPASSVC
Un análisis objetivo y amplio (Vista rápida) sobre las nuevas características en la versión 2014, aplicadas al desempeño y ejecución de escenarios empresariales de alto desempeño como lo es In-Memory for OLTP, Update Capable Column Store Index, Alta Disponibilidad y Misión Critica sobre altos volúmenes de transaccionalidad de datos.
Este documento resume varios estudios de caso de grandes implementaciones de almacenes de datos con SQL Server. Incluye detalles sobre cómo Microsoft AdCenter maneja cubos de hasta 3,2 TB, cómo Xbox Live usa SSD para mejorar el rendimiento y particiona datos para procesamiento paralelo, y cómo Yahoo! maneja un cubo de 12 TB con particionamiento y almacenamiento en archivos.
Seminario web: Simplificando el uso de su base de datos con AtlasMongoDB
El documento proporciona información sobre MongoDB Atlas, un servicio de base de datos como servicio de MongoDB. MongoDB Atlas permite a los equipos de desarrollo centrarse en crear aplicaciones al proporcionar una forma fácil de implementar y gestionar una base de datos MongoDB en la nube de forma segura y escalable. El documento describe las características y ventajas de seguridad, disponibilidad y escalabilidad de MongoDB Atlas.
http://www.sqlserversi.com - Visión general de los proyectos de Business Intelligence, basados en Microsoft SQL Server 2000, DTS y Analysis Services 2000.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Este documento presenta una introducción a los conceptos de Big Data y análisis de datos. Define Big Data como la capacidad de extraer información de múltiples fuentes de datos dentro y fuera de una empresa para tomar mejores decisiones de negocios. Explica que la mayoría de los datos se generan fuera de las bases de datos estructuradas tradicionales y que es necesario integrar y analizar diferentes tipos y cantidades de datos. También introduce conceptos como Hadoop, datos en tiempo real, almacenes de datos modernos y la diferencia entre procesamiento paralelo mas
El documento presenta una introducción a Extreme Programming (XP), una metodología ágil para el desarrollo de software. Se explican los valores fundamentales de XP como simplicidad, feedback, coraje, comunicación y respeto. También se describen las fases del proceso XP, los roles involucrados y las principales prácticas en áreas como planificación, diseño, codificación y verificación.
¿Cómo implementar la analítica empresarial en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3oWOneG
Las técnicas de análisis en tiempo real prometen enriquecer los análisis tradicionales de datos en tiempo real. Esto es clave para muchos escenarios, como la gestión de la cadena de suministro o la atención al cliente. La virtualización de datos es bien conocida por ofrecer conectividad en tiempo real a diversas fuentes y capacidades de federación: los dos ingredientes básicos para la analítica en tiempo real. Sin embargo, construir una estrategia en torno a estos conceptos puede ser un reto. A menudo se menciona el impacto de las fuentes de datos delicadas, la seguridad y los problemas de rendimiento.
Asiste a este webinar para aprender más sobre:
- Cuáles son los escenarios en los que el valor de la analítica en tiempo real puede marcar la diferencia.
- Las capacidades básicas que las hacen posibles
- Las mejores prácticas clave para que tengan éxito
Técnicas avanzadas para resolver tus problemas de sql server - SolidQ Summit ...SolidQ
A través de ejemplos reales, podrás conocer técnicas avanzadas de resolución de problemas, descubre nuevas ideas y aproximaciones que te ayudarán a la efectividad a la hora de resolver futuros problemas.
Este documento presenta una introducción a la optimización de modelos multidimensionales en SSAS. Explica que la mejora del desempeño depende de cuatro aspectos: hardware, sistema operativo, servicios de Analysis Services y diseño. Describe brevemente mejoras en la configuración del sistema operativo, servicios de SSAS, hardware y diseño de cubos y dimensiones que pueden optimizar el desempeño. El orador ofrece su experiencia para ayudar con la optimización.
Este documento presenta una introducción al entorno de datos de Microsoft Cloud. Comienza introduciendo al orador, Jose Redondo, y su experiencia. Luego presenta una breve agenda que incluye definiciones de nube, Microsoft Azure y nube híbrida, así como demostraciones de Azure IaaS y PaaS. Finalmente, ofrece descripciones generales de conceptos clave como qué es la nube, Microsoft Azure, nube híbrida y los beneficios de usar la nube.
Este documento presenta las soluciones de virtualización y optimización de centros de datos de PlateSpin. PlateSpin PowerRecon permite el inventario y análisis de recursos y cargas de trabajo para planificar la consolidación de servidores. PlateSpin PowerConvert permite la migración de sistemas operativos, aplicaciones y datos entre servidores físicos y virtuales de forma automática e independiente de la marca. Juntos, estos productos permiten optimizar la utilización de recursos en el centro de datos mediante la consolidación y redistribución dinámica de
Conferencia MySQL, NoSQL & Cloud: Construyendo una infraestructura de big dat...Socialmetrix
Juan Martín Pampliega presenta sobre la construcción de una infraestructura de Big Data escalable y rentable. Explica que evolucionaron su arquitectura para manejar un volumen creciente de datos, reducir tiempos de procesamiento, y mitigar errores. Adoptaron conceptos como la arquitectura Lambda y sistemas distribuidos. Implementaron Kafka, Spark y Cassandra para lograr procesamiento distribuido, robusto y escalable. Aprendieron que es importante probar los sistemas y monitorearlos, y que herramientas no deben usarse
Optimizando con Open Source y Postgres en espanolEDB
Recientes avances en Postgres han propulsado la base de datos a entornos donde debe enfrentarse a los retos tecnológicos de hoy en día. En algunas de las compañías más grandes del mundo, PostgreSQL juega un papel esencial en el control del coste y en la reducción de la dependencia de los proveedores tradicionales.
Juan Zamora abordará los siguientes puntos:
* Qué cargas de trabajo son las más apropiadas para la introducción de Postgres en su entorno
* Las métricas que se deben tener en cuenta para evaluar el 'cuándo y cómo' de la expansión de las instalaciones de Postgres
* Avances claves en las últimas versiones de Postgres que soportan nuevos tipos de datos y permiten afrontar nuevos retos
Buenas prácticas de codificación para capas de acceso a datos de aplicaciones...SolidQ
Página oficial del SolidQ Summit: http://summit.solidq.com/madrid/2013/
En esta sesión, daremos un repaso a diferentes patrones de acceso a datos desde aplicaciones, viendo sus pros y sus contras, pensando en aprovechar las nuevas características que vienen con nuestros motores SQL. Hablaremos de patrones MERGE+TVP, de Entity Framework, de LINQ2SQL,… trataremos los siguientes aspectos: 1) Applicaciones Java con JDBC; 2) ENtityFramework (EAGER loading, lazy loading); 3) EF traducciones a TSQL; 4)JPA/Hibernate traducciones a TSQL
Ponentes: Enrique Catalá y Enrique Puig Nouselles
En esta presentación Guillermo Taylor, John Bulla y Julián Castiblanco, hablan sobre algunas de las mejores características de sQL Server 2016, como migrar a SQL Databas, características de sql database y en general varios tips para DBA's en arquitecturas híbridas
SolidQ Health Check es el servicio de SolidQ que realiza un análisis y diagnóstico preciso y detallado del estado de su servidor SQL Server; el servicio se ofrece para todas las versiones de SQL Server soportadas por Microsoft
Nuestro diagnóstico Health Check revela las causas de los problemas — no sólo los síntomas — ayudando a adoptar un enfoque proactivo en la solución de los problemas. Este tipo de enfoque ayuda a mejorar la productividad y descubrir los riesgos que su sistema pueda tener antes de que afecten a sus usuarios: • Mediciones automatizadas en su sistema: operaciones 100% probadas y garantizadas en la industria y libre de errores. • El equipo de SolidQ que adecua el servicio a sus necesidades y le ayudará a comprender las mediciones, conclusiones y acciones a realizar.
Mañana empiezo un nuevo proyecto: ¿qué metodología ágil me pongo?
El ecosistema ágil está formado por un conjunto de organismos “vivos” llamados “métodos y prácticas ágiles” (biocenosis) y el medio físico donde se relacionan, llamados Organizaciones (biotopo). Estas últimas están conformadas por personas y estas personas usan distintas clases de biocenosis, es decir, de métodos y prácticas ágiles, según sus necesidades.
Como todo ecosistema, el ágil tiene barreras que a veces impiden su normal evolución. Barreras físicas, como la falta de entornos adecuados dentro de las Organizaciones para albergar equipos que respiren “agilidad”. Barreras culturales y hasta emocionales, arraigos y miedos que se dan entre las personas, quienes experimentan temores muchas veces infundados debido a la falta de información o de acompañamiento efectivo por parte de expertos, de conocedores de ese ecosistema ágil en formación.
Pero, ¿cuáles son esos métodos y prácticas ágiles? ¿Para qué sirve cada uno de ellos? En esta sesión exploraremos, a manera de introducción, las metodologías más usadas, como Scrum, eXtreme Programming (XP), Kanban, Lean; y algunas de las técnicas necesarias en un primer esfuerzo por implementar la Cultura Ágil en una Organización: User Story Mapping, Product Vision Board, User Persona, User Stories, TDD, BDD, para mencionar solo algunas.
Y lo más importante, ¿para qué sirve cada uno de estos especímenes ágiles? ¿Alguno de ellos es adecuado para el proyecto que inicio mañana? ¿Varios de estos? ¿Son complementarios? ¿Qué problemas puedo encontrar si elijo mal? Y en el fondo, ¿cuáles son las razones por las que debo permitir el nacimiento y expansión de un nuevo ecosistema aun si el actual me está rindiendo beneficios? Y hablando de utilidades, ¿cuáles puedo obtener al implementar la “agilidad” en mi Organización?
Finalmente, sabemos que los ecosistemas están gobernados principalmente por eventos estocásticos (azar), por las reacciones que estos eventos ocasionan en sus componentes y por las respuestas de los organismos a las condiciones que los rodean. ¿Cómo controlar estos eventos y sobrevivir en el intento? Una mirada Darwiniana nos ayudará a entender cómo, mediante la inspección y la adaptación, nos iremos adecuando a los cambios que ocurren en todo proceso de evolución y entenderemos que la cultura ágil es el siguiente paso en la evolución de la inteligencia.
Gánale la partida a tu SQL Server, configuración ideal para que todo vaya bie...SolidQ
Este documento resume las recomendaciones para configurar el hardware y software de SQL Server de forma óptima. Se destacan factores como la memoria RAM, discos, configuración de servicios, cuentas de usuario, ubicación de archivos, configuración de TempDB, collation y planes de mantenimiento como reindexación e integridad de datos.
SQL Server 2014 y La Plataforma de DatosJoseph Lopez
Un análisis objetivo y amplio (Vista rápida) sobre las nuevas características en la versión 2014, aplicadas al desempeño y ejecución de escenarios empresariales de alto desempeño como lo es In-Memory for OLTP, Update Capable Column Store Index, Alta Disponibilidad y Misión Critica sobre altos volúmenes de transaccionalidad de datos.
Sql server 2014 y la plataforma de datosSpanishPASSVC
Un análisis objetivo y amplio (Vista rápida) sobre las nuevas características en la versión 2014, aplicadas al desempeño y ejecución de escenarios empresariales de alto desempeño como lo es In-Memory for OLTP, Update Capable Column Store Index, Alta Disponibilidad y Misión Critica sobre altos volúmenes de transaccionalidad de datos.
Este documento resume varios estudios de caso de grandes implementaciones de almacenes de datos con SQL Server. Incluye detalles sobre cómo Microsoft AdCenter maneja cubos de hasta 3,2 TB, cómo Xbox Live usa SSD para mejorar el rendimiento y particiona datos para procesamiento paralelo, y cómo Yahoo! maneja un cubo de 12 TB con particionamiento y almacenamiento en archivos.
Seminario web: Simplificando el uso de su base de datos con AtlasMongoDB
El documento proporciona información sobre MongoDB Atlas, un servicio de base de datos como servicio de MongoDB. MongoDB Atlas permite a los equipos de desarrollo centrarse en crear aplicaciones al proporcionar una forma fácil de implementar y gestionar una base de datos MongoDB en la nube de forma segura y escalable. El documento describe las características y ventajas de seguridad, disponibilidad y escalabilidad de MongoDB Atlas.
http://www.sqlserversi.com - Visión general de los proyectos de Business Intelligence, basados en Microsoft SQL Server 2000, DTS y Analysis Services 2000.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Este documento presenta una introducción a los conceptos de Big Data y análisis de datos. Define Big Data como la capacidad de extraer información de múltiples fuentes de datos dentro y fuera de una empresa para tomar mejores decisiones de negocios. Explica que la mayoría de los datos se generan fuera de las bases de datos estructuradas tradicionales y que es necesario integrar y analizar diferentes tipos y cantidades de datos. También introduce conceptos como Hadoop, datos en tiempo real, almacenes de datos modernos y la diferencia entre procesamiento paralelo mas
El documento presenta una introducción a Extreme Programming (XP), una metodología ágil para el desarrollo de software. Se explican los valores fundamentales de XP como simplicidad, feedback, coraje, comunicación y respeto. También se describen las fases del proceso XP, los roles involucrados y las principales prácticas en áreas como planificación, diseño, codificación y verificación.
¿Cómo implementar la analítica empresarial en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3oWOneG
Las técnicas de análisis en tiempo real prometen enriquecer los análisis tradicionales de datos en tiempo real. Esto es clave para muchos escenarios, como la gestión de la cadena de suministro o la atención al cliente. La virtualización de datos es bien conocida por ofrecer conectividad en tiempo real a diversas fuentes y capacidades de federación: los dos ingredientes básicos para la analítica en tiempo real. Sin embargo, construir una estrategia en torno a estos conceptos puede ser un reto. A menudo se menciona el impacto de las fuentes de datos delicadas, la seguridad y los problemas de rendimiento.
Asiste a este webinar para aprender más sobre:
- Cuáles son los escenarios en los que el valor de la analítica en tiempo real puede marcar la diferencia.
- Las capacidades básicas que las hacen posibles
- Las mejores prácticas clave para que tengan éxito
Técnicas avanzadas para resolver tus problemas de sql server - SolidQ Summit ...SolidQ
A través de ejemplos reales, podrás conocer técnicas avanzadas de resolución de problemas, descubre nuevas ideas y aproximaciones que te ayudarán a la efectividad a la hora de resolver futuros problemas.
Similar a [SPANISH ]Codealike en MUG Argentina (20)
Técnicas avanzadas para resolver tus problemas de sql server - SolidQ Summit ...
[SPANISH ]Codealike en MUG Argentina
1. Aplicando Big Data, noSQL y Machine Learning para ayudar a la
productividad de los desarrolladores de Software
2 de Julio de 2014
2.
3. Time to Market
reduction
Solutions to
complex specific
problems
Efficient work
allocation
Through fast lean processes, we find smart answers using highly specialized skills.
26. Robbes:07
El campo de evolución del software, usa la
historia del software como un activo para
entender el estado actual y para predecir
el desarrollo futuro.
27. Refactorización
Cantidad de Clases
o Métodos
De creación o
modificación de
artefactos
Cantidad de
cambios
Longitud temporal
De modificaciones
que cambian
artefactos una o
varias veces de
forma repetitiva
Robbes:07
28. Planificación basada en la evidencia
• Información histórica de tiempo, gente y esfuerzo
real de proyectos empleada para estimar costos y
velocidades de desarrollo
• Agregar trazabilidad a la cadena de producción
Spolsky:07
49. Cómo resolvemos el problema de Big Data
Visualización
de las métricas
Adquisición
de los datos
Consolidación
de los datos
Procesamiento
de los datos
50. ¿Cómo se adquieren los datos?
A través de Extensiones instaladas en el entorno del desarrollador.
Desafío: ¿Cómo logramos medir el milisegundo evitando generar una baja
de performance en el IDE?
• Aprovechando los eventos que el IDE nos notifica;
• Reduciendo al mínimo la carga ante cada evento: los datos se guardan
temporalmente para luego ser procesados y enviados en batch;
• Trabajando fuera del thread de UI: esto asegura que cualquier procesamiento se
haga en background y evita bloquear el control del IDE
• Reduciendo el procesamiento del lado del cliente: sólo se empaquetan los eventos
y estados en “crudo” para hacer más eficiente el envío.
51. ¿Cómo se consolidan los datos?
Desafío: ¿Cómo integrar datos en volumen en (soft) Real Time?
• Base de datos de tipo documental (noSQL): vs. Base de datos relacional.
• Consistencia eventual vs. ACID
• Escalabilidad horizontal vs. Escalabilidad vertical.
• Optimizando el input-output de la base de datos:
• Tenants/BDs separados de acuerdo al tamaño de los datos que almacenan
• Diferentes motores de Storage de acuerdo al tipo de datos y procesamiento
sobre los mismos
• Compresión al momento de almacenamiento
52. ¿Cómo se consolidan los datos?
Desafío: ¿Cómo integrar datos en volumen en (soft) Real Time?
• Reduciendo el impacto del indexado de los datos:
• Guardando la información derivada crítica de forma persistente.
• Para volúmenes manejables, acceder directamente la data “cruda” mediante el
uso de “keys derivables”
• Utilización de referencias.
53. ¿Cómo se consolidan los datos?
El volumen de datos de entrada
excede la capacidad de indexación
instantánea.
Persistente
No
Persistente
INFORMACIÓN
DERIVADA
54. Ejemplo: Información
de Ranking derivada a
partir de datos de
actividad.
“Si cambiamos la
función de cálculo de
Ranking, debemos
mantener los datos
persistidos sin volver a
recalcularlos. Sólo se
recalcula a futuro.”
¿Cómo se consolidan los datos?
Información derivada persistente
56. ¿Cómo se consolidan los datos?
Información derivada no persistente
Ejemplo: Información derivada que sumariza la actividad por tipo y
tecnología.
“Si cambiamos la forma en que se agregan, o
agregamos nuevos tipos de datos, debemos recalcular”
57. ¿Cómo se procesan los datos?
Desafío: ¿Cómo procesar datos en volumen en (soft) Real Time?
• Utilizando “Workers” de tipo Map-Reduce para generar información derivada:
Particionamiento Map Reduce
por lapso de
tiempo, por
artefacto, por tipo
de datos, etc.
cartesianos, lineales,
etc.
por tiempo, por tipo
de actividad, por
usuario, etc.
58. ¿Cómo se procesan los datos?
Ejemplo de agregación por tiempo
Meses
Semanas
Días
Horas
Minutos
Segundos
Agrupación
Visualización
59. ¿Cómo se procesan los datos?
Ejemplo de agregación por tiempo
Meses
Semanas
Días
Horas
Minutos
Segundos
Agrupación
Visualización
61. Ejemplo: Utilización de
tecnología a lo largo del
tiempo.
¿Cómo se procesan los datos?
Agregación por artefacto/tiempo
Meses
Semanas
Días
Horas
Minutos
Segundos
Tecnologías
File
Estado
62. Escalabilidad horizontal
• División de roles: Primary Storage Roles, Failover Roles, Computational Storage
Roles;
• Replicación master-master con afinidad en roles primarios: requiere definición de
estrategias de manejo de conflictos;
• Sharding: distribución física de ciertos tipos de datos
• Distribución de datos de procesamiento;
• Distribución para ofrecer distintos niveles de servicio (por ejemplo, usuarios
Premium vs. usuarios free).
¿Cómo se procesan los datos?
¿Cómo escalar el procesamiento?
63. Webrole
Webrole
Gateway
Esquema Master-
Master de Storage
Webrole
Failover
Node
Failover
Node
Primary
Node
Sharding en nodos de
procesamiento
Primary
Node
¿Cómo se procesan los datos?
¿Cómo escalar el procesamiento?
64. • Procesamiento cercano a los datos: el procesamiento debe hacerse evitando
el input/output a través de la red;
• Escalabilidad elástica: en cualquier momento se puede cambiar el tamaño de
una VM “on the fly” para soportar niveles altos de procesamiento
(mantenimiento de índices, corrupción de índices, replicación a una nueva
instancia, actualización de la versión del motor de BD)
¿Cómo se procesan los datos?
¿Cómo escalar el procesamiento?
70. Visualización
Minutos Días MesesHoras Semanas
On-Fire Meter Timeline
Productivity Pattern
Focus &
Interruptions Time by ActivityCode
Tree
Code
usage
Your Facts
Ranking – Compare - Teams
Dashboard
Interruptions