Escala de forma segura. Desde tu portátil hasta numerosos nodos o despliegues para diversos casos de uso y clústeres, nuestros expertos de Elastic te ayudarán a la hora de escalar Elasticsearch.
Búsqueda completa con Enterprise Search de ElasticElasticsearch
Descubre cómo reinventamos la búsqueda en el trabajo para acceder rápidamente a la información con una búsqueda unificada, conectores de datos instantáneos e interfaces de gestión de búsquedas sencillas.
Escala de forma segura. Desde tu portátil hasta numerosos nodos o despliegues para diversos casos de uso y clústeres, nuestros expertos de Elastic te ayudarán a la hora de escalar Elasticsearch.
CloudCamp - Big Data – La revolución de los datosJohn Bulla
Este documento habla sobre Big Data y Hadoop. Explica que Big Data se refiere a grandes conjuntos de datos que son difíciles de manejar con herramientas de bases de datos tradicionales debido a su volumen, velocidad, variedad y variabilidad. Luego describe a Hadoop, una plataforma de código abierto para almacenar y analizar grandes cantidades de datos distribuidos. Finalmente, explica cómo Microsoft ofrece HDInsight, una implementación de Hadoop que se ejecuta en Azure para permitir análisis de Big Data en la nube
Sql azure data warehouse gab jorge muchaypinaMUG Perú
Este documento describe Azure SQL Datawarehouse, un almacén de datos relacional como servicio administrado por Microsoft que permite escalar el almacenamiento e infraestructura desde pequeñas hasta grandes cantidades de datos. Usa un motor de procesamiento paralelo masivo para distribuir los datos y la computación a través de nodos de control y proceso. Los datos se almacenan en Azure Blob storage para carga sin costos de procesamiento.
El documento describe las nuevas características de SQL Server 2022, incluyendo la integración bidireccional con Azure SQL para replicación de datos, Azure Synapse Link para transferencia automática de cambios a Synapse Analytics, integración con Azure Purview para detección y clasificación de datos, mejoras en rendimiento a través de Query Store y optimización de planes, nuevas funciones de seguridad como ledger inmutable, y automatización de conflictos de réplicas en entornos de múltiples escrituras.
Azure Synapse Analytics es un servicio de análisis que combina big data, almacenamiento de datos e integración de datos en un solo servicio con escalabilidad en la nube. Ofrece análisis de datos end-to-end con tiempos de respuesta en segundos utilizando SQL, Python, R y otros lenguajes. Incluye características como ingesta de datos, almacenamiento de datos, análisis SQL, machine learning integrado y más.
Este documento proporciona una introducción a la plataforma EC2 de AWS, incluyendo una descripción general de la virtualización, consejos sobre cómo obtener el máximo rendimiento de diferentes tipos de instancias como T2, I2 y C4, y una perspectiva sobre el futuro de EC2.
Este documento presenta una introducción al despliegue de un centro de datos Atlassian. Explica cómo desplegar en la nube de AWS o localmente, los componentes utilizados como AWS, ELB, RDS y EFS, y las alternativas de proveedores. También describe las ventajas de un centro de datos como alta disponibilidad, escalabilidad, recuperación ante desastres y rendimiento, así como actualizaciones sin paradas de servicio. Finalmente, muestra estadísticas típicas de infraestructura de clientes de centro de datos
Búsqueda completa con Enterprise Search de ElasticElasticsearch
Descubre cómo reinventamos la búsqueda en el trabajo para acceder rápidamente a la información con una búsqueda unificada, conectores de datos instantáneos e interfaces de gestión de búsquedas sencillas.
Escala de forma segura. Desde tu portátil hasta numerosos nodos o despliegues para diversos casos de uso y clústeres, nuestros expertos de Elastic te ayudarán a la hora de escalar Elasticsearch.
CloudCamp - Big Data – La revolución de los datosJohn Bulla
Este documento habla sobre Big Data y Hadoop. Explica que Big Data se refiere a grandes conjuntos de datos que son difíciles de manejar con herramientas de bases de datos tradicionales debido a su volumen, velocidad, variedad y variabilidad. Luego describe a Hadoop, una plataforma de código abierto para almacenar y analizar grandes cantidades de datos distribuidos. Finalmente, explica cómo Microsoft ofrece HDInsight, una implementación de Hadoop que se ejecuta en Azure para permitir análisis de Big Data en la nube
Sql azure data warehouse gab jorge muchaypinaMUG Perú
Este documento describe Azure SQL Datawarehouse, un almacén de datos relacional como servicio administrado por Microsoft que permite escalar el almacenamiento e infraestructura desde pequeñas hasta grandes cantidades de datos. Usa un motor de procesamiento paralelo masivo para distribuir los datos y la computación a través de nodos de control y proceso. Los datos se almacenan en Azure Blob storage para carga sin costos de procesamiento.
El documento describe las nuevas características de SQL Server 2022, incluyendo la integración bidireccional con Azure SQL para replicación de datos, Azure Synapse Link para transferencia automática de cambios a Synapse Analytics, integración con Azure Purview para detección y clasificación de datos, mejoras en rendimiento a través de Query Store y optimización de planes, nuevas funciones de seguridad como ledger inmutable, y automatización de conflictos de réplicas en entornos de múltiples escrituras.
Azure Synapse Analytics es un servicio de análisis que combina big data, almacenamiento de datos e integración de datos en un solo servicio con escalabilidad en la nube. Ofrece análisis de datos end-to-end con tiempos de respuesta en segundos utilizando SQL, Python, R y otros lenguajes. Incluye características como ingesta de datos, almacenamiento de datos, análisis SQL, machine learning integrado y más.
Este documento proporciona una introducción a la plataforma EC2 de AWS, incluyendo una descripción general de la virtualización, consejos sobre cómo obtener el máximo rendimiento de diferentes tipos de instancias como T2, I2 y C4, y una perspectiva sobre el futuro de EC2.
Este documento presenta una introducción al despliegue de un centro de datos Atlassian. Explica cómo desplegar en la nube de AWS o localmente, los componentes utilizados como AWS, ELB, RDS y EFS, y las alternativas de proveedores. También describe las ventajas de un centro de datos como alta disponibilidad, escalabilidad, recuperación ante desastres y rendimiento, así como actualizaciones sin paradas de servicio. Finalmente, muestra estadísticas típicas de infraestructura de clientes de centro de datos
Amazon Web Services proporciona una amplia gama de servicios que le ayudarán a crear e implementar aplicaciones de análisis de big data de forma rápida y sencilla. AWS ofrece un acceso rápido a recursos de TI económicos y flexibles, algo que permitirá escalar prácticamente cualquier aplicación de big data con rapidez, incluidos almacenamiento de datos, análisis de clics, detección de elementos fraudulentos, motores de recomendación, proceso ETL impulsado por eventos, informática sin servidor y procesamiento del Internet de las cosas.
Este documento presenta varias opciones de análisis de Big Data en AWS, como Amazon Redshift, Amazon Kinesis, Amazon EMR, Amazon DynamoDB y Amazon Machine Learning. Explica sus usos recomendados y no recomendados, así como ejemplos de escenarios como almacenes de datos empresariales, captura y análisis de datos de sensores y análisis de opinión en redes sociales. El enfoque de AWS para soluciones de Big Data se basa en la flexibilidad, escalabilidad y costos bajos gracias a los servicios
ARQCONF2015: Creando una Arquitectura Moderna para Big Data AnalyticsGustavo Arjones
Hay cientos de opciones de frameworks e sistemas de Big Data, cuando se empieza a estudiar como armar la solución completa, rápidamente nos encontramos con la necesidad de tomar muchas decisiones que van afectar el proyecto a largo plazo, preguntas como: dónde y cómo almacenar, cómo procesar en batch y realtime; Map-Reduce, DAG, Hadoop, Spark, Storm, Hive, NoSQL, son algunos de los términos que hay que conocer cuando se arma una arquitectura de Big Data. Esta charla irá presentar brevemente estas tecnologías y opiniones para utilizar en su próxima plataforma de análisis de datos. http://arjon.es/2015/05/10/material-de-la-charla-creando-una-arquitectura-para-big-data-analytics-en-arqconf-2015/
Este documento presenta Azure SQL Data Warehouse, un servicio de almacenamiento de datos relacionales completamente administrado en la nube. Explica que ofrece escalabilidad elástica, permitiendo aumentar o disminuir los recursos de computación y almacenamiento según sea necesario. También destaca que está integrado con otros servicios de Azure como Power BI, Azure Data Factory y Azure Machine Learning.
Presentación de Kibana Lens: Una forma fácil e intuitiva de visualizar los datosImma Valls Bernaus
Te presentamos a Kibana Lens, una nueva forma fácil e intuitiva para que todos visualicen sus datos dentro de Kibana. Con una nueva interfaz de arrastrar y soltar, características de exploración de datos con un clic y el poder de proporcionar sugerencias de visualización, Lens es la forma mas rápida de descubrir información de tus datos de Elasticsearch.
Incluye una demo para descubrir cómo Lens puede ayudar tanto a los usuarios de Kibana nuevos como a los experimentados. Revisaremos cómo optimizar las actividades de análisis existentes y demostraremos lo fácil que es visualizar los datos.
La Unión Europea ha acordado un paquete de sanciones contra Rusia por su invasión de Ucrania. Las sanciones incluyen restricciones a las transacciones con bancos rusos clave y la prohibición de la venta de aviones y equipos a Rusia. Los líderes de la UE esperan que las sanciones aumenten la presión económica sobre Rusia y la disuadan de continuar su agresión contra Ucrania.
Este documento presenta los conceptos clave de la computación en la nube de AWS. Explica las ventajas de AWS para las empresas como la reducción de costos, la flexibilidad y la agilidad. También describe los principales componentes de AWS como almacenamiento, servidores y redes. Finalmente, analiza por qué muchas empresas eligen migrar a AWS.
Seminario web: Simplificando el uso de su base de datos con AtlasMongoDB
El documento proporciona información sobre MongoDB Atlas, un servicio de base de datos como servicio de MongoDB. MongoDB Atlas permite a los equipos de desarrollo centrarse en crear aplicaciones al proporcionar una forma fácil de implementar y gestionar una base de datos MongoDB en la nube de forma segura y escalable. El documento describe las características y ventajas de seguridad, disponibilidad y escalabilidad de MongoDB Atlas.
Capas de acceso a datos .net escalables de verdad contra SQL ServerEnrique Catala Bañuls
En esta sesión aprenderemos a detectar e implementar correctamente capas de acceso a datos .NET que escalen a las capacidades HW de la máquina
¿Qué aprende nuestro público? Sacar provecho de todas las posibilidades de rendimiento que se ofrecen combinando SQL Server y .NET
Tecnología vista en esta ponencia T-SQL, C#, multihilo,…
En esta sesión analizaremos el caso de un proyecto que se realizó para una institución financiera para manejar el almacenamiento y búsqueda de grandes cantidades de datos. La implementación utiliza un cluster de 24 nodos distribuidos para manejar y buscar miles de millones de documentos que representan cientos de terabytes. Entre las tecnologías que se utilizaron están StorageGrid y ElasticSearch.
En esta plática compartiremos algunos de los principales retos técnicos del proyecto, y cómo se resolvieron.
AWS ofrece una gran variedad de servicios de base de datos que se adaptan a los requisitos de su aplicación. Los servicios de bases de datos están totalmente administrados y se pueden implementar en cuestión de minutos con tan solo unos clics.
https://aws.amazon.com/es/products/databases/
Este documento trata sobre Big Data y las tecnologías para manejar grandes cantidades de datos. Explica que un vuelo entre Londres y Nueva York genera 640 terabytes de datos, y compara esto con la capacidad de almacenamiento de memorias USB. Luego describe herramientas como Hadoop, Spark, Jupiter y GraphX que permiten procesar y analizar grandes volúmenes de datos de manera paralela y en la memoria de manera más rápida que MapReduce. Finalmente, incluye los contactos de quien lo presenta.
Vamos a realizar el análisis de rendimiento de un servidor desde varios puntos de vista. Empezaremos a analizar contadores de rendimiento manualmente, pasaremos por PowerBI, DataMining y acabaremos automatizando el proceso con R totalmente.
¿Por que cambiar de Apache Hadoop a Apache Spark?Socialmetrix
Este documento compara Hadoop y Spark, argumentando que Spark es una mejor opción debido a su capacidad de procesamiento de datos in-memory, su interfaz más expresiva y su naturaleza de plataforma unificada que permite procesamiento por lotes y en tiempo real con un solo código. El documento también discute algunos desafíos de Spark como trabajos largos y problemas de serialización.
El documento describe las mejores prácticas y arquitecturas de Big Data en AWS. Explica que AWS ofrece una amplia gama de herramientas para recolectar, almacenar, procesar y analizar grandes volúmenes y variedades de datos. También presenta principios básicos de arquitectura como el desacoplamiento de datos, el uso de la herramienta adecuada para cada fase y el enfoque en servicios serverless y gerenciados. Finalmente, revisa las diferentes opciones para cada fase del proceso de Big Data.
Ejecutar proyectos de Big Data nunca ha sido más sencillo. Con AWS, puede ejecutar Hadoop, Spark, Hive, Flink y marcos similares de forma más rápida y rentable. En este seminario web, aprenderá cómo mejorar el rendimiento del procesamiento de datos y reducir los costos, especialmente en comparación con un entorno local.
Trabajo de herramientas para la ciencia de datos evaluado por paresFrancoGotuzzo
Este documento resume las recomendaciones para realizar un análisis de datos predictivo de la Librería Iztaccihuatl. Se recomienda utilizar Python para el análisis, y realizar predicciones sobre las categorías, autores y casas editoriales más vendidas. También se sugiere segmentar y almacenar los datos en archivos separados según categoría, autor, fecha y precio. Finalmente, se propone utilizar un servicio gratuito de almacenamiento en la nube como Heroku para alojar la base de datos y el proyecto de ciencia de
Introducción a Microsoft Azure SQL Data WarehouseJoseph Lopez
El nuevo Microsoft Azure SQL Data Warehouse (SQL DW) es un versátil servicio de almacén de datos que provee una solución Massively Parallel Processing (MPP) para "Big data" con verdaderas características de alta infraestructura empresarial. El servicio SQL DW está construido para la carga de datos en ejecución de unos cien gigabytes hasta petabytes de datos con características únicas como cálculo desagregado, permitiendo así que los clientes sean capaces de utilizar el servicio para satisfacer sus necesidades de almacenamiento. En la presente exposición les mostrare una mirada en profundidad de este nuevo servicio de Azure como la implementación, el escalamiento elástico (Grow, Shrink, y Pause), y las nubes de datos híbrida con integración de Hadoop a través Polybase permitiendo una verdadera experiencia de SQL a través de datos estructurados y no estructurados.
Gánale la partida a tu SQL Server, configuración ideal para que todo vaya bie...SolidQ
Este documento resume las recomendaciones para configurar el hardware y software de SQL Server de forma óptima. Se destacan factores como la memoria RAM, discos, configuración de servicios, cuentas de usuario, ubicación de archivos, configuración de TempDB, collation y planes de mantenimiento como reindexación e integridad de datos.
Amazon Web Services proporciona una amplia gama de servicios que le ayudarán a crear e implementar aplicaciones de análisis de big data de forma rápida y sencilla. AWS ofrece un acceso rápido a recursos de TI económicos y flexibles, algo que permitirá escalar prácticamente cualquier aplicación de big data con rapidez, incluidos almacenamiento de datos, análisis de clics, detección de elementos fraudulentos, motores de recomendación, proceso ETL impulsado por eventos, informática sin servidor y procesamiento del Internet de las cosas.
Este documento presenta varias opciones de análisis de Big Data en AWS, como Amazon Redshift, Amazon Kinesis, Amazon EMR, Amazon DynamoDB y Amazon Machine Learning. Explica sus usos recomendados y no recomendados, así como ejemplos de escenarios como almacenes de datos empresariales, captura y análisis de datos de sensores y análisis de opinión en redes sociales. El enfoque de AWS para soluciones de Big Data se basa en la flexibilidad, escalabilidad y costos bajos gracias a los servicios
ARQCONF2015: Creando una Arquitectura Moderna para Big Data AnalyticsGustavo Arjones
Hay cientos de opciones de frameworks e sistemas de Big Data, cuando se empieza a estudiar como armar la solución completa, rápidamente nos encontramos con la necesidad de tomar muchas decisiones que van afectar el proyecto a largo plazo, preguntas como: dónde y cómo almacenar, cómo procesar en batch y realtime; Map-Reduce, DAG, Hadoop, Spark, Storm, Hive, NoSQL, son algunos de los términos que hay que conocer cuando se arma una arquitectura de Big Data. Esta charla irá presentar brevemente estas tecnologías y opiniones para utilizar en su próxima plataforma de análisis de datos. http://arjon.es/2015/05/10/material-de-la-charla-creando-una-arquitectura-para-big-data-analytics-en-arqconf-2015/
Este documento presenta Azure SQL Data Warehouse, un servicio de almacenamiento de datos relacionales completamente administrado en la nube. Explica que ofrece escalabilidad elástica, permitiendo aumentar o disminuir los recursos de computación y almacenamiento según sea necesario. También destaca que está integrado con otros servicios de Azure como Power BI, Azure Data Factory y Azure Machine Learning.
Presentación de Kibana Lens: Una forma fácil e intuitiva de visualizar los datosImma Valls Bernaus
Te presentamos a Kibana Lens, una nueva forma fácil e intuitiva para que todos visualicen sus datos dentro de Kibana. Con una nueva interfaz de arrastrar y soltar, características de exploración de datos con un clic y el poder de proporcionar sugerencias de visualización, Lens es la forma mas rápida de descubrir información de tus datos de Elasticsearch.
Incluye una demo para descubrir cómo Lens puede ayudar tanto a los usuarios de Kibana nuevos como a los experimentados. Revisaremos cómo optimizar las actividades de análisis existentes y demostraremos lo fácil que es visualizar los datos.
La Unión Europea ha acordado un paquete de sanciones contra Rusia por su invasión de Ucrania. Las sanciones incluyen restricciones a las transacciones con bancos rusos clave y la prohibición de la venta de aviones y equipos a Rusia. Los líderes de la UE esperan que las sanciones aumenten la presión económica sobre Rusia y la disuadan de continuar su agresión contra Ucrania.
Este documento presenta los conceptos clave de la computación en la nube de AWS. Explica las ventajas de AWS para las empresas como la reducción de costos, la flexibilidad y la agilidad. También describe los principales componentes de AWS como almacenamiento, servidores y redes. Finalmente, analiza por qué muchas empresas eligen migrar a AWS.
Seminario web: Simplificando el uso de su base de datos con AtlasMongoDB
El documento proporciona información sobre MongoDB Atlas, un servicio de base de datos como servicio de MongoDB. MongoDB Atlas permite a los equipos de desarrollo centrarse en crear aplicaciones al proporcionar una forma fácil de implementar y gestionar una base de datos MongoDB en la nube de forma segura y escalable. El documento describe las características y ventajas de seguridad, disponibilidad y escalabilidad de MongoDB Atlas.
Capas de acceso a datos .net escalables de verdad contra SQL ServerEnrique Catala Bañuls
En esta sesión aprenderemos a detectar e implementar correctamente capas de acceso a datos .NET que escalen a las capacidades HW de la máquina
¿Qué aprende nuestro público? Sacar provecho de todas las posibilidades de rendimiento que se ofrecen combinando SQL Server y .NET
Tecnología vista en esta ponencia T-SQL, C#, multihilo,…
En esta sesión analizaremos el caso de un proyecto que se realizó para una institución financiera para manejar el almacenamiento y búsqueda de grandes cantidades de datos. La implementación utiliza un cluster de 24 nodos distribuidos para manejar y buscar miles de millones de documentos que representan cientos de terabytes. Entre las tecnologías que se utilizaron están StorageGrid y ElasticSearch.
En esta plática compartiremos algunos de los principales retos técnicos del proyecto, y cómo se resolvieron.
AWS ofrece una gran variedad de servicios de base de datos que se adaptan a los requisitos de su aplicación. Los servicios de bases de datos están totalmente administrados y se pueden implementar en cuestión de minutos con tan solo unos clics.
https://aws.amazon.com/es/products/databases/
Este documento trata sobre Big Data y las tecnologías para manejar grandes cantidades de datos. Explica que un vuelo entre Londres y Nueva York genera 640 terabytes de datos, y compara esto con la capacidad de almacenamiento de memorias USB. Luego describe herramientas como Hadoop, Spark, Jupiter y GraphX que permiten procesar y analizar grandes volúmenes de datos de manera paralela y en la memoria de manera más rápida que MapReduce. Finalmente, incluye los contactos de quien lo presenta.
Vamos a realizar el análisis de rendimiento de un servidor desde varios puntos de vista. Empezaremos a analizar contadores de rendimiento manualmente, pasaremos por PowerBI, DataMining y acabaremos automatizando el proceso con R totalmente.
¿Por que cambiar de Apache Hadoop a Apache Spark?Socialmetrix
Este documento compara Hadoop y Spark, argumentando que Spark es una mejor opción debido a su capacidad de procesamiento de datos in-memory, su interfaz más expresiva y su naturaleza de plataforma unificada que permite procesamiento por lotes y en tiempo real con un solo código. El documento también discute algunos desafíos de Spark como trabajos largos y problemas de serialización.
El documento describe las mejores prácticas y arquitecturas de Big Data en AWS. Explica que AWS ofrece una amplia gama de herramientas para recolectar, almacenar, procesar y analizar grandes volúmenes y variedades de datos. También presenta principios básicos de arquitectura como el desacoplamiento de datos, el uso de la herramienta adecuada para cada fase y el enfoque en servicios serverless y gerenciados. Finalmente, revisa las diferentes opciones para cada fase del proceso de Big Data.
Ejecutar proyectos de Big Data nunca ha sido más sencillo. Con AWS, puede ejecutar Hadoop, Spark, Hive, Flink y marcos similares de forma más rápida y rentable. En este seminario web, aprenderá cómo mejorar el rendimiento del procesamiento de datos y reducir los costos, especialmente en comparación con un entorno local.
Trabajo de herramientas para la ciencia de datos evaluado por paresFrancoGotuzzo
Este documento resume las recomendaciones para realizar un análisis de datos predictivo de la Librería Iztaccihuatl. Se recomienda utilizar Python para el análisis, y realizar predicciones sobre las categorías, autores y casas editoriales más vendidas. También se sugiere segmentar y almacenar los datos en archivos separados según categoría, autor, fecha y precio. Finalmente, se propone utilizar un servicio gratuito de almacenamiento en la nube como Heroku para alojar la base de datos y el proyecto de ciencia de
Introducción a Microsoft Azure SQL Data WarehouseJoseph Lopez
El nuevo Microsoft Azure SQL Data Warehouse (SQL DW) es un versátil servicio de almacén de datos que provee una solución Massively Parallel Processing (MPP) para "Big data" con verdaderas características de alta infraestructura empresarial. El servicio SQL DW está construido para la carga de datos en ejecución de unos cien gigabytes hasta petabytes de datos con características únicas como cálculo desagregado, permitiendo así que los clientes sean capaces de utilizar el servicio para satisfacer sus necesidades de almacenamiento. En la presente exposición les mostrare una mirada en profundidad de este nuevo servicio de Azure como la implementación, el escalamiento elástico (Grow, Shrink, y Pause), y las nubes de datos híbrida con integración de Hadoop a través Polybase permitiendo una verdadera experiencia de SQL a través de datos estructurados y no estructurados.
Gánale la partida a tu SQL Server, configuración ideal para que todo vaya bie...SolidQ
Este documento resume las recomendaciones para configurar el hardware y software de SQL Server de forma óptima. Se destacan factores como la memoria RAM, discos, configuración de servicios, cuentas de usuario, ubicación de archivos, configuración de TempDB, collation y planes de mantenimiento como reindexación e integridad de datos.
UYOUG OTN Tour 2011 - RAC sin sorpresasNelson Calero
Presentación dada durante el OTN Tour 2011 en Montevideo.
Resumen:
Introducción a la versión clusterizada de la base de datos Oracle. Se presentan conceptos y consideraciones para su adpoción.
Este documento resume varios estudios de caso de grandes implementaciones de almacenes de datos con SQL Server. Incluye detalles sobre cómo Microsoft AdCenter maneja cubos de hasta 3,2 TB, cómo Xbox Live usa SSD para mejorar el rendimiento y particiona datos para procesamiento paralelo, y cómo Yahoo! maneja un cubo de 12 TB con particionamiento y almacenamiento en archivos.
Este documento presenta arquitecturas y mejores prácticas para Big Data en AWS. Describe los desafíos de Big Data como volumen, velocidad y variedad de datos, y presenta una variedad de herramientas AWS para la recolección, almacenamiento, procesamiento y análisis de datos a gran escala. También discute principios básicos de arquitectura como el desacoplamiento de capas y el uso de la herramienta adecuada para cada fase.
Conociendo los cambios de SQL Server a partir de 2012 a 2016Joseph Lopez
En la presente charla, les estare mostrando los cambios y mejoras mas relevantes que se generaron en el servidor de base de datos SQL Server de Microsoft a partir de la version 2012 hasta llegar a la version 2016 con faciles demostraciones para entender dichos cambios.
Este documento presenta arquitecturas y mejores prácticas para Big Data en AWS. Explica los desafíos de Big Data y propone una arquitectura de referencia que incluye el desacoplamiento de datos, el uso de herramientas adecuadas para cada fase y un enfoque en servicios serverless y gerenciados. También describe varias herramientas de AWS para la recolección, almacenamiento, procesamiento y análisis de datos a gran escala.
El documento presenta una agenda para una capacitación sobre Big Data y Data Lakes. Incluye temas como la arquitectura de Data Lake, la creación de metadatos y análisis de información, y la transformación y procesamiento de datos. También incluye casos de uso de compañías como FINRA, Netflix y Yelp que utilizan servicios de AWS como S3, Redshift, EMR y Athena para almacenar y analizar grandes volúmenes de datos de manera rentable.
itcr estratégias de indexación y buenos diseños físicos para mejoras del des...Kenneth Urena
Este documento discute estrategias para mejorar el desempeño de las bases de datos, incluyendo diseños físicos óptimos, uso de índices, patrones de acceso a datos y buenas prácticas de codificación. Explica cómo los diferentes tipos de RAID afectan el rendimiento y describe escenarios comunes con propuestas de diseño físico. También cubre tipos de índices como clúster, no clúster y de columna, así como patrones de acceso como buscar, escaneo y búsqueda por marcador.
Este documento presenta información sobre Julio César Ayapán y su compañía Nuvola S.A., expertos en soluciones Oracle. Detalla las certificaciones y experiencia del equipo de Nuvola, así como los servicios de soporte y consultoría que ofrecen relacionados a bases de datos Oracle, Exadata, middleware y cursos de administración de Oracle. Luego resume las características principales de Oracle Clusterware 12c, incluyendo requisitos de instalación, Grid Naming Services, arquitectura Flex Cluster, administración de nodos y alta disponibil
Este documento presenta una sesión sobre los servicios de bases de datos de AWS. Explica que ofrece una variedad de servicios de bases de datos relacionales, NoSQL y de Big Data, cada uno optimizado para diferentes casos de uso. También describe los servicios principales como Amazon RDS, DynamoDB y Redshift, y cómo clientes importantes los usan para solucionar sus desafíos de datos y análisis.
Este documento presenta una introducción a Elasticsearch, incluyendo sus casos de uso típicos, la familia de productos de Elastic y conceptos clave como shards, réplicas y nodos. Explica que Elasticsearch es un buscador escalable creado para competir con Apache Solr, y que funciona sobre Lucene. También proporciona consejos de configuración como ajustar el número de shards al tamaño del dataset y mantener al menos 3 nodos maestros para evitar fallos.
Consideraciones de hardware para SQL ServerEduardo Castro
Esta presentación resume una serie de consideraciones que deben ser tomadas en cuenta cuando se elige el hardware para SQL Server, así como consideraciones de desempeño en Azure Database y SQL Server en Azure Virtual Machines.
Saludos,
Ing. Eduardo Castro
Microsoft SQL Server MVP
Comunidad Windows
Costa Rica
Presentación realizada el 8/11/2019 en la tercera edición de las RETATalks que organiza regularmente el departamento técnico del grupo RETABet. Se trata de una introducción a los conceptos clave para diseñar sistemas software de alta escalabilidad para desarrolladores sin experiencia en sistemas distribuidos.
Analizando la performance del subsistema de IOSpanishPASSVC
Analizaremos el subsistema de I/O para detectar los posibles cuellos de botella. Para llevar a cabo esto utilizaremos distintas técnicas y herramientas
Microsoft Data & AI Experience LATAM 2018 - Azure Cosmos DBMatias Quaranta
Este documento presenta Azure Cosmos DB, un servicio de base de datos distribuido globalmente y dinámicamente escalable que admite múltiples modelos de datos. Azure Cosmos DB ofrece escalabilidad elástica, latencia ultrabaja, disponibilidad del 99.99% y cinco niveles de consistencia personalizable. Además, proporciona indexación automática y agnóstica del esquema, migración sencilla desde otros orígenes de datos y compatibilidad con aplicaciones multi-modelo, analíticas y serverless.
Este documento presenta varios servicios de bases de datos administradas de AWS, incluyendo Amazon DynamoDB, Amazon RDS, Amazon ElastiCache y Amazon Redshift. Explica las ventajas de usar bases de datos administradas en AWS en lugar de administrar bases de datos localmente, como la eliminación de la necesidad de administrar hardware, software y actualizaciones. También proporciona ejemplos de casos de uso comunes para cada servicio de base de datos.
El documento describe la plataforma de datos Keedio Data Stack (KDS), que incluye múltiples módulos para la ingesta, almacenamiento, procesamiento y análisis de datos. Los módulos se basan en herramientas de código abierto como Apache Flume, HDFS, Kafka, Spark y Elasticsearch. La plataforma ofrece capacidades de ingesta de datos, procesamiento por lotes y en tiempo real, almacenamiento a largo plazo, orquestación de flujos de trabajo y análisis avanzado. La interfaz Keedio Manager
An introduction to Elasticsearch's advanced relevance ranking toolboxElasticsearch
The hallmark of a great search experience is always delivering the most relevant results, quickly, to every user. The difficulty lies behind the scenes in making that happen elegantly and at a scale. From App Search’s intuitive drag and drop interface to the advanced relevance capabilities built into the core of Elasticsearch — Elastic offers a range of tools for developers to tune relevance ranking and create incredible search experiences. In this session, we’ll explore some of Elasticsearch’s advanced relevance ranking features, such as dense vector fields, BM25F, ranking evaluation, and more. Plus we’ll give you some ideas for how these features are being used by other Elastic users to create world-class, category defining search experiences.
Eze Castle Integration is a managed service provider (MSP), cloud service provider (CSP), and internet service provider (ISP) that delivers services to more than 1,000 clients around the world. Different departments within Eze Castle have devised their own log aggregation solutions in order to provide visibility, meet regulatory compliance requirements, conduct cybersecurity investigations, and help engineers with troubleshooting infrastructure issues. In 2019, they partnered with Elastic to consolidate the data generated from different systems into a single pane of glass. And thanks to the ease of deployment on Elastic Cloud, professional consultation services from Elastic engineers, and on-demand training courses available on Elastic Learning, Eze Castle was able to go from proof-of-concept to a fully functioning ""Eze Managed SIEM"" product within a month!
Learn about Eze Castle's journey with Elastic and how they grew Eze Managed SIEM from zero to 100 customers In less than 14 months.
Cómo crear excelentes experiencias de búsqueda en sitios webElasticsearch
Descubre lo fácil que es crear búsquedas relevantes y enriquecidas en sitios web de cara al público para impulsar las conversiones, incrementar el consumo de contenido y ayudar a los visitantes a encontrar lo que necesitan. Realiza un recorrido por las herramientas de Elastic a las que puedes sacar partido para transformar con facilidad tu sitio web, lo que incluye nuestro nuevo y potente rastreador web.
Te damos la bienvenida a una nueva forma de realizar búsquedas Elasticsearch
1) The document introduces ElasticON Solution Series, which provides out-of-the-box personalized, centralized, and secure organizational search across internal and external sources.
2) It discusses how Elastic Enterprise Search can improve productivity, satisfaction, collaboration, and decision making by connecting all applications and content with a single scalable search platform.
3) The solution achieves this through intuitive search features, powerful analytics and visualization tools, simplified administration, and security certifications to ensure data protection.
Tirez pleinement parti d'Elastic grâce à Elastic CloudElasticsearch
Découvrez pourquoi Elastic Cloud est la solution idéale pour exploiter toutes les offres d'Elastic. Bénéficiez d'une flexibilité d'achat et de déploiement au sein de Google Cloud, de Microsoft Azure, d'Amazon Web Services ou des trois à la fois. Apprenez quels avantages vous apporte une offre de service géré et déterminez la solution qui vous permet de la gérer par vous-même grâce à des outils intégrés d'automatisation et d'orchestration. Et ce n'est pas tout ! Familiarisez-vous avec les fonctionnalités qui peuvent vous aider à scaler vos opérations au fur et à mesure de l'évolution de votre déploiement, à stocker vos données d'une manière rentable et à optimiser vos recherches. Ainsi, vous n'aurez plus à abandonner de données et obtiendrez les informations exploitables dont vous avez besoin pour assurer le fonctionnement de votre entreprise.
Comment transformer vos données en informations exploitablesElasticsearch
Découvrez des fonctionnalités stratégiques de la Suite Elastic, notamment Elasticsearch, un moteur de données incomparable, et Kibana, véritable fenêtre ouverte sur la Suite Elastic.
Dans cette session, vous apprendrez à :
injecter des données dans la Suite Elastic ;
stocker des données ;
analyser des données ;
exploiter des données.
Plongez au cœur de la recherche dans tous ses états.Elasticsearch
À l'instar de la plupart des entreprises modernes, vos équipes utilisent probablement plus de 10 applications hébergées dans le cloud chaque jour, mais passent aussi bien trop de temps à chercher les informations dont elles ont besoin dans ces outils. Grâce aux fonctionnalités prêtes à l'emploi d'Elastic Workplace Search, découvrez combien il est facile de mettre le contenu pertinent à portée de la main de vos équipes grâce à une recherche unifiée sur l'ensemble des applications qu'elles utilisent pour faire leur travail.
Modernising One Legal Se@rch with Elastic Enterprise Search [Customer Story]Elasticsearch
Knowledge management needs in the legal sector, why Linklaters decided to move away from its legacy KM search engine, Kin+Carta's management of the migration process, and how the switch revitalised a well-established system and opened up new possibilities for its future development.
An introduction to Elasticsearch's advanced relevance ranking toolboxElasticsearch
The hallmark of a great search experience is always delivering the most relevant results, quickly, to every user. The difficulty lies behind the scenes in making that happen elegantly and at a scale. From App Search’s intuitive drag and drop interface to the advanced relevance capabilities built into the core of Elasticsearch — Elastic offers a range of tools for developers to tune relevance ranking and create incredible search experiences. In this session, we’ll explore some of Elasticsearch’s advanced relevance ranking features, such as dense vector fields, BM25F, ranking evaluation, and more. Plus we’ll give you some ideas for how these features are being used by other Elastic users to create world-class, category defining search experiences.
Like most modern organizations, your teams are likely using upwards of 10 cloud-based applications on a daily basis, but spending far too many hours a day searching for the information they need across all of them. With the out-of-the-box capabilities of Elastic Workplace Search, see how easy it is to put relevant content right at your teams’ fingertips with unified search across all the apps they rely on to get work done.
Building great website search experiencesElasticsearch
Discover how easy it is to create rich, relevant search on public facing websites that drives conversion, increases content consumption, and helps visitors find what they need. Get a tour of the Elastic tools you can leverage to easily transform your website, including our powerful new web crawler.
Keynote: Harnessing the power of Elasticsearch for simplified searchElasticsearch
Get an overview of the innovation Elastic is bringing to the Enterprise Search landscape, and learn how you can harness these capabilities across your technology landscape to make the power of search work for you.
Cómo transformar los datos en análisis con los que tomar decisionesElasticsearch
Descubre las áreas de características estratégicas de Elastic Stack: Elasticsearch, un motor de datos inigualable y Kibana, la ventana que da acceso a Elastic Stack.
En la sesión hablaremos sobre:
Cómo incorporar datos a Elastic Stack
Almacenamiento de datos
Análisis de los datos
Actuar en función de los datos
Explore relève les défis Big Data avec Elastic Cloud Elasticsearch
Spécialisée dans le développement et la gestion de solutions de veille documentaire et commerciale, Explore offre à ses clients une lecture précise et organisée de l’actualités des marchés et projets sur leurs territoires d'intervention. Afin de rendre leur offre plus agile et performante, Explore a choisi l’offre Elastic Cloud hébergée sur Microsoft Azure. Découvrez comment les équipes de production et de développement sont désormais en mesure de mieux exploiter les données pour les clients d’Explore et gagnent du temps sur la gestion de leur infrastructure.
Comment transformer vos données en informations exploitablesElasticsearch
Découvrez des fonctionnalités stratégiques de la Suite Elastic, notamment Elasticsearch, un moteur de données incomparable, et Kibana, véritable fenêtre ouverte sur la Suite Elastic.
Dans cette session, vous apprendrez à :
injecter des données dans la Suite Elastic ;
stocker des données ;
analyser des données ;
exploiter des données.
Transforming data into actionable insightsElasticsearch
Learn about the strategic feature areas of the Elastic Stack—Elasticsearch, a data engine like no other, and Kibana, the window into the Elastic Stack.
The session will cover:
Bringing data into the Elastic Stack
Storing data
Analyzing data
Acting on data
"Elastic enables the world’s leading organization to exceed their business objectives and power their mission-critical systems by eliminating data silos, connecting the dots, and transforming data of all types into actionable insights.
Come learn how the power of search can help you quickly surface relevant insights at scale. Whether you are an executive looking to reduce operational costs, a department head striving to do more with fewer tools, or engineer monitoring and protecting your IT environment, this session is for you. "
Empowering agencies using Elastic as a Service inside GovernmentElasticsearch
It has now been four years since the beta release of Elastic Cloud Enterprise which kicked off a wave of the Elastic public sector community running Elastic as a service within Government rather than utilizing purely hosted solutions. Fast forward to 2021 and we have multiple options for multiple mission needs. Learn top tips from Elastic architects and their experience enabling their teams with the automation and provisioning of Elastic tech to change the game in how government delivers solutions.
The opportunities and challenges of data for public goodElasticsearch
The document discusses data for public good and the opportunities and challenges involved. It notes that data infrastructure is needed to deliver public good through data. There are almost endless opportunities to use data for public services, policy, and citizen benefits. However, challenges include legacy systems, data silos, unclear governance, and risk aversion. As a case study, it outlines how the UK Census 2021 addressed index faced challenges but showed progress on using data better, with lessons for continued public sector transformation.
Catalogo general tarifas 2024 Vaillant. Amado Salvador Distribuidor Oficial e...AMADO SALVADOR
Descarga el Catálogo General de Tarifas 2024 de Vaillant, líder en tecnología para calefacción, ventilación y energía solar térmica y fotovoltaica. En Amado Salvador, como distribuidor oficial de Vaillant, te ofrecemos una amplia gama de productos de alta calidad y diseño innovador para tus proyectos de climatización y energía.
Descubre nuestra selección de productos Vaillant, incluyendo bombas de calor altamente eficientes, fancoils de última generación, sistemas de ventilación de alto rendimiento y soluciones de energía solar fotovoltaica y térmica para un rendimiento óptimo y sostenible. El catálogo de Vaillant 2024 presenta una variedad de opciones en calderas de condensación que garantizan eficiencia energética y durabilidad.
Con Vaillant, obtienes más que productos de climatización: control avanzado y conectividad para una gestión inteligente del sistema, acumuladores de agua caliente de gran capacidad y sistemas de aire acondicionado para un confort total. Confía en la fiabilidad de Amado Salvador como distribuidor oficial de Vaillant, y en la resistencia de los productos Vaillant, respaldados por años de experiencia e innovación en el sector.
En Amado Salvador, distribuidor oficial de Vaillant en Valencia, no solo proporcionamos productos de calidad, sino también servicios especializados para profesionales, asegurando que tus proyectos cuenten con el mejor soporte técnico y asesoramiento. Descarga nuestro catálogo y descubre por qué Vaillant es la elección preferida para proyectos de climatización y energía en Amado Salvador.
SOPRA STERIA presenta una aplicació destinada a persones amb discapacitat intel·lectual que busca millorar la seva integració laboral i digital. Permet crear currículums de manera senzilla i intuitiva, facilitant així la seva participació en el mercat laboral i la seva independència econòmica. Aquesta iniciativa no només aborda la bretxa digital, sinó que també contribueix a reduir la desigualtat proporcionant eines accessibles i inclusives. A més, "inCV" està alineat amb els Objectius de Desenvolupament Sostenible de l'Agenda 2030, especialment els relacionats amb el treball decent i la reducció de desigualtats.
HPE presenta una competició destinada a estudiants, que busca fomentar habilitats tecnològiques i promoure la innovació en un entorn STEAM (Ciència, Tecnologia, Enginyeria, Arts i Matemàtiques). A través de diverses fases, els equips han de resoldre reptes mensuals basats en àrees com algorísmica, desenvolupament de programari, infraestructures tecnològiques, intel·ligència artificial i altres tecnologies. Els millors equips tenen l'oportunitat de desenvolupar un projecte més gran en una fase presencial final, on han de crear una solució concreta per a un conflicte real relacionat amb la sostenibilitat. Aquesta competició promou la inclusió, la sostenibilitat i l'accessibilitat tecnològica, alineant-se amb els Objectius de Desenvolupament Sostenible de l'ONU.
KAWARU CONSULTING presenta el projecte amb l'objectiu de permetre als ciutadans realitzar tràmits administratius de manera telemàtica, des de qualsevol lloc i dispositiu, amb seguretat jurídica. Aquesta plataforma redueix els desplaçaments físics i el temps invertit en tràmits, ja que es pot fer tot en línia. A més, proporciona evidències de la correcta realització dels tràmits, garantint-ne la validesa davant d'un jutge si cal. Inicialment concebuda per al Ministeri de Justícia, la plataforma s'ha expandit per adaptar-se a diverses organitzacions i països, oferint una solució flexible i fàcil de desplegar.
Todo sobre la tarjeta de video (Bienvenidos a mi blog personal)AbrahamCastillo42
Power point, diseñado por estudiantes de ciclo 1 arquitectura de plataformas, esta con la finalidad de dar a conocer el componente hardware llamado tarjeta de video..
4. Aprendiendo a tocar
4
Convierte tus clusters en entornos seguros
Es gratis*, como la cerveza,
que tendremos después
Como mínimo establece Authentication & TLS
*Características de Seguridad incluidas en Licencia Básica 6.8 / 7.1
+
¡Seguridad!
7. Aprendiendo a tocar
7
Shards y Replicas
Shards (por índice)
• ¡Menos es mas! (50GB shard > 5 shards de 10GB cada uno)
• Buen rango de tamaño para los shards es 30-80GB
Réplicas (arranca con N+1)
• Añade más para mayor procesamiento de consultas & tolerancia a fallos
10. Sin instrumentos prestados
10
Solo algunos recursos pueden ser fácilmente compartidos
Machine
Learning
Data Master
Ingest Coord.
Data Master
Ingest Coord.
Data Master
Ingest Coord.
APM
11. 11
Definición de los índices
• Siempre establece tus propios
mappings
- Los campos pueden tener uno o
más tipos de datos, piensa cuales
son necesarios (text, keyword,
date, etc.)
- No todos los campos se necesitan
indexar
• Utilizar templates para simplificar/
estandarizar el proceso de creación
de índices
• Definir alías puede venirte muy bien
Aprendiendo las
Escalas
12. Saber cuando improvisar
12
Gestión Automatica de los campos de nuestros índices
• “dynamic” : true
- Los campos nuevos se añaden al mapping (default)
• “dynamic” : false
- Los campos nuevos se ignoran. No se puede buscar por ellos, pero
se devuelven y no se añaden al mapping
• “dynamic” : strict
- Si nuevos campos se añaden, se lanza una excepción y el
documento es rechazado. Nuevos campos pueden ser añadidos al
mapping
13. • Cluster
• Nodes
• Indices
• Kibana
• Logstash
• Beats
• APM
Grabar el Concierto
13
Monitorización
15. Ahora necesitamos ayuda con el equipo…
15
Reduce resource contention for discrete functions
• Data Nodes
• Master Nodes
• Coordinator Nodes
• Ingest Nodes
• Machine Learning Nodes
cluster
Ingest Node
Data Node
ML Node
Data Node
ML Node
Data Node
Data Node Data Node Data Node Data Node
Master Node
Data Node
Coordinating Node
Master Node
Data Node
Coordinating Node
Master Node
Data Node
Coordinating Node
16. Organizando un Grupo en Crecimiento
16
Shard routing - built-in traffic cop for directing your data
• Dirigir datos a nodos/
hardware específico
(Hot/Warm/Cold)
• Mantener resilience
mediante distribución de
réplicas
• Creación de arquitecturas
personalizadas.
cluster
Ingest Node
Coordinating Node ML Node
Hot Data Node Warm Data Node Cold Data Node
Master Node
ML Node
Master NodeMaster Node
Warm Data Node
18. Momento de modificar la lista de canciones
18
Automatizar la gestión del ciclo de vida de los datos con políticas
• Usar fechas o tamaños
para mover datos en
fases:
- Hot/Warm/Cold
- Frozen indices
• Index Lifestyle
Management
• Snapshot Lifestyle
Management
19. • min, max, avg, count, sum
• cardinality percentiles
• flexible bucketing & filtering:
◦ time
◦ histograms
◦ terms
Organizar la Lista de Canciones
19
Ahorrar espacio y ser más rápido en datos basados en series temporales
• Ahorrar espacio con
meta-metrics
• Consultas más
rápidas
• Agregaciones más
rápidas
20. Rollups para Consultas Rápidas sobre Metric Data Sets
20
Raw Minute Hour Day
Docs: 9,041,000 1,448,285 49,554 8,447
Size: 2.23 gb 1.25gb 48.40mb 9.10mb
Docs % Change: -83.98% -99.45% -99.91%
Size % Change: -43.68% -97.84% -99.59%
Ahorrar espacio y ser más rápido en datos basados en series temporales
21. Alcanzar la excelencia
21
Operaciones Avanzadas sobre Índices
• Rollover API
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/indices-shrink-index.html
• Split API
https://www.elastic.co/guide/en/elasticsearch/reference/current/indices-split-index.html
• Shrink API
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/indices-shrink-index.html
• Index Sorting
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/index-modules-index-sorting.html
24. KibanaES-CCS
Visibilidad de toda la Banda
24
Cross Cluster Search
Dev Team Elasticsearch Clusters Support Team
Kibana ES-CCS
Billing Team
Kibana ES-CCS
Marketing Team
KibanaES-CCS
Logging Security
Search
Metrics Apps
25. Cada primer instrumento necesita su segundo
25
Cross Cluster Replication
Disaster Recovery Data Locality Central Reporting
Pro DC
DR DC
Leader Follower
Central DC
Canada DC Singapore DC
Canada DC Singapore DC
Central
Reporting
DC
26. Mas artistas, mas retos
26
Mayores preocupaciones de Gestión
• Perfiles Hardware
• Ciclo de vida de los datos
• Políticas de Actualización
• Escalado
• Integración de Seguridad
“¡Tengo ampollas en mis
dedos!”
27. Gestionar Trios, Cuartetos, & Más
27
Orquestación entre múltiples clusters
METRICSSECURITY
OPERATIONAL
ANALYTICS SEARCH
LOG
ANALYTICS
CUSTOM
APPS
28. La solución oficial de
Gestión completa de
clusters de Elasticsearch y
Kibana
ESS
Disponible en AWS, GCP
y Azure
Elegir el lugar adecuado
28
Descarga el software e
instalado en tu entorno
Orquestación del Stack de
Elastic. Gestión
centralizada de múltiples
clusters y versiones.
ECE/ECKSelf-Managed
Desplegar en cualquier
sitio
Desplegar en cualquier
sitio
El mejor software y soporte Orquestación Completa Hosting por Elastic
30. Beneficios del Cloud
30
Self Managed ECE/ECK ESS
Shard Sizing & Mapping
Hardware Provisioning
Snapshot Repository Management * (unless you want to)
Scaling Deployments
Zero Downtime Upgrades
Hot/Warm Architecture
Shard Routing Across AZs
Secure Nodes Communication
Do it
Yourself
Done for
You
33. Learning to Play
33
Shards & replicas
Shards
• Start with 1 primary shard per index (default starting 7.0)
• How many per node?
- Max 20 Shards per GB of JVM Heap
- 30 GB Heap = MAXIMUM 600 Shards
• Add more to scale for ingest volume
• Run _forcemerge once the index becomes read only
Replicas
• Keep in mind more replicas = slower writes
• Only add more replicas if your use case is search heavy
34. Managing Indices with Shard Splitting
34
Add index capacity after the fact
• Fewer up-front concerns about choosing the best number of shards
• Scale up based on need
• Complements the shrink API
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
number_of_shards: 1
_split
_split
_split
_split
36. Index Sorting
36
Faster sorted queries by optimizing on-disk layout
Optimize on-disk format for
some search use cases
Improve query
performance at the cost of
index performance
Queries can return early if
sorted the same as the
index time sort
5.x
Player 1 Score: 600
6.x
Player 2 Score: 0
Player 3 Score: 200
Player 4 Score: 700
Player 5 Score: 300
Player 1907 Score: 800
…
Queryfortop3playerscores
Player 1907 Score: 800
Player 4 Score: 700
Player 1 Score: 600
Player 5 Score: 300
Player 3 Score: 200
Player 2 Score: 0
…
Queryfortop3playerscores
40. Good Foundation
40
Authentication is a must
Enable Authentication (on all nodes)
• Elasticsearch.yml
xpack.security.enabled: true
• Setup Passwords
bin/elasticsearch-setup-passwords interactive
It doesn’t get easier than that!
41. Good Foundation
41
Encryption in flight
Enable TLS on each node
• Generate a wildcard cert
bin/elasticsearch-certutil cert --ca myCert.p12
• elasticsearch.yml
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
xpack.security.transport.ssl.keystore.path: certs/myCert.p12
xpack.security.transport.ssl.truststore.path: certs/myCert.p12
42. Good Foundation
42
Encryption in flight
Enable TLS in Kibana
• Generate a Kibana cert
➡ Set the certificate’s subjectAltName to the hostname, FQDN, or IP
address, or set the CN to the hostname or FQDN
• Edit kibana.yml on the Kibana node
server.ssl.enabled: true
server.ssl.key: /path/to/your/server.key
server.ssl.certificate: /path/to/your/server.crt
43. Good Foundation
43
Encryption in flight
Enable TLS in Beats
• e.g. metricbeat.yml
setup.kibana.host: “http://10.0.011”
setup.kibana.username: “elastic”
setup.kibana.password: “Str0ngPassw0rd”
output.elasticsearch.hosts: “http://10.0.010"]
output.elasticsearch.username: “elastic”
output.elasticsearch.password: “Str0ngPassw0rd”
Use these for ESS:
• cloud.id
• cloud.auth
44. Good Foundation
44
Encryption in flight
Enable TLS in Logstash
• logstash.conf
output {
elasticsearch {
hosts =>[“http://10.0.010”]
user => elastic
Password => Str0ngPassw0rd
}
}
Use these for ESS:
• cloud.id
• cloud.auth