En esta plática exploraremos el modelo que Amazon utiliza para innovar. Compartiremos como lo ha aplicado en distintos negocios enfocados en diferentes mercados, cuáles son los pilares de su modelo de innovación, y como este modelo está íntimamente ligado a su cultura y procesos de negocio.
Por: Alejandro Flores
Taller: Limpieza y preparación de datos con Optimus y Apache SparkSoftware Guru
En este taller, impartido por uno de los desarrolladores de Optimus, aprenderás a realizar limpieza y preparación de datos utilizando Optimus en conjunto con Apache Spark y Python (PySpark).
Por Favio Vázquez
Machine learning usando Weka, en un entorno de cómputo distribuidoSoftware Guru
En esta sesión mostraremos lo sencillo que es implementar algoritmos de machine learning en un entorno de cómputo distribuido por medio de Weka. Weka es una herramienta de software libre para data mining y machine learning, la cual fue desarrollada por la Universidad de Waikato en Nueva Zelanda.
Por Alexandra Lemus (VinkOS)
Charla impartida por Marco Antonio Sanz Molina Prados, Fundador de CloudAppi, que repasa las tecnologías más habituales del mundo Big Data y su aplicación en el desarrollo de las Apis.
En la ponencia se tratan os siguientes puntos:
• Arquitectura Lambda
• Arquitectura de APIs
• Bases de datos noSQL
• Datawarehouses Big Data
• Ejemplos de arquitecturas
Apache Spark es un framework para procesamiento de grandes cantidades de datos. Ha sido diseñado para ser el sucesor de Hadoop siendo hasta 100 veces mas rápido utilizando procesamiento en memoria. Provee interfaces de programación con Scala, Python y Java.
En este Webinar exploraremos las capacidades de Spark y su ecosistema para resolver problemas de Big Data así como su interoperabilidad con diferentes orígenes de datos HDFS, HBase y Apache Mesos. Exploraremos las principales librerías del ecosistema: Spark Streaming, SparkSQL, GraphX y MLlib.
Este documento presenta una introducción al paralelismo en programación para grandes datos. Explica conceptos como programación paralela, aprendizaje automático distribuido y mapeo de datos. Luego proporciona ejemplos prácticos utilizando Python para implementar la transformada discreta de Fourier de forma paralela en Spark, Dask y scikit-learn. Finalmente, compara los tiempos de ejecución de estos diferentes enfoques.
En esta sesión analizaremos los principales retos que enfrentan las organizaciones para aumentar su agilidad, y veremos cómo se pueden superar por medio de una combinación de personas, procesos y tecnología.
Taller: Limpieza y preparación de datos con Optimus y Apache SparkSoftware Guru
En este taller, impartido por uno de los desarrolladores de Optimus, aprenderás a realizar limpieza y preparación de datos utilizando Optimus en conjunto con Apache Spark y Python (PySpark).
Por Favio Vázquez
Machine learning usando Weka, en un entorno de cómputo distribuidoSoftware Guru
En esta sesión mostraremos lo sencillo que es implementar algoritmos de machine learning en un entorno de cómputo distribuido por medio de Weka. Weka es una herramienta de software libre para data mining y machine learning, la cual fue desarrollada por la Universidad de Waikato en Nueva Zelanda.
Por Alexandra Lemus (VinkOS)
Charla impartida por Marco Antonio Sanz Molina Prados, Fundador de CloudAppi, que repasa las tecnologías más habituales del mundo Big Data y su aplicación en el desarrollo de las Apis.
En la ponencia se tratan os siguientes puntos:
• Arquitectura Lambda
• Arquitectura de APIs
• Bases de datos noSQL
• Datawarehouses Big Data
• Ejemplos de arquitecturas
Apache Spark es un framework para procesamiento de grandes cantidades de datos. Ha sido diseñado para ser el sucesor de Hadoop siendo hasta 100 veces mas rápido utilizando procesamiento en memoria. Provee interfaces de programación con Scala, Python y Java.
En este Webinar exploraremos las capacidades de Spark y su ecosistema para resolver problemas de Big Data así como su interoperabilidad con diferentes orígenes de datos HDFS, HBase y Apache Mesos. Exploraremos las principales librerías del ecosistema: Spark Streaming, SparkSQL, GraphX y MLlib.
Este documento presenta una introducción al paralelismo en programación para grandes datos. Explica conceptos como programación paralela, aprendizaje automático distribuido y mapeo de datos. Luego proporciona ejemplos prácticos utilizando Python para implementar la transformada discreta de Fourier de forma paralela en Spark, Dask y scikit-learn. Finalmente, compara los tiempos de ejecución de estos diferentes enfoques.
En esta sesión analizaremos los principales retos que enfrentan las organizaciones para aumentar su agilidad, y veremos cómo se pueden superar por medio de una combinación de personas, procesos y tecnología.
Este documento presenta conceptos generales sobre Big Data e impacto en los negocios. Explica que Big Data se refiere a conjuntos de datos muy grandes o complejos que requieren nuevas formas de procesamiento. Describe características como tamaño, diversidad y velocidad de los datos, así como ejemplos de casos de negocio como mejorar la eficiencia operacional y la experiencia del cliente. Finalmente, discute riesgos como privacidad y seguridad, y tendencias futuras como análisis distribuido y computación cognitiva.
Este documento presenta una introducción a Apache Spark y Azure Databricks. Explica que Spark es un motor de procesamiento de datos a gran escala de código abierto que incluye características como Spark SQL, aprendizaje automático, procesamiento de flujos y grafos. Luego describe cómo Azure Databricks es una plataforma unificada para análisis que utiliza Spark y ofrece mejor rendimiento, procesamiento de grandes volúmenes de datos y arquitectura de clústeres. Finalmente, incluye una demostración de las capacidades de
El documento contiene información sobre Big Data, incluyendo definiciones, herramientas como Hadoop y Spark, y ejemplos de análisis de datos masivos. Se discuten conceptos como MapReduce, procesamiento paralelo de datos, y el uso de tecnologías como Scala y R para extraer información de grandes volúmenes de datos.
Este documento presenta una agenda para una sesión sobre Azure Data Lake. La agenda incluye una breve introducción a Big Data, una exploración de los servicios Azure Data Lake Store y Analytics, una introducción al lenguaje de consulta USQL, y una sesión de preguntas y respuestas. El objetivo es explorar las características de Azure Data Lake y cómo puede usarse para almacenar y analizar grandes volúmenes y variedades de datos.
Este documento presenta Azure SQL Data Warehouse, un servicio de almacenamiento de datos relacionales completamente administrado en la nube. Explica que ofrece escalabilidad elástica, permitiendo aumentar o disminuir los recursos de computación y almacenamiento según sea necesario. También destaca que está integrado con otros servicios de Azure como Power BI, Azure Data Factory y Azure Machine Learning.
Instalando Datastax Analytics (Cassandra Y Spark) Con Azure TemplatesGustavo Arjones
La presentación brinda nuestra experiencia instalando y configurando clusters de Datastax Analytics en Azure. Lessons Learned.
Blog post: http://arjon.es/2016/11/16/usando-azure-templates-para-instalar-datastax-cassandra-y-spark/
El documento presenta una introducción a Azure Data Factory. Explica que Azure Data Factory es un servicio en la nube que orquesta y automatiza el movimiento y transformación de datos de diferentes orígenes. La presentación incluye secciones sobre Azure Data Lake, Azure Data Factory, JSON, y cómo construir un pipeline en Azure Data Factory. El objetivo es mostrar las capacidades y uso de Azure Data Factory para integrar y procesar datos.
Azure Synapse Analytics es una plataforma de análisis moderna que combina datos, análisis y servicios de inteligencia. Permite almacenar datos de forma distribuida en 60 bases de datos y distribuirlos mediante hash, round-robin o replicación. Los recursos de CPU, memoria e IOPS se asignan mediante Data Warehouse Units, lo que determina la capacidad de consultas simultáneas y procesos en paralelo de la instancia.
Este documento presenta información sobre el análisis de grandes datos (Big Data) obtenidos de redes sociales como Twitter. Explica conceptos clave de Big Data como volumen, velocidad y variedad de datos. Describe herramientas para recolectar y analizar tweets como ElasticSearch e incluye ejemplos de análisis realizados como mapeo de hashtags, detección de eventos y movilidad entre estados basados en datos georreferenciados de Twitter. El objetivo final es explorar el desarrollo de metodologías para medir la mov
CloudCamp - Big Data – La revolución de los datosJohn Bulla
Este documento habla sobre Big Data y Hadoop. Explica que Big Data se refiere a grandes conjuntos de datos que son difíciles de manejar con herramientas de bases de datos tradicionales debido a su volumen, velocidad, variedad y variabilidad. Luego describe a Hadoop, una plataforma de código abierto para almacenar y analizar grandes cantidades de datos distribuidos. Finalmente, explica cómo Microsoft ofrece HDInsight, una implementación de Hadoop que se ejecuta en Azure para permitir análisis de Big Data en la nube
Taller Big Data, ciencia de datos y R - IEEE SB UMH y Geeky TheoryMario Pérez Esteso
Este documento presenta un análisis de reglas de asociación de los datos del Titanic para predecir qué pasajeros sobrevivieron. Se describen las fases de la ciencia de datos, incluida la recolección de datos del Titanic que incluyen clase, sexo, edad y supervivencia. Luego, se crean reglas de asociación con R y se inspeccionan para encontrar patrones como que las mujeres y niños de primera y segunda clase tenían más probabilidades de sobrevivir. Finalmente, se proporcionan visualizaciones como scatter plots y histogramas para expl
Stratio: Experiencia en el Spark Summit 2014Stratio
David Morales y Paco Madrid nos cuentan su experiencia en el Spark Summit 2014, celebrado en San Francisco. La presentación tuvo lugar en el primer Apache Spark Meetup, celebrado en Madrid el pasado 23 de julio del 2014.
¿Quieres saber más?
http://www.meetup.com/Madrid-Apache-Spark-meetup/events/195241462/
http://www.stratio.com/
Apache Spark es un motor de procesamiento de datos de código abierto y de alta velocidad. Proporciona procesamiento in-memory de datos a través de RDD (Resilient Distributed Datasets) que permiten operaciones paralelas tolerantes a fallas. Spark también ofrece un entorno de desarrollo interactivo y una API unificada para procesamiento por lotes e incremental sobre Hadoop u otros sistemas de almacenamiento distribuido.
Construyendo una Infraestructura de Big Data rentable y escalable (la evoluci...Socialmetrix
El documento describe la arquitectura de Big Data de Socialmetrix, una compañía que monitorea actividad en redes sociales. Explica que usan una arquitectura Lambda escalable con Kafka, Spark y Cassandra para procesar grandes volúmenes de datos provenientes de redes sociales. También discute lecciones aprendidas como la importancia de automatizar procesos desde el inicio y dividir roles entre especialistas en crawling, procesamiento de lenguaje natural, Big Data y visualización.
Primeros pasos con Apache Spark - Madrid Meetupdhiguero
Primeros pasos con Spark dentro del Apache Spark Meetup group de Madrid (http://www.meetup.com/Madrid-Apache-Spark-meetup/events/198362002/)
Contenido:
- Introdución
- Conceptos básicos
- Ecosistema Spark
- Instalación del entorno
- Errores comunes
Conociendo los servicios adicionales en big dataSpanishPASSVC
Todos han empezado a usar y a conocer Hadoop y HDInsight, en parte los lenguajes usados para su consumo, pero poco se hablado de los servicios complementarios que pueden enriquecer la experiencia BigData, conozca estos servicios y su aplicación.
El documento habla sobre cloud computing, sus características, modelos, servicios, ventajas y desventajas. Explica que permite reducir gastos al pagar solo por lo que se usa, y ofrece escalabilidad, confiabilidad y disponibilidad las 24 horas. Menciona ejemplos como Amazon EC2, Google Apps, Hadoop y cómo empresas como NYT y Nasdaq usan estos servicios en la nube.
Big data se refiere a datos de alto volumen, velocidad y variedad que requieren formas innovadoras y rentables de procesamiento de información para obtener conocimientos y apoyar la toma de decisiones. El documento describe cómo las oficinas nacionales de estadística están explorando el uso de big data a través de proyectos piloto, y la necesidad de nuevas habilidades como el procesamiento de grandes cantidades de datos y el análisis visual para aprovechar completamente big data.
AnalyticZ … De la A a la Z con Amazon Web ServicSoftware Guru
Construir una aplicación de Big Data frecuentemente requiere integrar un conjunto de tecnologías para almacenar, procesar y analizar la creciente variedad, velocidad y volumen de datos dentro de las organizaciones. En esta sesión, se mostrará cómo se puede construir una aplicación de Big Data a lo largo de todo el pipeline utilizando los servicios que Amazon Web Services ofrece como parte de su portafolio.
Daremos un viaje paso a paso, a través de la construcción y seguridad de una aplicación de Big Data y compartiremos mejores prácticas y casos de uso muy comunes que sirvan como guía para elegir la mejor solución que se adapte a las necesidades específicas de cada ambiente.
Por Alejandro Flores de Amazon web Services
Amazon Web Services proporciona una amplia gama de servicios que le ayudarán a crear e implementar aplicaciones de análisis de big data de forma rápida y sencilla. AWS ofrece un acceso rápido a recursos de TI económicos y flexibles, algo que permitirá escalar prácticamente cualquier aplicación de big data con rapidez, incluidos almacenamiento de datos, análisis de clics, detección de elementos fraudulentos, motores de recomendación, proceso ETL impulsado por eventos, informática sin servidor y procesamiento del Internet de las cosas.
Este documento presenta conceptos generales sobre Big Data e impacto en los negocios. Explica que Big Data se refiere a conjuntos de datos muy grandes o complejos que requieren nuevas formas de procesamiento. Describe características como tamaño, diversidad y velocidad de los datos, así como ejemplos de casos de negocio como mejorar la eficiencia operacional y la experiencia del cliente. Finalmente, discute riesgos como privacidad y seguridad, y tendencias futuras como análisis distribuido y computación cognitiva.
Este documento presenta una introducción a Apache Spark y Azure Databricks. Explica que Spark es un motor de procesamiento de datos a gran escala de código abierto que incluye características como Spark SQL, aprendizaje automático, procesamiento de flujos y grafos. Luego describe cómo Azure Databricks es una plataforma unificada para análisis que utiliza Spark y ofrece mejor rendimiento, procesamiento de grandes volúmenes de datos y arquitectura de clústeres. Finalmente, incluye una demostración de las capacidades de
El documento contiene información sobre Big Data, incluyendo definiciones, herramientas como Hadoop y Spark, y ejemplos de análisis de datos masivos. Se discuten conceptos como MapReduce, procesamiento paralelo de datos, y el uso de tecnologías como Scala y R para extraer información de grandes volúmenes de datos.
Este documento presenta una agenda para una sesión sobre Azure Data Lake. La agenda incluye una breve introducción a Big Data, una exploración de los servicios Azure Data Lake Store y Analytics, una introducción al lenguaje de consulta USQL, y una sesión de preguntas y respuestas. El objetivo es explorar las características de Azure Data Lake y cómo puede usarse para almacenar y analizar grandes volúmenes y variedades de datos.
Este documento presenta Azure SQL Data Warehouse, un servicio de almacenamiento de datos relacionales completamente administrado en la nube. Explica que ofrece escalabilidad elástica, permitiendo aumentar o disminuir los recursos de computación y almacenamiento según sea necesario. También destaca que está integrado con otros servicios de Azure como Power BI, Azure Data Factory y Azure Machine Learning.
Instalando Datastax Analytics (Cassandra Y Spark) Con Azure TemplatesGustavo Arjones
La presentación brinda nuestra experiencia instalando y configurando clusters de Datastax Analytics en Azure. Lessons Learned.
Blog post: http://arjon.es/2016/11/16/usando-azure-templates-para-instalar-datastax-cassandra-y-spark/
El documento presenta una introducción a Azure Data Factory. Explica que Azure Data Factory es un servicio en la nube que orquesta y automatiza el movimiento y transformación de datos de diferentes orígenes. La presentación incluye secciones sobre Azure Data Lake, Azure Data Factory, JSON, y cómo construir un pipeline en Azure Data Factory. El objetivo es mostrar las capacidades y uso de Azure Data Factory para integrar y procesar datos.
Azure Synapse Analytics es una plataforma de análisis moderna que combina datos, análisis y servicios de inteligencia. Permite almacenar datos de forma distribuida en 60 bases de datos y distribuirlos mediante hash, round-robin o replicación. Los recursos de CPU, memoria e IOPS se asignan mediante Data Warehouse Units, lo que determina la capacidad de consultas simultáneas y procesos en paralelo de la instancia.
Este documento presenta información sobre el análisis de grandes datos (Big Data) obtenidos de redes sociales como Twitter. Explica conceptos clave de Big Data como volumen, velocidad y variedad de datos. Describe herramientas para recolectar y analizar tweets como ElasticSearch e incluye ejemplos de análisis realizados como mapeo de hashtags, detección de eventos y movilidad entre estados basados en datos georreferenciados de Twitter. El objetivo final es explorar el desarrollo de metodologías para medir la mov
CloudCamp - Big Data – La revolución de los datosJohn Bulla
Este documento habla sobre Big Data y Hadoop. Explica que Big Data se refiere a grandes conjuntos de datos que son difíciles de manejar con herramientas de bases de datos tradicionales debido a su volumen, velocidad, variedad y variabilidad. Luego describe a Hadoop, una plataforma de código abierto para almacenar y analizar grandes cantidades de datos distribuidos. Finalmente, explica cómo Microsoft ofrece HDInsight, una implementación de Hadoop que se ejecuta en Azure para permitir análisis de Big Data en la nube
Taller Big Data, ciencia de datos y R - IEEE SB UMH y Geeky TheoryMario Pérez Esteso
Este documento presenta un análisis de reglas de asociación de los datos del Titanic para predecir qué pasajeros sobrevivieron. Se describen las fases de la ciencia de datos, incluida la recolección de datos del Titanic que incluyen clase, sexo, edad y supervivencia. Luego, se crean reglas de asociación con R y se inspeccionan para encontrar patrones como que las mujeres y niños de primera y segunda clase tenían más probabilidades de sobrevivir. Finalmente, se proporcionan visualizaciones como scatter plots y histogramas para expl
Stratio: Experiencia en el Spark Summit 2014Stratio
David Morales y Paco Madrid nos cuentan su experiencia en el Spark Summit 2014, celebrado en San Francisco. La presentación tuvo lugar en el primer Apache Spark Meetup, celebrado en Madrid el pasado 23 de julio del 2014.
¿Quieres saber más?
http://www.meetup.com/Madrid-Apache-Spark-meetup/events/195241462/
http://www.stratio.com/
Apache Spark es un motor de procesamiento de datos de código abierto y de alta velocidad. Proporciona procesamiento in-memory de datos a través de RDD (Resilient Distributed Datasets) que permiten operaciones paralelas tolerantes a fallas. Spark también ofrece un entorno de desarrollo interactivo y una API unificada para procesamiento por lotes e incremental sobre Hadoop u otros sistemas de almacenamiento distribuido.
Construyendo una Infraestructura de Big Data rentable y escalable (la evoluci...Socialmetrix
El documento describe la arquitectura de Big Data de Socialmetrix, una compañía que monitorea actividad en redes sociales. Explica que usan una arquitectura Lambda escalable con Kafka, Spark y Cassandra para procesar grandes volúmenes de datos provenientes de redes sociales. También discute lecciones aprendidas como la importancia de automatizar procesos desde el inicio y dividir roles entre especialistas en crawling, procesamiento de lenguaje natural, Big Data y visualización.
Primeros pasos con Apache Spark - Madrid Meetupdhiguero
Primeros pasos con Spark dentro del Apache Spark Meetup group de Madrid (http://www.meetup.com/Madrid-Apache-Spark-meetup/events/198362002/)
Contenido:
- Introdución
- Conceptos básicos
- Ecosistema Spark
- Instalación del entorno
- Errores comunes
Conociendo los servicios adicionales en big dataSpanishPASSVC
Todos han empezado a usar y a conocer Hadoop y HDInsight, en parte los lenguajes usados para su consumo, pero poco se hablado de los servicios complementarios que pueden enriquecer la experiencia BigData, conozca estos servicios y su aplicación.
El documento habla sobre cloud computing, sus características, modelos, servicios, ventajas y desventajas. Explica que permite reducir gastos al pagar solo por lo que se usa, y ofrece escalabilidad, confiabilidad y disponibilidad las 24 horas. Menciona ejemplos como Amazon EC2, Google Apps, Hadoop y cómo empresas como NYT y Nasdaq usan estos servicios en la nube.
Big data se refiere a datos de alto volumen, velocidad y variedad que requieren formas innovadoras y rentables de procesamiento de información para obtener conocimientos y apoyar la toma de decisiones. El documento describe cómo las oficinas nacionales de estadística están explorando el uso de big data a través de proyectos piloto, y la necesidad de nuevas habilidades como el procesamiento de grandes cantidades de datos y el análisis visual para aprovechar completamente big data.
AnalyticZ … De la A a la Z con Amazon Web ServicSoftware Guru
Construir una aplicación de Big Data frecuentemente requiere integrar un conjunto de tecnologías para almacenar, procesar y analizar la creciente variedad, velocidad y volumen de datos dentro de las organizaciones. En esta sesión, se mostrará cómo se puede construir una aplicación de Big Data a lo largo de todo el pipeline utilizando los servicios que Amazon Web Services ofrece como parte de su portafolio.
Daremos un viaje paso a paso, a través de la construcción y seguridad de una aplicación de Big Data y compartiremos mejores prácticas y casos de uso muy comunes que sirvan como guía para elegir la mejor solución que se adapte a las necesidades específicas de cada ambiente.
Por Alejandro Flores de Amazon web Services
Amazon Web Services proporciona una amplia gama de servicios que le ayudarán a crear e implementar aplicaciones de análisis de big data de forma rápida y sencilla. AWS ofrece un acceso rápido a recursos de TI económicos y flexibles, algo que permitirá escalar prácticamente cualquier aplicación de big data con rapidez, incluidos almacenamiento de datos, análisis de clics, detección de elementos fraudulentos, motores de recomendación, proceso ETL impulsado por eventos, informática sin servidor y procesamiento del Internet de las cosas.
Amazon Web Services proporciona una amplia gama de servicios que le ayudarán a crear e implementar aplicaciones de análisis de big data de forma rápida y sencilla. AWS ofrece un acceso rápido a recursos de TI económicos y flexibles, algo que permitirá escalar prácticamente cualquier aplicación de big data con rapidez, incluidos almacenamiento de datos, análisis de clics, detección de elementos fraudulentos, motores de recomendación, proceso ETL impulsado por eventos, informática sin servidor y procesamiento del Internet de las cosas.
https://aws.amazon.com/es/big-data/
Amazon Web Services proporciona una amplia gama de servicios que le ayudarán a crear e implementar aplicaciones de análisis de big data de forma rápida y sencilla. AWS ofrece un acceso rápido a recursos de TI económicos y flexibles, algo que permitirá escalar prácticamente cualquier aplicación de big data con rapidez, incluidos almacenamiento de datos, análisis de clics, detección de elementos fraudulentos, motores de recomendación, proceso ETL impulsado por eventos, informática sin servidor y procesamiento del Internet de las cosas.
https://aws.amazon.com/es/big-data/
Este documento describe cómo construir una aplicación de Big Data completa en AWS. Explica cómo usar varios servicios de AWS como Amazon Redshift para almacenamiento y análisis de datos estructurados, Amazon QuickSight para visualización de datos, Amazon EMR para procesamiento de datos no estructurados, y Amazon Kinesis para procesamiento de datos en tiempo real. También cubre cómo migrar datos a AWS, agregar encripción y segmentación de redes para cumplir con regulaciones, y ejecutar código personalizado en la nube de AWS.
Cómputo de usuario final en AWS con Amazon WorkSpaces y Amazon AppStream - MX...Amazon Web Services
Las organizaciones de TI actualmente necesitan apoyar una fuerza laboral moderna, flexible y global, así como garantizar que sus usuarios pueden ser productivos en cualquier lugar. Mover los escritorios y aplicaciones a AWS ofrece seguridad reforzada, mejora y desempeño con economía en la nube. En esta sesión, proporcionamos información general sobre los Amazon Workspaces y Amazon AppStream 2.0; además, discutimos las mejores prácticas para mover su cálculo de usuario final a AWS. Además, profundizamos en la Amazon AppStream 2.0 y demostramos algunas de las nuevas capacidades, incluyendo la integración de Microsoft Active Directory, inicio de sesión simple con SAML 2.0 y las nuevas instancias optimizadas para gráficos.
Generación de lagos de datos y analítica sobre AWS - MXO204 - Mexico City SummitAmazon Web Services
Este documento presenta sobre la construcción de data lakes y análisis en AWS. Explica conceptos clave como data lakes, big data y diferentes servicios de AWS para almacenamiento, procesamiento y análisis de grandes cantidades de datos de forma económica y escalable. También describe casos de uso reales de clientes que implementaron soluciones de data lakes en AWS.
Este documento describe los patrones recomendados para crear data lakes y analizar datos en AWS. Explica cómo los data lakes en AWS pueden integrar y almacenar rápidamente cualquier tipo de datos mientras proporcionan información detallada y seguridad. También describe varias herramientas de AWS como AWS Glue, Amazon Athena, Amazon EMR y Amazon Redshift que pueden usarse para analizar los datos almacenados en los data lakes.
Patrones arquitectónicos y mejores prácticas de "big data" en AWS - MXO203 - ...Amazon Web Services
El documento presenta una sesión sobre patrones arquitectónicos y mejores prácticas para procesar grandes cantidades de datos (Big Data) en AWS. Se discuten los retos de Big Data, principios de arquitectura como construir sistemas desacoplados y usar la herramienta correcta para cada tarea, y cómo simplificar el procesamiento de Big Data. También se presentan varios servicios y tecnologías de AWS para recolectar, almacenar, procesar y analizar datos.
¿Quiere conocer aspectos fundamentales de AWS o ampliar su experiencia?
Acompáñenos en este webinar en donde podrá adquirir conocimientos acerca de herramientas de administración, productividad, seguridad, identidad y conformidad.
Obtenga más información sobre las soluciones y los productos de la nube de AWS e información general sobre la informática en la nube.
Building and governing modern data lakes and data warehouses - ADB201 - Mexic...Amazon Web Services
El documento describe los beneficios de implementar data lakes y data warehouses modernos en AWS. Explica que las organizaciones que generan valor a partir de sus datos tienen mayor crecimiento. Define un data lake y sus características clave como el almacenamiento y cómputo desacoplado. Describe cómo AWS ofrece una variedad de servicios para construir data lakes escalables, realizar análisis interactivos y machine learning sobre grandes volúmenes de datos.
Arquitecturas y estrategias para generar aplicaciones modernas en AWS - MXO20...Amazon Web Services
El rápido crecimiento de la tecnología y las herramientas en la nube, nos habilitan para construir aplicaciones modernas, las que son más seguras, escalables y enfocadas en nuestro negocio. En esta sesión cubriremos los aspectos clave que nos habilitan hacia la construcción y ejecución de aplicaciones modernas, nativas para la nube. Destacaremos lo que hemos aprendido de nuestros clientes que ejecutan aplicaciones con AWS Lambda y AWS Fargate, dos tecnologías de cómputo modernas para ejecutar aplicaciones en la nube. Adicionalmente, cubriremos patrones de arquitectura para aplicaciones modernas, principios básicos para construir sistemas modernos, los pasos que necesitas para comenzar a construir y monitorear aplicaciones modernas, y consejos para ir rápido, lejos y sin miedo en la nube.
AWS Initiate Day Mexico City | Migración de datos a la nube, explorando sus o...Amazon Web Services LATAM
Este documento presenta varias opciones disponibles en AWS para migrar datos a la nube, incluyendo AWS Direct Connect, AWS DataSync, la familia de servicios AWS Snowball, AWS Transfer for SFTP y la familia de servicios AWS Storage Gateway. Explica brevemente cada servicio y cómo pueden usarse para transferir datos de forma online o sin conexión para mover grandes volúmenes de datos a la nube de manera segura y eficiente.
El almacenamiento en la nube es un componente crítico de la informática en la nube, que guarda la información que utilizan las aplicaciones. El análisis de big data, los almacenes de datos, el Internet de las cosas, las bases de datos y las aplicaciones de backup y archivado dependen de algún tipo de arquitectura de almacenamiento de datos. El almacenamiento en la nube, por lo general, es más fiable, escalable y seguro que los sistemas de almacenamiento en las instalaciones tradicionales.
AWS ofrece una gama completa de servicios de almacenamiento en la nube para respaldar los requisitos de conformidad de las aplicaciones y el archivado. Seleccione entre servicios de almacenamiento de objetos, archivos y por bloques, así como opciones de migración de datos a la nube para comenzar a diseñar las bases de su entorno de TI en la nube.
https://aws.amazon.com/es/products/storage/
AWS Innovate 2020 - Aprenda cómo el Data Flywheel puede ayudarle en su estrat...Amazon Web Services LATAM
El documento habla sobre cómo Data Flywheel de AWS puede ayudar a optimizar la estrategia de datos de una organización. Explica cómo Data Flywheel puede usarse para migrar datos y aplicaciones a la nube, optimizar ambientes de bases de datos mediante servicios administrados, construir aplicaciones orientadas a datos usando bases de datos especializadas, construir lagos de datos escalables, e innovar mediante machine learning y blockchain.
El documento presenta el itinerario de un evento de AWS que incluye presentaciones sobre los servicios de AWS, casos de éxito de clientes, implementación de webapps, y seguridad con AWS. Luego resume los orígenes de AWS en la infraestructura de Amazon, la amplia cartera de servicios de AWS, y la continua innovación y reducción de precios.
Este documento presenta varias arquitecturas serverless que utilizan IoT, machine learning y asistentes de voz. Describe cómo estas tecnologías se pueden usar para recomendaciones personalizadas, experiencias de compra nuevas, automatización de inventario, envíos con drones e interacciones por voz. Explica conceptos como serverless, IoT y machine learning, así como servicios de AWS como Lambda, Greengrass, SageMaker y servicios cognitivos.
El documento presenta información sobre diferentes componentes electrónicos como resistores, condensadores, diodos y potenciómetros. También describe circuitos integrados, Arduino, Raspberry Pi y cómo encender y apagar LEDs usando estos dispositivos de forma básica.
Estructuras de datos avanzadas: Casos de uso realesSoftware Guru
La utilización de estructuras de datos adecuadas para cada problema hace que se simplifiquen en gran medida los tiempos de respuestas y la cantidad de cómputo realizada.
Por Nelson González
Onboarding new members into an engineering team is not easy on anyone. In a short period of time, the new team member is required to be able to bring professional
Por Victoriya Kalmanovich
El secreto para ser un desarrollador SeniorSoftware Guru
En esta charla platicaremos sobre el “secreto” y el camino para llegar a ser un desarrollador Senior, experiencia, consejos y recomendaciones que en estos 8 años
Por René Sandoval
Apache Airflow es una plataforma en la que podemos crear flujos de datos de manera programática, planificarlos y monitorear de manera centralizada.
Por Yesi Díaz
How thick data can improve big data analysis for business:Software Guru
Este documento discute cómo el "thick data" (datos densos) provenientes de la antropología y la semiótica pueden ayudar a mejorar los análisis de big data en el mundo de los negocios. Explica que el thick data proporciona contexto social y significado que es clave para la interpretación de resultados de big data. Presenta dos estudios de caso donde el thick data ayudó a Netflix y a un banco francés a mejorar sus estrategias. Concluye que el big data provee respuestas pero se necesitan enfoques cualitativos para identificar los
CoDi® es la nueva forma de realizar pagos digitales desarrollada por el Banco de México. Por medio de CoDi puedes realizar cobros y pagos desde tu celular, utilizando una cuenta bancaria o de alguna institución financiera, sin comisiones.
Por Cristian Jaramillo
Gestionando la felicidad de los equipos con Management 3.0Software Guru
En las metodologías agiles hablamos de equipos colaborativos, autogestionados y felices. hablamos de lideres serviciales. El management 3.0 nos ayuda a cultivar el mindset correcto, aquel que servirá como el terreno fértil para que la agilidad florezca.
Por Andrea Vélez Cárdenas
Taller: Creación de Componentes Web re-usables con StencilJSSoftware Guru
Hoy por hoy las experiences de usuario pueden ser enriquecidas mediante el uso de Web Components, que son un estándar de la W3C soportado por la mayoría de los navegadores web modernos.
Por Alex Arriaga
El camino del full stack developer (o como hacemos en SERTI para que no solo ...Software Guru
El documento describe los pasos para convertirse en un desarrollador fullstack, incluyendo el aprendizaje de back end, front end, bases de datos, seguridad, configuración de la pila tecnológica, análisis y diseño de requisitos, y administración de sistemas. Ser fullstack es un camino continuo que requiere constante aprendizaje y actualización de habilidades.
¿Qué significa ser un programador en Bitso?Software Guru
Ser un programador en Bitso significa dominar varios lenguajes de programación como Java, PHP, React y plataformas móviles como iOS y Android, así como herramientas de desarrollo como Jenkins, Docker y Kubernetes. Bitso está buscando programadores talentosos que deseen aplicar a posiciones abiertas y puedan enviar su currículum a jobs@bitso.com.
Colaboración efectiva entre desarrolladores del cliente y tu equipo.Software Guru
Este documento presenta estrategias para mejorar la colaboración entre equipos de desarrollo de clientes y proveedores. Se discuten temas como definir requerimientos de manera clara y completa, priorizar tareas, coordinar el trabajo cuando un proyecto ya está en progreso, y comunicarse de forma efectiva a través de reuniones periódicas y herramientas como chat. El objetivo general es sobrevivir a los desafíos de la colaboración mediante la implementación de mejores prácticas.
Pruebas de integración con Docker en Azure DevOpsSoftware Guru
Este documento describe cómo implementar pruebas de integración con Docker en Azure DevOps. Explica los conceptos de pruebas de integración, Docker y Azure DevOps. Luego detalla los pasos para crear una imagen Docker con SQL Server, ejecutar un contenedor Docker para las pruebas y configurar un pipeline en Azure DevOps para compilar la imagen, ejecutar el contenedor y realizar las pruebas de integración.
Así publicamos las apps de Spotify sin stressSoftware Guru
En Spotify tenemos 1600+ ingenieros, trabajando en 280+ squads. Aún a esta escala, hemos logrado adoptar prácticas que nos han permitido acelerar la forma en que desarrollamos nuestro producto. Presentado por Erick Camacho en SG Virtual Conference 2020
Achieving Your Goals: 5 Tips to successfully achieve your goalsSoftware Guru
he measure of the executive, Peter F. Drucker reminds us, is the ability to "get the right things done." This involves having clarity on what are the right things as well as avoiding what is unproductive. Intelligence, creativity, and knowledge may all be wasted if not put to work on the things that matter.
Presentado por Cristina Nistor en SG Virtual Conference 2020
Acciones de comunidades tech en tiempos del Covid19Software Guru
Este documento describe las acciones tomadas por varias comunidades tecnológicas en México para ayudar durante la pandemia de COVID-19, incluyendo el COVID-19 Challenge, COVID3DMX, y el Observatorio de Datos COVID MX. El COVID-19 Challenge fue un concurso para desarrollar soluciones para prevenir y difundir información sobre el virus. COVID3DMX conecta las necesidades médicas con proveedores de equipo médico. Y el Observatorio de Datos COVID MX realiza un seguimiento semanal de las tendencias del virus en México
De lo operativo a lo estratégico: un modelo de management de diseñoSoftware Guru
La charla presenta un modelo claro, generado por la ponente, para atender los niveles desde lo operativo a lo estratégico.
Presentado por Gabriela Salinas en SG Virtual Conference
La inteligencia artificial sigue evolucionando rápidamente, prometiendo transformar múltiples aspectos de la sociedad mientras plantea importantes cuestiones que requieren una cuidadosa consideración y regulación.
HPE presenta una competició destinada a estudiants, que busca fomentar habilitats tecnològiques i promoure la innovació en un entorn STEAM (Ciència, Tecnologia, Enginyeria, Arts i Matemàtiques). A través de diverses fases, els equips han de resoldre reptes mensuals basats en àrees com algorísmica, desenvolupament de programari, infraestructures tecnològiques, intel·ligència artificial i altres tecnologies. Els millors equips tenen l'oportunitat de desenvolupar un projecte més gran en una fase presencial final, on han de crear una solució concreta per a un conflicte real relacionat amb la sostenibilitat. Aquesta competició promou la inclusió, la sostenibilitat i l'accessibilitat tecnològica, alineant-se amb els Objectius de Desenvolupament Sostenible de l'ONU.
KAWARU CONSULTING presenta el projecte amb l'objectiu de permetre als ciutadans realitzar tràmits administratius de manera telemàtica, des de qualsevol lloc i dispositiu, amb seguretat jurídica. Aquesta plataforma redueix els desplaçaments físics i el temps invertit en tràmits, ja que es pot fer tot en línia. A més, proporciona evidències de la correcta realització dels tràmits, garantint-ne la validesa davant d'un jutge si cal. Inicialment concebuda per al Ministeri de Justícia, la plataforma s'ha expandit per adaptar-se a diverses organitzacions i països, oferint una solució flexible i fàcil de desplegar.
Catalogo Cajas Fuertes BTV Amado Salvador Distribuidor OficialAMADO SALVADOR
Explora el catálogo completo de cajas fuertes BTV, disponible a través de Amado Salvador, distribuidor oficial de BTV. Este catálogo presenta una amplia variedad de cajas fuertes, cada una diseñada con la más alta calidad para ofrecer la máxima seguridad y satisfacer las diversas necesidades de protección de nuestros clientes.
En Amado Salvador, como distribuidor oficial de BTV, ofrecemos productos que destacan por su innovación, durabilidad y robustez. Las cajas fuertes BTV son reconocidas por su eficiencia en la protección contra robos, incendios y otros riesgos, lo que las convierte en una opción ideal tanto para uso doméstico como comercial.
Amado Salvador, distribuidor oficial BTV, asegura que cada producto cumpla con los más estrictos estándares de calidad y seguridad. Al adquirir una caja fuerte a través de Amado Salvador, distribuidor oficial BTV, los clientes pueden tener la tranquilidad de que están obteniendo una solución confiable y duradera para la protección de sus pertenencias.
Este catálogo incluye detalles técnicos, características y opciones de personalización de cada modelo de caja fuerte BTV. Desde cajas fuertes empotrables hasta modelos de alta seguridad, Amado Salvador, como distribuidor oficial de BTV, tiene la solución perfecta para cualquier necesidad de seguridad. No pierdas la oportunidad de conocer todos los beneficios y características de las cajas fuertes BTV y protege lo que más valoras con la calidad y seguridad que solo BTV y Amado Salvador, distribuidor oficial BTV, pueden ofrecerte.
Catalogo Buzones BTV Amado Salvador Distribuidor Oficial ValenciaAMADO SALVADOR
Descubra el catálogo completo de buzones BTV, una marca líder en la fabricación de buzones y cajas fuertes para los sectores de ferretería, bricolaje y seguridad. Como distribuidor oficial de BTV, Amado Salvador se enorgullece de presentar esta amplia selección de productos diseñados para satisfacer las necesidades de seguridad y funcionalidad en cualquier entorno.
Descubra una variedad de buzones residenciales, comerciales y corporativos, cada uno construido con los más altos estándares de calidad y durabilidad. Desde modelos clásicos hasta diseños modernos, los buzones BTV ofrecen una combinación perfecta de estilo y resistencia, garantizando la protección de su correspondencia en todo momento.
Amado Salvador, se compromete a ofrecer productos de primera clase respaldados por un servicio excepcional al cliente. Como distribuidor oficial de BTV, entendemos la importancia de la seguridad y la tranquilidad para nuestros clientes. Por eso, trabajamos en colaboración con BTV para brindarle acceso a los mejores productos del mercado.
Explore el catálogo de buzones ahora y encuentre la solución perfecta para sus necesidades de correo y seguridad. Confíe en Amado Salvador y BTV para proporcionarle buzones de calidad excepcional que cumplan y superen sus expectativas.
Catalogo general tarifas 2024 Vaillant. Amado Salvador Distribuidor Oficial e...AMADO SALVADOR
Descarga el Catálogo General de Tarifas 2024 de Vaillant, líder en tecnología para calefacción, ventilación y energía solar térmica y fotovoltaica. En Amado Salvador, como distribuidor oficial de Vaillant, te ofrecemos una amplia gama de productos de alta calidad y diseño innovador para tus proyectos de climatización y energía.
Descubre nuestra selección de productos Vaillant, incluyendo bombas de calor altamente eficientes, fancoils de última generación, sistemas de ventilación de alto rendimiento y soluciones de energía solar fotovoltaica y térmica para un rendimiento óptimo y sostenible. El catálogo de Vaillant 2024 presenta una variedad de opciones en calderas de condensación que garantizan eficiencia energética y durabilidad.
Con Vaillant, obtienes más que productos de climatización: control avanzado y conectividad para una gestión inteligente del sistema, acumuladores de agua caliente de gran capacidad y sistemas de aire acondicionado para un confort total. Confía en la fiabilidad de Amado Salvador como distribuidor oficial de Vaillant, y en la resistencia de los productos Vaillant, respaldados por años de experiencia e innovación en el sector.
En Amado Salvador, distribuidor oficial de Vaillant en Valencia, no solo proporcionamos productos de calidad, sino también servicios especializados para profesionales, asegurando que tus proyectos cuenten con el mejor soporte técnico y asesoramiento. Descarga nuestro catálogo y descubre por qué Vaillant es la elección preferida para proyectos de climatización y energía en Amado Salvador.