Cristobal Urenda, CEO de A10, entrega una visión general sobre la industria junto a los representantes de las compañías líderes en Big Data y Analytics que participan en este seminario: HPE y Qlik.
En esta sesión, Raul Fernandez, Solution Architect de A10, indaga en cómo explotar el real valor de los grades datos de HPE Vertica junto con las herramientas para el análisis significativo y perspicaz de la información.
Carlos González, Hewlett Packard Enterprise, nos habla acerca en la implicación del mercado de Big Data en su negocio y el papel que una solución como Vertica juega en éste de la mano de Qlik.
Business Intelligence (B.I.). La Plataforma PentahoT.I.C
Un resumen muy práctico para entender como funcionan las plataformas de B.I. (Business Intelligence o Negocios Inteligentes), en particular Pentaho BI Community Edition
Las herramientas de reportería y análisis de datos no son nuevas pero vemos cada día empresas que no han podido aprovechar el potencial de sus herramientas de BI. Es frecuente encontrar varias plataforma de BI en una empresa. Porque Pentaho tiende a perdurar y difundirse más que otras herramientas de BI dentro de la empresa ?
Presentación "Aplicaciones de BI con Pentaho", dada por Datalytics en la segunda edición de las Jornadas de Minería de Datos organizadas por la cátedra de Sistemas de Gestión 2 de la UTN Regional Rosario
Lecciones aprendidas en la gestión de datos en tiempos de pandemiaDenodo
Watch full webinar here: https://bit.ly/2MVUsso
2020 ha puesto a prueba las capacidades de gestión y reacción al cambio de muchas industrias, especialmente en los sectores sanitarios, de educación y sector público. La gestión de datos, punto clave en la toma de decisiones informadas, ha tenido que adaptarse a las necesidades cambiantes de la nueva normalidad forzada por la evolución de la pandemia.
En este webinar vamos a revisar:
- Proyectos que nuestros clientes han implementado gracias a la virtualización de datos
- Analizar la aplicación de esas ideas en otros ámbitos e industrias
- Entender el proceso de producción de los flujos ágiles de gestión de datos
Mejorar la toma de decisiones y reducir costes con el Logical Data Warehouse ...Denodo
Watch full webinar here: https://bit.ly/3nKX3Tv
¿Qué es un logical data warehouse o almacén de datos lógicos?
Según Gartner, es una nueva arquitectura de gestión de datos para análisis que combina las fortalezas de los depósitos de repositorio tradicionales con la gestión alternativa de datos y la estrategia de acceso.
En esta sesión, explicaremos por qué Gartner recomienda utilizar la virtualización de datos como una única capa semántica para conectarse a fuentes de datos múltiples y heterogéneas, proporcionar la misma vista de datos a todos los usuarios de la empresa y aplicar políticas de seguridad y gobernanza comunes y coherentes. Todo ello sin tener que mover o replicar datos. Participe a este webinar para saber más en detalle cómo el logical data warehouse le ayudará a mejorar la toma de decisiones y reducir costes.
En este webinar explicamos:
- ¿Qué es un logical data warehouse? ¿En qué se diferencia de los modelos tradicionales?
- Casos de uso más comunes de un logical data warehouse
- Rendimiento y beneficios
- ¿Y qué es un Logical Data Lake?
- Mejores prácticas de implementación y casos de éxito de clientes
- Preguntas y respuestas
En esta sesión, Raul Fernandez, Solution Architect de A10, indaga en cómo explotar el real valor de los grades datos de HPE Vertica junto con las herramientas para el análisis significativo y perspicaz de la información.
Carlos González, Hewlett Packard Enterprise, nos habla acerca en la implicación del mercado de Big Data en su negocio y el papel que una solución como Vertica juega en éste de la mano de Qlik.
Business Intelligence (B.I.). La Plataforma PentahoT.I.C
Un resumen muy práctico para entender como funcionan las plataformas de B.I. (Business Intelligence o Negocios Inteligentes), en particular Pentaho BI Community Edition
Las herramientas de reportería y análisis de datos no son nuevas pero vemos cada día empresas que no han podido aprovechar el potencial de sus herramientas de BI. Es frecuente encontrar varias plataforma de BI en una empresa. Porque Pentaho tiende a perdurar y difundirse más que otras herramientas de BI dentro de la empresa ?
Presentación "Aplicaciones de BI con Pentaho", dada por Datalytics en la segunda edición de las Jornadas de Minería de Datos organizadas por la cátedra de Sistemas de Gestión 2 de la UTN Regional Rosario
Lecciones aprendidas en la gestión de datos en tiempos de pandemiaDenodo
Watch full webinar here: https://bit.ly/2MVUsso
2020 ha puesto a prueba las capacidades de gestión y reacción al cambio de muchas industrias, especialmente en los sectores sanitarios, de educación y sector público. La gestión de datos, punto clave en la toma de decisiones informadas, ha tenido que adaptarse a las necesidades cambiantes de la nueva normalidad forzada por la evolución de la pandemia.
En este webinar vamos a revisar:
- Proyectos que nuestros clientes han implementado gracias a la virtualización de datos
- Analizar la aplicación de esas ideas en otros ámbitos e industrias
- Entender el proceso de producción de los flujos ágiles de gestión de datos
Mejorar la toma de decisiones y reducir costes con el Logical Data Warehouse ...Denodo
Watch full webinar here: https://bit.ly/3nKX3Tv
¿Qué es un logical data warehouse o almacén de datos lógicos?
Según Gartner, es una nueva arquitectura de gestión de datos para análisis que combina las fortalezas de los depósitos de repositorio tradicionales con la gestión alternativa de datos y la estrategia de acceso.
En esta sesión, explicaremos por qué Gartner recomienda utilizar la virtualización de datos como una única capa semántica para conectarse a fuentes de datos múltiples y heterogéneas, proporcionar la misma vista de datos a todos los usuarios de la empresa y aplicar políticas de seguridad y gobernanza comunes y coherentes. Todo ello sin tener que mover o replicar datos. Participe a este webinar para saber más en detalle cómo el logical data warehouse le ayudará a mejorar la toma de decisiones y reducir costes.
En este webinar explicamos:
- ¿Qué es un logical data warehouse? ¿En qué se diferencia de los modelos tradicionales?
- Casos de uso más comunes de un logical data warehouse
- Rendimiento y beneficios
- ¿Y qué es un Logical Data Lake?
- Mejores prácticas de implementación y casos de éxito de clientes
- Preguntas y respuestas
¿Cómo afianzar la transformación digital con APIs de datos en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3bIcSob
Las API se han convertido en el enfoque de referencia para crear nuevas aplicaciones digitales de manera más rápida y eficiente. Son los bloques que permiten crear de forma ágil nuevos servicios digitales en base a otros existentes.
La virtualización de datos acelera el proceso de creación de APIs de datos y permite a golpe de click, sin necesidad de programar, publicar APIs integrando datos de múltiples repositorios. Todo ello utilizando los últimos estándares en cuanto a acceso a datos (GraphQL), documentación (Open API) y seguridad.
En este webinar explicaremos:
- Cómo mejorar la estrategia de API ofreciendo servicios de datos ágiles mediante la virtualización de datos
- Patrones de uso de la virtualización de datos para apificación
- Cómo simplificar el acceso y combinación de datos en arquitecturas de microservicios
Webinar: Self-service Analytics con Virtualización de DatosDenodo
Ver el webinar en completo aquí: https://goo.gl/dwGxLe
Los datos son una herramienta poderosa, pero a veces están fuera del alcance de las personas que más los necesitan. Con Self-service Analytics (Analítica de autoservicio) los usuarios de negocio pueden generar sus propios informes, ejecutar sus consultas y dirigir sus análisis sin depender siempre del personal de IT.
Pero las iniciativas self-service solo resultan eficaces cuando las visiones de los datos son holísticas y coherentes en distintas áreas de la empresa gracias a un Modelo Semántico Universal.
En este webinar explicamos la virtualización de datos elimina la brecha entre IT y Negocio y pone los datos al alcance de los usuarios que los necesitan sin comprometer la seguridad y la protección de la información.
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
Cree cuadros de mando, informes y visualizaciones de datos interactivos y personalizados. La función de arrastrar y soltar permite que la integración de datos de varias fuentes resulte sencilla. Utilice esta aplicación gratuita de Windows® para obtener más información sobre sus datos en solo cinco minutos.
Arquitectura de Data Fabric: Clave en proyectos de Big Data y Machine LearningDenodo
Watch full webinar here: https://bit.ly/3CIN2NT
Los proyectos de Big Data y Machine Learning en muchos casos no logran los beneficios esperados y los lagos de datos se convierten en nuevos silos de datos que aportan poco valor a negocio. Los principales desafíos que encuentran las empresas para un aprovechamiento de las iniciativas de Big Data y Machine Learning son los siguientes:
- Identificación de fuentes de datos relevantes para el análisis del caso de negocio
- Dificultad para la integración de las fuentes de datos, se invierte mucho tiempo en tareas rutinarias de limpieza y preparación
- Problemas de colaboración en el equipo de trabajo: falta de visibilidad de las transformaciones realizadas, dificultad para la compartición de conocimiento y código
- Dificultad para soportar distintos perfiles con niveles de conocimiento dispares (e.g. analistas de negocio vs científicos de datos)
- Compartir resultados con los usuarios de negocio, evitar un nuevo silo de datos en la organización
- Dificultad a la hora de operacionalizar los algoritmos, surtir de datos a los algoritmos para extraer la información
- Las arquitecturas de Data Fabric vienen a facilitar el ciclo de vida de las iniciativas de Big Data y Machine Learning:
- Exploración e identificación de datos relevantes para el análisis mediante el Catálogo de Datos
- Preparación de los datos para alimentar los algoritmos de ML (con total trazabilidad de las combinaciones y transformaciones realizadas)
- Parametrización del algoritmo, tuning y adiestramiento mediante data science notebooks conectados a la capa de virtualización
- Operacionalización del algoritmo como un servicio de datos para usuarios de negocio
- Ofrecen una capa de gobierno y seguridad sobre las fuentes de datos
Los ponentes debatirán las distintas alternativas y cómo las arquitecturas de Data Fabric se han convertido en piezas clave para soportar iniciativas de Big Data y Machine Learning.
El cloud computing o trabajar en la nube nos permite acceder a las mejores aplicaciones sin tener que invertir en infraestructura. En esta sesión hablaremos de las principales aplicaciones que se están ofreciendo bajo este modelo y también hablaremos de sus principales ventajas para poder argumentar su implantación en la empresa.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
Cómo simplificar las arquitecturas híbridas y multi-cloud con la virtualizaci...Denodo
Watch full webinar here: https://bit.ly/31kIo80
La migración de aplicaciones y datos a la nube es una prioridad para muchas empresas debido a la flexibilidad, agilidad y reducción de costes que ofrece. Sin embargo, este proceso no es tan sencillo ya que puede presentar desafíos relacionados con las posibles interrupciones de servicio, así como la gestión y la seguridad de la información, si no se lleva a cabo correctamente. Incluso cuando los sistemas están en la nube, la arquitectura híbrida o multi-nube resultante es más compleja de navegar para los usuarios, lo que hace más difícil que obtengan los datos que necesitan.
La virtualización de datos ayuda a las organizaciones en todas las etapas de su transición a la nube, ya sea durante la migración o en las arquitecturas híbridas o multi-nube resultantes. Participe en este webinar para aprender cómo la virtualización de datos:
- Ayuda a las organizaciones a gestionar los riesgos y a minimizar las interrupciones de servicio durante la transición de los sistemas a la nube.
- Proporciona un único punto de acceso a los datos, independientemente de su localización on-premise o en la nube, para facilitar a los usuarios la búsqueda y el acceso a los datos que necesitan.
- Proporciona una capa de seguridad para proteger y gestionar los datos cuando éstos están repartidos en arquitecturas híbridas o multi-cloud.
¿Cuál es el futuro de la estrategia de datos?Denodo
Watch full webinar here: https://bit.ly/2JANh47
En la era del Big Data, la Inteligencia Artificial y el cloud computing, el volumen y la diversidad de datos no para de crecer. El desafío es crear los procesos, estándares y protocolos necesarios que pongan la información al servicio del negocio.
En este webinar hablaremos de las cuatro tendencias tecnológicas que guían las estrategias de datos de las compañías de todo el mundo. No te lo pierdas si quieres estar al día sobre cómo elevar el dato a la categoría de activo estratégico para ser (de verdad) data-driven:
- ¿Cuál es la evolución de las arquitecturas de provisión y gestión del dato en las grandes organizaciones? ¿Cómo ayuda el concepto de 'data fabric'?
- ¿Cómo gestionar la integración de datos distribuidos en múltiples localizaciones derivados de los cambios forzados por la migración a la nube?
- ¿Cómo las compañías pueden monetizar la infraestructura de data as service construida durante los últimos años?
- ¿Qué papel pueden jugar las técnicas de voice computing en el futuro de la analítica de datos?
All the content of this website is informative and non-commercial, does not imply a commitment to develop, launch or schedule delivery of any feature or functionality, should not rely on it in making decisions, incorporate or take it as a reference in a contract or academic matters. Likewise, the use, distribution and reproduction by any means, in whole or in part, without the authorization of the author and / or third-party copyright holders, as applicable, is prohibited.
Experiencia de Implantación de una Fábrica de Datos: Air EuropaDenodo
Watch full webinar here: https://bit.ly/3lOWrMw
La Fábrica de Datos (Data Fabric) es una arquitectura lógica que facilita la integración y el consumo de los datos, aún cuando éstos se encuentran en distintas plataformas tecnológicas tanto en sistemas on-prem como en la nube. Un data fabric es la respuesta a los desafíos que encontramos en las arquitecturas de Data Management hoy en día, construidas en base a silos de información, difíciles de gobernar y en constante evolución tecnológica.
Según Gartner, “La clave de una Fábrica de Datos es conseguir consolidar multitud de fuentes de datos dispersas de una forma eficiente para permitir la entrega de datos confiables desde las fuentes relevantes a las aplicaciones de negocio a través de una capa de acceso común”.
Hay distintas alternativas tecnológicas para implementar esta arquitectura y Air Europa ha optado por la virtualización de datos para lograrlo. En este webinar, José Carlos Bermejo, Head of Data & Analytics en AirEuropa, nos cuenta su experiencia de implantación de una fábrica de datos con el apoyo de la tecnología de Denodo. Conéctate a este webinar para conocer:
- ¿Qué es una fábrica de datos?
- Ventajas de una Arquitectura de Data Fabric basada en la Virtualización de Datos
- Retos de las arquitecturas Data Fabric
- Experiencia de implantación de un data fabric en AirEuropa
Que son las herramientas de inteligencia de negocios, sus características y algunos ejemplos de estas herramientas en software privativo y software libre.
Virtualización de datos: las claves para el análisis de datos en tiempo real ...Denodo
Watch full webinar here: https://bit.ly/33syXoM
- ¿Hay una presión creciente por parte del negocio para desplegar de forma rápida y rentable una solución de reportes analíticos?
- ¿Necesita que las aplicaciones gestionadas por las distintas áreas de su compañía compartan información crucial?
- ¿Existen restricciones que le impiden replicar datos, por lo que debe tener acceso a ellos dentro de las bases de datos de origen?
Si la respuesta a cualquiera de estas preguntas es "SÍ", entonces merece la pena que explore la tecnología de virtualización de datos.
Las técnicas de Virtualización de Datos permiten combinar orígenes de datos heterogéneos en una capa lógica que pudiera explotarse mediante reportes analíticos, aplicaciones de usuario y aplicaciones de procesamiento de transacciones en línea (OLTP). Con el enfoque de Virtualización de Datos, es posible generar de forma muy ágil reportes analíticos y proporcionar una solución robusta para apoyar la toma de decisiones.
En este webinar presentaremos cómo la solución de Denodo puede hacer la diferencia en términos de virtualización de datos, mostraremos su versatilidad y facilidad de uso y daremos a conocer cómo sería el proceso para desplegar y tener operativa la solución.
AGENDA:
- Presentación de Capgemini y Denodo
- Virtualización de Datos como pilar fundamental para poner en valor la información de la empresa
- Denodo como solución líder en Virtualización de Datos
- Demonstración en vivo del producto Denodo usando 2 escenarios
- ¿Cómo se articula la solución de Denodo en términos de un proyecto
- Preguntas y respuestas
Un patrón recurrente que vemos en plataformas de datos centralizadas es básicamente extraer los datos de varios sistemas operacionales para después limpiar o procesar la data y al final desifrar cómo obtener valor de los datos. El problema es que los datos son ubicuos y cambian constantemente en el tiempo y este tipo de arquitectura centralizada esta descompuesta en capacidad técnicas y simplemente no escala. En esta charla se explicará la teoría y las pruebas que se han ejecutado en ThoughtWorks, sobre Data Mesh, un paradigma que se basa en la arquitectura distribuida moderna donde se considera la división en dominios, el pensamiento de la plataforma para crear una infraestructura de datos de autoservicio y el tratamiento de los datos como un producto.
¿Cómo afianzar la transformación digital con APIs de datos en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3bIcSob
Las API se han convertido en el enfoque de referencia para crear nuevas aplicaciones digitales de manera más rápida y eficiente. Son los bloques que permiten crear de forma ágil nuevos servicios digitales en base a otros existentes.
La virtualización de datos acelera el proceso de creación de APIs de datos y permite a golpe de click, sin necesidad de programar, publicar APIs integrando datos de múltiples repositorios. Todo ello utilizando los últimos estándares en cuanto a acceso a datos (GraphQL), documentación (Open API) y seguridad.
En este webinar explicaremos:
- Cómo mejorar la estrategia de API ofreciendo servicios de datos ágiles mediante la virtualización de datos
- Patrones de uso de la virtualización de datos para apificación
- Cómo simplificar el acceso y combinación de datos en arquitecturas de microservicios
Webinar: Self-service Analytics con Virtualización de DatosDenodo
Ver el webinar en completo aquí: https://goo.gl/dwGxLe
Los datos son una herramienta poderosa, pero a veces están fuera del alcance de las personas que más los necesitan. Con Self-service Analytics (Analítica de autoservicio) los usuarios de negocio pueden generar sus propios informes, ejecutar sus consultas y dirigir sus análisis sin depender siempre del personal de IT.
Pero las iniciativas self-service solo resultan eficaces cuando las visiones de los datos son holísticas y coherentes en distintas áreas de la empresa gracias a un Modelo Semántico Universal.
En este webinar explicamos la virtualización de datos elimina la brecha entre IT y Negocio y pone los datos al alcance de los usuarios que los necesitan sin comprometer la seguridad y la protección de la información.
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
Cree cuadros de mando, informes y visualizaciones de datos interactivos y personalizados. La función de arrastrar y soltar permite que la integración de datos de varias fuentes resulte sencilla. Utilice esta aplicación gratuita de Windows® para obtener más información sobre sus datos en solo cinco minutos.
Arquitectura de Data Fabric: Clave en proyectos de Big Data y Machine LearningDenodo
Watch full webinar here: https://bit.ly/3CIN2NT
Los proyectos de Big Data y Machine Learning en muchos casos no logran los beneficios esperados y los lagos de datos se convierten en nuevos silos de datos que aportan poco valor a negocio. Los principales desafíos que encuentran las empresas para un aprovechamiento de las iniciativas de Big Data y Machine Learning son los siguientes:
- Identificación de fuentes de datos relevantes para el análisis del caso de negocio
- Dificultad para la integración de las fuentes de datos, se invierte mucho tiempo en tareas rutinarias de limpieza y preparación
- Problemas de colaboración en el equipo de trabajo: falta de visibilidad de las transformaciones realizadas, dificultad para la compartición de conocimiento y código
- Dificultad para soportar distintos perfiles con niveles de conocimiento dispares (e.g. analistas de negocio vs científicos de datos)
- Compartir resultados con los usuarios de negocio, evitar un nuevo silo de datos en la organización
- Dificultad a la hora de operacionalizar los algoritmos, surtir de datos a los algoritmos para extraer la información
- Las arquitecturas de Data Fabric vienen a facilitar el ciclo de vida de las iniciativas de Big Data y Machine Learning:
- Exploración e identificación de datos relevantes para el análisis mediante el Catálogo de Datos
- Preparación de los datos para alimentar los algoritmos de ML (con total trazabilidad de las combinaciones y transformaciones realizadas)
- Parametrización del algoritmo, tuning y adiestramiento mediante data science notebooks conectados a la capa de virtualización
- Operacionalización del algoritmo como un servicio de datos para usuarios de negocio
- Ofrecen una capa de gobierno y seguridad sobre las fuentes de datos
Los ponentes debatirán las distintas alternativas y cómo las arquitecturas de Data Fabric se han convertido en piezas clave para soportar iniciativas de Big Data y Machine Learning.
El cloud computing o trabajar en la nube nos permite acceder a las mejores aplicaciones sin tener que invertir en infraestructura. En esta sesión hablaremos de las principales aplicaciones que se están ofreciendo bajo este modelo y también hablaremos de sus principales ventajas para poder argumentar su implantación en la empresa.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
Cómo simplificar las arquitecturas híbridas y multi-cloud con la virtualizaci...Denodo
Watch full webinar here: https://bit.ly/31kIo80
La migración de aplicaciones y datos a la nube es una prioridad para muchas empresas debido a la flexibilidad, agilidad y reducción de costes que ofrece. Sin embargo, este proceso no es tan sencillo ya que puede presentar desafíos relacionados con las posibles interrupciones de servicio, así como la gestión y la seguridad de la información, si no se lleva a cabo correctamente. Incluso cuando los sistemas están en la nube, la arquitectura híbrida o multi-nube resultante es más compleja de navegar para los usuarios, lo que hace más difícil que obtengan los datos que necesitan.
La virtualización de datos ayuda a las organizaciones en todas las etapas de su transición a la nube, ya sea durante la migración o en las arquitecturas híbridas o multi-nube resultantes. Participe en este webinar para aprender cómo la virtualización de datos:
- Ayuda a las organizaciones a gestionar los riesgos y a minimizar las interrupciones de servicio durante la transición de los sistemas a la nube.
- Proporciona un único punto de acceso a los datos, independientemente de su localización on-premise o en la nube, para facilitar a los usuarios la búsqueda y el acceso a los datos que necesitan.
- Proporciona una capa de seguridad para proteger y gestionar los datos cuando éstos están repartidos en arquitecturas híbridas o multi-cloud.
¿Cuál es el futuro de la estrategia de datos?Denodo
Watch full webinar here: https://bit.ly/2JANh47
En la era del Big Data, la Inteligencia Artificial y el cloud computing, el volumen y la diversidad de datos no para de crecer. El desafío es crear los procesos, estándares y protocolos necesarios que pongan la información al servicio del negocio.
En este webinar hablaremos de las cuatro tendencias tecnológicas que guían las estrategias de datos de las compañías de todo el mundo. No te lo pierdas si quieres estar al día sobre cómo elevar el dato a la categoría de activo estratégico para ser (de verdad) data-driven:
- ¿Cuál es la evolución de las arquitecturas de provisión y gestión del dato en las grandes organizaciones? ¿Cómo ayuda el concepto de 'data fabric'?
- ¿Cómo gestionar la integración de datos distribuidos en múltiples localizaciones derivados de los cambios forzados por la migración a la nube?
- ¿Cómo las compañías pueden monetizar la infraestructura de data as service construida durante los últimos años?
- ¿Qué papel pueden jugar las técnicas de voice computing en el futuro de la analítica de datos?
All the content of this website is informative and non-commercial, does not imply a commitment to develop, launch or schedule delivery of any feature or functionality, should not rely on it in making decisions, incorporate or take it as a reference in a contract or academic matters. Likewise, the use, distribution and reproduction by any means, in whole or in part, without the authorization of the author and / or third-party copyright holders, as applicable, is prohibited.
Experiencia de Implantación de una Fábrica de Datos: Air EuropaDenodo
Watch full webinar here: https://bit.ly/3lOWrMw
La Fábrica de Datos (Data Fabric) es una arquitectura lógica que facilita la integración y el consumo de los datos, aún cuando éstos se encuentran en distintas plataformas tecnológicas tanto en sistemas on-prem como en la nube. Un data fabric es la respuesta a los desafíos que encontramos en las arquitecturas de Data Management hoy en día, construidas en base a silos de información, difíciles de gobernar y en constante evolución tecnológica.
Según Gartner, “La clave de una Fábrica de Datos es conseguir consolidar multitud de fuentes de datos dispersas de una forma eficiente para permitir la entrega de datos confiables desde las fuentes relevantes a las aplicaciones de negocio a través de una capa de acceso común”.
Hay distintas alternativas tecnológicas para implementar esta arquitectura y Air Europa ha optado por la virtualización de datos para lograrlo. En este webinar, José Carlos Bermejo, Head of Data & Analytics en AirEuropa, nos cuenta su experiencia de implantación de una fábrica de datos con el apoyo de la tecnología de Denodo. Conéctate a este webinar para conocer:
- ¿Qué es una fábrica de datos?
- Ventajas de una Arquitectura de Data Fabric basada en la Virtualización de Datos
- Retos de las arquitecturas Data Fabric
- Experiencia de implantación de un data fabric en AirEuropa
Que son las herramientas de inteligencia de negocios, sus características y algunos ejemplos de estas herramientas en software privativo y software libre.
Virtualización de datos: las claves para el análisis de datos en tiempo real ...Denodo
Watch full webinar here: https://bit.ly/33syXoM
- ¿Hay una presión creciente por parte del negocio para desplegar de forma rápida y rentable una solución de reportes analíticos?
- ¿Necesita que las aplicaciones gestionadas por las distintas áreas de su compañía compartan información crucial?
- ¿Existen restricciones que le impiden replicar datos, por lo que debe tener acceso a ellos dentro de las bases de datos de origen?
Si la respuesta a cualquiera de estas preguntas es "SÍ", entonces merece la pena que explore la tecnología de virtualización de datos.
Las técnicas de Virtualización de Datos permiten combinar orígenes de datos heterogéneos en una capa lógica que pudiera explotarse mediante reportes analíticos, aplicaciones de usuario y aplicaciones de procesamiento de transacciones en línea (OLTP). Con el enfoque de Virtualización de Datos, es posible generar de forma muy ágil reportes analíticos y proporcionar una solución robusta para apoyar la toma de decisiones.
En este webinar presentaremos cómo la solución de Denodo puede hacer la diferencia en términos de virtualización de datos, mostraremos su versatilidad y facilidad de uso y daremos a conocer cómo sería el proceso para desplegar y tener operativa la solución.
AGENDA:
- Presentación de Capgemini y Denodo
- Virtualización de Datos como pilar fundamental para poner en valor la información de la empresa
- Denodo como solución líder en Virtualización de Datos
- Demonstración en vivo del producto Denodo usando 2 escenarios
- ¿Cómo se articula la solución de Denodo en términos de un proyecto
- Preguntas y respuestas
Un patrón recurrente que vemos en plataformas de datos centralizadas es básicamente extraer los datos de varios sistemas operacionales para después limpiar o procesar la data y al final desifrar cómo obtener valor de los datos. El problema es que los datos son ubicuos y cambian constantemente en el tiempo y este tipo de arquitectura centralizada esta descompuesta en capacidad técnicas y simplemente no escala. En esta charla se explicará la teoría y las pruebas que se han ejecutado en ThoughtWorks, sobre Data Mesh, un paradigma que se basa en la arquitectura distribuida moderna donde se considera la división en dominios, el pensamiento de la plataforma para crear una infraestructura de datos de autoservicio y el tratamiento de los datos como un producto.
• Designed and developed a Master Server for an Airline Reservation System using C++ socket programming.
• Had the most enhanced user experience along with the number of features like Encryption, SMTP, IPV6, Database, Multi-threading, Backup and Restore etc.,
Exploradata es una nueva compañía española la cual busca proveer, mediante los componentes de la suite Rocket, servicios de tratamiento y procesamiento de datos BigData, Smalldata con especial cuidado en la visualización
Solucion de Inteligencia de Negocios, convierta los datos de su Empresa en Información que le permita tomar Decisiones correctas en el momento indicado, basado en SQL Server y Sharepoint Services. Presentado por OLAM & Login.
Impulse el crecimiento empresarial con aplicaciones y experiencias con tecnol...Cade Soluciones
Impulse el crecimiento empresarial con aplicaciones y experiencias con tecnología de IA.
Explore formas de utilizar las herramientas de Azure AI para crear aplicaciones nativas de la nube que mejoren las experiencias de los clientes e impulsen el crecimiento empresarial.
Top 10 tendencias de la inteligencia de negocios en el mundo (Top 10 trends in business intelligence globally).
Presentación realizada para estudiantes y profesionales de CEDHINFO y vista por aprox. 2,800 personas vía zoom y facebook.
Nota 1: Esta presentación contiene slides algunos de ellos sin una descripción, dado que la descripción fue dada de forma hablada durante el workshop.
Nota 2: En el segundo Slide hay un typo. Debe decir: Mg. Daniel Paredes. Ingeniería de Sistemas de la UNI.
Azure4Research - Big Data Analytics con Hadoop, Spark y Power BIAlberto Diaz Martin
n esta sesión, veremos el desarrollo de un proceso de AI con Azure Databricks que nos ayudará a trabajar con datos estructurados y no estructurados, a obtener una visión profunda del algoritmo a implementar e incluso crear un ciclo aprendizaje en tiempo real. El objetivo será adentrarnos en un proyecto de AI para preparar los datos, realizar el análisis que nos permita elegir un algoritmo, entrenar un modelo y ejecutar una predicción de dicho modelo. Todo esto con mucho Big Data y Power BI como herramienta de Reporting.
Inteligencia de negocios - Business Intelligence
ingluye ETL, Data Mining, Data Warehouse, OLAP
Explicación breve para clase de Ingeniería en Gestión Empresarial IGE
Ipsos, empresa de investigación de mercados y opinión pública, divulgó su informe N°29 “Claves Ipsos” correspondiente al mes de abril, que encuestó a 800 personas con el fin de identificar las principales opiniones y comportamientos de las y los ciudadanos respecto de temas de interés para el país. En esta edición se abordó la a Carabineros de Chile, su evaluación, legitimidad en su actuar y el asesinato de tres funcionarios en Cañete. Además, se consultó sobre el Ejército y la opinión respecto de la marcha en Putre.
5. Estas fuentes contienen todos los datos que necesitas para tu
negocio?
Planificación, presupuestos, forecast
Aplicaciones transaccionales Corp
Clientes
Apps transaccionales adaptadas
Hojas de Calculo
Internos no-estructurados
Productos
Logs de Sistemas
Científicos
3ros
Aliados
Video, imágenes, audio
Sensores
Logs de Web
Redes Sociales
Datos móviles de consumidores
No-estructurados externos
Base: 603 tomadores de decisiones globales involucrados iniciativas de; Inteligencia de Negocios (Analítica), administracion de
datos y gobernabilidad
Fuente: Forrsights Strategy Spotlight: Business Intelligence And Big Data, Q4 2012
Muy importante
Importante
6. Que otras fuentes de datos tienes? Les estas sacando provecho?
Muy importante
Importante
Las empresas con
mejores rendimientos
son un 24% mas
proclives a usar datos
mas allá de datos de
cliente y producto
Las empresas con
mejores rendimiento son
un 32% mas proclives a
usar diversas fuentes de
datos
Planificación, presupuestos, forecast
Aplicaciones transaccionales Corp
Clientes
Apps transaccionales adaptadas
Hojas de Calculo
Internos no-estructurados
Productos
Logs de Sistemas
Científicos
3ros
Aliados
Video, imágenes, audio
Sensores
Logs de Web
Redes Sociales
Datos móviles de consumidores
No-estructurados externos
Base: 603 tomadores de decisiones globales involucrados iniciativas de; Inteligencia de Negocios (Analítica), administracion de
datos y gobernabilidad
Fuente: Forrsights Strategy Spotlight: Business Intelligence And Big Data, Q4 2012
7. Las nuevas oportunidades estan en areas fuera de lo tradicional
Big Data
Discovery
Data Discovery
Big Data
Data Science
Nuevas oportunidades de
Negocios
Valor del
Dato (4V)
Analítica
tradicional
Volumen / Variedad / Velocidad 3Vs
9. 1. Extraer
2. Clasificar / Almacenar
3. Analizar / Visualizar
Visión de Negocio
Retail Comportamiento
del cliente
Meteorológico Renta Regional Demográficos
Como te ayuda A10?
10. Big Data Discovery =
Big Data
Analítica Avanzada
Data Discovery
Paradigmas que A10 aplica
11. Que incluimos en nuestra oferta de analítica
ANALÍTICA AVANZADA
Descriptivo Diagnóstico Predictivo Prescriptivo
Que esta pasando? Porque Ocurrió? Que va a ocurrir?
Como podemos
asegurarnos
que suceda?
ANALÍTICA ANALÍTICA AVANZADA
Aritmética Sencilla
Reportes / Tableros
Plataformas comunes de BI
“Nivel de Confort”
Ciencia de Datos
Solución de problemas de negocios
Herramientas basadas en matemática
Otras cosas extrañas ...
12. Modelo de Madurez Analytics10: entendemos que no todas las
soluciones requieren aplicar todos los pasos
VALOR
Nivel 1 - Datos
Acceso
a datos
Asociación
Y Blending
Información
relevante
para Usuario
Eventos, Alarmas,
Sugerencias
Nivel 2 - Información Nivel 3 - Conocimiento Nivel 4 - Acción
13. Proceso de supervisión y alcance de A10
Big Data
Millones de datos que pueden provenir
de distintas fuentes
Data blending y Analitica avanzada
Qlik permite a los usuarios manejar fácilmente su data
y Alteryx permite mezclar data y hacer análisis avanzado
Data Discovery Self Service
Los usuarios son los protagonistas par
analizar fácilmente los datos
Supervisión y alcance de
A10
14. Entendemos como implantar soluciones en ambientes de TI corporativos complejos
Sistemas
Operacionales
(ejemplos)
Area de trabajo Ciencia de Datos
Modelos
Prodictivo
s
Minerva
de
datos
Discovery
Un area de trabajo de Ciencia de Datos
facilita la Exploración (Discovery)
data exploration and discovery
Area de
Pruebas
(Sandbox)
Data
Warehouse
Corporativo
Herramienta
BI
Corporativa
Data Warehouse
departamental /
BD de BI
Herramienta BI
Departamental
Entrega
BI
Entrega
BI
Extraer-transformar y cargar
(no ETL!) significa que los
datos son transformados y
cargados hacia los spokes o
radios solo cuando
necesario Entrega BI sobre Big Data
Herramientas BI conscientes de estructuras Big-
data pueden operar contra datos que no están
trabajando bajo algún patron predefinido. Pueden
acceder directamente al Hub y hacer Discovery
mientras herramientas tradicionales solo contra
Data-warehouse o BD relacionases.
Algunas soluciones
Data-warehouse y
BD de BI han
integrado
funcionalidad para
soportar Hadoop.
Estas pueden ser
consideradas parte
del Hub o de un
Spoke según uno
prefiera.
Muchos Data
warehouse y BD de
BI se han transferido
hacia los Spokes.
ETL tradicional en
Data-warehouse
entregan calidad y
estructura que es en
ciertos casos
necesitada para
entregar soporte de
calidad.
Hub de Datos
distribuidos
Servicios de transformación
del Hub
Apps
empaquetadas
Apps
móviles
SaaS -
PaaS
apps
ECM
Apps
Customizadas
BPM
DCM
Social
Sitios Web
2
1
3
3
3
3
4
5
5
5
5
6
HUB
SO
DW / BD BI
Area de Pruebas
Big data
Stand
alone
Data Warehouse
departamental /
BD de BI
Herramienta BI
Departamental
Data Warehouse
departamental /
BD de BI
15. Ayudamos a crear centros de excelencia o trabajar bajo la estructura que tu empresa decida
Principios Organizacionales para posicionar a equipos de Analítica Avanzada y Científicos de Datos A10 2016
AA/CD = Analítica Avanzada/Científicos de Datos | LN = Línea de Negocios | CEA = Centro de Excelencia de Analítica
Agilidad
Visión que cruce funciones
Compartir conocimiento
Cercanía al negocio
Cercanía al procesamiento y
los datos
Científicos de datos @ Línea de
negocios
Científicos de datos @ IT Científicos de datos separados
de la unidad de negocios
Expertos dispersos CEA
16. US, Western Europe, Japan, Canada, Australia, NZ
Source: IDC, 2014
Desarrollamos con modelo SCRUM
PRODUCT
BACKLOG
SPRINT
BACKLOG
PRODUCTO
POTENCIALMENTE ENTREGABLE
EN CADA INCREMENTO
XX TIEMPO
SPRINT
XX TIEMPO
DAILY SPRINT
18. Y podemos entregar la solución final en diferentes casos de
uso
Embedded analytics
Analíticas
incorporadas
Custom analytics applications
Aplicaciones de
análisis a la medida
Self-service data visualization
Visualizaciones
con autoservicio
Guided analytics
Analítica
guiada
Reporting and collaboration
Reportería
y colaboración
Análisis descentralizado y
exploración de los
individuos y grupos
Despliegue de analítica
guiada a los usuarios
Analíticas incorporadas en
aplicaciones web y
aplicaciones
empresariales
Aplicaciones de análisis a
medida para uso interno y
externo
Distribución de informes
“Pixel-perfect” en toda la
empresa
20. En Analytics10 contamos hoy con mas de 700 clientes, conformados por las mas grandes
corporaciones de LATAM, así como empresas especializadas con operación local.
A cada una de ellas brindamos soporte de excelencia a través de un equipo conformado por 150
colaboradores, quienes junto a nuestras tecnologías de vanguardia y sólidos procesos, permiten
dar respuesta a sus necesidades y requerimientos específicos orientados a solucionar problemas
complejos simplificando su implementación y asegurando siempre el mejor resultado .
Porque es a eso a lo que aspiramos: queremos que la maxima cantidad de personas puedan
sacar provecho, en cada aspecto de sus vidas, de los beneficios que entrega la analítica. Esa es
la razón por la cual seguimos repitiendo nuestro Mantra … Analytics Made Simple.
Nuestro viaje no para, seguimos constantemente buscando formas de evolucionar en todo lo que
hacemos y nos proponemos, al servicios de nuestros clientes
Analytics Made Simple