uerona es un almacén de datos virtual de autoservicio que permite una transición instantánea a un motor de SQL alojado en nube como SQL Server Data Warehouse.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
En #BigData se siguen patrones conocidos en Data Mining para el tratamiento de los Datos. El problema surge cuando tenemos que tratar grandes volúmenes de datos y realizar cargas incrementales en nuevas tecnologías que son capaces de soportar dicha carga.
¿Cómo afianzar la transformación digital con APIs de datos en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3bIcSob
Las API se han convertido en el enfoque de referencia para crear nuevas aplicaciones digitales de manera más rápida y eficiente. Son los bloques que permiten crear de forma ágil nuevos servicios digitales en base a otros existentes.
La virtualización de datos acelera el proceso de creación de APIs de datos y permite a golpe de click, sin necesidad de programar, publicar APIs integrando datos de múltiples repositorios. Todo ello utilizando los últimos estándares en cuanto a acceso a datos (GraphQL), documentación (Open API) y seguridad.
En este webinar explicaremos:
- Cómo mejorar la estrategia de API ofreciendo servicios de datos ágiles mediante la virtualización de datos
- Patrones de uso de la virtualización de datos para apificación
- Cómo simplificar el acceso y combinación de datos en arquitecturas de microservicios
Un patrón recurrente que vemos en plataformas de datos centralizadas es básicamente extraer los datos de varios sistemas operacionales para después limpiar o procesar la data y al final desifrar cómo obtener valor de los datos. El problema es que los datos son ubicuos y cambian constantemente en el tiempo y este tipo de arquitectura centralizada esta descompuesta en capacidad técnicas y simplemente no escala. En esta charla se explicará la teoría y las pruebas que se han ejecutado en ThoughtWorks, sobre Data Mesh, un paradigma que se basa en la arquitectura distribuida moderna donde se considera la división en dominios, el pensamiento de la plataforma para crear una infraestructura de datos de autoservicio y el tratamiento de los datos como un producto.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Como continuación a la presentación titulada "Introducción al mundo de las Bodegas de datos", esta presentación le explicará qué es Big Data y sus beneficios, incluyendo casos de uso. Así mismo, discutiremos cómo Hadoop, la nube y procesamiento masivamente paralelo (MPP) está cambiando la forma en los almacenes de datos se están construyendo. Hablaremos de arquitecturas híbridas que combinan datos in situ con datos en la nube, así como datos relacionales y no relacionales de datos (no estructurados). Veremos también los beneficios del MPP en SMP y cómo integrar datos desde dispositivos en la Internet (IoT). Aprenderemos también lo que debería verse como un almacén de datos moderno y cómo cuadra su papel de un mar de datos y Hadoop. Al finalizar esta exposición, tendremos una orientación sobre la mejor solución para el almacén de datos en el futuro.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
En #BigData se siguen patrones conocidos en Data Mining para el tratamiento de los Datos. El problema surge cuando tenemos que tratar grandes volúmenes de datos y realizar cargas incrementales en nuevas tecnologías que son capaces de soportar dicha carga.
¿Cómo afianzar la transformación digital con APIs de datos en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3bIcSob
Las API se han convertido en el enfoque de referencia para crear nuevas aplicaciones digitales de manera más rápida y eficiente. Son los bloques que permiten crear de forma ágil nuevos servicios digitales en base a otros existentes.
La virtualización de datos acelera el proceso de creación de APIs de datos y permite a golpe de click, sin necesidad de programar, publicar APIs integrando datos de múltiples repositorios. Todo ello utilizando los últimos estándares en cuanto a acceso a datos (GraphQL), documentación (Open API) y seguridad.
En este webinar explicaremos:
- Cómo mejorar la estrategia de API ofreciendo servicios de datos ágiles mediante la virtualización de datos
- Patrones de uso de la virtualización de datos para apificación
- Cómo simplificar el acceso y combinación de datos en arquitecturas de microservicios
Un patrón recurrente que vemos en plataformas de datos centralizadas es básicamente extraer los datos de varios sistemas operacionales para después limpiar o procesar la data y al final desifrar cómo obtener valor de los datos. El problema es que los datos son ubicuos y cambian constantemente en el tiempo y este tipo de arquitectura centralizada esta descompuesta en capacidad técnicas y simplemente no escala. En esta charla se explicará la teoría y las pruebas que se han ejecutado en ThoughtWorks, sobre Data Mesh, un paradigma que se basa en la arquitectura distribuida moderna donde se considera la división en dominios, el pensamiento de la plataforma para crear una infraestructura de datos de autoservicio y el tratamiento de los datos como un producto.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Como continuación a la presentación titulada "Introducción al mundo de las Bodegas de datos", esta presentación le explicará qué es Big Data y sus beneficios, incluyendo casos de uso. Así mismo, discutiremos cómo Hadoop, la nube y procesamiento masivamente paralelo (MPP) está cambiando la forma en los almacenes de datos se están construyendo. Hablaremos de arquitecturas híbridas que combinan datos in situ con datos en la nube, así como datos relacionales y no relacionales de datos (no estructurados). Veremos también los beneficios del MPP en SMP y cómo integrar datos desde dispositivos en la Internet (IoT). Aprenderemos también lo que debería verse como un almacén de datos moderno y cómo cuadra su papel de un mar de datos y Hadoop. Al finalizar esta exposición, tendremos una orientación sobre la mejor solución para el almacén de datos en el futuro.
Esta es una actualización de el proyecto de Big Data que ha llegado a un primer resultado, El mapa de emotividad basada en Twitter, por cada entidad de México. El siguiente paso será hacer esto en tiempo real.
Cada vez más observamos la creciente necesidad de tomar decisiones en tiempo real. Nuestro negocio esta vivo y el tomar decisiones cuanto antes nos puede suponer una ventaja competitiva respecto al resto.
Durante la siguiente sesión vamos a explorar todas las mejoras que trae SQL Server 2014 y que podemos aprovechar para dar un empujón de velocidad a nuestro sistema de BI.
¿Cuál es el futuro de la estrategia de datos?Denodo
Watch full webinar here: https://bit.ly/2JANh47
En la era del Big Data, la Inteligencia Artificial y el cloud computing, el volumen y la diversidad de datos no para de crecer. El desafío es crear los procesos, estándares y protocolos necesarios que pongan la información al servicio del negocio.
En este webinar hablaremos de las cuatro tendencias tecnológicas que guían las estrategias de datos de las compañías de todo el mundo. No te lo pierdas si quieres estar al día sobre cómo elevar el dato a la categoría de activo estratégico para ser (de verdad) data-driven:
- ¿Cuál es la evolución de las arquitecturas de provisión y gestión del dato en las grandes organizaciones? ¿Cómo ayuda el concepto de 'data fabric'?
- ¿Cómo gestionar la integración de datos distribuidos en múltiples localizaciones derivados de los cambios forzados por la migración a la nube?
- ¿Cómo las compañías pueden monetizar la infraestructura de data as service construida durante los últimos años?
- ¿Qué papel pueden jugar las técnicas de voice computing en el futuro de la analítica de datos?
Arquitectura de Data Fabric: Clave en proyectos de Big Data y Machine LearningDenodo
Watch full webinar here: https://bit.ly/3CIN2NT
Los proyectos de Big Data y Machine Learning en muchos casos no logran los beneficios esperados y los lagos de datos se convierten en nuevos silos de datos que aportan poco valor a negocio. Los principales desafíos que encuentran las empresas para un aprovechamiento de las iniciativas de Big Data y Machine Learning son los siguientes:
- Identificación de fuentes de datos relevantes para el análisis del caso de negocio
- Dificultad para la integración de las fuentes de datos, se invierte mucho tiempo en tareas rutinarias de limpieza y preparación
- Problemas de colaboración en el equipo de trabajo: falta de visibilidad de las transformaciones realizadas, dificultad para la compartición de conocimiento y código
- Dificultad para soportar distintos perfiles con niveles de conocimiento dispares (e.g. analistas de negocio vs científicos de datos)
- Compartir resultados con los usuarios de negocio, evitar un nuevo silo de datos en la organización
- Dificultad a la hora de operacionalizar los algoritmos, surtir de datos a los algoritmos para extraer la información
- Las arquitecturas de Data Fabric vienen a facilitar el ciclo de vida de las iniciativas de Big Data y Machine Learning:
- Exploración e identificación de datos relevantes para el análisis mediante el Catálogo de Datos
- Preparación de los datos para alimentar los algoritmos de ML (con total trazabilidad de las combinaciones y transformaciones realizadas)
- Parametrización del algoritmo, tuning y adiestramiento mediante data science notebooks conectados a la capa de virtualización
- Operacionalización del algoritmo como un servicio de datos para usuarios de negocio
- Ofrecen una capa de gobierno y seguridad sobre las fuentes de datos
Los ponentes debatirán las distintas alternativas y cómo las arquitecturas de Data Fabric se han convertido en piezas clave para soportar iniciativas de Big Data y Machine Learning.
Webinar: Self-service Analytics con Virtualización de DatosDenodo
Ver el webinar en completo aquí: https://goo.gl/dwGxLe
Los datos son una herramienta poderosa, pero a veces están fuera del alcance de las personas que más los necesitan. Con Self-service Analytics (Analítica de autoservicio) los usuarios de negocio pueden generar sus propios informes, ejecutar sus consultas y dirigir sus análisis sin depender siempre del personal de IT.
Pero las iniciativas self-service solo resultan eficaces cuando las visiones de los datos son holísticas y coherentes en distintas áreas de la empresa gracias a un Modelo Semántico Universal.
En este webinar explicamos la virtualización de datos elimina la brecha entre IT y Negocio y pone los datos al alcance de los usuarios que los necesitan sin comprometer la seguridad y la protección de la información.
Virtualización de datos: las claves para el análisis de datos en tiempo real ...Denodo
Watch full webinar here: https://bit.ly/33syXoM
- ¿Hay una presión creciente por parte del negocio para desplegar de forma rápida y rentable una solución de reportes analíticos?
- ¿Necesita que las aplicaciones gestionadas por las distintas áreas de su compañía compartan información crucial?
- ¿Existen restricciones que le impiden replicar datos, por lo que debe tener acceso a ellos dentro de las bases de datos de origen?
Si la respuesta a cualquiera de estas preguntas es "SÍ", entonces merece la pena que explore la tecnología de virtualización de datos.
Las técnicas de Virtualización de Datos permiten combinar orígenes de datos heterogéneos en una capa lógica que pudiera explotarse mediante reportes analíticos, aplicaciones de usuario y aplicaciones de procesamiento de transacciones en línea (OLTP). Con el enfoque de Virtualización de Datos, es posible generar de forma muy ágil reportes analíticos y proporcionar una solución robusta para apoyar la toma de decisiones.
En este webinar presentaremos cómo la solución de Denodo puede hacer la diferencia en términos de virtualización de datos, mostraremos su versatilidad y facilidad de uso y daremos a conocer cómo sería el proceso para desplegar y tener operativa la solución.
AGENDA:
- Presentación de Capgemini y Denodo
- Virtualización de Datos como pilar fundamental para poner en valor la información de la empresa
- Denodo como solución líder en Virtualización de Datos
- Demonstración en vivo del producto Denodo usando 2 escenarios
- ¿Cómo se articula la solución de Denodo en términos de un proyecto
- Preguntas y respuestas
Con Oracle Analytics Server (OAS) se abre una nueva etapa en el mundo analítico.
Oracle Business Intelligence (OBI) evoluciona y se convierte en Oracle Analytics Server (OAS). No sólo es un cambio de denominación. OAS da un salto respecto a OBI, ofreciendo capacidades Self-service, Analítica Aumentada, Flujos, Enriquecimiento de los datos y aplicación de algoritmos de Machine Learning para anticiparse al futuro, etc. Se consigue así que los usuarios sean más autónomos a la hora de obtener mejor conocimiento de su negocio.
OAS se alinea con su versión en cloud: Oracle Analytics Cloud (OAC), permitiendo también un camino a la nube en el momento que tu organización lo necesite
Conoce en este webinar qué puede aportar OAS a tu negocio y cómo podemos ayudarte a migrar desde OBI.
En esta sesión analizaremos los principales retos que enfrentan las organizaciones para aumentar su agilidad, y veremos cómo se pueden superar por medio de una combinación de personas, procesos y tecnología.
Carlos González, Hewlett Packard Enterprise, nos habla acerca en la implicación del mercado de Big Data en su negocio y el papel que una solución como Vertica juega en éste de la mano de Qlik.
Cómo simplificar las arquitecturas híbridas y multi-cloud con la virtualizaci...Denodo
Watch full webinar here: https://bit.ly/31kIo80
La migración de aplicaciones y datos a la nube es una prioridad para muchas empresas debido a la flexibilidad, agilidad y reducción de costes que ofrece. Sin embargo, este proceso no es tan sencillo ya que puede presentar desafíos relacionados con las posibles interrupciones de servicio, así como la gestión y la seguridad de la información, si no se lleva a cabo correctamente. Incluso cuando los sistemas están en la nube, la arquitectura híbrida o multi-nube resultante es más compleja de navegar para los usuarios, lo que hace más difícil que obtengan los datos que necesitan.
La virtualización de datos ayuda a las organizaciones en todas las etapas de su transición a la nube, ya sea durante la migración o en las arquitecturas híbridas o multi-nube resultantes. Participe en este webinar para aprender cómo la virtualización de datos:
- Ayuda a las organizaciones a gestionar los riesgos y a minimizar las interrupciones de servicio durante la transición de los sistemas a la nube.
- Proporciona un único punto de acceso a los datos, independientemente de su localización on-premise o en la nube, para facilitar a los usuarios la búsqueda y el acceso a los datos que necesitan.
- Proporciona una capa de seguridad para proteger y gestionar los datos cuando éstos están repartidos en arquitecturas híbridas o multi-cloud.
Webinar Vault IT: Analítica avanzada y Machine Learning con virtualización de...Denodo
Watch full webinar here: https://bit.ly/36j4ATO
Las técnicas avanzadas de ciencia de datos, como el aprendizaje automático (machine learning), son herramientas extremadamente útiles para obtener información valiosa de los datos. Sin embargo, suponen más presión para los data scientists, que tienen que buscar los datos correctos y limpiarlos para que sean utilizables. Este proceso, al final, consume la mayor parte de su tiempo.
En este webinar, explicaremos cómo la virtualización de datos ayuda a obtener la información necesaria de una manera más eficiente y ágil. Asista para descubrir:
- Cómo la virtualización de datos acelera la adquisición y el procesamiento de datos
- Cómo la solución de virtualización de datos de Denodo se integra con herramientas como Spark, Python, Zeppelin, etc.
- Cómo la virtualización de datos permite una gestión más eficiente de grandes volúmenes de datos
- Dos casos de éxito de clientes y una demo de analítica predictiva
La Base de Datos de SQL de Microsoft Azure es la mejor base de datos relacional como un servicio en la nube, que brinda escalabilidad, performance predecible, continuidad del negocio, protección de datos y administración de casi cero a desarrolladores y arquitectos de soluciones. En esta sesión veremos un overview de los servicios actuales que soporta la plataforma de datos de Microsoft Azure.
Introducción a Big Data. HDInsight - Webcast Technet SolidQSolidQ
http://university.solidq.com
Introducción a Big Data. Gracias a la nueva tecnología Microsoft Hadoop, tanto on-premise como en la nube, y a sus capacidades de almacenamiento, procesamiento y escalabilidad, podemos analizar grandes volúmenes de datos del orden de Terabytes o Petabytes de una forma rápida y con buen rendimiento. Es ahora el momento de familiarizarnos con la nueva forma de trabajar en Hadoop a la hora de extraer esa información distribuida por nuestros nodos. De la misma forma que hacemos con SQL Server, en esta sesión aprenderemos a desplegar y almacenar esa información en nuestros nodos, a crear consultas para extraer las partes que nos sean más útiles.
Querona es una base de datos virtual (LDW) que conecta fácilmente cualquier fuente de datos con Power BI, Microsoft Excel u otros. Le permite crear su propio modelo de datos universal y compartirlo entre las herramientas de generación de informes.
Esta es una actualización de el proyecto de Big Data que ha llegado a un primer resultado, El mapa de emotividad basada en Twitter, por cada entidad de México. El siguiente paso será hacer esto en tiempo real.
Cada vez más observamos la creciente necesidad de tomar decisiones en tiempo real. Nuestro negocio esta vivo y el tomar decisiones cuanto antes nos puede suponer una ventaja competitiva respecto al resto.
Durante la siguiente sesión vamos a explorar todas las mejoras que trae SQL Server 2014 y que podemos aprovechar para dar un empujón de velocidad a nuestro sistema de BI.
¿Cuál es el futuro de la estrategia de datos?Denodo
Watch full webinar here: https://bit.ly/2JANh47
En la era del Big Data, la Inteligencia Artificial y el cloud computing, el volumen y la diversidad de datos no para de crecer. El desafío es crear los procesos, estándares y protocolos necesarios que pongan la información al servicio del negocio.
En este webinar hablaremos de las cuatro tendencias tecnológicas que guían las estrategias de datos de las compañías de todo el mundo. No te lo pierdas si quieres estar al día sobre cómo elevar el dato a la categoría de activo estratégico para ser (de verdad) data-driven:
- ¿Cuál es la evolución de las arquitecturas de provisión y gestión del dato en las grandes organizaciones? ¿Cómo ayuda el concepto de 'data fabric'?
- ¿Cómo gestionar la integración de datos distribuidos en múltiples localizaciones derivados de los cambios forzados por la migración a la nube?
- ¿Cómo las compañías pueden monetizar la infraestructura de data as service construida durante los últimos años?
- ¿Qué papel pueden jugar las técnicas de voice computing en el futuro de la analítica de datos?
Arquitectura de Data Fabric: Clave en proyectos de Big Data y Machine LearningDenodo
Watch full webinar here: https://bit.ly/3CIN2NT
Los proyectos de Big Data y Machine Learning en muchos casos no logran los beneficios esperados y los lagos de datos se convierten en nuevos silos de datos que aportan poco valor a negocio. Los principales desafíos que encuentran las empresas para un aprovechamiento de las iniciativas de Big Data y Machine Learning son los siguientes:
- Identificación de fuentes de datos relevantes para el análisis del caso de negocio
- Dificultad para la integración de las fuentes de datos, se invierte mucho tiempo en tareas rutinarias de limpieza y preparación
- Problemas de colaboración en el equipo de trabajo: falta de visibilidad de las transformaciones realizadas, dificultad para la compartición de conocimiento y código
- Dificultad para soportar distintos perfiles con niveles de conocimiento dispares (e.g. analistas de negocio vs científicos de datos)
- Compartir resultados con los usuarios de negocio, evitar un nuevo silo de datos en la organización
- Dificultad a la hora de operacionalizar los algoritmos, surtir de datos a los algoritmos para extraer la información
- Las arquitecturas de Data Fabric vienen a facilitar el ciclo de vida de las iniciativas de Big Data y Machine Learning:
- Exploración e identificación de datos relevantes para el análisis mediante el Catálogo de Datos
- Preparación de los datos para alimentar los algoritmos de ML (con total trazabilidad de las combinaciones y transformaciones realizadas)
- Parametrización del algoritmo, tuning y adiestramiento mediante data science notebooks conectados a la capa de virtualización
- Operacionalización del algoritmo como un servicio de datos para usuarios de negocio
- Ofrecen una capa de gobierno y seguridad sobre las fuentes de datos
Los ponentes debatirán las distintas alternativas y cómo las arquitecturas de Data Fabric se han convertido en piezas clave para soportar iniciativas de Big Data y Machine Learning.
Webinar: Self-service Analytics con Virtualización de DatosDenodo
Ver el webinar en completo aquí: https://goo.gl/dwGxLe
Los datos son una herramienta poderosa, pero a veces están fuera del alcance de las personas que más los necesitan. Con Self-service Analytics (Analítica de autoservicio) los usuarios de negocio pueden generar sus propios informes, ejecutar sus consultas y dirigir sus análisis sin depender siempre del personal de IT.
Pero las iniciativas self-service solo resultan eficaces cuando las visiones de los datos son holísticas y coherentes en distintas áreas de la empresa gracias a un Modelo Semántico Universal.
En este webinar explicamos la virtualización de datos elimina la brecha entre IT y Negocio y pone los datos al alcance de los usuarios que los necesitan sin comprometer la seguridad y la protección de la información.
Virtualización de datos: las claves para el análisis de datos en tiempo real ...Denodo
Watch full webinar here: https://bit.ly/33syXoM
- ¿Hay una presión creciente por parte del negocio para desplegar de forma rápida y rentable una solución de reportes analíticos?
- ¿Necesita que las aplicaciones gestionadas por las distintas áreas de su compañía compartan información crucial?
- ¿Existen restricciones que le impiden replicar datos, por lo que debe tener acceso a ellos dentro de las bases de datos de origen?
Si la respuesta a cualquiera de estas preguntas es "SÍ", entonces merece la pena que explore la tecnología de virtualización de datos.
Las técnicas de Virtualización de Datos permiten combinar orígenes de datos heterogéneos en una capa lógica que pudiera explotarse mediante reportes analíticos, aplicaciones de usuario y aplicaciones de procesamiento de transacciones en línea (OLTP). Con el enfoque de Virtualización de Datos, es posible generar de forma muy ágil reportes analíticos y proporcionar una solución robusta para apoyar la toma de decisiones.
En este webinar presentaremos cómo la solución de Denodo puede hacer la diferencia en términos de virtualización de datos, mostraremos su versatilidad y facilidad de uso y daremos a conocer cómo sería el proceso para desplegar y tener operativa la solución.
AGENDA:
- Presentación de Capgemini y Denodo
- Virtualización de Datos como pilar fundamental para poner en valor la información de la empresa
- Denodo como solución líder en Virtualización de Datos
- Demonstración en vivo del producto Denodo usando 2 escenarios
- ¿Cómo se articula la solución de Denodo en términos de un proyecto
- Preguntas y respuestas
Con Oracle Analytics Server (OAS) se abre una nueva etapa en el mundo analítico.
Oracle Business Intelligence (OBI) evoluciona y se convierte en Oracle Analytics Server (OAS). No sólo es un cambio de denominación. OAS da un salto respecto a OBI, ofreciendo capacidades Self-service, Analítica Aumentada, Flujos, Enriquecimiento de los datos y aplicación de algoritmos de Machine Learning para anticiparse al futuro, etc. Se consigue así que los usuarios sean más autónomos a la hora de obtener mejor conocimiento de su negocio.
OAS se alinea con su versión en cloud: Oracle Analytics Cloud (OAC), permitiendo también un camino a la nube en el momento que tu organización lo necesite
Conoce en este webinar qué puede aportar OAS a tu negocio y cómo podemos ayudarte a migrar desde OBI.
En esta sesión analizaremos los principales retos que enfrentan las organizaciones para aumentar su agilidad, y veremos cómo se pueden superar por medio de una combinación de personas, procesos y tecnología.
Carlos González, Hewlett Packard Enterprise, nos habla acerca en la implicación del mercado de Big Data en su negocio y el papel que una solución como Vertica juega en éste de la mano de Qlik.
Cómo simplificar las arquitecturas híbridas y multi-cloud con la virtualizaci...Denodo
Watch full webinar here: https://bit.ly/31kIo80
La migración de aplicaciones y datos a la nube es una prioridad para muchas empresas debido a la flexibilidad, agilidad y reducción de costes que ofrece. Sin embargo, este proceso no es tan sencillo ya que puede presentar desafíos relacionados con las posibles interrupciones de servicio, así como la gestión y la seguridad de la información, si no se lleva a cabo correctamente. Incluso cuando los sistemas están en la nube, la arquitectura híbrida o multi-nube resultante es más compleja de navegar para los usuarios, lo que hace más difícil que obtengan los datos que necesitan.
La virtualización de datos ayuda a las organizaciones en todas las etapas de su transición a la nube, ya sea durante la migración o en las arquitecturas híbridas o multi-nube resultantes. Participe en este webinar para aprender cómo la virtualización de datos:
- Ayuda a las organizaciones a gestionar los riesgos y a minimizar las interrupciones de servicio durante la transición de los sistemas a la nube.
- Proporciona un único punto de acceso a los datos, independientemente de su localización on-premise o en la nube, para facilitar a los usuarios la búsqueda y el acceso a los datos que necesitan.
- Proporciona una capa de seguridad para proteger y gestionar los datos cuando éstos están repartidos en arquitecturas híbridas o multi-cloud.
Webinar Vault IT: Analítica avanzada y Machine Learning con virtualización de...Denodo
Watch full webinar here: https://bit.ly/36j4ATO
Las técnicas avanzadas de ciencia de datos, como el aprendizaje automático (machine learning), son herramientas extremadamente útiles para obtener información valiosa de los datos. Sin embargo, suponen más presión para los data scientists, que tienen que buscar los datos correctos y limpiarlos para que sean utilizables. Este proceso, al final, consume la mayor parte de su tiempo.
En este webinar, explicaremos cómo la virtualización de datos ayuda a obtener la información necesaria de una manera más eficiente y ágil. Asista para descubrir:
- Cómo la virtualización de datos acelera la adquisición y el procesamiento de datos
- Cómo la solución de virtualización de datos de Denodo se integra con herramientas como Spark, Python, Zeppelin, etc.
- Cómo la virtualización de datos permite una gestión más eficiente de grandes volúmenes de datos
- Dos casos de éxito de clientes y una demo de analítica predictiva
La Base de Datos de SQL de Microsoft Azure es la mejor base de datos relacional como un servicio en la nube, que brinda escalabilidad, performance predecible, continuidad del negocio, protección de datos y administración de casi cero a desarrolladores y arquitectos de soluciones. En esta sesión veremos un overview de los servicios actuales que soporta la plataforma de datos de Microsoft Azure.
Introducción a Big Data. HDInsight - Webcast Technet SolidQSolidQ
http://university.solidq.com
Introducción a Big Data. Gracias a la nueva tecnología Microsoft Hadoop, tanto on-premise como en la nube, y a sus capacidades de almacenamiento, procesamiento y escalabilidad, podemos analizar grandes volúmenes de datos del orden de Terabytes o Petabytes de una forma rápida y con buen rendimiento. Es ahora el momento de familiarizarnos con la nueva forma de trabajar en Hadoop a la hora de extraer esa información distribuida por nuestros nodos. De la misma forma que hacemos con SQL Server, en esta sesión aprenderemos a desplegar y almacenar esa información en nuestros nodos, a crear consultas para extraer las partes que nos sean más útiles.
Querona es una base de datos virtual (LDW) que conecta fácilmente cualquier fuente de datos con Power BI, Microsoft Excel u otros. Le permite crear su propio modelo de datos universal y compartirlo entre las herramientas de generación de informes.
Integración de Datos sin límites con PentahoDatalytics
Presentación de Pentaho Data Integration dada durante el foro "Las Dimensiones del BI" en Medellín (COL), donde se presentó la problemática de la integración de datos en la actualidad (cada vez más información, fuentes más diversas, datos no estructurados, etc.), como muchas empresas aún hoy intentan resolver este problema con programación SQL o similar y como Pentaho Data Integration puede no solo resolver este problema de una manera muy ágil, si no también como puede utilizarse para comenzar a analizar la información y realizar tareas de Data Discovery y Data Visualization antes de la generación de cubos, reportes, etc.
Mejorar la toma de decisiones y reducir costes con el Logical Data Warehouse ...Denodo
Watch full webinar here: https://bit.ly/3nKX3Tv
¿Qué es un logical data warehouse o almacén de datos lógicos?
Según Gartner, es una nueva arquitectura de gestión de datos para análisis que combina las fortalezas de los depósitos de repositorio tradicionales con la gestión alternativa de datos y la estrategia de acceso.
En esta sesión, explicaremos por qué Gartner recomienda utilizar la virtualización de datos como una única capa semántica para conectarse a fuentes de datos múltiples y heterogéneas, proporcionar la misma vista de datos a todos los usuarios de la empresa y aplicar políticas de seguridad y gobernanza comunes y coherentes. Todo ello sin tener que mover o replicar datos. Participe a este webinar para saber más en detalle cómo el logical data warehouse le ayudará a mejorar la toma de decisiones y reducir costes.
En este webinar explicamos:
- ¿Qué es un logical data warehouse? ¿En qué se diferencia de los modelos tradicionales?
- Casos de uso más comunes de un logical data warehouse
- Rendimiento y beneficios
- ¿Y qué es un Logical Data Lake?
- Mejores prácticas de implementación y casos de éxito de clientes
- Preguntas y respuestas
Actualmente existe una ingente cantidad de información generada a cada momento en todo nuestro entorno, la cual puede ser estructurada, semiestructurada y no estructurada. Esta información consume grandes recursos de nuestras organizaciones como memoria, procesamiento, etc. la cual debemos aprovecharla mediante la extracción de información relevante para la organización. Hoy en día ya contamos con instrumentos que nos permiten realizar un análisis inteligente de estos datos, el cual puede ser en tiempo real, que se traduce en ventajas competitivas. Por lo tanto, debemos estar familiarizados con términos y herramientas como Big Data, Mapreduce, Hadoop o computación en la nube.
Tercera Jornada de BI y analítica aplicada a tu negocio.pptxIT-NOVA
La entrega, visualización y gestión de datos para la toma de decisiones, sigue siendo una de las prioridades y tendencias de los CIO para el 2023.
Por esto, queremos que conozcas y logres comparar algunas de las plataformas de #bi y #analítica mejor valoradas en el cuadrante de Gartner: entre las cuales se encuentran #Jaspersoft, #Spotfire, #DOMO #Powerbi #sapanalyticscloud. Que te pueden ayudar a resolver tus retos de negocio.
Visita nuestra página it-nova.co y conoce más al respecto.
Palabras clave: analitica, analytics, business intelligence, data, domo, jaspersoft, microsoft, powerbi, sap, spotfire software, tibco jaspersfot, tibco spotfire.
Exploradata es una nueva compañía española la cual busca proveer, mediante los componentes de la suite Rocket, servicios de tratamiento y procesamiento de datos BigData, Smalldata con especial cuidado en la visualización
En esta presentación encontrarás información importante sobre algunas características, beneficios y ventajas que ofrece Jaspersoft para tu empresa. Cómo:
- Generar documentos tipo facturas, cuentas de cobro, órdenes de entrega, estados de cuenta, entre otros de forma masiva mediante el uso de tecnología de contenedores y/o virtualización en la nube de forma rápida y a bajo costo.
- Entregar sus documentos impresos y/o en PDF o como contenido web totalmente interactivo. Los informes de TIBCO Jaspersoft se pueden publicar en formato PDF, XLS, XLSX, XML, HTML, PPT, CSV, DOC, RTF, ODT y JSON. Entre otras.
Para más información visita nuestra página web:
www.it-nova.co
Velocidad, agilidad, todo tipo de datos, información, aplicaciones…. Lea este documento para ver el por qué podría interesar a su negocio elegir SAP HANA
Se describe por qué el mundo del Big Data va tan unido al de las Apis, qué es Big Data y las 4vs. También se describen los tipos de bases de datos noSQL, como Cassandra, DynamoDB, MongoDB... No sólo se habla de las noSQL, si no de la nueva tendencia de DWS como Amazon RedShift. Para terminar, se habla de la arquitectura Lambda y de una arquitectura típica de Apis en el mundo Big Data, con algunos ejemplos.
Mejora el Rendimiento y la Gobernanza de tus Datos con un Data Fabric LógicoDenodo
Watch full webinar here: https://bit.ly/38Xpn32
En esta presentación, veremos el papel de la arquitectura de Data Fabric lógica en el ecosistema actual de gestión de datos, revisaremos una arquitectura de referencia para gobierno de datos y nuevos patrones para gobierno federado como el Data Mesh. Presentaremos mejores prácticas de experiencias de implantación de clientes.
The FOS aims to be a space for confrontation, learning and knowledge exchange for all FOs and the asset managers of the family business.
A place to orient oneself in the new trends in terms of investment: Impact Investing, Co-Investing, Alternative Investing and Shadow Banking will be at the centre of all discussions.
Any data source becomes an SQL Query with all the power of
Apache Spark. Querona is a virtual database that seamlessly connects any data source with Power BI, TARGIT, Qlik, Tableau, Microsoft Excel or others. It lets you build your
own universal data model and share it among reporting tools.
Querona does not create another copy of your data, unless you want to accelerate your reports and use build-in execution engine created for purpose of Big Data analytics. Just write standard SQL query and let Querona consolidate data on the fly, use one of execution engines and accelerate processing no matter what kind and how many sources you have.
Negociatica = Business Intelligence + Business Process ManagementSynergo!
La empresa no se puede gestionar con una hoja de excel, la business intelligence tiene todas las respuestas a todas las preguntas. Il BPM es una alternativa a los ERP
Estrategia: pasar del “que” al “como” gracias a la NegociáticaSynergo!
Ponencia para Universidad Politecnica de Valencia del 7 de Marzo 2012. Que es la Ngociatica: Disparar cambio de procesos dependiendo de eventos es la ultima frontera de la Negociática. Poder por ejemplo cambiar la política comercial de forma automática dependiendo de los resultados: “Si las ventas bajan un 10% mejora las condiciones de pago por el mes vigente hasta llegar al objetivo marcado”. Esto es el sueño de cualquier gerente, saber que su política se va seguir de forma segura sin posibilidad de fallos en la cadena de comando, sin posibilidad de interpretaciones y retrasos. Esto pero es también muy peligroso siempre hay algo que tenemos que interpretar antes de tomar decisiones por esto los procesos son importantes pero no suficientes para la garantía de éxito: hacen falta las personas y sus inquietudes para alimentar este sistema y alguien tiene que tomar una decisión en alguna parte. No caigamos en el juego de los “ratios” que tanto esta penalizando muchos países. La empresa no es una hoja de excel, pero tampoco es un ratio.
Competencias Conversacionales para el Marketing: Liderando las relaciones y ...Synergo!
Ponencia para Universidad de Valencia del 15 de Mayo 2012: En un entorno de crisis, altamente inestable es fundamental
hacerse preguntas y buscar respuestas. Estamos en un mundo “impermanente”, luchando en un campo de batalla inmenso con pocos recursos, sin ninguna regla… esto le llaman Crisis. Indice Ponencia: Enfoque sistémico
La impermanencia
El líder observador
La escucha
El proyecto ilusionante
Los arquetipos del ser
Conversaciones Eficientes
Dinámica de Grupo
Ponencia para Universidad de Leon año 2012: Dowshifitng o Reducción de marcha es un comportamiento social o tendencia en la que los individuos viven vidas más simples para escapar de la carrera de ratas del materialismo obsesivo y reducir la tensión, stress y los trastornos psicológicos que la acompañan. Se hace hincapié en encontrar un equilibrio mejor entre el ocio y el trabajo, y centra los objetivos de la vida en la realización personal y la construcción de relaciones en lugar del consumismo y el éxito económico. (Fuente Wikipedia)
“Hay espacio para una nueva fórmula empresarial donde se prime la independencia de los colaboradores. Un movimiento colectivo revolucionario que empieza con una revolución interior e individual de las personas. Un lugar donde el cliente y el proyecto asuman el protagonismo dejando de lado el concepto ya poco realista de la marca. Un espacio de convivencia donde los colaboradores puedan creer en unos valores consensuados y puedan optar para ser ellos mismos los agentes del cambio. Este espacio es la “no-empresa”, un lugar donde diferentes profesionales trabajan de forma trasversal en proyectos, unos “artesanos” que se dedican en aportar un valor concreto y no solo intangible a los clientes. Un lugar de confianza, un lugar de transparencia, un lugar de consenso y sobre todo un lugar de aprendizaje.... No existe una formula univoca para salir de situaciones laborales complicadas, donde mucha gente vive en una dictadura. La dictadura de la nómina, donde nos medimos con el parámetro más vulgar posible: el dinero.
Localización de productos y clientes para el exito en el mercado internacionalSynergo!
En la Jornada ‘Localización de productos y clientes para el éxito en el mercado internacional’, en la que se abordarán temas de especial interés para las empresas que quieran acceder a nuevos mercados o aquellas ya involucradas en procesos de internacionalización.
El programa se ha desarrolado en el marco de la iniciativa Enterprise Europe Network y contará con el experto en inteligencia de negocio y marketing Michele Iurillo, que cuenta con amplia experiencia en internacionalización y es autor del libro ‘Downshifitng, Decrecimiento y Empresa Des-estructurada’ dedicado a una nueva forma de dar valor a los clientes y ser sostenible.
Se ha explicado a los empresarios extremeños presentes, mecanismos para adaptar sus productos a las necesidades de cada mercado, la búsqueda de clientes y una gestión eficiente de las redes sociales, así como para dar a conocer modelos de empresas emergentes
La jornada también pretende asesorar a las empresas en aspectos claves del marketing de cara a la internacionalización, como el 'Marketing Mix Internacional´, la segmentación y el posicionamiento internacional o los nuevos modelos de consumidor.
Sobre Enterprise Europe Network
La Enterprise Europe Network agrupa a casi 600 organizaciones de más de 50 países dentro y fuera de las fronteras de la UE, ofreciendo una serie de servicios para conectar a las empresas con Europa.
La internacionalización, la transferencia de tecnología, la financiación y el asesoramiento empresarial son los ejes que vertebran el trabajo de la Enterprise Europe Network, gestionada en Extremadura a través de FUNDECYT-PCTEx, como organismo socio del consorcio ACTIS, del que también forman parte Aragón, Castilla-La Mancha, La Rioja y Navarra.
Sobre Synergo!
Synergo! (http://www.synergo.es) Es una empresa “des-estructurada” de consultoría integral. Todos los facilitadores de Synergo! trabajan en red y cada perfil suma conocimiento a los proyectos transversales que son necesarios en las empresas y en los colectivos empresariales. Las diferentes áreas de Synergo! son: inteligencia de negocio, estrategia, formación en habilidades directivas y liderazgo, gestión de procesos BPM, logística, marketing, imagen y arquitectura corporativa, comunicación y social media. Eliminando los costes de estructura la propuesta de valor puede estar al alcance de empresas de cualquier tamaño, la experiencia es en entorno multinacionales y la eficacia son parte del ADN de Synergo!
Ponencia para Ceei Valencia año 2011: Ya has conseguido la financiación, ya has definido tu producto, ya hay que defender nuestro valor y confrontarnos con el mercado. Entonces estás en el “día cero”. Es el momento de hacerse preguntas y buscar respuestas.
En mi trayectoria profesional, laboral y personal me ha pasado de todo voy a dar un enfoque diferente sin caer en la facilidad del “consejo”, lo que vale para mi puede ser que no tenga sentido para otros, pero lo que más importa es la actitud frente al entorno tan competitivo. Los costes de estructura no flexibles son la causa principal del ver pasar una empresa de activo a pasivo en un entorno de crisis. Estos “Dinosaurios Corporativos” usando palabras de Toffler no son sostenibles en una economía de decrecimiento. El nuevo paradigma pretende una total flexibilidad y un nuevo enfoque sistémico orientado al resultado y al reconocimiento del colaborador. Sólo aquellos que realmente aportan a la empresa en términos directos pueden ser parte de su estructura, que de todas formas va a ser flexible.
Es un diagrama para La asistencia técnica o apoyo técnico es brindada por las compañías para que sus clientes puedan hacer uso de sus productos o servicios de la manera en que fueron puestos a la venta.
En este documento analizamos ciertos conceptos relacionados con la ficha 1 y 2. Y concluimos, dando el porque es importante desarrollar nuestras habilidades de pensamiento.
Sara Sofia Bedoya Montezuma.
9-1.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Índice del libro "Big Data: Tecnologías para arquitecturas Data-Centric" de 0...Telefónica
Índice del libro "Big Data: Tecnologías para arquitecturas Data-Centric" de 0xWord escrito por Ibón Reinoso ( https://mypublicinbox.com/IBhone ) con Prólogo de Chema Alonso ( https://mypublicinbox.com/ChemaAlonso ). Puedes comprarlo aquí: https://0xword.com/es/libros/233-big-data-tecnologias-para-arquitecturas-data-centric.html
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta in...espinozaernesto427
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta intensidad son un tipo de lámpara eléctrica de descarga de gas que produce luz por medio de un arco eléctrico entre electrodos de tungsteno alojados dentro de un tubo de alúmina o cuarzo moldeado translúcido o transparente.
lámparas más eficientes del mercado, debido a su menor consumo y por la cantidad de luz que emiten. Adquieren una vida útil de hasta 50.000 horas y no generan calor alguna. Si quieres cambiar la iluminación de tu hogar para hacerla mucho más eficiente, ¡esta es tu mejor opción!
Las nuevas lámparas de descarga de alta intensidad producen más luz visible por unidad de energía eléctrica consumida que las lámparas fluorescentes e incandescentes, ya que una mayor proporción de su radiación es luz visible, en contraste con la infrarroja. Sin embargo, la salida de lúmenes de la iluminación HID puede deteriorarse hasta en un 70% durante 10,000 horas de funcionamiento.
Muchos vehículos modernos usan bombillas HID para los principales sistemas de iluminación, aunque algunas aplicaciones ahora están pasando de bombillas HID a tecnología LED y láser.1 Modelos de lámparas van desde las típicas lámparas de 35 a 100 W de los autos, a las de más de 15 kW que se utilizan en los proyectores de cines IMAX.
Esta tecnología HID no es nueva y fue demostrada por primera vez por Francis Hauksbee en 1705. Lámpara de Nernst.
Lámpara incandescente.
Lámpara de descarga. Lámpara fluorescente. Lámpara fluorescente compacta. Lámpara de haluro metálico. Lámpara de vapor de sodio. Lámpara de vapor de mercurio. Lámpara de neón. Lámpara de deuterio. Lámpara xenón.
Lámpara LED.
Lámpara de plasma.
Flash (fotografía) Las lámparas de descarga de alta intensidad (HID) son un tipo de lámparas de descarga de gas muy utilizadas en la industria de la iluminación. Estas lámparas producen luz creando un arco eléctrico entre dos electrodos a través de un gas ionizado. Las lámparas HID son conocidas por su gran eficacia a la hora de convertir la electricidad en luz y por su larga vida útil.
A diferencia de las luces fluorescentes, que necesitan un recubrimiento de fósforo para emitir luz visible, las lámparas HID no necesitan ningún recubrimiento en el interior de sus tubos. El propio arco eléctrico emite luz visible. Sin embargo, algunas lámparas de halogenuros metálicos y muchas lámparas de vapor de mercurio tienen un recubrimiento de fósforo en el interior de la bombilla para mejorar el espectro luminoso y reproducción cromática. Las lámparas HID están disponibles en varias potencias, que van desde los 25 vatios de las lámparas de halogenuros metálicos autobalastradas y los 35 vatios de las lámparas de vapor de sodio de alta intensidad hasta los 1.000 vatios de las lámparas de vapor de mercurio y vapor de sodio de alta intensidad, e incluso hasta los 1.500 vatios de las lámparas de halogenuros metálicos.
Las lámparas HID requieren un equipo de control especial llamado balasto para funcionar
1. Steroids for your BI
Despliegue más rápido - Mayor rendimiento - Modificaciones más fáciles
2. La necesidad de análisis de datos
Las empresas de hoy en día tienen una gran cantidad de datos, tanto internos como externos.
¿Cómo convertirse en una empresa impulsada por datos?
Una empresa que sabe utilizar todos sus datos es
una organización basada en datos que tiene una ventaja competitiva.
Encuentra todos sus datos
(descubrimiento de datos)
Coloque todos sus
datos en un solo lugar
(integración de datos)
Analizar datos, crear
informes, encontrar
tendencias
(Data Science, Business
Intelligence)
La empresa está
basada en datos y
tiene una ventaja
competitiva
3. La realidad
6-9m antes de que los datos estén
"integrados" y estén disponibles para
análisis, los cambios son caros
Encuentra todos sus datos
(descubrimiento de datos)
Coloque todos sus
datos en un solo lugar
(integración de datos)
Analizar datos, crear
informes, encontrar
tendencias
(Data Science, Business
Intelligence)
La empresa está
basada en datos y
tiene una ventaja
competitivs
El negocio espera meses para los
primeros cuadros de mando o
semanas para cada nuevo
Los ingenieros de datos dependen de TI para cargar datos en un
"Enterprise Data Warehouse" central, semanas de retraso
4. Componentes de un entorno de datos tradicional
Data sources
CRM
ERP
Database
Enterprise
Data
Warehouse
Central copy of
all data
Data integration
(copying data)
El programa de instalación toma un proyecto de integración de datos 6-9m
(ETL)
Presentation
tools
Users
Use data
Business users
Data Scientists and
Data Analysts
5. Problemas más comunes de los grupos de usuario
Business
• El negocio no puede adaptar
su proceso de negocio de una
manera ágil
• Las decisiones se hacen sobre
datos obsoletos, la empresa
quiere reaccionar en tiempo
real
Data analyst / data
scientist
• Encontrar los datos adecuados
para la presentación de
informes o el análisis es un
trabajo duro, los datos están en
todas partes
• Dependencia de TI para la
gestión de datos y la
preparación de datos, incluso si
los usuarios podrían hacer
muchas de esas tareas
IT
•Un proyecto de configuración
EDW tradicional es 6-9m
Los cambios en EDW toman
semanas
• No es capaz de responder a
las necesidades de los
analistas de negocios y datos /
científicos de manera oportuna
• Transición a un almacén de
datos en la nube
6. Los Problemas más comunes en un segmento de clientes
Enterprises
Empresas modernas basadas en
datos
PMI
Problema central
La empresa necesita una vista única de todos los datos
A nivel de unidad de negocio, los problemas se multiplican y
hay cierta entropia. Los problemas son los mismos que se
encuentran en las empresas guidada poe datos y la PMI
No agility for data analysts and data scientists
Heavy dependency on IT for data management
Costos elevados de una configuración EDW: costosos
especialistas en integración de datos y 6-9m de trabajo para
ETL
7. La solución
Evite un Data Warehouse tradicional y acceda a todos los datos prácticamente ...
Disponga todos los datos en un solo lugar ...
Habilitar el autoservicio para la administración de datos ...
... y los analistas de TI y de datos y los científicos pueden encontrar lo que necesitan
para el trabajo
... y la configuración de un entorno de datos se acorta de meses a semanas (-75%)
... y los usuarios de TI y de energía no dependen tanto
8. The solution is known as a Logical Data Warehouse
Data sources
CRM
ERP
Database
Enterprise Data
Warehouse
Presentation
tools
Users
Use data
Business users
Data Scientists and
Data Analysts
Conecte todas las fuentes de
datos
Poner los datos a disposición en
tiempo real
Combine cualquier información
sobre la marcha
Utilice el antiguo EDW como otra
fuente
Logical Data Warehouse
Cloud LDW
9. Gartner reconoce LDW en DW Magic Quadrant 2016
El Cuadrante Mágico de Gartner para el Data
Warehouse y las Soluciones de Administración
de Datos para Analytics 2016 suscitó mucha
discusión en la comunidad de DW después de
su publicación en marzo de 2016.
“A finales de febrero, Gartner lanzó el último Cuadrante Mágico 2016 para Data
Warehouse y Soluciones de Gestión de Datos para Analytics
(http://www.gartner.com/doc/reprint?id=1-2ZFVZ5B&ct=160225&st=sb). El mayor
take-away de este año fue las tendencias clave a observar en un mercado de almacén
de datos en rápida evolución. (...) Para los profesionales de los datos, el informe
completo es una lectura fantástica para entender a dónde va dirigida nuestra industria y
la aparición del almacén de datos lógico (LDW) en un mundo híbrido de datos".
10. La gestión de datos de autoservicio en alza
Trends on the Rise
Esto es Querona! Source:
https://www.betterbuys.com/bi/2017-bi-trends/
Queronaayuda
tambienaqui
11. Glosario
Enterprise Data Warehouse (EDW) – base de datos central que mantiene una copia de datos
de todos los sistemas
ETL – "Extract-Transform-Load", un proceso pesado de copiar datos de una fuente (CRM,
ERP) a un almacén de datos (EDW)
Data Virtualization (DV) – simulación de un motor de base de datos que expone los datos de
todos los sistemas en un solo lugar, sin ETL, en tiempo real, conectando cualquier dato
Logical Data Warehouse (LDW) – implementación de un Data Warehouse por Data
Virtualization, exponiendo instantáneamente todos los datos, sin importar dónde estén
Apache Spark – el motor de datos más popular usado por Data Scientists
12. 3
2
1
Querona – base de datos virtual para análisis de Big Data
Conecta varias fuentes de datos (~ 100)
Ingesta sus fuentes de datos fácilmente (3 clics)
Consolida datos al vuelo
(instantáneamente)
4 Permite el acceso en tiempo real a cualquier dato
(sin latencia)
Self-service
13. Your existing data sources
ETL-free virtual database,
Apache Spark powered
User-friendly front-ends
keep it as it is to reduce risk
set up to facilitate &
accelerate BI
use what users know for years
Querona como centro de datos para análisis
Complete Logical Data Wareuse: ETL-free, self-service, Big Data ready, utilizing Apache Spark.
14. Querona features
• Interfaz de usuario de autoservicio similar a Microsoft Azure
Compatibilidad con hilos de SQL Server (compatible con
cualquier herramienta de BI)
• Compatibilidad con el lenguaje de SQL Server (Transact-SQL),
traducido a ~ 100 otras fuentes de datos
• Acceso a fuentes en tiempo real y en caché
• Características de seguridad: más de 50 tipos de derechos de
acceso aplicados en 5 niveles, seguridad de acceso a filas,
enmascaramiento de datos, Kerberos, anonimización
transparente de datos (GDPR relevante)
• Spark Embedded Apache
• Almacenamiento en caché en tres clics, gestionado por un
programador
• Soporte para fuentes de datos relacionales (ODBC / ADO.NET
/ JDBC *) y no relacionales (consulte: todos los controladores
en www.cdata.com)
• Gestión de datos: seguimiento de linaje de datos, etiquetado
Preagregación automática que convierte cualquier base de
datos SQL en un cubo OLAP eficiente
•
15. La Magia de Querona
Platafoma de Logical Data Warehousing
• Motor de virtualización de datos compatible con
Microsoft SQL Server
• Potenciado con Apache Spark para procesamiento de
gran escala de datos
• Procesamiento rápido de consultas en memoria
• Interfaz de usuario diseñada para autoservicio
16. Lo que NO ES Querona
Business Intelligence frontend tool
Debido a que estamos trabajando en la capa de gestión de datos,
debajo de cualquier herramienta de Business Intelligence
Otro SQL database
Hay demasiados motores de SQL y motores Big Data, pero
carecen de administración de datos de autoservicio o soporte
de herramientas de BI
Event streaming system for IoT
Los sistemas de streaming (como Apache Storm) son
fundamentalmente diferentes de los sistemas basados en
SQL pero Querona es compatible con Kappa Architecture!
17. BI Trends 2017 – relevance to Querona
Source: BI Trends Monitor 2017
Data source catalog
Relevance Querona core feature
Self-service data management portal
Logical Data Warehouse as an Enterprise Data Hub
Easy integration of Big Data and cloud SQL engines
Data Hub with unified security and data
masking
Agile data modeling using Querona self-service features
Self-service data management
Apache Spark integration and support for other SQL engines
Logical Data Warehousing using Data Virtualization
Real-time access to data
sources
Self-service data management
REST API converted to a virtual SQL database in real-time
Cloud BI tools can use Querona as a data gateway to data sources
18. Segmentación de clientes y necesidades
Enterprise
Data-driven
PMI
• Enteprise Data Hub
• Data Governance
• Big Data / IoT analytics on Hadoop
• Self-service data management
• Cloud hybrid data warehousing
• Simple ETL-free data warehousing
• Cost effective Big Data/Cloud data warehousing
Querona apunta a empresas que quieren hacer uso
de sus datos, pero también ayuda a Pymes o
cualquier empresa para despliegues de BI de
departamento
19. 3
2
1
Querona Propuesta de Valor
Disminuya el costo del almacenamiento de datos utilizando
Apache Spark o un almacén de datos en la nube
Comience a informar desde el primer día, cree una vista
única de todos los datos de la empresa para obtener una
visión instantánea del cliente a 360º
Conviértase en una empresa moderna guiada por datos y
haga que los analistas de datos sean independientes de TI
para administrar los datos
20. ¿Qué ganas?
• 75% menos tiempo de solución
• 2x aumento performance
• 10x una transición más rápida a Big Data
• Preparación para las regulaciones GDPR de la UE
21. Casos de uso de Logical Data Warehousing
Those use cases are a summary of Querona’s PoC projects
Problem Querona Value Proposition
Cuadros de aceleración de BI
35
Apache Spark utilizado como caché para EDW, preagregados
automáticos y reescritura de consultas habilitados hasta 25x de
aceleración de informes
Construir una plataforma de
datos para los científicos de
datos
Lugar único para encontrar todos los datos utilizados por Data
Scientists, además anonimizados
Marketing basado en eventos
Detectar eventos relevantes de marketing (basados en el
comportamiento de un cliente), rellenar con información adicional y
exponer para el envío
No ETL data warehousing
Almacén de datos lógico de autoservicio que reduce el coste de un
proyecto de BI
Vista del cliente de 360 grados
Agregación de información de clientes de múltiples sistemas de
CRM (después de M & A)
22. Quien se beneficia de Querona
Business
•Acorta la preparación de
datos para proyectos de BI en
un 75%
•Simplifica la transformación
digital para convertirse en una
empresa impulsada por datos
•Los usuarios empresariales
esperan nuevos informes al
instante sin esperar cambios
en el EDW
Data analyst / data scientist
•Capacita a los usuarios en las
actividades de gestión de
datos: buscar, conectar,
consultar
•Hace que el usuario de energía
dependa menos de TI
•Con una interfaz de autoservicio
adecuada, LDW es una caja de
arena perfecta para análisis y
comprobación escenarios
IT
•Fácil transición a un almacén de
datos en la nube: conectar, elegir
datos, reconstruir caché
•Las plataformas Big Data pueden
ser utilizadas para análisis
•Separación del deber entre los
analistas de TI y de negocios /
datos
•Reescritura automática de
consultas para usar preagregados
acelera las consultas 10x y ahorra
costos de infraestructura
Querona ayuda a todas las partes interesadas en Inteligencia de Negocios
23. Relevancia de Querona para cumplimiento GDPR
Identificar y clasificar todas
las fuentes de datos
Buscar datos personales adicionales
ocultos en los datos
Solución Querona
Conecte todas las fuentes de datos en Querona, aplique
etiquetas como "FirstName", "Phone" a tablas y columnas
Utilice Querona como un solo lugar para ejecutar consultas estándar
compatibles con SQL Server y examinar los datos en un solo lugar
Aplicar seguridad de datos, enmascaramiento de datos dinámicos y
anonimización transparente de los datos almacenados en un almacén
de datos
Cumplimiento GDPR
paso de implementación
Asegúrese de que los datos personales no
estén expuestos a usuarios no autorizado
Aplicar una directiva de acceso a datos
compatible con GDPR
Utilice Querona como un único proxy de acceso a datos compatible con
GDPR para análisis y cualquier iniciativa de perfil de clientes
24. Modelo de precios
Modelo Pago por Uso
• Suscripción anual, basada en el usuario
Basado en el recuento de usuarios
Compatible con licencias de herramientas de BI
Escalas de pequeños a grandes despliegues
• Dos tipos de usuarios
Power User - administradores, científicos de
datos - 1000 EURO / año
Herramienta BI Usuario final - 350 EURO / año
Alternative models
• El modelo basado en el usuario puede
convertirse en un modelo de
capacidad (número de núcleos de la
CPU)
Perpetual license + 25% de cuota de
mantenimiento anual a petición