KEEDIO: Arquitecturas Big Data
INDICE
Lo que es Big Data
La cadena de valor de Big Data
Casos de uso – Con éxitos y fracasos
Roles de Big Data y el cambio en las organizaciones
Cómo lo hacemos: Con una plataforma y metodología
2016 ULL Cabildo KEEDIO - Proyecto y Roles Big DataKEEDIO
KEEDIO: Proyecto y Roles Big Data
INDICE
Lo que es Big Data y su futuro
La cadena de valor de Big Data
Casos de uso – Con éxitos y fracasos
Roles de Big Data y el cambio en las organizaciones
Cómo lo hacemos: Con una plataforma y metodología
El documento describe la plataforma de datos Keedio Data Stack (KDS), que incluye múltiples módulos para la ingesta, almacenamiento, procesamiento y análisis de datos. Los módulos se basan en herramientas de código abierto como Apache Flume, HDFS, Kafka, Spark y Elasticsearch. La plataforma ofrece capacidades de ingesta de datos, procesamiento por lotes y en tiempo real, almacenamiento a largo plazo, orquestación de flujos de trabajo y análisis avanzado. La interfaz Keedio Manager
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
Este documento describe los primeros pasos para trabajar con Big Data. Primero, define la transformación digital como un proceso mediante el cual las empresas transforman su estructura de negocio para explotar el potencial del canal digital. Luego, destaca algunos desafíos comunes de los proyectos de Big Data, como que las empresas solo perciben parte del valor o que más del 50% de los proyectos no llegan a buen término. Finalmente, presenta una sesión de evaluación/descubrimiento de Big Data para detectar casos de uso que mejoren el negocio
En #BigData se siguen patrones conocidos en Data Mining para el tratamiento de los Datos. El problema surge cuando tenemos que tratar grandes volúmenes de datos y realizar cargas incrementales en nuevas tecnologías que son capaces de soportar dicha carga.
Este documento presenta conceptos generales sobre Big Data e impacto en los negocios. Explica que Big Data se refiere a conjuntos de datos muy grandes o complejos que requieren nuevas formas de procesamiento. Describe características como tamaño, diversidad y velocidad de los datos, así como ejemplos de casos de negocio como mejorar la eficiencia operacional y la experiencia del cliente. Finalmente, discute riesgos como privacidad y seguridad, y tendencias futuras como análisis distribuido y computación cognitiva.
2016 ULL Cabildo KEEDIO - Proyecto y Roles Big DataKEEDIO
KEEDIO: Proyecto y Roles Big Data
INDICE
Lo que es Big Data y su futuro
La cadena de valor de Big Data
Casos de uso – Con éxitos y fracasos
Roles de Big Data y el cambio en las organizaciones
Cómo lo hacemos: Con una plataforma y metodología
El documento describe la plataforma de datos Keedio Data Stack (KDS), que incluye múltiples módulos para la ingesta, almacenamiento, procesamiento y análisis de datos. Los módulos se basan en herramientas de código abierto como Apache Flume, HDFS, Kafka, Spark y Elasticsearch. La plataforma ofrece capacidades de ingesta de datos, procesamiento por lotes y en tiempo real, almacenamiento a largo plazo, orquestación de flujos de trabajo y análisis avanzado. La interfaz Keedio Manager
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
Este documento describe los primeros pasos para trabajar con Big Data. Primero, define la transformación digital como un proceso mediante el cual las empresas transforman su estructura de negocio para explotar el potencial del canal digital. Luego, destaca algunos desafíos comunes de los proyectos de Big Data, como que las empresas solo perciben parte del valor o que más del 50% de los proyectos no llegan a buen término. Finalmente, presenta una sesión de evaluación/descubrimiento de Big Data para detectar casos de uso que mejoren el negocio
En #BigData se siguen patrones conocidos en Data Mining para el tratamiento de los Datos. El problema surge cuando tenemos que tratar grandes volúmenes de datos y realizar cargas incrementales en nuevas tecnologías que son capaces de soportar dicha carga.
Este documento presenta conceptos generales sobre Big Data e impacto en los negocios. Explica que Big Data se refiere a conjuntos de datos muy grandes o complejos que requieren nuevas formas de procesamiento. Describe características como tamaño, diversidad y velocidad de los datos, así como ejemplos de casos de negocio como mejorar la eficiencia operacional y la experiencia del cliente. Finalmente, discute riesgos como privacidad y seguridad, y tendencias futuras como análisis distribuido y computación cognitiva.
Big Data, Big Customer Value, Big ResultsMundo Contact
Este documento presenta los conceptos clave de Big Data y cómo las empresas pueden obtener valor de los grandes volúmenes de datos. Define Big Data, discute los desafíos como la calidad y consistencia de los datos, y describe siete pasos para el análisis de Big Data que incluyen la recolección, procesamiento, almacenamiento y consumo de datos. El objetivo final es que las empresas puedan tomar mejores decisiones comerciales y ofrecer una experiencia más personalizada para los clientes basada en los datos.
El documento describe varias tecnologías que están avanzando de manera exponencial, como la computación, internet móvil, robótica avanzada y vehículos autónomos. También describe cómo estas tecnologías están acelerando el progreso tecnológico de acuerdo a la ley de retornos acelerados, donde los avances tecnológicos pasados permiten nuevos y más rápidos avances. El documento analiza el impacto potencial de estas tecnologías exponenciales en áreas como la medicina, agricultura y más.
Esta es una actualización de el proyecto de Big Data que ha llegado a un primer resultado, El mapa de emotividad basada en Twitter, por cada entidad de México. El siguiente paso será hacer esto en tiempo real.
Este documento describe la evolución del procesamiento de grandes volúmenes de datos, desde los primeros esfuerzos de Google para procesar grandes matrices hasta el desarrollo de frameworks como MapReduce y Hadoop. También analiza cómo herramientas de Business Intelligence y minería de datos se han actualizado para aprovechar estas nuevas tecnologías de Big Data, permitiendo nuevos modelos de negocio y demandas laborales.
Big Data para analizar las redes socialesDatKnoSys
El principal objetivo es mostrar el análisis de cantidades elevadas de información que nos proporcionan las redes sociales gracias a sistemas Big Data. Haciendo frente a la complejidad de la variedad de orígenes, el gran volumen de las mismas y la velocidad de procesamiento que se necesita.
Se incidirá principalmente en los siguientes puntos clave: la recogida de datos, su procesamiento (con ejemplo de text mining para conseguir descifrar el sentimiento) y en la visualización final.
¿Sabías que cada minuto se mandan 13 millones de mensajes se suben 48 horas de vídeo a YouTube y se crean 571 nuevas páginas web? Internet es un generador de grandes cantidades de información y este contenido lo generan los usuarios, nuestros clientes, por eso hay que saber adaptarse a este nuevo socio económico y aprovechar el valor de la información que nos ofrece. Es importante implantar sistemas de Big Data que nos ayuden a almacenar, buscar, compartir, analizar y visualizar estas grandes cantidades de datos y con ello conseguir valor. No hay que olvidar que tan importante como es instalar un sistema big data, es definirlo conforme a nuestras necesidades.
Introducción a Big Data. HDInsight - Webcast Technet SolidQSolidQ
Este documento presenta una introducción a Big Data, incluyendo las tendencias de la industria, definiciones de Big Data, ejemplos de datos masivos, y utilidades de Big Data. También describe escenarios de análisis empresarial utilizando herramientas como Hadoop, Hive y HDInsight, y cómo Microsoft Excel puede usarse para explotar y analizar grandes conjuntos de datos.
El término “Data Science” se ha vuelto muy popular recientemente con el aumento de popularidad de las redes sociales, análisis predictivos y el análisis de datos no estructurados como parte del crecimiento del “Big Data”. En esta sesión estaremos viendo que es “Data Science”, que necesitamos saber o aprender para poder convertirnos en un científico de datos y estaremos viendo algunos ejemplos de usos muy comunes usando lenguajes como Python, R y el cómo podemos integrar estos en SQL Server y Azure . Al final de esta charla tendrás un entendimiento más amplio de las técnicas de manejos de datos, modelamiento, visualización y los lenguajes y productos para poner tus proyectos en marcha.
Presentación semana académica unam big data abril 2015Peter Kroll
Este documento compara Business Intelligence y Big Data. Business Intelligence ayuda a encontrar respuestas a preguntas conocidas mediante el análisis de datos estructurados, mientras que Big Data ayuda a descubrir nuevas preguntas a través del análisis de grandes volúmenes de datos estructurados y no estructurados procedentes de múltiples fuentes. El documento también describe los componentes clave de un sistema de Business Intelligence y proporciona ejemplos de cómo diferentes industrias están aprovechando los datos para mejorar sus operaciones y toma de decisiones.
El documento presenta las consideraciones clave para abordar con éxito un proyecto de Big Data, incluyendo identificar fuentes de datos y valor de negocio, definir KPI, realizar una prueba de concepto, integrar la tecnología Big Data con sistemas analíticos existentes, y evaluar los cambios organizativos necesarios.
Presentación durante el XXIX Encuentro de Telecomunicaciones y Economía Digital a cargo de Juan Angulo López-Dóriga, Director de Business Applications Services FUJITSU
Data Science - Analítica Predictiva y Evolución de BIPatricio Del Boca
El documento presenta una introducción a Data Science. Explica que Data Science es el proceso de transformar hipótesis y datos en predicciones accionables. Describe algunas soluciones comunes como detección de fraude, recomendaciones y predicción de demanda. También resume las etapas del ciclo de vida de un proyecto de Data Science, incluida la comprensión del negocio, preparación de datos y modelado.
El impacto de las tecnologías BIGDATA en los procesos de analítica y segurida...cruetic2015
Este documento describe el impacto de las tecnologías Big Data en los procesos analíticos y de seguridad en las universidades. Explica que Big Data permite el análisis de mayores volúmenes de datos heterogéneos en tiempo real de diversas fuentes como registros de sistemas, materiales educativos, publicaciones en redes sociales y más. También permite alertas tempranas, detección de patrones, mejoras basadas en datos y análisis estadísticos más accesibles. Finalmente, describe algunas herramientas y ar
Big Data es la profesión de moda y empresas de todos los sectores buscan especialistas. La consultora McKinsey prevé una brecha en torno al 50% entre la demanda y la oferta de puestos de trabajo relacionados con Big Data para 2017-2018
Pero ¿qué hay detrás de este nuevo paradigma? La transformación digital en las empresas implica una inflación de datos que las organizaciones no saben cómo usar y gestionar. Es un campo muy amplio y se necesitan perfiles muy variados desconocidos hasta ahora en nuestra sociedad.
Ante esta demanda de profesionales especializados en las tecnologías de big data y business intelligence, la gran baza para muchos ingenieros que quieran lograr un trabajo interesante y bien remunerado es formarse en estas especialidades
Dentro del rompecabezas de Big Data podemos diferenciar entre las habilidades técnicas en torno a Hadoop, MapReduce y frameworks comerciales y las competencias relacionadas con la Ciencia de los Datos (Data Science), que son las más demandadas y difíciles de encontrar. Por tanto, estamos ante un periodo para decidir sobre qué tipo de cursos deberían ser diseñados con el objetivo de producir talento cualificado para alimentar la industria de Big Data. En este sentido CICE ofrece una carrera profesional con varias especializaciones y masteres que abarca una alta variedad de conceptos y herramientas tecnologícas que se ajustan al mercado laboral.
Webinar Vault IT: Analítica avanzada y Machine Learning con virtualización de...Denodo
Este documento describe el uso de datos históricos para predecir el uso del servicio de alquiler de bicicletas Citi Bike en Nueva York. Se analizan factores como el clima y la estación del año que podrían afectar el uso. Se propone utilizar un modelo de aprendizaje automático como Random Forest entrenado con datos de 2017 para predecir el uso en 2018 y validar la precisión de la predicción. Finalmente, se discuten consideraciones sobre la preparación de los datos de entrada para el modelo, como la codificación de variables cíclic
Exploradata es una nueva compañía española la cual busca proveer, mediante los componentes de la suite Rocket, servicios de tratamiento y procesamiento de datos BigData, Smalldata con especial cuidado en la visualización
En esta presentación se introducen los conceptos de Big Data, así como las soliciones de Horton Works sobre Windows y el Microsoft Analytics Platform System (PDW Paralled Data Warehouse)
Saludos,
Eduardo Castro, PhD
SQL Server MVP
Comunidad Windows Costa Rica
BigData se refiere a las herramientas para manipular, gestionar y analizar grandes volúmenes de datos de diversos tipos. El documento describe cómo el aumento de usuarios de Internet y la disminución de costos de almacenamiento llevaron a un crecimiento exponencial de datos, haciendo que las empresas se enfocaran en BigData para mejorar la experiencia del usuario, hacer predicciones, personalizar productos y comprender mejor el negocio. También resume las tecnologías clave de procesamiento como MapReduce, Hadoop, Spark y Storm.
Descárgate este infographic que explica de una forma muy clara que está pasando en el sector del ecommerce en España. También hay un análisis del comportamiento de los usuarios, imprescindible para tener claro qué estrategias tenemos que tener en cuenta si nuestra empresa quiere abrir este nuevo canal de negocio.
Pollution: The Silent Killer of Millions in Poor Countries (10 slides)Blacksmithinstitute
Pollution is the leading cause of death in low- and middle-income countries. Exposures to polluted soil, water and air (both indoor and outdoor) resulted in 8.4 million deaths in 2012 in these countries. More than one in seven deaths in the
world are pollution-related.
Big Data, Big Customer Value, Big ResultsMundo Contact
Este documento presenta los conceptos clave de Big Data y cómo las empresas pueden obtener valor de los grandes volúmenes de datos. Define Big Data, discute los desafíos como la calidad y consistencia de los datos, y describe siete pasos para el análisis de Big Data que incluyen la recolección, procesamiento, almacenamiento y consumo de datos. El objetivo final es que las empresas puedan tomar mejores decisiones comerciales y ofrecer una experiencia más personalizada para los clientes basada en los datos.
El documento describe varias tecnologías que están avanzando de manera exponencial, como la computación, internet móvil, robótica avanzada y vehículos autónomos. También describe cómo estas tecnologías están acelerando el progreso tecnológico de acuerdo a la ley de retornos acelerados, donde los avances tecnológicos pasados permiten nuevos y más rápidos avances. El documento analiza el impacto potencial de estas tecnologías exponenciales en áreas como la medicina, agricultura y más.
Esta es una actualización de el proyecto de Big Data que ha llegado a un primer resultado, El mapa de emotividad basada en Twitter, por cada entidad de México. El siguiente paso será hacer esto en tiempo real.
Este documento describe la evolución del procesamiento de grandes volúmenes de datos, desde los primeros esfuerzos de Google para procesar grandes matrices hasta el desarrollo de frameworks como MapReduce y Hadoop. También analiza cómo herramientas de Business Intelligence y minería de datos se han actualizado para aprovechar estas nuevas tecnologías de Big Data, permitiendo nuevos modelos de negocio y demandas laborales.
Big Data para analizar las redes socialesDatKnoSys
El principal objetivo es mostrar el análisis de cantidades elevadas de información que nos proporcionan las redes sociales gracias a sistemas Big Data. Haciendo frente a la complejidad de la variedad de orígenes, el gran volumen de las mismas y la velocidad de procesamiento que se necesita.
Se incidirá principalmente en los siguientes puntos clave: la recogida de datos, su procesamiento (con ejemplo de text mining para conseguir descifrar el sentimiento) y en la visualización final.
¿Sabías que cada minuto se mandan 13 millones de mensajes se suben 48 horas de vídeo a YouTube y se crean 571 nuevas páginas web? Internet es un generador de grandes cantidades de información y este contenido lo generan los usuarios, nuestros clientes, por eso hay que saber adaptarse a este nuevo socio económico y aprovechar el valor de la información que nos ofrece. Es importante implantar sistemas de Big Data que nos ayuden a almacenar, buscar, compartir, analizar y visualizar estas grandes cantidades de datos y con ello conseguir valor. No hay que olvidar que tan importante como es instalar un sistema big data, es definirlo conforme a nuestras necesidades.
Introducción a Big Data. HDInsight - Webcast Technet SolidQSolidQ
Este documento presenta una introducción a Big Data, incluyendo las tendencias de la industria, definiciones de Big Data, ejemplos de datos masivos, y utilidades de Big Data. También describe escenarios de análisis empresarial utilizando herramientas como Hadoop, Hive y HDInsight, y cómo Microsoft Excel puede usarse para explotar y analizar grandes conjuntos de datos.
El término “Data Science” se ha vuelto muy popular recientemente con el aumento de popularidad de las redes sociales, análisis predictivos y el análisis de datos no estructurados como parte del crecimiento del “Big Data”. En esta sesión estaremos viendo que es “Data Science”, que necesitamos saber o aprender para poder convertirnos en un científico de datos y estaremos viendo algunos ejemplos de usos muy comunes usando lenguajes como Python, R y el cómo podemos integrar estos en SQL Server y Azure . Al final de esta charla tendrás un entendimiento más amplio de las técnicas de manejos de datos, modelamiento, visualización y los lenguajes y productos para poner tus proyectos en marcha.
Presentación semana académica unam big data abril 2015Peter Kroll
Este documento compara Business Intelligence y Big Data. Business Intelligence ayuda a encontrar respuestas a preguntas conocidas mediante el análisis de datos estructurados, mientras que Big Data ayuda a descubrir nuevas preguntas a través del análisis de grandes volúmenes de datos estructurados y no estructurados procedentes de múltiples fuentes. El documento también describe los componentes clave de un sistema de Business Intelligence y proporciona ejemplos de cómo diferentes industrias están aprovechando los datos para mejorar sus operaciones y toma de decisiones.
El documento presenta las consideraciones clave para abordar con éxito un proyecto de Big Data, incluyendo identificar fuentes de datos y valor de negocio, definir KPI, realizar una prueba de concepto, integrar la tecnología Big Data con sistemas analíticos existentes, y evaluar los cambios organizativos necesarios.
Presentación durante el XXIX Encuentro de Telecomunicaciones y Economía Digital a cargo de Juan Angulo López-Dóriga, Director de Business Applications Services FUJITSU
Data Science - Analítica Predictiva y Evolución de BIPatricio Del Boca
El documento presenta una introducción a Data Science. Explica que Data Science es el proceso de transformar hipótesis y datos en predicciones accionables. Describe algunas soluciones comunes como detección de fraude, recomendaciones y predicción de demanda. También resume las etapas del ciclo de vida de un proyecto de Data Science, incluida la comprensión del negocio, preparación de datos y modelado.
El impacto de las tecnologías BIGDATA en los procesos de analítica y segurida...cruetic2015
Este documento describe el impacto de las tecnologías Big Data en los procesos analíticos y de seguridad en las universidades. Explica que Big Data permite el análisis de mayores volúmenes de datos heterogéneos en tiempo real de diversas fuentes como registros de sistemas, materiales educativos, publicaciones en redes sociales y más. También permite alertas tempranas, detección de patrones, mejoras basadas en datos y análisis estadísticos más accesibles. Finalmente, describe algunas herramientas y ar
Big Data es la profesión de moda y empresas de todos los sectores buscan especialistas. La consultora McKinsey prevé una brecha en torno al 50% entre la demanda y la oferta de puestos de trabajo relacionados con Big Data para 2017-2018
Pero ¿qué hay detrás de este nuevo paradigma? La transformación digital en las empresas implica una inflación de datos que las organizaciones no saben cómo usar y gestionar. Es un campo muy amplio y se necesitan perfiles muy variados desconocidos hasta ahora en nuestra sociedad.
Ante esta demanda de profesionales especializados en las tecnologías de big data y business intelligence, la gran baza para muchos ingenieros que quieran lograr un trabajo interesante y bien remunerado es formarse en estas especialidades
Dentro del rompecabezas de Big Data podemos diferenciar entre las habilidades técnicas en torno a Hadoop, MapReduce y frameworks comerciales y las competencias relacionadas con la Ciencia de los Datos (Data Science), que son las más demandadas y difíciles de encontrar. Por tanto, estamos ante un periodo para decidir sobre qué tipo de cursos deberían ser diseñados con el objetivo de producir talento cualificado para alimentar la industria de Big Data. En este sentido CICE ofrece una carrera profesional con varias especializaciones y masteres que abarca una alta variedad de conceptos y herramientas tecnologícas que se ajustan al mercado laboral.
Webinar Vault IT: Analítica avanzada y Machine Learning con virtualización de...Denodo
Este documento describe el uso de datos históricos para predecir el uso del servicio de alquiler de bicicletas Citi Bike en Nueva York. Se analizan factores como el clima y la estación del año que podrían afectar el uso. Se propone utilizar un modelo de aprendizaje automático como Random Forest entrenado con datos de 2017 para predecir el uso en 2018 y validar la precisión de la predicción. Finalmente, se discuten consideraciones sobre la preparación de los datos de entrada para el modelo, como la codificación de variables cíclic
Exploradata es una nueva compañía española la cual busca proveer, mediante los componentes de la suite Rocket, servicios de tratamiento y procesamiento de datos BigData, Smalldata con especial cuidado en la visualización
En esta presentación se introducen los conceptos de Big Data, así como las soliciones de Horton Works sobre Windows y el Microsoft Analytics Platform System (PDW Paralled Data Warehouse)
Saludos,
Eduardo Castro, PhD
SQL Server MVP
Comunidad Windows Costa Rica
BigData se refiere a las herramientas para manipular, gestionar y analizar grandes volúmenes de datos de diversos tipos. El documento describe cómo el aumento de usuarios de Internet y la disminución de costos de almacenamiento llevaron a un crecimiento exponencial de datos, haciendo que las empresas se enfocaran en BigData para mejorar la experiencia del usuario, hacer predicciones, personalizar productos y comprender mejor el negocio. También resume las tecnologías clave de procesamiento como MapReduce, Hadoop, Spark y Storm.
Descárgate este infographic que explica de una forma muy clara que está pasando en el sector del ecommerce en España. También hay un análisis del comportamiento de los usuarios, imprescindible para tener claro qué estrategias tenemos que tener en cuenta si nuestra empresa quiere abrir este nuevo canal de negocio.
Pollution: The Silent Killer of Millions in Poor Countries (10 slides)Blacksmithinstitute
Pollution is the leading cause of death in low- and middle-income countries. Exposures to polluted soil, water and air (both indoor and outdoor) resulted in 8.4 million deaths in 2012 in these countries. More than one in seven deaths in the
world are pollution-related.
Este documento presenta varios proyectos de fin de carrera y trabajos de fin de grado relacionados con Big Data realizados en la Universidad de La Laguna. Incluyen proyectos sobre Hadoop, análisis de datos WiFi, incidentes de emergencia, inteligencia de negocios y bioinformática usando herramientas como Spark, R y Jupyter. Los estudiantes obtuvieron experiencia práctica trabajando con grandes conjuntos de datos y tecnologías emergentes de Big Data.
Big Data no es una moda ni algo que esté por venir. Gran parte de las organizaciones ya cuentan con bases de datos tan grandes que requieren usar herramientas especiales. Ésta presentación nos ayuda a dar el primer paso, a conocer que en realidad qué es y como funciona, así como a adentrarnos en este maravilloso mundo de los datos al por mayor.
Big Data se refiere a grandes conjuntos de datos que son difíciles de manejar debido a su velocidad de generación, múltiples fuentes y formatos. El tamaño, velocidad y variedad de los datos crean complejidad a la hora de recopilarlos, almacenarlos, buscarlos, compartirlos, analizarlos y procesarlos. Nuevas tecnologías como MapReduce, bases de datos NoSQL y algoritmos genéticos ayudan a abordar estos desafíos.
Diese Präsentation wurde auf dem TYPO3Camp Stuttgart im Mai 2011 gehalten. Sie handelt von Backend-Formularen die Extensions zur Konfiguration von Plugins mitbringen. Das sind sogenannte "Flexforms". Seit TYPO3 Version 4.5 können sie über gewohnte Mittel einfach verändert werden...
Lineamientos generales para la presentacion del examen de estado saber 11 2015natalia echeverria
Este documento presenta las características generales del examen de Estado SABER 11° para el ingreso a la educación superior en Colombia. El examen evalúa competencias genéricas en áreas como lectura crítica, matemáticas, ciencias naturales, sociales y ciudadanas e inglés. Los objetivos son seleccionar estudiantes para la educación superior, monitorear la calidad de la educación media y producir información sobre el valor agregado de la educación superior. El examen lo deben presentar estudiantes que finalizan grado 11 o ya tienen el t
Fonda Casestudy: Das Online Vertriebsportal der Generali DeutschlandFonda Wien
Dieser Vortrag wurde im Rahmen der Branchenkonferenz Versicherungen von Alexander Reiberger, GF von Fonda, gehalten.
Die „Branchenkonferenz Versicherungen“ der Versicherungsforen Leipzig (www.versicherungsforen.at/) setzt als jährliche Zusammenkunft der österreichischen Versicherer an der Schnittstelle von Business & IT an. Sie fungiert als Plattform zum Informations & Erfahrungs-Austausch und hat 2013 zum vierten Mal statt gefunden.
Fonda (www.fonda.at) ist eine Full Service Agentur für Digitale Medien. Bei Fonda arbeiten Experten für alle wichtigen Kompetenzfelder aus dem Gebiet „Digital“ unter einem Dach. Fonda folgt dem Grundsatz „Besser einfach“. Unsere Überzeugung: Die besten Ideen kommen nur dann bestens an, wenn sie für den Nutzer klar und einfach verständlich sind. Wir bemühen uns, Klarheit und einfache Erfassbarkeit in jedes Projekt zu bringen, wie komplex auch immer die Inhalte und die technischen Anforderungen sind.
Sting and Cheb Mami collaborated on a song called "Desert Rose" which blends Sting's pop rock style with Mami's rai music from Algeria. The song incorporates musical elements from both of their cultures including Sting's guitar playing and Mami's Arabic vocals. "Desert Rose" was a hit that helped introduce Western audiences to rai music and North African culture.
Mosaico de ideas, tendencias y apuestas de innovación en educación y desarrollo de competencias para la sociedad del conocimiento.
Más información http://openseminar.flacso.edu.mx
Regionale Werbemärkte: Stabile Budgets, Print verliert Anteile
Die regionalen Werbemärkte sind stabil, die Marktanteile der Zeitungen sind allerdings in Gefahr. Das sind Ergebnisse der Studie „Regionale Werbemärkte – quo vadis“ der SCHICKLER Unternehmensberatung und der Fachzeitung HORIZONT. Für die Studie wurden rund 100 regional Werbetreibende zu ihren Budgets und ihrer Zufriedenheit mit den verschiedenen Kanälen befragt. Sie zeigt: 70 Prozent der Befragten planen stabile Budgets für die kommenden drei Jahre, 30 Prozent wollen sie sogar leicht erhöhen. Im Schnitt investieren die regional Werbetreibenden rund 5 Prozent ihres Umsatzes ins Marketing.
„Wir haben in den letzten zehn Jahren teilweise dramatische Verschiebungen in den Werbemärkten gesehen, mit insgesamt sinkenden Volumina. Das gilt nicht für die regionalen Werbemärkte, hier können wir sogar mit leicht steigenden Umsätzen rechnen“, erläutert Rolf-Dieter Lafrenz, Geschäftsführer der Schickler Unternehmensberatung.
Betrachtet man die einzelnen Werbekanäle, so werden nicht alle von den stabilen bis steigenden Budgets profitieren. Die Studie legt offen: Die regionalen Tageszeitungen werden zwar weiterhin die höchsten Werbespendings auf sich vereinen, aber ihr Marktanteil wird sinken, von derzeit 23 Prozent auf 21 Prozent in drei Jahren. Auch für Anzeigenblätter zeichnet sich ein negativer Trend ab. Weiter wachsen werden hingegen die Ausgaben für Radiowerbung, Suchmaschinen- und Onlinewerbung.
Nach der Zufriedenheit regionaler Werbungtreibender mit dem Preis-Leistungs-Verhältnis der Kanäle gefragt, zeigten sich die Werbenden am wenigsten zufrieden mit den regionalen Tageszeitungen. Außenwerbung, Radio und Werbesendungen landen in diesem Punkt auf den ersten Plätzen. „Regionalen Zeitungsverlagen scheint es weniger als früher zu gelingen, die höheren Preise zu rechtfertigen. Sie schaffen es zurzeit nicht, ihre Stärken bei den regionalen Werbekunden voll auszuspielen“, sagt Rolf-Dieter Lafrenz. Hier sollten die Verlage ansetzen.
Verbesserungsmöglichkeiten eröffnet in diesem Zusammenhang auch die Frage nach der Beratungsqualität. Nur Radio und Außenwerbung erreichen Werte über 0,5 auf einer Skala von -2 (unzufrieden) bis 2 (zufrieden). Alle anderen Medien liegen darunter. Allgemein gilt für die regionalen Werbekanäle: Wachstumshebel liegen in crossmedialen Angeboten, kundenindividuellen Werbekonzepten und Werbewirkungsnachweisen.
Für die Studie wurden im März und April rund 100 lokal Werbetreibende aus ganz Deutschland befragt. Die Ergebnisse wurden jetzt auf dem 2. Deutschen Zeitungsgipfel in Wiesbaden präsentiert.
Mehr Informationen zur Studie „Regionale Werbemärkte“ finden Sie in der rechten Spalte als Download.
Die SCHICKLER Beratungsgruppe gilt als das führende Beratungshaus für Medienunternehmen in Deutschland, Österreich und der Schweiz. http://www.schickler.de
This document summarizes Daniel Goleman's perspective on the current state of emotional intelligence and mental health based on his experience as a psychologist and journalist. It notes two opposing trends - descriptions of a growing emotional crisis in society seen through increasing news reports of violence, despair, and loss of self-control, but also the rise of new scientific understanding of the brain and emotions through technologies like brain imaging. Goleman argues this new knowledge provides opportunities for addressing societal emotional deficiencies, and that his book aims to make sense of issues that seem senseless by explaining what science has learned about the irrational aspects of the human mind.
Este documento presenta información sobre varios de los sitios arqueológicos más importantes del mundo, incluyendo Chichén Itzá en México, el Coliseo en Roma, el Cristo Redentor en Río de Janeiro, el Taj Mahal en India, la Gran Muralla China, Machu Picchu en Perú y Petra en Jordania. Cada sección brinda detalles sobre la ubicación, historia y significado cultural de estos monumentos reconocidos.
El documento describe las experiencias de un estudiante que se muda a la ciudad por primera vez para asistir a la universidad. Expresa sentimientos de nostalgia por dejar su hogar, pero también la emoción de explorar lo nuevo. Detalla algunos de los desafíos iniciales de adaptarse a la vida urbana como usar el transporte público, orientarse en la ciudad y hacer nuevos amigos.
Este documento describe varias especies animales en peligro de extinción en la península ibérica, incluyendo el lince ibérico, el oso pardo, el lobo, la foca monje, la ballena azul, el águila imperial, la nutria y el quebrantahuesos. Proporciona detalles sobre sus características físicas, hábitat y dieta.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Este documento presenta una introducción a los conceptos de Big Data y análisis de datos. Define Big Data como la capacidad de extraer información de múltiples fuentes de datos dentro y fuera de una empresa para tomar mejores decisiones de negocios. Explica que la mayoría de los datos se generan fuera de las bases de datos estructuradas tradicionales y que es necesario integrar y analizar diferentes tipos y cantidades de datos. También introduce conceptos como Hadoop, datos en tiempo real, almacenes de datos modernos y la diferencia entre procesamiento paralelo mas
uerona es un almacén de datos virtual de autoservicio que permite una transición instantánea a un motor de SQL alojado en nube como SQL Server Data Warehouse.
Predictive
Analytics
(regresión,
clustering,
recomendación, etc)
○ Descriptive Analytics (análisis exploratorio de datos, detección de
anomalías, etc)
El objetivo es descubrir patrones y relaciones que permitan predecir
comportamientos futuros, detectar fraudes, recomendar productos, etc.
Este documento presenta una introducción a Big Data, definiendo sus características principales y tecnologías clave. Explica que Big Data involucra grandes cantidades de datos estructurados y no estructurados que requieren nuevas formas de procesamiento. También describe herramientas como Hadoop, bases de datos NoSQL e in-memory que permiten el análisis de grandes datos. Concluye que Big Data cambia la forma en que las empresas toman decisiones y recomienda crear repositorios centralizados de metadatos para aprovechar al máximo los
El documento describe la implementación de Inteligencia de Negocios en la Universidad de Concepción en Chile. Explica la metodología utilizada para desarrollar proyectos de BI, incluyendo el contexto, aspectos técnicos, ejemplos y conclusiones. Se revisa el proceso de implantación de BI en la universidad, desde los primeros pasos hasta la arquitectura actual de datos y herramientas utilizadas.
Introducción al análisis predictivo con SQL ServerEduardo Castro
Este documento presenta una introducción al análisis predictivo con SQL Server. Explica conceptos clave como minería de datos, modelado predictivo y análisis predictivo. Luego describe herramientas de análisis predictivo en SQL Server como árboles de decisión, regresión logística y agrupación. Finalmente, muestra ejemplos de cómo resolver problemas empresariales reales utilizando estas herramientas.
Laboratorio 3 formato ieee "Tecnologias de Big Data"Javier Peña
Este documento resume las nuevas tecnologías para el manejo de grandes cantidades de datos (Big Data) en organizaciones modernas, incluyendo Hadoop para el procesamiento distribuido de datos a gran escala, sistemas NoSQL para almacenar datos no estructurados, y Cassandra como una base de datos NoSQL distribuida y tolerante a fallos.
¿Cuál es el futuro de la estrategia de datos?Denodo
Watch full webinar here: https://bit.ly/2JANh47
En la era del Big Data, la Inteligencia Artificial y el cloud computing, el volumen y la diversidad de datos no para de crecer. El desafío es crear los procesos, estándares y protocolos necesarios que pongan la información al servicio del negocio.
En este webinar hablaremos de las cuatro tendencias tecnológicas que guían las estrategias de datos de las compañías de todo el mundo. No te lo pierdas si quieres estar al día sobre cómo elevar el dato a la categoría de activo estratégico para ser (de verdad) data-driven:
- ¿Cuál es la evolución de las arquitecturas de provisión y gestión del dato en las grandes organizaciones? ¿Cómo ayuda el concepto de 'data fabric'?
- ¿Cómo gestionar la integración de datos distribuidos en múltiples localizaciones derivados de los cambios forzados por la migración a la nube?
- ¿Cómo las compañías pueden monetizar la infraestructura de data as service construida durante los últimos años?
- ¿Qué papel pueden jugar las técnicas de voice computing en el futuro de la analítica de datos?
Este documento describe el Big Data y Hadoop. Explica que el Big Data se refiere a grandes cantidades de datos que superan la capacidad del software habitual de gestionarlos. Luego describe que Hadoop es un sistema de código abierto que se utiliza para almacenar, procesar y analizar grandes volúmenes de datos a través de múltiples nodos. Usa MapReduce para dividir el procesamiento de datos en tareas de mapeo y reducción para procesar los datos de manera distribuida.
Integración de Datos sin límites con PentahoDatalytics
Presentación de Pentaho Data Integration dada durante el foro "Las Dimensiones del BI" en Medellín (COL), donde se presentó la problemática de la integración de datos en la actualidad (cada vez más información, fuentes más diversas, datos no estructurados, etc.), como muchas empresas aún hoy intentan resolver este problema con programación SQL o similar y como Pentaho Data Integration puede no solo resolver este problema de una manera muy ágil, si no también como puede utilizarse para comenzar a analizar la información y realizar tareas de Data Discovery y Data Visualization antes de la generación de cubos, reportes, etc.
eBook Nubiral _ DataOps_ cada cual atiende su juego (1).pdfNubiral
Conoce cómo esta disciplina aporta un marco de trabajo y herramientas para alinear los equipos de ingeniería y de análisis de datos para mejorar la gestión del ecosistema de datos en la organización.
Marcos Macedo Entregable final Analítica de DatosMarcos Macedo
El documento presenta un modelo general de analítica de datos que incluye ingestión de datos, infraestructura, almacenamiento y procesamiento, acceso a datos, gestión, visualización de datos, análisis estadísticos, aprendizaje automático, procesamiento de lenguaje natural, análisis predictivos y prescriptivos. El modelo describe los componentes clave y herramientas para implementar un sistema efectivo de analítica de grandes datos que pueda guiar las mejores decisiones de negocio.
Actualmente existe una ingente cantidad de información generada a cada momento en todo nuestro entorno, la cual puede ser estructurada, semiestructurada y no estructurada. Esta información consume grandes recursos de nuestras organizaciones como memoria, procesamiento, etc. la cual debemos aprovecharla mediante la extracción de información relevante para la organización. Hoy en día ya contamos con instrumentos que nos permiten realizar un análisis inteligente de estos datos, el cual puede ser en tiempo real, que se traduce en ventajas competitivas. Por lo tanto, debemos estar familiarizados con términos y herramientas como Big Data, Mapreduce, Hadoop o computación en la nube.
El documento presenta una introducción al Big Data, explicando brevemente su historia y conceptos clave como datos estructurados, sin estructurar, data lakes, datamining, machine learning y profesiones vinculadas. También destaca las utilidades del Big Data y su importancia para el futuro, mencionando tendencias como la Industria 4.0 e Internet de las Cosas. Por último, enfatiza que los datos son el petróleo del siglo XXI.
El documento proporciona una definición y descripción general de un data warehouse. Explica que un data warehouse es una colección de datos integrados y no volátiles de varias fuentes organizados para apoyar la toma de decisiones. Detalla los procesos básicos de extracción, transformación y carga de datos, así como los elementos clave de un data warehouse como los sistemas fuente, el área de tráfico de datos y el servidor de presentación. Además, explica que el data mining se utiliza para extraer conocimiento útil de los datos almacenados
Business Intelligende& Big Data: Nuevos perfiles y oportunidades de empleo. P...CICE
Big Data es la profesión de moda y empresas de todos los sectores buscan especialistas. La consultora McKinsey prevé una brecha en torno al 50% entre la demanda y la oferta de puestos de trabajo relacionados con Big Data para 2017-2018
Pero ¿qué hay detrás de este nuevo paradigma? La transformación digital en las empresas implica una inflación de datos que las organizaciones no saben cómo usar y gestionar. Es un campo muy amplio y se necesitan perfiles muy variados desconocidos hasta ahora en nuestra sociedad.
Ante esta demanda de profesionales especializados en las tecnologías de big data y business intelligence, la gran baza para muchos ingenieros que quieran lograr un trabajo interesante y bien remunerado es formarse en estas especialidades
Dentro del rompecabezas de Big Data podemos diferenciar entre las habilidades técnicas en torno a Hadoop, MapReduce y frameworks comerciales y las competencias relacionadas con la Ciencia de los Datos (Data Science), que son las más demandadas y difíciles de encontrar. Por tanto, estamos ante un periodo para decidir sobre qué tipo de cursos deberían ser diseñados con el objetivo de producir talento cualificado para alimentar la industria de Big Data. En este sentido CICE ofrece una carrera profesional con varias especializaciones y masteres que abarca una alta variedad de conceptos y herramientas tecnológicas que se ajustan al mercado laboral.
El documento habla sobre sistemas de información gerencial y business intelligence. Explica conceptos como datawarehouse, OLAP, OLTP y data mining. También cubre elementos clave para construir un sistema de apoyo para la toma de decisiones como entender el modelo de negocio y priorizar la capacidad de entrega, así como factores a considerar para construir un almacén de datos como definir las fuentes de información y los modelos de datos.
Similar a 2016 ULL Cabildo KEEDIO - Arquitecturas Big Data (20)
HPE presenta una competició destinada a estudiants, que busca fomentar habilitats tecnològiques i promoure la innovació en un entorn STEAM (Ciència, Tecnologia, Enginyeria, Arts i Matemàtiques). A través de diverses fases, els equips han de resoldre reptes mensuals basats en àrees com algorísmica, desenvolupament de programari, infraestructures tecnològiques, intel·ligència artificial i altres tecnologies. Els millors equips tenen l'oportunitat de desenvolupar un projecte més gran en una fase presencial final, on han de crear una solució concreta per a un conflicte real relacionat amb la sostenibilitat. Aquesta competició promou la inclusió, la sostenibilitat i l'accessibilitat tecnològica, alineant-se amb els Objectius de Desenvolupament Sostenible de l'ONU.
KAWARU CONSULTING presenta el projecte amb l'objectiu de permetre als ciutadans realitzar tràmits administratius de manera telemàtica, des de qualsevol lloc i dispositiu, amb seguretat jurídica. Aquesta plataforma redueix els desplaçaments físics i el temps invertit en tràmits, ja que es pot fer tot en línia. A més, proporciona evidències de la correcta realització dels tràmits, garantint-ne la validesa davant d'un jutge si cal. Inicialment concebuda per al Ministeri de Justícia, la plataforma s'ha expandit per adaptar-se a diverses organitzacions i països, oferint una solució flexible i fàcil de desplegar.
Todo sobre la tarjeta de video (Bienvenidos a mi blog personal)AbrahamCastillo42
Power point, diseñado por estudiantes de ciclo 1 arquitectura de plataformas, esta con la finalidad de dar a conocer el componente hardware llamado tarjeta de video..
Catalogo general tarifas 2024 Vaillant. Amado Salvador Distribuidor Oficial e...AMADO SALVADOR
Descarga el Catálogo General de Tarifas 2024 de Vaillant, líder en tecnología para calefacción, ventilación y energía solar térmica y fotovoltaica. En Amado Salvador, como distribuidor oficial de Vaillant, te ofrecemos una amplia gama de productos de alta calidad y diseño innovador para tus proyectos de climatización y energía.
Descubre nuestra selección de productos Vaillant, incluyendo bombas de calor altamente eficientes, fancoils de última generación, sistemas de ventilación de alto rendimiento y soluciones de energía solar fotovoltaica y térmica para un rendimiento óptimo y sostenible. El catálogo de Vaillant 2024 presenta una variedad de opciones en calderas de condensación que garantizan eficiencia energética y durabilidad.
Con Vaillant, obtienes más que productos de climatización: control avanzado y conectividad para una gestión inteligente del sistema, acumuladores de agua caliente de gran capacidad y sistemas de aire acondicionado para un confort total. Confía en la fiabilidad de Amado Salvador como distribuidor oficial de Vaillant, y en la resistencia de los productos Vaillant, respaldados por años de experiencia e innovación en el sector.
En Amado Salvador, distribuidor oficial de Vaillant en Valencia, no solo proporcionamos productos de calidad, sino también servicios especializados para profesionales, asegurando que tus proyectos cuenten con el mejor soporte técnico y asesoramiento. Descarga nuestro catálogo y descubre por qué Vaillant es la elección preferida para proyectos de climatización y energía en Amado Salvador.
2. RESUMEN
Lo que es Big Data
La cadena de valor de Big Data
Casos de uso – Con éxitos y fracasos
Roles de Big Data y el cambio en las organizaciones
Cómo lo hacemos: Con una plataforma y metodología
3. Solving Big Data Issues 3
LA CADENA DE VALOR BIG DATA
INGESTIÓN
ALMACENAMIENTO
Datos en crudo, sin tratar HDFS
BBDD NoSQL
Almacenamiento Operacional
CONSULTA
VISUALIZACIÓN
APLICACIONES
EXTERNAS
MACHINE LEARNING Y
PREDICITVE
TRATAMIENTO
Computación y tratamiento de los datos.
Batch, Tiempo Real, Streaming.
4. Solving Big Data Issues 4
INGESTIÓN
La ingesta es quizás la parte más importante en un
proyecto Big Data.
Puede consumir hasta un 80% de esfuerzos del proyecto.
La calidad del dato en la fase de ingesta marca gran parte
del éxito analítico posterior.
Big Data vs Clean Data.
Es muy importante el metadatado.
Es un proceso iterativo que busca aumentar la calidad de
la información.
5. Solving Big Data Issues 5
INGESTIÓN
Es crítico la elección de la herramienta adecuada según el
caso de uso o necesidades de ingesta.
Herramientas de flujo continuo o herramientas de
“ELT” (no ETL)
Desacoplamiento de la fuente del dato del Data Lake
Apache Kafka como elemento crítico en las arquitecturas
de ingesta
Apache Flume y Apache NiFi son las principales opciones,
pero no las únicas.
6. Solving Big Data Issues 6
ALMACENAMIENTO PERSISTENTE
Importante el concepto de almacenamiento en RAW.
Información cruda sin procesar para poder ser reutilizada.
Los eventos/información RAW se deben tratar como
”hechos” inmutables.
Este almacenamiento de información supone una
“golden source”.
Se hace en almacenamientos distribuidos por SW (bajo
coste). HDFS es el estándar del ecosistema Hadoop, pero
hay alternativas como CEPH o GLUSTERFS
En cloud imperan S3 (Amazon) y Blob Storage (Azure).
7. Solving Big Data Issues 7
PROCESAMIENTO
Dos modelos principales de procesamiento
§ BATCH
§ STREAMING
Aunque tienen objetivos analíticos
diferentes, existe una corriente en auge de
convergencia entre ambos .
11 100 01
0001 11
01 001 110
11 100 01
01 001 110
11 100 01
STREAM PROCESS BATCH PROCESS
horas< min
OPERATIONAL
STORAGE
8. Solving Big Data Issues 8
PROCESAMIENTO: BATCH
El procesamiento en Batch tiene un objetivo principal
atemporal.
Trabaja con grandes volúmenes de datos sin tener tanta
relevancia la latencia u obtención de resultados rápidos.
El origen está en el paradigma de MapReduce pero hay
nuevos frameworks que lo optimizan.
En estos framework de procesamiento se prima el
throughput sobre la latencia.
Existen herramientas de abstracción a MapReduce como
Hive para establecer consultas SQL like sobre los datos.
9. Solving Big Data Issues 9
PROCESAMIENTO: STREAMING
En los frameworks de Streaming prima la baja latencia
sobre el throughput.
Habitualmente los resultados de los procesos son
enviados a apps externas o a BBDD NoSQL de baja
latencia de consulta.
Según el modelo se pueden utilizar diferentes
herramientas:
§ Spark Streaming - Micro Batches
§ Storm – Real Time, basado en eventos
En ocasiones se complementa la funcionalidad de los
framworks con el uso de herramientas CEP.
10. Solving Big Data Issues
LENGUAJES, FRAMEWORKS E IDES/NOTEBOOKS - ENCUESTA
10
Languages
Python
R
Scala
Frameworks
Map Reduce: under the hood in most services/applications
Spark
§ Spark-Scala
§ PySpark
§ SparkR
Flink (Java & Scala)
IDEs/notebooks
Jupyter
Zeppelin
RStudio
Spyder
Other IDEs: IntelliJ & Eclipse
Reported usage & Big Data roles
Python è data engineers/scientists
R è data scientists (biased towards analysis)
Scala è data engineers
Python + {R|Scala} è data engineers/scientists
No Framework: Python (pandas) or R
Spark single flavor: PySpark typically
Multiple Spark: PySpark + Scala-Spark
Python: Jupyter (70%), Spyder (25%)
Scala: Zeppelin (40%), IntelliJ (30%), Jupyter (25%)
R: RStudio (75%)
11. Solving Big Data Issues 11
MACHINE LEARNING
Machine Learning
Conjunto de técnicas estadístico-
matemáticas que permiten
aprender a sistemas
informáticos las características
de usuarios, procesos,
fenómenos… para
Predecir
Anticiparse a tendencias, decisiones o
demandas del mercado/clientes a partir
de un modelo y unas entradas
predefinidas
Clasificar
Reconocer el grupo/clase de individuos,
sucesos o eventos para responder/
gestionarlos de forma más eficiente
Sistemas de recomendación
Aprendizaje contínuo para
adaptar sugerencias,
presentación de productos, etc.
que permite amoldarse
automáticamente a gustos/
necesidades del cliente
12. Solving Big Data Issues 12
MACHINE LEARNING
Analytics: Statistics, Math & Machine Learning
Distributed computation
Batch or stream: offline or online analytics
Spark MLlib
Language specific APIs
• Scala: ScalaNLP
• Python: Scikit-learn, SciPy, NumPy…
• R: CRAN packages such as caret, randomForest, glmnet
MLlib
Backend implementation w/ interfaces to Scala, Python & R
13. Solving Big Data Issues 13
BBDD OPERACIONALES – NoSQL
Son BBDD de baja latencia (escritura y/o lectura).
Hay algunas que lo que almacenan son “documentos” y
otras utilizadas para almacenar y manipular series
temporales.
Non ACID
Existe multitud de alternativas y no necesariamente hay
una mejor que otras para propósito general.
Elasticsearch vs Solr (indexadores no BD), Couchbase vs
MongoDB, Cassandra vs Riak
14. Solving Big Data Issues 14
EXPLOTACIÓN
Cada vez existen más conectores con el ecosistema
HADOOP.
Normalmente hay compatibilidad JDBC/ODBC con la
mayoría de las NoSQL y frameworks de computación.
Las APIs son la otra gran solución de explotación.
Aquí es donde BI se convierte en un actor importante
como complemento con Big Data.
Hay proyectos de Big Data que no se pueden hacer con BI.
Hay proyectos de BI que sí se pueden hacer con Big Data.