En esta presentacion explicamos el concepto de Big Data y Business Intelligence (Inteligencia de negocio), asi como tambien presentamos las herramientas basadas en software open source como son Hadoop y Pentaho que permiten implementar soluciones, hablamos de los ecosistemas disponibles y mas.
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
SQL Saturday Bogota - Big Data HDInsight ServerEduardo Castro
En esta presentación vemos los conceptos de Big Data y cómo podemos integrar las herramientas de BI de SQL Server 2012 con Hadoop y con HDInsigth Server y con PowerPivot.
Saludos
Ing. Eduardo Castro
Microsoft SQL Server MVP
Presentación de Big Data Architecture & Integration con Pentaho, realizada por Datalytics con motivo del desayuno de trabajo realizado el 18 de Diciembre 2012.
En el último año, Big Data se ha transformado en uno de los pilares más importantes de la estrategia de negocio de los Bancos de Chile y el mundo. En un entorno cada vez más competitivo y con altos niveles de regulación, las organizaciones deben comenzar a tomar decisiones en función de los datos y no de la intuición. Para tomar dichas decisiones, se vuelve necesario procesar grandes volúmenes de información de manera eficiente, incorporando nuevas fuentes de datos y automatizando las decisiones a través de algoritmos analíticos avanzados. Durante esta presentación, analizaremos qué deben hacer los Bancos para transformar su arquitectura de datos tradicional, en una arquitectura de datos moderna con soporte para big data y así estar preparados para abordar los nuevos desafíos que plantea la transformación digital del negocio financiero.
SQL Saturday Bogota - Big Data HDInsight ServerEduardo Castro
En esta presentación vemos los conceptos de Big Data y cómo podemos integrar las herramientas de BI de SQL Server 2012 con Hadoop y con HDInsigth Server y con PowerPivot.
Saludos
Ing. Eduardo Castro
Microsoft SQL Server MVP
Jornada en enpresa digitala: Mitos y Realidades del Big DataUrko Zurutuza
Esta presentación es la que utilicé como ponente de Mondragon Unibertsitatea para introducir al público asistente a la jornada de "Mitos y Realidades del Big Data" de Enpresa Digitala en su nodo de Goiru (http://www.euskadinnova.net/es/enpresa-digitala/agenda/mitos-realidades-data/8956.aspx?utm_source=rss_feed&utm_medium=rss&utm_campaign=accesos_rss). Se trata de una presentación donde se explican qué es y qué no es Big Data, enfocando sobre todo en la parte de almacenamiento, infraestructura, y análisis de los datos.
Big Data es un concepto que hace referencia a un gran conjunto datos complejos, de formato heterogéneos y que donde las aplicaciones y mecanismos tradicionales de procesamiento no resultan ser los más adecuados para procesarlos. Los desafíos dentro del Big Data incluyen el análisis, la captura, la transformación de datos, búsqueda, intercambio, almacenamiento, transferencia, visualización y privacidad de la información.
Inmerso en este nuevo ecosistema de datos de gran tamaño y sin formato, se encuentra Apache Hadoop, un framework de Software desarrollado en un principio por Yahoo, y que ha sido y está siendo el standard de la industria para el procesamiento masivo de datos dentro de un cluster de computadores.
En el presente meetup realizamos una breve descripción de la arquitectura de este framwork y cómo Hadoop puede integrarse con otras diferentes soluciones empresariales. A su vez revisamos como grandes empresas tecnológicas han visto y apostado por Apache Hadoop como una herramienta para construcción de soluciones y procesamiento de datos en entornos de Big Data.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Como continuación a la presentación titulada "Introducción al mundo de las Bodegas de datos", esta presentación le explicará qué es Big Data y sus beneficios, incluyendo casos de uso. Así mismo, discutiremos cómo Hadoop, la nube y procesamiento masivamente paralelo (MPP) está cambiando la forma en los almacenes de datos se están construyendo. Hablaremos de arquitecturas híbridas que combinan datos in situ con datos en la nube, así como datos relacionales y no relacionales de datos (no estructurados). Veremos también los beneficios del MPP en SMP y cómo integrar datos desde dispositivos en la Internet (IoT). Aprenderemos también lo que debería verse como un almacén de datos moderno y cómo cuadra su papel de un mar de datos y Hadoop. Al finalizar esta exposición, tendremos una orientación sobre la mejor solución para el almacén de datos en el futuro.
Esta es una actualización de el proyecto de Big Data que ha llegado a un primer resultado, El mapa de emotividad basada en Twitter, por cada entidad de México. El siguiente paso será hacer esto en tiempo real.
Introducción a Big Data. HDInsight - Webcast Technet SolidQSolidQ
http://university.solidq.com
Introducción a Big Data. Gracias a la nueva tecnología Microsoft Hadoop, tanto on-premise como en la nube, y a sus capacidades de almacenamiento, procesamiento y escalabilidad, podemos analizar grandes volúmenes de datos del orden de Terabytes o Petabytes de una forma rápida y con buen rendimiento. Es ahora el momento de familiarizarnos con la nueva forma de trabajar en Hadoop a la hora de extraer esa información distribuida por nuestros nodos. De la misma forma que hacemos con SQL Server, en esta sesión aprenderemos a desplegar y almacenar esa información en nuestros nodos, a crear consultas para extraer las partes que nos sean más útiles.
Hadoop es un framework Open Source diseñado para el almacenamiento de datos de manera distribuida. Su capacidad para gestionar rápidamente enormes cantidades de información lo han convertido en una de las mejores opciones para las aplicaciones Big Data, donde encuentra en las soluciones Cloud Computing a su mejor aliado. En este whitepaper te explicamos las principales características de Hadoop, sus componentes y casos de uso, para que puedas sacarle el máximo partido.
Más información en el blog de Arsys: https://www.arsys.es/blog
2016 ULL Cabildo KEEDIO - Arquitecturas Big DataKEEDIO
KEEDIO: Arquitecturas Big Data
INDICE
Lo que es Big Data
La cadena de valor de Big Data
Casos de uso – Con éxitos y fracasos
Roles de Big Data y el cambio en las organizaciones
Cómo lo hacemos: Con una plataforma y metodología
Presentación introductoria al Big Data, y su aplicación en los negocios, impartida en la jornada organizada por Ascentic y PCTCAN en Santander, 12/05/2016
En #BigData se siguen patrones conocidos en Data Mining para el tratamiento de los Datos. El problema surge cuando tenemos que tratar grandes volúmenes de datos y realizar cargas incrementales en nuevas tecnologías que son capaces de soportar dicha carga.
La presente investigación es para determinar si es más conveniente usar las herramientas que ofrece Apache Hadoop o escoger a su rival a decir de muchos: Apache Spark.
“Apache Spark es el motor más rápido y de uso general para el procesamiento de datos a gran escala.”
...O al menos es de lo que se informa en el sitio oficial pero ¿es eso cierto? En esta época del BigData aparecen y se ven muchas soluciones y tecnologías que enriquecen el entorno ampliamente dominado por Apache Hadoop, sin embargo en la era de los metadatos Spark brilla con una luz diferente y empieza a hacerle sombra a Hadoop en el negocio del BigData.
Jornada en enpresa digitala: Mitos y Realidades del Big DataUrko Zurutuza
Esta presentación es la que utilicé como ponente de Mondragon Unibertsitatea para introducir al público asistente a la jornada de "Mitos y Realidades del Big Data" de Enpresa Digitala en su nodo de Goiru (http://www.euskadinnova.net/es/enpresa-digitala/agenda/mitos-realidades-data/8956.aspx?utm_source=rss_feed&utm_medium=rss&utm_campaign=accesos_rss). Se trata de una presentación donde se explican qué es y qué no es Big Data, enfocando sobre todo en la parte de almacenamiento, infraestructura, y análisis de los datos.
Big Data es un concepto que hace referencia a un gran conjunto datos complejos, de formato heterogéneos y que donde las aplicaciones y mecanismos tradicionales de procesamiento no resultan ser los más adecuados para procesarlos. Los desafíos dentro del Big Data incluyen el análisis, la captura, la transformación de datos, búsqueda, intercambio, almacenamiento, transferencia, visualización y privacidad de la información.
Inmerso en este nuevo ecosistema de datos de gran tamaño y sin formato, se encuentra Apache Hadoop, un framework de Software desarrollado en un principio por Yahoo, y que ha sido y está siendo el standard de la industria para el procesamiento masivo de datos dentro de un cluster de computadores.
En el presente meetup realizamos una breve descripción de la arquitectura de este framwork y cómo Hadoop puede integrarse con otras diferentes soluciones empresariales. A su vez revisamos como grandes empresas tecnológicas han visto y apostado por Apache Hadoop como una herramienta para construcción de soluciones y procesamiento de datos en entornos de Big Data.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Como continuación a la presentación titulada "Introducción al mundo de las Bodegas de datos", esta presentación le explicará qué es Big Data y sus beneficios, incluyendo casos de uso. Así mismo, discutiremos cómo Hadoop, la nube y procesamiento masivamente paralelo (MPP) está cambiando la forma en los almacenes de datos se están construyendo. Hablaremos de arquitecturas híbridas que combinan datos in situ con datos en la nube, así como datos relacionales y no relacionales de datos (no estructurados). Veremos también los beneficios del MPP en SMP y cómo integrar datos desde dispositivos en la Internet (IoT). Aprenderemos también lo que debería verse como un almacén de datos moderno y cómo cuadra su papel de un mar de datos y Hadoop. Al finalizar esta exposición, tendremos una orientación sobre la mejor solución para el almacén de datos en el futuro.
Esta es una actualización de el proyecto de Big Data que ha llegado a un primer resultado, El mapa de emotividad basada en Twitter, por cada entidad de México. El siguiente paso será hacer esto en tiempo real.
Introducción a Big Data. HDInsight - Webcast Technet SolidQSolidQ
http://university.solidq.com
Introducción a Big Data. Gracias a la nueva tecnología Microsoft Hadoop, tanto on-premise como en la nube, y a sus capacidades de almacenamiento, procesamiento y escalabilidad, podemos analizar grandes volúmenes de datos del orden de Terabytes o Petabytes de una forma rápida y con buen rendimiento. Es ahora el momento de familiarizarnos con la nueva forma de trabajar en Hadoop a la hora de extraer esa información distribuida por nuestros nodos. De la misma forma que hacemos con SQL Server, en esta sesión aprenderemos a desplegar y almacenar esa información en nuestros nodos, a crear consultas para extraer las partes que nos sean más útiles.
Hadoop es un framework Open Source diseñado para el almacenamiento de datos de manera distribuida. Su capacidad para gestionar rápidamente enormes cantidades de información lo han convertido en una de las mejores opciones para las aplicaciones Big Data, donde encuentra en las soluciones Cloud Computing a su mejor aliado. En este whitepaper te explicamos las principales características de Hadoop, sus componentes y casos de uso, para que puedas sacarle el máximo partido.
Más información en el blog de Arsys: https://www.arsys.es/blog
2016 ULL Cabildo KEEDIO - Arquitecturas Big DataKEEDIO
KEEDIO: Arquitecturas Big Data
INDICE
Lo que es Big Data
La cadena de valor de Big Data
Casos de uso – Con éxitos y fracasos
Roles de Big Data y el cambio en las organizaciones
Cómo lo hacemos: Con una plataforma y metodología
Presentación introductoria al Big Data, y su aplicación en los negocios, impartida en la jornada organizada por Ascentic y PCTCAN en Santander, 12/05/2016
En #BigData se siguen patrones conocidos en Data Mining para el tratamiento de los Datos. El problema surge cuando tenemos que tratar grandes volúmenes de datos y realizar cargas incrementales en nuevas tecnologías que son capaces de soportar dicha carga.
La presente investigación es para determinar si es más conveniente usar las herramientas que ofrece Apache Hadoop o escoger a su rival a decir de muchos: Apache Spark.
“Apache Spark es el motor más rápido y de uso general para el procesamiento de datos a gran escala.”
...O al menos es de lo que se informa en el sitio oficial pero ¿es eso cierto? En esta época del BigData aparecen y se ven muchas soluciones y tecnologías que enriquecen el entorno ampliamente dominado por Apache Hadoop, sin embargo en la era de los metadatos Spark brilla con una luz diferente y empieza a hacerle sombra a Hadoop en el negocio del BigData.
Tutorial Introductorio a Big Data, Hadoop y sus tecnologías asociadas (Hive, Pig, HBase, HDFS), etc. Presentado en el XVIII Congreso Iberoamericano de Ingenieria del Software (CIBSE). Peru. Lima. Abril del 2015.
¿Eres desarrollador y emprendedor? En este ebook se recopilan tres análisis en profundidad con las mejores herramientas y las más populares entre los científicos de datos. Más información en http://bbva.info/2t1NEv7
Conociendo los servicios adicionales en big dataSpanishPASSVC
Todos han empezado a usar y a conocer Hadoop y HDInsight, en parte los lenguajes usados para su consumo, pero poco se hablado de los servicios complementarios que pueden enriquecer la experiencia BigData, conozca estos servicios y su aplicación.
Big Data, Almacenes de Datos Empresariales (EDW) y Windows Azure (SQL Databas...Joseph Lopez
Breve sinopsis sobre como comprender todo el escenario en la manipulación de datos procedentes del Big Data, de los Almacenes de Datos Empresariales con motor de datos SQL Azure bajo Plataforma BI
Ponencia presentada en el Congreso Academy Jornal 2019 celebrado enel Instituto Tecnologico de Morelia con Impplementacion de un cluster de alta dispniiblidad para aplicaciones administrativas mediante multiproceso. Presentacion morelia 2019 mrl0580
Guía para hacer un Plan de Negocio para tu emprendimiento.pdfpppilarparedespampin
Esta Guía te ayudará a hacer un Plan de Negocio para tu emprendimiento. Con todo lo necesario para estructurar tu proyecto: desde Marketing hasta Finanzas, lo imprescindible para presentar tu idea. Con esta guía te será muy fácil convencer a tus inversores y lograr la financiación que necesitas.
PREVENCION DELITOS RELACIONADOS COM INT.pptxjohnsegura13
Concientizar y sensibilizar a los funcionarios, sobre la importancia de promover la seguridad en sus operaciones de comercio internacional, mediante la unificación de criterios relacionados con la trazabilidad de sus operaciones.
Anna Lucia Alfaro Dardón, Harvard MPA/ID. The international successful Case Study of Banco de Desarrollo Rural S.A. in Guatemala - a mixed capital bank with a multicultural and multisectoral governance structure, and one of the largest and most profitable banks in the Central American region.
INCAE Business Review, 2010.
Anna Lucía Alfaro Dardón
Dr. Ivan Alfaro
Dr. Luis Noel Alfaro Gramajo
Entre las novedades introducidas por el Código Aduanero (Ley 22415 y Normas complementarias), quizás la más importante es el articulado referido a la determinación del Valor Imponible de Exportación; es decir la base sobre la que el exportador calcula el pago de los derechos de exportación.
Mario Mendoza Marichal Perspectivas Empresariales para México 2024 .pdf
Big Data y Business Intelligence con Software Open Source
1. Business Intelligence con Pentaho
y Big Data con Hadoop
Presentado por: Carlos Carreño
ccarrenovi@gmail.com
Mayo, 2017
2. 2
Acerca del Presentador
Carlos Augusto Carreño Villarreyes
Es Ingeniero de Sistemas y Computo de profesión, es físico matemático y tiene estudios de Maestría en Gestión de Tecnologías de la
Información en UNMSM. Esta certificado como ScrumMaster por ScrumAlliance, Red Hat JBoss Administrator, JBoss Fuse Expert, JBoss BPM
Expert y en Oracle Certified Profesional es especialista en Big Data y en Business Intelligence. Es instructor acreditado por Red Hat Inc. Para
Latinoamerica (Argentina, Bolivia, Colombina, Venezuela, Chile,Ecuador, Perú y Centro América ) y España. Instructor Oracle WDP y Software
Libre en Cognos – Bolivia en Perú en la Universidad Nacional de Ingeniería y New Horizons.
Experiencia Profesional:
✔ Jefe de Informática, Instituto Nacional de Defensa de la Competencia y Protección al Consumidor, Indecopi, entidad del Gobierno del Perú.
✔ Consultor del Programa de las Naciones Unidas para el Desarrollo, Sistema Nacional de Prevención y Atención de Desastres.
✔ Director y Socio de Bamtech, empresa integradora de soluciones tecnológicas con software de código abierto.
✔ Gerente de Proyectos de Business Intelligence, Cloud y Big Data en Tecnología y Gerencia del Perú
Email de Contacto: ccarrenovi@gmail.com
3. 3
Agenda
● Introducción a Big Data con Hadoop
● Arquitectura de Hadoop
● Herramientas para Hadoop
● Ecosistemas Disponibles
● Introducción a Pentaho BI Suite
● "Stack" de tecnologías de Pentaho BI Suite
● Pentaho y Big Data
● Casos de Aplicación
9. 9
Seguimos creciendo
● Al 2016 la población
creció a 7,400 millones
de personas.
● Se prevee:
➢ 18.9 billones de
dispositivos.
➢ Que el tráfico global de
datos móviles alcance
10.8 Exabytes
mensuales
Fuente: ONU
http://exitosanoticias.pe/onu-poblacion-mundial-llego-a-7400-millones/
11. 11
Aterrizando el concepto de Big Data
Big Data se refiere al procesamiento de volúmenes de
datos tan grandes que no se pueden realizar con tecnologías
tradicionales a una velocidad adecuada y a los
procedimientos para encontrar patrones repetitivos en
estos datos.
Referencia:https://es.wikipedia.org/wiki/Big_data
12. 12
Las 3V del Big Data
● Volumen
● Velocidad
● Variedad
+
3V
14. 14
Hadoop
● Apache™ Hadoop® es un proyecto de software
libre que permite el procesamiento distribuido de
grandes volúmenes de datos en clusters de
servidores básicos.
● Hadoop está diseñado para extender un sistema de
archivos de servidor único a miles de máquinas y a
petabytes de datos con un muy alto grado de
tolerancia a las fallas.
15. 15
Porque interesa tanto Hadoop?
● Hadoop cambia la economía y la dinámica de
la computación a gran escala.
16. 16
Hadoop hace posible el Big Data
● Redimensionable, pueden agregarse tantos nuevos
nodos como sea necesario.
● Rentable, Hadoop hace posible la computación
paralela con servidores básicos.
● Flexible, Hadoop funciona sin esquema y puede
absorber cualquier tipo de datos.
● Tolerante a fallas, si se pierde un nodo, el sistema
redirige el trabajo a otra localización de los datos y
continúa procesando sin perder el ritmo.
18. 18
Componentes de Hadoop
● Hadoop está inspirado en el proyecto de Google
File System(GFS) y en el paradigma de
programación MapReduce (mapper reducer).
● Hadoop está compuesto de cuatro
componentes:
➢ Hadoop Distributed File System (HDFS)
➢ Hadoop MapReduce
➢ Yarn (Yet Another Resource Negotiator )
➢ Hadoop Common Utilities.
20. 20
Hadoop Distributed File System
● Hadoop Distributed File System (HDFS) es un sistema de
archivos que abarca todos los nodos de un cluster Hadoop
para el almacenamiento de datos. HDFS convierte todos los
sistemas de archivos locales de los nodos en un único gran
sistema de archivos
21. 21
MapReduce
● MapReduce es el motor que Hadoop usa para procesar
las enormes cantidades de datos, se basa en el modelo
de programación Mapear – Reducir (MapReduce) .
22. 22
Yarn
● YARN (Yet Another Resource Negotiator) es el
componente que asigna CPU, memoria y
almacenamiento a las aplicaciones que se
ejecutan en un cluster Hadoop.
23. 23
Common Utilities
● Hadoop Common Utilities, son librerías java
que soportan otros módulos de Hadoop como:
➢ RPC
➢ File System
➢ Serializacion
25. 25
Elementos del Cluster Hadoop
● NameNode: Sólo hay uno en el cluster. Regula el acceso
a los archivos por parte de los clientes. Mantiene en
memoria la metadata del sistema de archivos y control de
los bloques de los archivos que tiene cada DataNode.
● DataNode: Son los responsables de leer y escribir las
peticiones de los clientes. Los archivos en HDFS están
formados por bloques, estos se encuentran replicados en
los diferentes nodos.
27. 27
Herramientas para Hadoop
● En la implementación de una solución de Big
Data se requieren herramientas (proyectos)
adicionales que interactúen con Hadoop.
● Hadoop + el conjunto de proyectos para
Hadoop forman un ecosistema de Big Data.
31. 31
Plataformas de Big Data
● Hadoop ofrece una base para la creación de
plataformas o ecosistemas comerciales para el
análisis de Big Data.
● Detrás del uso de una plataforma comercial de
Big Data esta el propósito de facilitar su
adopción, esto es "Hadoop como servicio".
32. 32
Plataformas de Big Data en
Hadoop
● Cloudera
● Amazon Web Services
● Hortonworks
● MapR
● IBM
● Microsoft HDInsight
● Intel Distribution for Apache Hadoop
● Datastax Enterprise Analytics
● Teradata Enterprise Access for Hadoop
● Pivotal HD
33. 33
Cloudera
● Cloudera una de las primeras ofertas comerciales de Hadoop una de
las mas populares.
● Cloudera aporta Impala, que ofrece en tiempo real el procesamiento masivo
paralelo de Big Data a Hadoop.
34. 34
Hortonworks
● Hortonworks es una de las pocas plataformas 100% de tecnología Hadoop de
código abierto sin ninguna modificación propietaria. También fueron los primeros en
integrar el soporte para Apache HCatalog, que crea "metadatos", datos dentro de los datos,
simplificando el proceso de compartir sus datos a través de otras capas de servicio como
Apache Hive o Pig.
37. 37
Concepto de Business
Intelligence - BI
● Business Intelligence (Inteligencia de Negocio), es el conjunto
de tecnologías y procedimientos que permiten el cruce de
información para soportar el análisis de los indicadores de
desempeño de un negocio.
38. 38
Cubo OLAP
● Permite a los analistas de negocios, gerentes, tomadores de
decisiones sintetizar la información a través de diferentes
vistas.
39. 39
Modelo Dimensional
● Técnicas y conceptos para crear modelos de
datos basados en hechos y dimensiones. Se
orienta el modelado hacia la búsqueda de
rendimiento de las consultas.
41. 41
Modelo Copo de Nieve
● Forma normalizada de las dimensiones (solo las
dimensiones primarias están enlazadas con la tabla de
hechos)
● Rompe el análisis dimensional
44. 44
Pentaho BI Platform
● Pentaho BI Platform es una suite de herramientas
“open source” basadas en Java, que permite soportar los
procesos de Inteligencia de Negocio de una empresa.
51. 51
Pentaho & Hadoop
● Pentaho permite manejar complejas
transformaciones de datos y permite
operacionalizar Hadoop y Spark como parte de
una línea de datos de extremo a extremo.
52. 52
Integración Pentaho y Hadoop
● Interfaz visual intuitiva para integrar y combinar datos de
Hadoop con prácticamente cualquier otra fuente.
● Capacidad para diseñar lógica de integración de datos 15
veces más rápido que los métodos de codificación manual
● Integración con el ecosistema de Hadoop incluyendo Spark
y compatibilidad con Kafka, YARN, Oozie, Sqoop y más
54. 54
Beneficios de la Integración de
Pentaho y Hadoop
● Capacidad para procesar grandes volúmenes de datos en
sistemas de producción empresarial y dotar de capacidad de
autoservicio al usuario final
● Reportes y Analisis de datos soportando Impala, Hive y otras
base de datos analiticas
● Soporte a modelos predictivos basados en R, Weka, Python
y Mllib
● Soporte de seguridad empresarial basada en Kerberos en
plataformas Cloudera y Hortonworks.
56. 56
Big Data en el Campo de la
Investigacion
● De entre los proyectos que se pueden mencionar donde
se ha llevado a cabo el uso de una solución de Big Data
se encuentran:
➢ El Language, Interaction and Computation Laboratory - CLIC en
conjunto con la Universidad de Trento en Italia, son un grupo de
investigadores cuyo interés es el estudio de la comunicación
verbal y no verbal tanto con métodos computacionales como
cognitivos.
➢ Lineberger Comprehensive Cancer Center - Bioinformatics
Group utiliza Hadoop y HBase para analizar datos producidos
por los investigadores de The Cancer Genome Atlas(TCGA)
para soportar las investigaciones relacionadas con el cáncer.
57. 57
Big Data en el Campo de la
Investigacion
● El PSG College of Technology, India, analiza múltiples secuencias
de proteínas para determinar los enlaces evolutivos y predecir
estructuras moleculares.
● La Universidad Distrital Francisco Jose de Caldas utiliza Hadoop
para apoyar su proyecto de investigación relacionado con el
sistema de inteligencia territorial de la ciudad de Bogotá.
●
La Universidad de Maryland es una de las seis universidades que
colaboran en la iniciativa académica de cómputo en la nube de
IBM/Google. Sus investigaciones incluyen proyectos en la
lingüistica computacional (machine translation), modelado del
lenguaje, bioinformática, análisis de correo electrónico y
procesamiento de imágenes.
58. 58
Pentaho en la Industria
Financiera
● Las siguientes industrias de servicios
financieros han elegido Pentaho para su área
de inteligencia de negocios.
61. 61
Referencias
● Que es Big Data
https://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/
● Las 3V del Big Data
http://www.dataprix.com/blog-it/data-science/big-data-volumen-velocidad-
variedadHadoop
● MapReduce Tutorial
http://bigdatahadooptrainings.com/hadoop-mapreduce-tutorial/
● Que es Hadoop
https://www-01.ibm.com/software/cl/data/infosphere/hadoop/que-es.html
● Big Data: The Top 10 Commercial Hadoop Platforms
https://www.linkedin.com/pulse/big-data-top-10-commercial-hadoop-platforms-
bernard-marr
This work!, is dedicated to the supreme consciousness, God.