Big Data es un término de actualidad que parece contener la respuesta a todos los problemas de la sociedad, hasta el punto en que muchos exageran las expectativas sobre los beneficios que puede generar e ignoran sus verdaderas virtudes.
Dado el avance de nuestra sociedad, la generación de información es cada vez más desenfrenada, de forma que la comprensión de lo que ocurre puede suponer una ventaja competitiva importante para empresas y organismos públicos.
En esta presentación, correspondiente al ciclo de Big Data organizado por Rainer Open School, se estudia esta tendencia y el papel del científico de datos.
Hacia ti capacitación virtual pasos 01, 02, 03sbmalambo
Directivos y docentes se encuentran realizando esta capacitación del Minsiterio de las TIC, hacia ti. Esta es la primer aparte de las memorias. El contenido fue tomado de los apuntes de los pasos y vídeos montados en la plataforma. las imágenes fueron tomadas de Google. La formación consta de ocho pasos y en las memorias van los tres primero pasos.
Novedades tecnológicas de la información y las comunicaciones, avances, descubrimientos, opiniones, comentarios, ofertas de productos, servicios y mucho más.
Hacia ti capacitación virtual pasos 01, 02, 03sbmalambo
Directivos y docentes se encuentran realizando esta capacitación del Minsiterio de las TIC, hacia ti. Esta es la primer aparte de las memorias. El contenido fue tomado de los apuntes de los pasos y vídeos montados en la plataforma. las imágenes fueron tomadas de Google. La formación consta de ocho pasos y en las memorias van los tres primero pasos.
Novedades tecnológicas de la información y las comunicaciones, avances, descubrimientos, opiniones, comentarios, ofertas de productos, servicios y mucho más.
Este material es parte de una conferencia impartida en la UMA (Universidad de Málaga) para la iniciación al mundo del BiG Data para no entendidos en tecnología:
- ¿Qué es BiG DaTa?
- Hitos principales
- Situación actual
- Tecnologías principales
- Análisis por industrias
Un recorrido por las diferentes tendencias del Big Data, importantes eventos a nivel mundial, desarrollo del Big Data en Europa, Estados Unidos y Corea del Sur y más.
Nota: referencias y enlaces de interés indicados en los comentarios de cada diapositiva, descargar la presentación para poder verlos.
El big data le permite recopilar datos de redes sociales, visitas a páginas web, registros de llamadas y otras fuentes para mejorar la experiencia de interacción, así como maximizar el valor ofrecido.
El presente artículo tiene como propósito ofrecer una visión integral de Big Data
como una solución tecnológica de avanzada que crece con mucha fuerza en la
Banca, como una estrategia potenciadora de la información, en este sentido, a
través de ésta, se puede hacer frente a los desafíos que requiere el sistema
financiero a fin de descifrar los grandes volúmenes de datos que existen y que no
son explotados completamente. La metodología utilizada se enfocó en una
revisión documental bibliográfica, que permitió concluir la imperante necesidad
que tienen las organizaciones de poder transformar sus datos como ventajas
competitivas en el nuevo esquema para hacer negocio.
Analizamos el mundo a través de un rompecabezas, conformado por piezas de conocimientos que se agrupan en categorizaciones, grupos, familias y etiquetas. Así es como la ciencia ha podido “saber más“ en detalle sobre los diferentes aspectos de la realidad. Pero, ¿qué pasaría si quisiéramos tener un entendimiento completo de una situación “x”? Deberíamos comenzar a descubrir el cuadro completo “big data, big picture” que se esconde detrás de toda pieza analizada.
Presentación usada en la ponencia del 10 de Marzo de 2017, el VI Foro Economía y Economistas que se celebró en la Facultad de Economía, con el título "Economía del Futuro: Hablemos de Big Data"
Los proyectos de Big Data son distintos a otros proyectos de software en muchos aspectos. Para empezar tienen una naturaleza más exploratoria y cuentan con roles únicos que no existen en otros ámbitos.
Este tipo de proyectos están divididos en dos grandes fases: una de investigación, en la que se plantea una hipótesis de trabajo y se desarrollan los conjuntos de datos (datasets) herramientas y técnicas para validarla, y una segunda de explotación, en donde las conclusiones de la fase anterior se lleva a producción.
En esta presentación, correspondiente a la conferencia impartida en Abril de 2016, aprenderás cuáles son esos roles, qué resultados producen y cuáles son las fases y puntos clave de este tipo de proyectos.
El análisis de agrupaciones en un conjunto de datos, o clustering, es una de las técnicas exploratorias de mayor utilidad en la comprensión y caracterización de los problemas.
Esta técnica tiene una gran utilidad en determinar el número óptimo de subconjuntos y sus intervalos dentro de grandes volúmenes de información, lo que a su vez tiene aplicación en áreas como el marketing, la astrofísica o la investigación farmacéutica.
En esta presentación, correspondiente al seminario impartido en Mayo de 2016, aprenderás los conceptos básicos de las técnicas de agrupación y el algoritmo más popular: el cálculo de k-means.
Este material es parte de una conferencia impartida en la UMA (Universidad de Málaga) para la iniciación al mundo del BiG Data para no entendidos en tecnología:
- ¿Qué es BiG DaTa?
- Hitos principales
- Situación actual
- Tecnologías principales
- Análisis por industrias
Un recorrido por las diferentes tendencias del Big Data, importantes eventos a nivel mundial, desarrollo del Big Data en Europa, Estados Unidos y Corea del Sur y más.
Nota: referencias y enlaces de interés indicados en los comentarios de cada diapositiva, descargar la presentación para poder verlos.
El big data le permite recopilar datos de redes sociales, visitas a páginas web, registros de llamadas y otras fuentes para mejorar la experiencia de interacción, así como maximizar el valor ofrecido.
El presente artículo tiene como propósito ofrecer una visión integral de Big Data
como una solución tecnológica de avanzada que crece con mucha fuerza en la
Banca, como una estrategia potenciadora de la información, en este sentido, a
través de ésta, se puede hacer frente a los desafíos que requiere el sistema
financiero a fin de descifrar los grandes volúmenes de datos que existen y que no
son explotados completamente. La metodología utilizada se enfocó en una
revisión documental bibliográfica, que permitió concluir la imperante necesidad
que tienen las organizaciones de poder transformar sus datos como ventajas
competitivas en el nuevo esquema para hacer negocio.
Analizamos el mundo a través de un rompecabezas, conformado por piezas de conocimientos que se agrupan en categorizaciones, grupos, familias y etiquetas. Así es como la ciencia ha podido “saber más“ en detalle sobre los diferentes aspectos de la realidad. Pero, ¿qué pasaría si quisiéramos tener un entendimiento completo de una situación “x”? Deberíamos comenzar a descubrir el cuadro completo “big data, big picture” que se esconde detrás de toda pieza analizada.
Presentación usada en la ponencia del 10 de Marzo de 2017, el VI Foro Economía y Economistas que se celebró en la Facultad de Economía, con el título "Economía del Futuro: Hablemos de Big Data"
Los proyectos de Big Data son distintos a otros proyectos de software en muchos aspectos. Para empezar tienen una naturaleza más exploratoria y cuentan con roles únicos que no existen en otros ámbitos.
Este tipo de proyectos están divididos en dos grandes fases: una de investigación, en la que se plantea una hipótesis de trabajo y se desarrollan los conjuntos de datos (datasets) herramientas y técnicas para validarla, y una segunda de explotación, en donde las conclusiones de la fase anterior se lleva a producción.
En esta presentación, correspondiente a la conferencia impartida en Abril de 2016, aprenderás cuáles son esos roles, qué resultados producen y cuáles son las fases y puntos clave de este tipo de proyectos.
El análisis de agrupaciones en un conjunto de datos, o clustering, es una de las técnicas exploratorias de mayor utilidad en la comprensión y caracterización de los problemas.
Esta técnica tiene una gran utilidad en determinar el número óptimo de subconjuntos y sus intervalos dentro de grandes volúmenes de información, lo que a su vez tiene aplicación en áreas como el marketing, la astrofísica o la investigación farmacéutica.
En esta presentación, correspondiente al seminario impartido en Mayo de 2016, aprenderás los conceptos básicos de las técnicas de agrupación y el algoritmo más popular: el cálculo de k-means.
Técnicas de análisis: Reglas de asociaciónRafael Morales
La detección de asociaciones no causales es una de las herramientas descriptivas más interesantes para el analista de Big Data. Porque detectar asociaciones entre hechos causales, es decir que uno lleva necesariamente al otro, es bastante sencillo. Es un problema de "causa y efecto", pero la vida cotidiana está llena de hechos relacionados en donde no existe esa causalidad. Por ejemplo, ¿cuántas personas que compran cierta revista también son aficionados a la cocina de setas? A primera vista no hay ninguna relación entre estos hechos, pero explorando la información enterrada en millones de tickets de compra de cualquier gran superficie podemos averiguar la respuesta. Big Data extrae información relevante para tomar decisiones de negocio, como en este caso.
En esta presentación, correspondiente al seminario impartido por primera vez en Mayo de 2016, aprenderás los conceptos básicos de este tipo de análisis numérico, así como la aplicación del algoritmo de Apriori, que es básico en el desarrollo de otras técnicas de asociación y criba.
Kanban es una herramienta de visualización y organización del trabajo basada en un conjunto de ideas muy simples y flexibles: un tablero siempre a la vista y limitar el trabajo que haces al mismo tiempo.
La simplicidad de sus reglas y la posibilidad de aplicarlo a cualquier proceso definido previamente ha hecho que se popularice de forma espectacular en los últimos años, tanto en la gestión del trabajo en grupo, como a nivel personal.
En esta presentación, correspondiente a la conferencia que imparto habitualmente sobre el tema, aprenderás las características básicas del tablero y las tarjetas, sus reglas de uso y algunas propuestas para empezar a aplicarlo a problemas personales, como la gestión de citas o las ideas para un blog personal.
Sprint Zero es el nombre que recibe una iniciativa de varios usuarios de Scrum, en la que se trata de dar respuesta a la necesidad de inicializar y organizar los recursos de los proyectos gestionados con esta metodología.
Se trata de una práctica que genera una cierta controversia. Por un lado, los más puristas critican el sistema de numeración, la excepcionalidad del ciclo o el mero hecho de que no se produzcan entregables del proyecto. Por otro, los defensores argumentan que la propia preparación del equipo y el entorno de trabajo son un entregable con valor.
Esta presentación corresponde al seminario impartido en Junio de 2016 sobre el mismo tema, del que puedes encontrar un vídeo con un resumen de los puntos más importantes en el canal de YouTube del autor, indicado al final de la presentación. Igualmente las notas de la conferencia están disponibles en formato de ebook y tapa blanda.
Un clúster, o "agrupación" de ordenadores, es una estrategia de supercomputación que se caracteriza por una mayor economía que los sistemas masivamente paralelos de los años 70 y 80. De todas las formas de multiproceso, los clústers y los sistemas de cómputo distribuido en rejilla (grid computing) son los que han adquirido más popularidad, con aplicación en campos como ingeniería, predicción meteorológica o Big Data.
En esta presentación, correspondiente a la conferencia impartida en Febrero de 2016 y actualizada en Mayo de 2017, encontrarás una breve explicación de la evolución de los sistemas de multiproceso, su clasificación, características y algunas limitaciones.
Presentación BigDataMachine para MarketingBigDataMachine
BigDataMachine, es una herramienta tecnológica autoadministrable que convierte los datos online en información de valor para la toma de decisiones. Los datos son capturados, procesados, ordenados, clasificados y reportados en estadísticas.
Cubre las necesidades de múltiples áreas de una empresa, principalmente conocimiento del cliente, marketing, operaciones y gestión del riesgo. Su objetivo es disminuir el riesgo en la variabilidad de los análisis ofreciendo visibilidad, organización y disponibilidad de los datos en el mundo online.
Permite, entre otras cosas: tomar decisiones en tiempo real con datos de valor, capturar oportunidades en ventas y marketing, analizar el comportamiento de los clientes, enriquecer la interacción con el usuario, profundiza el conocimiento de mercados, acelerar los procesos de investigación, detectar tendencias antes que nadie.
Big data, NoSQL y tendencias en Bases de Datos 2018.Roman Herrera
Conceptos y relación del Big Data con bases de datos NoSQL. Comparativa de motores relaciones versus NoSQL. Tendencias en bases de datos. Ranking de popularidad de DBMS.
Sesión píldora organizada en colaboración con Euskalit. Intervención de Julen Iturbe-Ormaetxe, Consultoría Artesana en Red y docente e investigador en la Universidad de Mondragón
El Big Data
Esta presentación nos ayudara a comprender porque es tan importante tomar decisiones con herramientas de analítica y el avance que esto tendrá en nuestras empresas.
Conferencia realizada por el profesor José Ramón Rodríguez con el título "Business intelligence y Big Data en la ciudad: usos y tecnologías". UIMP Barcelona, mayo 2015.
José Ramón Rodríguez es profesor de los Estudios de Informática, Multimedia y Telecomunicación y director académico del Máster en Inteligenica de negocio y Big Data de la UOC.
Se puede concluir que el Big Data se focaliza en la captura y procesamiento de los datos, mientras que el Business Analytics y el Business Intelligence examinan esta información y la utilizan con el fin de optimizar las decisiones.
Big data y su impacto en los Objetivos de Desarrollo Sostenible (ODS) - Unive...Joan David Baena
El camino para medir, controlar y mejoras lo Objetivos del Desarrollo Sostenible es la implementación de proyectos Big Data y la consolidación de los equipos de trabajo interdisciplinarios en el país. Una busqueda continua de casos de éxito como inspiradores a los demás sectores.
Pessoal, compartilho com vocês um ótimo artigo sobre a importância do Big Data, alguns fatos históricos e outros termos relacionados.. Começando do mais básico.. O que é um dado? A palavra vem do latim ´datum`, que significa «o que se dá» e se refere a uma representação simbólica de um atributo ou variável qualitativa ou quantitativa.. É uma fração de informação que pode ser analisada, combinada, armazenada ou transmitida.. Pode se dizer que um dado é à informação, o que um átomo é à matéria.
Los grandes volúmenes de datos o “Big Data” retos y oportunidades. Discernir información relevante, sintetizarla y extraer conocimiento de ella es, cada vez, un aspecto más crítico en la sociedad en que vivimos.
Diapositivas D.I.P.. sobre la importancia que tiene la interpol en HonduraspptxWalterOrdoez22
Es un conjunto de diapositivas creadas para la información sobre la importancia que tienen la interpol en honduras y los tratados entre ambas instituciones
Ipsos, empresa de investigación de mercados y opinión pública, divulgó su informe N°29 “Claves Ipsos” correspondiente al mes de abril, que encuestó a 800 personas con el fin de identificar las principales opiniones y comportamientos de las y los ciudadanos respecto de temas de interés para el país. En esta edición se abordó la a Carabineros de Chile, su evaluación, legitimidad en su actuar y el asesinato de tres funcionarios en Cañete. Además, se consultó sobre el Ejército y la opinión respecto de la marcha en Putre.
2. INTRODUCCIÓN
Big Data es un término de actualidad, que
parece dar respuesta a todos los problemas
empresariales. Pero ¿qué es exactamente?
¿En qué se diferencia de otras técnicas?
raineropenschool.com
3. ALGUNOS CONCEPTOS ERRÓNEOS
Big Data no es:
Cuando hay que analizar más de 1 TB (o 20).
Lo que sustituye a las BBDD relacionales.
Algo imprescindible en la Web 13.7.
4. RESPONDAMOS A ESTOS MITOS…
Big Data no tiene que ver exactamente con el volumen de
datos. No se puede poner la cifra arbitraria de 1TB o 20
TB como referencia. Más bien hablamos de problemas
que van “demasiado deprisa”. Ahora lo veremos mejor…
Las BBDD relacionales no están muertas. De hecho,
TODOS los sistemas de Big Data funcionan con ellas y hay
problemas en los que no se pueden sustituir.
La Web 2.0 introdujo el contenido dinámico (PHP) y la 3.0
la participación del usuario (Redes sociales). A partir de
ahí se ha perdido un poco el norte y esos números son
más un reclamo comercial que un concepto.
5. ENTONCES ¿QUÉ ES ESO DE BIG DATA?
Velocidad
Volumen
Variedad
Doug Laney definió en 2001 los problemas de
Big Data como aquellos en los que se dan las
características de velocidad, volumen y
variedad en la generación de datos.
6. VELOCIDAD
La velocidad se refiere a aquellos escenarios,
como la bolsa, en donde la producción de
datos es muy rápida y continua. El mercado
bursátil funciona a toda velocidad.
7. VOLUMEN
El volumen de los problemas en Big Data
puede ser descomunal. Nunca será posible
aprehender por completo la complejidad del
análisis meteorológico, por ejemplo.
8. VARIEDAD
La variedad se refiere a que no sabemos qué
formato van a tener los datos analizados. Hoy
los móviles dan coordenadas GPS, fotos o
sonido. ¿Y mañana?
9. POR TANTO…
Cuando un problema:
Genera información a una gran velocidad y sin
interrupción.
Genera un gran volumen de datos, capaz de
desbordar sistemas convencionales.
Genera datos en cambio constante, sin que
sepamos su contenido o relación entre sí.
…es candidato a un análisis de Big Data.
10. NUESTRA DEFINICIÓN…
Big Data es un término genérico para
agrupar un conjunto de técnicas y recursos
destinados a analizar información que no
es viable estudiar por medios tradicionales,
con el objetivo de extraer información de
valor y conclusiones útiles.
11. POR EJEMPLO…
Indexar páginas web es un problema de Big
Data: no paran de generarse, es una
barbaridad de información y no sabemos qué
vamos a encontrar en ellas.
12. GENERACIÓN CRECIENTE DE INFORMACIÓN
Esta situación es consecuencia de la creciente
velocidad a la que se genera información, en
especial desde la “inflexión digital” hacia
2002, el momento en que se producen más
datos digitales que analógicos.
13. DESESTRUCTURACIÓN DEL CONTENIDO
Estructurado -> Tablas
Semiestructurado -> XML
Quasiestructurado -> Registros
Desestructurado –> Imágenes
Otra característica de esta tendencia es que la
información cada vez es más desestructurada;
se genera tan rápido que no se organiza muy
bien. ¿Qué estamos buscando, por ejemplo, en
el contenido de una red social?
14. EVOLUCIÓN DE LOS SISTEMAS DE ANÁLISIS
Ficheros
tabulados
Hojas de
cálculo
Bases de datos
relacionales
(OLAP)
Centros de
Proceso de
Datos (DW-BI)
Entornos
analíticos
(Sandbox)
De esta forma, se produce una evolución
lógica, apareciendo estrategias de análisis
para los problemas que vamos generando
como sociedad.
15. BUSINESS INTELLIGENCE VS BIG DATA
Los sistemas de BI se centran más en el
análisis de periodos fijos, mientras que Big
Data se preocupa de explorar relaciones:
¿Qué ha pasado? <- vs -> ¿Qué puede pasar?
16. UNA NUEVA ECONOMÍA DE DATOS
Dispositivos
Recolectores
Agregadores
Usuarios
Las relaciones entre usuarios, tecnología y
proveedores han definido una “economía de
datos”, donde la comprensión de lo que ocurre
proporciona una ventaja competitiva.
17. EL PAPEL DEL CIENTÍFICO DE DATOS
En este contexto surge la necesidad de un perfil
que ayude a todos los interlocutores: alguien que
sepa de informática, de estadística y de negocios,
sin llegar a ser un programador, un estadístico o
un empresario: el científico de datos.
18. HABILIDADES DEL CIENTÍFICO DE DATOS
No hay una “carrera” para ser científico de datos,
sino más bien un conjunto de actitudes y
habilidades que favorecen su trabajo:
Competencias en matemáticas o estadística.
Competencia básica en programación.
Pensamiento crítico y escéptico en el análisis.
Curiosidad y creatividad.
Capacidad para comunicación y colaboración.
19. CONCLUSIONES
El desarrollo de nuestra sociedad de la
información ha generado un valor de negocio en la
comprensión de los datos que genera.
Esta necesidad requiere nuevas técnicas de
análisis de la información que hagan frente a la
velocidad, volumen y variedad de datos que se
producen.
El científico de datos es el profesional que ayuda a
todos los demás a comprender y afrontar este tipo
de problemas.
raineropenschool.com
20. LECTURAS RECOMENDADAS
Data Science & Big Data
Statistics
EMC Education Services
ISBN: 978-1118876138
http://amzn.to/1QTNWH7
Cap. 1, sobre el contenido
de esta presentación
raineropenschool.com
21. SOBRE EL AUTOR
Rafael Morales
Consultor y formador en
Sistemas de información (IT).
Gestión de proyectos (PM).
Aseguramiento de la calidad (QA).
En LinkedIn: http://bit.ly/20Qh0oZ
Email: contacto@rafael-morales.com
raineropenschool.com
22. OTROS CONTENIDOS
Puedes encontrar las notas de
esta conferencia y otras obras
del mismo autor en Amazon:
http://amzn.to/1Rp8yM9
Puedes seguir las novedades
y convocatorias de nuevos
seminarios, cursillos y
presentaciones en
raineropenschool.com
raineropenschool.com