Tutorial de Data Science que dicté en el workshop CIO Update 2016. Enseño la revolución en el procesamiento de datos, la transición al cuarto paradigma del descubrimiento científico y las herramientas comúnmente empleadas en Data Science. Charla dictada el 19 de agosto del 2016 http://www.cioupdate.cl
Tutorial de Data Science que dicté en el workshop CIO Update 2016. Enseño la revolución en el procesamiento de datos, la transición al cuarto paradigma del descubrimiento científico y las herramientas comúnmente empleadas en Data Science. Charla dictada el 19 de agosto del 2016 http://www.cioupdate.cl
Cómo hacer jabones con inclusiones, con base de jabón de glicerina
Este tutorial forma parte del Curso Online de Elaboración de Jabones Naturales.
Inscríbete en https://aula-natural.com/
Eventually Elasticsearch: Eventual Consistency in the Real WorldBeyondTrees
Based on the experience of an ElasticSearch implementation at bol.com, we'll discuss the consequences of different modes of operation of ElasticSearch in an environment of existing SQL databases. How can you connect ElasticSearch to change queues of other databases, how can the versioning mechanism be used to implement optimistic locking, and what are the consistency consequences of using ElasticSearch as either a free text index on external data, a data cache or as the single source-of-truth system?
The Asian financial crisis was a period of financial crisis that gripped much of East Asia beginning in July 1997 and raised fears of a worldwide economic meltdown due to financial contagion.
Financial contagion refers to “the spread of market disturbances -- mostly on the downside -- from one country to the other, a process observed through co-movements in exchange rates, stock prices, sovereign spreads, and capital flows." Financial contagion can be a potential risk for countries who are trying to integrate their financial system with international financial markets and institutions. It helps explain an economic crisis extending across neighboring countries, or even regions.
La geografía y la estadística. dos necesidades para entender big datapedro_juanes
Definir de manera concreta y concisa Big Data como fenómeno. Justificar la Estadística Multivariante aplicada a Big Data. Clasificar y calificar las técnicas multivariantes clásicas que se pueden aplicar.Presentar la GISciencia como el vehículo curricular adecuado para el tratamiento académico, conceptual y de desarrollo analítico final del Big Data.
Modelos Matemáticos
Universidad Autónoma de la Ciudad de México
Medicina
Población
Metalurgia
Universidad de Chile
UNAM
Android
Investigación de modelos matemáticos
Economía
Análisis de imágenes
Cómo hacer jabones con inclusiones, con base de jabón de glicerina
Este tutorial forma parte del Curso Online de Elaboración de Jabones Naturales.
Inscríbete en https://aula-natural.com/
Eventually Elasticsearch: Eventual Consistency in the Real WorldBeyondTrees
Based on the experience of an ElasticSearch implementation at bol.com, we'll discuss the consequences of different modes of operation of ElasticSearch in an environment of existing SQL databases. How can you connect ElasticSearch to change queues of other databases, how can the versioning mechanism be used to implement optimistic locking, and what are the consistency consequences of using ElasticSearch as either a free text index on external data, a data cache or as the single source-of-truth system?
The Asian financial crisis was a period of financial crisis that gripped much of East Asia beginning in July 1997 and raised fears of a worldwide economic meltdown due to financial contagion.
Financial contagion refers to “the spread of market disturbances -- mostly on the downside -- from one country to the other, a process observed through co-movements in exchange rates, stock prices, sovereign spreads, and capital flows." Financial contagion can be a potential risk for countries who are trying to integrate their financial system with international financial markets and institutions. It helps explain an economic crisis extending across neighboring countries, or even regions.
La geografía y la estadística. dos necesidades para entender big datapedro_juanes
Definir de manera concreta y concisa Big Data como fenómeno. Justificar la Estadística Multivariante aplicada a Big Data. Clasificar y calificar las técnicas multivariantes clásicas que se pueden aplicar.Presentar la GISciencia como el vehículo curricular adecuado para el tratamiento académico, conceptual y de desarrollo analítico final del Big Data.
Modelos Matemáticos
Universidad Autónoma de la Ciudad de México
Medicina
Población
Metalurgia
Universidad de Chile
UNAM
Android
Investigación de modelos matemáticos
Economía
Análisis de imágenes
Conferencia impartida como parte de las actividades realizadas en conmemoración del aniversario de la Carrera de Matemática de la Universidad Mayor de San Andrés (UMSA).
Congreso Latina de Comunicación Social. La Laguna,
Tenerife. 5 de diciembre de 2013. Mesa de debate
“Ciencias sociales y humanidades digitales (…)”. *Aportación enmarcada en Proyecto de Investigación “Ciencias Sociales y Humanidades Digitales: casos, gestión y modelos de negocio” (Campus de Excelencia Internacional BioTic Granada, convocatoria 2013).
*Próximamente disponible en monográfico CAC.
El mundo de Big Data y Data Science es altamente técnico, pero entender cuáles son sus ideas centrales no requiere súper poderes. Explicaremos en qué consiste esta fascinante tendencia tecnológica y sus principales conceptos, herramientas y posibilidades.
El constante uso de las tecnologías ha traído consigo un crecimiento explosivo en la cantidad de datos. El gran contenido de valor que genera este tipo de información está permitiendo a las organizaciones una mejora en la toma de sus decisiones, lo que conlleva a la obtención de ventajas competitivas en los diferentes campos de acción. En este artículo se describe el estado del arte, las oportunidades, retos y tendencias que existen sobre “Big Data Analytics”, con un enfoque hacia el Software.
Hoy en día, la minería de datos (MD) está consiguiendo cada vez más captar la atención de las empresas. Todavía es
infrecuente oír frases como “deberíamos segmentar a nuestros clientes utilizando herramientas de MD”, “la MD
incrementará la satisfacción del cliente”, o “la competencia está utilizando MD para ganar cuota de mercado”.
En la actual sociedad de la información, donde cada día se multiplica la cantidad de datos almacenados casi de forma exponencial, la minería de datos es una herramienta
fundamental para analizarlos y explotarlos de forma eficaz para
los objetivos de cualquier organización.
Introducción a Big Data
Las unidades temáticas y ejemplos están motivados mayormente en problemas actuales derivados de la Web, su estructura y en los datos que ésta genera a partir de sitios de noticias, redes sociales, buscadores de internet, sistemas de comercio electrónico, entre otros. Para ello se han diseñado una recopilación de técnicas, algoritmos y problemas agrupado en ejes temáticos.
Se dará énfasis a la problemática conocida como Big Data que trata sobre el tamaño de los datos, el modelo de arquitectura y file systems distribuidos de gran escala.
Introducción a los problemas sobre volúmenes de datos muy grandes (Big Data); arquitectura de datos y file system distribuidos de gran escala y modelo map reduce para diseñar algoritmos paralelos. Principio de Bonferroni, límite estadístico en el data-mining. Paradoja de Rhine, Detección de gente sospechosa
Referencias:
http://7puentes.com
http://datamining.dc.uba.ar
http://www.mmds.org
Los avances tecnológicos del último siglo nos han permitido abrir nuevas ventanas de exploración y nos han ayudado a empujar las fronteras del conocimiento. Gracias a la introducción de computadores cada vez más veloces e instrumentos astronómicos cada vez más sensibles a la luz, hoy en día contamos con catálogos de cientos de millones de estrellas y galaxias que habitan en nuestro Universo. Vivimos en la Era de la información y la exploración del Universo requiere que sepamos de Astronomía, Informática y Estadística.
Global AI nights - Casos de uso de ML en AstronomiaRoberto Muñoz
Charla que dicte en el capitulo chileno de Global AI Nights en Septiembre del 2019. Se muestran dos casos de uso para observatorios astronomicos en Chile
Inserción de científicos en la industria tecnológicaRoberto Muñoz
Charla que dicté en el 1er Workshop de Innovación organizado por la Universidad de Santiago de Chile. Presento el actual escenario en latinoamerica y Chile acerca de la inserción de científicos en el sector productivo. Cierro entregando un par ce consejos a estudiantes de pregrado y posgrado en disciplinas científicas.
An invited talk I gave in the Observatorio de Cordoba in Argentina. I talk about my research in Astronomy and how I made the transition from academia to industry.
I will list the main differences between the academic and industrial research, what skills are the most valued by tech companies and how young scientists can make the move to industry as smoothly and successful as possible.
Avances y desafíos en la exploración del UniversoRoberto Muñoz
Charla que dicté en el colegio Sol de Chile de la comuna de Los Espejo en Santiago, Chile. La charla estuvo enmarcada dentro de las actividades del Día del Asteroide.
Video analytics: Mejorando la seguridad y calidad de vidaRoberto Muñoz
Charla que dicté en el evento de Internet of Things organizado por Microsoft y MetricArts en Chile. Se discute acerca de la solución tecnológica que hemos desarrollado para mejorar la seguridad en el transporte público y la ciudad.
From astronomy to video analytics industryRoberto Muñoz
Talk I gave at the 3rd Astroengineering workshop in Santiago, Chile. Projects I'm currently involved as a researcher in an Institute of Astrophysics and a Business intelligence company.
Efficient data reduction and analysis of DECam images using multicore archite...Roberto Muñoz
A talk I gave in the workshop "Tools for astronomical big data" held in Tucson, Arizona on March 2015. My talk was about how to do data science and big data in Astronomy having a small budget.
The Next Generation Fornax Survey - Pucon Symposium 2015Roberto Muñoz
It's the talk I gave in the Pucon Symposium 2015 about the Next Generation Fornax Survey and the discovery of a large number of dwarf galaxies in the Fornax cluster.
Astronomía en la era del big data - Arica, junio del 2015Roberto Muñoz
Charla dada en la ciudad de Arica, Chile acerca de cómo la comunidad astronómica chilena se está preparando para el tsunami de datos que están generando los telescopios en territorio nacional.
Diapositivas D.I.P.. sobre la importancia que tiene la interpol en HonduraspptxWalterOrdoez22
Es un conjunto de diapositivas creadas para la información sobre la importancia que tienen la interpol en honduras y los tratados entre ambas instituciones
Ipsos, empresa de investigación de mercados y opinión pública, divulgó su informe N°29 “Claves Ipsos” correspondiente al mes de abril, que encuestó a 800 personas con el fin de identificar las principales opiniones y comportamientos de las y los ciudadanos respecto de temas de interés para el país. En esta edición se abordó la a Carabineros de Chile, su evaluación, legitimidad en su actuar y el asesinato de tres funcionarios en Cañete. Además, se consultó sobre el Ejército y la opinión respecto de la marcha en Putre.
2. Cómo
la
Ciencia
ha
impactado
mi
vida
y
cómo
yo
he
impactado
a
la
Ciencia
3. Una
ventana
al
Universo
Norte de Chile
Cielos claros y transparentes
4. Carrera
como científico
• Tesis de Doctorado en Astrofísica acerca de cómo
evolucionanlas galaxias elítipticas.
• Uso de grandes telescopios en Chile y
colaboraciones con Francia, USA, Canada, etc.
Very Large Teslecope (VLT)
5. Datos
en
Astronomía
• Desde la obtención del dato crudo hasta la
generación de resultados en forma de tablas y
gráficos.
• Testigo del impacto del Big data en Astronomía:
SDSS (1998) llena discos duros de 8GB en 25 min.
Time
span:
15
years
Area:
14,555
deg2
#
sources:
469,053,874
6. Dato procesadoDato crudo
Ciencia
guiada
por
los
datos
• Jim Gray,
investigador
de
Microsoft,
hizo
notar
que
la
Ciencia
entró
al
cuarto
paradigma:
Data-‐driven Science
Muñoz et al. 2015
8. Evolución
procesamiento
de
datos
• 1890:
Se
usa
la
máquina
tabuladora
de
Hollerith
para
procesar
los
datos
del
censo
de
EE.UU.
• 1951:
Se
diseña
el
primer
computador
electrónico
con
fines
comerciales,
UNIVAC
I.
Cómputo
Manual
Cómputo
Automático
Cómputo
Automático
Cómputo
Electrónico
9. Costo
del
cómputo
• Desde
la
invención
de
los
computadores
electrónicos,
tanto
el
precio
como
el
tamaño
han
disminuido
sostenidamente.
10. Tsunami
de
datos
• Durante
las
últimas
décadas
la
sociedad
en
su
conjunto
se
ha
digitalizado.
• Mayor
capacidad
de
cómputo
y
tecnología
más
asequible
han
permitido
un
crecimiento
explosivo
de
los
datos.
Fuente: Oracle, 2012
Los datos crecen a una tasa
anual del 40%.
Se estima una producción
de 45 ZB para el 2020. 10
ZB
45
ZB
1
ZB=1024
EB
1
EB=1024
PB
11. Comunidad
Open
Source
• Una
mayor
variedad
y
cantidad
de
datos
trae
consigo
nuevos
desafíos.
• Desarrollo
continuo
de
herramientas
y
métodos
para
analizar
los
datos.
• Transición
de
software
empaquetado
y
comercial
a
uno
desarrollado
por
comunidad
open
source.
12. ¿Qué
es
la
Ciencia
de
datos?
• Data Science es un campo interdisciplinario que
se ocupa de los procesos y sistemas usados en la
extracción de conocimiento a partir del análisis
de datos.
• Se dice interdisciplinario pues requiere
conocimientos de los campos de la computación,
matemáticas y estadística.
Programación Estadística Data
Science
13. ¿Cambio
de
paradigma?
• Los
datos
digitales
y
las
tecnologías
han
cambiado
la
manera
en
cómo
vivimos
y
cómo
entendemos
el
mundo.
• Jim Gray,
investigador
de
Microsoft
y
pionero
en
bases
de
datos
introdujo
el
concepto
del
cuarto
paradigma.
• Era
experimental,
teórica
computacional
y
últimamente
la
Era
del
dato.
14. Carácter
interdisciplinario
Diagrama de
Venn
para
Data
Science
Drew
Conway
(2010)
Habilidades
Programación
Exploración de datos
Soluciones creativas
Conocimientos
Matemáticas
Estadística
Experticia
Especialización
Conocimiento
de
campo
15. ¿Qué
hace
un
Data
Scientist?
• Profesional
que
posee
las
herramientas
y
los
conocimientos
necesarios
para:
§ Recolectar
y
filtrar
datos
de
diversas
fuentes
§ Explorar de
manera
efectiva
un
set
de
datos
§ Obtener
información
valiosa
oculta
en
los
datos
§ Construir
modelos
que
permitan
tomar
decisiones
informadas.
Data Scientist: Persona que es mejor en estadística que
cualquier ingeniero de software y que es mejor en ingeniería
de software que cualquier estadístico.
17. Conocimientos
y
Habilidades
• Formación
universitaria
en
las
áreas
de
Ingeniería
y
Ciencias
Naturales.
Idealmente
tienen
Magister
y
PhD.
• Poseen
conocimientos
de
Matemáticas,
Estadística
y
Programación
computacional.
• Se
caracterizan
por
su
curiosidad
intelectual,
son
capaces
de
diseñar
experimentos
y
comunicar
de
manera
efectiva
los
resultados.
22. Visión computacional
• Enseñar
a
las
máquinas a
ver
e
interpretar
tal
como
lo
hacemos
los
humanos.
• Interdisciplinario:
Matemáticas,
Física,
AI
23. Industria
automotriz
• ¿Por
qué
usar
Visión
Computacional?
§ 3.500
personas
mueren
todos
los
días en
accidentes
de
tránsito
en
el
mundo
§ Gastamos
cerca
de
1
hora
conduciendo
Ingresos: 240 millones USD (2015)
Mobileye, 2015
24. Seguridad
y
Transporte
• Los
sistemas
de
vigilancia
cumplen
un
rol
clave
en
la
seguridad
y
mejora
de
experiencia
de
usuario
en
las
industrias
del
retail,
transporte
público
y
orden
público.
25. Metric Video
Analytics
• Análisis
de
cámaras
de
seguridad
en
tiempo
real,
escalable
y
de
bajo
costo.
• Integración
con
la
plataforma
Azure
de
Microsoft
y
capacidad
de
analítica
avanzada.
26. Informes
y
alertas
• Conteo
y
seguimiento
de
personas
• Alertas
de
actos
delictuales
y
evasión
• Datos
demográficos
de
clientes
y
usuarios