El documento presenta la agenda de una reunión del grupo de desarrolladores de Salesforce en Bilbao. La agenda incluye presentaciones de nuevos miembros, pilotos de Salesforce como Data Pipeline, Big Data y Async Query, y una discusión sobre las nuevas características de Winter '16.
http://www.sqlserversi.com - Visión general de los proyectos de Business Intelligence, basados en Microsoft SQL Server 2000, DTS y Analysis Services 2000.
http://www.sqlserversi.com - Visión general de los proyectos de Business Intelligence, basados en Microsoft SQL Server 2000, DTS y Analysis Services 2000.
Industria 4.0 2017 - Almacenamiento y procesamiento de datos en la nubeRodrigo Corral
Presentación del evento Industria 4.0 que Plain Concepts organiza anualmente en Bilbao. Este año hablé de almacenamiento y procesamiento de grandes volumenes de datos, como los que generan las soluciones de monitoriazción e IoT industriales, en la nube. Hablamos de Azure Data Lake, Cosmos DB, SQL Azure y bases de datos de series temporales como InfluxDb y OpenTSDB.
Log -Analytics con Apache-Flume Elasticsearch HDFS KibanaFelix Rodriguez
I’ve recently started learning more about the tools and technologies that fall under the loose umbrella term of Big Data, let´s try to include getting Apache log data into Hadoop, and bringing Twitter data into Hadoop via ElasticSearch.
Log -Analytics with Apache-Flume Elasticsearch HDFS KibanaFelix Rodriguez
I’ve recently started learning more about the tools and technologies that fall under the loose umbrella term of Big Data, let´s try to get Apache log data into Hadoop, and bringing Info data into Hadoop via ElasticSearch.
Orquestando Pipelines de Datosen AWS con Step Function y AWS GlueGlobant
Speaker: Sebastián Suárez
Video: https://youtu.be/gWr_htOg-iY
Describir a la audiencia como puede orquestar flujos de datos complejos usando AWS Glue y AWS Step Functions. Con estas herramientas se puede orquestar pasos que incluyen scripts SQL, scripts python usando Pandas o Numpy, jobs spark.
---------------------------------------------------------------------------------------------------------------------------------------------------------------
Hay trabajos y hay carreras. Las oportunidades vienen a golpear la puerta cuando menos lo esperas. La decisión es tuya. Desde tener la oportunidad de hacer algo significativo día tras día, hasta estar rodeado de gente supremamente inteligente y motivada.
¿Estás listo?
Descúbre todas nuestras oportunidades acá: https://bit.ly/2PWKky9
---------------------------------------------------------------------------------------------------------------------------------------------------------------
Síguenos en:
Facebook: https://www.facebook.com/Globant/
Twitter: https://twitter.com/Globant
Instagram: https://www.instagram.com/globantpics/
Linkedin: https://www.linkedin.com/company/globant
Visita nuestra página web: https://bit.ly/2XLVYQD
Nos vamos a sumergir en el poder de los componentes que brinda Elasticsearch, combinando el análisis y búsqueda de datos, desde la obtención de los mismos con agentes de Beats, hasta la detección de anomalías con Machine Learning.
Integración de Datos sin límites con PentahoDatalytics
Presentación de Pentaho Data Integration dada durante el foro "Las Dimensiones del BI" en Medellín (COL), donde se presentó la problemática de la integración de datos en la actualidad (cada vez más información, fuentes más diversas, datos no estructurados, etc.), como muchas empresas aún hoy intentan resolver este problema con programación SQL o similar y como Pentaho Data Integration puede no solo resolver este problema de una manera muy ágil, si no también como puede utilizarse para comenzar a analizar la información y realizar tareas de Data Discovery y Data Visualization antes de la generación de cubos, reportes, etc.
Cómo construir tu propia data platform. From zero to hero. GustavoMartin46
Esta presentación es el resultado de la ponencia presentada el día 28 de abril de 2023 en la Salmorejo Tech https://salmorejo.tech/2023/.
Con esta ponencia se buscaba explicar a una audiencia con conocimientos básicos de tecnología, las distintas herramientas que se pueden emplear para construir una plataforma de datos.
La ponencia comienza con una configuración sencilla, que prácticamente cualquier persona del mundo de la informática puede entender. Termina con una configuración compleja, donde sin entrar en muchos detalles, sí permite a la audiencia hacerse una idea de qué herramientas se requieren para implementar la solución.
Industria 4.0 2017 - Almacenamiento y procesamiento de datos en la nubeRodrigo Corral
Presentación del evento Industria 4.0 que Plain Concepts organiza anualmente en Bilbao. Este año hablé de almacenamiento y procesamiento de grandes volumenes de datos, como los que generan las soluciones de monitoriazción e IoT industriales, en la nube. Hablamos de Azure Data Lake, Cosmos DB, SQL Azure y bases de datos de series temporales como InfluxDb y OpenTSDB.
Log -Analytics con Apache-Flume Elasticsearch HDFS KibanaFelix Rodriguez
I’ve recently started learning more about the tools and technologies that fall under the loose umbrella term of Big Data, let´s try to include getting Apache log data into Hadoop, and bringing Twitter data into Hadoop via ElasticSearch.
Log -Analytics with Apache-Flume Elasticsearch HDFS KibanaFelix Rodriguez
I’ve recently started learning more about the tools and technologies that fall under the loose umbrella term of Big Data, let´s try to get Apache log data into Hadoop, and bringing Info data into Hadoop via ElasticSearch.
Orquestando Pipelines de Datosen AWS con Step Function y AWS GlueGlobant
Speaker: Sebastián Suárez
Video: https://youtu.be/gWr_htOg-iY
Describir a la audiencia como puede orquestar flujos de datos complejos usando AWS Glue y AWS Step Functions. Con estas herramientas se puede orquestar pasos que incluyen scripts SQL, scripts python usando Pandas o Numpy, jobs spark.
---------------------------------------------------------------------------------------------------------------------------------------------------------------
Hay trabajos y hay carreras. Las oportunidades vienen a golpear la puerta cuando menos lo esperas. La decisión es tuya. Desde tener la oportunidad de hacer algo significativo día tras día, hasta estar rodeado de gente supremamente inteligente y motivada.
¿Estás listo?
Descúbre todas nuestras oportunidades acá: https://bit.ly/2PWKky9
---------------------------------------------------------------------------------------------------------------------------------------------------------------
Síguenos en:
Facebook: https://www.facebook.com/Globant/
Twitter: https://twitter.com/Globant
Instagram: https://www.instagram.com/globantpics/
Linkedin: https://www.linkedin.com/company/globant
Visita nuestra página web: https://bit.ly/2XLVYQD
Nos vamos a sumergir en el poder de los componentes que brinda Elasticsearch, combinando el análisis y búsqueda de datos, desde la obtención de los mismos con agentes de Beats, hasta la detección de anomalías con Machine Learning.
Integración de Datos sin límites con PentahoDatalytics
Presentación de Pentaho Data Integration dada durante el foro "Las Dimensiones del BI" en Medellín (COL), donde se presentó la problemática de la integración de datos en la actualidad (cada vez más información, fuentes más diversas, datos no estructurados, etc.), como muchas empresas aún hoy intentan resolver este problema con programación SQL o similar y como Pentaho Data Integration puede no solo resolver este problema de una manera muy ágil, si no también como puede utilizarse para comenzar a analizar la información y realizar tareas de Data Discovery y Data Visualization antes de la generación de cubos, reportes, etc.
Cómo construir tu propia data platform. From zero to hero. GustavoMartin46
Esta presentación es el resultado de la ponencia presentada el día 28 de abril de 2023 en la Salmorejo Tech https://salmorejo.tech/2023/.
Con esta ponencia se buscaba explicar a una audiencia con conocimientos básicos de tecnología, las distintas herramientas que se pueden emplear para construir una plataforma de datos.
La ponencia comienza con una configuración sencilla, que prácticamente cualquier persona del mundo de la informática puede entender. Termina con una configuración compleja, donde sin entrar en muchos detalles, sí permite a la audiencia hacerse una idea de qué herramientas se requieren para implementar la solución.
Similar a 9th Salesforce Developer Group meeting in Bilbao (20)
Convocatoria de becas de Caja Ingenieros 2024 para cursar el Máster oficial de Ingeniería de Telecomunicacion o el Máster oficial de Ingeniería Informática de la UOC
1º Caso Practico Lubricacion Rodamiento Motor 10CVCarlosAroeira1
Caso pratico análise analise de vibrações em rolamento de HVAC para resolver problema de lubrificação apresentado durante a 1ª reuniao do Vibration Institute em Lisboa em 24 de maio de 2024
Se denomina motor de corriente alterna a aquellos motores eléctricos que funcionan con alimentación eléctrica en corriente alterna. Un motor es una máquina motriz, esto es, un aparato que convierte una forma determinada de energía en energía mecánica de rotación o par.
Una señal analógica es una señal generada por algún tipo de fenómeno electromagnético; que es representable por una función matemática continua en la que es variable su amplitud y periodo en función del tiempo.
4. Pilotos - Data Pipeline
Permite manejar grandes volúmenes de Datos
Proceso Asíncrono y Paralelo
Rápido
ETL Extract – Transform – Load
Usa Apache Pig
Oper Source
Lenguaje Pig Latin
Beneficios al usarlo en Salesforce Data Pipeline
Entorno Multitenant
No governor limits Bulk API
5. Pilotos - Data Pipeline
¿Cómo lo ejecutamos?
Developer Console
Durante deploy desde API 33.0
Los scripts se empaquetan
6. Pilotos - Data Pipeline
Origen:
Objetos
Standard / Custom
External
Big Objects
Ficheros
Destino
Objetos
Standard / Custom
Big Objects
Files
7. Pilotos – Big Data
Nuevo tipo de objeto Big Object
No ocupan almacenamiento
Usa HBase (Hadoop database) en vez de Oracle
Ayuda durante el manejo de billones de registros
8. Pilotos – Big Data
Custom Object Big Object
Creation Manual & Metadata Metadata
API name myObject__c myObject__b
Enable Reports; Track
Activities, Track Field
History, etc
Options Available Options NO Available
Field Types All Text; Date/Time;
Lookups; Numbers
Able to edit / delete fields Yes No
Triggers; Field Sets; Options Available Options NO Available
9. Pilotos – Big Data
Custom Object Big Object
How to populate records All Options Bulk API; SOAP API;
Data Pipeline
Can I amend a record? Yes No clone
Can I see data via a
custom Tab
Yes Yes (desde Winter ‘16)
11. Pilotos – Async Query
Big Objects con billones de registros ¿llega a los
límites?
Nuevo piloto Async Query (puede cambiar)
Ejecución via REST API
¿Puedo usar Apex?
Sí, siempre y cuando pueda hacer una llamada a REST API
12. Pilotos – Archive
Archivar / Almacenar información
¿Qué es Archive?
No es un producto para el usuario final
Es una API para liberar espacio en la organización.
Ej: Mover de Custom / Standard objects a Big Objects
13. Pilotos – Restricciones
Data Pipeline
Tamaño y complejidad (20 operaciones, 20 load, 10 stores /
script)
Hasta 30 scripts al día soft limit
No governor limits restricciones Bulk API no soporta
count()
No podemos llamarlo desde Apex
No soporta M-D workaround entrada blog
Implementation restrictions:
No proporciona debug
No podemos “confiar” en los resultados satisfactorios
Error handling
No podemos tomar el control del proceso
14. Pilotos – Restricciones
Big Data
No proporciona todos los tipos de datos
No se pueden modificar objetos / campos
No se pueden modificar los datos de registros
Máximo 100 objetos por organización
No disponible en Salesforce1
15. Pilotos – Aspectos comerciales
Costes
Adicionales
Basados en el almacenamiento (probablemente)
Generally Available Summer ‘16 (safe harbor)