Presentation displayed at the JNIC17 (National Cybersecurity Research Jorneys) prize awards ceremony, where I was lucky enough to be awarded with the 3rd Best Student Work Prize.
Andrés Bernal es un arquitecto de software con experiencia en diseño e implementación de proyectos de software usando herramientas como DevOps. Tiene habilidades en liderazgo técnico y en comunicación con clientes. Algunos proyectos notables incluyen un sistema de adquisición de tarjetas de crédito usando BPM y microservicios, un sistema de originación de créditos para vehículos usando BPM y arquitectura monolítica, y un sistema distribuido para monitoreo y gestión de redes eléctricas usando m
El documento describe los desafíos y las innovaciones en la infraestructura de Ant Financial. Detalla el crecimiento exponencial de los negocios de Ant Financial entre 2010 y 2017 en términos de transacciones, volumen y capacidad de procesamiento. También explica algunos de los dominios desafiantes como el procesamiento de transacciones a gran escala y las decisiones en tiempo real, así como las soluciones tecnológicas implementadas como SOFA y OceanBase.
Gestión de requisitos y su trazabilidad en la Gestión de Servicios TI: Una vi...OVERTI
Una demostración práctica de técnicas para la gestión de la trazabilidad de requisitos hacia elementos del SKMS tales como elementos de configuración, SLAs, Servicios… Para ello se integrará una aplicación de gestión de servicios TI con una aplicación de gestión de trazabilidad de requisitos y comprobaremos cómo interactúan entre ellas, realizando acciones como captura de requisitos, verificación del cumplimiento de requisitos, trazabilidad, porcentaje de requisitos cubiertos, etc… Además, mostraremos la capacidad de generación de informes que generan evidencias para controles internos y auditorías.
Introducción a Live Cycle Data Services - Michael BorbórBarcamp Ecuador
Este documento introduce LiveCycle Data Services, que permite crear aplicaciones ricas de Internet que usan datos de forma intensiva con menos código y menor riesgo. LiveCycle Data Services integra aplicaciones existentes con datos y servicios back-end, y facilita la integración con servicios y procesos de LiveCycle. También permite aplicaciones colaborativas, aplicaciones desconectadas y aplicaciones de transmisión de datos en tiempo real a través de mensajería de publicar y suscribirse.
Candoit posee un equipo de unos 30 desarrolladores (java, .net y mobile) haciendo aplicaciones web y mobile para clientes de todo el mundo. Hacemos trabajos a medida.
Software Factory Boutique - construimos la aplicacion que necesitas - info@candoit.com.ar
Candoit posee un equipo de unos 30 desarrolladores (java, .net y mobile) haciendo #aplicaciones web y #mobile para clientes de todo el mundo. Hacemos trabajos a medida.
#Software Factory Boutique - construimos la aplicacion que necesitas - Llegamos a la mano de tu cliente - info@candoit.com.ar
Natali Lujan Allende es una data scientist con una maestría en ciencia de datos y especializaciones en marketing digital. Trabaja en el área de analítica digital realizando análisis de datos, creación de modelos, e informes para tomar mejores decisiones de negocio. Sus responsabilidades incluyen el seguimiento de métricas clave, segmentación de clientes, y optimización de campañas digitales.
Modelos predictivos para el sector asegurador usando datos masivos (Big Data ...JCarlos Gonzalez Joyé
Este documento presenta un proyecto de predicción para una compañía de seguros utilizando datos masivos (Big Data). El proyecto compara algoritmos de aprendizaje automático implementados en Spark para predecir si un cliente realizará una reclamación. Las etapas incluyen exploración de datos, preparación, modelado, evaluación y comparativa de métricas. Los mejores resultados se obtuvieron con redes neuronales y ensambles de árboles de decisión, superando el rendimiento del ganador de la competición Kaggle.
Andrés Bernal es un arquitecto de software con experiencia en diseño e implementación de proyectos de software usando herramientas como DevOps. Tiene habilidades en liderazgo técnico y en comunicación con clientes. Algunos proyectos notables incluyen un sistema de adquisición de tarjetas de crédito usando BPM y microservicios, un sistema de originación de créditos para vehículos usando BPM y arquitectura monolítica, y un sistema distribuido para monitoreo y gestión de redes eléctricas usando m
El documento describe los desafíos y las innovaciones en la infraestructura de Ant Financial. Detalla el crecimiento exponencial de los negocios de Ant Financial entre 2010 y 2017 en términos de transacciones, volumen y capacidad de procesamiento. También explica algunos de los dominios desafiantes como el procesamiento de transacciones a gran escala y las decisiones en tiempo real, así como las soluciones tecnológicas implementadas como SOFA y OceanBase.
Gestión de requisitos y su trazabilidad en la Gestión de Servicios TI: Una vi...OVERTI
Una demostración práctica de técnicas para la gestión de la trazabilidad de requisitos hacia elementos del SKMS tales como elementos de configuración, SLAs, Servicios… Para ello se integrará una aplicación de gestión de servicios TI con una aplicación de gestión de trazabilidad de requisitos y comprobaremos cómo interactúan entre ellas, realizando acciones como captura de requisitos, verificación del cumplimiento de requisitos, trazabilidad, porcentaje de requisitos cubiertos, etc… Además, mostraremos la capacidad de generación de informes que generan evidencias para controles internos y auditorías.
Introducción a Live Cycle Data Services - Michael BorbórBarcamp Ecuador
Este documento introduce LiveCycle Data Services, que permite crear aplicaciones ricas de Internet que usan datos de forma intensiva con menos código y menor riesgo. LiveCycle Data Services integra aplicaciones existentes con datos y servicios back-end, y facilita la integración con servicios y procesos de LiveCycle. También permite aplicaciones colaborativas, aplicaciones desconectadas y aplicaciones de transmisión de datos en tiempo real a través de mensajería de publicar y suscribirse.
Candoit posee un equipo de unos 30 desarrolladores (java, .net y mobile) haciendo aplicaciones web y mobile para clientes de todo el mundo. Hacemos trabajos a medida.
Software Factory Boutique - construimos la aplicacion que necesitas - info@candoit.com.ar
Candoit posee un equipo de unos 30 desarrolladores (java, .net y mobile) haciendo #aplicaciones web y #mobile para clientes de todo el mundo. Hacemos trabajos a medida.
#Software Factory Boutique - construimos la aplicacion que necesitas - Llegamos a la mano de tu cliente - info@candoit.com.ar
Natali Lujan Allende es una data scientist con una maestría en ciencia de datos y especializaciones en marketing digital. Trabaja en el área de analítica digital realizando análisis de datos, creación de modelos, e informes para tomar mejores decisiones de negocio. Sus responsabilidades incluyen el seguimiento de métricas clave, segmentación de clientes, y optimización de campañas digitales.
Modelos predictivos para el sector asegurador usando datos masivos (Big Data ...JCarlos Gonzalez Joyé
Este documento presenta un proyecto de predicción para una compañía de seguros utilizando datos masivos (Big Data). El proyecto compara algoritmos de aprendizaje automático implementados en Spark para predecir si un cliente realizará una reclamación. Las etapas incluyen exploración de datos, preparación, modelado, evaluación y comparativa de métricas. Los mejores resultados se obtuvieron con redes neuronales y ensambles de árboles de decisión, superando el rendimiento del ganador de la competición Kaggle.
Commit 2018 - Integrando Microservicios y Machine LearningRafa Hidalgo
1) El documento describe una arquitectura para integrar modelos de machine learning en una aplicación mediante microservicios.
2) Se propone dividir la aplicación en tres servicios principales - interfaz, servicios y ML - empaquetados como contenedores Docker y orquestados por Kubernetes.
3) La arquitectura permite el desarrollo políglota usando diferentes tecnologías para cada servicio, con integración continua y entrega continua mediante Jenkins.
Azure4Research - Big Data Analytics con Hadoop, Spark y Power BIAlberto Diaz Martin
n esta sesión, veremos el desarrollo de un proceso de AI con Azure Databricks que nos ayudará a trabajar con datos estructurados y no estructurados, a obtener una visión profunda del algoritmo a implementar e incluso crear un ciclo aprendizaje en tiempo real. El objetivo será adentrarnos en un proyecto de AI para preparar los datos, realizar el análisis que nos permita elegir un algoritmo, entrenar un modelo y ejecutar una predicción de dicho modelo. Todo esto con mucho Big Data y Power BI como herramienta de Reporting.
Este documento presenta el currículum de Gustavo Cornejo Gonzales, un profesional con más de 30 años de experiencia en TI, gestión de proyectos, análisis, desarrollo e implementación de sistemas host comerciales, financieros y de tarjetas de crédito. Ha trabajado para bancos como BCP, BFP y AFP Prima, así como para empresas como Tata Consultancy Services, Scotiabank Chile y Mibanco. Tiene certificaciones PMI y Oracle, y experiencia en herramientas como Load Runner, JMeter y Test Complete.
El documento presenta a Keepler Data Tech, una empresa especializada en servicios de datos en la nube. Ofrece servicios como el diseño y despliegue de plataformas de datos en la nube pública, análisis de Big Data e Inteligencia Artificial. Cuenta con una amplia experiencia en proyectos de datos y nube desde 2012 y el 90% de sus técnicos están certificados. Sus soluciones se construyen a medida para cada cliente utilizando tecnologías serverless y servicios gestionados en la nube.
Este documento proporciona información sobre Zemsania, una organización que ofrece servicios y soluciones tecnológicas. Describe las cuatro divisiones de soluciones y servicios técnicos de Zemsania, sus dos áreas geográficas y ocho zonas de negocio. También resume la evolución de Zemsania desde 2003 hasta la actualidad, incluyendo nuevas oficinas, divisiones y soluciones. Finalmente, detalla las capacidades de Zemsania en perfiles técnicos, metodologías, certificaciones de calidad y mercados objetivo
Este documento proporciona información sobre Entity Framework, un ORM para .NET que permite trabajar con datos relacionales usando objetos de dominio. Explica conceptos clave como EDM, LINQ, Entity SQL y provee consejos sobre rendimiento como usar caché, paginación y diferentes estrategias de herencia en EF.
Analista Programador con más de 20 años de experiencia en Oracle PL SQL Forms y Reports en
Telecomunicaciones (Financiero y Proveedores), Administración Pública (Gestión de Cobros, Gestión de Acceso a Datos), Bancario (Contabilidad Financiera) y Seguros (Gestión de Siniestros) con un método de trabajo de desglose del problema en partes aplicando métodos aprendidos con una mentalidad abierta a nuevas perspectivas, con afán de superación, con una actuación ágil y decidida en los momentos críticos, planificando actividades por prioridad y promoviendo la participación y comunicación del equipo de trabajo creando un clima de cooperación.
DISEÑO DE UN PROTOTIPO FUNCIONAL DEL SISTEMA DE INFORMACIÓN PARA LA GESTIÓN D...Manuel Mujica
UNIVERSIDAD CENTROCCIDENTAL “LISANDRO ALVARADO”
DECANATO DE CIENCIA Y TECNOLOGÍA
ESPECIALIZACION EN TECNOLOGIA DE INFORMACION Y
COMUNICACIÓN
DISEÑO DE UN PROTOTIPO FUNCIONAL DEL SISTEMA DE INFORMACIÓN PARA LA GESTIÓN DE LAS LECTURAS DE CONSUMO
ELÉCTRICO PARA LA EMPRESA ENERGÍA ELÉCTRICA DE BARQUISIMETO C.A
Autor: Luís Dellán.
Tutor: Dr. Carlos Primera.
Año: 2.011.
RESUMEN
El presente trabajo de investigación se orienta en el diseño de un prototipo funcional de sistema de información para gestionar las lecturas de consumo eléctrico en la empresa Enelbar C.A, con sede en Barquisimeto-Edo. Lara, específicamente en el
Departamento de Lecturas (Región Centro-Norte). Esto impulsado por diversos incidentes que van desde errores en las lecturas hasta el manejo del volumen de información, pasando por los reportes generados, bajo rendimiento del sistema actual,
poca documentación, entre otros. La elaboración del estudio se enmarcó en la modalidad de proyecto factible, apoyado en una investigación de campo de carácter descriptivo, cumpliendo con las siguientes fases: Fase I Diagnóstico, Fase II Factibilidad, Fase III Diseño de la Propuesta. Como técnicas de recolección de información se usaron la observación directa, entrevistas estructuradas y los
cuestionarios. El prototipo desarrollado abarca los procesos de importar ciclo, anular ciclo y registrar EPL. Finalmente, se concluye que el desarrollo del diseño del sistema información para la gestión de las lecturas de consumo eléctrico permitió generar un prototipo funcional que podría catalogarse de evolutivo debido a que con un esfuerzo
adecuado de programación puede convertirse en el sistema a ser usado por la empresa, recomendándose implantar el mismo para que apoye los procesos críticos de Enelbar c.a y aporte valor agregado al cliente.
Palabras Claves: Sistemas de Información, Gestión de Información, Prototipo,
Lecturas de Consumo Eléctrico.
Olalekan Elesin es un ingeniero de datos con experiencia en el procesamiento y análisis de grandes conjuntos de datos usando herramientas como Apache Hadoop, Spark, Kafka y PrestoDB. También tiene experiencia desarrollando modelos de aprendizaje automático usando técnicas como clasificación, regresión y agrupamiento para lograr objetivos de negocio. Actualmente trabaja como ingeniero de datos para una empresa de tecnología donde ha mejorado el rendimiento de plataformas y aplicaciones a través del análisis y procesamiento de
Este CV resume la experiencia laboral y educación de José Martínez. Martínez tiene una Licenciatura en Ciencias de la Computación y experiencia trabajando como consultor de negocios, ingeniero de software y probador para varias compañías en España, Países Bajos, Irlanda y el Reino Unido. Sus habilidades incluyen metodologías ágiles, Java, bases de datos Oracle y herramientas de pruebas automatizadas.
BrokerTrade Aplicación para la recomendación de compra de Acciones en tiempo ...Albert Obiols
El objetivo de este proyecto es realizar una aplicación piloto para poner al alcance del pequeño inversor técnicas de Machine Learning para que pueda identificar cuáles son los mejores momentos para comprar acciones del IBEX 35.
Concretamente realizaremos predicciones de compra a 20 sesiones bursátiles con el objetivo de ganar un 10%, de no cumplirse la predicción al 20abo día, asumiremos la ganancia/perdida que devenga de vender al precio de cierre de ese día.
The objective of this project is to develop a pilot application to make available to the small investor, Machine Learning techniques to be able to identify what are the best times to buy shares of IBEX 35 (Top 35 Spanish stock market shares).
Specifically we will make predictions of purchase with the goal of winning 10% in the 20 next coming sessions, if it does not happened our strategy is to sell that 20th day and assume the gain/loss accruing at the closing price of that day.
Adamelys Díaz es una analista de negocios y consultora técnica venezolana con más de 20 años de experiencia en el análisis funcional, desarrollo de software, pruebas y gestión de calidad. Actualmente trabaja para Farmatodo como Gerente de Demanda TI, donde ha liderado proyectos móviles y de e-commerce. Tiene un amplio conocimiento de metodologías ágiles como SCRUM y Waterfall, y habilidades técnicas en PL-SQL, Java, UML y bases de datos Oracle e Informix.
Eurohelp es una empresa de consultoría informática y prestación de servicios que ofrece soluciones innovadoras y eficaces en el campo de las TICs.
¿Qué busca?
Profesionales con talento para incorporar en Bilbao, Donostia, Vitoria-Gasteiz, Santander, Zaragoza, Madrid, Barcelona y Baleares
¿Qué ofrece?
* Promoción profesional
* Proyectos innovadores
* Amplio abanico de tecnologías
* Formación continua
* Certificaciones oficiales
* I+D+I propio
* Gestión participativa
* Estabilidad profesional
Si quieres saber más, aquí tienes su propia presentación.
El documento compara las arquitecturas monolítica, SOA y microservicios, y describe la descomposición de servicios, comunicación entre servicios y gestión de APIs en una arquitectura de microservicios. Explica que los microservicios son servicios pequeños e independientes que se comunican a través de APIs y protocolos como HTTP o AMQP, y que Amazon ha tenido éxito al exponer todas sus funciones a través de APIs internas.
112 . ConferenceShow: El tamaño del ancho de banda no importaGeneXus
El documento habla sobre la plataforma de rendimiento de aplicaciones de Riverbed y cómo permite la computación independiente de la ubicación. La plataforma puede analizar, diagnosticar y resolver problemas en la entrega de aplicaciones y datos desde cualquier lugar. Esto permite que el rendimiento empresarial dependa del rendimiento de las aplicaciones de una manera más rápida, sencilla y rentable.
Este documento discute tres aspectos fundamentales de la gestión integrada de documentos y contenido: flujos de trabajo, diseños de ingeniería y gestión de contenido web. Describe cómo los sistemas de gestión de documentos pueden integrar flujos de trabajo automatizados, almacenar y gestionar diseños de ingeniería, y permitir el acceso y administración de contenido web. También discute consideraciones clave como la identificación de documentos, niveles de seguridad y la integración de software.
Este documento resume los proyectos de ciencia de datos y big data del INEGI entre 2011 y 2017, incluyendo el desarrollo inicial de herramientas de análisis de datos masivos, la recolección y clasificación de tweets para medir el sentimiento público, y planes futuros para analizar movilidad y clasificar imágenes de satélite.
Este documento presenta una introducción a los conceptos básicos de los modelos multidimensionales y cubos en SQL Server Analysis Services (SSAS). La agenda incluye una introducción a SSAS, diseño de un modelo multidimensional propuesto para analizar la importación de vehículos, una demostración de Stage, Star Schema y SSIS, conceptos básicos de SSAS y una demostración de la construcción de un cubo en SSAS. El orador también proporciona información sobre su experiencia y una invitación al evento 24 Horas PASS en Español.
Diseñamos soluciones basadas en flujos de trabajo para optimizar procesos de TI, utilizando técnicas de automatización para ayudar a los negocios a escalar.
Analizamos, construimos y automatizamos procesos de TI con herramientas de Integración Continua y Despliegues Continuos (CI/CD) que entregan recursos de TI como servicios de Nube y aplicaciones.
Este documento describe las primeras fases de un proyecto para desarrollar un software de control de almacén utilizando códigos de barras vinculados a una base de datos. El proyecto busca mejorar los servicios que ofrece el almacén de la Universidad Tecnológica de San Juan del Río para que sea más eficiente y rápido. Se identifican las necesidades y requerimientos del cliente a través de matrices y se planifica implementar códigos de barras para consultar el inventario y registro de préstamos y devoluciones en la base de datos
Commit 2018 - Integrando Microservicios y Machine LearningRafa Hidalgo
1) El documento describe una arquitectura para integrar modelos de machine learning en una aplicación mediante microservicios.
2) Se propone dividir la aplicación en tres servicios principales - interfaz, servicios y ML - empaquetados como contenedores Docker y orquestados por Kubernetes.
3) La arquitectura permite el desarrollo políglota usando diferentes tecnologías para cada servicio, con integración continua y entrega continua mediante Jenkins.
Azure4Research - Big Data Analytics con Hadoop, Spark y Power BIAlberto Diaz Martin
n esta sesión, veremos el desarrollo de un proceso de AI con Azure Databricks que nos ayudará a trabajar con datos estructurados y no estructurados, a obtener una visión profunda del algoritmo a implementar e incluso crear un ciclo aprendizaje en tiempo real. El objetivo será adentrarnos en un proyecto de AI para preparar los datos, realizar el análisis que nos permita elegir un algoritmo, entrenar un modelo y ejecutar una predicción de dicho modelo. Todo esto con mucho Big Data y Power BI como herramienta de Reporting.
Este documento presenta el currículum de Gustavo Cornejo Gonzales, un profesional con más de 30 años de experiencia en TI, gestión de proyectos, análisis, desarrollo e implementación de sistemas host comerciales, financieros y de tarjetas de crédito. Ha trabajado para bancos como BCP, BFP y AFP Prima, así como para empresas como Tata Consultancy Services, Scotiabank Chile y Mibanco. Tiene certificaciones PMI y Oracle, y experiencia en herramientas como Load Runner, JMeter y Test Complete.
El documento presenta a Keepler Data Tech, una empresa especializada en servicios de datos en la nube. Ofrece servicios como el diseño y despliegue de plataformas de datos en la nube pública, análisis de Big Data e Inteligencia Artificial. Cuenta con una amplia experiencia en proyectos de datos y nube desde 2012 y el 90% de sus técnicos están certificados. Sus soluciones se construyen a medida para cada cliente utilizando tecnologías serverless y servicios gestionados en la nube.
Este documento proporciona información sobre Zemsania, una organización que ofrece servicios y soluciones tecnológicas. Describe las cuatro divisiones de soluciones y servicios técnicos de Zemsania, sus dos áreas geográficas y ocho zonas de negocio. También resume la evolución de Zemsania desde 2003 hasta la actualidad, incluyendo nuevas oficinas, divisiones y soluciones. Finalmente, detalla las capacidades de Zemsania en perfiles técnicos, metodologías, certificaciones de calidad y mercados objetivo
Este documento proporciona información sobre Entity Framework, un ORM para .NET que permite trabajar con datos relacionales usando objetos de dominio. Explica conceptos clave como EDM, LINQ, Entity SQL y provee consejos sobre rendimiento como usar caché, paginación y diferentes estrategias de herencia en EF.
Analista Programador con más de 20 años de experiencia en Oracle PL SQL Forms y Reports en
Telecomunicaciones (Financiero y Proveedores), Administración Pública (Gestión de Cobros, Gestión de Acceso a Datos), Bancario (Contabilidad Financiera) y Seguros (Gestión de Siniestros) con un método de trabajo de desglose del problema en partes aplicando métodos aprendidos con una mentalidad abierta a nuevas perspectivas, con afán de superación, con una actuación ágil y decidida en los momentos críticos, planificando actividades por prioridad y promoviendo la participación y comunicación del equipo de trabajo creando un clima de cooperación.
DISEÑO DE UN PROTOTIPO FUNCIONAL DEL SISTEMA DE INFORMACIÓN PARA LA GESTIÓN D...Manuel Mujica
UNIVERSIDAD CENTROCCIDENTAL “LISANDRO ALVARADO”
DECANATO DE CIENCIA Y TECNOLOGÍA
ESPECIALIZACION EN TECNOLOGIA DE INFORMACION Y
COMUNICACIÓN
DISEÑO DE UN PROTOTIPO FUNCIONAL DEL SISTEMA DE INFORMACIÓN PARA LA GESTIÓN DE LAS LECTURAS DE CONSUMO
ELÉCTRICO PARA LA EMPRESA ENERGÍA ELÉCTRICA DE BARQUISIMETO C.A
Autor: Luís Dellán.
Tutor: Dr. Carlos Primera.
Año: 2.011.
RESUMEN
El presente trabajo de investigación se orienta en el diseño de un prototipo funcional de sistema de información para gestionar las lecturas de consumo eléctrico en la empresa Enelbar C.A, con sede en Barquisimeto-Edo. Lara, específicamente en el
Departamento de Lecturas (Región Centro-Norte). Esto impulsado por diversos incidentes que van desde errores en las lecturas hasta el manejo del volumen de información, pasando por los reportes generados, bajo rendimiento del sistema actual,
poca documentación, entre otros. La elaboración del estudio se enmarcó en la modalidad de proyecto factible, apoyado en una investigación de campo de carácter descriptivo, cumpliendo con las siguientes fases: Fase I Diagnóstico, Fase II Factibilidad, Fase III Diseño de la Propuesta. Como técnicas de recolección de información se usaron la observación directa, entrevistas estructuradas y los
cuestionarios. El prototipo desarrollado abarca los procesos de importar ciclo, anular ciclo y registrar EPL. Finalmente, se concluye que el desarrollo del diseño del sistema información para la gestión de las lecturas de consumo eléctrico permitió generar un prototipo funcional que podría catalogarse de evolutivo debido a que con un esfuerzo
adecuado de programación puede convertirse en el sistema a ser usado por la empresa, recomendándose implantar el mismo para que apoye los procesos críticos de Enelbar c.a y aporte valor agregado al cliente.
Palabras Claves: Sistemas de Información, Gestión de Información, Prototipo,
Lecturas de Consumo Eléctrico.
Olalekan Elesin es un ingeniero de datos con experiencia en el procesamiento y análisis de grandes conjuntos de datos usando herramientas como Apache Hadoop, Spark, Kafka y PrestoDB. También tiene experiencia desarrollando modelos de aprendizaje automático usando técnicas como clasificación, regresión y agrupamiento para lograr objetivos de negocio. Actualmente trabaja como ingeniero de datos para una empresa de tecnología donde ha mejorado el rendimiento de plataformas y aplicaciones a través del análisis y procesamiento de
Este CV resume la experiencia laboral y educación de José Martínez. Martínez tiene una Licenciatura en Ciencias de la Computación y experiencia trabajando como consultor de negocios, ingeniero de software y probador para varias compañías en España, Países Bajos, Irlanda y el Reino Unido. Sus habilidades incluyen metodologías ágiles, Java, bases de datos Oracle y herramientas de pruebas automatizadas.
BrokerTrade Aplicación para la recomendación de compra de Acciones en tiempo ...Albert Obiols
El objetivo de este proyecto es realizar una aplicación piloto para poner al alcance del pequeño inversor técnicas de Machine Learning para que pueda identificar cuáles son los mejores momentos para comprar acciones del IBEX 35.
Concretamente realizaremos predicciones de compra a 20 sesiones bursátiles con el objetivo de ganar un 10%, de no cumplirse la predicción al 20abo día, asumiremos la ganancia/perdida que devenga de vender al precio de cierre de ese día.
The objective of this project is to develop a pilot application to make available to the small investor, Machine Learning techniques to be able to identify what are the best times to buy shares of IBEX 35 (Top 35 Spanish stock market shares).
Specifically we will make predictions of purchase with the goal of winning 10% in the 20 next coming sessions, if it does not happened our strategy is to sell that 20th day and assume the gain/loss accruing at the closing price of that day.
Adamelys Díaz es una analista de negocios y consultora técnica venezolana con más de 20 años de experiencia en el análisis funcional, desarrollo de software, pruebas y gestión de calidad. Actualmente trabaja para Farmatodo como Gerente de Demanda TI, donde ha liderado proyectos móviles y de e-commerce. Tiene un amplio conocimiento de metodologías ágiles como SCRUM y Waterfall, y habilidades técnicas en PL-SQL, Java, UML y bases de datos Oracle e Informix.
Eurohelp es una empresa de consultoría informática y prestación de servicios que ofrece soluciones innovadoras y eficaces en el campo de las TICs.
¿Qué busca?
Profesionales con talento para incorporar en Bilbao, Donostia, Vitoria-Gasteiz, Santander, Zaragoza, Madrid, Barcelona y Baleares
¿Qué ofrece?
* Promoción profesional
* Proyectos innovadores
* Amplio abanico de tecnologías
* Formación continua
* Certificaciones oficiales
* I+D+I propio
* Gestión participativa
* Estabilidad profesional
Si quieres saber más, aquí tienes su propia presentación.
El documento compara las arquitecturas monolítica, SOA y microservicios, y describe la descomposición de servicios, comunicación entre servicios y gestión de APIs en una arquitectura de microservicios. Explica que los microservicios son servicios pequeños e independientes que se comunican a través de APIs y protocolos como HTTP o AMQP, y que Amazon ha tenido éxito al exponer todas sus funciones a través de APIs internas.
112 . ConferenceShow: El tamaño del ancho de banda no importaGeneXus
El documento habla sobre la plataforma de rendimiento de aplicaciones de Riverbed y cómo permite la computación independiente de la ubicación. La plataforma puede analizar, diagnosticar y resolver problemas en la entrega de aplicaciones y datos desde cualquier lugar. Esto permite que el rendimiento empresarial dependa del rendimiento de las aplicaciones de una manera más rápida, sencilla y rentable.
Este documento discute tres aspectos fundamentales de la gestión integrada de documentos y contenido: flujos de trabajo, diseños de ingeniería y gestión de contenido web. Describe cómo los sistemas de gestión de documentos pueden integrar flujos de trabajo automatizados, almacenar y gestionar diseños de ingeniería, y permitir el acceso y administración de contenido web. También discute consideraciones clave como la identificación de documentos, niveles de seguridad y la integración de software.
Este documento resume los proyectos de ciencia de datos y big data del INEGI entre 2011 y 2017, incluyendo el desarrollo inicial de herramientas de análisis de datos masivos, la recolección y clasificación de tweets para medir el sentimiento público, y planes futuros para analizar movilidad y clasificar imágenes de satélite.
Este documento presenta una introducción a los conceptos básicos de los modelos multidimensionales y cubos en SQL Server Analysis Services (SSAS). La agenda incluye una introducción a SSAS, diseño de un modelo multidimensional propuesto para analizar la importación de vehículos, una demostración de Stage, Star Schema y SSIS, conceptos básicos de SSAS y una demostración de la construcción de un cubo en SSAS. El orador también proporciona información sobre su experiencia y una invitación al evento 24 Horas PASS en Español.
Diseñamos soluciones basadas en flujos de trabajo para optimizar procesos de TI, utilizando técnicas de automatización para ayudar a los negocios a escalar.
Analizamos, construimos y automatizamos procesos de TI con herramientas de Integración Continua y Despliegues Continuos (CI/CD) que entregan recursos de TI como servicios de Nube y aplicaciones.
Este documento describe las primeras fases de un proyecto para desarrollar un software de control de almacén utilizando códigos de barras vinculados a una base de datos. El proyecto busca mejorar los servicios que ofrece el almacén de la Universidad Tecnológica de San Juan del Río para que sea más eficiente y rápido. Se identifican las necesidades y requerimientos del cliente a través de matrices y se planifica implementar códigos de barras para consultar el inventario y registro de préstamos y devoluciones en la base de datos
Similar a Autorización con XACML v3.0 basada en perfilado de usuarios mediante aprendizaje no supervisado (20)
Este documento ha sido elaborado por el Observatorio Ciudadano de Seguridad Justicia y Legalidad de Irapuato siendo nuestro propósito conocer datos sociodemográficos en conjunto con información de incidencia delictiva de las 10 colonias y/o comunidades que del año 2020 a la fecha han tenido mayor incidencia.
Existen muchas más colonias que presentan cifras y datos en materia de seguridad, sin embargo, en este primer acercamiento lo que se prevées darle al lector una idea de como se encuentran las colonias analizadas, tomando como referencia los datos del INEGI 2020, datos del Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública del 2020 al 2023 y las bases de datos propias que desde el 2017 el Observatorio Ciudadano ha recopilado de manera puntual con datos de las vıć timas de homicidio doloso, accidentes de tránsito, personas lesionadas por arma de fuego, entre otros indicadores.
El Observatorio ciudadano Irapuato ¿Cómo vamos?, presenta el
Reporte hemerográfico al mes de mayo de 2024
Este reporte contiene información registrada por Irapuato ¿cómo vamos? analizando los medios de comunicación tanto impresos como digitales y algunas fuentes de información como la Secretaría de Seguridad ciudadana.
LINEA DE TIEMPO Y PERIODO INTERTESTAMENTARIOAaronPleitez
linea de tiempo del antiguo testamento donde se detalla la cronología de todos los eventos, personas, sucesos, etc. Además se incluye una parte del periodo intertestamentario en orden cronológico donde se detalla todo lo que sucede en los 400 años del periodo del silencio. Basicamente es un resumen de todos los sucesos desde Abraham hasta Cristo
resumen de manual de organizacion y funciones de TI
Autorización con XACML v3.0 basada en perfilado de usuarios mediante aprendizaje no supervisado
1. Autorización con XACML v3.0
basada en perfilado de usuarios
mediante aprendizaje no supervisado
Autor: Daniel Hernández León
Directora: Marta Beltrán Pardo
3er Premio al mejor trabajo de estudiante
Curso académico 2015-2016
2. Daniel Hernández León
• Cybersecurity & Data Analytics
en Innovation 4 Security (BBVA)
• Master en Data Science (URJC ’16)
• Ingeniero Superior en Informática (UAM ’06)
Presentación
3. Objetivos
Mejorar los sistemas de control de acceso XACML
usando modelos de comportamiento personalizados.
Crear un servicio de scoring
que refleje cómo de habitual es una operación
en base al histórico de cada cliente.
7. Servicio de Scoring
<1: Bajo (operación conocida)
> 2: Alto (outsider, operación desconocida)
1-2: Medio (operación similar)
8. Trabajo futuro
• Actualización de modelos en tiempo real utilizando Spark Streaming MLlib.
• Mejora de rendimiento en la implementación del algoritmo de selección de K.
• Utilización de datos reales extraídos por ejemplo de BBVA API Market:
https://www.bbvaapimarket.com/web/api_market/bbva/money-transfers/documentation
• Inclusión de más variables en el modelo (i.e. timestamp).
• Mejora del código de la implementación incluyendo control de errores y tests.
K-Means es un algoritmo cuyas aplicaciones típicas tienen una descripción muy parecida a la del problema que se trata de resolver en éste trabajo. Sirve por ejemplo como método para agrupar consumidores con comportamientos similares basándose en su histórico de transacciones, para clasificar
documentos basándose en el parecido de su contenido, o para identificar pólizas de seguro con alto riesgo de fraude.
Además, se trata de un método no supervisado, lo que encaja con nuestros intereses. El problema que plantea éste algoritmo es la selección del valor de k, que debe ser un entero mayor que 1 pero cuya elección depende de los datos y del dominio del problema, por lo que no hay una fórmula sencilla ni
universal para calcularla
k automático
los modelos de regresión requieren para ofrecer resultados válidos que las variables
cumplan una serie de requisitos, como la dependencia lineal de la variable de salida sobre las variables
independientes, la no colinealidad de las variables independientes y un mínimo de observaciones por
cada una de ellas, y la normalidad de los residuos. Si bien a menudo estas condiciones se asumen y en
este caso la normalidad y dependencia parecen claras, sí que existe una alta probabilidad de que no
haya suficientes observaciones en algunos casos, y la no colinealidad no está garantizada.
1- Actualmente los modelos se construyen durante el arranque de la aplicación. Lo ideal sería seguir una arquitectura Lambda o Kappa, para que los modelos se recalculen por completo de forma planificada pero se actualicen constantemente.
2 - Mediante la técnica descrita en [8] que al parecer ofrece mejor rendimiento para grandes volúmenes de datos.
3- No se utilizó para evitar problemas de privacidad de datos en el TFM
4- Para mejorar la detección de patrones de conducta periódicos
5- Se hizo quick and dirty