Las soluciones de ciencia de datos se están convirtiendo en una necesidad empresarial como parte de la analítica avanzada permitiendo que los negocios puedan predecir el futuro mediante métodos estadísticos y computacionales.
Al ser una nueva tendencia tecnológica es difícil saber que debo aprender.
El objetivo del este curso es brindar una visión general de las funcionalidades de “Microsoft Machine Learning Studio” y como esta gran solución puede ayudar a potenciar tu negocio.
En esta primera entrega, el enfoque principal es conocer el entorno de desarrollo e implementar un modelo predictivo utilizando un modelo de regresión logística para predecir el valor de una variable dicotómica.
Este documento proporciona instrucciones sobre cómo crear, ejecutar, asignar y eliminar macros en Excel. Explica que las macros se graban usando el menú Herramientas y Macro, y que se pueden ejecutar desde el menú Macros o asignar a un botón personalizado. También define términos como Visual Basic, funciones como SI, PROMEDIO.SI y MAX, y aclara que las macros permiten automatizar tareas frecuentes en Excel usando código Visual Basic.
Este documento proporciona instrucciones para crear una macro en Excel para multiplicar los valores en dos columnas y explica varios conceptos relacionados con macros y Visual Basic. Brevemente, explica cómo crear una macro grabando las acciones, las opciones para ejecutar macros como botones o menús, y define un macro como una función que automatiza operaciones. También define Visual Basic como un lenguaje de programación que permite ejecutar macros de forma automatizada y proporciona ejemplos de funciones como SI, PROMEDIO, CONTARSI, MAX, MIN.
Este documento presenta un taller sobre macros en Excel. Brevemente explica cómo crear macros, ejecutar macros, asignar macros a botones y eliminar macros. También define qué es una macro, su relación con Visual Basic, qué es Visual Basic y ejemplos de funciones como SI, SI anidada, promedio, contar SI, máximo y mínimo.
Este documento presenta un taller sobre macros en Excel avanzado. Incluye preguntas sobre cómo crear, ejecutar y eliminar macros, su relación con Visual Basic, y explicaciones de funciones como SI, promedio y máximo/mínimo. El taller concluye desarrollando macros usando la función SI.
El documento describe el programa Solver de Excel, el cual permite resolver problemas de optimización mediante algoritmos como GRG. Explica cómo definir las variables, restricciones y función objetivo en Excel para usar Solver. Presenta dos ejemplos resueltos: 1) determinar la cantidad óptima de dos tipos de contenedores para maximizar beneficios, obteniendo 10 y 27 contenedores. 2) calcular la cantidad óptima de semilla y abono para maximizar producción de trigo, siendo 2.2 y 3.8 kilos.
El documento presenta un taller sobre macros en Excel. Explica brevemente cómo crear macros, las opciones para ejecutarlas, cómo asignar una macro a un botón y eliminar una. También cubre la relación entre macros y Visual Basic, qué es Visual Basic y ejemplos de funciones como SI, promedio, contar SI, máximo y mínimo.
Este documento proporciona una introducción al uso del programa SPSS. Explica cómo configurar variables y datos en las pestañas "Vista de variables" y "Vista de datos". También describe cómo realizar ejercicios de importación y exportación de datos entre SPSS y Excel, incluida la importación de una hoja específica de Excel y la copia de datos dentro de Excel.
Este documento describe los pasos para crear y recodificar una matriz de datos en SPSS. Explica cómo definir las variables y sus valores, crear la matriz a través de una tabla, exportar los datos a Excel, y luego recodificar las variables para ordenar los datos cambiando sus valores.
Este documento proporciona instrucciones sobre cómo crear, ejecutar, asignar y eliminar macros en Excel. Explica que las macros se graban usando el menú Herramientas y Macro, y que se pueden ejecutar desde el menú Macros o asignar a un botón personalizado. También define términos como Visual Basic, funciones como SI, PROMEDIO.SI y MAX, y aclara que las macros permiten automatizar tareas frecuentes en Excel usando código Visual Basic.
Este documento proporciona instrucciones para crear una macro en Excel para multiplicar los valores en dos columnas y explica varios conceptos relacionados con macros y Visual Basic. Brevemente, explica cómo crear una macro grabando las acciones, las opciones para ejecutar macros como botones o menús, y define un macro como una función que automatiza operaciones. También define Visual Basic como un lenguaje de programación que permite ejecutar macros de forma automatizada y proporciona ejemplos de funciones como SI, PROMEDIO, CONTARSI, MAX, MIN.
Este documento presenta un taller sobre macros en Excel. Brevemente explica cómo crear macros, ejecutar macros, asignar macros a botones y eliminar macros. También define qué es una macro, su relación con Visual Basic, qué es Visual Basic y ejemplos de funciones como SI, SI anidada, promedio, contar SI, máximo y mínimo.
Este documento presenta un taller sobre macros en Excel avanzado. Incluye preguntas sobre cómo crear, ejecutar y eliminar macros, su relación con Visual Basic, y explicaciones de funciones como SI, promedio y máximo/mínimo. El taller concluye desarrollando macros usando la función SI.
El documento describe el programa Solver de Excel, el cual permite resolver problemas de optimización mediante algoritmos como GRG. Explica cómo definir las variables, restricciones y función objetivo en Excel para usar Solver. Presenta dos ejemplos resueltos: 1) determinar la cantidad óptima de dos tipos de contenedores para maximizar beneficios, obteniendo 10 y 27 contenedores. 2) calcular la cantidad óptima de semilla y abono para maximizar producción de trigo, siendo 2.2 y 3.8 kilos.
El documento presenta un taller sobre macros en Excel. Explica brevemente cómo crear macros, las opciones para ejecutarlas, cómo asignar una macro a un botón y eliminar una. También cubre la relación entre macros y Visual Basic, qué es Visual Basic y ejemplos de funciones como SI, promedio, contar SI, máximo y mínimo.
Este documento proporciona una introducción al uso del programa SPSS. Explica cómo configurar variables y datos en las pestañas "Vista de variables" y "Vista de datos". También describe cómo realizar ejercicios de importación y exportación de datos entre SPSS y Excel, incluida la importación de una hoja específica de Excel y la copia de datos dentro de Excel.
Este documento describe los pasos para crear y recodificar una matriz de datos en SPSS. Explica cómo definir las variables y sus valores, crear la matriz a través de una tabla, exportar los datos a Excel, y luego recodificar las variables para ordenar los datos cambiando sus valores.
Este documento proporciona instrucciones para crear macros en Excel y explica conceptos relacionados como Visual Basic y diferentes tipos de funciones como SI, SI anidada, PROMEDIO, CONTAR SI, MAX y MIN. Incluye pasos para grabar, ejecutar y eliminar macros, y asignar macros a botones. El objetivo final es crear macros usando la función SI para un taller.
El documento proporciona respuestas a preguntas sobre macros en Excel. Explica cómo crear una macro para sumar valores en un rango de celdas, las opciones para ejecutar macros, cómo eliminar una macro, y la relación entre macros y Visual Basic. También define funciones comunes como SI, PROMEDIO, CONTAR SI, MÁXIMO y MÍNIMO.
El documento describe los pasos para desarrollar una aplicación móvil que realiza operaciones matemáticas básicas. Incluye agregar cuadros de texto, casillas de verificación para seleccionar operaciones de suma, resta y multiplicación, y un botón para calcular el resultado que se mostrará en un cuadro de texto. El objetivo es escribir el código necesario y probar la funcionalidad de la aplicación.
Este documento presenta una guía práctica para usar el programa Derive 6 para verificar propiedades de la matriz identidad a través del método inductivo. Los estudiantes usarán Derive 6 para comprobar que el producto de una matriz cuadrada A con la matriz identidad es igual a A. Esto se demostrará creando matrices identidad de diferentes órdenes y multiplicándolas por una matriz A.
Este documento presenta tres ejercicios de simulación utilizando el software Arena. El primer ejercicio simula el proceso de lavado y planchado de camisas en una lavandería. El segundo ejercicio mejora este modelo agregando un operario adicional de planchado. El tercer ejercicio simula la producción de correas y bolsos en una fábrica de cuero durante 8 horas. Al final, se enumeran las ventajas y desventajas del uso de Arena.
El documento describe cómo crear macros en Excel, incluyendo grabar una macro, asignarle un nombre y una descripción, y ejecutar acciones como sumar celdas. También explica cómo asignar una macro a un botón para ejecutarla fácilmente, y cómo eliminar una macro existente.
El documento describe brevemente cómo crear, ejecutar, eliminar y asignar macros en Excel, así como la relación entre macros y Visual Basic. También explica algunas funciones comunes en Excel como SI, PROMEDIO, CONTAR SI, MAX y MIN.
STATGRAPHICS Centurión es un software estadístico para Windows que contiene más de 150 procedimientos estadísticos para análisis de datos. Incluye herramientas como StatWizard y StatAdvisor que guían a los usuarios sin experiencia estadística. El software ha estado en el mercado desde 1982 y es utilizado por grandes compañías.
Este documento presenta una guía rápida del programa ImageJ/Fiji para realizar análisis de imágenes. Explica los pasos para abrir una imagen, calibrar las medidas espaciales, binarizar la imagen, analizar parámetros morfométricos automáticamente y manualmente, y exportar los datos a Excel.
El documento proporciona instrucciones para crear macros en Excel, ejecutar macros existentes, asignar macros a botones, eliminar macros, y explica la relación entre macros y Visual Basic. También define varias funciones comunes en Excel como SI, SI anidada, PROMEDIO, CONTAR SI, MÁXIMO y MÍNIMO.
Statgraphics Centurion es un poderoso software estadístico para Windows con más de 150 procedimientos estadísticos. El software es fácil de usar a través de menús y herramientas como StatWizard y StatAdvisor. Statgraphics Centurion lleva usándose desde 1982 y es utilizado por grandes compañías. El documento también describe cómo se puede usar Statgraphics Centurion para calcular estadísticas y crear gráficos a partir de tablas de datos.
El documento describe cómo crear, ejecutar, asignar a botones, y eliminar macros en Excel. Explica que las macros se graban mediante la herramienta de macros y se pueden ejecutar manualmente o asignar a botones. También proporciona detalles sobre funciones como SI, SI anidada, promedio, contar SI, máximo y mínimo.
El documento describe los pasos para migrar un diagrama de clases creado en Rational Rose a una base de datos SQL Server. Los pasos incluyen crear un paquete y diagrama de clases en Rational Rose, configurar los servicios de SQL Server, crear una base de datos en SQL Server, convertir el diagrama a un modelo de datos, agregar tablas al diagrama, e implementar el diagrama en la base de datos SQL Server a través de la ingeniería reversa.
Este documento resume el informe técnico de pasantías de un estudiante en el departamento de calidad de una imprenta. El estudiante aplicó el círculo de Deming para mejorar la calidad, incluyendo una observación inicial, planificación de objetivos de calidad, implementación de controles y procedimientos, verificación del progreso, y ajustes continuos. Calculó el tamaño de muestra necesario para monitorear la calidad usando herramientas estadísticas como gráficos de control y probabilidad.
Este documento proporciona instrucciones paso a paso para conectar una base de datos MySQL a NetBeans, crear una tabla y formulario para ingresar datos, y generar reportes utilizando la librería JasperReports. Explica cómo crear el proyecto en NetBeans, establecer la conexión a la base de datos, diseñar la interfaz de usuario, y codificar funciones para insertar, editar y eliminar registros, así como cómo crear reportes generales y filtrados por parámetros.
Este documento proporciona instrucciones paso a paso para conectar una base de datos MySQL a NetBeans, crear tablas y formularios, e insertar, editar y eliminar datos. También explica cómo descargar e instalar librerías JasperReports para generar reportes desde la base de datos, incluido un reporte general y uno filtrado por un parámetro.
La minería de datos en SQL Server 2012 permite analizar grandes bases de datos para descubrir patrones que puedan predecir resultados. Por ejemplo, el análisis de ventas pasadas y factores de clientes podría revelar que los clientes con ciertas características tienen más probabilidades de comprar determinados productos. SQL Server incluye herramientas para crear modelos de minería de datos, aplicar algoritmos como los árboles de decisión a los datos, y validar los resultados usando diferentes algoritmos o herramientas como el complemento de minería de datos
Este documento presenta el análisis de sensibilidad de un problema de maximización de ingresos por la venta de cuatro tipos de licor. Se describe el modelo matemático, incluyendo la función objetivo y restricciones de recursos y demanda. Luego, se resuelve el problema usando el software WinQSB, mostrando la solución óptima que maximiza los ingresos en $8,500 produciendo 50 unidades del licor 2, 150 unidades del licor 3 y 550 unidades del licor 4.
Este documento describe cómo instalar e implementar iReport en NetBeans para crear reportes. Explica cómo agregar las librerías de JasperReports al proyecto, configurar un datasource para acceder a los datos, y usar el asistente de reportes para generar un reporte funcional en 6 pasos sin código Java. El asistente guía la selección del datasource, los campos de datos a mostrar, y la creación de grupos para el diseño del reporte.
El objetivo de la minería de datos es extraer información de conjuntos de datos y transformarla en una estructura comprensible. Involucra aspectos de gestión y procesamiento de datos, modelado, inferencia, métricas, teoría de la complejidad, visualización y actualización. La minería de datos usa análisis matemático para deducir patrones y tendencias en los datos que pueden usarse para pronóstico, cálculo de riesgos, recomendaciones, búsqueda de secuencias y agrupación. Los principales
Este documento proporciona instrucciones para crear macros en Excel y explica conceptos relacionados como Visual Basic y diferentes tipos de funciones como SI, SI anidada, PROMEDIO, CONTAR SI, MAX y MIN. Incluye pasos para grabar, ejecutar y eliminar macros, y asignar macros a botones. El objetivo final es crear macros usando la función SI para un taller.
El documento proporciona respuestas a preguntas sobre macros en Excel. Explica cómo crear una macro para sumar valores en un rango de celdas, las opciones para ejecutar macros, cómo eliminar una macro, y la relación entre macros y Visual Basic. También define funciones comunes como SI, PROMEDIO, CONTAR SI, MÁXIMO y MÍNIMO.
El documento describe los pasos para desarrollar una aplicación móvil que realiza operaciones matemáticas básicas. Incluye agregar cuadros de texto, casillas de verificación para seleccionar operaciones de suma, resta y multiplicación, y un botón para calcular el resultado que se mostrará en un cuadro de texto. El objetivo es escribir el código necesario y probar la funcionalidad de la aplicación.
Este documento presenta una guía práctica para usar el programa Derive 6 para verificar propiedades de la matriz identidad a través del método inductivo. Los estudiantes usarán Derive 6 para comprobar que el producto de una matriz cuadrada A con la matriz identidad es igual a A. Esto se demostrará creando matrices identidad de diferentes órdenes y multiplicándolas por una matriz A.
Este documento presenta tres ejercicios de simulación utilizando el software Arena. El primer ejercicio simula el proceso de lavado y planchado de camisas en una lavandería. El segundo ejercicio mejora este modelo agregando un operario adicional de planchado. El tercer ejercicio simula la producción de correas y bolsos en una fábrica de cuero durante 8 horas. Al final, se enumeran las ventajas y desventajas del uso de Arena.
El documento describe cómo crear macros en Excel, incluyendo grabar una macro, asignarle un nombre y una descripción, y ejecutar acciones como sumar celdas. También explica cómo asignar una macro a un botón para ejecutarla fácilmente, y cómo eliminar una macro existente.
El documento describe brevemente cómo crear, ejecutar, eliminar y asignar macros en Excel, así como la relación entre macros y Visual Basic. También explica algunas funciones comunes en Excel como SI, PROMEDIO, CONTAR SI, MAX y MIN.
STATGRAPHICS Centurión es un software estadístico para Windows que contiene más de 150 procedimientos estadísticos para análisis de datos. Incluye herramientas como StatWizard y StatAdvisor que guían a los usuarios sin experiencia estadística. El software ha estado en el mercado desde 1982 y es utilizado por grandes compañías.
Este documento presenta una guía rápida del programa ImageJ/Fiji para realizar análisis de imágenes. Explica los pasos para abrir una imagen, calibrar las medidas espaciales, binarizar la imagen, analizar parámetros morfométricos automáticamente y manualmente, y exportar los datos a Excel.
El documento proporciona instrucciones para crear macros en Excel, ejecutar macros existentes, asignar macros a botones, eliminar macros, y explica la relación entre macros y Visual Basic. También define varias funciones comunes en Excel como SI, SI anidada, PROMEDIO, CONTAR SI, MÁXIMO y MÍNIMO.
Statgraphics Centurion es un poderoso software estadístico para Windows con más de 150 procedimientos estadísticos. El software es fácil de usar a través de menús y herramientas como StatWizard y StatAdvisor. Statgraphics Centurion lleva usándose desde 1982 y es utilizado por grandes compañías. El documento también describe cómo se puede usar Statgraphics Centurion para calcular estadísticas y crear gráficos a partir de tablas de datos.
El documento describe cómo crear, ejecutar, asignar a botones, y eliminar macros en Excel. Explica que las macros se graban mediante la herramienta de macros y se pueden ejecutar manualmente o asignar a botones. También proporciona detalles sobre funciones como SI, SI anidada, promedio, contar SI, máximo y mínimo.
El documento describe los pasos para migrar un diagrama de clases creado en Rational Rose a una base de datos SQL Server. Los pasos incluyen crear un paquete y diagrama de clases en Rational Rose, configurar los servicios de SQL Server, crear una base de datos en SQL Server, convertir el diagrama a un modelo de datos, agregar tablas al diagrama, e implementar el diagrama en la base de datos SQL Server a través de la ingeniería reversa.
Este documento resume el informe técnico de pasantías de un estudiante en el departamento de calidad de una imprenta. El estudiante aplicó el círculo de Deming para mejorar la calidad, incluyendo una observación inicial, planificación de objetivos de calidad, implementación de controles y procedimientos, verificación del progreso, y ajustes continuos. Calculó el tamaño de muestra necesario para monitorear la calidad usando herramientas estadísticas como gráficos de control y probabilidad.
Este documento proporciona instrucciones paso a paso para conectar una base de datos MySQL a NetBeans, crear una tabla y formulario para ingresar datos, y generar reportes utilizando la librería JasperReports. Explica cómo crear el proyecto en NetBeans, establecer la conexión a la base de datos, diseñar la interfaz de usuario, y codificar funciones para insertar, editar y eliminar registros, así como cómo crear reportes generales y filtrados por parámetros.
Este documento proporciona instrucciones paso a paso para conectar una base de datos MySQL a NetBeans, crear tablas y formularios, e insertar, editar y eliminar datos. También explica cómo descargar e instalar librerías JasperReports para generar reportes desde la base de datos, incluido un reporte general y uno filtrado por un parámetro.
La minería de datos en SQL Server 2012 permite analizar grandes bases de datos para descubrir patrones que puedan predecir resultados. Por ejemplo, el análisis de ventas pasadas y factores de clientes podría revelar que los clientes con ciertas características tienen más probabilidades de comprar determinados productos. SQL Server incluye herramientas para crear modelos de minería de datos, aplicar algoritmos como los árboles de decisión a los datos, y validar los resultados usando diferentes algoritmos o herramientas como el complemento de minería de datos
Este documento presenta el análisis de sensibilidad de un problema de maximización de ingresos por la venta de cuatro tipos de licor. Se describe el modelo matemático, incluyendo la función objetivo y restricciones de recursos y demanda. Luego, se resuelve el problema usando el software WinQSB, mostrando la solución óptima que maximiza los ingresos en $8,500 produciendo 50 unidades del licor 2, 150 unidades del licor 3 y 550 unidades del licor 4.
Este documento describe cómo instalar e implementar iReport en NetBeans para crear reportes. Explica cómo agregar las librerías de JasperReports al proyecto, configurar un datasource para acceder a los datos, y usar el asistente de reportes para generar un reporte funcional en 6 pasos sin código Java. El asistente guía la selección del datasource, los campos de datos a mostrar, y la creación de grupos para el diseño del reporte.
El objetivo de la minería de datos es extraer información de conjuntos de datos y transformarla en una estructura comprensible. Involucra aspectos de gestión y procesamiento de datos, modelado, inferencia, métricas, teoría de la complejidad, visualización y actualización. La minería de datos usa análisis matemático para deducir patrones y tendencias en los datos que pueden usarse para pronóstico, cálculo de riesgos, recomendaciones, búsqueda de secuencias y agrupación. Los principales
El objetivo de la minería de datos es extraer información de conjuntos de datos y transformarla en una estructura comprensible. Involucra aspectos de gestión y procesamiento de datos, modelado, inferencia, métricas, teoría de la complejidad, visualización y actualización. La minería de datos usa análisis matemático para deducir patrones y tendencias en los datos que pueden usarse para pronóstico, cálculo de riesgos, recomendaciones, búsqueda de secuencias y agrupación. Los principales
Este documento presenta un resumen del diagrama de Pareto y cómo elaborarlo en Excel. Explica que el diagrama de Pareto es una herramienta creada por Vilfredo Pareto que muestra gráficamente las causas de problemas ordenadas de mayor a menor frecuencia para identificar las principales causas y dónde enfocar los esfuerzos de mejora. Además, detalla los pasos para construir el diagrama en Excel usando tablas de datos y gráficos.
Este documento proporciona instrucciones para instalar y probar Expert Advisors (EAs) en la plataforma MetaTrader 4. Explica cómo descargar e instalar un EA copiando el archivo al directorio correcto, y luego volver a abrir MetaTrader 4 para compilar el EA. También cubre cómo configurar las opciones para permitir el comercio automático, y cómo agregar un EA a un gráfico para probarlo. Finalmente, ofrece consejos sobre cómo realizar pruebas de rendimiento mediante backtesting y optimización para evaluar el desempe
El documento describe los pasos para crear un reporte con gráficos en Visual Studio 2010 utilizando Reporting Services. Incluye crear un proyecto, agregar un origen de datos, diseñar el reporte con controles y gráficos, y asociar los datos para generar el reporte final en diferentes formatos.
Este documento proporciona instrucciones para instalar e implementar iReport en NetBeans. Explica cómo agregar iReport como complemento en NetBeans, crear un datasource para acceder a los datos, y generar reportes usando el asistente de reportes. También cubre cómo agregar campos calculados y ejecutar reportes generados con el visor JasperViewer.
La instalación de iReport en NetBeans permite crear reportes dinámicos. Se descarga e instala iReport, se configura la variable JDK, y se ejecuta el programa. Luego, se crea una tabla en MySQL y un datasource en iReport para acceder a los datos sin una aplicación Java. Finalmente, el Wizard guía la creación del primer reporte seleccionando el query, campos, y diseño.
La instalación de iReport en NetBeans permite crear reportes dinámicos. Se descarga e instala iReport, se configura la variable JDK, y se ejecuta el programa. Luego, se crea una tabla en MySQL y un datasource en iReport para acceder a los datos sin una aplicación Java. Finalmente, el Wizard guía la creación del primer reporte seleccionando el query, campos, y diseño.
Este documento proporciona instrucciones para instalar e implementar iReport en NetBeans para crear reportes. Explica cómo agregar las bibliotecas de iReport a un proyecto, configurar un datasource para acceder a los datos, y usar el asistente de reportes para generar un reporte funcional en pocos pasos sin código Java. También cubre cómo agregar campos calculados y ejecutar reportes Jasper.
Este documento presenta instrucciones para 10 ejercicios relacionados con bases de datos. Los ejercicios incluyen normalización de tablas, creación de diagramas entidad-relación, transformación de modelos lógicos a físicos, consultas SQL, y el uso de funciones, procedimientos almacenados y disparadores. El documento también proporciona un ejemplo de selección de un sistema gestor de bases de datos para un proyecto hospitalario.
El documento describe cómo realizar y utilizar un diagrama de Pareto. Explica que un diagrama de Pareto visualiza las causas principales de un problema, usualmente identificando que el 80% de los efectos son causados por solo el 20% de las causas. Luego detalla los pasos para crear un diagrama de Pareto en Excel, incluyendo agregar datos, cambiar el tipo de gráfico y ajustar los ejes. Finalmente, proporciona un ejemplo completo de un análisis de Pareto realizado para identificar las causas principales de quejas en
El documento explica cómo realizar un diagrama de Pareto para identificar los principales problemas o causas que generan la mayoría de los efectos. Describe los pasos para construir un diagrama de Pareto en Excel, incluido el cálculo de frecuencias, porcentajes y porcentajes acumulados. El diagrama de Pareto permite enfocar los esfuerzos de mejora en las 3 causas principales que generan el 80% de los problemas.
Similar a Mi primer modelo de clasificación utilizando regresión logística (20)
Este documento presenta una introducción a los modelos de clasificación en Machine Learning y cómo crear un modelo de clasificación básico usando Microsoft Azure Machine Learning Studio. Ahias Portillo, un experto en ciencia de datos, explica qué es Machine Learning y clasificación, los algoritmos de clasificación comunes como regresión logística y bosques aleatorios, y realiza una demostración práctica de cómo construir un primer modelo de clasificación en Azure ML Studio.
Azure Synapse Analytics es una plataforma de análisis moderna que combina datos, análisis y servicios de inteligencia. Permite almacenar datos de forma distribuida en 60 bases de datos y distribuirlos mediante hash, round-robin o replicación. Los recursos de CPU, memoria e IOPS se asignan mediante Data Warehouse Units, lo que determina la capacidad de consultas simultáneas y procesos en paralelo de la instancia.
Este documento presenta una introducción a DAX en Power BI, incluyendo reglas básicas sobre tipos de datos y conversión entre ellos, operadores aritméticos y de comparación, y sintaxis básica para referirse a columnas y tablas. Explica que DAX permite trabajar con diferentes tipos de datos como números, fechas, texto y lógicos, y define los operadores permitidos entre cada tipo.
Este documento introduce DAX (Data Analysis Expression), un lenguaje de funciones diseñado para extender modelos tabulares. Explica que DAX se usa en Power BI Desktop, PowerPivot para Excel y SSAS Tabular y consta de más de 290 funciones. Además, describe los componentes básicos de un modelo de datos de DAX como tablas, columnas, relaciones, métricas y jerarquías, así como los diferentes tipos de cálculos que permite DAX como columnas, medidas y tablas calculadas.
Esta guía paso a paso esta enfocada completamente a la instalación de una instancia nombrada de Sql Server 2019 donde utilizaremos únicamente el motor de base de datos y el motor de full text, los cuales serán suficiente para desarrollar cada una de las prácticas.
Este documento introduce los conceptos fundamentales de Transact-SQL (T-SQL) y SQL Server, incluyendo el modelo relacional basado en la teoría de conjuntos y lógica de predicados, así como las instrucciones DDL, DML y de procesamiento SELECT como SELECT, FROM, WHERE, GROUP BY, HAVING y ORDER BY. Explica las instrucciones DDL como CREATE, ALTER y DROP y las instrucciones DML como SELECT, INSERT y DELETE.
Exam 70-761 Querying Data with Transact-SQL.
Uno de los principales objetivos de muchos expertos de Sql Server es lograr una certificación que valide el conocimiento adquirido.
El examen 70-761 es uno de los primeros que debes realizar para mayor información (https://www.microsoft.com/en-us/learning/exam-70-761.aspx).
Para iniciar este apacionado curso debemos preparar un ambiente de desarrollo con este tutorial inicial este apasionado curso.
Este documento presenta una biografía y experiencia de Ahias Portillo, un experto en ciencia de datos. Explica brevemente lo que es la ciencia de datos y los tipos de modelos de aprendizaje automático, incluidos los modelos supervisados y no supervisados. También cubre tendencias tecnológicas clave como la computación en la nube y la inteligencia artificial.
Este documento presenta una introducción a DAX (Data Analysis Expressions), el lenguaje de fórmulas utilizado en Power BI, Power Pivot y SSAS Tabular. Explica que DAX se basa en conceptos similares a las fórmulas de Excel y que aunque es un lenguaje simple, requiere aprendizaje. Además, describe los tipos básicos de cálculos en DAX, las reglas para tipos de datos y operadores, y ofrece ejemplos de funciones comunes como agregación, conteo, lógicas y de fecha.
¿Qué es transformación digital?
¿Qué es ciencia de datos?
¿Qué es un científico de datos?
¿Qué es Machine Learning?
“Hola Mundo en Machine Learning”: Algoritmo de Clasificación
Demo: Algoritmo de Clasificación
Este documento describe Azure SQL Data Warehouse, una plataforma como servicio en la nube de Azure que ofrece procesamiento masivo en paralelo. Azure SQL DW permite escalar el almacenamiento y la computación de forma dinámica en minutos, distribuyendo los datos y las consultas en múltiples nodos de forma paralela para lograr altos rendimientos. El documento explica conceptos como la arquitectura MPP, las distribuciones de datos por hash y round-robin, y las unidades de datos almacenadas (DWU) que determinan los recursos asignados
Sql Saturday Guatemala 2018-Mas rápido y Mas FuriosoWindowing Functions & Co...JOSE AHIAS LOPEZ PORTILLO
En esta sesión veremos como las funciones de WF puede mejorar su rendimiento utilizando índices en memoria. Una opción mas para nuestros sistemas analíticos.
The Windowing Functions are advanced SQL Server commands, existing since 2005, but many database developers forget to use them. In this session we will discuss about how they work, how we should use them and how we can combine them with other development techniques as the use of CTE, procedures, functions, etc.
Este documento presenta una introducción a los conceptos básicos de transacciones, concurrencia, aislamiento y bloqueos en bases de datos. Explica qué son las transacciones y sus propiedades ACID, los diferentes modelos de concurrencia y problemas relacionados, los niveles de aislamiento y tipos de bloqueos en SQL Server. También define qué es un deadlock y cómo puede ocurrir. El documento está dirigido a DBAs y entusiastas de la tecnología y forma parte de una sesión sobre resolución de problemas de bloqueos.
Este documento presenta una sesión sobre el uso de vistas de administración dinámica (DMV) en SQL Server para obtener información sobre el rendimiento e índices. Explica qué son las DMV, los tipos de DMV, y proporciona ejemplos de DMV específicas para analizar fragmentación, índices no encontrados e índices no utilizados. También cubre el uso de DMV para obtener información sobre la ejecución de consultas.
Este documento presenta sobre modelos híbridos de recuperación de desastres (on-premise/cloud). Explica los modelos de recuperación, tipos de copia de seguridad y restauración, y modelos de replicación. Incluye demostraciones de estas funciones usando Azure. El objetivo es proporcionar una introducción a estas herramientas de alta disponibilidad y recuperación ante desastres.
Este documento presenta las herramientas de autoservicio de inteligencia de negocios de Microsoft. Describe las cuatro principales herramientas que componen la estrategia de BI autoservicio de Microsoft: Power Query para importar y transformar datos, Power Pivot para modelado y cálculos de datos, Power View para visualización interactiva de datos, y Power Map para visualización geoespacial de datos. También cubre Power BI como una herramienta basada en la nube y presenta demostraciones de Power Pivot y Power View.
Este documento presenta una sesión sobre funciones de ventana en SQL Server. Explica conceptos clave como la sentencia OVER, funciones de ranking como ROW_NUMBER y RANK, y funciones como LAST_VALUE, FIRST_VALUE, LAG y LEAD. El orador, Ahias Portillo, es un experto en SQL Server con más de 8 años de experiencia desarrollando soluciones de business intelligence.
Este documento presenta una sesión sobre técnicas avanzadas de consultas en SQL Server 2014 dirigida a desarrolladores de bases de datos. La sesión cubre temas como window functions, common table expressions, secuencias, vistas indexadas, paginación de datos y la instrucción MERGE a través de ejemplos prácticos. El expositor, Ahías Portillo, es un arquitecto de datos con experiencia en el desarrollo de soluciones para varios países.
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLMJuan Martín Martín
Examen de Selectividad de la EvAU de Geografía de junio de 2023 en Castilla La Mancha. UCLM . (Convocatoria ordinaria)
Más información en el Blog de Geografía de Juan Martín Martín
http://blogdegeografiadejuan.blogspot.com/
Este documento presenta un examen de geografía para el Acceso a la universidad (EVAU). Consta de cuatro secciones. La primera sección ofrece tres ejercicios prácticos sobre paisajes, mapas o hábitats. La segunda sección contiene preguntas teóricas sobre unidades de relieve, transporte o demografía. La tercera sección pide definir conceptos geográficos. La cuarta sección implica identificar elementos geográficos en un mapa. El examen evalúa conocimientos fundamentales de geografía.
José Luis Jiménez Rodríguez
Junio 2024.
“La pedagogía es la metodología de la educación. Constituye una problemática de medios y fines, y en esa problemática estudia las situaciones educativas, las selecciona y luego organiza y asegura su explotación situacional”. Louis Not. 1993.
Mi primer modelo de clasificación utilizando regresión logística
1. Laboratorio de ciencia de datos
Principios de Machine Learning
Mi primer modelo de clasificación utilizando regresión logística
San salvador, septiembre 2019
Por López Portillo, José Ahias
2. Introducción
Las soluciones de ciencia de datos se están convirtiendo en una necesidad
empresarial como parte de la analítica avanzada permitiendo que los negocios
puedan predecir el futuro mediante métodos estadísticos y computacionales.
Al ser una nueva tendencia tecnológica es difícil saber que debo aprender.
El objetivo del este curso es brindar una visión general de las funcionalidades de
“Microsoft Machine Learning Studio” y como esta gran solución puede ayudar a
potenciar tu negocio.
En esta primera entrega, el enfoque principal es conocer el entorno de desarrollo
e implementar un modelo predictivo utilizando un modelo de regresión logística
para predecir el valor de una variable dicotómica.
3. Laboratorio de ciencia de datos
Mi primer modelo de clasificación utilizando regresión logística
1. Para el inicio de este laboratorio es necesario la utilización de los servicios
de “Microsoft Machine Learning Studio”, para ello debemos tener una
cuenta la cual podemos crear en la siguiente URL:
https://azure.microsoft.com/es-es/services/machine-learning-studio/
Figura 01: Sitio de información de Microsoft Machine Learning Studio
Debes hacer clic en “Empiece ahora”.
Figura 02: Opciones de planes para el uso MMLS.
4. Se mostrarán diferentes modelos de subscripciones. Para este laboratorio se
recomienda utilizar “Free Workspace”.
Una vez seleccionada la opción debes realizar “Sign In”. Automáticamente
serás redireccionado al entorno de desarrollo web como se muestra en la
figura 03.
Figura 03: Entorno de desarrollo de MML
Para poder iniciar nuestro laboratorio es necesario obtener los conjuntos de
datos. El análisis a realizar es sobre la calidad de vinos “Wine Quality” los
archivos csv son públicos en el repositorio de UCI Machine Learning.
Puedes realizar las descargas en las siguientes URL.
• https://archive.ics.uci.edu/ml/machine-learning-databases/wine-
quality/winequality-white.csv
• https://archive.ics.uci.edu/ml/machine-learning-databases/wine-
quality/winequality-red.csv
2. Como primer paso debemos crear los “dataset”.
5. 3. Debemos seleccionar la opción de “NEW” como se muestra en la imagen.
4. Se mostrará una lista de opciones, dentro de estas opciones debemos
seleccionar “DataSet”, “From Local File”
5. Al seleccionar la opción de archivo local, debemos buscar los archivos csv.
6.
7.
8. 6. Al finalizar la carga un mensaje de confirmación será mostrado. Es necesario
validar el repositorio de “Dataset”.
7. Es hora de iniciar la creación del experimento. Los experimentos son objetos
de trabajo donde creamos diferentes tareas con un flujo especifico los
cuales pueden ser: Lectura, transformación, entrenamiento, predicción y
publicación por medio de servicios Web.
8. Nuevamente “NEW” y buscamos la opción de “Experiment” → “Black
Experiment”.
9. 9. Al seleccionar la plantilla en blanco automáticamente se cargará una nueva
ventana donde realizaremos el desarrollo de nuestra solución.
10. 10. Debemos definir la fuente de datos. Para ello debemos seleccionar la opción
de “Saved DataSet” →”My Datasets”→”Seleccionar nuestros data set”.
11. Seleccionamos los Dataset y los arrastramos en la parte donde vamos a
desarrollar el flujo de trabajo.
12. Podemos realizar una visualización de datos de cada uno de los archivos
cargado. Es necesario Seleccionar el componente y dar clic derecho y
navegar hasta la opción de visualización puedes guiarte con las figuras
siguientes.
11. 13. Es hora de iniciar con la primera transformación debemos generar un único
conjunto de datos para ello debemos unir los dos dataset.
14. Debemos adicionar el siguiente componente: “Data Transformation”→
”Manipulation”→ ”Add Rows”.
15.Arrastramos el componente a nuestro lugar de trabajo. Unimos las dos
fuentes de datos, así como se muestra en la figura.
12. 16.Ejecutamos por primera vez el flujo.
17.Realizamos nuevamente una visualización de datos, el nuevo conjunto de
datos contiene 6497 observaciones.
18.Uno de los procesos previo a la implementación de un modelo de Machine
Learning es realizar un análisis exploratorio, para ello vamos a crear un
notebook utilizando “R”. Debemos adicionar un componente que convierta
nuestro conjunto de datos del flujo en un “CSV” que podamos utilizar en el
notebook.
13. 19.Al seleccionar el tipo de “NoteBook” y lenguaje a utilizar, se abrirá una
nueva venta donde programaremos las sentencias “R”.
14. 20.Cargamos en memoria el conjunto de datos. Debemos seleccionar la
primera celda y presionar el botón “Run” esta acción ejecuta el comando
indicado.
21. El primer análisis a realizar es obtener los estadísticos descriptivos, para ello
debes escribir el comando que se muestra en la celda seleccionada y
ejecutar.
15. 22. Al analizar los estadísticos sobre la variable “Quality”: Existen vinos muy
malos (min = 3) y vinos muy buenos (max=9).
23. El análisis a realizar es una clasificación dicotómica (0= Mal vino / 1 =Buen
vino), se tomará el umbral (>6) para vinos buenos y cualquier valor menor al
indicado serán un vino malo. Para determinar este valor se utilizó como base
la mediana.
24. Existe problemas con las escalas de las variables es recomendable
estandarizar con un “Z score”.
25. Al validar los estadísticos, las variables no presentan normalidad en su
distribución, para comprobar estadísticamente esta hipótesis es necesario
una prueba de normalidad de “Anderson-Darling”: Si el p_valor >Alpha la
distribución es normal aceptando la hipótesis nula de lo contrario
rechazamos la hipótesis nula y aceptamos que la distribución no es normal,
para ello ejecutamos el siguiente código.
16. 26. El resultado obtenido al realizar el test: Ninguna variable proviene de una
distribución normal, lo que puede implicar muchos factores problemáticos
que pueden afectar al modelo que deseamos crear.
27. Para poder visualizar un gráfico de función de densidad y validar si se
observan valores atípicos o tendencias raras, debemos crear y ejecutar el
siguiente código.
17.
18.
19.
20. 28. Para finalizar este pequeño análisis estadístico visualizaremos las
correlaciones para determinar si se puede presentar multicolinealidad, lo
que implicaría variables con alta correlación y que pueden duplicar
información.
21. 29. Nota importante el análisis estadístico realizado esta orientado a mostrar
las ventajas y facilidad de la plataforma, en las próximas entregas
entraremos en más detalles especialmente el análisis multivariado.
30. Salvamos el “Notebook” con el objetivo de tener los códigos para futuro.
31.Retornamos al flujo de trabajo.
32. Debemos de transforma la variable “Quality” a una variable dicotómica ( 0=
Mal Vino, 1=Buen Vino).
33. Adicionamos un componente “Execute R Script”.
22. 34. Al adicionar la nueva columna es necesario eliminar la variable original.
35. Debemos utilizar el componente “Select Columns in Dataset”, el cual
permitirá seleccionar las columnas que deseamos que continúen en el
proceso.
23. 36. Hay que tomar en cuenta que estamos analizando un conjunto de datos
desbalanceado donde la clase de vino bueno es la clase minoritaria.
37.Para este escenario lo recomendable es realizar una técnica de remuestreo
con el objetivo de igualar los grupos y evitar que el algoritmo de predicción
no genere un sesgo hacia la clase mayoritaria.
38.Gracias a las funcionalidades de la plataforma podemos utilizar una técnica
de remuestreo llamada “SMOTE”, la cual se basa en la utilización de vecino
más cercano para crear observaciones sintéticas.
24.
25. 39. Al configurar el componente de “SMOTE” debemos seleccionar la columna
que indica cual es la clase que deseamos balancear, es necesario especificar
que “SMOTE percentage” debe ser del 300% con el objetivo de poder
igualar las observaciones, una vez configurado el componente debemos
ejecutar el flujo y validar el dataset y comprobar que las clases ya están
balanceadas.
40.El siguiente paso del flujo es estandarizar las columnas con el objetivo de
evitar problemas de los valores por las diferentes escalas. Adicionamos el
componte “Normalize Data” y aplicamos un “Z score” sobre las columnas
predictoras.
26. 41.Hemos analizado, transformado y estandarizado el conjunto de datos, ahora
es necesario realizar la implementación del algoritmo predictivo.
42.Es necesario crear dos conjuntos de datos “Train y Test” , para esta tarea
utilizaremos el componente de separación llamado “Split Data”.
27. 43. Al seleccionar el componente debemos configurar algunos parámetros para
esta configuración la división debe ser por filas con un 70% y 30% de filas
seleccionadas aleatoriamente.
44.Adicionamos el componente “Two Class Logistic Regression”, el cual nos
permitirá realizar la clasificación y predicción.
45.Arrastramos el componente y configuramos los parámetros según se
muestra la imagen, no entraremos en detalle sobre la configuración de los
parámetros, este tema se tratara en próximas entregas.
28. 46.Para poder entrenar el modelo es necesario adicionar un componente de
entrenamiento llamado “Train Model”, el cual debemos unir el componente
de separación de datos y el componente de regresión logística así como se
muestra en la imagen.
29. 47. Una vez se ha configurado y se entrenado el modelo es necesario validarlo
contra la muestra para ello debemos adicionar un componente “Score
Model”
30. 48. Adicionaremos un componente de evaluación del modelo para validar que
tan bueno es el modelo.
31.
32. 49.Al analizar los resultados el algoritmo tiene una precisión del 74.1% lo que
implica que de cada 100 vinos clasifican correctamente 74.
50.Para finalizar este tutorial es necesario salvar el experimento con nombre
“Mi primer Machine Learning - RL”.
33. Forma parte de la comunidad
Página de Facebook
https://www.facebook.com/groups/AhiasPortilloSQL/
Página de Facebook
https://www.facebook.com/Ahias-Portillo-SQL-449495635608067/
Canal de Youtube
https://www.youtube.com/c/AhiasPortillo
Twitter
PortilloAhias