Este documento trata sobre aprendizaje automático no supervisado. Explica algunos algoritmos clave como clustering (K-means y jerárquico), asociación (Apriori) y reducción de dimensionalidad (PCA). También menciona aplicaciones como recomendación, detección de anomalías, reconocimiento de imágenes y conducción autónoma. Finalmente, incluye un ejemplo de implementación de PCA y SVM para clasificación de imágenes faciales.
Conferencia impartida en la Artificial Intelligence Conference, donde se compartieron experiencias sobre el Machine Learning, su definición, los tipos de aprendizaje, algunas aplicaciones y el uso de BigML.
La toma de decisiones precisa de conocimiento, el cual proviene de la información que el centro decisor posea. Dicha información surge del análisis de datos específicos y necesarios. La minería o exploración de datos es la etapa de análisis de "Knowledge Discovery in Databases" o KDD); es un campo de la estadística y las ciencias de la computación, y se refiere al proceso de detección de patrones en grandes volúmenes de datos.
Novedades tecnológicas de la información y las comunicaciones, avances, descubrimientos, opiniones, comentarios, ofertas de productos, servicios y mucho más.
Conferencia impartida en la Artificial Intelligence Conference, donde se compartieron experiencias sobre el Machine Learning, su definición, los tipos de aprendizaje, algunas aplicaciones y el uso de BigML.
La toma de decisiones precisa de conocimiento, el cual proviene de la información que el centro decisor posea. Dicha información surge del análisis de datos específicos y necesarios. La minería o exploración de datos es la etapa de análisis de "Knowledge Discovery in Databases" o KDD); es un campo de la estadística y las ciencias de la computación, y se refiere al proceso de detección de patrones en grandes volúmenes de datos.
Novedades tecnológicas de la información y las comunicaciones, avances, descubrimientos, opiniones, comentarios, ofertas de productos, servicios y mucho más.
Cursillo Básico sobre bigdata y machine learning. Parte 2: ]: Se hace un recorrido por lo que se denomina la plataforma hadoop; posteriormente se muestran temas de visualización. El big data no sería nada si no se pueden explotar las masas de información a ser analizadas, y la estadistica/probabilidad son una parte que fundamenta este tipo de análisis, por lo cual retomamos algunos temas de estas áreas de conocimiento en pro de generar modelos de relevancia para la búsqueda de insights. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 3: Con el uso de técnicas de MachineLearning, y a través de ejemplos prácticos se realiza la explicación de algunos algoritmos que pueden ser aplicables a casos de la industria. Algunos de los temas son: Clasificación de algoritmos de machine learning, Regresión, árboles de decisión, naive-bayes. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 2: ]: Se hace un recorrido por lo que se denomina la plataforma hadoop; posteriormente se muestran temas de visualización. El big data no sería nada si no se pueden explotar las masas de información a ser analizadas, y la estadistica/probabilidad son una parte que fundamenta este tipo de análisis, por lo cual retomamos algunos temas de estas áreas de conocimiento en pro de generar modelos de relevancia para la búsqueda de insights. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 3: Con el uso de técnicas de MachineLearning, y a través de ejemplos prácticos se realiza la explicación de algunos algoritmos que pueden ser aplicables a casos de la industria. Algunos de los temas son: Clasificación de algoritmos de machine learning, Regresión, árboles de decisión, naive-bayes. MinTIC bdguidance arcitura 2016.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
3Redu: Responsabilidad, Resiliencia y Respetocdraco
¡Hola! Somos 3Redu, conformados por Juan Camilo y Cristian. Entendemos las dificultades que enfrentan muchos estudiantes al tratar de comprender conceptos matemáticos. Nuestro objetivo es brindar una solución inclusiva y accesible para todos.
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta in...espinozaernesto427
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta intensidad son un tipo de lámpara eléctrica de descarga de gas que produce luz por medio de un arco eléctrico entre electrodos de tungsteno alojados dentro de un tubo de alúmina o cuarzo moldeado translúcido o transparente.
lámparas más eficientes del mercado, debido a su menor consumo y por la cantidad de luz que emiten. Adquieren una vida útil de hasta 50.000 horas y no generan calor alguna. Si quieres cambiar la iluminación de tu hogar para hacerla mucho más eficiente, ¡esta es tu mejor opción!
Las nuevas lámparas de descarga de alta intensidad producen más luz visible por unidad de energía eléctrica consumida que las lámparas fluorescentes e incandescentes, ya que una mayor proporción de su radiación es luz visible, en contraste con la infrarroja. Sin embargo, la salida de lúmenes de la iluminación HID puede deteriorarse hasta en un 70% durante 10,000 horas de funcionamiento.
Muchos vehículos modernos usan bombillas HID para los principales sistemas de iluminación, aunque algunas aplicaciones ahora están pasando de bombillas HID a tecnología LED y láser.1 Modelos de lámparas van desde las típicas lámparas de 35 a 100 W de los autos, a las de más de 15 kW que se utilizan en los proyectores de cines IMAX.
Esta tecnología HID no es nueva y fue demostrada por primera vez por Francis Hauksbee en 1705. Lámpara de Nernst.
Lámpara incandescente.
Lámpara de descarga. Lámpara fluorescente. Lámpara fluorescente compacta. Lámpara de haluro metálico. Lámpara de vapor de sodio. Lámpara de vapor de mercurio. Lámpara de neón. Lámpara de deuterio. Lámpara xenón.
Lámpara LED.
Lámpara de plasma.
Flash (fotografía) Las lámparas de descarga de alta intensidad (HID) son un tipo de lámparas de descarga de gas muy utilizadas en la industria de la iluminación. Estas lámparas producen luz creando un arco eléctrico entre dos electrodos a través de un gas ionizado. Las lámparas HID son conocidas por su gran eficacia a la hora de convertir la electricidad en luz y por su larga vida útil.
A diferencia de las luces fluorescentes, que necesitan un recubrimiento de fósforo para emitir luz visible, las lámparas HID no necesitan ningún recubrimiento en el interior de sus tubos. El propio arco eléctrico emite luz visible. Sin embargo, algunas lámparas de halogenuros metálicos y muchas lámparas de vapor de mercurio tienen un recubrimiento de fósforo en el interior de la bombilla para mejorar el espectro luminoso y reproducción cromática. Las lámparas HID están disponibles en varias potencias, que van desde los 25 vatios de las lámparas de halogenuros metálicos autobalastradas y los 35 vatios de las lámparas de vapor de sodio de alta intensidad hasta los 1.000 vatios de las lámparas de vapor de mercurio y vapor de sodio de alta intensidad, e incluso hasta los 1.500 vatios de las lámparas de halogenuros metálicos.
Las lámparas HID requieren un equipo de control especial llamado balasto para funcionar
Es un diagrama para La asistencia técnica o apoyo técnico es brindada por las compañías para que sus clientes puedan hacer uso de sus productos o servicios de la manera en que fueron puestos a la venta.
Inteligencia Artificial y Ciberseguridad.pdfEmilio Casbas
Recopilación de los puntos más interesantes de diversas presentaciones, desde los visionarios conceptos de Alan Turing, pasando por la paradoja de Hans Moravec y la descripcion de Singularidad de Max Tegmark, hasta los innovadores avances de ChatGPT, y de cómo la IA está transformando la seguridad digital y protegiendo nuestras vidas.
3. Tema 5: Aprendizaje automático No-Supervisado
Algoritmos de
machine
learning
No-Supervisado
Introducción
Ejemplos
Ejemplos en
Python
Clustering,
Asociación y
Reducción de
dimensionalidad
Conceptos principales
4. Aprendizaje Automático No-Supervisado
4
• La segunda gran familia de algoritmos de aprendizaje automático son los algoritmos No-Supervisados
(Unsupervised Machine Learning)
• En los modelos no-supervisados, no conocemos el resultado objetivo, no tenemos muestras con
etiquetas con las que entrenar el algoritmo. Sólo disponemos de los datos independientes (xi). El
algoritmo no-supervisado extrae información nueva o conocimiento. Descubren agrupaciones o
patrones ocultos sin necesidad de intervención humana
• Para evaluar la precisión o calidad de un modelo no-supervisado, existen técnicas específicas (si no
tenemos datos de test): índice Rand, índice Calinski-Harabasz, etc (disponibles en scikit-learn)
• Su capacidad de descubrir similitudes y diferencias en los datos lo convierten en la solución ideal para
análisis exploratorios, la venta cruzada, la segmentación de clientes y el reconocimiento de imágenes
ü Visión computacional: tareas de percepción visual, como el reconocimiento de objetos
ü Imágenes médicas: funciones básicas a los dispositivos de creación de imágenes médicas, como
la detección, la clasificación y la segmentación de imágenes, que se utilizan en radiología y
anatomía patológica para diagnosticar a pacientes de forma rápida y precisa
ü Detección de anomalías: analizar grandes cantidades de datos y descubrir puntos atípicos dentro
de un conjunto de datos. Estas anomalías pueden concienciar sobre equipos defectuosos, errores
humanos o en la seguridad
ü Motores de recomendación: utilizando datos de comportamiento de compras anteriores, el
aprendizaje no supervisado descubre tendencias de datos que pueden utilizarse para desarrollar
estrategias de venta cruzada más eficaces
5. Aprendizaje Automático No-Supervisado
5
• Un buen ejemplo de aplicación en el mundo empresarial es el recommender de Netflix
• 80% de las visualizaciones proviene de recomendaciones hechas por el algoritmo
• En negocios digitales, la abundancia de datos (Big Data) convierte estos algoritmos en el core del negocio. Esto
permite a Netflix una propuesta de valor mejorada respecto productores tradicionales de contenidos
https://youtu.be/VvTYuQPINec
https://youtu.be/f8OK1HBEgn0
7. Algoritmos de ML No-Supervisado
7
• A continuación algunos de los principales algoritmos utilizados en aprendizaje automático no-supervisado
ü Agrupación en clústeres
• K-Means
• Jerárquico
• Modelos Gaussianos
ü Asociación
• Algoritmo Apriori
ü Reducción de dimensionalidad
• Análisis de Componentes Principales (PCA)
• Veremos el detalle de funcionamiento e implementación durante el curso. En el Tema 6 veremos el algoritmo
K-Means no supervisado aplicado a nuestro problema de las flores de Iris (Visto en Tema 1 y siguientes)
8. Algoritmos de Agrupación en clústers
8
• En términos básicos, el objetivo de la agrupación es
encontrar diferentes grupos dentro de los elementos de los
datos. Para ello, los algoritmos de agrupamiento
encuentran la estructura en los datos de manera que los
elementos del mismo clúster (o grupo) sean más similares
entre sí que con los de clústeres diferentes
• Algunos de los algoritmos de agrupación más comunes son:
ü K-Means
ü Clusterización Jerárquica
ü Density Based Scan Clustering (DBSCAN)
ü Modelo de Agrupamiento Gausiano
• A continuación veremos los tres primeros algoritmos, más
habituales. Para ver un ejemplo de clustering Gausiano,
podéis consultar el siguiente vídeo para agrupar imágenes
por colores:
https://youtu.be/DODphRRL79c?si=mohjlr9FORdmzqev
9. Algoritmo K-Means
9
• El algoritmo K-Means, o de K-medias, tiene como objetivo encontrar y agrupar en clases los puntos de datos que
tienen una alta similitud entre ellos. En los términos del algoritmo, esta similitud se entiende como lo opuesto de la
distancia entre puntos de datos. Cuanto más cerca estén los puntos de datos, más similares y con más
probabilidades de pertenecer al mismo clúster serán
• El agrupamiento se realiza minimizando la suma de distancias entre cada objeto y el centroide (o baricentro) de su
grupo o cluster
• En el tema 6 profundizaremos en la implementación y formulación matemática del algoritmo
https://youtu.be/EZOab1vkFmI
10. Algoritmos Clusterización Jerárquica
10
• La Agrupación jerárquica es una alternativa a otros algoritmos de
agrupación. La principal ventaja de la agrupación jerárquica es que no
necesitamos especificar el número de agrupaciones, la encontrará por
sí misma.
• Además, permite el trazado de dendogramas. Los dendogramas son
visualizaciones de una agrupación jerárquica binaria. Las observaciones
que se fusionan en la parte inferior son similares, mientras que las que
están en la parte superior son muy diferentes. Con los dendogramas,
las conclusiones se hacen basándose en la ubicación del eje vertical y
no en el horizontal.
• Existen dos enfoques para este tipo de agrupación: aglomerativo y
divisivo
• Divisivo: comienza por englobar todos los puntos de datos en un
solo grupo. Luego, dividirá el grupo iterativamente en otros más
pequeños hasta que cada uno de ellos contenga sólo una muestra
• Aglomerativo: comienza con cada muestra siendo un grupo
diferente y luego fusionándolas por las que están más cerca unas
de otras hasta que sólo haya un grupo
https://youtu.be/T76paW6fJBI
Representación en Dendograma
11. Algoritmos Asociación
11
• Un algoritmo de asociación es un método basado en reglas para detectar relaciones entre variables en un
conjunto de datos determinado
• Estos métodos se utilizan con frecuencia para análisis de cesta de la compra, que permiten a las empresas
comprender mejor las relaciones entre los diferentes productos. Entender los hábitos de consumo de los
clientes permite a las empresas desarrollar mejores estrategias de venta cruzada y motores de
recomendaciones
• Ejemplos como: "Los clientes que compraron este artículo también compraron" de Amazon o la lista
"Descubrimiento semanal" de Spotify
• Incluyen diferentes algoritmos para generar reglas de asociación, como Apriori, Eclat y FP-Growth
• El algoritmo Apriori es el más utilizado. Se han popularizado en los análisis de cesta de la compra, que
generan diferentes motores de recomendaciones para plataformas de música y comercios en línea. Se
utilizan dentro de conjuntos de datos transaccionales para identificar conjuntos de elementos frecuentes, o
colecciones de elementos, para identificar la probabilidad de consumir un producto dado el consumo de
otro producto. A continuación podéis encontrar un ejemplo del funcionamiento
12. Algoritmo Apriori
12
• Ejemplo aplicación del algoritmo Apriori en la propensión de compra. Podéis ver también materiales extra
específicos del algoritmo en la plataforma del Aula
• Vamos a analizar la asociación del ejemplo: los que compran harina y huevo, también compran leche
• Conceptos clave del algoritmo: soporte, confianza, elevación y convicción
https://view.genial.ly/5eb9403d7792c20d16619258/dossier-apriori-funcionnamiento
13. Algoritmos de Reducción de dimensionalidad
13
• La reducción de la dimensionalidad es una técnica utilizada cuando el número de características, o
dimensiones, de un determinado conjunto de datos es demasiado elevado. Reduce el número de
entradas de datos a un tamaño gestionable, además de preservar la integridad del conjunto de
datos lo máximo posible
• Se usa comúnmente en la fase de preprocesamiento de datos, y existen varios métodos de
reducción de dimensionalidad:
ü Análisis de componentes principales (o PCA): Este método utiliza una transformación
lineal para crear una nueva representación de datos, dando como resultado un conjunto
de componentes principales
ü Descomposición en valores singulares: La descomposición en valores singulares (SVD,
por sus siglas en inglés) es otro enfoque a la reducción de dimensionalidad que factoriza
una matriz, A, en tres matrices de rango inferior. SVD se denota mediante la fórmula A =
USVT, donde U y V son matrices ortogonales. S es una matriz diagonal y los valores de S
se consideran valores singulares de la matriz A. Similar a PCA, se suele utilizar para
reducir el ruido y comprimir datos, como archivos de imágenes
ü Codificadores automáticos (redes neuronales): para comprimir los datos y luego volver a
crear una nueva representación de la entrada de datos original
14. Algoritmo PCA
14
• La intuición detrás del Algoritmo PCA es la siguiente. Imaginemos por ejemplo que queremos predecir
los precios de alquiler de vivienda del mercado. Tendremos en cuenta muchas variables diversas como:
tipo de vivienda, tamaño de la vivienda, antigüedad, servicios, habitaciones, con/sin jardín, con/sin
piscina, con/sin muebles; pero también podemos tener en cuenta la distancia al centro, si hay
colegio en las cercanías, o supermercados, si es un entorno ruidoso, si tiene autopistas en las
cercanías, la “seguridad del barrio”, si se aceptan mascotas, tiene wifi, tiene garaje, trastero… y seguir
sumando variables
• Es posible que cuanta más (y mejor) información, obtengamos una predicción más acertada. Pero
también empezaremos a notar que la ejecución de los algoritmos (regresión lineal, redes neuronales,
etc) es menos eficiente
• Es posible que algunas de las variables sean menos importantes y no aporten demasiado valor a la
predicción. También podríamos generar overfitting
• Veremos también en este Tema 5 un ejemplo aplicado al reconocimiento de imágenes faciales. PCA
como paso previo de un algoritmo supervisado de clasificación SVM. Es habitual este uso combinado de
algoritmos de machine learning
15. Algoritmo PCA
15
• El algoritmo de Análisis de Componentes Principales (PCA o Principal Component Analysis) es una
técnica de Extracción de Características donde combinamos las entradas de una manera específica y
podemos eliminar algunas de las variables menos importantes manteniendo la parte más importante .
Además, luego de aplicar PCA conseguiremos que todas las nuevas variables sean independientes una
de otra (ortogonales)
• El método numérico consiste en:
• Estandarizar los datos de entrada (normalización de las variables)
• Obtener los vectores y valores propios principales de la matriz de covarianza
• Ordenar los valores propios de mayor a menor y elegir los k vectores que se correspondan con los
valores propios k más grandes (donde k es el número de dimensiones del nuevo subespacio de
características)
• Construir la matriz de proyección (o cambio de base) W con los k vectores propios seleccionados
• Transformamos el dataset original X estandarizado vía W para obtener las nuevas características k-
dimensionales
• Podemos utilizar las librerías scikit-learn para la implementación práctica en Python, como veremos a
continuación
16. Implementación Algoritmo PCA
16
• Vamos a ver el uso de PCA en el preproceso de los
datos en un problema de reconocimiento facial
• En el caso práctico, utilizamos la base de datos
Labeled Faces in the Wild
• Importamos los datos en arrays de numpy
http://vis-www.cs.umass.edu/lfw/
18. Implementación Algoritmo PCA
18
• Dividimos de la forma habitual (ver Tema 2) en los proyectos de aprendizaje automático la base de datos en train y test (25%)
• Aplicamos PCA con la base de datos de imágenes faciales, sin utilizar las etiquetas (aprendizaje no-supervisado). El objetivo es
reducir la dimensión
19. Implementación Algoritmo PCA + Clasificación SVM
19
• Si queremos terminar el proceso de aprendizaje automático para clasificar imágenes nuevas a partir del dataset
preprocesado, el siguiente paso es entrenar un modelo de clasificación. Vamos a utilizar para este ejemplo un modelo
supervisado del Tema 2: Suport Vector Machine o SVM (de la librería scikit-learn)
• Comentar que los problemas de reconocimiento de imágenes suelen resolverse también mediante algoritmos de
aprendizaje automático basados en redes neuronales convolucionales. Las podéis encontrar en librerías como pytorch o
tensorflow mencionadas en el Tema 1
• Un ejemplo de la librería tensorflow: https://www.tensorflow.org/tutorials/keras/classification?hl=es-419
20. Implementación Algoritmo PCA + Clasificación SVM
20
• Evaluación del performance del modelo sobre los datos test:
21. Sede Universitat Carlemany
Av. Verge de Canòlich, 47
AD600 Sant Julià de Lòria
Principat d’Andorra
Linkedin Facebook
+376 878 300