Este documento presenta información sobre segmentación de imágenes. Cubre los logros de aprendizaje, contenido, introducción a la segmentación, objetivo y uso de la segmentación, proceso de segmentación, aplicaciones de segmentación, y diferentes algoritmos de segmentación como segmentación basada en características, segmentación basada en transiciones, y segmentación basada en modelos usando la transformada de Hough.
Ray tracing is a technique for generating realistic images by tracing the path of light through pixels and simulating interactions with virtual objects. It works by casting rays from the eye through each pixel to find the closest object intersected, then calculating the color returned to the eye along the ray. This produces effects like shadows, reflections, and refractions. While computationally expensive, ray tracing can create highly realistic images and simulate optical effects like cameras. It involves defining objects and light sources, tracing rays through pixels, finding intersections with objects, and computing returned colors.
1ère Présentation Atelier Vision par ordinateurSamir TABIB
Présentation de l'atelier :
Initiation à ce domaine,présentation de quelques applications,les processus de la vision artificielle et l'OpenCv,le projet à réaliser.
1) The document discusses image enhancement in the frequency domain using Fourier transforms. It describes how filtering images by modifying frequency domain representations can perform operations like smoothing and sharpening.
2) Common filters discussed include low-pass filters to remove high frequencies/smooth, and high-pass filters to remove low frequencies/sharpen. Examples are shown of applying ideal, Butterworth, and Gaussian filters of varying strengths.
3) Filtering in the frequency domain allows flexible control over the smoothing and sharpening of images through parameters like cutoff frequencies and filter types. Both low-pass and high-pass filtering are used to enhance images.
Blob detection is a computer vision technique used to detect regions in an image that differ in properties like brightness, color, or shape. A blob is a region where properties remain constant. Blob detection is used for tasks like object recognition, texture analysis, and extracting regions of interest from an image. Common blob detection techniques include Laplacian filtering, object detection, and feature extraction. Laplacian filtering applies a Laplacian mask to output a binary image where blobs appear as white regions against a black background. Object detection identifies objects in an image based on a target property like color. Feature extraction isolates characteristics of an image that can then be used for further processing and analysis.
This document discusses algorithms for drawing circles using midpoint circle algorithm. It defines key circle concepts like radius, diameter and chord. It then explains the midpoint circle algorithm which uses 8-fold symmetry and computes pixel positions for only 45° sector. The algorithm initializes the first point as (0, radius) and uses a decision parameter F to iteratively calculate the next pixel position as (x+1, y) if F < 0 or (x+1, y-1) if F >= 0 until x >= y. Pseudocode and a C program to implement the algorithm is also provided with an example.
This document discusses color detection using OpenCV in C++. It introduces color detection and OpenCV, with the objective of implementing object-oriented programming concepts to detect pixel colors in a 3-channel RGB image. The architecture involves OpenCV capturing images in BGR format. Implementation calculates spatial moments and central moments of a binary image to determine pixel colors. Future applications include computer vision, object segregation and tracking based on color.
This document outlines the course syllabus for Digital Image Processing (DIP). It includes 5 units covering key topics in DIP like digital image fundamentals, image enhancement, restoration and segmentation, wavelets and compression, and image representation and recognition. The syllabus allocates 45 class periods to cover these units in depth. Recommended textbooks and references for the course are also provided.
Ray tracing is a technique for generating realistic images by tracing the path of light through pixels and simulating interactions with virtual objects. It works by casting rays from the eye through each pixel to find the closest object intersected, then calculating the color returned to the eye along the ray. This produces effects like shadows, reflections, and refractions. While computationally expensive, ray tracing can create highly realistic images and simulate optical effects like cameras. It involves defining objects and light sources, tracing rays through pixels, finding intersections with objects, and computing returned colors.
1ère Présentation Atelier Vision par ordinateurSamir TABIB
Présentation de l'atelier :
Initiation à ce domaine,présentation de quelques applications,les processus de la vision artificielle et l'OpenCv,le projet à réaliser.
1) The document discusses image enhancement in the frequency domain using Fourier transforms. It describes how filtering images by modifying frequency domain representations can perform operations like smoothing and sharpening.
2) Common filters discussed include low-pass filters to remove high frequencies/smooth, and high-pass filters to remove low frequencies/sharpen. Examples are shown of applying ideal, Butterworth, and Gaussian filters of varying strengths.
3) Filtering in the frequency domain allows flexible control over the smoothing and sharpening of images through parameters like cutoff frequencies and filter types. Both low-pass and high-pass filtering are used to enhance images.
Blob detection is a computer vision technique used to detect regions in an image that differ in properties like brightness, color, or shape. A blob is a region where properties remain constant. Blob detection is used for tasks like object recognition, texture analysis, and extracting regions of interest from an image. Common blob detection techniques include Laplacian filtering, object detection, and feature extraction. Laplacian filtering applies a Laplacian mask to output a binary image where blobs appear as white regions against a black background. Object detection identifies objects in an image based on a target property like color. Feature extraction isolates characteristics of an image that can then be used for further processing and analysis.
This document discusses algorithms for drawing circles using midpoint circle algorithm. It defines key circle concepts like radius, diameter and chord. It then explains the midpoint circle algorithm which uses 8-fold symmetry and computes pixel positions for only 45° sector. The algorithm initializes the first point as (0, radius) and uses a decision parameter F to iteratively calculate the next pixel position as (x+1, y) if F < 0 or (x+1, y-1) if F >= 0 until x >= y. Pseudocode and a C program to implement the algorithm is also provided with an example.
This document discusses color detection using OpenCV in C++. It introduces color detection and OpenCV, with the objective of implementing object-oriented programming concepts to detect pixel colors in a 3-channel RGB image. The architecture involves OpenCV capturing images in BGR format. Implementation calculates spatial moments and central moments of a binary image to determine pixel colors. Future applications include computer vision, object segregation and tracking based on color.
This document outlines the course syllabus for Digital Image Processing (DIP). It includes 5 units covering key topics in DIP like digital image fundamentals, image enhancement, restoration and segmentation, wavelets and compression, and image representation and recognition. The syllabus allocates 45 class periods to cover these units in depth. Recommended textbooks and references for the course are also provided.
Lecture 13 (Usage of Fourier transform in image processing)VARUN KUMAR
This document discusses the Fourier transform and its applications in image processing. It begins by explaining the Fourier transform for 1D and 2D continuous and discrete signals. The Fourier transform converts a signal from the time or space domain to the frequency domain. It then covers properties of the Fourier transform such as separability and translation. The document concludes by mentioning references for further reading on image processing and computer vision topics.
This document provides an overview of digital image processing techniques for image restoration. It defines image restoration as improving a degraded image using prior knowledge of the degradation process. The goal is to recover the original image by applying an inverse process to the degradation function. Common degradation sources are discussed, along with noise models like Gaussian, salt and pepper, and periodic noise. Spatial and frequency domain filtering techniques are presented for restoration, such as mean, median and inverse filters. The maximum mean square error or Wiener filter is also introduced as a way to minimize restoration error.
1. Image restoration aims to reconstruct or recover an image that has been distorted by known degradation processes.
2. Degradation can occur during image acquisition, display, or processing due to factors like sensor noise, blurring, motion, or atmospheric effects.
3. Restoration techniques model the degradation process and apply the inverse to estimate the original undistorted image. The accuracy of the estimate depends on how well the degradation is modeled.
The document provides an overview of a course on digital image processing. It is divided into 5 units that cover topics such as digital image fundamentals, image transforms, image enhancement, image filtering and restoration, image compression, image segmentation, and image representation and description. The course will examine concepts like sampling and quantization, image transforms including Fourier transforms, image enhancement techniques, image compression standards, and image segmentation methods. Students will learn about various image processing schemes and how to reconstruct images from projections using transforms like the Radon transform. The document provides the context and outline for the digital image processing course.
Utp pd_iy_va_sap6y7 diltacion y erosión binaria - apertura y clausurac09271
Este documento presenta una sesión sobre operaciones morfológicas en procesamiento de imágenes. Explica conceptos clave como dilatación, erosión, apertura, clausura y cómo se aplican estas operaciones usando elementos estructurantes. También cubre aplicaciones como detección de bordes, relleno de regiones y resúmenes de operaciones morfológicas. El objetivo es que los estudiantes aprendan a procesar imágenes digitales usando métodos morfológicos.
The document discusses various image enhancement techniques in digital image processing. It describes point operations like image negative, contrast stretching, thresholding, brightness enhancement, log transformation, and power law transformation. Contrast stretching expands the range of intensity levels and can be done by multiplying pixels with a constant, using a transfer function, or histogram equalization. Thresholding converts an image to binary by assigning pixel values above a threshold to one level and below to another. Log and power law transformations compress high intensity values and expand low values to enhance an image. Matlab code examples are provided for each technique.
This document proposes a new algorithm to reduce striping noise in hyperspectral images. It uses an orthogonal subspace approach to estimate and remove the striping component while preserving useful signal. The algorithm avoids artifacts and accounts for how striping relates to signal intensity. It is experimentally shown to effectively reduce striping noise on real data from airborne and satellite sensors.
The document discusses various image enhancement techniques in Matlab, including filtering, predefined filters, image enhancement tools, image restoration, dilation/erosion functions, and dithering. Filtering can be used to modify images through operations like smoothing, sharpening, and edge enhancement. Predefined filters like 'gaussian' and 'laplacian' can be applied to images with functions like fspecial and imfilter. Additional tools for operations such as histogram equalization, noise addition, and filtering are also covered.
Clipping identifies portions of a scene outside a specified clip window region. There are different types of clipping for different graphics elements. The Cohen-Sutherland algorithm assigns a binary code to line endpoints based on their position relative to the clip window boundaries, and uses logical AND operations on the codes to determine if a line needs clipping or can be fully accepted or rejected. It iteratively clips portions of a line outside the window until the line is fully processed.
Jerarquía de clases, herencia, polimorfismoEdwin Loayza
Este documento presenta un resumen de 3 oraciones o menos del tema 3 sobre herencia en Java:
El tema introduce conceptos clave de herencia como la jerarquía de clases, la reutilización de código a través de la herencia, y la capacidad de extender y redefinir métodos en subclases. Además, explica mecanismos como el polimorfismo que permiten tratar objetos de diferentes tipos de manera uniforme. Finalmente, incluye ejemplos prácticos sobre herencia en el contexto de la gestión bancaria.
1. The document discusses different techniques for region of interest (ROI) extraction from images, including saliency maps, visual attention maps, the Itti-Koch model, and the Stentiford model.
2. It provides examples of the output from these techniques, such as highlighting the most salient points or areas of an image.
3. While the models may identify different ROIs, combining their common ROIs can provide a better output for applications like thumbnail cropping or image indexing.
Image Enhancement: Introduction to Spatial Filters, Low Pass Filter and High Pass Filters. Here Discussed Image Smoothing and Image Sharping, Gaussian Filters
Este documento describe varias técnicas de formato en Excel como dar formato a texto, agregar bordes y colores, aplicar formatos numéricos, crear y aplicar estilos, copiar formatos, extender formatos automáticamente, aplicar formatos condicionales, crear vistas personalizadas, y ocultar libros, hojas, filas, columnas y elementos de la ventana. El objetivo es mejorar la presentación y organización de la información en una hoja de cálculo.
Computer Graphics - Lecture 03 - Virtual Cameras and the Transformation Pipeline💻 Anton Gerdelan
Slides from when I was teaching CS4052 Computer Graphics at Trinity College Dublin in Ireland.
These slides aren't used any more so they may as well be available to the public!
There are some mistakes in the slides, I'll try to comment below these.
The document discusses key concepts in digital image fundamentals including:
1. The electromagnetic spectrum and how light attributes like intensity and luminance are measured.
2. How digital images are acquired through image sensing and sampling/quantization.
3. Methods for representing digital images through matrices and binary values, and how resolution affects gray-level detail.
4. Digital zooming techniques like nearest neighbor, bilinear, and bicubic interpolation that control blurring and edge effects.
5. Concepts like pixel adjacency, connectivity, and distance measures between pixels.
Les intents sous Android
I. Types de transmission d'Intent
II. Structure d'un Intent
IV. Intent Filter
V. Les différents types d'Intents
VI. Transfert de données entre activités
VII. Exercice : Utilisation des Intent de passer d'une activité à l'autre envoyer des données via putExtra
Lecture 2&3 Computer vision image formation ,filters&edge detectioncairo university
This document provides information about a computer vision course including the professor, TAs, and topics to be covered such as image formation, filters, and edge detection. It also includes diagrams explaining image coordinate systems, the pinhole camera model, and how world coordinates are projected and mapped to image coordinates. Key concepts covered are the point spread function, image and object domains, and how a pinhole camera forms images by blocking light rays except through the aperture.
MATLAB es un entorno de computación que integra cálculo numérico, procesamiento de señales, álgebra lineal y visualización gráfica. Fue desarrollado originalmente para facilitar el acceso a software de álgebra lineal y ha evolucionado para usarse en diversas áreas como procesamiento de señales e imágenes, control de sistemas e investigación médica. MATLAB provee funciones para manipulación de datos, análisis estadístico, procesamiento de señales y cálculos simbólicos.
Este documento presenta varios operadores para la detección de bordes en imágenes digitales. Explica el operador de Canny, Sobel, Prewitt y cómo calcular el gradiente. También cubre cómo implementar estos algoritmos y usar las funciones edge y fspecial en MatLab para detectar bordes verticales, horizontales y compuestos. El objetivo es que los estudiantes entiendan y apliquen diferentes métodos para detectar bordes en imágenes.
Lecture 13 (Usage of Fourier transform in image processing)VARUN KUMAR
This document discusses the Fourier transform and its applications in image processing. It begins by explaining the Fourier transform for 1D and 2D continuous and discrete signals. The Fourier transform converts a signal from the time or space domain to the frequency domain. It then covers properties of the Fourier transform such as separability and translation. The document concludes by mentioning references for further reading on image processing and computer vision topics.
This document provides an overview of digital image processing techniques for image restoration. It defines image restoration as improving a degraded image using prior knowledge of the degradation process. The goal is to recover the original image by applying an inverse process to the degradation function. Common degradation sources are discussed, along with noise models like Gaussian, salt and pepper, and periodic noise. Spatial and frequency domain filtering techniques are presented for restoration, such as mean, median and inverse filters. The maximum mean square error or Wiener filter is also introduced as a way to minimize restoration error.
1. Image restoration aims to reconstruct or recover an image that has been distorted by known degradation processes.
2. Degradation can occur during image acquisition, display, or processing due to factors like sensor noise, blurring, motion, or atmospheric effects.
3. Restoration techniques model the degradation process and apply the inverse to estimate the original undistorted image. The accuracy of the estimate depends on how well the degradation is modeled.
The document provides an overview of a course on digital image processing. It is divided into 5 units that cover topics such as digital image fundamentals, image transforms, image enhancement, image filtering and restoration, image compression, image segmentation, and image representation and description. The course will examine concepts like sampling and quantization, image transforms including Fourier transforms, image enhancement techniques, image compression standards, and image segmentation methods. Students will learn about various image processing schemes and how to reconstruct images from projections using transforms like the Radon transform. The document provides the context and outline for the digital image processing course.
Utp pd_iy_va_sap6y7 diltacion y erosión binaria - apertura y clausurac09271
Este documento presenta una sesión sobre operaciones morfológicas en procesamiento de imágenes. Explica conceptos clave como dilatación, erosión, apertura, clausura y cómo se aplican estas operaciones usando elementos estructurantes. También cubre aplicaciones como detección de bordes, relleno de regiones y resúmenes de operaciones morfológicas. El objetivo es que los estudiantes aprendan a procesar imágenes digitales usando métodos morfológicos.
The document discusses various image enhancement techniques in digital image processing. It describes point operations like image negative, contrast stretching, thresholding, brightness enhancement, log transformation, and power law transformation. Contrast stretching expands the range of intensity levels and can be done by multiplying pixels with a constant, using a transfer function, or histogram equalization. Thresholding converts an image to binary by assigning pixel values above a threshold to one level and below to another. Log and power law transformations compress high intensity values and expand low values to enhance an image. Matlab code examples are provided for each technique.
This document proposes a new algorithm to reduce striping noise in hyperspectral images. It uses an orthogonal subspace approach to estimate and remove the striping component while preserving useful signal. The algorithm avoids artifacts and accounts for how striping relates to signal intensity. It is experimentally shown to effectively reduce striping noise on real data from airborne and satellite sensors.
The document discusses various image enhancement techniques in Matlab, including filtering, predefined filters, image enhancement tools, image restoration, dilation/erosion functions, and dithering. Filtering can be used to modify images through operations like smoothing, sharpening, and edge enhancement. Predefined filters like 'gaussian' and 'laplacian' can be applied to images with functions like fspecial and imfilter. Additional tools for operations such as histogram equalization, noise addition, and filtering are also covered.
Clipping identifies portions of a scene outside a specified clip window region. There are different types of clipping for different graphics elements. The Cohen-Sutherland algorithm assigns a binary code to line endpoints based on their position relative to the clip window boundaries, and uses logical AND operations on the codes to determine if a line needs clipping or can be fully accepted or rejected. It iteratively clips portions of a line outside the window until the line is fully processed.
Jerarquía de clases, herencia, polimorfismoEdwin Loayza
Este documento presenta un resumen de 3 oraciones o menos del tema 3 sobre herencia en Java:
El tema introduce conceptos clave de herencia como la jerarquía de clases, la reutilización de código a través de la herencia, y la capacidad de extender y redefinir métodos en subclases. Además, explica mecanismos como el polimorfismo que permiten tratar objetos de diferentes tipos de manera uniforme. Finalmente, incluye ejemplos prácticos sobre herencia en el contexto de la gestión bancaria.
1. The document discusses different techniques for region of interest (ROI) extraction from images, including saliency maps, visual attention maps, the Itti-Koch model, and the Stentiford model.
2. It provides examples of the output from these techniques, such as highlighting the most salient points or areas of an image.
3. While the models may identify different ROIs, combining their common ROIs can provide a better output for applications like thumbnail cropping or image indexing.
Image Enhancement: Introduction to Spatial Filters, Low Pass Filter and High Pass Filters. Here Discussed Image Smoothing and Image Sharping, Gaussian Filters
Este documento describe varias técnicas de formato en Excel como dar formato a texto, agregar bordes y colores, aplicar formatos numéricos, crear y aplicar estilos, copiar formatos, extender formatos automáticamente, aplicar formatos condicionales, crear vistas personalizadas, y ocultar libros, hojas, filas, columnas y elementos de la ventana. El objetivo es mejorar la presentación y organización de la información en una hoja de cálculo.
Computer Graphics - Lecture 03 - Virtual Cameras and the Transformation Pipeline💻 Anton Gerdelan
Slides from when I was teaching CS4052 Computer Graphics at Trinity College Dublin in Ireland.
These slides aren't used any more so they may as well be available to the public!
There are some mistakes in the slides, I'll try to comment below these.
The document discusses key concepts in digital image fundamentals including:
1. The electromagnetic spectrum and how light attributes like intensity and luminance are measured.
2. How digital images are acquired through image sensing and sampling/quantization.
3. Methods for representing digital images through matrices and binary values, and how resolution affects gray-level detail.
4. Digital zooming techniques like nearest neighbor, bilinear, and bicubic interpolation that control blurring and edge effects.
5. Concepts like pixel adjacency, connectivity, and distance measures between pixels.
Les intents sous Android
I. Types de transmission d'Intent
II. Structure d'un Intent
IV. Intent Filter
V. Les différents types d'Intents
VI. Transfert de données entre activités
VII. Exercice : Utilisation des Intent de passer d'une activité à l'autre envoyer des données via putExtra
Lecture 2&3 Computer vision image formation ,filters&edge detectioncairo university
This document provides information about a computer vision course including the professor, TAs, and topics to be covered such as image formation, filters, and edge detection. It also includes diagrams explaining image coordinate systems, the pinhole camera model, and how world coordinates are projected and mapped to image coordinates. Key concepts covered are the point spread function, image and object domains, and how a pinhole camera forms images by blocking light rays except through the aperture.
MATLAB es un entorno de computación que integra cálculo numérico, procesamiento de señales, álgebra lineal y visualización gráfica. Fue desarrollado originalmente para facilitar el acceso a software de álgebra lineal y ha evolucionado para usarse en diversas áreas como procesamiento de señales e imágenes, control de sistemas e investigación médica. MATLAB provee funciones para manipulación de datos, análisis estadístico, procesamiento de señales y cálculos simbólicos.
Este documento presenta varios operadores para la detección de bordes en imágenes digitales. Explica el operador de Canny, Sobel, Prewitt y cómo calcular el gradiente. También cubre cómo implementar estos algoritmos y usar las funciones edge y fspecial en MatLab para detectar bordes verticales, horizontales y compuestos. El objetivo es que los estudiantes entiendan y apliquen diferentes métodos para detectar bordes en imágenes.
knowdiff.net
Design of versatile vision-based robotic systems demands a solution with little or no dependence on system parameters. The problem of real-time vision-based control of robots has been long studied as robotic visual servoing. Most provably stable solutions to this problem require calibrated kinematic and camera models, because in a precisely calibrated system one can model the visual-motor function analytically. The uncalibrated approach has received limited attention mainly because the stability analysis is not as straightforward as that of calibrated image-based architecture. In an uncalibrated system the visual-motor function is not known, but partial derivative information (Jacobian) can be learned by tracking visual measurements during motion. In this talk, we study the uncalibrated image-based visual servoing and present different Jacobian learning methods.
Vision Artificial y procesamiento digital de imagenes usando MatlabIván García
Este documento ofrece un libro completo y código fuente para reconocimiento automático de placas de vehículos usando Matlab. El autor comparte este material en su blog para descargarlo de forma gratuita.
Utp va_sl4_procesamiento digital de imagenes con matlab iiijcbenitezp
Este documento presenta conceptos básicos sobre procesamiento digital de imágenes con MatLab. Explica cómo leer y escribir imágenes, acceder a píxeles y planos, y realizar operaciones lógicas y aritméticas con imágenes. También describe tareas de laboratorio como convertir entre formatos de color y escala de grises, y aplicar operaciones lógicas y aritméticas a pares de imágenes.
Este documento describe los conceptos básicos de manejo de imágenes en MATLAB. Explica que las imágenes se representan como matrices, con cada elemento almacenando un valor de tono de gris o color. Proporciona ejemplos de cómo cargar imágenes, obtener información sobre ellas, mostrarlas, guardarlas y convertir entre diferentes tipos de imágenes en MATLAB.
1) El documento describe diferentes métodos para la detección de bordes en imágenes digitales, incluyendo filtros, cálculo del gradiente, máscaras como Roberts, Prewitt y Sobel.
2) Explica la diferencia entre utilizar la primera y segunda derivada, siendo esta última más susceptible al ruido.
3) Se detallan métodos como el de Marr-Hildreth basado en la laplaciana de la gaussiana y detección de cruces por cero.
Este documento presenta una sesión sobre operaciones morfológicas en imágenes en escala de grises en MATLAB. Explica conceptos como dilatación y erosión, y cómo implementar funciones para dilatar y erosionar imágenes de escala de grises en MATLAB. También cubre aplicaciones de operaciones morfológicas como pre-procesamiento de imágenes y extracción de características.
Este documento presenta las operaciones morfológicas aplicadas a imágenes digitales. Explica conceptos como dilatación, erosión, apertura, clausura y cómo se usan para extraer bordes e implementar el relleno de regiones. El objetivo es que los estudiantes aprendan a procesar imágenes digitales mediante operaciones morfológicas y comprendan su aplicación en tareas como segmentación y reconocimiento de imágenes.
Este documento presenta una introducción a los sistemas de visión artificial. Explica brevemente las etapas clave de un sistema de visión artificial, incluyendo la adquisición de imágenes, preprocesamiento, segmentación, extracción de características, reconocimiento e interpretación. También describe elementos clave como sensores, cámaras y sus modelos, y tipos de imágenes digitales. El documento proporciona una panorámica general de los conceptos fundamentales en visión artificial.
Este documento presenta conceptos básicos sobre imágenes digitales y su procesamiento en MATLAB. Introduce cómo las imágenes se representan como matrices en MATLAB y explica funciones para leer y escribir imágenes desde archivos. Luego describe operaciones básicas de procesamiento de imágenes como filtrado, detección de bordes, umbralización y transformaciones morfológicas. Finalmente presenta la herramienta vfm para captura de imágenes.
Este documento describe los filtros espaciales y sus aplicaciones en procesamiento de imágenes. Explica conceptos como operaciones basadas en vecindades, filtros promedio, ruido en imágenes y cómo usar filtros para suprimir ruido. También describe el filtro Laplaciano y cómo puede usarse para detectar bordes en una imagen.
Este documento describe operaciones morfológicas en procesamiento de imágenes como dilatación, erosión, apertura y cerradura. La dilatación amplía bordes de objetos y une puntos próximos, mientras que la erosión reduce bordes y separa puntos. La apertura suaviza contornos eliminando pequeñas protuberancias, y la cerradura rellena detalles conectando objetos próximos. Estas operaciones requieren de un elemento estructural que define la vecindad de píxeles a modificar.
Este documento presenta los conceptos básicos de la morfología matemática y sus operaciones morfológicas como la dilatación, erosión, apertura y clausura. Explica cómo se pueden usar estas operaciones para aplicaciones como preprocesamiento de imágenes, detección de objetos y descripción de características. También cubre temas como elementos estructurantes, transformada hit-or-miss, adelgazamiento, engrosamiento y esqueletización.
This document discusses robot vision systems. It covers topics like industrial robotics, medical robotics, computer vision capabilities for robotics like object recognition and registration, vision sensors, issues with vision systems, and visual servoing techniques. Application examples discussed include using vision for accurate robot positioning, laparoscopic surgery, and tracking instruments.
El documento habla sobre robótica y visión artificial. Brevemente describe la anatomía de un robot, las tres leyes de la robótica, y cómo la robótica se relaciona con áreas como la construcción, minería, medicina, agricultura y el hogar. También explica conceptos básicos de la visión artificial como la segmentación, descripción, interpretación y reconocimiento de imágenes.
Este documento trata sobre visión artificial y sus aplicaciones. En 3 oraciones o menos: La visión artificial busca imitar la visión humana para que las computadoras puedan entender escenas e imágenes. Tiene muchas aplicaciones como inspección de productos, control de calidad, reconocimiento de caracteres, vigilancia y seguridad. El documento describe los conceptos y métodos de visión artificial así como sus usos en industria, medicina, biología y para ayudar al sistema visual humano.
Este documento describe operaciones morfológicas en MATLAB. Explica conceptos como dilatación, erosión, elementos estructurales y transformada de distancia. La dilatación agrega píxeles al contorno de objetos, mientras que la erosión elimina píxeles. Estas operaciones se utilizan comúnmente para procesamiento de imágenes como limpieza, detección de bordes y medición de propiedades.
PROCESAMIENTO DIGITAL DE SEÑALES CON MATLABINFOVIC
Este documento trata sobre el procesamiento digital de señales con MATLAB. Explica conceptos como el espectro de una señal de voz y la convolución. Muestra cómo obtener el espectro de frecuencia de señales de voz y guitarra usando MATLAB. El ancho de banda de las señales de muestra fue de aproximadamente 2.9 kHz. También explica la ley de convolución y cómo realizar operaciones de convolución manualmente y en MATLAB.
Este documento describe los pasos básicos para procesar imágenes con MATLAB, incluyendo la lectura, representación, obtención de tamaño, despliegue, escritura y edición de pixeles de imágenes. También cubre temas como submuestreo, transformación de tipos de datos, filtrado mediante convolución y detección de bordes.
Este documento presenta información sobre la segmentación de imágenes en procesamiento digital de imágenes. Explica diferentes algoritmos y métodos de segmentación como detección de bordes, umbralización, crecimiento de regiones y transformada de Hough. También describe aplicaciones de la segmentación en visión artificial, teledetección, inspección industrial y análisis médico de imágenes. El objetivo es simplificar y extraer información de las imágenes mediante la división en partes u objetos significativos.
La segmentación de imágenes tiene como objetivo dividir una imagen digital en varias partes u objetos significativos. Existen varios algoritmos de segmentación como la segmentación basada en características (niveles de gris, color, textura), la segmentación basada en transiciones como la detección de bordes, y la segmentación basada en modelos como la Transformada de Hough. Esta transformada permite detectar líneas y curvas paramétricas en una imagen al mapear puntos de bordes en el espacio de parámetros de dichas curvas. La segmentación se utiliza
Este documento resume varias técnicas de segmentación de imágenes, incluyendo métodos basados en umbrales, detección de bordes, regiones, agrupamiento, cuencas, ecuaciones diferenciales parciales y redes neuronales. Explica los conceptos básicos de cada técnica y proporciona ejemplos de algoritmos populares como K-means, difusión no lineal y segmentación por red neuronal.
La segmentación de imágenes se refiere al proceso de particionar una imagen en regiones semánticamente significativas. El objetivo principal de la segmentación de imágenes es identificar regiones uniformes y homogéneas con fronteras bien definidas. La segmentación de imágenes médicas busca particionar la imagen en regiones con características similares. Los métodos de segmentación más conocidos son los basados en umbrales, bordes y regiones.
1) El documento presenta información sobre procesamiento de imágenes con MATLAB, incluyendo temas como segmentación de imágenes, detección de bordes, umbralización, y métodos como k-means, Otsu, Canny y Sobel. 2) Explica que la segmentación de imágenes implica particionar la imagen en regiones homogéneas y que los métodos de detección de bordes buscan encontrar los cambios abruptos de intensidad en una imagen. 3) Proporciona preguntas y respuestas sobre estos temas con el propósito de identificar
Este documento trata sobre la segmentación de imágenes. Explica que la segmentación de imágenes implica la partición de una imagen en regiones semánticamente significativas. Detalla varios métodos de segmentación como los basados en umbrales, bordes y regiones. Describe algoritmos específicos como k-means, Otsu y Canny, y cómo estos detectan bordes y segmentan imágenes mediante umbrales y gradientes. El objetivo final de la segmentación es particionar imágenes en clases homogéneas según sus características.
Este documento presenta preguntas y respuestas sobre segmentación de imágenes y detección de bordes. Explica que la segmentación de imágenes involucra la partición de una imagen en regiones semánticamente significativas y homogéneas. Describe métodos comunes de segmentación como umbrales, regiones y bordes. Específicamente, discute k-means, Otsu, gradientes morfológicos y filtros como Prewitt, Sobel y Canny para detección de bordes.
Este documento resume las principales técnicas de segmentación de imágenes, incluyendo la detección de bordes, umbralización y segmentación basada en regiones. Explica que la segmentación divide una imagen en sus partes constituyentes u objetos para separar las partes de interés del resto. Luego describe brevemente cada una de las tres técnicas principales de segmentación.
Este documento discute los conceptos y métodos de segmentación de imágenes. La segmentación de imágenes se refiere al proceso de particionar una imagen en regiones semánticamente significativas. Algunos de los métodos de segmentación más conocidos incluyen los basados en umbrales, bordes y regiones. Los métodos basados en umbrales incluyen umbralización, umbrales múltiples y umbrales automáticos como el método de Otsu. Los métodos basados en bordes utilizan filtros como Prewitt, Sobel y difer
Las operaciones morfológicas (OM) son técnicas de procesamiento no lineal de imágenes basadas en la teoría de conjuntos. Existen dos tipos principales de OM: las OM binarias y las OM de niveles de grises. Las OM incluyen dilatación y erosión, las cuales pueden usarse para preprocesamiento de imágenes, destacar estructuras de objetos, y describir objetos. La dilatación engrosa las imágenes mientras que la erosión las adelgaza. Ambas operaciones se implementan utilizando un elemento e
El documento trata sobre los conceptos y métodos de segmentación de imágenes. Explica que la segmentación de imágenes consiste en particionar la imagen en regiones semánticamente significativas. Describe los métodos de segmentación basados en umbrales, bordes y regiones, e incluye detalles sobre métodos específicos como Otsu, k-means, y detección de bordes con filtros como Sobel y Canny.
La sesión trata sobre las operaciones morfológicas de dilatación y erosión en imágenes en escala de grises. Explica que la morfología matemática se basa en operaciones de teoría de conjuntos y se puede usar para preprocesamiento de imágenes, destacar estructuras de objetos, y describir objetos. Presenta las operaciones básicas de dilatación y erosión en imágenes en escala de grises, mostrando cómo estas operaciones pueden ampliar o reducir regiones de la imagen y cómo se implementan en Matlab.
Este documento presenta preguntas y respuestas sobre los conceptos y métodos fundamentales de procesamiento de imágenes, incluida la segmentación de imágenes. Aborda temas como la segmentación de imágenes médicas, los métodos de segmentación basados en umbrales, regiones y bordes como k-means y Otsu, y la detección de bordes mediante filtros como Prewitt, Sobel y Canny.
La segmentación de imágenes se refiere al proceso de particionar una imagen en regiones semánticamente significativas. Los métodos más comunes de segmentación incluyen aquellos basados en umbrales, bordes y regiones. La segmentación basada en umbrales utiliza valores de umbral para separar los objetos del fondo, mientras que la segmentación basada en bordes detecta bordes mediante el uso de filtros como Prewitt, Sobel y Canny. La segmentación es importante para aplicaciones como la detección de objetos en imágenes.
Pontificia universidad católica del ecuador virtualizacionGabriel Solano
Este documento presenta información sobre diferentes métodos de segmentación de imágenes, incluyendo segmentación basada en umbrales, regiones, y bordes. Explica métodos como k-means, Otsu, y detección de bordes con filtros como Prewitt, Sobel, y Canny. También cubre conceptos como gradiente morfológico y el método RATS para selección automática de umbrales.
El documento trata sobre la segmentación de imágenes. Explica que la segmentación de imágenes es el proceso de particionar la imagen de manera semánticamente significativa, como encontrar objetos en la imagen. Describe los diferentes métodos de segmentación como los basados en umbrales, bordes y regiones. Explica algunos métodos específicos como Otsu y k-means para segmentación basada en umbrales y Canny y Sobel para detección de bordes.
Este documento describe varios métodos para la segmentación de imágenes, incluyendo crecimiento de regiones, conjunto de niveles y particionamiento gráfico. La segmentación de imágenes consiste en dividir una imagen en regiones homogéneas. Los métodos de crecimiento de regiones inician con semillas o píxeles individuales y agrupan píxeles similares iterativamente. El método del conjunto de niveles representa la evolución del contorno usando una función de nivel cero y propaga implícitamente el contorno. Los métodos de partic
Este documento describe la investigación sobre algoritmos de segmentación de imágenes médicas realizada por Gloria Bautista y Sonia Contreras de la Universidad Tecnológica de Bolívar. El objetivo es desarrollar métodos para extraer estructuras anatómicas de imágenes médicas y así ayudar en el diagnóstico de enfermedades. Se exploran técnicas como crecimiento de regiones, contornos activos y reconstrucción tridimensional para segmentar imágenes y superar retos como ruido y artefactos.
Este documento presenta diferentes métodos de clasificación digital de imágenes, incluyendo la clasificación supervisada. Explica cómo seleccionar regiones de entrenamiento para definir las clases, calcular estadísticas de las regiones y clasificar la imagen asignando cada píxel a una clase. También describe un ejemplo práctico de clasificación supervisada usando el software ER Mapper 7.0, incluyendo cómo cargar la imagen, agregar una capa vectorial para definir regiones y seleccionar regiones de entrenamiento representativas de diferentes
El documento describe los conceptos básicos de la segmentación de imágenes. Explica que la segmentación divide la imagen en regiones basadas en discontinuidades o similitudes en los niveles de gris de los píxeles vecinos. Luego, detalla algunos algoritmos comunes como detección de puntos aislados, líneas y bordes usando operadores como el Laplaciano y el gradiente. Finalmente, introduce el enfoque de Marr-Hildreth que aplica un filtro Gaussiano antes de calcular el Laplaciano para detectar bordes.
Este documento analiza el concepto de pedagogía desde una perspectiva sociológica. Explora cómo la pedagogía está ligada a la regulación de la subjetividad y el conocimiento a través de los discursos a lo largo de la historia. También argumenta que el discurso pedagógico es intrínseco a toda interacción social y sirve para reproducir relaciones de poder y principios de control.
El documento presenta información sobre la normativa que rige los trabajos de investigación universitaria. Explica el objetivo y contenido del silabo, la Ley Universitaria, la Guía del Egresado UTP, el Reglamento de Grados y Títulos UTP, las Líneas de Investigación de Ingeniería en la UTP y la norma IEEE. Además, pide a los estudiantes identificar aspectos importantes de cada documento normativo y cierra resumiendo las definiciones clave.
El documento presenta el currículum vitae de José Carlos Benítez Palacios, un ingeniero electrónico peruano con estudios de posgrado en informática, telemática, telecomunicaciones, educación y doctorado en ciencias de la educación. Detalla su experiencia laboral y académica en el área de la ingeniería, informática y educación superior.
El documento resume tres sesiones de laboratorio sobre procesamiento de imágenes y visión artificial. En cada sesión, el docente explicó ejercicios relacionados a la lectura, manipulación y conversión de imágenes en Matlab, y el alumno desarrolló dos ejercicios. El laboratorio completo involucró 17 ejercicios y 15 preguntas de cuestionario.
Ul rc_cap4_capa de red - encaminamiento ruteoc09271
Este documento describe los conceptos básicos de la capa de red y el encaminamiento. Explica dos algoritmos principales de encaminamiento: el algoritmo de vector distancia y el algoritmo de estado de enlace. También cubre temas como tablas de encaminamiento, métricas de costo, y protocolos de encaminamiento como RIP, OSPF e IS-IS.
Este documento describe el nivel de red en Internet, incluyendo el protocolo IP y sus componentes como el datagrama IP, la cabecera IP, fragmentación IP y direccionamiento IP. Explica conceptos como el campo DS, opciones de IP, MTU y clases de direccionamiento.
Este documento presenta una sesión sobre la capa de red en redes de computadoras. Explica conceptos clave como las funciones de la capa de red, las diferencias entre CONS y CLNS, los diferentes tipos de encaminamiento como inundación y dinámico, y temas relacionados a la congestión como control de congestión y tráfico.
Este documento describe la evolución de Ethernet y las tecnologías de transporte por conmutación de paquetes necesarias para soportar redes públicas troncales. Ethernet nativo tiene limitaciones para este uso debido a su falta de mecanismos de gestión, control y calidad de servicio. Las mejoras como Carrier Ethernet proporcionan escalabilidad, disponibilidad, protección y calidad de servicio superior requeridas por los proveedores. Tecnologías como MPLS y PBT permiten adaptar Ethernet para transporte de red, superando las limitaciones originales y permitiendo
1) Carrier Ethernet provides more flexible bandwidth scalability compared to legacy technologies like T1, E3, SONET, and ATM. Bandwidth can be remotely provisioned up to the Ethernet port speed without needing new equipment or sending a technician.
2) Carrier Ethernet differs from traditional Ethernet in that it connects entire organizations to an Ethernet port across wide areas between buildings rather than within a single building.
3) Carrier Ethernet can be implemented over various layer 1 transport technologies like fiber, SONET/SDH, MPLS, or microwave. It provides standardized Ethernet services like E-Line, E-LAN, and E-Tree.
Las redes Metro Ethernet permiten extender Ethernet más allá de las redes LAN para conectar oficinas y sitios de una empresa. Ethernet ha superado limitaciones como la distancia gracias a tecnologías ópticas y ahora ofrece servicios fiables y con gran capacidad de crecimiento. Los servicios Ethernet definidos por el MEF incluyen E-Line para conexiones punto a punto y E-LAN para conexiones multipunto. Las redes Metro Ethernet son una alternativa a tecnologías como Frame Relay para implementar VPNs de nivel 2 que conecten diferentes sedes de una empresa.
This document provides a technical overview of Ethernet services based on work by the Metro Ethernet Forum (MEF) Technical Committee. It defines key terms like Ethernet Virtual Connection (EVC) and describes the two main Ethernet service types - Ethernet Line (E-Line) and Ethernet LAN (E-LAN). E-Line provides point-to-point connectivity between sites while E-LAN provides multipoint connectivity between multiple sites using a single EVC. The document outlines various attributes that define Ethernet services, like physical interface specifications, bandwidth profiles, and performance parameters.
El documento describe la evolución de Ethernet desde su creación en los años 70 hasta su uso actual en redes de área amplia y global. Explica los conceptos clave de Carrier Ethernet como la estandarización de servicios, la escalabilidad, la fiabilidad y la gestión de servicios. Resume los principales organismos de estandarización como MEF y los tipos de servicios definidos como E-Line y E-LAN.
Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial ic09271
Esta sesión cubre las transformaciones básicas a nivel espacial de imágenes digitales, incluyendo métodos para convertir imágenes de color a escala de grises y obtener el negativo de una imagen. Existen varios métodos para la conversión de RGB a escala de grises, pero el método mejor es usar los porcentajes de sensibilidad del ojo humano (30% rojo, 59% verde, 11% azul). Para obtener el negativo, una imagen binaria cambia los pixeles 1 a 0, una imagen en escala de grises asigna el
Este documento presenta un primer examen práctico sobre inteligencia artificial y redes neuronales artificiales para estudiantes de ingeniería. Incluye preguntas sobre la introducción a IA y RNA, redes neuronales multicapa, patrones de aprendizaje y su separabilidad lineal, diseño de redes neuronales simples y entrenamiento del perceptrón, y entrenamiento de funciones lógicas en una MLP.
Este documento presenta la tercera edición en español del libro "Cómo escribir y publicar trabajos científicos" de Robert A. Day. El libro ofrece instrucciones detalladas sobre cómo escribir y publicar diferentes tipos de documentos científicos, incluyendo artículos de investigación, revisiones, comunicaciones a conferencias y tesis. Explica cada sección de un artículo científico estándar, así como temas como la preparación de ilustraciones, el proceso de arbitraje, la ética en investigación y la
Este documento presenta la red neuronal Perceptron. Explica su arquitectura de una capa de entrada y una capa de salida, y cómo realiza clasificación binaria mediante un hiperplano definido por los pesos de las conexiones y un umbral. También describe el algoritmo de entrenamiento del Perceptron, el cual actualiza los pesos para minimizar el error entre la salida deseada y la producida. El documento provee ejemplos de cómo el Perceptron puede aprender las funciones lógicas OR y AND.
Utp 2014-2_pdi_sap2 iluminacion y modos de colorc09271
Este documento presenta información sobre iluminación, imágenes digitales y modos de color. Explica los tipos de iluminación y fuentes de luz, e introduce los conceptos de imágenes vectoriales, mapas de bits, y el espectro electromagnético. Además, describe varios modos de color comunes como RGB, CMY, YIQ, YCbCr y HSI, explicando sus características y usos.
Este documento presenta una introducción a las Redes Neuronales Artificiales (RNA). Explica las características de las RNA, incluyendo que aprenden de la experiencia, generalizan y abstraen información. También compara la computación tradicional con la computación neuronal, describiendo las diferencias en programación, arquitectura y sistemas expertos. Brevemente resume la historia de las RNA, desde los primeros trabajos hasta los avances actuales.
Este documento presenta una introducción a las Redes Neuronales Artificiales (RNA). Explica las características de las RNA, incluyendo que aprenden, generalizan y abstraen como el cerebro humano. Describe la neurona biológica, las redes neuronales biológicas y las diferencias entre la computación tradicional y neuronal. También resume brevemente la historia de las RNA y algunas de sus aplicaciones actuales.
Este documento presenta una introducción a las redes neuronales artificiales (RNA). Explica brevemente la neurona biológica, las redes neuronales biológicas y las diferencias entre la computación tradicional y la computación neuronal. También resume la historia de las RNA, desde los primeros trabajos en los años 40 hasta los avances actuales. Finalmente, menciona algunas aplicaciones posibles de las RNA.
2. Logros de aprendizaje
1. Conocer en que consiste la segmentación de imágenes.
2. Revisar el objetivo y uso de la segmentación.
3. Analizar la segmentación basada en características .
4. Comprender la segmentación basada en transiciones.
5. Comprender la segmentación basada en modelos.
6. Implementar los algoritmos mediante funciones para
operar la segmentación de las imágenes digitales.
7. Conocer los métodos de MatLab para la segmentación
aplicados a las imágenes digitales.
2
3. 3
Contenido
Segmentación de imágenes:
Introducción.
Objetivo y uso de la segmentación.
Proceso de la segmentación.
Aplicaciones de la segmentación.
Algoritmos de segmentación.
Segmentación basada en características.
Segmentación basada en transiciones.
Segmentación basada en modelos: La
transformada de Hough.
Aplicaciones de la TH.
4. Introducción a la segmentación
Esquema general del análisis de imágenes
4
5. Introducción a la segmentación
La segmentación en el campo de la visión artificial es el
proceso de dividir una imagen digital en varias partes (grupos
de píxeles) u objetos.
La segmentación de la imagen es el proceso de asignación de
una etiqueta a cada píxel de la imagen de forma que los píxeles
que compartan la misma etiqueta también tendrán ciertas
características visuales similares.
El resultado de la segmentación de una imagen es un conjunto
de segmentos que cubren en conjunto a toda la imagen, o un
conjunto de las curvas de nivel extraídas de la imagen
(detección de bordes). Cada uno de los píxeles de una región
son similares en alguna característica, como el color, la
intensidad o la textura. Regiones adyacentes son
significativamente diferentes con respecto a la(s) misma(s)
característica(s).
5
6. Objetivo y uso de la segmentación
El objetivo de la segmentación es simplificar y/o cambiar la
representación de una imagen en otra más significativa y más
fácil de analizar.
La segmentación se usa tanto para localizar objetos como para
encontrar los límites de estos dentro de una imagen.
Las técnicas de segmentación son muy dependientes del
propósito de la aplicación y del tipo de imágenes a analizar.
Se han desarrollado varios algoritmos y técnicas de propósito
general para la segmentación de imágenes y dado que no
existe una solución general para el problema de la
segmentación, a menudo se tienen que combinar varias
técnicas para resolverlo eficazmente.
6
7. Proceso de la segmentación
Antes de segmentar es preciso definir qué objetos interesa
determinar
Tras la segmentación es posible realizar operaciones de filtrado
(a nivel de objetos), así como determinar características que
permitan clasificar los objetos.
Una buena segmentación es difícil de evaluar.
Fundamentalmente, lo que se busca es que diferentes objetos
tengan valores claramente diferentes de la(s) característica(s)
discriminante(s).
7
8. Aplicaciones de la segmentación
1. Visión artificial
2. Teledetección
3. Compresión
4. Inspección industrial
5. Análisis de imágenes médicas
6. Gestión de información multimedia
8
9. Aplicaciones de la segmentación
1. Pruebas médicas
• Localización de tumores y otras patologías
• Medida de volúmenes de tejido
• Cirugía guiada por ordenador
• Diagnóstico
• Planificación del tratamiento
• Estudio de la estructura anatómica
2. Localización de objetos en imágenes de satélite
(teledetección).
3. Sensor de huella digital
4. Reconocimiento de caras
5. Reconocimiento de iris
6. Sistemas de control de tráfico
7. Visión por computador
9
10. Aplicaciones de la segmentación
Frecuentemente estamos interesados en detectar líneas en una
determinada dirección. Los píxeles que forman parte de una línea
horizontal, vertical o diagonal, tendrán respuestas extremas ante
alguna de las máscaras siguientes:
10
Aplicar cada una de estas mascaras a la imagen
procesador.bmp.
11. Algoritmos de segmentación
Los algoritmos de segmentación se basan en los siguientes
principios:
1. Discontinuidades del nivel de gris.
Consisten en segmentar la imagen a partir de los cambios
grandes en los niveles de gris entre los píxeles.
Las técnicas que utilizan las discontinuidades como base son la
detección de líneas, de bordes, de puntos aislados,…
2. Similitud de niveles de gris.
Es lo contrario al método anterior, las divisiones de la imagen
se hacen agrupando los píxeles que tienen unas características
similares.
Algunas técnicas que usan esto son la umbralización, el
crecimiento de regiones, etc.
11
12. Algoritmos de segmentación
1. Métodos de agrupamiento (Clustering)
2. Métodos basados en el histograma
3. Detección de bordes
4. Métodos de crecimiento de regiones
5. Método del conjunto de nivel
6. Métodos de particionamiento gráfico
7. Transformación divisoria (watershed)
8. Método del valor umbral (umbralización)
9. Segmentación basada en modelos
10. Segmentación multi-escala
• Segmentación jerárquica de señales unidimensionales
• Segmentación de imágenes y el boceto original
11. Segmentación Semi-automática
12. Redes neuronales de segmentación
12
13. Algoritmos de segmentación
1. Segmentación basada en características
• Segmentación por niveles de gris
• Segmentación de imágenes en color
• Segmentación por texturas
2. Segmentación basada en transiciones
• Detección de bordes
3. Segmentación basada en modelos
• Transformada de Hough
4. Segmentación basada en homogeneidad
• Fusión de regiones
• Zonas planas
• Propagación de Marcadores
5. Segmentación basada en Morfológica Matemática
13
14. Algoritmos de segmentación
1. Segmentación basada en características
• Segmentación por niveles de gris
• Segmentación de imágenes en color
• Segmentación por texturas
14
Se asigna cada píxel a una región en función de
características locales de la imagen en el píxel y
(posiblemente) en su vecindad.
15. Segmentación basada en características
15
Segmentación por niveles de gris
• Utiliza como característica solamente la luminancia de cada
píxel.
• Útil si distintos objetos se corresponden con niveles de gris
diferentes.
• El nivel de gris determina alguna propiedad física en una imagen
específica de una aplicación (Rayos X, RMN, bandas en satélite,
etc.)
• Técnicas de operaciones puntuales (ej: doble umbralización)
• Técnicas de clasificación basada en amplitud => imagen
binaria
Matlab:
J=roicolor(I,low, high); ‘J’ es una imagen binaria
K=roifilt2(h,I,J); se filtra ‘I’ por ‘h’ en los puntos ‘J’==1
16. Segmentación basada en características
16
En el caso ideal en que el objeto posea un rango
estrecho de niveles de gris frente a un fondo uniforme,
podemos establecer un nivel de gris intermedio (umbral)
para separar objeto y fondo.
Para separar por umbral, es útil recurrir al histograma.
Segmentación por niveles de gris
17. Segmentación basada en características
17
Segmentación por Histograma:
• Picos: a menudo indican la presencia de zonas
homogéneas.
• Valles: establecen los umbrales de separación.
Problemas:
• Objetos con un amplio rango de niveles de gris:
• Fondo no uniforme, …
• Imagen con ruido
Segmentación por niveles de gris
18. Segmentación basada en características
18
• Al aplicar un umbral, u, se genera
una partición de la imagen
mediante
• Esto equivale a definir el conjunto
(en este ejemplo, de nivel inferior):
• Este conjunto produce una división
del espacio. La cantidad de
componentes conexas de Lu
determinan el número de regiones.
Segmentación por niveles de gris
19. Segmentación basada en características
19
Método automático para separar objeto del fondo: Otsu
• Cálculo del histograma de gris
• Cálculo iterativo de media y varianza
• Hipótesis de umbral U => divide el histograma en dos partes y
se calcula media y varianza para cada parte iterativamente
cambiando U.
• Medimos la varianza conjunta:
Segmentación por niveles de gris. Umbralización:
20. Segmentación basada en características
20
Segmentación por niveles de gris. Umbralización:
Matlab:
level= graythresh(I); %utiliza el método de Otsu.
BW=im2bw(I,level)
21. Segmentación basada en características
21
Segmentación por niveles de gris. Umbralización:
• La determinación del umbral óptimo para una imagen
dada es un factor crítico de la segmentación.
• Conociendo las distribuciones de luminancia propias
de cada objeto en la imagen, el umbral óptimo puede
estimarse mediante consideraciones estadísticas.
• Sin embargo, puede haber limitaciones: si las
distribuciones están solapadas, ningún umbral
aplicado directamente sobre la luminancia de la
imagen puede obtener una segmentación libre de
errores.
22. Segmentación basada en características
22
Segmentación por niveles de gris. Umbralización:
Puede mejorarse la segmentación realizando un preprocesado previo de la
imagen.
27. Algoritmos de segmentación
3. Segmentación basada en modelos
• Las técnicas de segmentación basada en
modelos presuponen conocidas algunas
características de los objetos o regiones en la
imagen: rectas, objetos circulares, etc.
• La transformada de Hough es una de las más
utilizadas.
27
29. Algoritmos de segmentación
3. Segmentación basada en modelos
• Transformada de Hough (TH)
29
• Transformación de dominio para encontrar curvas paramétricas en
una imagen (binaria o de grises).
El nuevo espacio transformado se denomina espacio de Hough.
Para ajustar distintos tipos de formas se usan distintos espacios
de Hough.
• Objetivo de la TH:
Transformar un problema de detección de patrones en un
problema de detección de máximos en el espacio de Hough.
• Ventaja principal de la TH:
Está poco afectada por ruido o huecos en las curvas.
Identificando las curvas que interesan en el espacio de Hough,
es posible aislar regiones en la imagen original (filtrado).
42. Tarea de la Sesión
1. Realizar mapas conceptuales (CMapTools) de la presentación
y videos de ésta Sesión de Aprendizaje.
2. Mediante MatLab implementar funciones para cada uno de los
operadores de detección de bordes. Alpicarlos sobre su
fotografía (foto.jpg) y la imagen (lena.jpg) colocada en la
Carpeta Sesiones de Aprendizaje del curso en el Dropbox.
3. Comparar los resultados con los resultados obtenidos de
utilizar la función edge del MatLab.
4. Detectar los bordes de la imagen “bridge.gif”. Detectar primero
los bordes horizontales, luego los verticales y componer en
último lugar la imagen formada de bordes horizontales y
verticales, utilizar para esto el filtro de sobel.
5. Hallar la imagen de bordes binaria de la imagen “lena.jpg”,
aplicando todos los filtros posibles que admite la función edge.
Realizar lo mismo pero en este caso no se empleará la función
edge. 42
43. Tarea de la Sesión
5. Colocar dentro de su Carpeta Personal del Dropbox, en una
carpeta de nombre “PDI_PaternoM_S11_tareas”:
Los mapas conceptuales
Los códigos (*.m)
Su foto.
Las imágenes resultantes.
43