Char classification process is based on morphological characteristics, such as: number of pores, distribution of pores and all thickness. Approximately, five hundred images have to be analysing in order to classify a char sample. Frequently, these images have high spatial resolution, 1300 x 1030 pixels, and intensity levels are represented using 8 bits. Thus, char image applications require large storage and processing capacity. In this paper, we compare different subsampling and quantisation strategies in order to reduce the spatial resolution and the number of bits used. Compared strategies showed excellent results in reducing spatial resolution and intensity levels, with minimal loss of information or details in processed images
Este documento describe los principales modelos planetarios a lo largo de la historia, incluyendo los modelos geocéntricos de Aristóteles y Ptolomeo, y los modelos heliocéntricos de Aristarco de Samos, Copérnico, Galileo y Kepler. Explica las contribuciones clave de cada uno al desarrollo de la comprensión del sistema solar, culminando con la ley de la gravitación universal de Newton.
Este documento describe el muestreo y cuantificación de señales analógicas usando MATLAB. Explica cómo muestrear ondas sinusoidales y triangulares con diferentes frecuencias de muestreo y cómo esto afecta la precisión de la señal reconstruida. También construye diagramas de bloques para simular bloqueadores de orden cero y uno y analiza cómo estos afectan la forma de la señal al variar la frecuencia de muestreo. Concluye que cuanto menor es el tiempo de muestreo, más precisa es la señal recon
El documento resume los conceptos básicos de la cuantificación escalar. Explica que la cuantificación es el proceso de representar un rango continuo de valores con un número finito de valores mediante la división del rango en intervalos y la asignación de un valor representativo a cada intervalo. También describe los tipos básicos de cuantificación uniforme y no uniforme, así como métodos para optimizar la cuantificación minimizando el error cuadrático medio o la razón de bits por símbolo.
Este documento describe el proceso de cuantificación digital de imágenes, que elimina las altas frecuencias para reducir el tamaño sin pérdida excesiva de calidad visual. Esto se logra dividiendo cada componente de frecuencia de una matriz de imagen por una constante y redondeando al número entero más cercano, lo que tiende a igualar los componentes de alta frecuencia a cero. Como ejemplo, una matriz típica de cuantificación es la matriz de Losheller usada en JPEG, que divide cada coeficiente de la imagen transformada entre los coef
El documento describe el proceso de muestreo y reconstrucción de señales continuas usando una tarjeta de adquisición de datos y software de simulación. Se muestran los resultados del muestreo y reconstrucción de señales usando un retenedor de orden cero y un filtro paso bajo a diferentes frecuencias, verificando el teorema de muestreo. La reconstrucción con el retenedor de orden cero es más precisa.
La diagramación o maquetación es el proceso de organizar contenidos escritos, visuales y audiovisuales en publicaciones impresas y electrónicas. Involucra distribuir estos elementos en el espacio de acuerdo a líneas editoriales y consideraciones de legibilidad e incorporando imágenes de manera balanceada. Los maquetadores usan programas de diseño para componer las páginas siguiendo una retícula que guía la estructura.
Este documento describe los conceptos básicos de procesamiento digital de señales utilizando MATLAB, incluyendo la generación y gráfica de señales discretas, el submuestreo, sobremuestreo, procesamiento de audio y análisis en frecuencia mediante la transformada rápida de Fourier.
Este documento describe los pasos básicos para procesar imágenes con MATLAB, incluyendo la lectura, representación, obtención de tamaño, despliegue, escritura y edición de pixeles de imágenes. También cubre temas como submuestreo, transformación de tipos de datos, filtrado mediante convolución y detección de bordes.
Este documento describe los principales modelos planetarios a lo largo de la historia, incluyendo los modelos geocéntricos de Aristóteles y Ptolomeo, y los modelos heliocéntricos de Aristarco de Samos, Copérnico, Galileo y Kepler. Explica las contribuciones clave de cada uno al desarrollo de la comprensión del sistema solar, culminando con la ley de la gravitación universal de Newton.
Este documento describe el muestreo y cuantificación de señales analógicas usando MATLAB. Explica cómo muestrear ondas sinusoidales y triangulares con diferentes frecuencias de muestreo y cómo esto afecta la precisión de la señal reconstruida. También construye diagramas de bloques para simular bloqueadores de orden cero y uno y analiza cómo estos afectan la forma de la señal al variar la frecuencia de muestreo. Concluye que cuanto menor es el tiempo de muestreo, más precisa es la señal recon
El documento resume los conceptos básicos de la cuantificación escalar. Explica que la cuantificación es el proceso de representar un rango continuo de valores con un número finito de valores mediante la división del rango en intervalos y la asignación de un valor representativo a cada intervalo. También describe los tipos básicos de cuantificación uniforme y no uniforme, así como métodos para optimizar la cuantificación minimizando el error cuadrático medio o la razón de bits por símbolo.
Este documento describe el proceso de cuantificación digital de imágenes, que elimina las altas frecuencias para reducir el tamaño sin pérdida excesiva de calidad visual. Esto se logra dividiendo cada componente de frecuencia de una matriz de imagen por una constante y redondeando al número entero más cercano, lo que tiende a igualar los componentes de alta frecuencia a cero. Como ejemplo, una matriz típica de cuantificación es la matriz de Losheller usada en JPEG, que divide cada coeficiente de la imagen transformada entre los coef
El documento describe el proceso de muestreo y reconstrucción de señales continuas usando una tarjeta de adquisición de datos y software de simulación. Se muestran los resultados del muestreo y reconstrucción de señales usando un retenedor de orden cero y un filtro paso bajo a diferentes frecuencias, verificando el teorema de muestreo. La reconstrucción con el retenedor de orden cero es más precisa.
La diagramación o maquetación es el proceso de organizar contenidos escritos, visuales y audiovisuales en publicaciones impresas y electrónicas. Involucra distribuir estos elementos en el espacio de acuerdo a líneas editoriales y consideraciones de legibilidad e incorporando imágenes de manera balanceada. Los maquetadores usan programas de diseño para componer las páginas siguiendo una retícula que guía la estructura.
Este documento describe los conceptos básicos de procesamiento digital de señales utilizando MATLAB, incluyendo la generación y gráfica de señales discretas, el submuestreo, sobremuestreo, procesamiento de audio y análisis en frecuencia mediante la transformada rápida de Fourier.
Este documento describe los pasos básicos para procesar imágenes con MATLAB, incluyendo la lectura, representación, obtención de tamaño, despliegue, escritura y edición de pixeles de imágenes. También cubre temas como submuestreo, transformación de tipos de datos, filtrado mediante convolución y detección de bordes.
Los descriptores de textura son métricas diseñadas para cuantificar la textura percibida en una imagen. Se utilizan para clasificar y segmentar imágenes basadas en las propiedades de textura. Algunos métodos comunes de descriptores de textura son Local Binary Pattern (LBP), matriz de co-ocurrencia, espectro de textura (TS) y Haralick. Estos descriptores se aplican comúnmente en el análisis de imágenes médicas y el reconocimiento de caracteres.
Se presenta un método para la identificación automática de células epiteliales en tejidos de histología. Trabajo presentado en el marco del VIII Congreso Colombiano de Morfología -2012
This document discusses 3D reconstruction from 2D images. It introduces the concepts of direct and inverse problems as they relate to 3D reconstruction, with small changes in input data potentially leading to large changes in the reconstructed 3D model. Stereo image capture and camera calibration are also covered, including intrinsic and extrinsic camera parameters as well as epipolar geometry, which describes the geometric relationship between two cameras.
This document compares different block-matching motion estimation algorithms. It introduces block-matching motion estimation and describes popular distortion metrics like MSE and SAD. It then explains the full-search algorithm and more efficient algorithms like three-step search and four-step search that evaluate fewer candidate blocks to reduce computational cost. These algorithms are evaluated and compared using video test sequences to analyze their performance and quality.
Este documento propone utilizar técnicas de template matching para identificar patrones en imágenes de hígado. Se analizarán y evaluarán algoritmos como SAD, CCC y NCC para encontrar regiones similares a un patrón de referencia. Se aplicarán filtros como bilateral y promedio, y el operador de Sobel para preprocesar las imágenes. Los resultados se validarán con un especialista para apoyar el diagnóstico médico.
A comparison of stereo correspondence algorithms can be conducted by a quantitative evaluation of disparity maps. Among the existing evaluation methodologies, the Middlebury’s methodology is commonly used. However, the Middlebury’s methodology has shortcomings in the evaluation model and the error measure. These shortcomings may bias the evaluation results, and make a fair judgment about algorithms accuracy difficult. An alternative, the methodology is based on a multiobjective optimisation model that only provides a subset of algorithms with comparable accuracy. In this paper, a quantitative evaluation of disparity maps is proposed. It performs an exhaustive assessment of the entire set of algorithms. As innovative aspect, evaluation results are shown and analysed as disjoint groups of stereo correspondence algorithms with comparable accuracy. This innovation is obtained by a partitioning and grouping algorithm. On the other hand, the used error measure offers advantages over the error measure used in the Middlebury’s methodology. The experimental validation is based on the Middlebury’s test-bed and algorithms repository. The obtained results show seven groups with different accuracies. Moreover, the top-ranked stereo correspondence algorithms by the Middlebury’s methodology are not necessarily the most accurate in the proposed methodology
Este documento presenta una contribución a la caracterización del descriptor visual de color del estándar MPEG-7. Explica brevemente los objetivos generales y específicos del proyecto, introduce conceptos clave como MPEG, MPEG-7, descriptores visuales y descriptores de color. También describe herramientas de software y métodos para la caracterización y pruebas de los descriptores de color de MPEG-7.
A quantitative evaluation methodology for disparity maps includes the selection of an error measure. Among existing measures, the percentage of bad matched pixels is commonly used. Nevertheless, it requires an error threshold. Thus, a score of zero bad matched pixels does not necessarily imply that a disparity map is free of errors. On the other hand, we have not found publications on the evaluation process where different error measures are applied. In this paper, error measures are characterised in order to provide the bases to select a measure during the evaluation process. An analysis of the impact on results of selecting different error measures on the evaluation of disparity maps is conducted based on the presented characterisation. The evaluation results showed that there is a lack of consistency on the results achieved by considering different error measures. It has an impact on interpreting the accuracy of stereo correspondence algorithms.
Stereo vision is related to the estimation of the depth of a scene captured, simultaneously, from different points of view. A fundamental problem in stereo vision is the search of corresponding points. A pair of corresponding points is formed by the projections of a same point in space. Find pairs of corresponding points allows to estimate the depth through of triangulation. Dynamic Programming is a efficient method for the search of pairs of corresponding points. In this paper are used different aspects of approaches which used Dynamic Programming for the search of pairs of corresponding points
Electronic microscopes are tools for capturing multimedia information that provide an alternative solution to several problems. Char coal classification is carried out manually by observing its morphological characteristics. In this process is necessary to analyse at least five hundred particles. As an alternative, the automation requires the use of image processing techniques. The char images acquisition is carried out automatically using an electronic microscope with motorized stage. In this process blur, empty and fragment particles images are captured. Including all these images in the classification process imply an additional effort during the process. In particular, the blur images may produce quantification errors in the quantification of the morphological characteristics. In this article a method, based on gradient magnitude and saturation for automatic identification of blur images and images with little content, is presented as a first step towards automatic classification process. Experimental results shown that the proposed method detects 70% of blur images and 95% of images with little content
La clasificación de carbonizados se realiza, generalmente, de forma manual mediante el análisis de las características morfológicas de al menos 500 partículas. Existen varias propuestas de clasificación semiautomática y automática usando técnicas de procesamiento de imágenes, sin embargo es poca la atención prestada al preprocesamiento de las imágenes. Las imágenes de carbonizados, normalmente empleadas para la clasificación automática, son de alta resolución (1300x1030 píxeles). Adicionalmente, analizar 500 partículas implica procesar al menos 290 imágenes para clasificar una muestra. En este artículo, se analiza el uso del sub-muestreo para reducir la resolución de las imágenes y su impacto sobre la clasificación de los carbonizados. Los resultados experimentales muestran que una reducción en el tamaño de las imágenes, a la mitad reduce hasta en un 69.19% el tiempo de procesamiento y no afecta la clasificación final de la muestra
Images are retrieved from a repository using MPEG-7 visual descriptors. The MPEG-7 standard uses XML documents for
storing descriptors of multimedia content. The MPEG-7 standard does not define a model for mapping XML documents into a
database. However, XML documents can be considered as a database. An XML document is self-describing and portable data
collection that has a data structure of a tree or a graph. An XML document collection can be semi-structured and this quality
allows grouping XML documents without a schema that relate them. There are two possible database models: the Native XML
and the Relational. A database model for XML documents is selected based on the purpose of information use and database
requirements. In this paper, both models are described and analysed. A relational database schema is designed for mapping
MPEG-7 visual descriptors into a database
Resource-Oriented Architecture offers advantages over other web-service architectures. It is based on a simple, scalable and highly standardised application-level protocol. Multimedia content is commonly managed using the MPEG-7. The MPEG-7 is a standard for representing audiovisual information that satisfies specific requirements based on syntax, semantic and decoding. Content descriptions under MPEG-7 can be organised and characterized without ambiguity. The MPEG-7 eXperimental Model (XM) includes the best performing tools for MPEG-7 normative and non-normative elements. In this paper, multimedia content is managed using the MPEG-7 eXperimental Model functionalities and provided using web-services technology. RESTful principles are the guidelines for achieving multimedia content storage and retrieval. Quantitative evaluation of the proposed web services has shown that this approach has better performance, in term of retrieval speed and storage space
Multimedia content is extracted automatically using MPEG-7 visual descriptors. The MPEG-7 uses an extended XML standard for defining structural relation between descriptors allowing creation and modification of description schemes. MPEG-7 visual descriptors are numerical representations of features - such as: texture, shape and color - extracted from an image. In this paper, the MPEG-7 is conceived as a set of services for extracting and storing visual descriptors. The MPEg-7 text-annotation tool is used for semantic descriptions. Semantic descriptions are linked to images content and conceived as a service for annotating and storing. A framework using service oriented architecture for mapping semantic descriptions and MPEG-7 visual descriptors into a pure-relational model is proposed.
The camera calibration problem consists in estimating the intrinsic and the extrinsic parameters. This problem can be solved by computing the fundamental matrix. The fundamental matrix can be obtained from a set of corresponding points. However in practice, corresponding points may be inaccurately estimated, falsely matched or badly located, due to occlusion and ambiguity, among others. On the other hand, if the set of corresponding points does not include information on different depth planes, the estimated fundamental matrix may not be able to correctly recover the epipolar geometry. In this paper a method for estimating the fundamental matrix is introduced. The estimation problem is posed as finding a set of corresponding points. Fundamental matrices are estimated using subsets of corresponding points and an optimisation criterion is used to select the best estimated fundamental matrix. The experimental evaluation shows that the least range of residuals is a tolerant criterion to large baselines.
Los descriptores de textura son métricas diseñadas para cuantificar la textura percibida en una imagen. Se utilizan para clasificar y segmentar imágenes basadas en las propiedades de textura. Algunos métodos comunes de descriptores de textura son Local Binary Pattern (LBP), matriz de co-ocurrencia, espectro de textura (TS) y Haralick. Estos descriptores se aplican comúnmente en el análisis de imágenes médicas y el reconocimiento de caracteres.
Se presenta un método para la identificación automática de células epiteliales en tejidos de histología. Trabajo presentado en el marco del VIII Congreso Colombiano de Morfología -2012
This document discusses 3D reconstruction from 2D images. It introduces the concepts of direct and inverse problems as they relate to 3D reconstruction, with small changes in input data potentially leading to large changes in the reconstructed 3D model. Stereo image capture and camera calibration are also covered, including intrinsic and extrinsic camera parameters as well as epipolar geometry, which describes the geometric relationship between two cameras.
This document compares different block-matching motion estimation algorithms. It introduces block-matching motion estimation and describes popular distortion metrics like MSE and SAD. It then explains the full-search algorithm and more efficient algorithms like three-step search and four-step search that evaluate fewer candidate blocks to reduce computational cost. These algorithms are evaluated and compared using video test sequences to analyze their performance and quality.
Este documento propone utilizar técnicas de template matching para identificar patrones en imágenes de hígado. Se analizarán y evaluarán algoritmos como SAD, CCC y NCC para encontrar regiones similares a un patrón de referencia. Se aplicarán filtros como bilateral y promedio, y el operador de Sobel para preprocesar las imágenes. Los resultados se validarán con un especialista para apoyar el diagnóstico médico.
A comparison of stereo correspondence algorithms can be conducted by a quantitative evaluation of disparity maps. Among the existing evaluation methodologies, the Middlebury’s methodology is commonly used. However, the Middlebury’s methodology has shortcomings in the evaluation model and the error measure. These shortcomings may bias the evaluation results, and make a fair judgment about algorithms accuracy difficult. An alternative, the methodology is based on a multiobjective optimisation model that only provides a subset of algorithms with comparable accuracy. In this paper, a quantitative evaluation of disparity maps is proposed. It performs an exhaustive assessment of the entire set of algorithms. As innovative aspect, evaluation results are shown and analysed as disjoint groups of stereo correspondence algorithms with comparable accuracy. This innovation is obtained by a partitioning and grouping algorithm. On the other hand, the used error measure offers advantages over the error measure used in the Middlebury’s methodology. The experimental validation is based on the Middlebury’s test-bed and algorithms repository. The obtained results show seven groups with different accuracies. Moreover, the top-ranked stereo correspondence algorithms by the Middlebury’s methodology are not necessarily the most accurate in the proposed methodology
Este documento presenta una contribución a la caracterización del descriptor visual de color del estándar MPEG-7. Explica brevemente los objetivos generales y específicos del proyecto, introduce conceptos clave como MPEG, MPEG-7, descriptores visuales y descriptores de color. También describe herramientas de software y métodos para la caracterización y pruebas de los descriptores de color de MPEG-7.
A quantitative evaluation methodology for disparity maps includes the selection of an error measure. Among existing measures, the percentage of bad matched pixels is commonly used. Nevertheless, it requires an error threshold. Thus, a score of zero bad matched pixels does not necessarily imply that a disparity map is free of errors. On the other hand, we have not found publications on the evaluation process where different error measures are applied. In this paper, error measures are characterised in order to provide the bases to select a measure during the evaluation process. An analysis of the impact on results of selecting different error measures on the evaluation of disparity maps is conducted based on the presented characterisation. The evaluation results showed that there is a lack of consistency on the results achieved by considering different error measures. It has an impact on interpreting the accuracy of stereo correspondence algorithms.
Stereo vision is related to the estimation of the depth of a scene captured, simultaneously, from different points of view. A fundamental problem in stereo vision is the search of corresponding points. A pair of corresponding points is formed by the projections of a same point in space. Find pairs of corresponding points allows to estimate the depth through of triangulation. Dynamic Programming is a efficient method for the search of pairs of corresponding points. In this paper are used different aspects of approaches which used Dynamic Programming for the search of pairs of corresponding points
Electronic microscopes are tools for capturing multimedia information that provide an alternative solution to several problems. Char coal classification is carried out manually by observing its morphological characteristics. In this process is necessary to analyse at least five hundred particles. As an alternative, the automation requires the use of image processing techniques. The char images acquisition is carried out automatically using an electronic microscope with motorized stage. In this process blur, empty and fragment particles images are captured. Including all these images in the classification process imply an additional effort during the process. In particular, the blur images may produce quantification errors in the quantification of the morphological characteristics. In this article a method, based on gradient magnitude and saturation for automatic identification of blur images and images with little content, is presented as a first step towards automatic classification process. Experimental results shown that the proposed method detects 70% of blur images and 95% of images with little content
La clasificación de carbonizados se realiza, generalmente, de forma manual mediante el análisis de las características morfológicas de al menos 500 partículas. Existen varias propuestas de clasificación semiautomática y automática usando técnicas de procesamiento de imágenes, sin embargo es poca la atención prestada al preprocesamiento de las imágenes. Las imágenes de carbonizados, normalmente empleadas para la clasificación automática, son de alta resolución (1300x1030 píxeles). Adicionalmente, analizar 500 partículas implica procesar al menos 290 imágenes para clasificar una muestra. En este artículo, se analiza el uso del sub-muestreo para reducir la resolución de las imágenes y su impacto sobre la clasificación de los carbonizados. Los resultados experimentales muestran que una reducción en el tamaño de las imágenes, a la mitad reduce hasta en un 69.19% el tiempo de procesamiento y no afecta la clasificación final de la muestra
Images are retrieved from a repository using MPEG-7 visual descriptors. The MPEG-7 standard uses XML documents for
storing descriptors of multimedia content. The MPEG-7 standard does not define a model for mapping XML documents into a
database. However, XML documents can be considered as a database. An XML document is self-describing and portable data
collection that has a data structure of a tree or a graph. An XML document collection can be semi-structured and this quality
allows grouping XML documents without a schema that relate them. There are two possible database models: the Native XML
and the Relational. A database model for XML documents is selected based on the purpose of information use and database
requirements. In this paper, both models are described and analysed. A relational database schema is designed for mapping
MPEG-7 visual descriptors into a database
Resource-Oriented Architecture offers advantages over other web-service architectures. It is based on a simple, scalable and highly standardised application-level protocol. Multimedia content is commonly managed using the MPEG-7. The MPEG-7 is a standard for representing audiovisual information that satisfies specific requirements based on syntax, semantic and decoding. Content descriptions under MPEG-7 can be organised and characterized without ambiguity. The MPEG-7 eXperimental Model (XM) includes the best performing tools for MPEG-7 normative and non-normative elements. In this paper, multimedia content is managed using the MPEG-7 eXperimental Model functionalities and provided using web-services technology. RESTful principles are the guidelines for achieving multimedia content storage and retrieval. Quantitative evaluation of the proposed web services has shown that this approach has better performance, in term of retrieval speed and storage space
Multimedia content is extracted automatically using MPEG-7 visual descriptors. The MPEG-7 uses an extended XML standard for defining structural relation between descriptors allowing creation and modification of description schemes. MPEG-7 visual descriptors are numerical representations of features - such as: texture, shape and color - extracted from an image. In this paper, the MPEG-7 is conceived as a set of services for extracting and storing visual descriptors. The MPEg-7 text-annotation tool is used for semantic descriptions. Semantic descriptions are linked to images content and conceived as a service for annotating and storing. A framework using service oriented architecture for mapping semantic descriptions and MPEG-7 visual descriptors into a pure-relational model is proposed.
The camera calibration problem consists in estimating the intrinsic and the extrinsic parameters. This problem can be solved by computing the fundamental matrix. The fundamental matrix can be obtained from a set of corresponding points. However in practice, corresponding points may be inaccurately estimated, falsely matched or badly located, due to occlusion and ambiguity, among others. On the other hand, if the set of corresponding points does not include information on different depth planes, the estimated fundamental matrix may not be able to correctly recover the epipolar geometry. In this paper a method for estimating the fundamental matrix is introduced. The estimation problem is posed as finding a set of corresponding points. Fundamental matrices are estimated using subsets of corresponding points and an optimisation criterion is used to select the best estimated fundamental matrix. The experimental evaluation shows that the least range of residuals is a tolerant criterion to large baselines.
La Unidad Eudista de Espiritualidad se complace en poner a su disposición el siguiente Triduo Eudista, que tiene como propósito ofrecer tres breves meditaciones sobre Jesucristo Sumo y Eterno Sacerdote, el Sagrado Corazón de Jesús y el Inmaculado Corazón de María. En cada día encuentran una oración inicial, una meditación y una oración final.
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptxOsiris Urbano
Evaluación de principales hallazgos de la Historia Clínica utiles en la orientación diagnóstica de Hemorragia Digestiva en el abordaje inicial del paciente.
Muestreo y Cuantificación de Imágenes de Carbonizados by Chaves
1. MUESTREO Y CUANTIFICACIÓN DE
IMÁGENES DE CARBONIZADOS
Deisy Chaves
Maria Trujillo
Andrés Rojas
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008
2. Introducción (I)
Para clasificar una muestra de carbonizado es necesario
analizar al menos 500 partículas.
Poro Clasificación Morfológica
del Carbonizado
Teniusphere
Espesor de
Pared Crassisphere
Tenuinetwork
Inquemado
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 2
3. Introducción (II)
Árbol de decisión para la clasificación de carbonizados
propuesto por Bailey y Ben fell, después Ben Fell y Liu
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 3
4. Introducción (III)
Proyecto de investigación Clasificación Automática de Carbonizados
Provenientes de un Proceso de Desvolatilización de Carbón.
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 4
5. Definición del Problema
Imágenes a color de alta resolución (1300 x 1030 píxeles)
Representadas utilizando 8 bits para cada canal de color
Poro
Inquemado
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 5
6. Imagen Digital
Una imagen digital se forma mediante el muestreo y
la cuantificación de una imagen continua f(x,y).
Píxel
N
M L = 2k Intensidades
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 6
7. Muestreo
Imagen digital Representación de Submuestreo
la imagen en el de la imagen
computador [1][2]
(Muestreo)
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 7
8. Submuestreo Media
Cada uno de los píxeles (i,j) de la nueva imagen se
obtienen como la media o promedio de las intensidades
de la cuadrícula correspondiente.
Imagen
Resultante
Imagen Original
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 8
9. Submuestreo Mediana
Cada uno de los píxeles (i,j) de la nueva imagen se
obtienen como la mediana de las intensidades de la
cuadrícula correspondiente.
Imagen
Resultante
Imagen Original
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 9
10. Submuestreo Simple
Cada uno de los píxeles (i,j) de la nueva imagen es el
primer píxel (x,y) de la cuadrícula correspondiente.
Imagen
Resultante
Imagen Original
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 10
11. Cuantificación
La cuantificación es el número de bits utilizados para
representar una intensidad de luz en un canal de color.
0 20 40 30 70 180 0 5 10 7 17 45
80 0 10 36 190 193 20 0 2 9 47 48
15 45 57 195 220 244 3 11 14 48 55 61
85 255 195 187 85 40 21 63 48 46 21 10
16 243 173 90 0 112 4 60 43 22 0 28
34 192 255 30 50 120 8 48 63 7 12 30
45 80 190 15 80 170 11 20 47 3 20 42
16 8 173 190 0 12 4 2 43 47 0 3
6 18 200 170 40 7 1 4 50 42 10 1
Imagen Digital Representación de la Representación de la
imagen utilizando 8 bits imagen utilizando 6 bits
o 256 intensidades o 64 intensidades
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 11
12. Cuantificación Homogénea
Para reducir la cuantificación en la imagen calculamos:
Nueva Intensidad = intensidad / factor
Donde el factor indica que tanto se va a disminuir la
cuantización, por ejemplo: si el factor es 2 estamos
disminuyendo la cuantización de la imagen a la mitad
[3][4]
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 12
13. Imágenes de Prueba
Imagen No.1 Imagen No.2 Imagen No.3 Imagen No.4
Imagen No.5 Imagen No.6 Imagen No.7 Imagen No.8
Imagen No.9 Imagen No.10 Imagen No.11 Imagen No.12
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 13
14. Resultados del Submuestreo
Submuestreo Media Submuestreo Mediana Submuestreo Simple
d=2 (650x515píxeles) d=2 (650x515 píxeles) d=2 (650x515 píxeles)
d=4 (325x257 píxeles) d=4 (325x257 píxeles) d=4 (325x257 píxeles)
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 14
15. Resultados de la Cuantificación
Imagen No.1,8 bits - 256 intensidades Factor =2, 7 bits – 128 intensidades
Factor =4, 6 bits - 64 intensidades Factor =8, 5 bits - 32 intensidades
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 15
16. Medidas Evaluación Cuantitativa
Sean Ij la imagen original y Gj la imagen resultante del uso de
una estrategia de submuestreo y/o cuantificación,con j ∈{R,G,B}
El cambio porcentual de la entropía de Shannon normalizada
[5][6] se calcula como:
Donde HN(Ij) corresponde a la entropía de Shannon normalizada,
calculada para el j-ésimo canal de color en la imagen.
El cambio del coeficiente de variación [7] se calcula como:
Donde CV(Ij) corresponde al coeficiente de variación, calculada
para el j-ésimo canal de color en la imagen.
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 16
17. Evaluación Submuestreo con d=2
Cambio porcentual de la entropía de Shannon
normalizada.
Media
Mediana
Simple
Canal Rojo Canal Verde Canal Azul
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 17
18. Outlier Diferencia Porcentual Entropía de
Shannon Normalizada
Imagen No.3
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 18
19. Evaluación Submuestreo con d=2
Cambio porcentual del coeficiente de variación
Media
Mediana
Simple
Canal Rojo Canal Verde Canal Azul
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 19
21. Evaluación Submuestreo con d=4
Cambio porcentual de la entropía de Shannon
normalizada
Media
Mediana
Simple
Canal Rojo Canal Verde Canal Azul
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 21
23. Evaluación Submuestreo con d=4
Cambio porcentual del coeficiente de variación
Media
Mediana
Simple
Canal Rojo Canal Verde Canal Azul
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 23
24. Outliers Diferencia Porcentual
Coeficiente de Variación
Imagen No.3 Imagen No.5
Imagen No.6
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 24
25. Evaluación Cuantificación
con factor ={2,4,8}
Cambio porcentual de la entropía de Shannon
normalizada
Factor=2, L=128
Factor=4, L=64
Factor=8, L=32
Canal Rojo Canal Verde Canal Azul
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 25
26. Outliers Diferencia Porcentual Entropía de
Shannon Normalizada
Imagen No.5 Imagen No.11
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 26
27. Evaluación Cuantificación
con factor ={2,4,8}
Cambio porcentual del coeficiente de variación
Canal Rojo Canal Verde Canal Azul
Factor=2, L=128
Factor=4, L=64
Factor=8, L=32
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 27
28. Outliers Diferencia Porcentual
Coeficiente de Variación
Imagen No.3 Imagen No.5
Imagen No.9 Imagen No.11
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 28
29. Tamaño de las Imágenes
Submuestreadas
Estrategia de Formato con Formato Sin
Resolución
Submuestreo Compresión Compresión
Espacial
Utilizada JPG PPM
Ninguna 1300x1030 500KB 12MB
Media d=2 650 x 515 36KB 3M
Mediana d=2 650 x 515 36KB 3M
Simple d=2 650 x 515 37KB 3M
Media d=4 325 x 257 14KB 752KB
Mediana d=4 325 x 257 14KB 751KB
Simple d=4 325 x 257 15KB 751KB
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 29
30. Tamaño de las Imágenes Cuantificadas
Cuantificación k bits L Formato Con Formato Sin
Compresión Compresión
JPG PPM
factor =1 8 256 500KB 12MB
factor =2 7 128 109KB 11,3MB
factor =4 6 64 112KB 8,13MB
factor =8 5 32 121KB 7,96MB
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 30
31. Conclusiones
Las estrategias de submuestreo tienden a producir
pequeños cambios en la diferencia porcentual de la
entropía de Shannon normalizada y grandes cambios en
la diferencia porcentual del coeficiente de variación.
Las estrategias de cuantificación tienden a producir
grandes cambios en la diferencia porcentual de la de la
entropía de Shannon normalizada y pequeños cambios
en la diferencia porcentual del coeficiente de variación.
Se considera el uso de submuestreo simple con d=2 y
una cuantificación con un factor = 4.
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 31
32. Referencias
1. Weinberger, M.J., Seroussi, G., and Sapiro, G. The LOCO-I lossless image
compression algorithm: principles and standardization into JPEG-LS. IEEE
Transactions on Image Processing, Vol. 9, Issue 8, pag. 1309 – 1324, 2000Sad
2. Man H., Docef A. And Kossentini F. Performance Analysis of the JPEG 2000. Image
Coding Standard, Multimedia Tools and Applications, Vol. 26, No. 1, pag. 27-57,
2005
3. Navarro Y., Peña J., Torres C. Detección y cuantización de macérales en imágenes
de carbón por métodos ópticos. Revista Colombiana de Física. Vol. 38, pag. 637-
640, 2006.
4. Gerace I., Mastroleo M., Milani A., and Moraglia S. An Evolutionary Approach to
Inverse Gray Level Quantization. Lecture Notes in Computer Science, Vol. 4781,
pag. 242-253, 2007
5. Hea, M., Hea, X. F., and Luoa, H. B. Detection of information change on SAR
images based on entropy theory. 1st Asian and Pacific Conference on Synthetic
Aperture Radar, pag. 775 – 778, 2007.
6. Jordan, J., Ludeman, L. Image segmentation using maximum entropy techniques.
IEEE International Conference on Acoustics, Speech, and Signal Processing, Vol. 9,
Part 1, pag. 674 – 677, 1984
7. Lande R. On comparing Coefficients of Variation. System Zoology, Vol. 2, No. 2,
pag. 214-217, 1977.
Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 32
33. Chaves, Trujillo y Rojas, III Congreso Colombiano de Computación, Medellín, Abril 23-25 de 2008 Slide 33