Se presenta un método para la identificación automática de células epiteliales en tejidos de histología. Trabajo presentado en el marco del VIII Congreso Colombiano de Morfología -2012
Our vision is to empower every person and every organization on the planet to achieve more. We believe that technology has the potential to democratize knowledge and make life easier, so that everyone can focus on what really matters to them. By providing helpful tools and services, we aim to make the world more open and connected.
The document contains information about a group project submitted by five mechanical engineering students at an unnamed university. It includes visions and definitions of vision, mission, goals, examples of effective vision statements, and tips for writing vision statements. The document discusses how a vision describes an ideal future state while a mission outlines the steps to achieve that vision. It provides examples of core beliefs and convictions that a vision statement could include.
INTRODUCCIÓN
Para el estudio satisfactorio del frotis sanguíneos, es necesario colorearlos. En la mayoría de los laboratorios los colorantes más empleados para la tinción hematológica se basan en el de Romanowsky constituido fundamentalmente con la mezcla de eosina (ácido) y azul de metileno (básico). Además se han incorporado el empleo de derivados por oxidación del azul de metileno que se conoce con el nombre de azures (A, B, C). Son los azures los responsables de la coloración púrpura o roja de ciertas estructuras.
Tanto la eosina como el azul de metileno son muy sensibles a las variaciones de pH de las diferentes estructuras celulares, de forma que las que tienen carácter básico fijan la eosina mientras que las que poseen propiedades ácidas fijan principalmente el azul de metileno. Esto explica que las estructuras basófilas se tiñan de color azul mientras que los competente acidófilas adquieren un color rosado. La diferente afinidad de ciertas granulaciones citoplasmáticas por dichos colorantes permite clasificar a los leucocitos polimorfonucleares.
TINCIÓN DE WRIGHT
Esta coloración es conocida como policromática debido a que produce varios colores. Es una solución de alcohol metílico de un colorante ácido (eosina) y otro básico (azul de metileno). El alcohol sirve como un fijador del frotis sanguíneo al portaobjetos. El amortiguador, que consiste en una solución tamponada, mantiene el pH del colorante y favorece la mejor absorción por los diferentes componentes celulares.
La tinción de Wright.
Es de gran trascendencia clínica ya que gracias a ella es capaz de identificarse diversas estructuras en una célula así como la morfología y en su caso patología celular no solo de las células del sistema inmunológico sino de todas aquellas que componen la sangre ya sea en un paciente sano o con un estado patológico.
MATERIALES
Colorante Wright
Laminas porta objeto
Laminas cubre objetos
Aceite de inmersión
Agua destilada
Gotero
Rejilla
Materiales extracción de muestra:
• Guantes
• Algodón
• Ligadura
• Jeringa
• Tubo lila con EDTA
• Plumón
• Alcohol
• Capilar
EQUIPO
o Microscopio óptico con luz incorporada.
MUESTRA
Sangre periférica
EXTRACCIÓN DE LA MUESTRA SANGUÍNEA.
• Cuando el paciente esté cómodo echamos un vistazo a sus brazos para decidir un sitio para la punción. El brazo debe ser extendido y lo relajado posible.
• Palpamos la vena para averiguar sus características (tamaño, elasticidad o rigidez, determinar si de desplaza o no) y su curso.
• Limpiamos con alcohol la zona elegida para la punción.
• Colocamos el torniquete, este puede ayudarnos para decidir dónde pincha, pedir al paciente de cerrar el puño para aumentar el volumen de sangre intravenosa (Un tiempo de compresión demasiado largo causa la acumulación de sangre y ciertas sustancias en la vena que pueden alterar el resultado de
Este documento proporciona información sobre la toma de muestra sanguínea. Explica que este procedimiento permite extraer una pequeña muestra de sangre del torrente sanguíneo para realizar pruebas. Luego detalla los diferentes tipos de muestras sanguíneas (venosa y arterial), los materiales necesarios, los pasos a seguir para la preparación del paciente y la obtención de la muestra, así como posibles complicaciones. El objetivo principal es brindar una guía para la correcta recolección de muestras de sangre con fines de aná
Este documento describe los parámetros de procesamiento y adquisición en PET. Explica los conceptos básicos como la emisión de positrones, los isótopos usados y el proceso de aniquilación. También cubre temas como la atenuación, la corrección de datos, y los pasos clave del procesamiento como la corrección del tiempo muerto, los eventos aleatorios y la reconstrucción de imágenes.
Este documento presenta un método para analizar la granulometría de una pila de rocas fragmentadas usando el software de código abierto ImageJ. El método involucra importar una imagen de la pila, ajustar el brillo y contraste, segmentar las partículas usando algoritmos de erosión y relleno, y medir propiedades como el área. Los resultados se exportan a una hoja de cálculo para crear una curva granulométrica y analizar la distribución de tamaños de partícula. El método ofrece una alternativa al
1) El documento presenta información sobre procesamiento de imágenes con MATLAB, incluyendo temas como segmentación de imágenes, detección de bordes, umbralización, y métodos como k-means, Otsu, Canny y Sobel. 2) Explica que la segmentación de imágenes implica particionar la imagen en regiones homogéneas y que los métodos de detección de bordes buscan encontrar los cambios abruptos de intensidad en una imagen. 3) Proporciona preguntas y respuestas sobre estos temas con el propósito de identificar
Este documento presenta preguntas y respuestas sobre los conceptos y métodos fundamentales de procesamiento de imágenes, incluida la segmentación de imágenes. Aborda temas como la segmentación de imágenes médicas, los métodos de segmentación basados en umbrales, regiones y bordes como k-means y Otsu, y la detección de bordes mediante filtros como Prewitt, Sobel y Canny.
Our vision is to empower every person and every organization on the planet to achieve more. We believe that technology has the potential to democratize knowledge and make life easier, so that everyone can focus on what really matters to them. By providing helpful tools and services, we aim to make the world more open and connected.
The document contains information about a group project submitted by five mechanical engineering students at an unnamed university. It includes visions and definitions of vision, mission, goals, examples of effective vision statements, and tips for writing vision statements. The document discusses how a vision describes an ideal future state while a mission outlines the steps to achieve that vision. It provides examples of core beliefs and convictions that a vision statement could include.
INTRODUCCIÓN
Para el estudio satisfactorio del frotis sanguíneos, es necesario colorearlos. En la mayoría de los laboratorios los colorantes más empleados para la tinción hematológica se basan en el de Romanowsky constituido fundamentalmente con la mezcla de eosina (ácido) y azul de metileno (básico). Además se han incorporado el empleo de derivados por oxidación del azul de metileno que se conoce con el nombre de azures (A, B, C). Son los azures los responsables de la coloración púrpura o roja de ciertas estructuras.
Tanto la eosina como el azul de metileno son muy sensibles a las variaciones de pH de las diferentes estructuras celulares, de forma que las que tienen carácter básico fijan la eosina mientras que las que poseen propiedades ácidas fijan principalmente el azul de metileno. Esto explica que las estructuras basófilas se tiñan de color azul mientras que los competente acidófilas adquieren un color rosado. La diferente afinidad de ciertas granulaciones citoplasmáticas por dichos colorantes permite clasificar a los leucocitos polimorfonucleares.
TINCIÓN DE WRIGHT
Esta coloración es conocida como policromática debido a que produce varios colores. Es una solución de alcohol metílico de un colorante ácido (eosina) y otro básico (azul de metileno). El alcohol sirve como un fijador del frotis sanguíneo al portaobjetos. El amortiguador, que consiste en una solución tamponada, mantiene el pH del colorante y favorece la mejor absorción por los diferentes componentes celulares.
La tinción de Wright.
Es de gran trascendencia clínica ya que gracias a ella es capaz de identificarse diversas estructuras en una célula así como la morfología y en su caso patología celular no solo de las células del sistema inmunológico sino de todas aquellas que componen la sangre ya sea en un paciente sano o con un estado patológico.
MATERIALES
Colorante Wright
Laminas porta objeto
Laminas cubre objetos
Aceite de inmersión
Agua destilada
Gotero
Rejilla
Materiales extracción de muestra:
• Guantes
• Algodón
• Ligadura
• Jeringa
• Tubo lila con EDTA
• Plumón
• Alcohol
• Capilar
EQUIPO
o Microscopio óptico con luz incorporada.
MUESTRA
Sangre periférica
EXTRACCIÓN DE LA MUESTRA SANGUÍNEA.
• Cuando el paciente esté cómodo echamos un vistazo a sus brazos para decidir un sitio para la punción. El brazo debe ser extendido y lo relajado posible.
• Palpamos la vena para averiguar sus características (tamaño, elasticidad o rigidez, determinar si de desplaza o no) y su curso.
• Limpiamos con alcohol la zona elegida para la punción.
• Colocamos el torniquete, este puede ayudarnos para decidir dónde pincha, pedir al paciente de cerrar el puño para aumentar el volumen de sangre intravenosa (Un tiempo de compresión demasiado largo causa la acumulación de sangre y ciertas sustancias en la vena que pueden alterar el resultado de
Este documento proporciona información sobre la toma de muestra sanguínea. Explica que este procedimiento permite extraer una pequeña muestra de sangre del torrente sanguíneo para realizar pruebas. Luego detalla los diferentes tipos de muestras sanguíneas (venosa y arterial), los materiales necesarios, los pasos a seguir para la preparación del paciente y la obtención de la muestra, así como posibles complicaciones. El objetivo principal es brindar una guía para la correcta recolección de muestras de sangre con fines de aná
Este documento describe los parámetros de procesamiento y adquisición en PET. Explica los conceptos básicos como la emisión de positrones, los isótopos usados y el proceso de aniquilación. También cubre temas como la atenuación, la corrección de datos, y los pasos clave del procesamiento como la corrección del tiempo muerto, los eventos aleatorios y la reconstrucción de imágenes.
Este documento presenta un método para analizar la granulometría de una pila de rocas fragmentadas usando el software de código abierto ImageJ. El método involucra importar una imagen de la pila, ajustar el brillo y contraste, segmentar las partículas usando algoritmos de erosión y relleno, y medir propiedades como el área. Los resultados se exportan a una hoja de cálculo para crear una curva granulométrica y analizar la distribución de tamaños de partícula. El método ofrece una alternativa al
1) El documento presenta información sobre procesamiento de imágenes con MATLAB, incluyendo temas como segmentación de imágenes, detección de bordes, umbralización, y métodos como k-means, Otsu, Canny y Sobel. 2) Explica que la segmentación de imágenes implica particionar la imagen en regiones homogéneas y que los métodos de detección de bordes buscan encontrar los cambios abruptos de intensidad en una imagen. 3) Proporciona preguntas y respuestas sobre estos temas con el propósito de identificar
Este documento presenta preguntas y respuestas sobre los conceptos y métodos fundamentales de procesamiento de imágenes, incluida la segmentación de imágenes. Aborda temas como la segmentación de imágenes médicas, los métodos de segmentación basados en umbrales, regiones y bordes como k-means y Otsu, y la detección de bordes mediante filtros como Prewitt, Sobel y Canny.
Global AI nights - Casos de uso de ML en AstronomiaRoberto Muñoz
El documento describe varios desafíos en el Observatorio Europeo Austral (ESO) y cómo el aprendizaje automático (ML) puede ayudar a abordarlos. Estos incluyen la validación automática de imágenes de calibración para identificar las corruptas, predecir las condiciones atmosféricas con 2 horas de anticipación para programar observaciones, e identificar imágenes mediante descriptores computados con redes neuronales convolucionales. También se exploran métodos de ML como LSTMs y redes neuronales para predecir el seeing en rangos específ
Este documento describe la investigación sobre algoritmos de segmentación de imágenes médicas realizada por Gloria Bautista y Sonia Contreras de la Universidad Tecnológica de Bolívar. El objetivo es desarrollar métodos para extraer estructuras anatómicas de imágenes médicas y así ayudar en el diagnóstico de enfermedades. Se exploran técnicas como crecimiento de regiones, contornos activos y reconstrucción tridimensional para segmentar imágenes y superar retos como ruido y artefactos.
Este documento trata sobre la segmentación de imágenes. Explica que la segmentación de imágenes implica la partición de una imagen en regiones semánticamente significativas. Detalla varios métodos de segmentación como los basados en umbrales, bordes y regiones. Describe algoritmos específicos como k-means, Otsu y Canny, y cómo estos detectan bordes y segmentan imágenes mediante umbrales y gradientes. El objetivo final de la segmentación es particionar imágenes en clases homogéneas según sus características.
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
1) El documento describe los mapas autoorganizativos de Kohonen (SOM), una técnica de redes neuronales no supervisada donde las neuronas se autoorganizan para clasificar datos de entrada. 2) Los SOM aprenden patrones en los datos y agrupan datos similares, mapeando su espacio de entrada a una grilla multidimensional. 3) Se entrenan presentando datos de entrada uno a uno, ajustando los pesos de la neurona ganadora y sus vecinas para que se parezcan más al patrón de entrada.
La segmentación de imágenes se refiere al proceso de particionar una imagen en regiones semánticamente significativas. El objetivo principal de la segmentación de imágenes es identificar regiones uniformes y homogéneas con fronteras bien definidas. La segmentación de imágenes médicas busca particionar la imagen en regiones con características similares. Los métodos de segmentación más conocidos son los basados en umbrales, bordes y regiones.
Este documento describe conceptos básicos de tomografía computarizada (TC), incluyendo cómo se miden las proyecciones de rayos X a través del paciente, los detectores que cuentan la atenuación, y cómo se reconstruye la imagen utilizando retroproyección filtrada. Explica cómo los valores de píxel en las imágenes de TC representan unidades Hounsfield y cómo ajustar el nivel y ancho de ventana para mejor visualizar los tejidos. También cubre parámetros clave como resolución espacial, de bajo contraste y temporal.
El documento trata sobre los conceptos y métodos de segmentación de imágenes. Explica que la segmentación de imágenes consiste en particionar la imagen en regiones semánticamente significativas. Describe los métodos de segmentación basados en umbrales, bordes y regiones, e incluye detalles sobre métodos específicos como Otsu, k-means, y detección de bordes con filtros como Sobel y Canny.
El documento define los conceptos básicos de pixeles, voxels y principios de calidad de imagen en tomografía computarizada. Explica que los pixeles son unidades de información en una imagen y los voxels son unidades de volumen que representan pixeles en secciones de corte. También describe factores como resolución espacial, de contraste y temporal que afectan la calidad de imagen, así como posibles artefactos.
Este artículo propone un nuevo algoritmo de estegoanálisis para la detección de esteganografía LSB en imágenes descomprimidas. El algoritmo analiza los residuos de ruido en el dominio DCT tras la descompresión JPEG, los cuales son sensibles a los cambios de LSB. Los resultados muestran una precisión del 90.9% para un rango de embebido de 0.5 bpp, superando a otros estegoanalizadores. Adicionalmente, la precisión no se ve afectada por diferentes factores de calidad JPEG, mantenié
El documento trata sobre la segmentación de imágenes. Explica que la segmentación de imágenes es el proceso de particionar la imagen de manera semánticamente significativa, como encontrar objetos en la imagen. Describe los diferentes métodos de segmentación como los basados en umbrales, bordes y regiones. Explica algunos métodos específicos como Otsu y k-means para segmentación basada en umbrales y Canny y Sobel para detección de bordes.
En el presente trabajo se efectúa un análisis factorial confirmatorio bajo la metodología de ecuaciones estructurales, con el fin de hallar evidencias basadas en la validez de constructo del Inventario de Depresión Estado/Rasgo, en una muestra de adolescentes de Lima Metropolitana.
El documento describe las partes principales de un microscopio óptico, incluyendo el sistema mecánico y óptico. El sistema mecánico incluye la base, brazo, platina, pinzas y tornillos que mantienen la estructura y alineación. El sistema óptico incluye el foco, condensador, diafragma, objetivos y ocular que generan y desvian la luz para producir una imagen aumentada de la muestra. También se explican conceptos como el ángulo de apertura, apertura numérica y poder de resolución
Este documento presenta información sobre métodos instrumentales de análisis químico. Explica las propiedades físicas que aprovechan estos métodos como la conductividad y absorción de luz. También describe conceptos como sensibilidad, radiación electromagnética, modelos ondulatorio y corpuscular, y cálculos de energía de fotones. Finalmente, detalla elementos, aplicaciones y diferencias de diversos instrumentos espectroscópicos como monocromadores, filtros y detectores en los rangos ultravioleta, visible e infrarrojo
Presentación del proyecto de la materia de IAA de la UTPL.
Tema: Comparación de resultados en la convergencia de una red neuronal utilizando 1 y 2 capas ocultas respectivamente en el modelo del perceptrón multicapa utilizando el algoritmo BackPropagation al realizar el reconocimiento de señales de tránsito
La planificación de Radioterapia de Intensidad Modulada (IMRT) involucra procesos de optimización en múltiples etapas, incluyendo la optimización de mapas de flujo para cada campo. Los algoritmos de optimización inversa buscan minimizar una función objetivo que mide la distancia entre la distribución de dosis deseada y la alcanzada, optimizando las intensidades de cientos de mini-haces ("beamlets"). Esto requiere métodos computacionales avanzados para lograr tiempos de cálculo interactivos, como proces
El documento describe los parámetros de procesamiento y adquisición en tomografía por emisión de positrones (PET). Explica que el PET usa isótopos radiactivos que emiten positrones para crear imágenes tridimensionales de función molecular en el cuerpo. El proceso de aniquilación produce dos fotones que viajan en direcciones opuestas y pueden ser detectados. El procesamiento de imágenes incluye correcciones para eventos aleatorios, radiación dispersa, atenuación y reconstrucción de la imagen.
Este documento describe las actividades de investigación de un grupo enfocado en el desarrollo de técnicas para la generación de casos de prueba, como objetos combinatorios y ecuaciones diofánticas. También incluye información sobre trabajos de tesis, artículos publicados, un repositorio de casos de prueba y aplicaciones como la detección de errores y pruebas de regresión.
Este documento describe los avances en la tecnología de tomografía computarizada (TC) de conteo de fotones. El conteo de fotones permite discriminar tejidos de manera independiente mediante la medición simultánea de fotones en múltiples energías. Esto mejora el contraste entre tejidos y permite la identificación de componentes con una sola adquisición. Sin embargo, existen desafíos como la alta tasa de flujo de fotones que puede generar variación en la tasa de conteo y artefactos. El desarrol
Este documento describe varios métodos para segmentar imágenes digitales, incluyendo detección de contornos, puntos y líneas, detección de bordes, y umbralización. La umbralización incluye métodos como umbralización global, adaptativa, selección iterativa, y basada en el histograma de la imagen para separar objetos del fondo. La segmentación es una etapa clave en aplicaciones de visión por computadora.
Los descriptores de textura son métricas diseñadas para cuantificar la textura percibida en una imagen. Se utilizan para clasificar y segmentar imágenes basadas en las propiedades de textura. Algunos métodos comunes de descriptores de textura son Local Binary Pattern (LBP), matriz de co-ocurrencia, espectro de textura (TS) y Haralick. Estos descriptores se aplican comúnmente en el análisis de imágenes médicas y el reconocimiento de caracteres.
This document discusses 3D reconstruction from 2D images. It introduces the concepts of direct and inverse problems as they relate to 3D reconstruction, with small changes in input data potentially leading to large changes in the reconstructed 3D model. Stereo image capture and camera calibration are also covered, including intrinsic and extrinsic camera parameters as well as epipolar geometry, which describes the geometric relationship between two cameras.
Más contenido relacionado
Similar a Identificación de Núcleos de las Células Epiteliales Asistido por Ordenador
Global AI nights - Casos de uso de ML en AstronomiaRoberto Muñoz
El documento describe varios desafíos en el Observatorio Europeo Austral (ESO) y cómo el aprendizaje automático (ML) puede ayudar a abordarlos. Estos incluyen la validación automática de imágenes de calibración para identificar las corruptas, predecir las condiciones atmosféricas con 2 horas de anticipación para programar observaciones, e identificar imágenes mediante descriptores computados con redes neuronales convolucionales. También se exploran métodos de ML como LSTMs y redes neuronales para predecir el seeing en rangos específ
Este documento describe la investigación sobre algoritmos de segmentación de imágenes médicas realizada por Gloria Bautista y Sonia Contreras de la Universidad Tecnológica de Bolívar. El objetivo es desarrollar métodos para extraer estructuras anatómicas de imágenes médicas y así ayudar en el diagnóstico de enfermedades. Se exploran técnicas como crecimiento de regiones, contornos activos y reconstrucción tridimensional para segmentar imágenes y superar retos como ruido y artefactos.
Este documento trata sobre la segmentación de imágenes. Explica que la segmentación de imágenes implica la partición de una imagen en regiones semánticamente significativas. Detalla varios métodos de segmentación como los basados en umbrales, bordes y regiones. Describe algoritmos específicos como k-means, Otsu y Canny, y cómo estos detectan bordes y segmentan imágenes mediante umbrales y gradientes. El objetivo final de la segmentación es particionar imágenes en clases homogéneas según sus características.
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
1) El documento describe los mapas autoorganizativos de Kohonen (SOM), una técnica de redes neuronales no supervisada donde las neuronas se autoorganizan para clasificar datos de entrada. 2) Los SOM aprenden patrones en los datos y agrupan datos similares, mapeando su espacio de entrada a una grilla multidimensional. 3) Se entrenan presentando datos de entrada uno a uno, ajustando los pesos de la neurona ganadora y sus vecinas para que se parezcan más al patrón de entrada.
La segmentación de imágenes se refiere al proceso de particionar una imagen en regiones semánticamente significativas. El objetivo principal de la segmentación de imágenes es identificar regiones uniformes y homogéneas con fronteras bien definidas. La segmentación de imágenes médicas busca particionar la imagen en regiones con características similares. Los métodos de segmentación más conocidos son los basados en umbrales, bordes y regiones.
Este documento describe conceptos básicos de tomografía computarizada (TC), incluyendo cómo se miden las proyecciones de rayos X a través del paciente, los detectores que cuentan la atenuación, y cómo se reconstruye la imagen utilizando retroproyección filtrada. Explica cómo los valores de píxel en las imágenes de TC representan unidades Hounsfield y cómo ajustar el nivel y ancho de ventana para mejor visualizar los tejidos. También cubre parámetros clave como resolución espacial, de bajo contraste y temporal.
El documento trata sobre los conceptos y métodos de segmentación de imágenes. Explica que la segmentación de imágenes consiste en particionar la imagen en regiones semánticamente significativas. Describe los métodos de segmentación basados en umbrales, bordes y regiones, e incluye detalles sobre métodos específicos como Otsu, k-means, y detección de bordes con filtros como Sobel y Canny.
El documento define los conceptos básicos de pixeles, voxels y principios de calidad de imagen en tomografía computarizada. Explica que los pixeles son unidades de información en una imagen y los voxels son unidades de volumen que representan pixeles en secciones de corte. También describe factores como resolución espacial, de contraste y temporal que afectan la calidad de imagen, así como posibles artefactos.
Este artículo propone un nuevo algoritmo de estegoanálisis para la detección de esteganografía LSB en imágenes descomprimidas. El algoritmo analiza los residuos de ruido en el dominio DCT tras la descompresión JPEG, los cuales son sensibles a los cambios de LSB. Los resultados muestran una precisión del 90.9% para un rango de embebido de 0.5 bpp, superando a otros estegoanalizadores. Adicionalmente, la precisión no se ve afectada por diferentes factores de calidad JPEG, mantenié
El documento trata sobre la segmentación de imágenes. Explica que la segmentación de imágenes es el proceso de particionar la imagen de manera semánticamente significativa, como encontrar objetos en la imagen. Describe los diferentes métodos de segmentación como los basados en umbrales, bordes y regiones. Explica algunos métodos específicos como Otsu y k-means para segmentación basada en umbrales y Canny y Sobel para detección de bordes.
En el presente trabajo se efectúa un análisis factorial confirmatorio bajo la metodología de ecuaciones estructurales, con el fin de hallar evidencias basadas en la validez de constructo del Inventario de Depresión Estado/Rasgo, en una muestra de adolescentes de Lima Metropolitana.
El documento describe las partes principales de un microscopio óptico, incluyendo el sistema mecánico y óptico. El sistema mecánico incluye la base, brazo, platina, pinzas y tornillos que mantienen la estructura y alineación. El sistema óptico incluye el foco, condensador, diafragma, objetivos y ocular que generan y desvian la luz para producir una imagen aumentada de la muestra. También se explican conceptos como el ángulo de apertura, apertura numérica y poder de resolución
Este documento presenta información sobre métodos instrumentales de análisis químico. Explica las propiedades físicas que aprovechan estos métodos como la conductividad y absorción de luz. También describe conceptos como sensibilidad, radiación electromagnética, modelos ondulatorio y corpuscular, y cálculos de energía de fotones. Finalmente, detalla elementos, aplicaciones y diferencias de diversos instrumentos espectroscópicos como monocromadores, filtros y detectores en los rangos ultravioleta, visible e infrarrojo
Presentación del proyecto de la materia de IAA de la UTPL.
Tema: Comparación de resultados en la convergencia de una red neuronal utilizando 1 y 2 capas ocultas respectivamente en el modelo del perceptrón multicapa utilizando el algoritmo BackPropagation al realizar el reconocimiento de señales de tránsito
La planificación de Radioterapia de Intensidad Modulada (IMRT) involucra procesos de optimización en múltiples etapas, incluyendo la optimización de mapas de flujo para cada campo. Los algoritmos de optimización inversa buscan minimizar una función objetivo que mide la distancia entre la distribución de dosis deseada y la alcanzada, optimizando las intensidades de cientos de mini-haces ("beamlets"). Esto requiere métodos computacionales avanzados para lograr tiempos de cálculo interactivos, como proces
El documento describe los parámetros de procesamiento y adquisición en tomografía por emisión de positrones (PET). Explica que el PET usa isótopos radiactivos que emiten positrones para crear imágenes tridimensionales de función molecular en el cuerpo. El proceso de aniquilación produce dos fotones que viajan en direcciones opuestas y pueden ser detectados. El procesamiento de imágenes incluye correcciones para eventos aleatorios, radiación dispersa, atenuación y reconstrucción de la imagen.
Este documento describe las actividades de investigación de un grupo enfocado en el desarrollo de técnicas para la generación de casos de prueba, como objetos combinatorios y ecuaciones diofánticas. También incluye información sobre trabajos de tesis, artículos publicados, un repositorio de casos de prueba y aplicaciones como la detección de errores y pruebas de regresión.
Este documento describe los avances en la tecnología de tomografía computarizada (TC) de conteo de fotones. El conteo de fotones permite discriminar tejidos de manera independiente mediante la medición simultánea de fotones en múltiples energías. Esto mejora el contraste entre tejidos y permite la identificación de componentes con una sola adquisición. Sin embargo, existen desafíos como la alta tasa de flujo de fotones que puede generar variación en la tasa de conteo y artefactos. El desarrol
Este documento describe varios métodos para segmentar imágenes digitales, incluyendo detección de contornos, puntos y líneas, detección de bordes, y umbralización. La umbralización incluye métodos como umbralización global, adaptativa, selección iterativa, y basada en el histograma de la imagen para separar objetos del fondo. La segmentación es una etapa clave en aplicaciones de visión por computadora.
Similar a Identificación de Núcleos de las Células Epiteliales Asistido por Ordenador (20)
Los descriptores de textura son métricas diseñadas para cuantificar la textura percibida en una imagen. Se utilizan para clasificar y segmentar imágenes basadas en las propiedades de textura. Algunos métodos comunes de descriptores de textura son Local Binary Pattern (LBP), matriz de co-ocurrencia, espectro de textura (TS) y Haralick. Estos descriptores se aplican comúnmente en el análisis de imágenes médicas y el reconocimiento de caracteres.
This document discusses 3D reconstruction from 2D images. It introduces the concepts of direct and inverse problems as they relate to 3D reconstruction, with small changes in input data potentially leading to large changes in the reconstructed 3D model. Stereo image capture and camera calibration are also covered, including intrinsic and extrinsic camera parameters as well as epipolar geometry, which describes the geometric relationship between two cameras.
This document compares different block-matching motion estimation algorithms. It introduces block-matching motion estimation and describes popular distortion metrics like MSE and SAD. It then explains the full-search algorithm and more efficient algorithms like three-step search and four-step search that evaluate fewer candidate blocks to reduce computational cost. These algorithms are evaluated and compared using video test sequences to analyze their performance and quality.
Este documento propone utilizar técnicas de template matching para identificar patrones en imágenes de hígado. Se analizarán y evaluarán algoritmos como SAD, CCC y NCC para encontrar regiones similares a un patrón de referencia. Se aplicarán filtros como bilateral y promedio, y el operador de Sobel para preprocesar las imágenes. Los resultados se validarán con un especialista para apoyar el diagnóstico médico.
A comparison of stereo correspondence algorithms can be conducted by a quantitative evaluation of disparity maps. Among the existing evaluation methodologies, the Middlebury’s methodology is commonly used. However, the Middlebury’s methodology has shortcomings in the evaluation model and the error measure. These shortcomings may bias the evaluation results, and make a fair judgment about algorithms accuracy difficult. An alternative, the methodology is based on a multiobjective optimisation model that only provides a subset of algorithms with comparable accuracy. In this paper, a quantitative evaluation of disparity maps is proposed. It performs an exhaustive assessment of the entire set of algorithms. As innovative aspect, evaluation results are shown and analysed as disjoint groups of stereo correspondence algorithms with comparable accuracy. This innovation is obtained by a partitioning and grouping algorithm. On the other hand, the used error measure offers advantages over the error measure used in the Middlebury’s methodology. The experimental validation is based on the Middlebury’s test-bed and algorithms repository. The obtained results show seven groups with different accuracies. Moreover, the top-ranked stereo correspondence algorithms by the Middlebury’s methodology are not necessarily the most accurate in the proposed methodology
Este documento presenta una contribución a la caracterización del descriptor visual de color del estándar MPEG-7. Explica brevemente los objetivos generales y específicos del proyecto, introduce conceptos clave como MPEG, MPEG-7, descriptores visuales y descriptores de color. También describe herramientas de software y métodos para la caracterización y pruebas de los descriptores de color de MPEG-7.
A quantitative evaluation methodology for disparity maps includes the selection of an error measure. Among existing measures, the percentage of bad matched pixels is commonly used. Nevertheless, it requires an error threshold. Thus, a score of zero bad matched pixels does not necessarily imply that a disparity map is free of errors. On the other hand, we have not found publications on the evaluation process where different error measures are applied. In this paper, error measures are characterised in order to provide the bases to select a measure during the evaluation process. An analysis of the impact on results of selecting different error measures on the evaluation of disparity maps is conducted based on the presented characterisation. The evaluation results showed that there is a lack of consistency on the results achieved by considering different error measures. It has an impact on interpreting the accuracy of stereo correspondence algorithms.
Stereo vision is related to the estimation of the depth of a scene captured, simultaneously, from different points of view. A fundamental problem in stereo vision is the search of corresponding points. A pair of corresponding points is formed by the projections of a same point in space. Find pairs of corresponding points allows to estimate the depth through of triangulation. Dynamic Programming is a efficient method for the search of pairs of corresponding points. In this paper are used different aspects of approaches which used Dynamic Programming for the search of pairs of corresponding points
Electronic microscopes are tools for capturing multimedia information that provide an alternative solution to several problems. Char coal classification is carried out manually by observing its morphological characteristics. In this process is necessary to analyse at least five hundred particles. As an alternative, the automation requires the use of image processing techniques. The char images acquisition is carried out automatically using an electronic microscope with motorized stage. In this process blur, empty and fragment particles images are captured. Including all these images in the classification process imply an additional effort during the process. In particular, the blur images may produce quantification errors in the quantification of the morphological characteristics. In this article a method, based on gradient magnitude and saturation for automatic identification of blur images and images with little content, is presented as a first step towards automatic classification process. Experimental results shown that the proposed method detects 70% of blur images and 95% of images with little content
La clasificación de carbonizados se realiza, generalmente, de forma manual mediante el análisis de las características morfológicas de al menos 500 partículas. Existen varias propuestas de clasificación semiautomática y automática usando técnicas de procesamiento de imágenes, sin embargo es poca la atención prestada al preprocesamiento de las imágenes. Las imágenes de carbonizados, normalmente empleadas para la clasificación automática, son de alta resolución (1300x1030 píxeles). Adicionalmente, analizar 500 partículas implica procesar al menos 290 imágenes para clasificar una muestra. En este artículo, se analiza el uso del sub-muestreo para reducir la resolución de las imágenes y su impacto sobre la clasificación de los carbonizados. Los resultados experimentales muestran que una reducción en el tamaño de las imágenes, a la mitad reduce hasta en un 69.19% el tiempo de procesamiento y no afecta la clasificación final de la muestra
Char classification process is based on morphological characteristics, such as: number of pores, distribution of pores and all thickness. Approximately, five hundred images have to be analysing in order to classify a char sample. Frequently, these images have high spatial resolution, 1300 x 1030 pixels, and intensity levels are represented using 8 bits. Thus, char image applications require large storage and processing capacity. In this paper, we compare different subsampling and quantisation strategies in order to reduce the spatial resolution and the number of bits used. Compared strategies showed excellent results in reducing spatial resolution and intensity levels, with minimal loss of information or details in processed images
Images are retrieved from a repository using MPEG-7 visual descriptors. The MPEG-7 standard uses XML documents for
storing descriptors of multimedia content. The MPEG-7 standard does not define a model for mapping XML documents into a
database. However, XML documents can be considered as a database. An XML document is self-describing and portable data
collection that has a data structure of a tree or a graph. An XML document collection can be semi-structured and this quality
allows grouping XML documents without a schema that relate them. There are two possible database models: the Native XML
and the Relational. A database model for XML documents is selected based on the purpose of information use and database
requirements. In this paper, both models are described and analysed. A relational database schema is designed for mapping
MPEG-7 visual descriptors into a database
Resource-Oriented Architecture offers advantages over other web-service architectures. It is based on a simple, scalable and highly standardised application-level protocol. Multimedia content is commonly managed using the MPEG-7. The MPEG-7 is a standard for representing audiovisual information that satisfies specific requirements based on syntax, semantic and decoding. Content descriptions under MPEG-7 can be organised and characterized without ambiguity. The MPEG-7 eXperimental Model (XM) includes the best performing tools for MPEG-7 normative and non-normative elements. In this paper, multimedia content is managed using the MPEG-7 eXperimental Model functionalities and provided using web-services technology. RESTful principles are the guidelines for achieving multimedia content storage and retrieval. Quantitative evaluation of the proposed web services has shown that this approach has better performance, in term of retrieval speed and storage space
Multimedia content is extracted automatically using MPEG-7 visual descriptors. The MPEG-7 uses an extended XML standard for defining structural relation between descriptors allowing creation and modification of description schemes. MPEG-7 visual descriptors are numerical representations of features - such as: texture, shape and color - extracted from an image. In this paper, the MPEG-7 is conceived as a set of services for extracting and storing visual descriptors. The MPEg-7 text-annotation tool is used for semantic descriptions. Semantic descriptions are linked to images content and conceived as a service for annotating and storing. A framework using service oriented architecture for mapping semantic descriptions and MPEG-7 visual descriptors into a pure-relational model is proposed.
The camera calibration problem consists in estimating the intrinsic and the extrinsic parameters. This problem can be solved by computing the fundamental matrix. The fundamental matrix can be obtained from a set of corresponding points. However in practice, corresponding points may be inaccurately estimated, falsely matched or badly located, due to occlusion and ambiguity, among others. On the other hand, if the set of corresponding points does not include information on different depth planes, the estimated fundamental matrix may not be able to correctly recover the epipolar geometry. In this paper a method for estimating the fundamental matrix is introduced. The estimation problem is posed as finding a set of corresponding points. Fundamental matrices are estimated using subsets of corresponding points and an optimisation criterion is used to select the best estimated fundamental matrix. The experimental evaluation shows that the least range of residuals is a tolerant criterion to large baselines.
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...JAVIER SOLIS NOYOLA
El Mtro. JAVIER SOLIS NOYOLA crea y desarrolla el “DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARIS”. Esta actividad de aprendizaje propone el reto de descubrir el la secuencia números para abrir un candado, el cual destaca la percepción geométrica y conceptual. La intención de esta actividad de aprendizaje lúdico es, promover los pensamientos lógico (convergente) y creativo (divergente o lateral), mediante modelos mentales de: atención, memoria, imaginación, percepción (Geométrica y conceptual), perspicacia, inferencia y viso-espacialidad. Didácticamente, ésta actividad de aprendizaje es transversal, y que integra áreas del conocimiento: matemático, Lenguaje, artístico y las neurociencias. Acertijo dedicado a los Juegos Olímpicos de París 2024.
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLMJuan Martín Martín
Examen de Selectividad de la EvAU de Geografía de junio de 2023 en Castilla La Mancha. UCLM . (Convocatoria ordinaria)
Más información en el Blog de Geografía de Juan Martín Martín
http://blogdegeografiadejuan.blogspot.com/
Este documento presenta un examen de geografía para el Acceso a la universidad (EVAU). Consta de cuatro secciones. La primera sección ofrece tres ejercicios prácticos sobre paisajes, mapas o hábitats. La segunda sección contiene preguntas teóricas sobre unidades de relieve, transporte o demografía. La tercera sección pide definir conceptos geográficos. La cuarta sección implica identificar elementos geográficos en un mapa. El examen evalúa conocimientos fundamentales de geografía.
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
Identificación de Núcleos de las Células Epiteliales Asistido por Ordenador
1. Identificación de Núcleos de las
Células Epiteliales Asistido por
Ordenador
Claudia Mazo, Maria Trujillo and Liliana Salazar
claudia.mazo@correounivalle.edu.co
2. Contenido
• Introducción
• Problema
• Enfoque propuesto
– Segmentación de los núcleos de las células
– Segmentación de las regiones de luz
– Segmentación de los núcleos de células
epiteliales
• Análisis y resultados
• Conclusiones
• Trabajos futuros
6. Enfoque Propuesto
• Segmentación de núcleos de las células
– Algoritmo structure tensor maximum
eigenvalues
– Algoritmo k-means
• Segmentación de las regiones de luz
– Algoritmo otsu
– Algoritmo Flood-fill
• Distancia euclidiana
7. Enfoque Propuesto
• Segmentación de núcleos de las células
– Algoritmo structure tensor maximum
eigenvalues
– Algoritmo k-means
• Segmentación de las regiones de luz
– Algoritmo otsu
– Algoritmo Flood-fill
• Distancia euclidiana
8. Segmentación de los Núcleos de las Células
(a) (b) (c) (d)
(e) (f) (g) (h)
(a) Using the Gradient-magnitude e) Using the Structure tensor maximum eigenvalues
(b) Using the Gradient-magnitude combining with non- f) Using the Structure tensor minimum eigenvalues
maximum gradient suppress g) Using the Normalized cut edge detection simple
(c) Using the Hessian tensor maximum eigenvalues h) Using the Normalised cut edge detection with T=3000
(d) Using the Hessian tensor minimum eigenvalues
9. Algoritmo Structure Tensor
Computation of the structure Tensor and the
resulting eigenvalues are ordered for each
image element (pixel/voxel)
The structure tensor is based in gradient of f:
12. Enfoque Propuesto
• Segmentación de núcleos de las células
– Algoritmo structure tensor maximum
eigenvalues
– Algoritmo k-means
• Segmentación de las regiones de luz
– Algoritmo otsu
– Algoritmo Flood-fill
• Distancia euclidiana
15. Algoritmo Flood-fill
• Determines the area connected to a given
node in a multidimensional array
http://en.wikipedia.org/wiki/File:Recursive_Flood_Fill_8_%28aka%29.gif
16. Enfoque Propuesto
• Segmentación de núcleos de las células
– Algoritmo structure tensor maximum
eigenvalues
– Algoritmo k-means
• Segmentación de las regiones de luz
– Algoritmo otsu
– Algoritmo Flood-fill
• Distancia euclidiana
17. Distancia Euclidiana
1. Calculate the Euclidean distance between each
nucleus and the nearest light area
2. Verify membership according to a threshold T
18. Enfoque Propuesto
• Segmentación de núcleos de las células
– Algoritmo structure tensor maximum
eigenvalues
– Algoritmo k-means
• Segmentación de las regiones de luz
– Algoritmo otsu
– Algoritmo Flood-fill
• Distancia euclidiana
25. Criterio de Expertos
Expert Img 1 Img 2 Img 3 Img 4 Img 5
Expert 1 Very good Excelent Good Excelent Good
Expert 2 Good Good Good Very good Good
Table 2: Performance evaluation of selected images by expert
26. Conclusiones
• Cells are the foundation for recognising tissues
present in an organ
• The proposed approach uses criteria based on
the morphology of the tissue, which improves
the segmentation results
• Obtained results provided a closer
segmentation to the expert-eye segmentation,
according to the expert opinions
• The experimental evaluation shows that the
obtained segmentation is very close to the real
one
27. Trabajos Futuros
• The obtained result will be used as input to
identify segmented cells of epithelial type to
which belongs
• Identify the four basic tissues