SlideShare una empresa de Scribd logo
1 de 9
ANTECEDENTES DE LA
                                  I.A

Uno de los primeros pasos hacia la I.A fueron dados hace mucho tiempo en
los años (384 – 332 a.C) por Aristoteles, cuando se intento explicar ciertos
estilos de razonamiento deductivo que en esa época se llamo Silogismo. En los
años 1235 a 1316 RamonLlull poeta catalán construyo un conjunto de ruedas
llamado Ars Magna el cual suponía que iba a ser una maquina capaz de
responder todas las preguntas. Mucho mas adelante mas exactamente en el
año 1958 JhonMcCarty, creador del termino Inteligencia Artificial, propuso
utilizar el termino el calculo proposicional como un idioma que domino el
AdviceTaker, a este sistema se le tenía que decir que hacer en lugar de ser
programado. Lógicos del siglo XX entre los que se encontraban Kart Codel,
Stephen Kleene, Emil Post, Alan Turing entre otros, formalizaron y aclararon
mucho de lo que podía y no podía hacerse con los sistemas de lógica y
calculo.

Gran parte del trabajo inicial de la I.A se desrrollo en la década de 1960 y
principios de los setent en programas como General ProblemSolver, de Allan
Newel; otros sistemas que influyeron fueron: La integración Simbolica, en 1963,
Algebra Word de Bobrow en 1968 entre otros. Muchos de estos sistemas son el
tema de un articulo llamado Computers and Thought de Feigenbaum y
Fedelman en 1963.
Hacia finales de los setenta y principios de los ochenta algunos programas que
se desarrollaron contenían mayor capacidad y conocimientos necesarios para
imitar el desempeño humano de experto en diversas tareas. En mayo de 1997
un programa de IBM llamado Deep Blue derroto en ese entonces el actual
campeón mundial de ajedrezGarryKasparov. Por su parte Larry Roberts en
1963 desarrollo tubo de los primero programas de análisis de escena.
Muchos avances se han presentado a lo largo de la historia del hombre
relacionada con la I.A es así que años como 1963, 1990,1993, 1994 1995….
Han dejado huella en el avance del desarrollo de la I.A. la presión constante
para mejorar las capacidades de los robots y los agentes de software
motivaran y guiaran mayores investigaciones de I.A en los años venideros.

          RAMAS QUE COMPONEN LA INELIGENCIA ARTIFICIAL

La inteligencia artificial es una ciencia que la componen tres grandes ramas las
cuales son:
       Lógica difusa
       Redes Neuronales Artificiales
       Algoritmos genéticos

Cada una de ellas consta con unas características especiales así como de una
función específica.
Entonces La Lógica Difusa permite a una computadora analizar información
del mundo real en una escala entre lo verdadero y lo falso , la lógica difusa
manipula conceptos claros como caliente o húmedo y permite a los ingenieros
construir televisores, aires acondicionados , lavadoras u otros dispositivos que
juzgan información difícil de manejar, el estudio moderno de la lógica difusa y
las contradicciones parciales tiene sus orígenes en el siglo XX cuando Bertand
Russel retorno una antigua paradoja griega, según esta una cretense afirma
que todos os cretenses mienten. Así que miente o dice la verdad? Si miente,
dice la verdad y no miente. Si no miente entonces dice la verdad y miente.
La lógica difusa dice que la frase es cierta y falsa a la vez. En este caso la
lógica clásica se rinde, toda vez que esta nos da solo la opción de decir la
verdad o mentira. En la década de 1920 e independientemente de Rusell, el
lógico polaco JanLukasiewicztrabajo los principios de la lógica multievaluada,
en estos las proposiciones pueden tomar valores verdaderos fraccionales
entre los unos y los ceros de la lógica clásica.Es importante distinguir ente
sistemas difusos y probabilidad: los dos operan sobre el mismo rango numérico
pero los conceptos son distintos. Si tomamos ejemplos seria: Hay un 90% de
probabilidad que liza es pequeña (probabilidad). Esta frase probabilística
supone que liza no es pequeña, que hay un 90% de conocer la categoría en la
que se encuentra. En contraste la frase difusa seria: “hay un 90% de
probabilidad de conocer la categoría en la que se encuentra.Esta metodología
se considera compleja pero el ser humano asimila todos los días las
instrucciones de este tipo de enseñanza. En la lógica difusa no se puede tomar
valores únicos para saber si un elemento pertenece o no. Se debe tomar
valores entre el 0 y el 1, por ello las operaciones de respuesta son mayores y a
veces infinitas.
La lógica difusa consta de tres etapas para obtener el resultado esperado, la
primera etapa se basa en un proceso donde las variables tienen un grado de
incertidumbre metalingüístico. Un ejemplo de esto se puede dar en un gráfico
que conste de dos colores blanco o negro, o mejor en representación binaria 1
o 0 y la respuesta es fácil de proporcionar puesto que si no es blanco es
negro. Pero en un gráfico que conste con diferentes matices, ya van a tener
varias respuestas puesto que las opciones serán varias, es decir ya no solo
será blanco o negro sino que podrá ser, gris, azul, un gris fuerte…. Y es en
este tipo de situaciones donde se clasifica las dos tipos de lógica, en el primer
ejemplo lógica clásica y en el segundo la lógica difusa.
lasegunda etapa propone reglas lingüísticas que servirán de guía para que el
sistema se comporte de manera más adecuada. El grado de pertenencia de
cada una de las variables se evalúa en un conjunto de reglas de inferencia,
dichas reglas fueron determinadas con ayuda de un experto, este conjunto de
reglas determina una consecuencia, es decir asigna un grado de pertenencia
a un conjunto difuso. La Tercera etapa es un proceso óptimo para determinar
los valores óptimos de salida, conocido como desfusificación que consiste en
pasar el grado de pertenencia a un valor nítido o real.
Al final de todo este proceso el control le entregara valores nítidos o reales,
con lo cual este sistema interpretara las ordenes y realizara las acciones
pertinentes.
APLICACIONES DE LA

                                      I.A.

    1. DESCENTRALIZADO DE SEÑALES DE VIDEO CON LÓGICA DIFUSA

Eficiencia de la lógica difusa para manejar la ambigüedad e impresión qué
aparece en numerosos problemas.

Muchos de los trabajos se centraron en dos aplicaciones:
     El descentralizado de señales de video.
     El crecimiento dé resolución de imágenes.

La conversión de señales de video entre lazadas a progresivas se requiere en
numerosos dispositivos como proyectores tales como, DVD, Televisores de
alta definición o monitores LCD, para adecuar su formato de presentación al
formato de transmisión entrelazado por los sistemas de convencionales de
televisión.
Esto ha fomentado el funcionamiento de numerosos algoritmos de
desentrelazados que implementan desde simples esquemas de interpolación
Espacio-Temporal y complejas técnicas de competición de movimiento.

La ampliación del tamaño de las imágenes es necesario para aplicaciones de
análisis e interpretación, en la cual un aumento de la resolución en la imagen
es importante, se proponen nuevas técnicas basadas en la lógica difusa que
proporcionan soluciones eficaces para las dos aplicaciones anteriormente
mencionadas.

PROCEDIMIENTO

El formato entrelazado empleado por los sistemas de transmisión de señales
de televisión, reduce la mitad de la ancho de las bandas de señal transmitidas
sin afectar la calidad de las imágenes.
Los algoritmos de desentrelazado aplican diferentes técnicas de interpolación
que genera completa de la información trasmitida en los sucesivos campos.
Los más eficientes son los que adoptan la estrategia de interpolación a las
características específicas de las imágenes como el grado de movimiento.

La detección del grado de movimientos permite dirigir el proceso de
desentrelazado si no existen movimientos la información puede obtenerse del
campo anterior “llamada una técnica de interpolación temporal”.
Y cuando existe movimiento, la información de las líneas de campo anterior no
es fiable en la cual se debe aplicar una interpolación espacial entre los pixeles
del campo actual.
Indican el número de órdenes del fotograma en la secuencia, representan los
valores de luminancia obtenidos al utilizar técnicas de interpolación espacial y
temporal e indica el cifrado de movimiento.
Consiste en utilizar un sistema basado en la lógica difusa que determina el
cifrado de movimiento, la entrada al sistema se evalúa utilizando un conjunto
de funciones de pertenencia triangulares.
Interpretación: cuando el cifrado del movimiento es pequeño se realiza una
interpolación temporal y al ser grande una interpolación espacial. En algunos
casos se lleva una combinación de ambas.
Para implementar algoritmos se selecciona la inserción del pixel del campo
anterior. Para realizar interpolación espacial se propone un algoritmo utilizando
un sistema un sistema un sistema basado en lógica difusa que detecta la
presencia de bordes de imágenes.

        2. MARCADORES ANATÓMICOS DE LOS VENTRÍCULOS DEL
                            CORAZÓN

La ventriculografía es una técnica utilizada para visualizar las cavidades
cardiacas. Su objetivo principal es definir el tamaño y la forma del ventrículo
izquierdo, así como también visualizar la forma y movilidad de las estructuras
asociadas con las válvulas del corazón.
En la actualidad se desarrollan técnicas para detectar automáticamente los
contornos ventriculares, no se ha encontrado aún ningún método capaz de
resolver este problema de manera satisfactoria y las técnicas existentes no
han sido validadas técnicamente.
En este trabajo se establece un conjunto de consideraciones tanto teóricas
como prácticas que permiten realizar el diseño y la verificación del
comportamiento de las redes neuronales, para la detención de los tres
marcadores anatómicos del corazón

Procedimiento

Las variables discriminantes se obtienen a partir de secuencias de imágenes
dinámicas del corazón. Usando esta secuencia de imágenes cardiacas,
seaplicó un proceso manual para extraer un conjunto de subimagenes de
tamaño 31*31,con tentativas de los marcadores anatómicos más importantes al
momento de caracterizar el ventrículo izquierdo

Resultados

En las primeras pruebas hechas a las redes neuronales implementadas para
distinguir los ventrículos del corazón, de un total de 21 imágenes muestra, las
redes desempeñaron un trabajo satisfactorio en 15 de ellas dando un
rendimiento de 70%.se pretende mejorar el diseño de estas redes aumentando
el número de marcadores anatómicos para poder utilizar este software
confiablemente.

Conclusiones

Las redes neuronales generadas identificaron los marcadores anatómicos
primordiales para la detección automática de los contornos ventriculares del
corazón.

Porque se usaron redes neuronales?
Se utilizan en situaciones para las cuales no existe alguna clase de modelo o
aproximación matemática, o cierto proceso iterativo.



     3. SEGMENTACIÓN DE IMÁGENES CEREBRALES DE RESONANCIA
              MAGNÉTICA BASADA EN REDES NEURONALES

El estudio a través de imágenes de los cambios estructurales del cerebro
puede proveer información útil para el diagnóstico y el manejo clínico de
pacientes con demencia. Las imágenes de resonancia magnética (R.M) pueden
mostrar anormalidades que no son visibles en la tomografía computarizada. Así
mismo tienen el potencial de detectar señales de anormalidad, lo que permite
un diagnostico deferencial entre la enfermedad del Alzheimer y la demencia
vascular.
En este trabajo se presenta un método de segmentación de imágenes R.M.
Celébrales basada en la utilización de redes neuronales utilizando algoritmos
genéticos para el ajuste de los parámetros. Esta propuesta permite detectar y
cuantificar los diferentes tejidos cerebrales de una manera automática.

PROCEDIMIENTO
Presenta los siguientes pasos

Paso 1: El operador selecciona entre 3 y 5 puntos de cada sustancia que se va
a segmentar líquido cefalorraquídeo, sustancia gris y sustancia blanca, que de
solo una imagen de muestra representativa
Paso 2: La red neuronal se construye y al mismo tiempo se entrena a partir
de los valores de gris de los pixeles seleccionados en las diferentes imágenes.
Paso 3: Se consulta a la red ya entrenada indicando como patrones de entrada
y a los niveles de gris de un nuevo conjunto de imágenes.
Paso 4: Se crea una nueva imagen con intensidades diferentes para cada pixel
según la clase de sustancia a la que ha sido asignado.
Paso 5: Se visualizan las estructuras segmentadas con diferentes colores.

RESULTADOS

Este trabajo presenta un método de segmentación automática de imágenes de
R.M. cerebrales. El método es preciso y eficiente, siendo los resultados
obtenidos prácticamente independientes del experto.
Del éxito de la segmentación depende la posterior cuantificación de la materia
gris, blanca y L.C.R, y por lo tanto la medición de la evolución de la atrofia
cerebral

      4. OPTIMIZACIÓN DE SISTEMAS PARA TRATAMIENTO DE AGUA
                    (AUSTRIA, LÓGICA DIFUSA)


Este caso trata de una solución lógica difusa en la producción de bioquímicos
en la industria más grande de penicilina en Austria. Después de extraer la
penicilina a partir de los microorganismos que la generan, un sistema de
tratamiento de aguas residuales procesa las biomasas sobrantes. Ahora bien,
los lodos fermentados que se obtienen en el curso de este tratamiento
contienen microorganismos y restos de sales nutrientes, los cuales son de
material base para la fertilización de alta calidad que se vende como
coproductos de la producción de penicilina.
Para hacer el abono, el agua se decanta y el agua sobrante se vaporiza. El
objetivo es reducir los costos del proceso de vaporización por lo que el proceso
de decantación del agua y las sustancias para fertilizante deben ser
optimizados.
Así se implementó una solución utilizando lógica difusa para dejar de operar
manualmente este proceso.

      Reducir el uso de químicos precipitantes (para separar la mezcla del
      agua más fácil) debido a que el polímero usado en mu y costoso.
      Extraer el máximo de agua al momento de decantarla ya que la
      vaporización del agua restante consume grandes cantidades de energía.
      El contenido de la biomasa en decantación debe ser de 0.7g/l, si excede
      los 1.5g/l se le reduce el rendimiento del sistema y hasta puede
      detenerlo debido a la limitada capacidad del equipo para procesar masa
      biológica.

Este último punto es crítico y es difícil para los operadores ajustarlo
manualmente durante todo el tiempo del funcionamiento del equipo. A su vez,
la determinación de un modelos matemático podría ayudar a mejorar el
proceso, sin embargo debido a la gran cantidad de variables esto requiere gran
tiempo y esfuerzo además que necesita una regulación continua y que se
ajuste a cualquier cambio.

    5. MONITOREO DE GLAUCOMA A TRAVÉS DE REDES NEURONALES

El monitoreo de glaucoma a través de los cambios oftalmológicos de un
paciente, requiere de una decisión basada en los datos médicos representan
una situación crítica o sospechosa de glaucoma como diagnostico deferencial.
Este trabajo presenta como por medio de redes neuronales se ayuda con el
diagnostico. La medición de los médicos acerca del ojo del paciente se basa en
los siguientes conjuntos de datos:
       Mediciones directas: presión intraocular.
       Estimaciones paramétricas
       Descripciones verbales del paciente


    6. ALGORITMO GENÉTICO PARA EL DISEÑO DE SISTEMAS DE M.R.I.
                  (MAGNÉTICORESONANCEIMAGING)

Esta aplicación describe un paquete de software para el diseño de equipo
médico (MRI) llamado GASP, el cual usa algoritmos genético (AG) como se
sabe estos algoritmos permiten a una población de varios diseños evolucionar
hacia uno que sea el más apto. El objetivo principal de esto algoritmos es
optimizar la función de costo. En este caso cada gen de nuestro código
representa una espiral de nuestra magneto, los cuales se combinarán y
mutaran de la manera más conveniente para producir la mejor resolución de
imágenes en el MRI.

La ventaja de este software entre otras es que fue diseñado para correr en
paralelo en varias unidades que comparten la información de las mutaciones de
los “genes” de información, lo que acelera el proceso de evoluciones del
diseño.
También se podría utilizar redes neuronales, no obstante se tendrá que
comparar en cuanto tiempo se llega a una solución oprima con respecto a los
algoritmos genéticos.


                         ALGORITMOS GENÉTICOS

Es una técnica de búsqueda interactiva inspirada en los principios de selección
natural. Los AGs no buscan modelar la evolución biológica si no derribar
estrógenos de optimización. El concepto se basa en la generación de
poblaciones de individuo mediante la producción de los padres
Durante el curso de la evolución los genes que evolucionan los genes que
evolucionan lentamente fueron reemplazados por genes con mejor estrategia
evolutiva     por    tanto     se       espera      estrategias      eficientes.

HISTORIA

La primera idea de un AGs surgió en las tesis de j.d bagley “el funcionamiento
de los sistemas adoptables empleando algoritmos genéticos y correlativos”
Esta tesis influyó decisivamente en j.h.holland, quien se puede considerar
como            el          pionero           de            los           AGs
¿Qué                     es                    la                     herencia?
Es la reproducción sexual de los genes que se combinan de diferentes
maneras. Los cromosomas paternos se reparten entre células sexuales y
cuando tiene lugar la fecundación surgen factores hereditarios que poseen los
padres.

CÓDIGO GENÉTICO

Es material genético está formado por acido nucleicos, estos se hallan en todas
las células vivas, en las que determinan la constitución de las proteínas y
genes.
Existen dos tipos de ácidos ribonucleicos (ARN). En 1962 se otorgó el primer
nobel por el descubrimiento de la estructura y función de la molécula de ADN.
Está formada por bases nitrogenadas enlazadas por puentes de hidrogeno.
Cada unión está formada por dos bases. Formando 4 tipos de uniones cuya
ordenación en la molécula constituye el código genético.

SELECCIÓN NATURAL

Mientras estaba reflexionando acerca de la selección artificial, Darwin leyó un
ensaño del economista Thomas Malthus.
El ensayo sugería que no controlarse la población humana, sobrepasaría la
producción de alimentos, ocasionando una fuerte competencia por la
existencia. Darwin se dio cuenta que las ideas de Malthus podrían aplicarse al
mundo natural. Allí estaba, finalmente, el marco de trabajo para una nueva
teoría sobre el origen de las especies. La teoría de Darwin tiene cuatro
principios básicos que explican cómo pueden cambiar esos rasgos o de una
población con el tiempo. Primero, los individuos de una población muestran
diferencias o variaciones. Segundo, las variaciones pueden heredarse, lo cual
significa que pasan de padre a hijo. Tercero, los organismos tienen más
descendientes de los que pueden sobrevivieron los recursos disponibles.
Finalmente, las variaciones que aumentan el éxito reproductivo tendrán mayor
oportunidad de trasmitirse, que aquellas que no lo aumentan.
Darwin llamo a su teoría selección natural. Razono que, dado el tiempo
necesario, la selección natural podría modificar una población lo suficiente
como             para            producir            nuevas              especies.
Para las estructuras básicas de un algoritmo genético también es necesario
conocer la transición de una generación a otra, la cual consta de cuatro
elementos                                                                   básico:
Selección: mecanismo de selección individual (cadena) para la reproducción
acorde con la función de aptitud (valor de la función objetivo). Los algoritmos de
selección serán los encargados de escoger que individuos van a disponer de
oportunidades de reproducirse y cuáles no. La idea básica de selección está
asociada con la función de aptitud y el sistema original; para su implementación
es       comúnmente         conocida        como        roulette-wheel        (wrs)
Cruzamiento: método de fusión sobre la información genética de dos
individuos; si la codificación es elegida apropiadamente, dos progenitores
saludables producirán descendientes sanos. Es el principal operador genético;
provee un mecanismo para heredar características a su descendencia;
interviene                en                  ambos                  progenitores.
Mutacion: en la evolución real, el material genetico puede ser alteradoen forma
aleatoria debido a un error en la reproducción o la deformación de genes; un
ejemplo es la radiación de los rayos gama. En los ag, la mutacion se realiza,
con gran probabilidad por una deformación aleatoria en las cadenas.
Reemplazo: para crear una nueva generación de la generación anterior se crea
un espacio a la decendencia en la población eliminandoa los padres.

Un algoritmo que hace todos estos pasos es:

t:=0                                        K:=1;
se crea la población inicial B0 =(b1,0      WHILE k<m & x<∑i=xi f(aj.t )/ ∑j=tm f(
,b2,0 ,…, bm,0 );                           bj.t ) DO
WHILE se detiene la condición que no        k:k+1;
se cumple DO                                bj.t+1 = bk.i
BEGIN                                       Fin
(*selección proporcional*)                  (*único-punto de cruzamiento*)
FOR i:=1 TO m DO                            FOR i:=1 TO m-1 STEP 2 DO
BEGIN                                       BEGIN
X:=random[0,1];
Introduccion

Más contenido relacionado

Similar a Introduccion

Similar a Introduccion (20)

Lógica Difusa
Lógica DifusaLógica Difusa
Lógica Difusa
 
Anexo de tarea
Anexo de tareaAnexo de tarea
Anexo de tarea
 
Lógica difusa Santiago Mariño Maracaibo
Lógica difusa Santiago Mariño MaracaiboLógica difusa Santiago Mariño Maracaibo
Lógica difusa Santiago Mariño Maracaibo
 
Lógica Difusa
Lógica DifusaLógica Difusa
Lógica Difusa
 
Introduccion Analisis Algoritmos
Introduccion Analisis AlgoritmosIntroduccion Analisis Algoritmos
Introduccion Analisis Algoritmos
 
computacion cuantica
computacion   cuanticacomputacion   cuantica
computacion cuantica
 
compotacion cuantica
compotacion cuanticacompotacion cuantica
compotacion cuantica
 
Informatica cuantica
Informatica cuanticaInformatica cuantica
Informatica cuantica
 
Rodrigo
RodrigoRodrigo
Rodrigo
 
Informática cuántica
Informática cuánticaInformática cuántica
Informática cuántica
 
computación informática
computación informática computación informática
computación informática
 
Quantum computing (1) (1)
Quantum computing (1) (1)Quantum computing (1) (1)
Quantum computing (1) (1)
 
Rodrigo
RodrigoRodrigo
Rodrigo
 
computacion cuantica
computacion cuanticacomputacion cuantica
computacion cuantica
 
Quantum computing
Quantum computingQuantum computing
Quantum computing
 
COMPUTACION CUANTICA
COMPUTACION CUANTICACOMPUTACION CUANTICA
COMPUTACION CUANTICA
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
Historia_de_la_computacion.pptx
Historia_de_la_computacion.pptxHistoria_de_la_computacion.pptx
Historia_de_la_computacion.pptx
 
Logica Difusa Introduccion
Logica Difusa IntroduccionLogica Difusa Introduccion
Logica Difusa Introduccion
 

Más de Cdr Saravena

Luz Edith Ortega.pptx
Luz Edith Ortega.pptxLuz Edith Ortega.pptx
Luz Edith Ortega.pptxCdr Saravena
 
Guia 6 clei iv a ser concentracion desarrollo rural
Guia  6  clei  iv a ser concentracion desarrollo ruralGuia  6  clei  iv a ser concentracion desarrollo rural
Guia 6 clei iv a ser concentracion desarrollo ruralCdr Saravena
 
Guía 3 CICLO IV A
Guía  3  CICLO IV AGuía  3  CICLO IV A
Guía 3 CICLO IV ACdr Saravena
 
Algoritmos geneticos
Algoritmos geneticosAlgoritmos geneticos
Algoritmos geneticosCdr Saravena
 
Cons. ambientes de respeto
Cons. ambientes de respetoCons. ambientes de respeto
Cons. ambientes de respetoCdr Saravena
 
Guia proyectos productivos 11°
Guia proyectos productivos 11°Guia proyectos productivos 11°
Guia proyectos productivos 11°Cdr Saravena
 
De mi colombia_con_amor
De mi colombia_con_amorDe mi colombia_con_amor
De mi colombia_con_amorCdr Saravena
 

Más de Cdr Saravena (10)

Luz Edith Ortega.pptx
Luz Edith Ortega.pptxLuz Edith Ortega.pptx
Luz Edith Ortega.pptx
 
Guia 6 clei iv a ser concentracion desarrollo rural
Guia  6  clei  iv a ser concentracion desarrollo ruralGuia  6  clei  iv a ser concentracion desarrollo rural
Guia 6 clei iv a ser concentracion desarrollo rural
 
Guía 3 CICLO IV A
Guía  3  CICLO IV AGuía  3  CICLO IV A
Guía 3 CICLO IV A
 
Matlab
MatlabMatlab
Matlab
 
Algoritmos geneticos
Algoritmos geneticosAlgoritmos geneticos
Algoritmos geneticos
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Yolidey
YolideyYolidey
Yolidey
 
Cons. ambientes de respeto
Cons. ambientes de respetoCons. ambientes de respeto
Cons. ambientes de respeto
 
Guia proyectos productivos 11°
Guia proyectos productivos 11°Guia proyectos productivos 11°
Guia proyectos productivos 11°
 
De mi colombia_con_amor
De mi colombia_con_amorDe mi colombia_con_amor
De mi colombia_con_amor
 

Último

SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Alejandrino Halire Ccahuana
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
plan de capacitacion docente AIP 2024 clllll.pdf
plan de capacitacion docente  AIP 2024          clllll.pdfplan de capacitacion docente  AIP 2024          clllll.pdf
plan de capacitacion docente AIP 2024 clllll.pdfenelcielosiempre
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfPaolaRopero2
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSYadi Campos
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptxdeimerhdz21
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxKarlaMassielMartinez
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Éteres. Química Orgánica. Propiedades y reacciones
Éteres. Química Orgánica. Propiedades y reaccionesÉteres. Química Orgánica. Propiedades y reacciones
Éteres. Química Orgánica. Propiedades y reaccionesLauraColom3
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfFrancisco158360
 

Último (20)

SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
plan de capacitacion docente AIP 2024 clllll.pdf
plan de capacitacion docente  AIP 2024          clllll.pdfplan de capacitacion docente  AIP 2024          clllll.pdf
plan de capacitacion docente AIP 2024 clllll.pdf
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
Éteres. Química Orgánica. Propiedades y reacciones
Éteres. Química Orgánica. Propiedades y reaccionesÉteres. Química Orgánica. Propiedades y reacciones
Éteres. Química Orgánica. Propiedades y reacciones
 
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdfTema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
 
Medición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptxMedición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptx
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 

Introduccion

  • 1. ANTECEDENTES DE LA I.A Uno de los primeros pasos hacia la I.A fueron dados hace mucho tiempo en los años (384 – 332 a.C) por Aristoteles, cuando se intento explicar ciertos estilos de razonamiento deductivo que en esa época se llamo Silogismo. En los años 1235 a 1316 RamonLlull poeta catalán construyo un conjunto de ruedas llamado Ars Magna el cual suponía que iba a ser una maquina capaz de responder todas las preguntas. Mucho mas adelante mas exactamente en el año 1958 JhonMcCarty, creador del termino Inteligencia Artificial, propuso utilizar el termino el calculo proposicional como un idioma que domino el AdviceTaker, a este sistema se le tenía que decir que hacer en lugar de ser programado. Lógicos del siglo XX entre los que se encontraban Kart Codel, Stephen Kleene, Emil Post, Alan Turing entre otros, formalizaron y aclararon mucho de lo que podía y no podía hacerse con los sistemas de lógica y calculo. Gran parte del trabajo inicial de la I.A se desrrollo en la década de 1960 y principios de los setent en programas como General ProblemSolver, de Allan Newel; otros sistemas que influyeron fueron: La integración Simbolica, en 1963, Algebra Word de Bobrow en 1968 entre otros. Muchos de estos sistemas son el tema de un articulo llamado Computers and Thought de Feigenbaum y Fedelman en 1963. Hacia finales de los setenta y principios de los ochenta algunos programas que se desarrollaron contenían mayor capacidad y conocimientos necesarios para imitar el desempeño humano de experto en diversas tareas. En mayo de 1997 un programa de IBM llamado Deep Blue derroto en ese entonces el actual campeón mundial de ajedrezGarryKasparov. Por su parte Larry Roberts en 1963 desarrollo tubo de los primero programas de análisis de escena. Muchos avances se han presentado a lo largo de la historia del hombre relacionada con la I.A es así que años como 1963, 1990,1993, 1994 1995…. Han dejado huella en el avance del desarrollo de la I.A. la presión constante para mejorar las capacidades de los robots y los agentes de software motivaran y guiaran mayores investigaciones de I.A en los años venideros. RAMAS QUE COMPONEN LA INELIGENCIA ARTIFICIAL La inteligencia artificial es una ciencia que la componen tres grandes ramas las cuales son: Lógica difusa Redes Neuronales Artificiales Algoritmos genéticos Cada una de ellas consta con unas características especiales así como de una función específica. Entonces La Lógica Difusa permite a una computadora analizar información del mundo real en una escala entre lo verdadero y lo falso , la lógica difusa manipula conceptos claros como caliente o húmedo y permite a los ingenieros construir televisores, aires acondicionados , lavadoras u otros dispositivos que juzgan información difícil de manejar, el estudio moderno de la lógica difusa y
  • 2. las contradicciones parciales tiene sus orígenes en el siglo XX cuando Bertand Russel retorno una antigua paradoja griega, según esta una cretense afirma que todos os cretenses mienten. Así que miente o dice la verdad? Si miente, dice la verdad y no miente. Si no miente entonces dice la verdad y miente. La lógica difusa dice que la frase es cierta y falsa a la vez. En este caso la lógica clásica se rinde, toda vez que esta nos da solo la opción de decir la verdad o mentira. En la década de 1920 e independientemente de Rusell, el lógico polaco JanLukasiewicztrabajo los principios de la lógica multievaluada, en estos las proposiciones pueden tomar valores verdaderos fraccionales entre los unos y los ceros de la lógica clásica.Es importante distinguir ente sistemas difusos y probabilidad: los dos operan sobre el mismo rango numérico pero los conceptos son distintos. Si tomamos ejemplos seria: Hay un 90% de probabilidad que liza es pequeña (probabilidad). Esta frase probabilística supone que liza no es pequeña, que hay un 90% de conocer la categoría en la que se encuentra. En contraste la frase difusa seria: “hay un 90% de probabilidad de conocer la categoría en la que se encuentra.Esta metodología se considera compleja pero el ser humano asimila todos los días las instrucciones de este tipo de enseñanza. En la lógica difusa no se puede tomar valores únicos para saber si un elemento pertenece o no. Se debe tomar valores entre el 0 y el 1, por ello las operaciones de respuesta son mayores y a veces infinitas. La lógica difusa consta de tres etapas para obtener el resultado esperado, la primera etapa se basa en un proceso donde las variables tienen un grado de incertidumbre metalingüístico. Un ejemplo de esto se puede dar en un gráfico que conste de dos colores blanco o negro, o mejor en representación binaria 1 o 0 y la respuesta es fácil de proporcionar puesto que si no es blanco es negro. Pero en un gráfico que conste con diferentes matices, ya van a tener varias respuestas puesto que las opciones serán varias, es decir ya no solo será blanco o negro sino que podrá ser, gris, azul, un gris fuerte…. Y es en este tipo de situaciones donde se clasifica las dos tipos de lógica, en el primer ejemplo lógica clásica y en el segundo la lógica difusa. lasegunda etapa propone reglas lingüísticas que servirán de guía para que el sistema se comporte de manera más adecuada. El grado de pertenencia de cada una de las variables se evalúa en un conjunto de reglas de inferencia, dichas reglas fueron determinadas con ayuda de un experto, este conjunto de reglas determina una consecuencia, es decir asigna un grado de pertenencia a un conjunto difuso. La Tercera etapa es un proceso óptimo para determinar los valores óptimos de salida, conocido como desfusificación que consiste en pasar el grado de pertenencia a un valor nítido o real. Al final de todo este proceso el control le entregara valores nítidos o reales, con lo cual este sistema interpretara las ordenes y realizara las acciones pertinentes.
  • 3. APLICACIONES DE LA I.A. 1. DESCENTRALIZADO DE SEÑALES DE VIDEO CON LÓGICA DIFUSA Eficiencia de la lógica difusa para manejar la ambigüedad e impresión qué aparece en numerosos problemas. Muchos de los trabajos se centraron en dos aplicaciones: El descentralizado de señales de video. El crecimiento dé resolución de imágenes. La conversión de señales de video entre lazadas a progresivas se requiere en numerosos dispositivos como proyectores tales como, DVD, Televisores de alta definición o monitores LCD, para adecuar su formato de presentación al formato de transmisión entrelazado por los sistemas de convencionales de televisión. Esto ha fomentado el funcionamiento de numerosos algoritmos de desentrelazados que implementan desde simples esquemas de interpolación Espacio-Temporal y complejas técnicas de competición de movimiento. La ampliación del tamaño de las imágenes es necesario para aplicaciones de análisis e interpretación, en la cual un aumento de la resolución en la imagen es importante, se proponen nuevas técnicas basadas en la lógica difusa que proporcionan soluciones eficaces para las dos aplicaciones anteriormente mencionadas. PROCEDIMIENTO El formato entrelazado empleado por los sistemas de transmisión de señales de televisión, reduce la mitad de la ancho de las bandas de señal transmitidas sin afectar la calidad de las imágenes. Los algoritmos de desentrelazado aplican diferentes técnicas de interpolación que genera completa de la información trasmitida en los sucesivos campos. Los más eficientes son los que adoptan la estrategia de interpolación a las características específicas de las imágenes como el grado de movimiento. La detección del grado de movimientos permite dirigir el proceso de desentrelazado si no existen movimientos la información puede obtenerse del campo anterior “llamada una técnica de interpolación temporal”. Y cuando existe movimiento, la información de las líneas de campo anterior no es fiable en la cual se debe aplicar una interpolación espacial entre los pixeles del campo actual. Indican el número de órdenes del fotograma en la secuencia, representan los valores de luminancia obtenidos al utilizar técnicas de interpolación espacial y temporal e indica el cifrado de movimiento. Consiste en utilizar un sistema basado en la lógica difusa que determina el cifrado de movimiento, la entrada al sistema se evalúa utilizando un conjunto de funciones de pertenencia triangulares.
  • 4. Interpretación: cuando el cifrado del movimiento es pequeño se realiza una interpolación temporal y al ser grande una interpolación espacial. En algunos casos se lleva una combinación de ambas. Para implementar algoritmos se selecciona la inserción del pixel del campo anterior. Para realizar interpolación espacial se propone un algoritmo utilizando un sistema un sistema un sistema basado en lógica difusa que detecta la presencia de bordes de imágenes. 2. MARCADORES ANATÓMICOS DE LOS VENTRÍCULOS DEL CORAZÓN La ventriculografía es una técnica utilizada para visualizar las cavidades cardiacas. Su objetivo principal es definir el tamaño y la forma del ventrículo izquierdo, así como también visualizar la forma y movilidad de las estructuras asociadas con las válvulas del corazón. En la actualidad se desarrollan técnicas para detectar automáticamente los contornos ventriculares, no se ha encontrado aún ningún método capaz de resolver este problema de manera satisfactoria y las técnicas existentes no han sido validadas técnicamente. En este trabajo se establece un conjunto de consideraciones tanto teóricas como prácticas que permiten realizar el diseño y la verificación del comportamiento de las redes neuronales, para la detención de los tres marcadores anatómicos del corazón Procedimiento Las variables discriminantes se obtienen a partir de secuencias de imágenes dinámicas del corazón. Usando esta secuencia de imágenes cardiacas, seaplicó un proceso manual para extraer un conjunto de subimagenes de tamaño 31*31,con tentativas de los marcadores anatómicos más importantes al momento de caracterizar el ventrículo izquierdo Resultados En las primeras pruebas hechas a las redes neuronales implementadas para distinguir los ventrículos del corazón, de un total de 21 imágenes muestra, las redes desempeñaron un trabajo satisfactorio en 15 de ellas dando un rendimiento de 70%.se pretende mejorar el diseño de estas redes aumentando el número de marcadores anatómicos para poder utilizar este software confiablemente. Conclusiones Las redes neuronales generadas identificaron los marcadores anatómicos primordiales para la detección automática de los contornos ventriculares del corazón. Porque se usaron redes neuronales?
  • 5. Se utilizan en situaciones para las cuales no existe alguna clase de modelo o aproximación matemática, o cierto proceso iterativo. 3. SEGMENTACIÓN DE IMÁGENES CEREBRALES DE RESONANCIA MAGNÉTICA BASADA EN REDES NEURONALES El estudio a través de imágenes de los cambios estructurales del cerebro puede proveer información útil para el diagnóstico y el manejo clínico de pacientes con demencia. Las imágenes de resonancia magnética (R.M) pueden mostrar anormalidades que no son visibles en la tomografía computarizada. Así mismo tienen el potencial de detectar señales de anormalidad, lo que permite un diagnostico deferencial entre la enfermedad del Alzheimer y la demencia vascular. En este trabajo se presenta un método de segmentación de imágenes R.M. Celébrales basada en la utilización de redes neuronales utilizando algoritmos genéticos para el ajuste de los parámetros. Esta propuesta permite detectar y cuantificar los diferentes tejidos cerebrales de una manera automática. PROCEDIMIENTO Presenta los siguientes pasos Paso 1: El operador selecciona entre 3 y 5 puntos de cada sustancia que se va a segmentar líquido cefalorraquídeo, sustancia gris y sustancia blanca, que de solo una imagen de muestra representativa Paso 2: La red neuronal se construye y al mismo tiempo se entrena a partir de los valores de gris de los pixeles seleccionados en las diferentes imágenes. Paso 3: Se consulta a la red ya entrenada indicando como patrones de entrada y a los niveles de gris de un nuevo conjunto de imágenes. Paso 4: Se crea una nueva imagen con intensidades diferentes para cada pixel según la clase de sustancia a la que ha sido asignado. Paso 5: Se visualizan las estructuras segmentadas con diferentes colores. RESULTADOS Este trabajo presenta un método de segmentación automática de imágenes de R.M. cerebrales. El método es preciso y eficiente, siendo los resultados obtenidos prácticamente independientes del experto. Del éxito de la segmentación depende la posterior cuantificación de la materia gris, blanca y L.C.R, y por lo tanto la medición de la evolución de la atrofia cerebral 4. OPTIMIZACIÓN DE SISTEMAS PARA TRATAMIENTO DE AGUA (AUSTRIA, LÓGICA DIFUSA) Este caso trata de una solución lógica difusa en la producción de bioquímicos en la industria más grande de penicilina en Austria. Después de extraer la penicilina a partir de los microorganismos que la generan, un sistema de
  • 6. tratamiento de aguas residuales procesa las biomasas sobrantes. Ahora bien, los lodos fermentados que se obtienen en el curso de este tratamiento contienen microorganismos y restos de sales nutrientes, los cuales son de material base para la fertilización de alta calidad que se vende como coproductos de la producción de penicilina. Para hacer el abono, el agua se decanta y el agua sobrante se vaporiza. El objetivo es reducir los costos del proceso de vaporización por lo que el proceso de decantación del agua y las sustancias para fertilizante deben ser optimizados. Así se implementó una solución utilizando lógica difusa para dejar de operar manualmente este proceso. Reducir el uso de químicos precipitantes (para separar la mezcla del agua más fácil) debido a que el polímero usado en mu y costoso. Extraer el máximo de agua al momento de decantarla ya que la vaporización del agua restante consume grandes cantidades de energía. El contenido de la biomasa en decantación debe ser de 0.7g/l, si excede los 1.5g/l se le reduce el rendimiento del sistema y hasta puede detenerlo debido a la limitada capacidad del equipo para procesar masa biológica. Este último punto es crítico y es difícil para los operadores ajustarlo manualmente durante todo el tiempo del funcionamiento del equipo. A su vez, la determinación de un modelos matemático podría ayudar a mejorar el proceso, sin embargo debido a la gran cantidad de variables esto requiere gran tiempo y esfuerzo además que necesita una regulación continua y que se ajuste a cualquier cambio. 5. MONITOREO DE GLAUCOMA A TRAVÉS DE REDES NEURONALES El monitoreo de glaucoma a través de los cambios oftalmológicos de un paciente, requiere de una decisión basada en los datos médicos representan una situación crítica o sospechosa de glaucoma como diagnostico deferencial. Este trabajo presenta como por medio de redes neuronales se ayuda con el diagnostico. La medición de los médicos acerca del ojo del paciente se basa en los siguientes conjuntos de datos: Mediciones directas: presión intraocular. Estimaciones paramétricas Descripciones verbales del paciente 6. ALGORITMO GENÉTICO PARA EL DISEÑO DE SISTEMAS DE M.R.I. (MAGNÉTICORESONANCEIMAGING) Esta aplicación describe un paquete de software para el diseño de equipo médico (MRI) llamado GASP, el cual usa algoritmos genético (AG) como se sabe estos algoritmos permiten a una población de varios diseños evolucionar hacia uno que sea el más apto. El objetivo principal de esto algoritmos es optimizar la función de costo. En este caso cada gen de nuestro código representa una espiral de nuestra magneto, los cuales se combinarán y
  • 7. mutaran de la manera más conveniente para producir la mejor resolución de imágenes en el MRI. La ventaja de este software entre otras es que fue diseñado para correr en paralelo en varias unidades que comparten la información de las mutaciones de los “genes” de información, lo que acelera el proceso de evoluciones del diseño. También se podría utilizar redes neuronales, no obstante se tendrá que comparar en cuanto tiempo se llega a una solución oprima con respecto a los algoritmos genéticos. ALGORITMOS GENÉTICOS Es una técnica de búsqueda interactiva inspirada en los principios de selección natural. Los AGs no buscan modelar la evolución biológica si no derribar estrógenos de optimización. El concepto se basa en la generación de poblaciones de individuo mediante la producción de los padres Durante el curso de la evolución los genes que evolucionan los genes que evolucionan lentamente fueron reemplazados por genes con mejor estrategia evolutiva por tanto se espera estrategias eficientes. HISTORIA La primera idea de un AGs surgió en las tesis de j.d bagley “el funcionamiento de los sistemas adoptables empleando algoritmos genéticos y correlativos” Esta tesis influyó decisivamente en j.h.holland, quien se puede considerar como el pionero de los AGs ¿Qué es la herencia? Es la reproducción sexual de los genes que se combinan de diferentes maneras. Los cromosomas paternos se reparten entre células sexuales y cuando tiene lugar la fecundación surgen factores hereditarios que poseen los padres. CÓDIGO GENÉTICO Es material genético está formado por acido nucleicos, estos se hallan en todas las células vivas, en las que determinan la constitución de las proteínas y genes. Existen dos tipos de ácidos ribonucleicos (ARN). En 1962 se otorgó el primer nobel por el descubrimiento de la estructura y función de la molécula de ADN. Está formada por bases nitrogenadas enlazadas por puentes de hidrogeno. Cada unión está formada por dos bases. Formando 4 tipos de uniones cuya ordenación en la molécula constituye el código genético. SELECCIÓN NATURAL Mientras estaba reflexionando acerca de la selección artificial, Darwin leyó un ensaño del economista Thomas Malthus.
  • 8. El ensayo sugería que no controlarse la población humana, sobrepasaría la producción de alimentos, ocasionando una fuerte competencia por la existencia. Darwin se dio cuenta que las ideas de Malthus podrían aplicarse al mundo natural. Allí estaba, finalmente, el marco de trabajo para una nueva teoría sobre el origen de las especies. La teoría de Darwin tiene cuatro principios básicos que explican cómo pueden cambiar esos rasgos o de una población con el tiempo. Primero, los individuos de una población muestran diferencias o variaciones. Segundo, las variaciones pueden heredarse, lo cual significa que pasan de padre a hijo. Tercero, los organismos tienen más descendientes de los que pueden sobrevivieron los recursos disponibles. Finalmente, las variaciones que aumentan el éxito reproductivo tendrán mayor oportunidad de trasmitirse, que aquellas que no lo aumentan. Darwin llamo a su teoría selección natural. Razono que, dado el tiempo necesario, la selección natural podría modificar una población lo suficiente como para producir nuevas especies. Para las estructuras básicas de un algoritmo genético también es necesario conocer la transición de una generación a otra, la cual consta de cuatro elementos básico: Selección: mecanismo de selección individual (cadena) para la reproducción acorde con la función de aptitud (valor de la función objetivo). Los algoritmos de selección serán los encargados de escoger que individuos van a disponer de oportunidades de reproducirse y cuáles no. La idea básica de selección está asociada con la función de aptitud y el sistema original; para su implementación es comúnmente conocida como roulette-wheel (wrs) Cruzamiento: método de fusión sobre la información genética de dos individuos; si la codificación es elegida apropiadamente, dos progenitores saludables producirán descendientes sanos. Es el principal operador genético; provee un mecanismo para heredar características a su descendencia; interviene en ambos progenitores. Mutacion: en la evolución real, el material genetico puede ser alteradoen forma aleatoria debido a un error en la reproducción o la deformación de genes; un ejemplo es la radiación de los rayos gama. En los ag, la mutacion se realiza, con gran probabilidad por una deformación aleatoria en las cadenas. Reemplazo: para crear una nueva generación de la generación anterior se crea un espacio a la decendencia en la población eliminandoa los padres. Un algoritmo que hace todos estos pasos es: t:=0 K:=1; se crea la población inicial B0 =(b1,0 WHILE k<m & x<∑i=xi f(aj.t )/ ∑j=tm f( ,b2,0 ,…, bm,0 ); bj.t ) DO WHILE se detiene la condición que no k:k+1; se cumple DO bj.t+1 = bk.i BEGIN Fin (*selección proporcional*) (*único-punto de cruzamiento*) FOR i:=1 TO m DO FOR i:=1 TO m-1 STEP 2 DO BEGIN BEGIN X:=random[0,1];