2. BCH
Los códigos BCH son una subclase de códigos
cíclicos que permiten corregir un número
arbitrario de errores t . Los códigos fueron
propuestos por Bose, haudhuri y Hocquenghem,
a los que deben su nombre. Estos códigos
tienen una gran versatilidad para el diseño, ya
que existe un gran número de polinomio
6. REED-SOLOMON
Los códigos de Reed-Solomon son una variante de
los códigos BCH y por tanto también son una
subclase de los códigos cíclicos. Se trata en este
caso de unos códigos que encontramos en muchas
aplicaciones, como por ejemplo las codificaciones
de canal en el CD-Audio, el MiniDisc, el DAT, el
DVD-Vídeo, los diferentes sistemas de difusión de
señales audiovisuales DVB-T, DVB-S, DVB-C, etc.
Desafortunadamente, se trata de unos códigos que
requieren una fuerte componente matemática para
comprender sus detalles y propiedades, por lo que
nos limitaremos a enunciar algunas de sus
características sin demostrarlas.
7. REED-SOLOMON
La característica más específica de estos códigos es que trabajan a nivel de sím-
bolo y no a nivel de bit. Es decir, las palabras sobre las que se aplica el código
pertenecen a un alfabeto con un número finito de símbolos. En la mayoría de
las aplicaciones prácticas, el símbolo más utilizado es el byte, es decir, un sím-
bolo es una palabra de 8 bits. Los bits en la entrada del codificador se agrupan
en palabras de 8 bits (bytes). El código de Reed-Solomon toma un conjunto de
K bytes en la entrada y general un total de N bytes en la salida. Observemos
que la idea general es muy parecida a lo que hemos visto hasta ahora pero que,
en vez de trabajar a nivel de bit, se trabaja a nivel de byte. La tasa del código
es R = K/N.
11. Historia
• El origen de este tipo de red se encuentra en el Neocognitron, introducido por
Kunihiko Fukushima en 1980. Dicho modelo fue mejorado por Yann Lecun en
1998, pues introdujo el aprendizaje basado en backpropagation.
• En el año 2012 este tipo de redes fueron refinadas por Dan Ciresan y fueron
implementadas en GPU, consiguiendo un rendimiento computacional mejor a
los obtenidos hasta entonces.
• Esta arquitectura tiene una clara inspiración en la corteza visual del cerebro.
• Esta inspiración se debe en gran medida al trabajo realizado por Hubel y Wiesel
en 1959, gracias al cual se comprendió en gran medida el funcionamiento de la
corteza visual, sobre todo de las células responsables de la selectividad de
orientación y detección de bordes en los estímulos visuales.
12. Las redes neuronales convolucionales son similares a las redes
neuronales multicanal, su principal ventaja es que cada parte de la red
se le entrena para realizar una tarea, esto reduce significativamente el
número de capas ocultas, por lo que el entrenamiento es más rápido.
Además, presenta invarianza a la traslación de los patrones a
identificar.
Definición
13. Características
• Neurona: Buscaremos optimizar una neurona (Características individuales)
en una región dada de la imagen.
• Canal: Buscamos optimizar la imagen entera.
• Capa: Se optimiza todos los canales (filtros) de una capa simultáneamente.
• Una cierta clase: Busca obtener imágenes que maximizan la probabilidad de
salida de una cierta clase.
14. Estructura
Tiene una estructura de 3 capas:
1. Capa convolucional: La operación de convolución recibe como entrada o input la
imagen y luego aplica sobre ella un filtro o kernel que nos devuelve un mapa de las
características de la imagen original, de esta forma logramos reducir el tamaño de
los parámetros.
1. Capa de reducción o pooling: Su utilidad principal radica en la reducción de las
dimensiones espaciales (ancho x alto) del volumen de entrada para la siguiente capa
convolucional. No afecta a la dimensión de profundidad del volumen.
2. Capa clasificadora totalmente conectada: Al final de las capas convolucional y de
pooling, las redes utilizan generalmente capas completamente conectados en la que
cada píxel se considera como una neurona separada al igual que en una red
neuronal regular.