Buscadores, SEM SEO: el desafío de ser visto en la web
TEMA 2.3 Y 2.4.pptx
1. TECNOLÓGICO NACIONAL DE MEXICO
INSTITUTO TECNOLOGIO DE TAPACHULA.
PRESENTA:
ALEXISROLANDO MORALES OROZCO.
MATERIA:
FUNDAMNETOS DE TELECOMUNICACIONES
TEMA/SUB TEMA:
MÉTODOS PARA LA DETECCIÓN Y CORRECCIÓN DE ERRORES
PROTOCOLOS
GRADO/GRUPO/CARRERA: 5.-A.
INGENERIA EN SISTEMAS COMPUTACIONALES.
ASESOR/CATEDRATICO:
REYNA AREVALO JESUS EDUARDO
TAPACHULA, CHIAPAS. MIERCOLES 12 DE OCTUBRE DEL 2022
3. OBJETIVO
El objetivo de este tema es la acción de conocer como pueden detectarse y
prevenirse errores que puedan aparecer en los distintos intercambios de
información que realiza el ordenador.
También aplicar distintos métodos de detección y corrección de errores.
4. INTRODUCCION
Esta técnica se basan siempre en la idea de añadir cierta información redundante ala
información que desee enviarse. A partir de ella el receptor puede determinar de forma
bastante fiable si los bits reducidos corresponden realmente a los enviados.
La detección de errores consiste en monitorear la información recibida de atreves de
técnicas implementadas en el codificador de canal ya descrito determinar si un carácter
caso asincrónico o un grupo de datos caso sincrónico presenta algún o algunos errores.
Técnicas mas comunes son:
Redundancia
Codificación de cuenta exacta
Chequeo de paridad vertical (VRC)
Chequeo de paridad horizontal (LRC)
5. MÉTODOS PARA LA DETECCIÓN Y
CORRECCIÓN DE ERRORES:
Las redes deben ser capaces de transferir datos desde un dispositivo a otro con una exactitud
total. Un sistema que no puede garantizar que los datos recibidos de un dispositivo son idénticos
a los transmitidos por otro es esencialmente inútil. Sin embargo, siempre que se transmiten datos
de un origen a un destino, se pueden corromper por el camino. De hecho, es más probable que
buena parte del mensaje se vea alterado en el tránsito que todos los contenidos lleguen intactos.
Muchos factores, incluyendo el ruido de la línea, pueden alterar o eliminar uno o más bits de una
unidad de datos determinada. Los sistemas fiables deben tener mecanismos para detectar y
corregir tales errores.
6. PARIDAD
Uno de los métodos más comúnmente empleados para detectar errores, cuando el número de bits de
información a transmitir es pequeño y la probabilidad de que ocurra un error es baja, es el uso de un bit
adicional de paridad por elemento transmitido. Puede conseguirse una importante mejora añadiendo un
segundo grupo de bits de paridad, como puede verse en la siguiente tabla. Para ello deben agruparse los
datos en bloques y aplicar el control de paridad a dos dimensiones (filas y columnas). Para cada carácter se
añade un bit de paridad, como en el caso anterior. Además, se genera un bit de paridad para cada posición
de bit a través de todos los caracteres. Es decir, se genera un carácter adicional en que el i-ésimo bit del
carácter es un bit de paridad para el i-ésimo bit de todos los caracteres en el bloque.
7. CONCEPTOS PREVIOS
Concepto de Código:
De un conjunto de palabras (por ejemplo: Posibles palabras binarias de una longitud
determinada), código es un subconjunto
Ejemplo:
Código: Palabras de tres bits con sólo un dígito a 1 En las palabras binarias de longitud 3: {000,
001, 010, 011, 100, 101, 110, 111}
8. NECESIDAD DEL TRATAMIENTO DE ERRORES
Posibilidad De Errores:
En informática (entre varios ordenadores o en el interior de ellos) la información
circula entre diferentes dispositivos y reposa en ciertos dispositivos
Posibles Errores:
• Ruidos en las comunicaciones
• Defectos en las superficies de los discos, etc.
Los errores consisten en la modificación de la información desde que se emite (o
almacena) hasta que se recibe (o se recupera) Cambio de valor de algunos bits (0
⇔1)
9. DETECCIÓN Y CORRECCIÓN DE ERRORES
Las redes deben ser capaces de transferir datos de un dispositivo a otro con total exactitud, si
los datos recibidos no son idénticos a los emitidos, el sistema de comunicación es inútil.
Sin embargo, siempre que se transmiten de un origen a un destino, se pueden corromper por el
camino
Los sistemas de comunicación deben tener mecanismos para detectar y corregir errores que alteren
los datos recibidos debido a múltiples factores de la transmisión.
10. TIPOS DE ERRORES
Interferencias, calor, magnetismo, etc. Influyen en una señal electromagnética, esos
factores pueden alterar la forma o temporalidad de una señal.
Si la señal transporta datos digitales, los cambios pueden modificar el significado
de los datos. Los errores posibles son:
11. ERROR DE BIT
Únicamente un bit de una unidad de datos determinada cambia de 1 a 0 o
viceversa.
Un error de bit altera el significado del dato. Son el tipo de error menos probable
en una transmisión de datos serie, puesto que el intervalo de bit es muy breve
(1/frecuencia) el ruido tiene que tener una duración muy breve.
Sin embargo si puede ocurrir en una transmisión paralela, en que un cable puede
sufrir una perturbación y alterar un bit de cada byte.
12. ERROR DE RÁFAGA
El error de ráfaga significa que dos o más bits de la unidad de datos han cambiado.
Los errores de ráfaga no significa necesariamente que los errores se produzcan en
bits consecutivos.
La longitud de la ráfaga se mide desde el primero hasta el último bit correcto,
algunos bits intermedios pueden estar bien.
13. DETECCIÓN
Se conocen el tipo de errores que pueden existir, el problema es ser capaz de
reconocerlos, dado que no se puede comparar el dato recibido con el original, sólo
se podría saber que ha habido un error cuando se descodifique todo el mensaje y
se vea que no tiene sentido.
Sin embargo existen determinadas técnicas sencillas y objetivas para detectar los
errores producidos en la transmisión:
14. REDUNDANCIA
La redundancia consiste en enviar dos veces cada unidad de datos, de forma que
el dispositivo receptor puede hacer una comparación bit a bit entre ambos datos y
detectar si ha habido errores, para corregirlos con el mecanismo apropiado. Esta
técnica es muy exacta pero enlentece la transmisión.
En las comunicaciones de datos se usan cuatro tipos de comprobación de
redundancia:
Verificación De Redundancia Vertical (VRC)
Verificación De Redundancia Longitudinal (LRC)
Verificación De Redundancia Cíclica (CRC)
15. CORRECCIÓN DE ERRORES DE UN ÚNICO BIT
El concepto de la corrección de errores se puede comprender con el caso más
sencillo: el error de un único bit. Un error de un bit supone que un bit ha cambiado
de un 0 a un 1 o de un 1 a un 0, para corregir el error, el receptor sólo tiene que
invertir el valor del bit alterado, sin embargo, para hacer eso, el receptor debe
saber en qué bit está el error, por lo que el secreto de la corrección de errores es
localizar el bit o bits inválidos.La cuestión es el uso de los bits de redundancia para
la corrección. Ahora bien
¿Cuantos Bits De Redundancia Usar?
16. CÓDIGO HAMMING
Hamming desarrolló una técnica que proporciona una solución práctica. El código
Hamming se puede aplicar a unidades de datos de cualquier longitud y usa la
relación de bits de datos y de redundancia. En el código cada bit r es el bit de VRC
para una combinación de bits de datos. Por ejemplo, un dato de 7 bits necesita 4
bits de redundancia, los colocaremos en las posiciones 1, 2, 4 y 8, con lo que la
secuencia transmitida es la siguiente:
17. DETECCIÓN Y CORRECCIÓN
El receptor recibe la transmisión, toma los datos y recalcula cuatro nuevos VRC
usando el mismo conjunto de bits usados en el cálculo en el emisor, a continuación
reensambla los nuevos valores de paridad siguiendo el orden de la posición (r8, r4,
r2, r1) la cifra resultante indica si ha habido error y en qué bit se ha producido.
Si el resultado es 0000 no ha habido error, cualquier otro resultado indica error y
bit erróneo. Una vez identificado el bit erróneo, el receptor puede cambiar el valor
de ese bit para corregir el error.
18. CORRECCIÓN DE ERRORES DE RÁFAGA
Se puede diseñar un código Hamming para corregir errores de ráfaga de una cierta
longitud, sin embargo el número de bits de redundancia necesarios es muy
elevado, porque los errores pueden ser de tantos bits pero pueden estar en
cualquiera de los bits de la cadena transmitida.
19. PROTOCOLOS DE RED
Los protocolos de red definen un formato y un conjunto de reglas
comunes para intercambiar mensajes entre dispositivos.
Algunos de los protocolos de red más comunes son Hypertext Transfer
Protocol (HTTP), el protocolo de control de transmisión (TCP) y el
protocolo de Internet (IP).
20. SUITES DE PROTOCOLOS Y ESTÁNDARES DE LA INDUSTRA.
Una suite de protocolos es un grupo de protocolos que trabajan
en forma conjunta para proporcionar servicios integrales de
comunicación de red.
Pueden estar especificadas por una organización de estándares
o pueden ser desarrolladas por un proveedor.
La suite de protocolos TCP/IP es un estándar abierto: estos
protocolos están disponibles sin cargo, y cualquier proveedor
puede implementarlos en su hardware o software.
21. CONCLUSION
Investigando mas a fondo nos encontramos que gracias alas técnicas de detección
de errores podemos detectar las irregularidades que a veces se presentan ala hora
de la transmisión de datos.
Estos es de vital importancia ya que nos permite detectar el error para después
implementar una técnica de corrección de acorde al error que haya ocurrido y así
poder mantener una transmisión segura de los datos.