Teleco expogrupo02

427 visualizaciones

Publicado el

0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
427
En SlideShare
0
De insertados
0
Número de insertados
7
Acciones
Compartido
0
Descargas
6
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Teleco expogrupo02

  1. 1. TELECOMUNICACIONES<br />UNIVERSIDAD ALAS PERUANAS <br />
  2. 2. CARACTERÍSTICAS DE LOS SISTEMAS DE TRANSMISIÓN ANALÓGICA Y/O DIGITAL <br />
  3. 3. MODOS DE TRANSMISIÓN<br />
  4. 4. MODOS DE TRANSMISIÓN<br />Terminal <br />A<br />Terminal <br />B<br />
  5. 5. MODOS DE TRANSMISIÓN<br />Terminal <br />A<br />Terminal <br />B<br />Or<br />
  6. 6. MODOS DE TRANSMISIÓN<br />Terminal <br />A<br />Terminal <br />B<br />
  7. 7. TRANSMISION DE SEÑALES ANALÓGICAS Y SEÑALES DIGITALES<br />Señales<br />
  8. 8. V<br />Tiempo<br />
  9. 9. V<br />Tiempo<br />
  10. 10. TRANSMISION EN REDES<br />
  11. 11. TRANSMISION EN REDES<br />
  12. 12. TRANSMISION EN REDES<br />
  13. 13. TRANSMISION EN REDES<br />
  14. 14. REPRESENTACION SEÑALES – SERIE FOUIER<br />
  15. 15. REPRESENTACION SEÑALES – SERIE FOUIER<br />
  16. 16. TRANSMISIÓN EN BANDA BASE<br />
  17. 17. TÉCNICAS DE LA TRANSMISIÓN DE LA INFORMACIÓN<br />
  18. 18. TEORÍA DE LA INFORMACIÓN<br /><ul><li> Teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados.
  19. 19. La información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza la Entropía.</li></li></ul><li>CAPACIDAD DE CANAL <br /><ul><li> En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que puede transportar dicho canal de forma fiable, normalmente se expresa en bits/s (bps).</li></li></ul><li>TEOREMA DE SHANNON<br /><ul><li> Claude Shannon demostró en 1949 que la capacidad teórica máxima de un canal de comunicaciones limitado en banda con ruido AWGN (ruido blanco aditivo gausiano) responde a la ecuación:</li></li></ul><li>TEOREMA DE SHANNON<br />Entropía de una Fuente de Información: H<br />Es un parámetro que nos permite determinar el contenido promedio de información de una fuente o un mensaje en particular. En un proceso de comunicación, transmitimos usualmente secuencias largas de símbolos, y estamos mas interesados en el contenido promedio de información que la fuente produce, que en la información contenida en cada símbolo. Luego:<br />
  20. 20. DETECCIÓN Y CORRECCIÓN DE ERRORES<br />Transmisión Datos<br />Una trama tiene m bits y se agregan r bits de redundancia o de chequeo.<br />Los datos a transmitir serán n = m + r<br />La detección de errores requiere que másbits sean enviados cuando algún error ocurre.<br />
  21. 21. DETECCIÓN Y CORRECCIÓN DE ERRORES<br />Errores<br /><ul><li>En medios digitales son raros
  22. 22. En medios analogicos son más comunes
  23. 23. En inalambricos son mayores</li></ul>Los errores se producen por 2 tipos de fallos diferentes en su naturaleza:<br />Sucesos Estaticos, compartimiento y existencia conocidos de antemano.<br />Sucesos Transitorios, aparecen de forma aleatoria.<br /><ul><li>Error de Bit.
  24. 24. Error de Ráfaga: Una cadena de bits contiguos erróneos.
  25. 25. A una mayor velocidad de transmisión, un mismo error afecta a más bits.
  26. 26. Un ruido de 1/100 segundos puede afectar:
  27. 27. Si se transmite a 1 Kbps, a 10 bits.
  28. 28. Si se transmite a 1 Mbps, a 10.000 bits.</li></li></ul><li>DETECCIÓN Y CORRECCIÓN DE ERRORES<br />Estrategias de manejo de errores<br />No tenerlos en cuenta<br />Introducir la informaciónnecesaria que detecte que ha habido error.<br /> Despuésmediante técnica hacia atrás se pide la retransmisión<br /><ul><li>Bits de Paridad
  29. 29. Códigospolinomiales o de redundancia cíclica (CyclicRedundancyCheck)</li></ul>Introducir información redundante que detecte cuálha sido el error, son códigosautocorrectivos<br /><ul><li>Hamming</li></li></ul><li>DETECCIÓN Y CORRECCIÓN DE ERRORES<br />Códigos de Detección de Errores<br /><ul><li>CRC (control de redundancia cíclica)
  30. 30. Simple paridad
  31. 31. Paridad cruzada (Paridad horizontal y vertical)
  32. 32. Suma de verificación
  33. 33. Dígito Verificador
  34. 34. Código de Hamming
  35. 35. Bit de Paridad
  36. 36. Reed Solomon</li></ul>Códigos de Correccionde Errores<br /><ul><li>FEC (Forward Error Correction)
  37. 37. Código Binario de Golay
  38. 38. Reed-Solomon.
  39. 39. Hamming</li></li></ul><li>DETECCIÓN Y CORRECCIÓN DE ERRORES<br />Códigos de Detección de Errores<br /><ul><li>CRC (control de redundancia cíclica)
  40. 40. Simple paridad
  41. 41. Paridad cruzada (Paridad horizontal y vertical)
  42. 42. Suma de verificación
  43. 43. Dígito Verificador
  44. 44. Código de Hamming
  45. 45. Bit de Paridad
  46. 46. Reed Solomon</li></li></ul><li>GRACIAS<br />

×