Comunicasiones digitales

Solo disponible en BuenasTareas
  • Páginas : 2 (440 palabras )
  • Descarga(s) : 0
  • Publicado : 11 de septiembre de 2012
Leer documento completo
Vista previa del texto
Comunicaciones Digitales
El tema abarca un área extensa en la comunicación, incluyendo la transmicion digital y el radio digital, se define como la transmicion de portadoras enalogas moduladas, enforma digital entre dos o mas puntos de un sistema de comunicación. En el sistema se requiere de un elemento físico entre el transmisor y el receptor como un par de cables metálicos. En un sistema detransmicion digital la información o fuente original puede ser en forma digital o analógica. Si esta en forma analogía tiene que convertirse a pulsos digitales, antes de la transmicion y convertirsenuevamente de forma análoga. Los pulsos digitales pueden originarse desde un sistema de transmicion digital de una fuente digital como una computadora de mainframe, o codificación binaria de una señalanalógica.
Limite Shannon para la capacidad de información
La capacidad de informacion de un sistema de comunicación representa el numero de símbolos independientes que pueden pasarse, atraves delsistema, en una unidad de tiempo determinado.
Por lo tanto a menudo es conveniente expresar la capacidad de informacion, de un sistema en bits por segundo (bps). En 1928 R. Hartley de los lavoratoriaode teléfonos Bell desarrollo una relación útil, entre el ancho de banda , la línea de transmicion y la capacidad de informacion. Expresada en forma sencilla la ley de Hartley es:
I=BXT
DondeI=capacidad de información (bps)
B=ancho de banda(Hz)
T=línea de transmisión (s)
La capacidad de informacion es una función lineal de ancho de banda y de la línea de transmicion y es directamenteproporcional a ambos. Si se cambia el ancho de banda o la línea de transmicion, ocurrirá un cambio directamente proporcional en la capacidad de informacion. En 1948 se publico un articulo relacionado conla capacidad de informacion de un canal de comunicación al ancho de banda y la relación señal-ruido. Matemáticamente el limite de Shannon para la capacidad de informacion es:
I=B log2 (1+s/N)...
tracking img