Notas De Clase CD
Presenta
Luis Eduardo Morán López
Transmisión y comunicación de información
●
●
●
Transmisión : Transferencia física de datos (un flujo digital de
bits) por un canal de comunicación punto a punto o punto a
multipunto.
Comunicación : proceso mediante el cual se puede transmitir
información de una entidad a otra. Los procesos de
comunicación son interacciones mediadaspor signos entre al
menos dos agentes que comparten un mismo repertorio de los
signos y tienen unas reglas semióticas comunes.
Información : conjunto organizado de datos procesados, que
constituyen un mensaje que cambia el estado de conocimiento
del sujeto o sistema que recibe dicho mensaje.
Transmisión
●
Transmisión de datos entre dispositivos electrónicos
–
Transmisión analógica: estas señalesse caracterizan por el
continuo cambio de amplitud de la señal.
–
Transmisión
digital:
estas
señales
no
cambian
continuamente, sino que es transmitida en paquetes
discretos. No es tampoco inmediatamente interpretada, sino
que debe ser primero decodificada por el receptor.
Medida de la información
Nombre... Medida Binaria........ Cantidad de bytes...... Equivalente
Kilobyte (KB).......2^10................................................. 1024.................1024 bytes
Megabyte (MB).... 2^20...........................................1048576................. 1024 KB
Gigabyte (GB)..... 2^30...................................... 1073741824................1024 MB
Terabyte (TB)...... 2^40.................................1099511627776............... 1024 GB
Petabyte (PB)......2^50......................... 1125899906842624............... 1024 TB
Exabyte (EB)...... 2^60..................... 1152921504606846976.............. 1024 PB
Zettabyte (ZB)..... 2^70................ 1180591620717411303424............ 1024 EB
Yottabyte (YB)..... 2^80.......... 1208925819614629174706176........... 1024 ZB
Entropía
●
●
Entropía: el grado de desorden que tiene un sistema, en
comunicaciones esuna medida de información.
La medida de la entropía puede aplicarse a fuentes de
información de cualquier naturaleza, y nos permite codificarla
adecuadamente, indicándonos los elementos de código
necesarios para transmitirla, eliminando toda redundancia
(ejem: Compresión de datos).
●
●
●
H: entropía
Pk: probabilidades de que aparezcan los diferentes
códigos o símbolos.
m : Total de códigos osímbolos.
Ejemplo: Entropia
➔
Mensaje X = {c,b,b,c,b,a,c,b,b,a}
➔
Alfabeto S = {a,b,c}
➔
Análisis frecuencial:
➔
➔
➔
f(a) = 2/10
➔
f(b) = 5/10
➔
f(c) = 3/10
Entropía:
Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide en
bits.
Codificación
La computadora digital sólo puede utilizar dos símbolos: el cero (0)
y el uno (1), que son los únicosrepresentables por los
dispositivos electrónicos que componen la computadora. Por
tanto, para que el ordenador pueda manejar la misma
información que los humanos (textos, sonidos, imágenes, etc.),
hay que realizar una conversión de los signos de nuestros
lenguajes a ceros y unos (bits), a este proceso se le denomina
codificación de la información.
información
Ruido
En comunicación, se denomina ruido a todaseñal no deseada que se
mezcla con la señal útil que se quiere transmitir. Es el resultado de
diversos tipos de perturbaciones que tiende a enmascarar la
información cuando se presenta en la banda de frecuencias del
espectro de la señal, es decir, dentro de su ancho de banda.
Ruido
Atenuación
Se denomina atenuación de una señal, sea esta acústica, eléctrica
u óptica, a la pérdida de potenciasufrida por la misma al
transitar por cualquier medio de transmisión. si introducimos una
señal eléctrica con una potencia P2 en un circuito pasivo, como
puede ser un cable, esta sufrirá una atenuación y al final de
dicho circuito obtendremos una potencia P1. La atenuación (α)
será igual a la diferencia entre ambas potencias.
en términos de potencia
en términos de tensión
Teorema de Shannon...
Regístrate para leer el documento completo.