Tecnologia de la informacion y la comunicacion

Solo disponible en BuenasTareas
  • Páginas : 5 (1060 palabras )
  • Descarga(s) : 0
  • Publicado : 5 de septiembre de 2012
Leer documento completo
Vista previa del texto
TRABAJO PRÁCTICO
INTEGRADOR: TECNOLOGIA DE LA COMUNICACIÓN Y LA INFORMACIÓN

Teoría de la Información

Concepto:

➢ es una rama de la Teoría de la Matemática, de las probabilidades y de la estadística que estudia todo lo relacionado con ellas.

➢ La Teoría de la Información es una teoría matemática creada por Claude Shannon en el año 1948 y que forma la piedra angular sobre laque se ha desarrollado toda la teoría actual de la comunicación y la codificación.

➢ Esta teoría establece los límites de cuánto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información. La Teoría de la Información es, por tanto una teoría de límitesalcanzables: máxima compresión de datos y máxima tasa de transmisión de información transmitida sin errores.

Esta teoría fue formulada en 1940 por el ingeniero Claude E. Shannon, y aparece publicada por primera vez en octubre de 1948. Posteriormente el sociólogo Warren Weaver redactó un ensayo destinado a enfatizar las bondades de esta propuesta, el cual fue publicado en 1949.Weaver, define los 3 niveles en que se abordan generalmente los problemas de Comunicación:

➢ TÉCNICO



➢ SEMÁNTICO



➢ PRAGMÁTICO

Modelo de Comunicación presentado por Shannon y Weaver

[pic]



Shannon desarrolló la “Teoría matemática de las comunicaciones”

Objetivo: Hacer lo maseficiente posible la transmisión de información, con un número mínimo de errores.

Para lograr este objetivo se utiliza el SISTEMA BINARIO.

El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamentecon dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Unidad de Información: unidades básicas de información definidas por 2 estados posibles SI/ NO, 0/1, abierto y cerrado, verdadero y falso.

BIT: dígito binario, es la cantidad mínima de información y unidad básica del sistema digital.



Para entendermejor este concepto Unidad de medida de información comencemos haciendo la siguiente suposición.

Observemos la siguiente hoja cuadriculada:

[pic]

Esta Hoja que posee 81 cuadritos, que podría compararse con el espacio total disponible en la memoria RAM o en un cualquier dispositivo de almacenamiento. Cada cuadro sería utilizado para colocar dentro un carácter, como se muestra en elsiguiente ejemplo:

[pic]

Podemos observar como cada letra o carácter ocupa un cuadro y que inclusive los espacios en blanco entre palabras y los signos de puntuación como el punto también ocupan uno de los cuadros. Se han ocupado 29 cuadritos lo que nos deja como resultado un espacio disponible en la hoja de 52 cuadros. Si una frase de 5 palabras utilizó 29 espacios, entonces no esposible que una página de un libro quepa en los 52 cuadros restantes. Podemos decir que cada carácter equivale en medida de información a un byte. Es importante saber que un byte está compuesto de 8 bits;



Si existen N posibilidades, todas igualmente probables, la cantidad de información será igual a Log2N. Es, entonces, el Log2N la función matemática que nos indicará la cantidad de bitsde información de una situación determinada. Esto puede esquematizarse de la siguiente manera: [pic]

La figura nos muestra una situación con 8 posibilidades, cada una con una misma probabilidad de 1/8. Para poder determinar una posibilidad específica de estas 8, la elección requiere como mínimo 3 etapas, cada una de las cuales arroja un bit de información.

A) El primer bit...
tracking img