Entropia (caos de la informacion)
INTRODUCCION:
Entropía es equivalente al desorden. Así, cuando decimos que aumentó la entropía en un sistema, significa que creció el desorden en ese sistema. Y a la inversa: si en un sistema disminuyó la entropía, significa que disminuyó su desorden.La palabra entropía procede del griego (ἐντροπία){1} y significa evolución o transformación. La formulación matemática de la variación de entropía de un sistema, luego de una transformación o evolución entre los estados inicial y final del mismo, se corresponde con la integral definida entre el instante inicial y final de los incrementos o diferenciales del componente o sistema en evolución,divididos por la cantidad de elementos que van integrando al componente o sistema en cada instante.
La resolución matemática de la integral planteada para la determinación de la variación de la
entropía de un sistema entre los estados inicial y final, resulta ser el logaritmo natural de uno (1) (cantidad de componentes o sistemas resultantes en el instante final), dividido por la cantidad deelementos que fueron integrados al componente o sistema resultante entre los instantes inicial y final de la evolución.
La medida de la entropía permite establecer el orden que posee un sistema en determinada instancia, respecto al que poseía o pudo haber poseído en otra. Así, podría determinarse la diferencia de entropía para la formación o constitución de un sistema a partir de sus componentesdesagregados, y también para cualquier proceso que pueda ocurrir en un sistema ya constituido.
El orden que adquirió un sistema en su constitución puede medirse por la diferencia entre la entropía del sistema constituido, y la que supuestamente poseía cuando todos los N entes físicos elementales que lo componen, existían desagregados e indiferenciados en el nivel de referencia correspondiente alprimer nivel de agregación. En dicho nivel, la entropía para cualquier conjunto de una cantidad finita N de “entes físicos” desagregados, resulta igual a 0 (cero), a saber:
Es (0) = N • = N • ln 1 = N • 0 = 0 (cero)
La variación del “orden” en un sistema ya constituido se determina por la diferencia entre la medida de la “entropía” del sistema para los
instantes inicial (o) y final (f) de unproceso en estudio. Para ello, se debe considerar la “entropía” de todos los “componentes” existentes dentro del sistema, tanto la de los “componentes” que constituyen el sistema en sí, como la “entropía” de los “componentes de flujo” que circulan por el mismo.
MODELO DE SHANNON Y WEAVER
La teoría de la información, formulada a finales de los 40 por el ingeniero Claude E. Shannon. En su intenciónoriginal esta teoría es de un alcance muy acotado, debido a que se refiere solo a las condiciones técnicas que la transmisión de mensajes, pero eso no impidió que lograra una amplia repercusión y terminara elevada a la calidad paradigma. Su primera versión apareció en el Bell System Technical Journal de octubre de 1948, perteneciente a la Bell Telephone Laboratories, organización a la que Shannonse encontraba procesionalmente ligado.
Poco después el sociólogo Warren Weaver redacto un ensayo destinado a enfatizar las bondades de esta propuesta, que fue publicado junto al texto anterior en julio de 1949. El trabajo de shannon se titula The Mathematical Theory of comunication. En conjunto dieron lugar a un pequeño libro que tomo el titulo del primero de ellos. De este modo, la unión de...
Regístrate para leer el documento completo.