Entropia e informacion

Solo disponible en BuenasTareas
  • Páginas : 6 (1280 palabras )
  • Descarga(s) : 0
  • Publicado : 26 de abril de 2011
Leer documento completo
Vista previa del texto
TEORIA DE SISTEMAS
BOGOTA D.C
2011

TABLA DE CONTENIDO
Pg.
1. Introducción…………………………………………………………………. 4
2. Objetivos…………………………………………………………………….. 5
3. Contenido……………………………………………………………………. 6
* Definición Entropía …..…………………………………………….. 6
* Relación entropía einformación……………………………………7
* Ejemplo………………………….…………………………………… 8
4. Conclusiones……………………………………………………………….. .9
5. Webgrafia……………………………………………………………………..10

INTRODUCCION

Este trabajo es realizado con el fin de darnos un conocimiento más profundo respecto, a varios de los temas que hemos manejado durante las clases. en esta ocasión es respecto a la entropía e información, exponiéndolos conalgunos ejemplos y una definición un poco encaminada así el área q a mi concierne.
Gracias a estas definiciones al final de este texto encontraremos los beneficios académicos que nos trajo consigo el desarrollo de este.

OBJETIVOS

* OBJETIVO GENERAL

Este trabajo se realizó con el fin de extender nuestros conocimientos respecto a un tema en específico como lo es la entropía respecto a lainformación, junto a la introducción a unos temas más específicos que tendremos en cuenta mas adelante.

* OBJETIVOS ESPECIFICOS

1) Consultar conceptos básicos sobre los sistemas
2) Tener en cuenta la diferencia entre los dos términos que se están estudiando
3) Relacionar con ejemplos de la vida real , para poder tener un conocimiento mas amplio respecto a los temas incluidos enel marco teórico
4) Reunir estos conceptos y tenerlos disponibles en caso de necesitarlos

CONTENIDO

Como ya hemos mencionado la entropía de Shannon y Gibbs se suelen interpretar como una medida de nuestra desinformación sobre el sistema, por ejemplo, las ecuaciones (10) y (12) implican que sí se pudiese determinar el sistema en un micro estado particular la entropía del estado seríacero ya que hay un solo caso posible. Esto quiere decir que si como observadores dispusiéramos de una completa descripción del sistema la entropía del mismo se anularía.
Ahora bien, esta interpretación es teóricamente insatisfactoria ya que hace de la entropía una propiedad dependiente del observador y no una característica intrínseca de los sistemas físicos, por ejemplo, si un observador pudieseobtener una descripción de un sistema en equilibrio más detallada que otro la entropía del sistema sería menor para el primero lo cual a su vez -debido al Cuarto Postulado de la Termodinámica- implicaría que la energía del sistema es menor para le primer observador que para el segundo.
A. ¿Es posible definir la entropía de un microestado particular?
W.H. Zurek sostiene la hipótesis de que laentropía es una propiedad objetiva de los sistemas físicos, siguiendo este razonamiento encontramos que para un sistema con todas sus variables fijas la entropía no es cero, ya que no depende de nuestra desinformación del mismo. Recordando el contenido de información algorítmica, sea ψ un sistema descrito por un conjunto de mensajes si cada uno con probabilidad pi de ser enviados, definimos lainformación algorítmica promedio como
hKiψ ≡ X I piK(si)
Un importante resultado de la teoría de información algorítmica es
HKi ∼= I
A mayor cantidad de micro estados del sistema menor es la diferencia entre hKi e I; por ejemplo si consideramos el caso de un sistema termodinámico en el equilibrio, como ya vimos, las probabilidades de los micro estados están fuertemente determinadas por la homogeneidaddel sistema y por ende son fácilmente describibles por K0, por otra parte cuando aplicamos la termodinámica a un sistema nos estamos refriendo a un orden de partículas
Por lo tanto tenemos intuitivamente una gran cantidad de información y un conjunto de probabilidades muy parecidas y en esta situación K0 es despreciable respecto a la cantidad de micro estados posibles y la ecuación es...
tracking img