Entropía e Información

Páginas: 6 (1419 palabras) Publicado: 15 de septiembre de 2013


ENTROPÍA
E
INFORMACIÓN



Ampliación de Física Estadística

Índice

1. Introducción.

2. Desarrollo.
2.1. Definición de entropía
2.2. Definición de Gibbs y Boltzmann de la entropía.
2.3. Entropía y probabilidad.
2.4. Entropía e información.
2.5. Negaentropía
3. Conclusiones.

4. Bibliografía.








1. Introducción
La entropía es un concepto muy difícil dedefinir debido a su subjetividad. Muchos autores la definen como el grado de orden/desorden de un sistema, pero, ¿cómo definimos el desorden de un sistema? Este es el gran hito subjetivo de la entropía. Para explicarlo vamos a hacer uso de un ejemplo:
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas:azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en laprimera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden.
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas.
La entropía de este sistema ha aumentadoal ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja.
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir,antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio enlas condiciones de un sistema.
Gibbs describió la entropía como grado de mezcla, ahí ya nos pone de manifiesto que veía la entropía desde el punto de desordenamiento de un sistema (coloquialmente “mezcla” significa desorden).





2. Desarrollo
2.1. Definición de entropía
La entropía en termodinámica es un potencial que define el estado de un sistema, análogo a otros como la energíainterna o la energía libre de Gibbs. Fue introducida por R. Clausius en la década de 1850 y definió su variación como:

Esto solo nos permite calcular variaciones de entropía, pero se puede dar un valor a la entropía a partir del tercer principio de la termodinámica tomando como punto de referencia la entropía cero en el cero absoluto de temperatura.
La entropía nos permite conocer la direcciónespontanea de los procesos, puesto que en un proceso espontaneo e irreversible la entropía de un sistema aislado siempre aumenta, hasta llegar al equilibrio, donde se alcanza la máxima entropía. Además también nos indica la reversibilidad de un proceso, puesto que si la entropía no varía sabemos que el proceso es reversible.
Las interpretaciones que se han dado a la entropía son variadas. Se larelaciona con el desorden (aunque esto es algo ciertamente subjetivo), con la energía inútil para producir trabajo o con el calor intercambiado en una reacción isoterma, pero ahora vamos a darle otro enfoque basado en la estadística para llegar a relacionarla con la información disponible de un sistema.

2.2. Definición de Gibbs y Boltzmann de la entropía.
La entropía para un sistema fuera del...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • brillouin ENTROpia e informacion 1
  • Entropia (caos de la informacion)
  • Teoría De La Información. Entropia De Shanon
  • Entropia
  • Entropía
  • entropia
  • La Entropia
  • Entropia

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS