Entropia

Solo disponible en BuenasTareas
  • Páginas : 9 (2211 palabras )
  • Descarga(s) : 0
  • Publicado : 26 de mayo de 2011
Leer documento completo
Vista previa del texto
Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. La Entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La Entropía puede ser considerada como una medida de la incertidumbre, y la información tiene que ver con cualquier proceso que permite acotar, reducir o eliminar la incertidumbre; resulta que el concepto deinformación y el de entropía están ampliamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto deviniera aparente.
Este artículo versa sobre la Entropía, en la formulación que hace de ella la teoría de la información. Esta entropía se llama frecuentemente Entropía de Shannon, en honor a Claude E.Shannon.
Finalmente, la entropía de la teoría de la información está estrechamente relacionada con la entropía termodinámica. En la termodinámica se estudia un sistema de partículas cuyos estados X (usualmente posición y velocidad) tienen una cierta distribución de probabilidad, pudiendo ocupar varios microestados posibles (equivalentes a los símbolos en la teoría de la información). La entropíatermodinámica es igual a la entropía de la teoría de la información de esa distribución (medida usando el logaritmo neperiano) multiplicada por la constante de Boltzmann k, la cual permite pasar de nats (unidad semejante al bit) a J/K. Cuando todos los microestados son igualmente probables, la entropía termodinámica toma la forma k log(N). En un sistema aislado, la interacción entre las partículastienden a aumentar la dispersión de sus posiciones y velocidades, lo que causa que la entropía de la distribución aumente con el tiempo hasta llegar a un cierto máximo (cuando el mismo sistema es lo más homogéneo y desorganizado posible), lo que es denominado segunda ley de la termodinámica. La diferencia entre la cantidad de entropía que tiene un sistema y el máximo que puede llegar a tener sedenomina neguentropía, y representa la cantidad de organización interna que tiene el sistema. A partir de esta última se puede definir la energía libre de Gibbs, la que indica la energía que puede liberar el sistema al aumentar la entropía hasta su máximo y puede ser transformada en trabajo (energía mecánica útil) usando una máquina ideal de Carnot. Cuando un sistema recibe un flujo de calor, lasvelocidades de las partículas aumentan, lo que dispersa la distribución y hace aumentar la entropía. Así, el flujo de calor produce un flujo de entropía en la misma dirección.
En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistemaaislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850.[1] [2] Y Ludwig Boltzmann quien encontró la manera de expresar matemáticamenteeste concepto, desde el punto de vista de la probabilidad.[3]
Evidencias
Cuando se plantea la pregunta: "¿Por qué ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?", se busca una respuesta que indique cuál es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente seenfriará, y el trozo frío se calentará, finalizando en equilibrio térmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
La función termodinámica entropía es central para la segunda Ley de la...
tracking img