Entropia
Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. La entropía se concibe comouna "medida del desorden" o la "peculiaridad de ciertas combinaciones". Como la entropía puede ser considerada una medida de la incertidumbre, y la información tiene que ver con cualquier proceso quepermite acotar, reducir o eliminar la incertidumbre; resulta que el concepto de información y el de entropía están ampliamente relacionados entre sí, aunque se necesitaron años de desarrollo de lamecánica estadística y de la teoría de la información antes de que esto deviniera aparente.
"La física define la entropía como una expresión matemática del grado en que se distribuye un sistematermodinámico de modo que no pueda convertirse en trabajo. En términos metafóricos más generales, se puede considerar la entropía como la irreversible tendencia de un sistema, incluyendo el universo, hacia lainercia y el desorden crecientes. Ello significa que las cosas tienden a empeorar cada vez más, hasta que al final todo irá tan mal que incluso nos faltarán los medios para saber cuán mal están."Entropía
[La formulación matemática de la segunda ley, debida a Clausius (1865), introduce una nueva función de estado, la entropía, definida como
(1.6)
donde SA es el valor (arbitrario) que...
Regístrate para leer el documento completo.