Ciencias
a) f por que eso es una canidad de energia no una unidad de enegia
b) V
c) V
d) F porque es de a B es isotérmico y B a C adiabática
e) V
Entropía
Entropía es unconcepto en termodinámica, mecánica estadística y teoría de la información. La Entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La Entropía puede serconsiderada como una medida de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el deentropía están ampliamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de información antes de que esto fuera percibido.
Este artículoversa sobre la Entropía, en la formulación que hace de ella la teoría de la información. Esta entropía se llama frecuentemente Entropía de Shannon, en honor a Claude E. shanon La Entropía también esentendida como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistemade símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan másinformación. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolosson igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.
Finalmente, la entropía de la teoría de la información está estrechamenterelacionada con la entropía termodinámica. En la termodinámica se estudia un sistema de partículas cuyos estados X (usualmente posición y velocidad) tienen una cierta distribución de probabilidad,...
Regístrate para leer el documento completo.