Entropia
Es una noción que puede traducirse como “vuelta” o “transformación” (utilizado en sentido figurado). del alemán Entropie, acuñado por el físico alemán Rudolf Clausius a partir del griego antiguo ἐντροπία (entropía, "giro"), de ἐν (en) y τροπή (tropé, "vuelta").
En el siglo XIX Clausius acuñó el concepto en el ámbito de la Física para referirse a una medida del desorden que puede verseen las moléculas de un gas. A partir de entonces este concepto se utilizaría con diversos significados en múltiples ciencias, tales como la física, la química, la informática, la matemática y la lingüística.
Se entiende por entropía también a la medida del desorden de un sistema. En este sentido, está asociada a un grado de homogeneidad.
El concepto de entropía proviene originariamente de latermodinámica que es la rama de la física que estudia fenómenos en los que interviene el calor. Uno de los posibles enunciados de la Segunda Ley de la Termodinámica (enunciada por S. Carnot en 1824) involucra la entropía:
“La evolución espontánea de un sistema aislado se traduce siempre en un aumento de su entropía“
y la entropía puede entenderse de forma general como una magnitud que identificala cantidad de desorden dentro de un sistema físico (si queremos ser más precisos: mide la cantidad de energía de un sistema físico que no puede utilizarse para realizar trabajo mecánico) . Por lo tanto, la segunda ley de la termodinámica dice que los sistemas aislados tienden al desorden. Desde este punto de vista, la existencia de vida puede considerarse como una singularidad en la entropía (unevento de entropía decreciente) y como resultado de un sistema emergente.
Basándose en el concepto procedente de la termodinámica y la mecánica estadística, Claude Shannon introdujo la entropía en la teoria de la comunicación o de la información que había desarrollado en 1948. El concepto adquiere entonces el significado de número que mide la incertidumbre de un mensaje. Por lo tanto, la entropíaes nula cuando la certeza es absoluta.
Cuando añadimos información a un objeto físico lo que estamos haciendo es ordenar de una forma determinada los elementos que componen el sistema de ese objeto. Por ejemplo, considerando un producto de una fábrica. Para este objeto recopilamos las características físicas del mismo (material, forma, tamaño, color,…) y las características propias de su diseño yfabricación (documentación, versionado, iteración, autor, workflow,…), es decir, estamos ordenando el objeto a través de su información tecnológica. Cualquier cambio aleatorio en las mismas provoca una pérdida de orden, un aumento de la entropía. La misma idea se puede aplicar a las informaciones de tipo conocimiento o de tipo logístico. Información sobre datos.
Una organización puedeconsiderarse como un sistema en que la se genera información a partir de datos. Cuando la empresa alcanza un nivel crítico los niveles de datos e información del mismo han crecido de forma exponencial y tienden a la desorganización (pérdida de datos, lenta localización de los mismos, aumentos de los gastos en recursos, pérdida de capacidad de reacción frente a los cambios del mercado).
Por lo tanto, nosencontramos en la situación anterior. Como todos los sistemas, se presenta una tendencia al aumento de la entropía. Por lo tanto, es necesario mecanismos para reducir la entropía. Es cuando entra en juego, la gestión de la información a través de herramientas. Una forma de entender las herramientas de gestión de la informactión es como agentes cuyo objetivo es frenar o disminuir la entropíainhenrente a las organizaciones. Con lo que se añade energía al sistema para corregir el desorden.
En la teoría de la información, la entropía es la medida de la incertidumbre que existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno solo). Se trata de una medida de la información que es necesaria para reducir o eliminar la incertidumbre.
Otra manera de entender la entropía es como...
Regístrate para leer el documento completo.