Ensayo
Curso virtual Contabilidad en las organizaciones - SENA.
TEMA: Los Sistemas de información contable y su función en la
organización
1. LA TEORÍA SINTÁCTICA DE LA INFORMACIÓN1
Esta teoría fue Desarrollada por C.E. Shannon y W. Weaver. La sintaxis se refiere a la teoría
matemática de la información también llamada teoría métrica de la información o teoría sintáctica
de la información.Esta teoría no se ocupa del contenido semántico del conjunto de mensajes, del
cual selecciona uno para trasmitirlo, sino que centra su atención en las señales que son
transmitidas independiente de su significado. La sintaxis se abstrae de todo contenido semántico y
pone su atención en cómo se forman y transforman los signos.
Supongamos que existen en total n mensajes entre los que podemosescoger, también
supongamos que cada mensaje tiene la misma probabilidad de ser escogido que cualquier otro
mensaje, ese número n se puede usar como una medida de la cantidad de
contenida en el conjunto de mensajes que pueden ser transmitidos. Pero al existir paridad entre
los mensajes, es decir que todos los mensajes tengan igual probabilidad de ser seleccionados, se
ha
adoptado el Log n, envez de n para medir el contenido informativo de un sistema de
comunicación.
El sistema más sencillo, que tiene un repertorio de dos mensajes, conocido como sistema binario,
tiene como base el 2, y el contenido informativo sería Log2 2 = 1 (La unidad), esta unidad es
llamada BIT binary unit: unidad binaria, y significa que el contenido informativo de este sistema es
de un bit.
Peroesta medida de la información en este sistema informativo esta limitada a la paridad
probabilística que deben tener los dos mensajes, la cual en la realidad no se presenta. Es por eso
1
SINGH, Jagjit. Ideas Fundamentales Sobre la Teoría de la Información, del Lenguaje y de la
6
que la medida de información propuesta anteriormente, el Log2 2 debe ser corregida, y la clave
para lacorrección está en el hecho de que la falta de paridad probilística entre los mensajes de un
sistema, puede ser la probabilidad de que cada uno de ellos pueda ser elegido.
Se puede generalizar un sistema que incluya más de dos mensajes, por ejemplo n mensajes, cada
uno con su propia probabilidad de ser elegido p1, p2, p3,...,pn. La suma de la información del
sistema total será la suma ponderada de lacontribución probabilística Log2pi así, la fórmula para
medir el contenido de información queda de la siguiente forma:
-(p1 Log2 p1 + p2 Log2 p2 + p3 Log2 p3 + …+ pn Log2 pn)
Se observa claramente que el contenido informativo de un conjunto de mensajes es una función de
las probabilidades de ocurrencia de cada uno de los mensajes comprendidos en el conjunto que
conforma el sistema, lo quesignifica, que cambiando el patrón probabilístico de cualquiera de los
mensajes, se cambia el contenido informativo del sistema total.
Supongamos el sistema de símbolos de la clave Morse que es un sistema binario: el punto y la
raya. La probabilidad de seleccionar una raya es 9/10 = 0.9, y la de un punto 1/10 = 0.1, el sistema
puede ser descrito usando los logaritmos, la información aportadapor una raya será Log2 0.9 y la
aportada por un punto será Log2 0.1. La información total del sistema es la suma de los dos
elementos, donde cada uno aporta su probabilidad de ser seleccionado:
-(0.9 Log2 0.9 + 0.1 Log2 0.1) = 0.476 bits.
Ahora supongamos un sistema con más de dos mensajes: M1, M2 y M3, con probabilidades de ser
seleccionados de 1/2, 1/3 y 1/6 respectivamente, El contenidoinformativo del sistema sería:
-(1/2 Log2 1/2 + 1/3 Log2 1/3 +1/6 Log2 1/6) = 1.46 bits.
Ahora cambiemos el patrón probabilístico del ejemplo anterior para observar como cambia el
contenido informativo del sistema total, la probabilidad de ser seleccionado cada mensaje M1, M2
Cibernética. Madrid: Alianza Editorial, 1972.
7
Y M3 es 2/3, 1/4 y1/12 respectivamente, el contenido...
Regístrate para leer el documento completo.