Incerteza Estadistica
Sobre, MEDICIONES FÍSICAS. Por: Leandro Prevosto, Beatriz Mancinelli.1
1
Basado fuertemente en: MEDICIONES FÍSICAS, Prof. Dr. Jose A. Balseiro,1954.
MEDICIONES FÍSICAS
Página 1/26
MEDICIONES FÍSICAS Significado de la medición de una magnitud. Medir una magnitud física es asociar a la misma un valordimensionado en relación a la unidad que arbitrariamente se ha definido para medirla. Así medir una distancia, significa establecer el número de veces que la unidad de longitud está contenida en dicha distancia. La operación de medir una magnitud supone a priori que tal magnitud tiene un valor verdadero, no obstante las dificultades lógicas que aparecen en cuanto se trata de precisar con rigor el significadode este concepto. No existen ni pueden existir instrumentos que permitan medir sin error alguno una magnitud física. Podemos medir p.e. la carga del electrón con una aproximación tanto más grande cuanto mejor sea el método que imaginamos para hacerlo; pero en ningún caso podemos medir la "verdadera" carga del electrón. Además, en muchos casos, en cuanto extremamos la aproximación con que medimosuna magnitud la propia magnitud carece de sentido. Así, si medimos la longitud de una barra rígida con una escala métrica, con una escala con vernier, con métodos ópticos, etc. obtenemos valores de esa longitud que decimos son más aproximados; pero, qué sentido tiene medir esa longitud con una aproximación del orden o mayor que la distancia (10-7 cm) que separa a los átomos que forman la barrarígida? Solamente como una excepción muy particular, cuando el número que mide una magnitud es necesariamente un número entero se puede afirmar que es rigurosamente exacto. P.e. el número de electrones en un átomo. Con las restricciones que el caso exige necesitamos del concepto de valor verdadero de una magnitud, al menos como hipótesis de trabajo. Más adelante, al tratar los errores estadísticospodremos precisar más este concepto. Lo que importa, ahora, es destacar que la medida de una magnitud difiere siempre en algo del verdadero valor de la misma. Dar simplemente un número como medida de una magnitud sin precisar el error de que está afectado, sea aproximadamente, sea en términos de probabilidades no significa mucho. Una medida tiene sentido sólo cuando se puede valorar de una u otraforma el error de que está afectada. Errores. Error relativo. Precisión de una observación. Se llama error de la observación X ' respecto de cierto valor X a: ∆X = X − X ' Según el significado de X (valor verdadero, valor medio o valor más probable) es la denominación que se la da al error ∆X . Por ahora, supondremos que X es el valor verdadero; en tal caso ∆X es el error absoluto o error verdadero.Para intentar averiguar el valor verdadero de una magnitud se procede, como luego se verá, a realizar una colección de medidas experimentales de n observaciones, que proporcionan a posteriori un valor óptimo aproximado, p.e. la media aritmética de tales medidas, y una cota de error absoluto ∆X .Suele presentarse, en esas circunstancias, como resultado experimental:
X = X ± ∆X, con X =
1 n∑X
i =1
n
i
donde X i es la observación i-ésima de la magnitud X. Lo que quiere significar que la magnitud medida se encuentra dentro del intervalo [ X - ∆X, X + ∆X ], con una determinada probabilidad. Por definición ∆X es siempre positivo. El sólo enunciado del error de una observación no es suficiente para caracterizar la aproximación o precisión de la misma. Sea p.e. la medida de unadistancia de 1 m con una regla que produce un error de 2 mm. El error por unidad de escala (el mm) es: 2 = 0.002 1000 Si medimos en cambio el diámetro de un alambre de 1 mm con un tornillo micrométrico que nos da un error de 0.01 mm el error por unidad de escala es de 0.01. En el primer caso tenemos por unidad de escala un error cinco veces menor que en el segundo. El error por cada unidad en...
Regístrate para leer el documento completo.