El proceso de medicion
El Proceso de Medición
1- Errores de Medición
1.1 – Significado de la medición de una magnitud
Medir una magnitud física es asociar a la misma un valor dimensionado en relación a la
unidad que arbitrariamente se ha definido para medirla. Por ejemplo, medir una distancia
significa establecer el número de veces que la unidad de longitud (cm., m., pulgada, etc.)
está contenida endicha distancia.
La operación de medir supone a priori que tal magnitud tiene un valor verdadero, no
obstante las dificultades lógicas que aparecen en cuanto se trata de precisar con rigor el
significado de este concepto. No existe ni pueden existir instrumentos que permitan medir
sin error alguno una magnitud física. Podemos medir la carga de un electrón con una
aproximación tanto mayorcuanto mejor sea el método que imaginamos para hacerlo, pero
en ningún caso podemos medir la carga verdadera del electrón. Por otra parte, en muchos
casos, en cuanto extremamos la aproximación con que medimos una magnitud la propia
magnitud carece de sentido. Por ejemplo, si medimos la longitud de una barra rígida con
una escala métrica, con un catetómetro o con métodos ópticos, obtenemos de dichalongitud
que decimos que en cada caso son mas aproximados; pero ¿qué sentido tiene medir dicha
longitud con una aproximación del orden de la distancia que separan los átomos
Ο
(1 Α = 10 −7 cm. ) que forman la barra rígida?
Solo como una excepción muy particular, cuando el número que mide una magnitud es
necesariamente un número entero se puede afirmar que la medida es rigurosamente exacta.Por ejemplo, el número de franjas de interferencia producidas por un interferómetro.
Aun con las restricciones que el caso exige, necesitamos del concepto de valor verdadero
de una magnitud, al menos como hipótesis de trabajo. Mas adelante al tratar los errores
estadísticos podremos precisar algo más este concepto. Lo que importa, ahora, es destacar
que la medida de una magnitud difieresiempre en algo del valor verdadero de la misma.
Dar simplemente un número como medida de una magnitud sin precisar el error de que esta
afectado, sea aproximadamente, sea en términos de probabilidades, no significa mucho.
Una medida tiene sentido sólo cuando se puede valorar de una forma u otra el error de
que está afectada.
El apreciar el error de una medición es el objeto del cálculo deerrores.
1.2 – Errores, error relativo, precisión de una observación y de un instrumento.
Definimos como error de la observación X´, respecto a cierto valor X a:
∆X = X − X ´
(1.1)
según el significado de X (valor verdadero, valor medio o valor aproximado) es la
denominación que se le da al error ∆X . Supongamos por el momento que X es el valor
verdadero, en tal caso ∆X es denominado errorabsoluto o error verdadero.
El solo enunciado del error de una observación no es suficiente para caracterizar la
aproximación o precisión de la misma. Por ejemplo, si la medida de una distancia es de 1
m., obtenida con una regla que produce un error de 2 mm., el error por unidad de escala (el
mm.) es:
1
2
= 0.002
1000
Si medimos, en cambio el diámetro de un alambre de 1mm. Con un tornillomicrométrico
0.01
que nos da un error de 0.01 mm., el error por unidad de escala es de 0.01 (
). En el
1
primer caso tenemos un error por unidad de escala cinco veces mayor que en el segundo. El
error por cada unidad en las cuales se mide la magnitud a determinar se llama error
relativo:
∆X
(1.2)
X
a los fines prácticos sólo se requieren valores aproximados del error relativo, de maneratal
que utilizando (1.1) en (1.2) obtenemos
∆X
∆X
∆X
=
e=
≈
(1.3)
X
X ´+ ∆X
X´
La (1.3) define el error relativo de la observación X´, y es calculado siempre que se pueda
evaluar ∆X .
Algunas veces el error relativo no se da por cada unidad sino por cada 100 unidades. En tal
caso se define el error porcentual como:
∆X
e% =
100
(1.4)
X´
El valor inverso del error relativo...
Regístrate para leer el documento completo.