Instrumentos y mediciones
Dra. María de los Dolores Ayala Velázquez Departamento de Física, División de CBI Realizar mediciones requiere el uso de algún instrumento que dará un número que representa la relación de la cantidad observada a una de las unidades patrón conocidas. Una medición es una comparación de la cantidad desconocida con la unidad estándar. El aparato oinstrumento de medición indica la magnitud de la cantidad medida por medio de algún sistema indicador. Para ello es necesaria su calibración, que consiste en obtener la relación funcional entre la magnitud medida y la indicación, mediante la comparación directa o indirecta con una referencia o patrón que engloba, posee o genera una magnitud fija o reproducible de la cantidad física que se toma como launidad o bien, algún múltiplo o fracción de la unidad. Cualquier cantidad medida puede expresarse entonces como un número (que es la razón de estas magnitudes) y el nombre de la unidad. Medir Al medir obtenemos una respuesta aproximada de la magnitud de interés y las mediciones no son nunca números ''exactos''. Tenemos que conformarnos con valores medidos que toman la forma de intervalos, dentro de loscuales tenemos confianza de que se encuentra el valor deseado. El acto de medir implica que determinemos la ubicación y la extensión de ese intervalo, lo cual requiere que cada vez que midamos apliquemos el uso cuidadoso del juicio y de la apreciación visual. Los extremos del intervalo pueden ser encontrados por separado uno del otro. Si m representa el valor de la cantidad medida, se define oidentifica el intervalo (m1, m2) en la escala del instrumento para el cual podemos afirmar, con una seguridad que en general, es relativa, que: m < m2 y m > m1, de manera que m1 < m < m2.
Si la mínima división de la escala del instrumento es de tamaño apreciable y la respuesta del instrumento no fluctúa, es decir, no oscila (indebidamente) para
una entrada constante, es posible que se puedamedir una magnitud bien definida y constante, con cierto optimismo y una buena agudeza visual, leyendo en la escala del instrumento y estimando una cierta fracción dentro de la mínima división, procedimiento que recibe el nombre de interpolación. También al interpolar, es necesario estimar el tamaño del intervalo de confianza, con un criterio que sea compatible con la capacidad de interpolación quenos reconocemos.
El resultado de toda medición debe especificarse como un intervalo
No hay una regla universalmente válida para determinar el tamaño del intervalo. Podemos identificar algunos factores que influyen en su extensión: 1) 2) Tipo de medición; Resolución de la escala, que determina el valor de la mínima división y la manera en que se hace su lectura (corte o redondeo); 3) 4) 5)Condiciones físicas y de iluminación de la escala; Agudeza visual del observador; Error de paralaje causado por una separación apreciable entre la escala y el objeto que se mide, y que hace que su posición relativa varíe con cambios en la posición del ojo y la dirección desde la que observamos.
Suponer que el tamaño del intervalo es siempre igual a la mitad de la mínima división de la escalagraduada del instrumento usado es una sobre simplificación peligrosa, a menudo errónea
Por ejemplo, podemos usar un instrumento con escala muy fina para medir un objeto con orillas mal definidas y el intervalo tendrá un ancho varias veces mayor que la división más pequeña de la escala. Por el contrario, en algunos casos, un objeto bien definido y buenas condiciones de iluminación y de observaciónpermiten un intervalo de tamaño inferior a la escala mínima. Por esta razón, cada situación debe ser evaluada por separado. Una forma alterna de expresar el intervalo (m1, m2) es como:
m = mc ± Δm Aquí se introdujo el valor central, que es Y la incertidumbre absoluta: mc = {m1 + m2} / 2
Δm = | m1 - m2 | / 2
recibe también el nombre de error absoluto. En metrología moderna se sugiere...
Regístrate para leer el documento completo.