ensayo historia de la fisica
medidas y el cálculo de errores
Medida y Error
Aquellas propiedades de la materia que son susceptibles de ser medidas se llama magnitudes; son las propiedades que estudia la Física mediante el método científico.
Medir una magnitud física es compararla con un valor de la misma que, por convenio, tomamos como patrón o unidad. Como resultado obtenemos elnúmero de veces que esta unidad está contenida en nuestra magnitud, así que siempre tenemos que referirnos a esa unidad empleada, de lo contrario la medida no tiene sentido. Ejemplo: una masa puede ser 21.3 g, pero no 21.3.
¿Qué clase de números deberían ser los resultantes de la operación de medir?
Evidentemente deberían de ser números reales, es decir, números con infinitos dígitos decimales.¿Cuántos de esos dígitos conseguiremos conocer del valor de la magnitud?
¿Podríamos obtener tantas como quisiéramos?
Dentro de la Física Clásica, es posible obtener tantas cifras como nuestra habilidad y la perfección de los instrumentos nos permita. La realidad es que estas limitaciones impiden conocer más allá de las primeras cifras del verdadero valor de la magnitud.
¿Qué podemos, entonces,obtener de un proceso de medida?
Sólo podemos determinar un intervalo en que es probable que esté el verdadero valor de la magnitud. Por ejemplo: si decimos que una masa es de 21.3 g; queremos decir realmente que es probable que esté entre 21.2 g y 21.4 g.
Este intervalo de valores no tiene por qué ser siempre igual, lo expresaremos en general como:
Entre más estrecho sea el intervalo, mejorconoceremos el verdadero valor de la magnitud que medimos. Siguiendo con el ejemplo de la masa, escribiríamos (los paréntesis son necesarios ya que la unidad multiplica a los dos números):
La forma de calcular ese intervalo de valores se denomina cálculo de errores.
Formas de expresar los errores: Absoluta y Relativa
Aunque aún no sabemos calcularlo, adelantaremos que ese intervalo se expresamatemáticamente de dos formas, que reciben nombres distintos:
ERROR ABSOLUTO (Δx): El error absoluto del resultado de unas medidas es la mitad del intervalo de valores en que, según las medidas, estará el verdadero valor de la magnitud física [1]. Δx = | ‹x› - x | donde ‹x› es el valor promedio medido.
Los errores absolutos se escriben precedidos por el signo ± y seguido de sus unidades. Así, enel ejemplo del instrumento anterior, el error absoluto sería: ± 0.1 g. El error absoluto indica cómo es de bueno nuestro conocimiento de una magnitud física, pero es poco útil para comparar el conocimiento que tenemos sobre dos o más magnitudes. Así, si medimos dos masas de 1 Kg y de 1 g, con el mismo error absoluto de 0.1 g, es evidente que conocemos con más precisión la primera, y el errorabsoluto no sirve para expresarlo. Para evitar esta limitación del error absoluto, definimos:
ERROR RELATIVO (Δx/x): El error relativo es el cociente entre el error absoluto y el valor del centro del intervalo [1]. Al error relativo se le denomina también “precisión de la medida”. El error relativo carece de unidades y suele expresarse en %: (Δx/x) · 100%.
Conocemos ahora cómo se representanmatemáticamente los errores. Antes de tratar el problema de calcularlos, estudiaremos cuáles son las causas más comunes de error y cómo subsanarlas.
¿DE DÓNDE PROVIENEN LOS ERRORES?
En una medición intervienen el operador, el patrón de medida (o un instrumento calibrado) y el sistema físico del que se desea medir alguna magnitud. Las causas de error en las medidas son el operador y los instrumentos demedida.
ERRORES DEL OPERADOR
Supongamos que el operador tiene suficiente habilidad para, antes de nada, que el experimento permita obtener la información que se busca y para preparar el dispositivo experimental correctamente. Además, supondremos que sabe manejar correctamente los instrumentos y leer sus escalas sin equivocarse ni en los valores ni en las unidades. En ese caso, los errores...
Regístrate para leer el documento completo.