Error en metodos numericos
¿Que es un error?
Es un cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores de aproximación es su estabilidadnumérica.
El concepto de error es semejante o igual con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado deaproximación de la solución que se obtiene.
¿Para que sirve un error?
Un error en métodos numéricos es usado para representar a la inexactitud y a la imprecisión de las predicciones.
La inexactitud sedefine como un alejamiento sistemático de la verdad. La imprecisión, se refiere a la magnitud del esparcimiento de los valores.
¿Cómo se calcula un error?
Los errores numéricos se generan con eluso de aproximaciones para representar las operaciones y cantidades matemáticas. Estos se incluyen errores de truncamiento que resultan de representar aproximadamente un procedimiento matemáticoexacto, y los errores de redondeo que se producen cuando los números tienen un número de cifras significativas que se utilizan para representar números exactos. Para los dos tipos de errores, la relaciónentre el resultado exacto o verdadero y el aproximado esta dada por
Valor verdadero= aproximación + error
De la ecuación anterior se encuentra que el error numérico es = a la diferencia entreel valor verdadero y el valor aproximado, esto es:
Ev = valor verdadero – aproximación
Donde Et se usa para denotar el valor exacto del error. Se incluye el subíndice v para denotar que se tratadel error “verdadero”. Este contrasta con los otros casos, donde se debe emplear una estimación aproximada del error. Un defecto en esta definición es que no toma en consideración el orden demagnitud del valor que se esta probando por ejemplo, un error de 1 cm es mucho mas significativo es mayor si se esta midiendo un remache que un puente. Una manera de medir las magnitudes que se esta...
Regístrate para leer el documento completo.