La obesidad

Solo disponible en BuenasTareas
  • Páginas : 7 (1563 palabras )
  • Descarga(s) : 7
  • Publicado : 30 de mayo de 2010
Leer documento completo
Vista previa del texto
El planteamiento estadístico del problema es el siguiente. Se dispone de un conjunto amplio de elementos que pueden venir de dos o más poblaciones distintas.
En cada elemento se ha observado una variable aleatoria p-dimensional x. Cuya distribución se conoce en la poblaciones consideradas. Se desea clasificar un nuevo elemento, con valores de las variables conocidas, en una de laspoblaciones.
Por ejemplo, la primera aplicación del análisis discriminante consistió en clasificar los restos de un cráneo descubierto en una excavación como humano, utilizando la distribución de medidas físicas para los cráneos humanos y los de antropoides.
El problema de discriminación aparece en muchas situaciones en que necesitamos clasificar elementos con información incompleta.
A continuación sepresentan algunos ejemplos donde se puede aplicar el análisis discriminante.
Por ejemplo:
• Los sistemas automáticos de concesión de créditos.
• En Ingeniería.
• En Medicina
• En la Música
• En la Económica, etc.
Las técnicas que vamos a estudiar reciben también el nombre de clasificación supervisada, para indicar que conocemos una muestra de elementos bienclasificados que sirve de pauta o modelo para la clasificación de las siguientes observaciones.
Clasificación entre dos poblaciones
Planteamiento del problema

Sean P1y P2dos poblaciones donde tenemos definida una variable aleatoria vectorial, x, p-variante. Supondremos que x es absolutamente continua y que las funciones de densidad de ambas poblaciones, f1 y f2, son conocidas. Vamos a estudiar elproblema de clasificar un nuevo elemento, x0, con valores conocidos de las p variables en una de estas poblaciones. Si conocemos las probabilidades a priori π1, π2, con π1+π2 =1, de que el elemento venga de cada una de las dos poblaciones, su distribución de probabilidad será una distribución mezclada.

Y una vez observado x0 podemos calcular las probabilidades a posteriori de que el elemento hayasido generado por cada una de las dos poblaciones (i|x0), con i=1,2.Estas probabilidades se calculan por el teorema de Bayes

Y como la P (x0|1)=f1(x0) ∆x0, tenemos que:

Y para la segunda población

Clasificaremos x0 en la población más probable a posteriori. Como los denominadores son iguales, clasificaremos x0 en P2 si:
π2f2(x0) › π1f1(x0)
Si las probabilidades a priori son iguales, lacondición de clasificar en p2 se reduce a: f2(x0) › f1(x0)
Es decir clasificamos a x0 en la población más probable.
Consideración de las consecuencias
En muchos problemas de clasificación los errores que podemos cometer tienen distintas consecuencias que podemos cuantificar. Por ejemplo, si una máquina automática clasifica equivocadamente un billete de 10 dólares como de 20 dólares y devuelveel cambio equivocado, el costo de clasificación es de 10 dólares.
Otro ejemplo, si clasificamos un proceso productivo, como en estado de control, el coste de equivocarnos será una producción defectuosa, y si, por error, paramos el proceso que funciona adecuadamente, el coste será el de la parada y revisión.
En general, supondremos que las posibles decisiones en el problema son únicamente dos:asignar en P1 o en P2. Una regla de decisión es una partición del espacio muestral Ex (que en general será Rp en dos regiones A1 y A2 = Ex - A1, tales que:
← Si x0 Є A1 d1 (clasificar en P1)
← Si x0 Є A2 d2 (clasificar en P2)

Si las consecuencias de un error de clasificación pueden cuantificarse, podemos incluirlas en la solución del problema formulándolo como unproblema bayesiano de decisión. Supongamos que:
1. Las consecuencias asociadas a los errores de clasificación son, c(2|1) y c(1|2), donde c(i|j) es el coste de clasificación en Pi de una unidad que pertenece a Pj. Estos costes se suponen conocidos;
2. El decisor quiere maximizar su función de utilidad y esto equivale a minimizar el coste separado.
Con estas dos hipótesis la mejor...
tracking img