Economia

Páginas: 14 (3398 palabras) Publicado: 18 de octubre de 2012
MATRICES Y DETERMINANTES ESPECIALES. EJERCICIOS RESUELTOS

La determinante jacobina para probar la dependencia funcional. La hessiana en problemas de optimización. Hessianas de tercer grado. Discriminación de precios y elasticidad de la demanda. La hessiana delimitada para la optimización restringida. Deducción de una función de la demanda deMarshall.

LA JACOBINA. Una determinante jacobina permite probar la dependencia funcional, tanto lineal como no lineal. Una determinante jacobina |J| se compone de todas las derivadas parciales de primer grado de un sistema de ecuaciones, dispuestas en secuencia graduada.

156. Mediante una determinante jacobina, pruebe la dependencia funcional en elsistema de ecuaciones que sigue:

y1 = 6x1 + 4x2
y2 = 7x1 + 9x2

Primeramente, se toman las parciales de primer grado,

∂y1 / ∂x1 = 6 ∂y1 / ∂x2 = 4 ∂y2 / ∂x1 = 7 ∂y2 / ∂x2 = 9

A continuación, se ajusta la jacobina,

│J│ = = 6(9) – 7(4) = 26

Puesto que │J│ 0, no hay dependencia funcional entre las ecuaciones. Obsérvese que, en unsistema de ecuaciones lineales, la jacobina │J│ es igual a la determinante │A│ de la matriz de coeficientes y todos sus elementos son idénticos. La prueba de determinante para comprobar la falta de singularidad de una matriz no es más que una aplicación de la jacobina a un sistema de ecuaciones lineales.

157. Utilice la jacobina para comprobarla dependencia funcional en el sistema que sigue:

y1 = 5x1 + 3x2
y2 = 25 + 30x1 x2 + 9 x22

Primeramente, se toman las parciales de primer grado,

∂y1/∂x1 = 5 ∂y1/∂x2 = 3 ∂y2/∂x1 = 50x1 + 30x2 ∂y2/∂x2 = 30x1 + 18x2

A continuación, se ajusta la jacobina,

│J│ = 5 (30x1 + 18x2) – 3 (50x1 + 30x2)

150x1 + 90x2 – 150x1 - 90x2 = 0Puesto que │J│ = 0, hay una dependencia funcional entre las ecuaciones. En este caso, el más simple de todos, (5x1 + 3x2) 2 =

158. Por medio de la jacobina, pruebe la dependencia funcional para el sistema de ecuaciones que sigue:



Las parciales de primer grado son:

∂y1 / ∂x1 = 3 ∂y1 / ∂x2 = - 4 ∂y2 / ∂x1 = 18x1 - 24x2 ∂y2 / ∂x2= - 24x1 + 32x2

Luego, │J│ = = 3 (- 24 x1 + 32x 2) - (-4) (18 x1 x2 – 24) = 0

│J│ = 0. Por tanto, hay dependencia funcional: (3x1 - 4x2) 2 =

LA HESSIANA

Para optimizar una función de variables múltiples z = f (x, y) dada la condición de primer grado satisfecha, es preciso cumplir con dos condiciones adicionales:


(1)zxx , zyy > 0 para un mínimo
zxx , zyy < 0 para un máximo

(2) zxx zyy > ( zxy ) 2

La hessiana es una buena prueba para esta condición de segundo grado. Una hessiana |H| es una determinante que se compone de todas las derivadas parciales de segundo grado, con las parciales directas de segundo grado sobre la diagonal principal y lasparciales cruzadas de segundo grado fuera de la diagonal principal. Por tanto,

|H| =

en donde Zxy = Zyx. Si el primer elemento en la diagonal principal, la primera menor principal |H1| = Zxy es positiva y la segunda menor principal,

|H 2| = = Zxx Zyy − (Zxy)2 > 0

se satisfacen las condiciones de segundo grado para un mínimo.Cuando |H1| > 0, |H2| > 0, la hessiana se dice que es definida positiva. Una hessiana de este último tipo satisface las condicio-nes de segundo grado para un mínimo.

Si la primera menor principal |H1| = Zxx < 0 y la segunda menor principal,

|H 2| = > 0

se satisfacen las condiciones de segundo grado para un máximo. Cuando...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Economia
  • Economia
  • Economia
  • Economia
  • Economia
  • Economia
  • Economia
  • Economia

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS