Asintotica
Notas sobre teoría asintótica
Josep Lluís Carrion i Silvestre
Marzo de 2002
1 Deniciones de convergencia
A continuación se resumen los conceptos que habitualmente se utilizan en la literatura para
trabajar con la teoría asintótica.
1.1
Convergencia en probabilidad
Podemos entender el concepto de convergencia en probabilidad como el límite que toma unadeterminada secuencia de valores a medida que incrementa el conjunto de información. Tenemos
dos posibilidades: (1) cuando la convergencia se da hacia un escalar -o vector de escalares- y
(2) cuando se produce hacia una variable aleatoria -o vector de variables aleatorias.
Esta denición de convergencia es la que más se utiliza a la práctica en el entorno de la
econometría.
1.1.1 Convergencia enprobabilidad hacia un escalar
Sea fxT g1 una secuencia de variables aleatorias. fxT g1 converge en probabilidad hacia
T =1
T =1
una constante c si para cada " > 0 y ± > 0 existe un N tal que para T ¸ N se cumple:
p (jxT ¡ cj > ±) < ":
La notación que se utiliza es:
plim xT = c;
o de manera más simplicada:
T !1
p
xT ! c;
p
donde ! denota convergencia en probabilidad.
1.1.2Convergencia en probabilidad hacia una variable aleatoria
Sean fxT g1 y fyT g1 dos secuencias de variables aleatorias. fxT g1 converge en probaT =1
T =1
T =1
bilidad hacia fyT g1 si para cada " > 0 y ± > 0 existe un N tal que para T ¸ N se cumple:
T =1
p (jxT ¡ yT j > ±) < ":
La notación que se utiliza en este caso es:
plim xT = yT ;
o de manera más simplicada:
T !1
p
xT ! yT ;
2p
jxT ¡ yT j ! 0
p
donde al igual que antes ! denota convergencia en probabilidad.
1.2
Convergencia casi segura
Otro concepto de convergencia más exigente que el anterior -más fuerte- es el de convergencia casi segura -almost sure convergence, (a. s.), en inglés. Esta denición de convergencia
establece lo siguiente.
Denición 4.3 de Davidson y McKinnon (1993): Sea fxT g1 unasecuencia de (vectores
T =1
de) variables aleatorias. Se dice que xT converge casi seguro (a. s.) hacia la variable aleatoria
límite x si se cumple:
p
De manera más compacta,
³
´
lim xT = x = 1:
T !1
lim xT = x
T !1
o
a:s:
a:s:
xT ! x:
1.3
Convergencia en error cuadrático medio
Una condición más estricta de convergencia que la de convergencia enprobabilidad es la que
impone la convergencia en error cuadrático medio (mean square convergence, m. s.). La secuencia fxT g1 converge en error cuadrático medio a c :
T =1
m:s:
xT ! c;
cuando se da que para todos " > 0 existe un valor de N tal que, para T ¸ N se cumple:
E (xT ¡ c)2 < ":
1.4
Desigualdad de Chebyshev
Relacionada con la denición de convergencia en error cuadrático medio ladesigualdad de
Chebyshev establece que:
Proposición 7.2 de Hamilton (1994): Sea x una variable aleatoria con momentos E (jxt jr ) <
1 8r > 0. Entonces, para cualquier ± > 0 y cualquier valor de c se cumple que:
E (jx ¡ cjr )
p (jx ¡ cj > ±) ·
:
±r
3
De la desigualdad de Chebyshev se deriva el hecho que
p
m:s:
xT ! c ) xT ! c;
lo contrario no tiene porqué ser cierto.
1.5Convergencia en distribución
Sea fxT g1 una secuencia de variables aleatorias con distribución de probabilidad acumulada
T =1
FxT (x). Supóngase que existe una función de distribución acumulada Fx (x) de manera que:
lim FxT (x) = Fx (x) ;
T !1
para cualquier valor de x para el cual Fx (x) es una función contínua. En este caso se dice que
xT converge en distribución hacia x, expresadocomo:
d
xT ! x:
1.6
Resultados asociados
Proposición 7.1 de Hamilton (1994): Sea fxT g1 una secuencia de (n £ 1) vectores aleatoT =1
rios con límite plim igual a yT y g (¢) una función contínua, g : Rn ! Rm , que no depende de
T . Entonces se cumple que:
p
g (xT ) ! g (yT ) .
Proposición 7.3(a) de Hamilton (1994): Sea fxT g1 una secuencia de (n £ 1) vectores
T =1
d
d...
Regístrate para leer el documento completo.