Pronosticos Para La Toma De Decisiones
Selección Múltiple
1.- Es uno de los impactos de la multicolinealidad en el modelo de Regresión Lineal Simple:
a) Impide interpretar adecuadamente los coeficientes de la regresión
b) Genera errores estándar muy grandes
c) Las pruebas t de los coeficientes son no significativas
d) Ninguna de las anteriores
2.- Es una posible fuente de datos atípicos:
a) Un error al momento decapturar los datos
b) El dato no debió ser incluido porque pertenece a otra muestra
c) El dato es inusualmente grande o pequeño
d) Cualquiera de las anteriores
3.-Método que te permiten evaluar el modelo en Regresión Lineal Simple
a) Prueba de contingencia
b) Prueba de proporción de medias
c) Prueba t de la pendiente
d) Prueba F
4.- El intervalo de predicción en el modelo deRegresión Lineal Simple es mucho más amplio que el intervalo de confianza a la media, para una misma muestra, debido a:
a) Existe una gran cantidad de observaciones
b) Existe heteroskedasticidad en los residuos
c) Se está estimando una variable aleatoria en el primero
d) Los residuales estandarizados son muy grandes
RLM
5.- Una forma de detectar esta situación es cuando los coeficientes de losparámetros son no significativos individualmente, pero sí de manera conjunta.
a) No independencia de los errores
b) Heteroskedasticidad
c) Multicolinealidad
d) No normalidad de los residuos
6.- Es la cantidad de variación de la variable dependiente que es explicada por la variación en las independientes:
a) Suma de cuadrados del residual
b) Suma de cuadrados del modelo
c) Suma decuadrados total
d) Ninguna de las anteriores
7.- Es una condición necesaria para realizar la prueba del coeficiente de correlación:
a) Las dos variables se distribuyan a través de una normal bivariada
b) El número de observaciones sea mayor a 60
c) Los errores tengan independencia
d) Los residuales estandarizados sean menores a 2
8.- ¿Cuáles de los siguientes métodos no nos sirve para detectarla multicolinealidad?
a) Método de la relación entre t y R cuadrada
b) Método de la matriz de correlación
c) Método de Mínimos Cuadrados Ordinarios
d) Modelo de la prueba F
9.- Toma en cuenta el tamaño de la muestra y el número de variables independientes, con el objetivo de medir mejor la variabilidad de “Y” que es captada por el modelo.
a) Coeficiente de determinación
b) Prueba t dela pendiente
c) R cuadrada ajustada
c) Estadístico Durbin-Watson
10.- Es un proceso iterativo que elimina las variables independientes correlacionadas, agregando y eliminando variables al mismo tiempo.
a) Mínimos Cuadrados Ordinarios
b) Mínimos Cuadrados Generalizados
c) Regresión “Stepwise”
d) Regresión “Ridge”
11.- ¿Cuándo realizas un Diagrama de Dispersión entre los residualesestandarizados versus el tiempo y verificas que ninguno sea mayor a 2 en valor absoluto?
a) Análisis de independencia
b) Análisis de normalidad
c) Análisis de datos atípicos
d) Análisis de correlación
12.- Esta transformación es útil cuando se presenta un problema de no normalidad o heteroskedasticidad y además existe un sesgo negativo en la distribución del error.
a)
b)
c)
d)13.-Si hace una regresión de una variable dependiente con respecto a dos variables dependientes. Es posible que no puedan rechazarse las hipótesis Ho: ß1=0 y Ho: ß 2=0 a niveles bajos de significación y, sin embargo, pueda rechazare la hipótesis Ho: ß1= ß 2=0 a un nivel muy bajo de significación. ¿En qué circunstancias podría darse este resultado?
a) No independencia de los errores
b)Heteroskedasticidad
c) Multicolinealidad
d) No normalidad de los residuos
MS
14.-Se hace uso de este concepto matemático con el objetivo de determinar el patrón de la serie de tiempo:
a) Coeficiente de determinación
b) Coeficiente de la regresión
c) Coeficiente de autocorrelación
d) Coeficiente intelectual
15.- Se utiliza para suavizar una serie que conjunta estacionalidad y tendencia
a)...
Regístrate para leer el documento completo.