Busca en el Blog
martes, 30 de septiembre de 2014
Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (IV)
lunes, 29 de septiembre de 2014
Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (III)
domingo, 28 de septiembre de 2014
Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (II)
sábado, 27 de septiembre de 2014
Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (I)
viernes, 26 de septiembre de 2014
Consecuencias del análisis basado en muestras pequeñas
jueves, 25 de septiembre de 2014
Sensibilidad de los estimadores MCO y sus errores estándar a pequeñas cambios en la información (III)
Se mencionó anteriormente que en presencia de una alta colinealidad, no se pueden estimar los coeficientes de regresión individuales en forma precisa pero que las combinaciones lineales de estos coeficientes se pueden estimar más precisamente. Este hecho se confirma con las regresiones (10.5.4) y (10.5.5). En la primera regresión, la suma de los dos coeficientes parciales de las pendientes es 0.4493, en tanto que en la segunda regresión, dicha suma es 0.4284, prácticamente la misma. No sólo eso,sus errores estándar son prácticamente los mismos, 0.1550 vs 0.1823. Obsérvese, sin embargo, que el coeficiente de X3 ha cambiado en forma notoria, pasando de 0.003 a 0.027.
miércoles, 24 de septiembre de 2014
Sensibilidad de los estimadores MCO y sus errores estándar a pequeñas cambios en la información (II)
Ahora, considérese la tabla 10.4. La única diferencia entre las tablas 10.3 y 10.4 es que el tercer y cuarto valores de X3 han sido intercambiados. Utilizando la información de la tabla 10.4, se obtiene ahora.
martes, 23 de septiembre de 2014
Sensibilidad de los estimadores MCO y sus errores estándar a pequeñas cambios en la información (I)
Para ver esto, considérese la tabla 10.3. Con base en esta información, se obtiene la siguiente regresión múltiple:
lunes, 22 de septiembre de 2014
Un R² alto pero pocas razones t significativas
Yi = β1 + β2X2i + β3X3i + ........+ βkXki + ui
En casos de alta colinealidad es posible encontrar, como se acaba de mencionar, que uno o más coeficientes parciales de pendiente son de manera individual no significativos estadísticamente con base en la prueba t. Aún el R² en tales situaciones puede ser tan alto, digamos superior a 0.9, que, con base en la prueba F, es posible rechazar convincentemente la hipótesis de que β2 = β3 =........=βk = 0. En realidad esta es una de las señales de multicolinealidad -ivalores t no significativos pero un R² global alto (y un valor F significativo)!
Se demostrará esta señal en la siguiente sección, pero este resultado no debe sorprender si se tiene en cuenta el análisis de las pruebas individuales comparado con las pruebas conjuntas en el capítulo 8. Como se pude recordar, el problema real aquí consiste en que las covarianzas entre los estimadores, como lo indica la fórmula (7.4.17), están relacionadas con las correlaciones entre los regresores.
domingo, 21 de septiembre de 2014
Razones t "no significativas"
sábado, 20 de septiembre de 2014
Intervalos de confianza más amplios
Por consiguiente, en casos de alta multicolinealidad, la información muestral puede ser compatible con un diverso conjunto de hipótesis. DE ahí la probabilidad de aceptar una hipótesis falsa (es decir, un error tipo II) aumente.
viernes, 19 de septiembre de 2014
Estimadores MCO con varianzas y covarianzas grandes (III)
jueves, 18 de septiembre de 2014
Estimadores MCO con varianzas y covarianzas grandes (II)
La velocidad con la cual las varianzas y covarianzas se incrementan pueden verse con el factor inflador de varianza (FIV), que puede definirse como:
miércoles, 17 de septiembre de 2014
Estimadores MCO con varianzas y covarianzas grandes (I)
martes, 16 de septiembre de 2014
Consecuencias prácticas de la multicolinealidad
- Aun cuando los estimadores MCO son MELI, éstos presentan varianzas y covarianzas grandes, que hacen difícil la estimación precisa.
- Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más amplios, conduciendo a una aceptación más fácil de la "hipótesis nula de cero" (es decir, que el verdadero coeficiente poblacional es cero)
- También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a ser estadisticamente no significativa.
- Aun cuando la razón t de uno o más coeficientes sea estadísticamente no significativa, el R², la medida global de bondad de ajuste, puede ser muy alto.
- Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños cambios en la información.
Las consecuencias anteriores pueden ser demostradas de la siguiente manera
lunes, 15 de septiembre de 2014
Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (V)
Idealmente, para evaluar los efectos individuales de la riqueza y del ingreso sobre el gasto de consumo se necesita un número suficiente de observaciones muestrales de individuos con riqueza pero con ingresos bajos e individuos de altos ingresos con escasa riqueza (recuérdese el supuesto 8.) Aunque esto puede ser posible en los estudios de corte transversal (incrementando el tamaño de la muestra), es algo muy dificil de lograr en el trabajo de series de tiempo agregadas.
Por todas estas razones, el hecho de que los estimadores MCO sean MELI a pesar de la presencia de multicolinealidad es poco consuelo en la práctica. Se debe ver lo que sucede o puede suceder en una muestra dada, un tema analizado en la siguiente sección.
domingo, 14 de septiembre de 2014
Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (IV)
A manera de ilustración, reconsidere el ejemplo consumo-ingreso del capítulo 3. Los economistas teorizan que, además del ingreso, la riqueza del consumidor es también un determinante importante del gasto de consumo. Así, se puede escribir:
Consumo i = β1 + β2 Ingresoi + β3 Riquezai + ui
sábado, 13 de septiembre de 2014
Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (III)
SEgundo, es también cierto que la colinealidad no destruye la propiedad de varianza mínima: En la clase de los estimadores lineales insesgados, los estimadores MCO tienen varianza minima: es decir, son eficientes. Pero esto no significa que la varianza de un estimador MCO necesariamente será pequeña (en relación con el valor del estimador) en cualquier muestra dada, como se demostrara en breve.
viernes, 12 de septiembre de 2014
Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (II)
Leamer, Achen y Goldberger están en lo correcto al lamentar la falta de atención dada al problema del tamaño de la muestra, lo mismo que al problema de multicolinealidad. Desafortunadamente, ene l trabajo aplicado que comprende información secundaria (es decir, información recopilada por alguna agencia, como la información del PNB recopilada por el gobierno), es posible que el investigador individual no pueda hacer gran cosa sobre el tamaño de la información muestral y puede ser que tenga que enfrentarse con "la estimación de problemas que son lo suficientemente importantes para justificar su tratamiento [como es el caso de la multicolinealidad] como lo es una violación del modelo CRL [clásico de regresión lineal]"
jueves, 11 de septiembre de 2014
Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (I)
Los estudiantes principalmente en el estudio de la metodología ocasionalmente se preocupan por el hecho de que sus variables independientes estén correlacionadas - el llamado problema de multicolinealidad. Sin embargo, la multicolinealidad no viola los supuestos básicos de la regresión. Se presentarán estimaciones consistentes e insesgadas y sus errores estándar se estimarán en la forma correcta. El único efecto de la multicolineadalidad tiene que ver con la dificultad de obtener los coeficientes estimados con errores estandar pequeños. Sin embargo, el mismo problema se tiene al contar con un número reducido de observaciones o al tener variables independientes con varianzas pequeñas. (De hecho, a nivel teórico, los conceptos de multicolinealidad, número reducido de observaciones y varianzas pequeñas en las variables independientes hacen todos parte esencial del mismo problema). Por lo tanto, la pregunta "qué se debe hacer entonces acerca de la multicolinealidad?" es similar al interrogante "qué se debe hacer si no se tienen muchas observaciones?" A este respecto no se puede dar una respuesta estadistica.
miércoles, 10 de septiembre de 2014
Estimación en presencia de Multicolinealidad "ALTA" pero "Imperfecta"
x3i = λx2i + vi
donde λ ≠ 0 y donde vi es un término de error estocástico tal que Σx2ivi = 0 Por que?
A propósito, el diagrama de Ballentine que aparece en la figura 10.1b a 10.1e representa casos de colinealidad imperfecta.
En este caso, la estimación de los coeficientes de regresión β2 y β3 puede ser posible. Por ejemplo, sustituyendo (10.3.1) en (7.4.7), se obtiene.
martes, 9 de septiembre de 2014
Estimación en presencia de multicolinealidad perfecta (III)
La conclusión del análisis anterior es que en el caso de multicolinealidad perfecta, no se puede obtener una solución única para los coeficientes de regresión individual. Pero obsérvese que se puede obtener una solución única para combinaciones lineales de estos coeficientes. La combinación lineal (β2 + λβ3) es estimada en forma única por α, dado el valor de λ.
A propósito, obsérvese que en el caso de multicolinealidad perfecta, las varianzas y los errores estándar de β2 y β3 individualmente son infinitos.
lunes, 8 de septiembre de 2014
Estimación en presencia de multicolinealidad perfecta (II)
Para ver esto en forma diferente, se sustituye X3i = λX2i en (10.2.1) para obtener lo siguiente
domingo, 7 de septiembre de 2014
Estimación en presencia de multicolinealidad perfecta (I)
sábado, 6 de septiembre de 2014
Naturaleza de la multicolinealidad (IV)
Existen diversas fuentes de multicolinealidad. Como lo afirman Montgomery y Peck, la multicolinealidad puede deberse a los siguientes factores:
- El método de recolección de información empleado, por ejemplo, la obtención de muestras en un rango limitado de valores tomados por los regresores en la población.
- Restricciones sobre el modelo o en la población que es objeto de muestreo. Por ejemplo, en la regresión del consumo de electricidad sobre el ingreso (X2) y el tamaño de las viviendas (x3) hay una restricción física en la población puesto que las familias con ingresos más altos, generalmente tienen viviendas más grandes que las familias con ingresos más bajos.
- Especificación del modelo, por ejemplo, la adición de términos polinomiales a un modelo de regresión, especialmente cuando el rango de la variable X es pequeño.
- Un modelo sobredeterminado. Esto sucede cuando el modelo tiene más variables explicativas que el número de observaciones. Esto podría suceder en investigación médica donde puede haber un número bajo de pacientes sobre quienes se reúne información respecto a un gran número de variables.
viernes, 5 de septiembre de 2014
jueves, 4 de septiembre de 2014
Naturaleza de la multicolinealidad (III)
A propósito, obsérvese que la multicolinealidad, como se ha definido, se refiere solamente a relaciones lineales entre las variables X. No elimina las relaciones no lineales existentes entre ellas. Por ejemplo, considérese el siguiente modelo de regresión:
Yi = βo + β1Xi + β2Xi² + β3Xi³ + ui (10.1.5)
donde, Y = costo total de producción y X = producción. Las variables Xi² (producción al cuadrado) y Xi³ (producción al cubo) obviamente están funcionalmente relacionadas con Xi, pero la relación es no lineal. Estrictamente, por consiguiente, modelos tales como (10.1.5) no violan el supuesto de no multicolinealidad. Sin embargo, en aplicaciones concretas, el coeficiente de correlación convencionalmente medido demostrará que Xi, Xi² y Xi³ están altamente correlacionadas, lo cual, como mostraremos, hará difícil estimar los parámetros de (10.1.5) con mayor precisión (es decir, con errores estándar pequeños.)
miércoles, 3 de septiembre de 2014
Naturaleza de la multicolinealidad (II)
Es aparente que X3i = 5X2i. Por consiguiente, hay colinealidad perfecta entre X2 y X3 puesto que el coeficiente de correlación r23 es la undidad. La variable X3* fue creada a partir de X3 aregrándole a ésta simplemente los siguientes números, que fueron tomados de una tabla de números aleactorios: 2,0,7,9,2. Ahora ya no hay multicolinealidad perfecta entre X2 y X3*. Sin embargo, las dos variables están altamente correlacionadas pues los cálculos indicarán que el coeficiente de corelación entre ellas es 0.9959.
martes, 2 de septiembre de 2014
Naturaleza de la multicolinealidad (I)
que muestra la forma como X2 está exactamente relacionada de manera lineal con otras variables o como ésta puede derivarse a partir de una combinación lineal de otras variables X. En esta situación, el coeficiente de correlación entre la variable X2 y la combinación lineal del lado derecho de (10.1.3) debe ser igual a uno.
lunes, 1 de septiembre de 2014
El supuesto 10 del modelo clasico de regresión lineal (MCRL)
Plantea que no existe multicolinealidad entre los regresores incluidos en el modelo de regresión. Los supuestos 7 y 8 son complementarios al supuestos de multicolinealidad. El supuesto 7, especifica que el número de observaciones debe superar al número de regresores (el tema de muestras pequeñas) y el supuesto 8, que debe haber suficiente variabilidad en los valores de los regresores. En este capítulo consideramos en forma crítica el supuesto de no multicolinealidad buscando respuestas a las siguientes preguntas:
1. Cuál es la naturaleza de la multicolinealidad?
2. Es la multicolinealidad realmente un problema?
3. Cuáles son sus consecuencias prácticas?
4. Cómo se detecta?
5. Qué medidas remediales pueden tomarse para aliviar el problema de multicolinealidad? también mostraremos la forma como los supuestos 7 y 8 se ajustan con el supuesto de no multicolinealidad.