martes, 30 de septiembre de 2014

Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (IV)

El ejemplo muestra en forma dramática lo que hace la multicolinealidad. El hecho de que la prueba F sea significativa pero los valores de t de X3 y X3 no sean significativos individualmente significa que las dos variables están altamente correlacionadas que es imposible aislara el impacto individual del ingreso o de la riqueza sobre el consumo. De hecho, si se efectúa la regresión de X3 sobre X2 se obtiene:


lunes, 29 de septiembre de 2014

Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (III)

Es interesante observar este resultado desde un punto de vista geométrico (Véase figura 10.3) Con base en la regresión (10.6.1), se han establecido intervalos de confianza individuales al 95%  de confianza para β2 y β3 siguiendo el procedimiento usual estudiado en el capítulo 8. Como lo muestran estos intervalos, cada uno de ellos, en forma individual, incluye el valor de cero. Por tanto, individualmente se puede aceptar la hipótesis de que las dos pendientes parciales son cero. Pero cuando se establece el intervalo de confianza conjunta para probar la hipótesis de que β2= β3 = 0, esa hipótesis no puede aceptarse puesto que el intervalo de confianza conjunto, en realidad una elipse, no incluye el origen. Como ya se reiteró anteriormente, cuando la colinealidad es alta, no son confiables las pruebas sobre los regresores individuales; en tales casos, la prueba F globlal es la que mostrará si Y está relacionada con los diversos regresores.

domingo, 28 de septiembre de 2014

Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (II)

La regresión (10.6.1) muestra que el ingreso  la riqueza explican conjuntamente alrededor del 96% de la variación de los gastos de consumo. A pesar de esto, nunguno de los coeficientes de las pendientes es estadísticamente significativo de manera individual. Además, no solamente la variable riqueza es estadísticamente no significativa sino que también tiene el signo incorrecto. A priori, se debería esperar una relación positiva entre el consumo y la riqueza. A pesar de que β2 y β3 no son significativos individualmente en términos estadísticos, si se prueba la hipótesis de que β2= β3 = 0 simultáneamente, esta hipótesis puede ser rechazada como lo demuestra la tabla 10.6. Bajo el supuesto usual, se obtiene.


sábado, 27 de septiembre de 2014

Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (I)

Para ilustrar los diferentes puntos mencionados hasta ahora, se reconsidera el ejemplo consumo-ingreso del capítulo 3. En la tabla 10.5 se ha reproducio la información de la tabla  3.2 agregándole datos sobre la riqueza del consumidor. Si se supone que el gasto de consumo está relacionado linealmente con el ingreso y la riqueza, entonces, con base en la tabla 10.5, se obtiene la siguiente regresión.


viernes, 26 de septiembre de 2014

Consecuencias del análisis basado en muestras pequeñas

En una parodia de las consecuencias de multicolinealidad y de manera informal, Goldberger cita consecuencias exactamente similares del análisis basado en muestras pequeñas, es decir, de la micronumerosidad. Se aconseja al lector consultar el análisis de Goldberger para ver la razón por la cual él da la misma importancia a la micronumerosidad que a la multicolinealidad.

jueves, 25 de septiembre de 2014

Sensibilidad de los estimadores MCO y sus errores estándar a pequeñas cambios en la información (III)

Como resultado de un ligero cambio en los datos, se ve que β2, que era estadísticamente significativo anteriormente, a un nivel de significancia del 10%, deja ahora de serlo aún a ese nivel. Obsérvese también que en (10.5.4), la cov(β2,β3) = - 0.00868 mientras que en (10.5.5) ésta es -0.0282, un aumento superior a tres veces su valor inicial. Todos estos cambios se pueden atribuir a un aumento en la multicolinealidad: En (10.5.4), r23 = 0.5523, mientras que en (10.5.5) este coeficiente es de 0.8285. En forma similar, los errores estándar de β2 y β3 aumentan entre las dos regresiones, un síntoma corriente de la colinealidad.

Se mencionó anteriormente que en presencia de una alta colinealidad, no se pueden estimar los coeficientes de regresión individuales en forma precisa pero que las combinaciones lineales de estos coeficientes se pueden estimar más precisamente. Este hecho se confirma con las regresiones (10.5.4) y (10.5.5). En la primera regresión, la suma de los dos coeficientes parciales de las pendientes es 0.4493, en tanto que en la segunda regresión, dicha suma es 0.4284, prácticamente la misma. No sólo eso,sus errores estándar son prácticamente los mismos, 0.1550 vs 0.1823. Obsérvese, sin embargo, que el coeficiente de X3 ha cambiado en forma notoria, pasando de 0.003 a 0.027.

miércoles, 24 de septiembre de 2014

Sensibilidad de los estimadores MCO y sus errores estándar a pequeñas cambios en la información (II)

La regresión (10.5.4) muestra que ninguno de los coeficientes de regresión es individualmente significativo a los niveles de significancia convencionales del 1 o del 5%, a pesar de que β2 sea significativo al nivel del 10% con base en la prueba t de una cola.

Ahora, considérese la tabla 10.4. La única diferencia entre las tablas 10.3 y 10.4 es que el tercer y cuarto valores de X3 han sido intercambiados. Utilizando la información de la tabla 10.4, se obtiene ahora.

martes, 23 de septiembre de 2014

Sensibilidad de los estimadores MCO y sus errores estándar a pequeñas cambios en la información (I)

Siempre que la multicolinealidad no sea perfecta, es posible la estimación de los coeficientes de regresión; sin embargo, los estimadores y sus errores estándar se tornan muy sensibles aun al más ligero cambio en la información.

Para ver esto, considérese la tabla 10.3. Con base en esta información, se obtiene la siguiente regresión múltiple:


lunes, 22 de septiembre de 2014

Un R² alto pero pocas razones t significativas

Consíderese el modelo de regresión lineal con k variables:

Yi = β1 + β2X2i + β3X3i + ........+ βkXki + ui

En casos de alta colinealidad es posible encontrar, como se acaba de mencionar, que uno o más coeficientes parciales de pendiente son de manera individual no significativos estadísticamente con base en la prueba t. Aún el R² en tales situaciones puede ser tan alto, digamos superior a 0.9, que, con base en la prueba F, es posible rechazar convincentemente la hipótesis de que β2 = β3 =........=βk = 0. En realidad esta es una de las señales de multicolinealidad -ivalores t no significativos pero un R² global alto (y un valor F significativo)!

Se demostrará esta señal en la siguiente sección, pero este resultado no debe sorprender si se tiene en cuenta el análisis de las pruebas individuales comparado con las pruebas conjuntas en el capítulo 8. Como se pude recordar, el problema real aquí consiste en que las covarianzas entre los estimadores, como lo indica la fórmula (7.4.17), están relacionadas con las correlaciones entre los regresores.

domingo, 21 de septiembre de 2014

Razones t "no significativas"

Recuérdese que para probar la hipótesis nula de que, por ejemplo, β2 = 0, utilizando la razón, t, es decir β2/se(β2) y se compara el valor t estimado con el valor t critico de la tabla t. Pero, como se ha visto, en casos de alta colinealidad, los errores estándar estimados aumenta dramáticamente, disminuyendo con esto los valores t. Por consiguiente, en tales casos, se aceptará, cada vez con mayor facilidad, la hipótesis nula de que el verdadero valor poblacional relevante es cero.

sábado, 20 de septiembre de 2014

Intervalos de confianza más amplios

Debido a los grandes errores estándar, los intervalos de confianza para los parámetros poblacionales relevantes tienden a ser más grandes, como puede verse en la tabla 10.2. Por ejemplo, cuando r23 = 0.95, el intervalo de confianza para β2 es más grande que cuando r23= 0 por un factor de √ 10.26 o alrededor de 3

Por consiguiente, en casos de alta multicolinealidad, la información muestral puede ser compatible con un diverso conjunto de hipótesis. DE ahí la probabilidad de aceptar una hipótesis falsa (es decir, un error tipo II) aumente.

viernes, 19 de septiembre de 2014

Estimadores MCO con varianzas y covarianzas grandes (III)

Para dar alguna idea de qué tan rápido aumentan estas varianzas y covarianzas a medida que r23 aumenta, considérese la tabla 10.1 que da estas varianzas y covarianzas para valores seleccionados de r23. Como lo indica esta tabla, aumentaenr23 tienen un efecto drámatico sobre las varianzas y covarianzas estimadas de los estimadores MCO. Cuando r23 = 0.50, la var(β2) es 1.33 veces la varianza cuando r23 es cero pero, para el momento en que r23 alcance 0.95, ésta será alrededor de 10 veces más alta que cuando no hay colinealidad. Obsérvese bien, un incremento de r23 de 0.95 a 0.995 hace que la varianza estimada sea 100 veces la obtenida cuando la colinealidad es cero. El mismo efecto dramático se observa sobre la covarianza estimada. Todo esto puede verse en la figura 10.2.


jueves, 18 de septiembre de 2014

Estimadores MCO con varianzas y covarianzas grandes (II)

De (7.4.12) y (7.4.15) es aparente que a medida que r23 tiende a 1, es decir, a medida que la colinealidad aumenta, las varianzas de los dos estimadores aumentan y, en el límite, cuando r23= 1, son infinitas. Es igualmente claro de (7.4.17) que a medida que r23 aumenta hacia 1, la covarianza de los dos estimadores también aumenta en valor absoluto.

La velocidad con la cual las varianzas y covarianzas se incrementan pueden verse con el factor inflador de varianza (FIV), que puede definirse como:


miércoles, 17 de septiembre de 2014

Estimadores MCO con varianzas y covarianzas grandes (I)

Para ver varianzas y covarianzas grandes, recuérdese que para el modelo (10.2.1), las varianzas  y covarianzas de β2 y β3 están dadas por

martes, 16 de septiembre de 2014

Consecuencias prácticas de la multicolinealidad

En los casos de casi o alta multicolinealidad es probable que se presenten las siguientes consecuencias:

  1. Aun cuando los estimadores MCO son MELI, éstos presentan varianzas y covarianzas grandes, que hacen difícil la estimación precisa.
  2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más amplios, conduciendo a una aceptación más fácil de la "hipótesis nula de cero" (es decir, que el verdadero coeficiente poblacional es cero)
  3. También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a ser estadisticamente no significativa.
  4. Aun cuando la razón t de uno o más coeficientes sea estadísticamente no significativa, el R², la medida global de bondad de ajuste, puede ser muy alto.
  5. Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños cambios en la información.
Las consecuencias anteriores pueden ser demostradas de la siguiente manera

lunes, 15 de septiembre de 2014

Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (V)

Ahora, puede suceder que cuando se obtiene información sobre el ingreso y la riqueza, las dos variables pueden estar altamente correlacionadas, aunque no en forma perfecta: La gente con mayor riqueza generalmente tiende a tener ingresos más altos. Así, aun cuando, en teoría, el ingreso y la riqueza son candidatos lógicos para explicar el comportamiento del gasto de consumo, en la practica (es decir, en la muestra) puede ser difícil distinguir las influencias separadas del ingreso y de la riqueza sobre el gasto de consumo.

Idealmente, para evaluar los efectos individuales de la riqueza y del ingreso sobre el gasto de consumo se necesita un número suficiente de observaciones muestrales de individuos con riqueza pero con ingresos bajos e individuos de altos ingresos con escasa riqueza (recuérdese el supuesto 8.) Aunque esto puede ser posible en los estudios de corte transversal (incrementando el tamaño de la muestra), es algo muy dificil de lograr en el trabajo de series de tiempo agregadas.

Por todas estas razones, el hecho de que los estimadores MCO sean MELI a pesar de la presencia de multicolinealidad es poco consuelo en la práctica. Se debe ver lo que sucede o puede suceder en una muestra dada, un tema analizado en la siguiente sección.

domingo, 14 de septiembre de 2014

Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (IV)

Tercero, la multicolinealidad es esencialmente un fenomeno (de regresión) muestral en el sentido en que aún si las variables X no están linealmente relacionados en la población, pueden estarlo en la muestra particular disponible: Cuando se postula la función de regresión teórica o poblacional (FRP), se considera que todas las variables X incluidas en el modelo tienen una influencia separada o independiente sobre la variable dependiente Y. Pero puede suceder que en cualquier muestra dada que sea utilizada para probar el FRP, alguna o todas las variables X son tan altamente colineales, que no podemos aislar su influencia individual sobre Y. Es decir, nuestra muestra nos falla, aunque la teoría diga que todas las X son importantes. En resumen, nuestra muestra puede no ser lo suficientemente "rica" para acomodar todas las variables X en el análisis.

A manera de ilustración, reconsidere el ejemplo consumo-ingreso del capítulo 3. Los economistas teorizan que, además del ingreso, la riqueza del consumidor es también un determinante importante del gasto de consumo. Así, se puede escribir:

Consumo i = β1 + β2 Ingresoi + β3 Riquezai + ui

sábado, 13 de septiembre de 2014

Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (III)

Primero, es cierto que aún en el caso de casi multicolinealidad los estimadores MCO son insesgados. Pero el insesgamiento es una propiedad multimuestal o de muestreo repetido. Lo que esto significa es que, manteniendo fijos los valores de X, si se obtienen muestras repetidas y se calculan los estimadores MCO para cada una de esas muestras, el promedio de los valores muestrales se aproximará a los verdaderos valores poblacionales de los estimadores a medida que aumenta el número de las muestras. Pero esto no dice nada sobre las propiedades de los estimadores en una muestra dada.

SEgundo, es también cierto que la colinealidad no destruye la propiedad de varianza mínima: En la clase de los estimadores lineales insesgados, los estimadores MCO tienen varianza minima: es decir, son eficientes. Pero esto no significa que la varianza de un estimador MCO necesariamente será pequeña (en relación con el valor del estimador) en cualquier muestra dada, como se demostrara en breve.

viernes, 12 de septiembre de 2014

Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (II)

Para referirnos a la importancia del tamaño de la muestra. Goldberger acuño el término micronumerosidad, para contrarrestar el exótico nombre polisílabo multicolinealidad. De acuerdo con Goldberger, la micronumerosidad exacta (la contraparte de multicolinealidad exacta) surge  cuando n, el tamaño de la muestra, es cero, en cuyo caso cualquier clase de estimación es imposible. La casi micronumerosidad, igual que  la casi multicolinealidad perfecta, surge cuando el número  de observaciones escasamente excede el número de parámetros que va a ser estimado.

Leamer, Achen y Goldberger están en lo correcto al lamentar la falta de atención dada al problema del tamaño de la muestra, lo mismo que al problema de multicolinealidad. Desafortunadamente, ene l trabajo aplicado que comprende información secundaria (es decir, información recopilada por alguna agencia, como la información del PNB recopilada por el gobierno), es posible que el investigador individual no pueda hacer gran cosa sobre el tamaño de la información muestral y puede ser que tenga que enfrentarse con "la estimación de problemas que son lo suficientemente importantes para justificar su tratamiento [como es el caso de la multicolinealidad] como lo es una violación del modelo CRL [clásico de regresión lineal]"

jueves, 11 de septiembre de 2014

Multicolinealidad: Mucho trabajo para nada? Consecuencias teóricas de la multicolinealidad (I)

Recuérdese que si se satisfacen los supuestos del modelo clásico, los estimadores MCO de los coeficientes de regresión son MELI (o MEI, si se añade el supuesto de normalidad). Ahora puede demostrarse que aún si la multicolinealidad es muy alta, como en el caso de casi multicolinealidad, los estimadores MCO conservarán aún la propiedad de MELI. Entonces. Cuáles son los incovenientes de la multicolinealidad? Christopher Achen comenta al respecto (téncase en cuenta también la cita de Leamer al principio de este capítulo):

Los estudiantes principalmente en el estudio de la metodología ocasionalmente se preocupan por el hecho de que sus variables independientes estén correlacionadas - el llamado problema de multicolinealidad. Sin embargo, la multicolinealidad no viola los supuestos básicos de la regresión. Se presentarán estimaciones consistentes e insesgadas y sus errores estándar se estimarán en la forma correcta. El único efecto de la multicolineadalidad tiene que ver con la dificultad de obtener los coeficientes estimados con errores estandar pequeños. Sin embargo, el mismo problema se tiene al contar con un número reducido de observaciones o al tener variables independientes con varianzas pequeñas. (De hecho, a nivel teórico, los conceptos de multicolinealidad, número reducido de observaciones y varianzas pequeñas en las variables independientes hacen todos parte esencial del mismo problema). Por lo tanto, la pregunta "qué se debe hacer entonces acerca de la multicolinealidad?" es similar al interrogante "qué se debe hacer si no se tienen muchas observaciones?" A este respecto no se puede dar una respuesta estadistica.

miércoles, 10 de septiembre de 2014

Estimación en presencia de Multicolinealidad "ALTA" pero "Imperfecta"

La situación de multicolinealidad perfecta es un extremo de tipo patológico. Generalmente, no existe una relación lineal exacta entre las variables X, especialmente en información económica relacionada con series de tiempo. Por lo tanto, retornando al modelo de tres variables en forma de desviación dado en (10.2.1), en lugar de multicolinealidad exacta se puede tener

x3i = λx2i + vi

donde λ ≠ 0 y donde vi es un término de error estocástico tal que Σx2ivi = 0 Por que?

A propósito, el diagrama de Ballentine que aparece en la figura 10.1b a 10.1e representa casos de colinealidad imperfecta.

En este caso, la estimación de los coeficientes de regresión β2 y β3 puede ser posible. Por ejemplo, sustituyendo (10.3.1) en (7.4.7), se obtiene.

martes, 9 de septiembre de 2014

Estimación en presencia de multicolinealidad perfecta (III)

Ahora selecciónese un valor de β3 arbitrariamente y tendrá una solución para β2. Selecciónese otro valor para β3 y tendrá otra solución para β2. No importa que tanto se trate, no existe un valor único para β2.

La conclusión del análisis anterior es que en el caso de multicolinealidad perfecta, no se puede obtener una solución única para los coeficientes de regresión individual. Pero obsérvese que se puede obtener una solución única para combinaciones lineales de estos coeficientes. La combinación lineal (β2 + λβ3) es estimada en forma única por α, dado el valor de λ.

A propósito, obsérvese que en el caso de multicolinealidad perfecta, las varianzas y los errores estándar de β2 y β3 individualmente son infinitos.

lunes, 8 de septiembre de 2014

Estimación en presencia de multicolinealidad perfecta (II)

Por qué se obtiene el resultado que aparece en (10.2.2)? Recuérdese el significado de β2, éste da la tasa de cambio en el valor promedio de Y a medida que X2 cambia en una unidad, manteniendo X3 constante. Pero si X3 y X2 son perfectamente colineales, no hay forma de que X3 se mantenga constante: A mdedida que Xw cambia, también lo hace X3 por el factor λ. Lo que esto significa, entonces, es que no hay forma de desenredar las influencias separadas de X2 y X3 de la muestra dada Para fines prácticos X2 y X3 son indistinguibles. En la econométria aplicada, este problema ocasiona mucho daño, puesto que la idea consiste en separar los efectos parciales de cada X sobre la variable dependiente.

Para ver esto en forma diferente, se sustituye X3i = λX2i en (10.2.1) para obtener lo siguiente

domingo, 7 de septiembre de 2014

Estimación en presencia de multicolinealidad perfecta (I)

Se estableción anteriormente que en el caso de multicolinealidad perfecta, los coeficientes de regresión permanecen indeterminados y sus errores estándar son infinitos. Este hecho puede demostrarse fácilmente en términos del modelo de regresión con tres variables. Utilizando la forma de desviación, en la cual todas las variables están expresadas como desviaciones de sus medias muestrales, se puede escribir el modelo de regresión con tres variables como.


sábado, 6 de septiembre de 2014

Naturaleza de la multicolinealidad (IV)

Por qué supone el modelo clásico de regresión lineal que no hay multicolinealidad entre las X? El razonamiento es el siguiente: Si la multicolinealidad es perfecta en el sentido de (10.1.1), son infinitos. Si la multicolinealidad es menos perfecta, como sucede en (10.1.2), los coeficientes de regresión, aunque sean determinados, poseen grandes errores estándar (en relación con los coeficientes mismos)., lo cual significa que los coeficientes no pueden ser estimados con gran precisión o exactitud. Las pruebas de estas afirmaciones se presentan en las siguientes secciones.

Existen diversas fuentes de multicolinealidad. Como lo afirman Montgomery y Peck, la multicolinealidad puede deberse a los siguientes factores:



  1. El método de recolección de información empleado, por ejemplo, la obtención de muestras en un rango limitado de valores tomados por los regresores en la población.
  2. Restricciones sobre el modelo o en la población que es objeto de muestreo. Por ejemplo, en la regresión del consumo de electricidad sobre el ingreso (X2) y el tamaño de las viviendas (x3) hay una restricción física en la población puesto que las familias con ingresos más altos, generalmente tienen viviendas más grandes que las familias con ingresos más bajos.
  3. Especificación del modelo, por ejemplo, la adición de términos polinomiales a un modelo de regresión, especialmente cuando el rango de la variable X es pequeño.
  4. Un modelo sobredeterminado. Esto sucede cuando el modelo tiene más variables explicativas que el número de observaciones. Esto podría suceder en investigación médica donde puede haber un número bajo de pacientes sobre quienes se reúne información respecto a un gran número de variables.

jueves, 4 de septiembre de 2014

Naturaleza de la multicolinealidad (III)

En enfoque algebraico anterior al problema de la multicolinealidad se puede expresar concisamente mediante un diagrama  de Ballentine (recuerde la figura 7.1). En esta figura los círculos Y, X2 y X3 representan las variaciones en Y(la variable dependiente) y en X2 y X3 (las variables explicativas), respectivamente. El grado de colinealidad puede medirse por la magnitud de la sobreposición (área sombreada) de los círculos X2 y X3. En la figura 10.1 no hay sobreposición entre X2 y X3 y, por tanto, no hay colinealidad- En las figuras 10.1b hasta 10.1e, el grado de colinealidad va de "bajo" a "alto"-entre mayor sea la sobreposición entre X2 y X3 (es decir, entre mayor sea el área sombreada), mayor será el grado de colinealidad. En el extremo, si X2 y X3 estuvieran superpuestos completamente (o si X2 estuviera completamente dentro de X3, o viceversa), la colinealidad sería perfecta.

A propósito, obsérvese que la multicolinealidad, como se ha definido, se refiere solamente a relaciones lineales entre las variables X. No elimina las relaciones no lineales existentes entre ellas. Por ejemplo, considérese el siguiente modelo de regresión:


Yi = βo + β1Xi + β2Xi² + β3Xi³ + ui (10.1.5)

donde, Y = costo total de producción y X = producción. Las variables Xi² (producción al cuadrado) y Xi³ (producción al cubo) obviamente están funcionalmente relacionadas con Xi, pero la relación es no lineal. Estrictamente, por consiguiente, modelos tales como (10.1.5) no violan el supuesto de no multicolinealidad. Sin embargo, en aplicaciones concretas, el coeficiente de correlación convencionalmente medido demostrará que Xi, Xi² y Xi³ están altamente correlacionadas, lo cual, como mostraremos, hará difícil estimar los parámetros de (10.1.5) con mayor precisión (es decir, con errores estándar pequeños.)

miércoles, 3 de septiembre de 2014

Naturaleza de la multicolinealidad (II)

En forma similar, si λ2 ≠ 0, la ecuación (10.1.2) puede escribirse como

Es aparente que X3i = 5X2i. Por consiguiente, hay colinealidad perfecta entre X2 y X3 puesto que el coeficiente de correlación r23 es la undidad. La variable X3* fue creada a partir de X3 aregrándole a ésta simplemente los siguientes números, que fueron tomados de una tabla de números aleactorios: 2,0,7,9,2. Ahora ya no hay multicolinealidad perfecta entre X2 y X3*. Sin embargo, las dos variables están altamente correlacionadas pues los cálculos indicarán que el coeficiente de corelación entre ellas es 0.9959.

martes, 2 de septiembre de 2014

Naturaleza de la multicolinealidad (I)

El término multicolinealidad se atribuye a Ragnar Frisch. Originalmente, significó  la existencia de una relación "perfecta" o exacta entre algunas o todas las variables explicativas de un modelo de regresión. Para la regresión con k variables que incluye las variables explicativas X1, X2,......Xk (donde X1 =1 para todas las observaciones que den cabida al término intercepto), se dice que existe una relación lineal exacta si se satisface la siguiente condición:

que muestra la forma como X2 está exactamente relacionada de manera lineal con otras variables o como ésta puede derivarse a partir de una combinación lineal de otras variables X. En esta situación, el coeficiente de correlación entre la variable X2 y la combinación lineal del lado derecho de (10.1.3) debe ser igual a uno.

lunes, 1 de septiembre de 2014

El supuesto 10 del modelo clasico de regresión lineal (MCRL)

Plantea que no existe multicolinealidad entre los regresores incluidos en el modelo de regresión. Los supuestos 7 y 8 son complementarios al supuestos de multicolinealidad. El supuesto 7, especifica que el número de observaciones debe superar al número de regresores (el tema de muestras pequeñas) y el supuesto 8, que debe haber suficiente variabilidad en los valores de los regresores. En este capítulo consideramos en forma crítica el supuesto de no multicolinealidad buscando respuestas a las siguientes preguntas:

1. Cuál es la naturaleza de la multicolinealidad?
2. Es la multicolinealidad realmente un problema?
3. Cuáles son sus consecuencias prácticas?
4. Cómo se detecta?
5. Qué medidas remediales pueden tomarse para aliviar el problema de multicolinealidad? también mostraremos la forma como los supuestos 7 y 8 se ajustan con el supuesto de no multicolinealidad.