viernes, 31 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (IV)

c) Sin embargo, los coeficientes de correlación de orden cero pueden ser malos indicadores en modelos que contiene más de dos variables X, puesto que es posible tener correlaciones bajas de orden cero y encontrar aún alta multicolinealidad. En situaciones como éstas pueden ser necesario examinar los coeficientes de correlación parcial.

d) Si R² es algo pero las correlaciones parciales son bajas, la multicolinealidad es una posiblidad. Aquí hay una o más variables que pueden ser superfluas. Pero si R² es alto  las correlaciones parciales son altas también, la multicolinealidad puede no ser fácilmente detectable. También como lo señalan C. Robert, Krishna Kumar, John O'Hagan y Brendan Mc CAbe, hay algunos problemas estadísticos con la prueba correlación  parcial sugerida por FArrar y Glauber.

e) Por consiguiente, se puede regresar cada una de las variables Xi sobre las variables X restantes en el modelo y encontrar  los coeficientes de determinación correspondientes R²i. Un R²i elevado sugeriría que Xi está altamente correlacionado con el resto de las X. Así, se puede eliminar esta Xi del modelo, siempre y cuando conduzca a un sesgo de especificación grave.

jueves, 30 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (III)

3. Aunque no hay métodos seguros para detectar la colinealidad, existen diversos indicadores de ésta, como los siguientes:

a) El signo más claro de multicolinealidad es cuando el R² es muy alto, pero ninguno de los coeficientes de regresión es estadísticamente significativo con base en la prueba t convencional. Por supuesto, este caso es extremo.
b) En los modelos que contiene apenas dos variables explicativas, puede tenerse una idea de colinealidad relativamente buena mediante el examen del coeficiente de correlación de orden cero, o simple entre las dos variables. Si esta correlación es alta, la multicolinealidad es generalmente la culplable.

miércoles, 29 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (II)

2. Las consecuencias de la multicolinealidad son las siguientes: Si existe colinealidad perfecta entre las X, sus coeficientes de regresión son indeterminados y sus errores estándar no están definidos. Si la colinealidad es alta pero no es perfecta, la estimación de los coeficientes de regresión es posible pero sus errores estándar tienden a ser grandes. Como resultado, los valores poblacionales de los coeficientes no pueden se estimados en forma precisa. Sin embargo, si el objetivo es estimar combinaciones lineales de estos coeficiente, las funciones estimables, esto puede lograrse aun en presencia de multicolinealidad perfecta.

martes, 28 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (I)


  1. Uno de los supuestos del modelo clásico de regresión lineal es que no haya multicolinealidad entre las variables explicativas, las X. Interpretado en términos generales, la multicolinealidad se refiere a una situación en la cual existe una relación lineal exacta o aproximadamente exacta entre la variables X.

lunes, 27 de octubre de 2014

Es la multicolinealidad necesariamente mala? Posiblemente no, si el objetivo es solamente la predicción (II)

Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un problema grave. Es el caso en el cual se tiene un R² elevado y los coeficientes de regresión son significativos individualmente como lo demuestran los altos valores t. Aun así, los diagnósticos de multicolinealidad, por ejemplo, el índide de condición, indican que los datos presentan colineslidad grave. Cuándo puede presentarse tal situación? Como menciona Johnston:

Esto puede surgir si los coeficientes individuales resultan estar numéricamente por encima del valor verdadero, de tal forma que el efecto siga visible, a pesar de estar inflados los errores estándar y/o debido a que el valor verdadero mismo es tan grande que aun cuando se obtenga una estimación bastante subestimada, ésta continúa siendo significativa.

domingo, 26 de octubre de 2014

Es la multicolinealidad necesariamente mala? Posiblemente no, si el objetivo es solamente la predicción (I)

Se ha dicho que si el único propósito del analisis de regresión es el pronóstico o la predicción, entonces la multicolinealidad no es un grave problema puesto que entre más alto sea el R², mejor es la predicción. Pero esto puede suceder "....siempre que los valores de las variables explicativas para los cuales se desean las predicciones obedezcan las mismas dependencias lineales casi exactas de la matriz X [de datos] de diseño original". Por tanto, si en regresión estimada se encuentra que X2 = 2X3 aproximadamente entonces,  en una muestra futura utilizada para pronosticar Y,X2, también debe ser aproximadamente igual a 2X3, una condición difícil de cumplir en la práctica, en cuyo caso la predicción se hará cada vez más incierta. Adicionalmente, si el objetivo del análisis no es solamente la predicción sino también la estimación confiable de los parámetros, la presencia de alta multicolinealidad puede ser un problema porque, como se ha visto, conduce a grandes errores estándar en los estimadores.

sábado, 25 de octubre de 2014

Otros métodos de remediar la multicolinealidad

Las técnicas estadísticas multivariadas tales como el análisis de los factores y el de componentes principales o técnicas como la ridge regressión se emplean frecuentemente para "resolver" el problema de la multicolinealidad. Desafortunadamente, estas técnicas están por fuera del alcance de este blog.

viernes, 24 de octubre de 2014

Reducción de la colinealidad en las regresiones polinomiales

En la sección 7.11 se estudiaron los modelos de regresión polinomial. Una característica especial de estos modelos es que la(s) variable(s) explicativa(s) aparece(n) elevadas a diversas potencias. Por tanto, en la función cúbica de costos totales que involucra la regresión del costo total sobre la producción, la (producción) y la (producción), como en (7.11.4), los diversos términos de la producción van a estar correlacionados, haciendo difícil la estimación precisa de los diversos coeficientes de pendiente. No obstante, en la práctica, se ha encontrado que si la(s) variable(s) explicativa(s) están expresadas en forma de desviación (es decir, desviaciones del valor medio), la multicolinealidad se reduce sustancialmente. Pero, aun entonces el problema puede persistir, en cuyo caso se puede desear considerar técnicas tales como la de los polinomios ortogonales.

jueves, 23 de octubre de 2014

Datos nuevos o adicionales (II)

Ahora, el coeficiente de la riqueza no solamente tiene el signo correcto, sino que es estadística mente significativo al nivel del 5%.

La obtención de datos adicionales o "mejores" no siempre es tan sencilla, puesto que como lo mencionan Judge et al.

Desafortunadamente,  los economistas, muy pocas veces, pueden obtener información adicional sin incurrir en altos costosos y mucho menos pueden seleccionar los valores de las variables explicativas que desean. Adicionalmente, al agregar variables nuevas en situaciones que no son controladas, se debe ser cuidadoso de no agregar observaciones que fueron generadas en un proceso diferente del asociado con el conjunto original de datos; es decir, se debe estar seguros de que la estructura económica asociada con las nuevas observaciones sea igual a la estructura original.

miércoles, 22 de octubre de 2014

Datos nuevos o adicionales (I)

Puesto que la multicolinealidad es una característica de la muestra, es posible que en otra muestra que contenga las mismas variables, la colinealidad no sea tan grave como en la primera. A veces, con sólo aumentar el tamaño de la muestra (si esto es posible), se puede atenuar el problema de la colinealidad. Por ejemplo, en el modelo de tres variables se vio que:


martes, 21 de octubre de 2014

Transformación de variables (II)

El modelo de regresión utilizando primeras diferencias reduce frecuentemente la severidad de la multicolinealidad porque, aun cuando los niveles de X2 y X3 puede estar altamente correlacionadas, no hay razón a priori para pensar que sus diferencias crea algunos problemas.

Sin embargo, la transformación  que utiliza primeras diferencias crea algunos problemas adicionales. El término de error vt que aparece en (10.8.3) puede no satisfacer uno de los supuestos del modelo clásico de regresión lineal, a saber, que en las perturbaciones no están seriamente correlacionadas. Como veremos en el capítulo 12, si el ut original es serialmente independiente o no correlacionada, el término de error vt obtenido anteriormente estará, en la mayoría de los casos, serialmente correlacionado. Nuevamente, el remedio puede ser peor que la enfermedad Además, se pierde una observación debido al procedimiento de diferenciación y, por consiguiente, los grados de libertad se reducen en 1. En una muestra pequeña, ésto puede ser un factor que se debe, por lo menos, considerar. Además, el procedimiento de primeras diferencias puede no ser el adecuado en los datos de corte transversal donde no hay un ordenamiento lógico de las observaciones.

lunes, 20 de octubre de 2014

Transformación de variables (I)

Supóngase que se tiene información de series de tiempo sobre  el gasto de consumo, el ingreso y la riqueza. Una razón para la alta multicolinealidad entre el ingreso y la riqueza en tal información es que en el tiempo las dos variables tienden a moverse en la misma dirección. Una forma de minimizar esta dependencia es proceder de la siguiente manera

Si la relación

donde vt = ut - u(t-1). La ecuación (10.8.3) se conoce como la forma en primeras diferencias porque no se está corriendo la regresión sobre las variables originales sino sobre las diferencias de los valores sucesivos de dichas variables.


domingo, 19 de octubre de 2014

Eliminación de una(s) variable(s) y el sesgo de especificación.(II)

donde b32 = coeficiente de la pendiente en la regresión de X3 sobre X2. Por consiguient, es obvio que (7.7.4) que b12 será una estimación sesgada de β2 en la medida en que b32 sea diferente de cero (se supone que β3 es diferente de cero; en caso contrario, no tendría sentido el incluir X3 en el modelo original). Claro está que si b32 fuera cero, para empezar no habría problema de multicolinealidad. También es claro de (7.7.4) que si b32 y β3 son positivos, E(b12) será mayor que β2; por tanto, en promedio, b12 sobreestimará a β2, ocasionado un sesgo positivo. En forma similar, si el producto b32β3 es negativo, en promedio, b12 subestimará a β2 ocasionando un sesgo negativo.

DEl análisis anterior es claro que eliminar una variable del modelo para aliviar el problema de la multicolinealidad puede producir un sesgo de especificación. Por tanto, el remedio puede ser peor que la enfermedad en algunas situaciones porque, mientras que la multicolinealidad puede obstaculizar la estimación precisa de los parámetros del modelo, la omisión de una variable puede llevar a graves equivocaciones con respecto a los verdaderos valores de los parámetros. Recuérdese que los estimadores MCO son MELI a pesar de la presencia de multicolinealidad perfecta.

sábado, 18 de octubre de 2014

Eliminación de una(s) variable(s) y el sesgo de especificación.(I)

Al enfrentar el problema de multicolinealidad severa, una de las soluciones "más simples" consiste en omitir del modelo una de las variables colineales. ASí, en el ejemplo consumo-ingreso-riqueza, al omitir la variable riqueza, obtenemos la regresión  (10.6.4), la cual muestra que mientras en el modelo original la variable ingreso no era estadísticamente significativa, ahora se vuelve "altamente significativa".

Sin embargo, al eliminar una variable del modelo se puede estar incurriendo en un sesgo de especificación o error de especificación. El sesgo de especificación surge de la especificación incorrecta del modelo utilizado en el análisis. Así, si la teoría económica afirma que tanto el ingreso como la riqueza deben estar incluidos en el modelo que explica el gasto de consumo, al eliminar la variable riqueza se incurrirá en un sesgo de especificación.

Aunque se estudiará el tema del sesgo de especificación en el cap 13, se obtuvo una idea general sobre éste en la sección 7.7 donde se vió que si el modelo verdadero es



viernes, 17 de octubre de 2014

Combinación de información de corte transversal y de series de tiempo (III)

Aunque ésta es una técnica atractiva, la mezcla de datos de series de tiempo y de corte transversal en la forma recién sugerida puede crear problemas de interpretación porque se está suponiendo implícitamente que la elasticidad-ingreso estimada a partir de datos de corte transversal es igual a la que se habría obtenido a partir de un análisis puro de series de tiempo. Sin embargo, la técnica ha sido utilizada en muchas aplicaciones y es particularmente valiosa en situaciones en donde las estimaciones de corte transversal no varían sustancialmente de un grupo a otro. Un ejemplo de esta técnica se encuentra en el ejercicio 10.25.

jueves, 16 de octubre de 2014

Combinación de información de corte transversal y de series de tiempo (II)

En la información de series de tiempo, las variables precio e ingreso generalmente tienden a ser altamente colineales. Por consiguiente, si se desea efectuar la anterior regresión, se deberá enfrentar el problema usual demulticolinealidad. Una salida a esto ha sido sugerida por Tobin. El dice que si se tiene información de corte transversal (por ejemplo, información generada a través de grupos de consumidores o estudios de presupuesto realizados por diversas agencias privadas  estatales), se puede obtener una estimación relativamente confiable de la elasticidad-ingreso β3, puesto que con tal información, que está en un punto en el tiempo, los precios no varían mucho. Sea β3 la elasticidad-ingreso estimada a partir de los datos de corte transversal. Utilizando esta estimación, la anterior regresión de series de tiempo puede escribirse como:

Y*t = β1 + β2lnPt + ut

donde Y* = lnY - β3ln I, es decir, Y* representa ese valor de Y después de eliminarle el efecto del ingreso. Ahora se puede obtener una estimación de la elasticidad-precio β2 de la regresión anterior.

miércoles, 15 de octubre de 2014

Combinación de información de corte transversal y de series de tiempo (I)

Una variante de la técnica de información externa a priori es la combinación de información de corte transversal y de series de tiempo, conocida como mezcla de datos. Supóngase que deseamos estudiar la demanda de automóviles en los Estados Unidos y supóngase que se tiene información de series de tiempo sobre el número de autos vendidos, el precio promedio del auto y el ingreso del cosumidor. Supóngase además que


martes, 14 de octubre de 2014

Información a priori

Supóngase que se considera el modelo


Cómo se obtiene información a priori? Esta puede provenir de trabajo empírico anterior, en donde el problema de colinealidad resultó ser menos grave o  de la teoría relevante que soporta el campo de estudio. Por ejemplo, en la función de producción tipo Cobb-Douglas (7.10.1) si se espera que prevalezcan los rendimientos constantes a escala, entonces (β2 + β3) =1, en cuyo caso se puede efectuar la regresión (8.7.13), regresando la razón producto-trabajo sobre la razón capital-trabajo. Si existe colinealidad entre el trabajo y el capital, como generalmente es el caso en la mayor parte de la información muestral, dicha transformación puede reducir o eliminar el problema de colinealidad. Pero es preciso hacer una advertencia aquí con respecto a la imposición de esas restricciones a priori, "... puesto que en general se desea probar las predicciones a priori de la teoría económica en lugar de imponerlas simplemente sobre los datos para los cuales ellas pueden no ser ciertas" Sin embargo, se sabe, de la sección 8.7, cómo probar explícitamente la validez de tales restricciones.

lunes, 13 de octubre de 2014

Medidas remediales

Qué puede hacerse si la multicolinealidad es grave? Como en el caso de la detección, no hay guías infalibles porque la multicolinealidad es esencialmente un problema muestral. Sin embargo, se pueden ensayar las siguientes reglas prácticas, dependiendo su éxito de la gravedad del problema de colinealidad.

domingo, 12 de octubre de 2014

Factores de tolerancia y de inflación de varianza (III)

Para concluir la discusión de detección de la Multicolinealidad, se hace énfasis en que los diversos métodos que hemos estudiado son esencialmente "expediciones de pesca", ya que no se puede decir cuáles de ellos funcionan en una aplicación particular. Sin embargo, no se puede hacer mucho al respecto, puesto que la multicolinealidad es un problema especifico de una muestra dada sobre la cual el investigador puede no tener mucho control, especialmente si los datos son no experimentales por naturaleza como es el caso común que enfrentan los investigadores en las ciencias sociales.

Nuevamente, como una parodia de multicolinealidad, Goldberger cita diversas formas de detectar la micronumerosidad, tales como el desarrollo de valores críticos del tamaño de la muestra, n* tales que la micronumerosidad es un problema solamente si el tamaño real de la muestra, n, es más pequeño que n*. El punto de la parodia de Goldberger es enfatizar que el tamaño pequeño de la muestra y la falta de variabilidad en las variables explicativas pueden ocasionar problemas que son pro lo menos tan graves como aquellos debidos a la multicolinealidad.

sábado, 11 de octubre de 2014

Factores de tolerancia y de inflación de varianza (II)

Algunos autores utilizan, por consiguiente, el FIV como indicador de la multicolinealidad: Entre mayor es el valor del FIVj, mayor "problema" o colinealidad tiene la variable Xj. Pero que tan alto debe ser el FIV antes de que un regresor se convierta en un problema?  Como regla práctica, si el FIV de una variable superior a 10 (esto sucederá si Rj excede 0.90), se dice que esa variable es altamente colineal.

Otros autores utilizan la medida de tolerancia para detectar la multicolinealidad. Esta se define como:

El FIV (o tolerancia) como medida de colinealidad no está libre de crítica. Como lo indica (10.7.4), var (βi) depende de tres factores: σ², Σxi² y FIVj. Un FIV alto puede ser contrarrestado por un σ² bajo o una Σxi² alta. Para ponerlo de otra forma, un FIV alto no es condición necesaria ni suficiente para obtener varianzas y errores estándar altos. Por consiguiente, la alta multicolinealidad, como la mide un FIV alto, puede no necesariamente ocasionar errores estándar altos. En toda esta discusión, los términos alto y bajo son utilizados en un sentido relativo.

viernes, 10 de octubre de 2014

Factores de tolerancia y de inflación de varianza (I)

Para el modelo de regresión con k variables [Y, el intercepto y los (k-1) regresores], como hemos visto en (7.5.6), la varianza de un coeficiente de regresión parcial puede ser expresado como.
donde βi es el coeficiente de regresión (parcial) del regresor Xj, R²j es el R² en la regresion (auxiliar) de Xj sobre los restantes (k-2) regresores FIVj es el primer factor de inflación de varianza introducido en la sección 10.5. A medida que R²j aumenta hacia la unidad, es decir, a medida que aumenta la colinealidad Xj con los demás regresores, el FIV también aumenta y en el límite puede ser infinito.

jueves, 9 de octubre de 2014

Entonces se tiene esta regla práctica

Si k está entre 100 y 1000, existe una multicolinealidad que va desde moderada a fuerte, mientras que si éste excede a 1000, existe multicolinealidad severa. Alternativamente, si el IC(=√k) está entre 10 y 30, existe multicolinealidad entre moderada y fuerte y si excede 30, existe multicolinealidad severa.

Para el ejemplo ilustrativo, k = 3.0/0.00002422 o alrededor de 123,864 e IC √123864 = alrededor de 352; en consecuencia, tanto k como IC sugieren multicolinealidad severa. Claro está que k e IC pueden calcularse entre el máximo valor propio y cualquier otro valor propio, como se hace en el listado. (Nota: En el listado no se calcula explícitamente k, pero éste es simplemente IC elevado al cuadrado). A propósito, obsérvese que un valor propio bajo (en relación con el máximo valor propio) es generalmente una indicación de dependencias casi lineales en los datos.

Algunos autores consideran que el índice de condición es el mejor diagnóstico de multicolinealidad disponible. Sin embargo, esta opinión no es ampliamente aceptada. Entonces, el IC es solamente una regla práctica, quizá un poco más sofisticada. Para mayores detalles, el lector puede consultar las referencias.

miércoles, 8 de octubre de 2014

Valores propios e índice de condición

Si se examina el listado SAS de la función de producción Cobb-Douglas dada el apéndice 7A.7 se verá que SAS utiliza los valores propios y el índice de condición para diagnosticar multicolinealidad. No se analizará aquí el tema de los valores propios puesto que llevaría a involucrarse en temas de álgebra matricial que están por fuera del alcance de este libro. Sin embargo, partiendo de estos valores propios, se puede derivar lo que se conoce como número de condición k definido como:


martes, 7 de octubre de 2014

Regresiones auxiliares (II)

Sin embargo, este método no deja de tener sus desventajas ya que

... si la multicolinealidad comprende solamente unas pocas variables, de tal forma que las regresiones auxiliares no sufren de multicolinealidad extensa, los coeficientes estimados pueden revelar la naturaleza de la dependencia lineal entre los regresores. Desafortunadamente, si existen diversas asociaciones lineales complejas, este ejercicio de ajuste de ajuste de curva puede no tener gran valor puesto que será difícil identificar las interrelaciones separadas.

En lugar de probar formalmente todos los valores R² auxiliares, se puede adoptar la regla práctica de Klien que sugiere que la multicolinealidad puede ser un problema complicado solamente si el R² obtenido de una regresión auxiliar es mayor que el R² global, es decir, aquél obtenido de la regresión, ésta debe ser utilizada con buen criterio.

lunes, 6 de octubre de 2014

Regresiones auxiliares (I)

Puesto que la multicolinealidad surge debido a que uno o más de los regresores son combinaciones lineales exactas o aproximadas de los otros regresores, una forma de encontrar cuál variable X está relacionada con las otras variables X es efectuar la regresión de cada Xi, sobre las variables X restantes y calcular el R² correspondiente, que se designa R²i; cada una de estas regresiones se denomina regresión auxiliar, auxiliar a la regresión principal de Y sobre las X. Entonces, siguiendo la relación entre F y R² establecida en (8.5.11),la variable.

domingo, 5 de octubre de 2014

Examen de las correlaciones parciales

Debido al problema que se acaba de mencionar, cuando se basa en correlaciones de orden cero, Farrar y Glauber han sugerido  que se deben observar, en lugar de ellos, los coeficientes de correlación parcial. De esta forma, en la regresión de Y sobre X2, X3 y X4, si se encuentra que R²1.234 es muy elevado pero r²12.34, r²13.24 y r²14.23 son comparativamente bajos, esto puede sugerir  que las variables X2, X3 y X4 están altamente intercorrelacionadas y que por lo menos una de esta variables es superflua.

Aunque puede ser útil un estudio de correlaciones parciales, no ha garantía de que estas proporcionen una guía infalible sobre multicolinealidad, ya que  puede suceder que tanto el R² como todas las correlaciones parciales sean suficientemente altas. Sin embargo y tal vez más importante, C. Robert Wichers ha mostrado que la prueba de correlación parcial de Farrar-Glauber es ineficaz en el sentido de que una determinada correlación parcial puede ser compatible con diferentes patrones de multicolinealidad. La prueba Farrar-Glauber también ha sido criticada severamente por T. Krishna Kumar, John O'Hagan y Brendan McCabe.

sábado, 4 de octubre de 2014

Altas correlaciones entre parejas de regresores

Otra regla práctica que se sugiere utilizar consiste en observar el coeficiente de correlación de orden cero o entre dos regresores. Si éste es algo, digamos superior a 0.8, entonces la multicolinealidad es un problema grave. El problema con este criterio es que, aunque las altas correlaciones de orden cero pueden sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas por contar con la presencia de colinealidad en un determinado caso específico. Para plantear lo anterior en términos un poco técnicos, las correlaciones de orden cero elevadas son una condición suficiente pero necesaria para la existencia de multicolinealidad debida a que ésta puede existir, a pesar de que las correlaciones de orden cero o correlaciones simples sean comparativamente bajas (es decir, inferiores a 0.50). Para apreciar esta relación, supóngase que tenemos un modelo con cuatro variables:

Por consiguiente, en los modelos que involucran más de dos variables explicativas, la correlación simple o de orden cero  no proporcionará una guía infalible sobre la presencia de multicolinealidad. Claroestá que si solamente existen dos variables explicativas, entonces las correlaciones de orden cero serán suficientes.

viernes, 3 de octubre de 2014

Un R² elevado pero pocas razones t significativas

Como se mencionó anteriormente, éste es un síntoma "clásico" de multicolinealidad. Si el R² es alto, es decir, está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará la hipótesis de que los coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas t individuales mostrarán que ningún coeficiente parcial de pendiente, o muy pocos de ellos, son estadísticamente diferentes de cero. Lo anterior se demostró claramente en el ejemplo de consumo ingreso riqueza.

Aunque este diagnóstico es razonable, su desventaja es que "es demasiado fuerte, ene el sentido de que la multicolinealidad se considera dañina, únicamente cuando la totalidad de las influencias de las variables explicativas sobre Y no se pueden separar."

Estimación MCO ignorando la autocorrelación (II)


  1. Es probable que la varianza residual σ² = Σu²t/(n-2) subestime la verdadera  σ² .
  2. Como resultado, es probable que se sobreestime R²
  3. Aun si σ² no está subestimada, var(β2) puede subestimar var(β2)ARI [ecuación 12.2.6], su varianza bajo autocorrelación (de primer orden), aun cuando está última es ineficiente comparada con var(β2)^MCG
  4. Por consiguiente, las pruebas de significancia t y F usuales dejan de ser válidas y, de ser éstas aplicadas, es probable que conduzcan a conclusiones erróneas sobre la significancia estadística de los coeficientes de regresión estimados.

jueves, 2 de octubre de 2014

Detección de la multicolinealidad (II)

Puesto que la multicolinealidad es esencialmente un fenómeno de tipo muestral que surge de información principalmente no experimental, recopilada en la mayoría de las ciencias sociales, no se tiene un método único de detectarla o de medir su fuerza. Lo que se tiene en realidad son ciertas reglas prácticas, algunas informales y algunas formales, pero todas ellas reglas prácticas. Considérense a continuación algunas de éstas.

miércoles, 1 de octubre de 2014

Detección de la multicolinealidad (I)

Habiéndose estudiado la naturaleza  las consecuencias de la multicolinealidad, el interrogante natural es: Cómo puede conocerse la presencia de colinealidad en cualquier situación dada, especialmente en modelos que contienen más de dos variables explicativas? Aquí es útil tener en mente la advertencia de Kmenta:


  1. La multicolinealidad es un problema de grado y no de clase. La distinción importante no es entre la presencia y la ausencia de multicolinealidad, sino entre sus diferentes grados.
  2. Puesto que la multicolinealidad se refiere a la condición de las variables explicativas las cuales son no estocásticas por supuestos, ésta es una característica de la muestra  no de la población.
Por consiguiente, no es necesario "llevar a cabo pruebas sobre multicolinealidad" pero se puede, si se desea, medir su grado en cualquier muestra determinada.