miércoles, 31 de diciembre de 2014

Varianzas y errores estándar consistentes con heteroscedasticidad de White. (II)

Como lo demuestran los resultados anteriores, los errores estándar bajo la corrección de heteroscedasticidad (de White) resultan considerablemente más grandes que los errores estándar MCO y, por consiguiente, los valores t estimados son mucho menores que aquellos obtenidos por MCO. Con base en estos últimos, ambos regresores son estadísticamente significativos al nivel del 5%, mientras que con base en los estimadores de White, éstos no lo son. Sin embargo, debe señalarse que los errores estándar corregidos por heterosedasticidad de White puede ser más grande o más pequeño que los errores estándar sin corregir.

Puesto que los estimadores de las varianzas consistentes con heteroscedasticidad de White están disponibles ahora en paquetes de regresión, se recomienda que el lector les reporte.

martes, 30 de diciembre de 2014

Varianzas y errores estándar consistentes con heteroscedasticidad de White. (I)

White ha demostrado que ésta estimación puede realizarse de tal forma que la inferencia estadística sea asintóticamente válida (es decir, para muestras grandes) sobre los verdaderos valores de los parámetros. No se presentarán aquí los detalles matemáticos ya que no están al alcance de este blog. Sin embargo hay diversos paquetes de de computadores (por ejemplo, TSF, ET, SHAZAM) que presentan varianzas y errores estándar bajo la corrección de heteroscedasticidad de White en forma simultánea con las varianzas y los errores estándar MCO usuales.
donde Y = gasto pér capita en colegios públicos por estado en 1979 e Ingreso = ingreso per cápita por estado en 1979. La muestra consistió en 50 estados más Washington, D.C.

lunes, 29 de diciembre de 2014

Cuando σi² es no conocida

Como se anotó anteriormente, si las verdaderas σi² se conocen, se puede utilizar el método MCP para obtener estimadores MELI. Dado que las verdaderas σi² raramente se conocen, existe alguna forma de obtener estimaciones consistentes (en el sentido estadístico) de las varianzas y convarianzas de los estimadores MCO aun si hay heteroscedasticidad? La respuesta es sí.

domingo, 28 de diciembre de 2014

Ejemplo Ilustración del Método de mínimos cuadrados ponderados (II)

Antes de proseguir a analizar los resultados de la regresión, obsérvese que (11.6.1) no tiene término de intercepto (Por que?). Por consiguiente, se debe utilizar el modelo de regresión a través del  origen para estimar β1* y β2* un tema analizado en el capítulo 6. Per, hoy en día, la mayoría de los paquetes de computadores dan la opción de suprimir el término del intercepto (veáse SAS por ejemplo). Obsérvese también otra característica interesante de (11.6.1): Ésta tiene dos variables explicativas, (1/σi) y (Xi/σi), mientras que si fueramos a utilizar MCO, la regresión del salario sobre el tamaño del empleo tendría una sola variable explicativa, Xi.


sábado, 27 de diciembre de 2014

Ejemplo Ilustración del Método de mínimos cuadrados ponderados (I)

Para ilustrar el método, supóngase que se desea estudiar la relación entre la compensación salarial y el tamaño de empleo para los datos presentados en la tabla 11.1. Por simplicidad, se mide el tamaño del empleo por la siguientes categorias 1(1-4 empleados), 2 (5-9 empleados),....9(1000-2499 empleados), aunque éste también se podría medir utilizando el punto medio de las diversas clases de empleo dadas en la tabla (véase el ejercicio 11.21).

Ahora sea Y la compensación salarial promedio por empleado (US$) y X el tamaño de empleo, se efectúa la siguiente regresión



viernes, 26 de diciembre de 2014

Cuando σi² es conocida: Método de mínimos cuadrados ponderados

Como se vió en la sección 11.3, si se conoce σi², el método más directo de corregir la heteroscedasticidad es a través de los mínimos cuadrados ponderados, ya que los estimadores obtenidos mediante este método son MELI.


jueves, 25 de diciembre de 2014

Medidas Remediales

Como se ha visto, la heteroscedasticidad no destruye las propiedades de insesgamiento y consistencia de los estimadores MCO, sin embargo, estos ya no son eficientes, ni siguiera asintóticamente (es decir, en muestras grandes). Esta falta de eficiencia resta credibilidad a los procedimientos corrientes de prueba de hipótesis. Por consiguiente, se hace necesario introducir medidas remediales. Existen dos enfoques para remediar el problema de heteroscedasticidad: cuando σi² es conocida y cuando no lo es

miércoles, 24 de diciembre de 2014

Otras pruebas de heteroscedasticidad

Hay muchas otras pruebas de heteroscedasticidad cada una basada en supuestos determinados. El lector interesado quizá desee consultar las referencias.

martes, 23 de diciembre de 2014

Ejemplo Prueba de heteroscedasticidad de White (III)

Conviene hacer un comentario relacionado con la prueba de White. Si un modelo tiene muchos regresores, entonces la introducción de todos los regresores, de sus términos elevados al cuadrado (o a potencias más elevadas) y de sus productos cruzados pueden consumir grados de libertad rapidamente. Por consiguiente, se debe tener cautela al utilizar la prueba. Algunas veces, es posible omitir los términos de los productos cruzados. En los casos en los cuales el estadístico de prueba es significativo, la heteroscedasticidad puede no ecesariamente ser la causa, sino los errores de especificación, los cuales se tratarán en mayor detalle mas adelante. En otras palabras la prueba de White puede ser una prueba de heteroscedasticidad (pura) o de error de especificación o de ambos.

lunes, 22 de diciembre de 2014

Ejemplo Prueba de heteroscedasticidad de White (II)

Los resultados empíricos apoyaron las hipótesis. PAra el propósito, el punto importante es averiguar si hay heteroscedasticidad en los datos. Puesto que los datos son de corte transversal e involucran una heterogeneidad de países, se puede esperar a priori la presencia de heteroscedasticidad en la varianza del error. Mediante la aplicación de la prueba de heteroscedasticidad de White a los residuales obtenidos de la regresión (11.5.23) se obtuvieron los siguientes resultados.


domingo, 21 de diciembre de 2014

Ejemplo Prueba de heteroscedasticidad de White (I)

Basado en información de corte transversal de 41 paises, Stephen Lewis estimó el siguiente modelo de regresión.

lnYi = β1 + β2lnX2i +β3linX3i +ui

donde Y = razón entre impuestos arencelarios (impuestos sobre importaciones y exportaciones) y recaudos totales de gobierno, X2 = razón entre la suma de exportaciones e importaciones y el PNB y X3 = PNB per cápita: y ln representa el logaritmo natural. Sus hpótesis fueron que Y y X2 estarían relacionadas positivamente (a mayor volumen de comercio exterior, mayor recaudo arencelario) y que Y y X3 estarían negativamente relacionados (a medida que aumenta el ingreso, el gobierno encuentra más sencillo recolectar impuestos directos- es decir, el impuesto sobre la renta - que depende de los impuestos sobre el comercio exterior.)

sábado, 20 de diciembre de 2014

Prueba general e heteroscedasticidad de White (IV)

Paso 4.

Si el valor ji cuadrado obtenido en (11.5.22) excede al valor ji cuadrado crítico al nivel de significancia seleccionado, la conclusión es que hay heteroscedasticidad. Si éste no excede el valor ji cuadrado crítico, no hay  heteroscedasticidad, lo cual quiere decir que en la regresión auxiliar (11.5.21), α2 =α3 = α4 = α5 = α6 = 0.

viernes, 19 de diciembre de 2014

Prueba general e heteroscedasticidad de White (III)

Paso 3

Bajo la hipótesis nula de que no hay heteroscedasticidad, puede demostrarse que el tamaño de la muestra (n) multiplicado por el R², obtenido de la regresión auxiliar asintóticamente sigue la distribución ji-cuadrado con g de 1 igual al numero de regresores (excluyendo el término constante) en la regresión auxiliar es decir:


donde los g de l son iguales a los definidos anteriormente. En nuestro ejemplo, hay 5 g de l puesto que hay 5 regresores en la regresión auxiliar.

jueves, 18 de diciembre de 2014

Prueba general e heteroscedasticidad de White (II)

Para realizar la prueba de White, se procede de la siguiente forma:

Paso 1. Dada la información, estímese (11.5.20) y obténgase los residuales ûi.

Paso 2. Efectúese la siguiente regresión (auxiliar):


miércoles, 17 de diciembre de 2014

Prueba general e heteroscedasticidad de White (I)

A diferencia de la prueba de Goldfeld-Quandt que requiere el reordenamiento de las observaciones con respecto a la variable X que supuestamente ocasiona la heteroscedasticidad propuesta por White no se apoya en el supuesto e normalidad y es fácil de implementar. Como ilustración de las idea básica, considérese el siguiente modelo de regresión con tres variables (la generalización al modelo con k variables  es directa):


martes, 16 de diciembre de 2014

Ejemplo la prueba de Breusch- Pagan-Godfrey (II)

Bajo los supuestos de la prueba BPG, Θ en (11.5.19) sigue asintóticamente la distribución Ji cuadrado con 1 g de l. Ahora, de la tabla Ji cuadrado se encuentra para 1 g de l, el valor crítico Ji cuadrado al 5% es 3.8414 y el valor F crítico al 1% es 6.6349. Por nivel del 1%. Por consiguiente, se llega a la misma conclusión obtenida mediante la prueba Goldfeld-Quandt. Pero téngase en mente que, estrictamente hablando, la prueba BPG es asintótica o de muestras grandes y en el ejemplo presente, la muestra de 30 observaciones puede no ser una muestra grande. Debe señalarse también que en muestras pequeñas, la prueba es sensible al supuesto de que las perturbaciones ui ésten normalmente distribuidas. Por supuesto, se puede probar el supuesto de normalidad mediante la prueba ji cuadrado o la prueba de Bera-Jarque analizadas anteriormente.

lunes, 15 de diciembre de 2014

Ejemplo la prueba de Breusch- Pagan-Godfrey (I)

A manera de ejemplo, reconsidérese la información de la tabla 11.3 utilizada para ilustrar la prueba de heteroscedasticidad de Goldfeld-Quandt. Al efectuar la regresión de Y sobre X, se obtiene la siguiente


domingo, 14 de diciembre de 2014

Prueba de Breusch-Pagan-Godfrey

El éxito de la prueba de Goldfeld-Quandt depende, no solamente del valor c (el número de observaciones centrales que van a ser omitidas), sino también de la identificación de la variable X correcta que servirá de referencia para el ordenamiento de las observaciones. Dicha limitación de esta prueba puede evitarse si se considera la prueba de Breusch-Pagan-Godfrey (BPG).

Para ilustrar esta prueba, considérese el modelo de regresión lineal con k variables

sábado, 13 de diciembre de 2014

Ejemplo La prueba de Goldfeld-Quandt (II)

El valor F crítico para 11 g de l en el numerador y 11 g de l en el denominador al nivel del 5% es 2.82. Puesto que el valor F(=λ) estimado excede al valor crítico, se puede concluir que hay heteroscedasticidad en la varianza del error. Sin embargo, si el nivel de significancia es fijado al 1% no se puede rechazar el supuestos de homoscedasticidad. Obsérvese que el vapor de p del λ observado es 0.014.

viernes, 12 de diciembre de 2014

Ejemplo La prueba de Goldfeld-Quandt (I)

Para ilustrar la prueba de Goldfeld-Quandt, se presenta en la tabla 11.3 información sobre el gasto de consumo con relación al ingreso para un corte transversal de 30 familias. Supóngase que se postula que el gasto de consumo está relacionado linealmente con el ingreso pero que hay heteroscedasticidad en los datos. Se postula además que la naturaleza de la heteroscedasticidad es como la que se ha dado en (11.5.9). En la tabla 11.3 se presenta también el reordenamiento necesario de los datos para la aplicación de la prueba.

Eliminando las 4 observaciones de la mitad, las regresiones MCO basadas en las primeras 13 observaciones y en las últimas 13, y sus sumas de residuales al cuadrado asociadas se presentan a continuación (los errores estándar se indican entre paréntesis).

Regresión basada en las primeras 13 observaciones



jueves, 11 de diciembre de 2014

Incorporación de la técnica de la cota superior (III)

Si en una aplicación el λ(=F) calculado es superior al F crítico al nivel de significancia seleccionado, se puede rechazar la hipótesis de homoscedasticidad, es decir, se puede afirmar que la presencia de heteroscedasticidad es muy probable.

Antes de ilustra la prueba, conviene dar alguna explicación sobre la omisión de las observaciones centrales c. Estas observaciones son omitidas para agudizar o acentuar la diferencia entre el grupo de varianza pequeña (es decir, SRC1) y el grupo de varianza grande (es decir, SRC2). Pero la capacidad de la prueba de Goldfeld-Quandt para hacer esto exitosamente depende de la forma como c sea seleccionada. Para el modelo con dos variables, los experimentos de Monte Carlo realizados por Goldfeld y Quandt sugieren que es alrededor de 8 si el tamaño de la muestra alrededor de 30 y es alrededor de 16 si el tamaño de la muestra es alrededor de 60. Sin embargo, Judge et al, han encontrado satisfactorios en la práctica los niveles de c = 4 si n=30 y c = 10 si n es alrededor de 60.

Antes de proseguir, puede mencionarse que en caso de que haya más de una variable X en el modelo, el ordenamiento de las observaciones, que es el primer paso en la prueba, puede adelantarse de acuerdo con cualquiera de ellas. Por tanto, en el modelo: Yi = β1 +β2X2i + β3X3i+ β4X4i + ui se pueden ordenar  los datos de acuerdo con cualquiera de estas X. Si, a priori, no hay seguridad sobre cuál variable X es la apropiada, podemos realizar la prueba sobre cada una de las variables X o aplicar la prueba de Park, por turno, sobre cada X.

miércoles, 10 de diciembre de 2014

Prueba de Goldfeld-Quandt (II)

Si (11.5.9) es la relación apropiada, significaría que σi² sería mayor entre mayores fueran los valores de Xi. Si éste resulta ser el caso, es muy probable que haya heteroscedasticidad en el modelo. Para probar esto explícitamente, Goldfeld y Quandt sugieren los siguientes pasos:

martes, 9 de diciembre de 2014

Prueba de Goldfeld-Quandt (I)

Este popular método es aplicable si se supone que la varianza heteroscedástica, σi² está relacionada positivamente con una de las variables explicativas en el modelo de regresión. Por simplicidad, considérese el modelo usual con dos variables:
El supuesto (11.5.9) postula que σi² es proporcional al cuadrado de la variable X. En su estudio presupuestos familiares, Prais y Houthakker han encontrado bastante útil ese supuesto.

domingo, 7 de diciembre de 2014

Ejemplo Ilustración de la prueba de correlación por rango

Para ilustrar la prueba de correlación por rango, considérense los datos dados en la tabla 11.2, los cuales son una submuestra de los datos de la tabla relacionada con el ejercicio 5.16 que pide estimar la línea de mercado de capitales a la cual hace referencia la teoría del portafolio, a saber Ei = β1+β2σi donde E es el retorno esperado sobre el portafolio y σ es la desviación estándar de dicho retorno. Puesto que la información se relaciona con 10 fondos mutuos de tamaños y metas de inversión diferentes, a priori se podrá esperar la presencia de heteroscedasticidad. Para probar esta hipótesis, aplicamos la técnica de correlación por rango. Los cálculos necesarios también se muestran en la tabla 11.2

Aplicando la fórmula (11.5.5), se puede obtener


sábado, 6 de diciembre de 2014

Prueba de correlación por grado de Spearman (II)

Si el valor t calculado excede el valor t crítico, se puede aceptar la hipótesis de heteroscedasticidad; de lo contrario, ésta puede rechazarse. Si el modelo de regresión considera más de una variable X, rs puede ser calculada entre |ûi| y cada una de las variables X separadamente, probando la significancia estadística mediante la prueba t dada en la ecuación (11.5.6).


viernes, 5 de diciembre de 2014

Prueba de correlación por grado de Spearman (I)

En el ejercicio 3.8 se definió el coeficiente de correlación por rango como:


jueves, 4 de diciembre de 2014

Prueba de Glejser (II)

Nuevamente, como un asunto empírico o práctico, se puede utilizar el enfoque de Glejser. Sin embargo, Goldfeld Quandt señalan que el término de error vi tiene algunos problemas ya que su valor esperado es diferente de cero, está serialmente correlacionado (véase capítulo 12) e irónicamente es heteroscedástico. Una dificultad adicional del método Glejser es que modelos tales como

no son lineales en los parámetros y, por consiguiente, no pueden ser estimados mediante el procedimiento MCO usual.

Glejser ha encontrado que para muestras grandes, los cuatro primeros modelos anteriores generalmente dan resultados satisfactorios en la detección de la heteroscedasticidad. En la práctica, por consiguiente, la técnica de Glejser puede ser utilizada para muestras grandes y en muestras pequeñas pueden ser utilizada escrictamente como herramienta cualitativa para obtener una noción sobre la heteroscedasticidad. Para una aplicación del método de Glejser, véase...

miércoles, 3 de diciembre de 2014

Prueba de Glejser (I)

La prueba de Glejser es similar en concepción a la prueba de Park. Después de obtener los residuales ûi de la regresión MCO, Glejser sugiere regresar los valores absolutos de ûi sobre la variable X que se cree que está muy asociada con σi². En sus experimentos, Glejser utilizó las siguientes formas funcionales:

donde vi es el término de error

martes, 2 de diciembre de 2014

Ejemplo Relación entre compensación salarial y productividad (II)

Los resultados revelan que el coeficiente de pendiente estimado es significativo al nivel del 5% con base en una prueba t de una cola. La ecuación muestra que a medida que la productividad laboral aumenta, por ejemplo, en un dólar, la compensación laboral aumenta, en promedio alrededor de 23 centavos de dólar.

Los residuales obtenidos de la regresión (11.5.3) fueron regresados sobre Xi como lo sugiere la ecuación (11.5.2), dando los siguientes resultados:


lunes, 1 de diciembre de 2014

Ejemplo Relación entre compensación salarial y productividad (I)

Para ilustrar el enfoque de Park, se utiliza la información dada en la tabla 11.1 para correr la siguiente regresión:

Yi = β1+ β2Xi + ui

donde Y = compensación promedio en miles de dólares, X = productividad promedio en miles de dólares e i = iésimo tamaño de empleo del establecimiento. Los resultados de la regresión fueron los siguientes:

domingo, 30 de noviembre de 2014

Métodos formales - Prueba de Park (II)

Puesto que σi² generalmente no se conoce, Park sugiere utilizar ûi² como aproximación y correr la siguiente regresión:

Si β resulta ser estadísticamente significativo, esto sugerirá que hay heteroscedasticidad en los datos. Si resulta ser no significativo, se puede aceptar el supuesto de heteroscedasticidad. La prueba de Park es, por tanto, un procedimiento de dos etapas. En la primera etapa se efectúa la regresión MCO ignorando el interrogante de la heteroscedasticidad. Se obtiene ûi de esta regresión y luego, en la segunda etapa, se efectúa la regresión (11.5.2).

Aunque empíricamente la prueba de Park es atractiva, ésta tiene algunos problemas. Goldfeld y Quandt han argumentado que el término de error vi que entra en (11.5.2) puede no satisfacer los supuestos MCO y puede en sí mismo ser heteroscedástico. No obstante, es posible utilizar la prueba de Park como un método esctrictamente exploratorio.

sábado, 29 de noviembre de 2014

Métodos formales - Prueba de Park (I)

Park formaliza el método gráfico sugiriendo que σi² es algún tipo de función de la variable explicativa Xi. La forma funcional sugerida por él fue.

viernes, 28 de noviembre de 2014

Método gráfico (II)

En lugar de graficar los ûi² frente a los Yi, se pueden graficar frente a una de las variables explicativas, especialmente si el grafico de ûi² frente a Yi presenta un patrón como el que se aprecia en la figura 11.7a. Tal gráfico que aparece en la figura 11.8 puede revelar patrones similares a aquellos dados en la figura 11.7 (en el caso del modelo con dos variables, el grafico de los ûi² frente a los Yi es equivalente a graficar los primeros frente a X, razón por la cual la figura 11.8 es similar a la figura 11.7. Pero esta no es la situación cuando se considera un modelo que involucra dos o más variables Xi en este caso ûi² puede ser graficado frente a cualquier variable X incluida en el modelo.

jueves, 27 de noviembre de 2014

Método gráfico (I)

Si no hay información a priori o empírica sobre la naturaleza de la heteroscedasticidad, en la práctica se puede llevar a cabo el análisis de regresión bajo el supuesto de que hay heteroscedasticidad y luego hacer un examen post mortem de los residuales elevados al cuadrado, ûi², para ver si ellos exhíben algún patrón sistemático. Aunque los ui² no son lo mismo que los ui², los primeros puede ser usados como aproximación de los últimos especialmente si el tamaño de la muestra es suficientemente grande. Un examen de los ui² puede revelar patrones tales como los presentados en la figura 11.7.

En la figura 11.7 se grafican los ûi² frente a los Yi, que son los Yi estimados mediante la línea de regresión, con la idea de averiguar si el valor medio estimado de Y está relacionado sistemáticamente con el residual al cuadrado. En la figura 11.7a se ve que no hay patrón sistemático entre las dosvariables, lo cual sugiere que posiblemente no hay heteroscedasticidad en los datos. Sin embargo las figuras 11.7b hasta 11.7e muestran patrones definidos. Por ejemplo, la figura 11.7c sugiere una relación lineal, mientras que las figuras 11.7 y 11.7e indican una relación cuadrática entre ûi² y Yi. Utilizando tal conocimiento, si bien es informal, es posible transformar los datos de tal manera que una vez transformados, no presenten heteroscedasticidad. En la sección 11.6 se examinarán diversas transformaciones de este tipo.

miércoles, 26 de noviembre de 2014

Métodos informales

Naturaleza del problema. Con bastante frecuencia, la naturaleza del problema bajo consideración sugiere la posibilidad de que exista heteroscedsasticidad. Por ejemplo, a partir del trabajo pioner de Paris y Houthakker sobre estudíos de presupuesto familiar, en el cual se encontró que la varianza residual correspondiente a la regresión del consumo sobre el ingreso aumentaba con el ingreso, ahora, generalmente, se supone que encuestas similares, se pueden esperar varianzas desiguales entre las perturbaciones. De hecho, en la información de corte transversal que comprende unidades heterogéneas, la heteroscedasticidad puede ser la regla mas que la excepción. Así, en el análisis de corte transversal que relaciona el gasto de inversión con las ventas, la tasa de interés, etc., generalmente se esepera la presencia de heteroscedasticidad si se han agrupado empresas de tamaños pequeño, mediano y grande.

martes, 25 de noviembre de 2014

Detección de la heteroscedasticidad

De igual forma que sucede con la multicolinealidad, la pregunta práctica importante es: Cómo se sabe que la heteroscedasticidad está presente en una situación específica? Nuevamente, como en el caso de la multicolinealidad, no existen reglas fuertes y rápidas para detectar la heteroscedasticidad, solamente algunas reglas prácticas. Pero esta situación es inevitable porque σi² solamente puede conocerse si se tiene la población Y, correspondiente a las X seleccionadas, compelta tal como la población presentada en la tabla 2.1 o en la tabla 11.1. Pero tal información es una excepción más que la regla en la mayoría de las investigaciones económicas. A este respecto, el econometrista difiere de los cientifícos en campos tales como la agricultura y la biología, donde los investigadores tienen gran parte del control sobre sus temas. En los estudios de economía, es frecuente que solamente haya un valor muestral Y correspondiente a un valor particular de X. Por consiguiente, no hay forma de conocer σi² a partir de una sola observación Y. Así en la mayoría de los casos relacionados con investigaciones econométricas, la heteroscedasticidad puede ser un asunto de intuición o un "educated guesswork" o un trabajo basado en experiencia empírica previa o en pura especulación.

Teniendo en mente la advertencia anterior, se pueden examinar algunos de los métodos informales y formales para detectar la heteroscedasticidad. Como lo revelará el siguiente análisis, la mayoría de estos métodos están basados en el examen de los residuales ûi de MCO, puesto que son estos los que se observan y no las perturbaciones ui. Se espera que ellos sean buenas estimaciones de ui. una esperanza que puede cumplirse si el tamaño de la muestra es relativamente grande.

lunes, 24 de noviembre de 2014

Estimación MCO ignorando la heteroscedasticidad (III)

La caracteristica más sobresaliente de estos resultados es que los MCO con o sin corrección por heteroscedasticidad, sobrestiman consistentemente el verdadero error estándar obtenido mediante el procedimiento (correcto) MCG, especialmente para valores grandes de α, con lo cual se establece  la superioridad de MCG. Estos resultados también muestran que si no se utiliza MCG y se depende de MCO - permitiendo o no la heteroscedasticidad- el resultado es una mezcla. Los errores estándar MCO usuales son muy grandes  (para el intercepto) o generalmente muy bajos (para el coeficiente de pendiente ) con relación a los obtenidos por MCO permitiendo la heteroscedasticidad . El mensaje es claro, ante la presencia de heteroscedasticidad, utilícese MCG. Sin embargo,por las razones explicadas más adelante en el capítulo, en la práctica no siempre es fácil aplicar el MCG.

DEl análisis anterior, es claro que la hetorscedasticidad es un problema potencialmente grave y el investigador debe saber si ella está presente en una situación dada. Si se detecta su presencia, se pueden tomar acciones correctivas, tales como utilizar una regresión de mínimos cuadrados ponderados o alguna otra técnica. Sin embargo, antes de examinar los diversos procedimientos correctivos, es preciso averiguar primero si hay presencia de heteroscedasticidad o si es probable que la haya en un caso dado. Este tema se analiza en la siguiente sección.

domingo, 23 de noviembre de 2014

Estimación MCO ignorando la heteroscedasticidad (II)

Para dar mayor claridad a este tema, se hace referencia a un estudio de Monte Carlo realizado por DAvidson y Mackinnon. ellos se consideran el siguiente modelo simple, que en la notación es

Yi = β1+β2Xi +ui

Suponen que β1=1, β2 = 2 y ui ~N(0,Xi^α) Como lo indica la última expresión, ellos suponen que la varianza del error es heteroscedástica y que está relacionada con el valor del regresor X elevado a la potencia α. Si, por ejemplo, α =1, la varianza del error es proporcional al valor de Xi si α =2, la varianza del error es proporcional al cuadrado del valor de X y así sucesivamente. En la sección 11.6 se considerará la lógica que soporta tal procedimiento. Basados en 20,000 replicaciones y permitiendo diversos valores para α, ellos obtienen los errores estándar de los dos coeficientes de regresión utilizando MCO. MCO con presencia de heteroscedasticidad y MCG. Se citan sus resultados para valores seleccionados de α:

sábado, 22 de noviembre de 2014

EStimación MCO ignorando la heteroscedasticidad (I)

La situación se torna muy grave si, además de utilizar β2, también se sigue utilizando la fórmula usual de varianza (homoscedástica) dada en (11.2.3), aun si existe heteroscedasticidad como si se sospecha de su existencia: obsérvese que este es el caso más probable de los dos que aquí se analizan, puesto que al correr un paquete de regresión MCO estándar e ignorar (o no saber de) la existencia de heteroscedasticidad se producirá una varianza de β2 como la daad en (11.2.3). En primero lugar, la var(β2) dada en (11.2.3) es un estimado sesgado de var(β2) dada en (11.2.2), es decir en promedio (sobreestimación) o negativo (subestimación) pues este depende de la naturaleza de la relación entre σi² y los valores tomados por la variable explicativa X, como puede verse claramente en (11.2.2). El sesgo surge del hecho de que σ², el estimador convencional de σ², a saber Σui²/(n-2) deja de ser un estimador insesgado del último cuando hay presencia de heteroscedasticidad. Como resultado, ya no podemos depender de los intervalos de confianza calculados convencionalmente y de las pruebas t y F tradicionalmente empleadas. En resumen, si se persiste en utilizar los procedimientos de prueba usuales, a pesar de la presencia de hetorscedasticidad, las conclusiones a las cuales se llegue o a las inferencias que se hagan pueden ser erróneas.

viernes, 21 de noviembre de 2014

Estimación MCO considerando la heteroscetasticidad

Supóngase que se utiliza β2 y se usa la fórmula de varianza dada en (11.2.2), la cual considera explícitamente la hetorscedasticidad. Utilizando esta varianza y suponiendo que los σi² son conocidos, es posible establecer intervalos de confianza y probar hipótesis con las pruebas t y F usuales? La respuesta generalmente es no, pues puede demostrarse que var(β2), lo cual significa que los intervalos de confianza basadosen estos últimos serán innecesariamente grandes. Como resultado, es probable que las pruebas t y F nos den resultados imprecisos en el sentido de que la var(β2) es demasiado grande y lo que parece ser un coeficiente, estadísticamente no significativo (puesto que el valor t es mas bajo de lo apropiado), de hecho, puede resultar significativo si establecen intervalos de confianza correctos con base en el procedimiento MCG.

jueves, 20 de noviembre de 2014

Consecuencias de utilizar MCO en presencia de heteroscedasticidad

Como se ha visto, ambos β2* y β2 son estimadores (lineales) insesgados: En muestreo repetido, en promedio, β2* y β2 serán iguales al verdadero β2, es decir, ambos son estimadores insesgados. Pero se sabe que β2* es el eficiente, es decir, tiene la menor varianza. Qué sucede con el intervalo de confianza, las pruebas de hipótesis y con otros procedimientos si se continúa utilizando el estimado MCO, β2? Se distinguen dos situaciones.

miércoles, 19 de noviembre de 2014

El método de mínimos cuadrados generalizados (MCG) (V)

En el MCO (sin ponderar), cada ui² asociado con los puntos A, B y C, recibirá el mismo peso al minimizar la SRC. Obviamente, en este caso el ui² asociado con el punto C dominará la SRC. Pero, en MCG la observación extrema C obtendrá relativamente un peso menor que las otras dos observaciones. Como se anotó anteriormente, esta es la estrategia correcta, ya que para estimar la función de regresión poblacional (FRP) de una manera más confiable, sería deseable dar más peso a las observaciones que están agrupadas cerca de su media (poblacional) que a aquellas que están ampliamente dispersas a su alrededor.

Puesto que (11.3.11) miminiza un SRC ponderada, esto se conoce apropiadamente como mínimos cuadrados ponderados (MCP) y los estimadores así obtenidos que aparecen en (11.3.8) y (11.3.9) son conocidos como estimadores MCP. Pero MCP es apenas un caso especial de la técnica de estimación mas general, MCL. En el contexto de la heroscedasticidad, se pueden tratar los dos términos MCP y MCG indistintamente. En capítulos posteriores se presentarán otros casos especiales de MCG.

A propósito, obsévese que si wi= w es constante para todos los i, el β2* es idéntico al β2 y la var(β2) es idéntica a la var(β2) usual (es decir, homoscedástica) dada en (11.2.3), lo cual no debe sorprender (Por que?).

martes, 18 de noviembre de 2014

El método de mínimos cuadrados generalizados (MCG) (IV)

Por tanto, en MCG se minimiza una suma ponderada de residuales al cuadrado donde wi = 1/σi², actúan como ponderación, pero en MCO se minimiza la SRC sin ponderar o (lo que equivale a lo mismo) con ponderaciones iguales. Como lo muestra (113.3.7), en MCG, el peso asignado a cada observación es inversamente prorporcional a su σi, es decir, las observaciones que provienen de una poblacion con una σi más grande tendrían una ponderación relativamente menor y aquellas de una población con un σi menor tendrán una ponderación relativamente menor y aquellas de una población con un σi meno tendrán una ponderación proporcionalmente mayor al minimizar la SRC (11.3.11). Para ver claramente la diferencia entre MCO y MCG, considérese el diagrama hipotético de dispersión dado en la figura 11.6.

lunes, 17 de noviembre de 2014

El método de mínimos cuadrados generalizados (MCG) (III)

Este procedimiento de transformar variables originales, de tal forma que las variables transformadas satisfagan los supuestos del modelo clásico y de aplicar luego MCO a éstos, se conoce como el método de mínimos cuadrados generalizados (MCG) En resumen MCG es MCO sobre las variables transformadas que satisfacen los supuestos estándar de mínimos cuadrados. Los estimadores así obtenidos se conocen como estimadores MCG y son éstos los estimadores que son MELI.


domingo, 16 de noviembre de 2014

El método de mínimos cuadrados generalizados (MCG) (II)

Cuál es el prósito de transformar el modelo original? Para ver esto, obsérvese la siguiente característica del término de error transformado ui*:


sábado, 15 de noviembre de 2014

El método de mínimos cuadrados generalizados (MCG) (I)

Por qué el estimador usual MCO de β2 dado en (11.2.1) no es el mejor, aunque aun sea insesgado? La razón puede verse intuitivamente, en la figura 11.5. Como lo indica la figura, hay una gran variabilidad en los ingresos entre clases de empleo.Si se fuese a efectuar una regresión de salarios por empleado, sobre el tamaño del empleador, sería recomendable aprovechar el conocimiento que se tiene deque existe considerable variabildiad entre los ingresos de las diferentes clases. Idealmente, se quisiera diseñar un esquema de estimación de tal manera que las observaciones que surgen de poblaciones con mayor variabilidad, reciban menos peso que aquellas que provienen de poblaciones con menor variabilidad. Al examinar la figura 11.5, se desearía dar mayor ponderación a las observaciones que provienen de las clases de empleo 10-19 y 20-49 que a las clases de empleo como 5-9 y 250-499, ya que las primeras están más concentradas alrededor de sus valores medios que las últimas, permitiendo con esto estimar la FRP en forma más precisa.

Desafortunadamente, el método MCO usual no sigue esta estrategia y , por consiguiente no hace uso de la "información" contenida en la variabilidad desigual de la variable dependiente Y, como es el caso de la compensación salarial de empleados de la figura 11.5. Este método asigna igual peso o importancia a cada observación. Pero existe un método de estimación, conocido como mínimos cuadrados generalizados (MCG), que tiene en cuenta esta información explícitamente y, por consiguiente, es capaz de producir estimadores que son MELI. Para ver la forma como esto se logra, considerese el modelo con dos variables ya familiar:

viernes, 14 de noviembre de 2014

Estimación MCO en presencia de Heteroscedasticidad (II)

REcuérdese que β2 es el mejor estimador lineal e insesgado (MELI)si se mantienen los supuestos del modelo clásico, incluyendo el de homoscedasticidad. Sigue aun siendo éste MELI cuando se elimina solamente el supuesto de homoscedasticidad y se reemplaza por el supuesto de heteroscedasticida? Es fácil probar que β2 sigue siendo lineal e insesgado. En realidad, como se indica en el apéndice 3A, sección 3A.2, para establecer el insesgamiento de β2, no es necesario que las perturbaciones (ui) sean homoscedásticas. realmente, la varianza de ui,homoscedástica o heteroscedástica no juega papel alguno en la determinación de la propiedad de insesgamiento.

Una vez se ha garantizado que β2 continúa siendo lineal e insesgado, sigue éste siendo "eficiente" o "el mejor", es decir, tendrá varianza mímina en la clase de los estimadores lineales e insesgados? y dicha varianza mínima estará dada por la ecuación (11.2.2)? La respuesta a ambas preguntas es no: β2 deja de ser el mejor y la varianza míinima ya no está dada por (11.2.2) Entonces, cuál estimador es MELI en presencia de heteroscedasticidad? La respuesta se da en la siguiente sección.

jueves, 13 de noviembre de 2014

Estimación MCO en presencia de Heteroscedasticidad (I)

Qué sucede a los estimadores MCO y a sus varianzas si se introduce la heteroscedasticidad permitiendo que E(ui²) = σi² pero se conservan todos los demás supuestos del modelo clásico? Para responder a esta pregunta, recuérdese el modelo con dos variables:


miércoles, 12 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (IX)

Aunque las industrias difieran en la composición de su producción, la tabla 11.1 muestra claramente que, en promedio, las empresas grandes pagan más que las firmas pequeñas. Como ejemplo, las empresas que emplean entre uno y cuatro empleados pagaron, en promedio, sueldos de alrededor de US$3396, mientras que aquellas que emplean entre 1000 y 2499 empleados pagaron, en promedio, alrededor de US$4843. Pero obsérvese que hay una gran movilidad en las ganancias entre la diversas clases de empleos, como lo indican las desviaciones estándar estimadas de las ganancias. Esto puede verse también en la figura siguiente que muestra el rango de ganancias dentrode cada clase de empleo. Como lo muestra la figura 11.5 el rango (valor más alto - valor más bajo), una medida simple de variablidad, difiere de una clase a otra, indicando la presencia de heteroscedasticidad en la ganancias de las diversas clases de empleo.

martes, 11 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (VIII)

Obsérvese que el problema de heteroscedasticidad es probablemente más común en la información de corte transversalmente que en la información de series de tiempo. En la información de corte transversal, generalmente se trata con miembros de una población en un momento dado del tiempo, tal como consumidores individuales o sus familias, empresas, industrias, o subdivisiones geográficas tales como estados, países, ciudades, etc. Además, estos miembros pueden ser de diferentes tamaños como por ejemplo empresas pequeñas, medianas o grandes o ingresos bajos, medios o altos. En las series de tiempo, por el contrario, las variables tienden a ser órdenes de  magnitud similares porque generalmente se recopila información sobre el mismo fenómeno o hecho durante un período de tiempo. Son ejemplos de PNB, el gasto de consumo, el ahorro o el empleo en los Estados Unidos, digamos, durante el período 1950 a 1994.

A manera de ilustración sobre la heteroscedasticidad que es posible encontrar en un análisis de corte transversal, considérese la tabla 11.1. Esta tabla presenta información sobre compensación salarial por empleado en 10 industrias de bienes manufacturados no durables, clasificadas según número de empleados de la empresa o establecimiento para el año 1958. En la tabla se presenta además cifras de productividad promedio para nueve clases de empleos.

lunes, 10 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (VII)

5. Otra fuente de heteroscedasticidad surge de la violación del supuesto 9 del MCRL, que establece que el modelo de regresión está correctamente especificado. Aunque se analizarán más a fondo los errores de especificación en el capítulo 13, con mucha frecuencia, lo que parece ser heteroscedasticidad, puede deberse al hecho de que algunas variables importantes son omitidas del modelo. Así, en la función de demanda de un bien, si no se incluyen los precios de los bienes que le son complementarios o de los que compiten con éste (sesgo de variable omitada), los residuales obtenidos de la regresión pueden dar la clara impresión de que la varianza del error no es constante. Pero si las variables omitidas son incluidas en el modelo, esa impresión puede desaparecer.

domingo, 9 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (VI)

4. La heterostacidad también puede surgir como resultado de la presencia de factores atípicos. Una observación o factor atípico es una observación que es muy diferente (o bien es muy pequeña o es muy grande) con relación a las demás observaciones en la muestra. La inclusión o exclusión de una observación de este tipo, especialemente si el tamaño de la muestra es pequeño, puede alterar sustancialmente los resultados del análisis de regresión. Como ejemplo, considérese el diagrama de dispersión dado en la figura 11.4. Con base en la información dada en el ejercicio 11.20, en esta figura se ha graficado la tasa de cambio porcentual de los precios de las acciones (Y) y los precios al consumidor (X) para el período posterior a la segunda guerra mundial hasta 19669 en 20 países. En esta figura, la observación sobre Y y X para Chile puede considerarse como atípica puesto que los valores Y y X son mucho más grandes que para el resto de los países. En situaciones como ésta, sería dificil mantener el supuesto de homoscedasticidad. En el ejercicio 11.20 se pide encontrar lo que sucede a los resultados de la regresión, si se retiran del análisis las observaciones de Chile.

sábado, 8 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (V)

3. A medida que mejoran las técnicas de recolección de información, es probable que σ²i se reduzca. Así, es probable que los bancos poseen equipos sofisticados de procesamiento de información comentan menos errores en los extractos mensuales o trimestrales de sus clientes que los bancos que no los posean.

viernes, 7 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (IV)

2. A medida que aumentan los ingresos, la gente posee más ingreso discrecional y, por tanto, tiene mayores posibilidades de selección con respecto a al forma de disponer de su ingreso. En consecuencia, es probable que σi²aumente con el ingreso. Así, en la regresión del ahorro sobre el ingreso, es probable encontrar que σ²i aumenta con el ingreso (como sucede en la figura 11.2)., pues las personas tienen mayores posibilidades de selección acerca de su comportamiento respecto al ahorro. En forma similar, se espera que las compañias con mayores ganancias presenten mayor variabilidad en sus políticas de dividendos, que las compañias cuyas ganancias son menores. Además, es probable que las empresas orientadas hacia el crecimiento presenten una mayor variabilidad en su tasas de pago de dividendos que las empresas ya establecidas.

jueves, 6 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (III)

Hay diversas razones por las cuales las varianzas de ui pueden ser variables, algunas de las cuales son las siguientes:

1. Con base en los Modelos de aprendizaje sobre errores, a medida que la gente aprende, con el tiempo, sus errores de comportamiento se hacen menores. en este caso, se espera que σi² se reduzca. Como ejemplo, considérese la figura 11.3,que relaciona el número de errores cometidos en una prueba de tiempo, establecida para la práctica de mecanografía durante un período de tiempo dado. Como lo indica la figura 11.3, a medida que aumenta el número de horas de esta práctica, el número promedio de errores de mecanografía se reduce al igual que sus varianzas.


miércoles, 5 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (II)

En contraste, considérese la figura 11.2 que muestra que la varianza condicional de Yi aumenta a medida que X aumenta. Aquí, las varianzas de Yi no son las mismas. Por tanto, hay heteroscedasticidad. Simbólicamente

E(ui²) = σi²

Obsérvese el subídice de σ² que nos recuerda que las varianzas condicionales de ui (=varianzas condicionales de Yi) han dejado de ser constantes.

Para entender la diferencia entre homoscedasticidad y heteroscedasticidad, supóngase que en el modelo con dos variables Yi = β1+ β2Xi +ui, Y representa el ahorro y X representa el ingreso. Las figuras 11.1 y 11.2 indican que a medida que el ingreso aumenta, el ahorro en promedio también aumenta. Pero, en la figura 11.1, la varianza del ahorro permanece igual entodos los niveles de ingreso, mientras que, en la figura 11.2 ésta se incrementa con aumentos del ingreso. Parece que en la figura 11.2, en promedio, las familias de ingresos más altos ahorran más que las de ingresos más bajos, pero también hay más variabilidad en su ahorro.

martes, 4 de noviembre de 2014

Naturaleza de la Heteroscedasticidad (I)

Como se mencionó en el capítulo 3, uno de los supuestos importantes del modelo clásico regresión lineal es que la varianza de cada término de perturbación ui, condicional a los valores seleccionados de las variables explicativas, es algún número constante igual a σ². Este es el supuesto de homoscedasticidad, o igual (homo) dispersión (cedasticidad), es decir igual varianza. Simbólicamente,

E(ui²) = σ² i = 1,2,.....,n

Gráficamente,la homoscedasticidad en el modelo de regresión con dos variables puede ser observada en la figura 3.4, la cual, por conveniencia, se reproduce en la figura 11.1. Como lo indica esta figura, la varianza condicional de Yi (la cual es igual a la de ui), condicional a las Xi dadas, permanece igual sin importar los valores que tome la variable X.

lunes, 3 de noviembre de 2014

Heteroscedasticidad

La presencia de heteroscedasticidad nunca ha sido razón para descartar un buen modelo*.
Sin embargo, esto no significa que ella deba ser ignorada!

Un supuesto importante del modelo clásico de regresión lineal (supuesto 4) es que las perturbaciones ui que aparecen en la función de regresión poblacional son homoscedásticas; es decir todas tienen la misma varianza. En este capítulo se examina la validez de este supuesto y se analiza lo que sucede si éste no se cumple. Lo miso que en el capítulo 10 se buscan respuestas a las siguientes preguntas:


  1. Cuál es la naturaleza de la heteroscedasticidad?
  2. Cuáles son sus consecuencias?
  3. Cómo se detecta?
  4. Qué medidas remediales existen?

domingo, 2 de noviembre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (VI)

6. Aunque la multicolinealidad ha recibido extensa (algunos dirían excesiva) atención en la teoría, un problema igualmente importante que se ha presentado en la investigación empírica es el de la micronumerosidad, o pequeñez del tamaño de la muestra. De acuerdo con Goldberger, "Cuando un artículo de investigación acusa la presencia de multicolinealidad, los lectores deben ver si esa queja seriá convincente si se sustituyera el concepto de "micronumerosidad" por el de "multicolineealidad". Él sugiere que el lector decida, qué tan pequeña debe ser n, el número de observaciones, antes de decidir que se tiene un problema de muestra pequeña, exactamente en la misma forma en que uno decide qué tan alto es un valor de R² en una regresión auxiliar antes de declarar que el problema de colinealidad es muy severo.

sábado, 1 de noviembre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (V)

4. La detección de multicolinealidad es la mitad de la batalla. La otra mitad está relacionada con hallar la forma de deshacerse del problema. Nuevamente, no existen métodos seguros, solamente unas pocas reglas prácticas. Algunas de estas reglas son las siguientes: (1) utilizar información obtenida a priori al modelo, (2) combinar información de corte transversal y de series de tiempo (3) omitir una variable si es altamente colineal, (4) transformar los datos y (5) obtener información adicional o nueva. Naturalmente, saber cuál de estas reglas funcionará en la práctica dependerá de la naturaleza de la información y de la severidad el problema de colinealidad.

5. Se mencionó aquí el papel de la multicolinealidad en la predicción y se señaló que a menos de que la estructura colineal continúe en la muestra futura, es peligroso utilizar una regresión estimada que haya sido contaminada por multicolinealidad para fines de proyección.

viernes, 31 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (IV)

c) Sin embargo, los coeficientes de correlación de orden cero pueden ser malos indicadores en modelos que contiene más de dos variables X, puesto que es posible tener correlaciones bajas de orden cero y encontrar aún alta multicolinealidad. En situaciones como éstas pueden ser necesario examinar los coeficientes de correlación parcial.

d) Si R² es algo pero las correlaciones parciales son bajas, la multicolinealidad es una posiblidad. Aquí hay una o más variables que pueden ser superfluas. Pero si R² es alto  las correlaciones parciales son altas también, la multicolinealidad puede no ser fácilmente detectable. También como lo señalan C. Robert, Krishna Kumar, John O'Hagan y Brendan Mc CAbe, hay algunos problemas estadísticos con la prueba correlación  parcial sugerida por FArrar y Glauber.

e) Por consiguiente, se puede regresar cada una de las variables Xi sobre las variables X restantes en el modelo y encontrar  los coeficientes de determinación correspondientes R²i. Un R²i elevado sugeriría que Xi está altamente correlacionado con el resto de las X. Así, se puede eliminar esta Xi del modelo, siempre y cuando conduzca a un sesgo de especificación grave.

jueves, 30 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (III)

3. Aunque no hay métodos seguros para detectar la colinealidad, existen diversos indicadores de ésta, como los siguientes:

a) El signo más claro de multicolinealidad es cuando el R² es muy alto, pero ninguno de los coeficientes de regresión es estadísticamente significativo con base en la prueba t convencional. Por supuesto, este caso es extremo.
b) En los modelos que contiene apenas dos variables explicativas, puede tenerse una idea de colinealidad relativamente buena mediante el examen del coeficiente de correlación de orden cero, o simple entre las dos variables. Si esta correlación es alta, la multicolinealidad es generalmente la culplable.

miércoles, 29 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (II)

2. Las consecuencias de la multicolinealidad son las siguientes: Si existe colinealidad perfecta entre las X, sus coeficientes de regresión son indeterminados y sus errores estándar no están definidos. Si la colinealidad es alta pero no es perfecta, la estimación de los coeficientes de regresión es posible pero sus errores estándar tienden a ser grandes. Como resultado, los valores poblacionales de los coeficientes no pueden se estimados en forma precisa. Sin embargo, si el objetivo es estimar combinaciones lineales de estos coeficiente, las funciones estimables, esto puede lograrse aun en presencia de multicolinealidad perfecta.

martes, 28 de octubre de 2014

Resumen y conclusiones Multicolinealidad y Muestras pequeñas (I)


  1. Uno de los supuestos del modelo clásico de regresión lineal es que no haya multicolinealidad entre las variables explicativas, las X. Interpretado en términos generales, la multicolinealidad se refiere a una situación en la cual existe una relación lineal exacta o aproximadamente exacta entre la variables X.

lunes, 27 de octubre de 2014

Es la multicolinealidad necesariamente mala? Posiblemente no, si el objetivo es solamente la predicción (II)

Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un problema grave. Es el caso en el cual se tiene un R² elevado y los coeficientes de regresión son significativos individualmente como lo demuestran los altos valores t. Aun así, los diagnósticos de multicolinealidad, por ejemplo, el índide de condición, indican que los datos presentan colineslidad grave. Cuándo puede presentarse tal situación? Como menciona Johnston:

Esto puede surgir si los coeficientes individuales resultan estar numéricamente por encima del valor verdadero, de tal forma que el efecto siga visible, a pesar de estar inflados los errores estándar y/o debido a que el valor verdadero mismo es tan grande que aun cuando se obtenga una estimación bastante subestimada, ésta continúa siendo significativa.

domingo, 26 de octubre de 2014

Es la multicolinealidad necesariamente mala? Posiblemente no, si el objetivo es solamente la predicción (I)

Se ha dicho que si el único propósito del analisis de regresión es el pronóstico o la predicción, entonces la multicolinealidad no es un grave problema puesto que entre más alto sea el R², mejor es la predicción. Pero esto puede suceder "....siempre que los valores de las variables explicativas para los cuales se desean las predicciones obedezcan las mismas dependencias lineales casi exactas de la matriz X [de datos] de diseño original". Por tanto, si en regresión estimada se encuentra que X2 = 2X3 aproximadamente entonces,  en una muestra futura utilizada para pronosticar Y,X2, también debe ser aproximadamente igual a 2X3, una condición difícil de cumplir en la práctica, en cuyo caso la predicción se hará cada vez más incierta. Adicionalmente, si el objetivo del análisis no es solamente la predicción sino también la estimación confiable de los parámetros, la presencia de alta multicolinealidad puede ser un problema porque, como se ha visto, conduce a grandes errores estándar en los estimadores.

sábado, 25 de octubre de 2014

Otros métodos de remediar la multicolinealidad

Las técnicas estadísticas multivariadas tales como el análisis de los factores y el de componentes principales o técnicas como la ridge regressión se emplean frecuentemente para "resolver" el problema de la multicolinealidad. Desafortunadamente, estas técnicas están por fuera del alcance de este blog.

viernes, 24 de octubre de 2014

Reducción de la colinealidad en las regresiones polinomiales

En la sección 7.11 se estudiaron los modelos de regresión polinomial. Una característica especial de estos modelos es que la(s) variable(s) explicativa(s) aparece(n) elevadas a diversas potencias. Por tanto, en la función cúbica de costos totales que involucra la regresión del costo total sobre la producción, la (producción) y la (producción), como en (7.11.4), los diversos términos de la producción van a estar correlacionados, haciendo difícil la estimación precisa de los diversos coeficientes de pendiente. No obstante, en la práctica, se ha encontrado que si la(s) variable(s) explicativa(s) están expresadas en forma de desviación (es decir, desviaciones del valor medio), la multicolinealidad se reduce sustancialmente. Pero, aun entonces el problema puede persistir, en cuyo caso se puede desear considerar técnicas tales como la de los polinomios ortogonales.

jueves, 23 de octubre de 2014

Datos nuevos o adicionales (II)

Ahora, el coeficiente de la riqueza no solamente tiene el signo correcto, sino que es estadística mente significativo al nivel del 5%.

La obtención de datos adicionales o "mejores" no siempre es tan sencilla, puesto que como lo mencionan Judge et al.

Desafortunadamente,  los economistas, muy pocas veces, pueden obtener información adicional sin incurrir en altos costosos y mucho menos pueden seleccionar los valores de las variables explicativas que desean. Adicionalmente, al agregar variables nuevas en situaciones que no son controladas, se debe ser cuidadoso de no agregar observaciones que fueron generadas en un proceso diferente del asociado con el conjunto original de datos; es decir, se debe estar seguros de que la estructura económica asociada con las nuevas observaciones sea igual a la estructura original.

miércoles, 22 de octubre de 2014

Datos nuevos o adicionales (I)

Puesto que la multicolinealidad es una característica de la muestra, es posible que en otra muestra que contenga las mismas variables, la colinealidad no sea tan grave como en la primera. A veces, con sólo aumentar el tamaño de la muestra (si esto es posible), se puede atenuar el problema de la colinealidad. Por ejemplo, en el modelo de tres variables se vio que:


martes, 21 de octubre de 2014

Transformación de variables (II)

El modelo de regresión utilizando primeras diferencias reduce frecuentemente la severidad de la multicolinealidad porque, aun cuando los niveles de X2 y X3 puede estar altamente correlacionadas, no hay razón a priori para pensar que sus diferencias crea algunos problemas.

Sin embargo, la transformación  que utiliza primeras diferencias crea algunos problemas adicionales. El término de error vt que aparece en (10.8.3) puede no satisfacer uno de los supuestos del modelo clásico de regresión lineal, a saber, que en las perturbaciones no están seriamente correlacionadas. Como veremos en el capítulo 12, si el ut original es serialmente independiente o no correlacionada, el término de error vt obtenido anteriormente estará, en la mayoría de los casos, serialmente correlacionado. Nuevamente, el remedio puede ser peor que la enfermedad Además, se pierde una observación debido al procedimiento de diferenciación y, por consiguiente, los grados de libertad se reducen en 1. En una muestra pequeña, ésto puede ser un factor que se debe, por lo menos, considerar. Además, el procedimiento de primeras diferencias puede no ser el adecuado en los datos de corte transversal donde no hay un ordenamiento lógico de las observaciones.

lunes, 20 de octubre de 2014

Transformación de variables (I)

Supóngase que se tiene información de series de tiempo sobre  el gasto de consumo, el ingreso y la riqueza. Una razón para la alta multicolinealidad entre el ingreso y la riqueza en tal información es que en el tiempo las dos variables tienden a moverse en la misma dirección. Una forma de minimizar esta dependencia es proceder de la siguiente manera

Si la relación

donde vt = ut - u(t-1). La ecuación (10.8.3) se conoce como la forma en primeras diferencias porque no se está corriendo la regresión sobre las variables originales sino sobre las diferencias de los valores sucesivos de dichas variables.


domingo, 19 de octubre de 2014

Eliminación de una(s) variable(s) y el sesgo de especificación.(II)

donde b32 = coeficiente de la pendiente en la regresión de X3 sobre X2. Por consiguient, es obvio que (7.7.4) que b12 será una estimación sesgada de β2 en la medida en que b32 sea diferente de cero (se supone que β3 es diferente de cero; en caso contrario, no tendría sentido el incluir X3 en el modelo original). Claro está que si b32 fuera cero, para empezar no habría problema de multicolinealidad. También es claro de (7.7.4) que si b32 y β3 son positivos, E(b12) será mayor que β2; por tanto, en promedio, b12 sobreestimará a β2, ocasionado un sesgo positivo. En forma similar, si el producto b32β3 es negativo, en promedio, b12 subestimará a β2 ocasionando un sesgo negativo.

DEl análisis anterior es claro que eliminar una variable del modelo para aliviar el problema de la multicolinealidad puede producir un sesgo de especificación. Por tanto, el remedio puede ser peor que la enfermedad en algunas situaciones porque, mientras que la multicolinealidad puede obstaculizar la estimación precisa de los parámetros del modelo, la omisión de una variable puede llevar a graves equivocaciones con respecto a los verdaderos valores de los parámetros. Recuérdese que los estimadores MCO son MELI a pesar de la presencia de multicolinealidad perfecta.

sábado, 18 de octubre de 2014

Eliminación de una(s) variable(s) y el sesgo de especificación.(I)

Al enfrentar el problema de multicolinealidad severa, una de las soluciones "más simples" consiste en omitir del modelo una de las variables colineales. ASí, en el ejemplo consumo-ingreso-riqueza, al omitir la variable riqueza, obtenemos la regresión  (10.6.4), la cual muestra que mientras en el modelo original la variable ingreso no era estadísticamente significativa, ahora se vuelve "altamente significativa".

Sin embargo, al eliminar una variable del modelo se puede estar incurriendo en un sesgo de especificación o error de especificación. El sesgo de especificación surge de la especificación incorrecta del modelo utilizado en el análisis. Así, si la teoría económica afirma que tanto el ingreso como la riqueza deben estar incluidos en el modelo que explica el gasto de consumo, al eliminar la variable riqueza se incurrirá en un sesgo de especificación.

Aunque se estudiará el tema del sesgo de especificación en el cap 13, se obtuvo una idea general sobre éste en la sección 7.7 donde se vió que si el modelo verdadero es



viernes, 17 de octubre de 2014

Combinación de información de corte transversal y de series de tiempo (III)

Aunque ésta es una técnica atractiva, la mezcla de datos de series de tiempo y de corte transversal en la forma recién sugerida puede crear problemas de interpretación porque se está suponiendo implícitamente que la elasticidad-ingreso estimada a partir de datos de corte transversal es igual a la que se habría obtenido a partir de un análisis puro de series de tiempo. Sin embargo, la técnica ha sido utilizada en muchas aplicaciones y es particularmente valiosa en situaciones en donde las estimaciones de corte transversal no varían sustancialmente de un grupo a otro. Un ejemplo de esta técnica se encuentra en el ejercicio 10.25.

jueves, 16 de octubre de 2014

Combinación de información de corte transversal y de series de tiempo (II)

En la información de series de tiempo, las variables precio e ingreso generalmente tienden a ser altamente colineales. Por consiguiente, si se desea efectuar la anterior regresión, se deberá enfrentar el problema usual demulticolinealidad. Una salida a esto ha sido sugerida por Tobin. El dice que si se tiene información de corte transversal (por ejemplo, información generada a través de grupos de consumidores o estudios de presupuesto realizados por diversas agencias privadas  estatales), se puede obtener una estimación relativamente confiable de la elasticidad-ingreso β3, puesto que con tal información, que está en un punto en el tiempo, los precios no varían mucho. Sea β3 la elasticidad-ingreso estimada a partir de los datos de corte transversal. Utilizando esta estimación, la anterior regresión de series de tiempo puede escribirse como:

Y*t = β1 + β2lnPt + ut

donde Y* = lnY - β3ln I, es decir, Y* representa ese valor de Y después de eliminarle el efecto del ingreso. Ahora se puede obtener una estimación de la elasticidad-precio β2 de la regresión anterior.

miércoles, 15 de octubre de 2014

Combinación de información de corte transversal y de series de tiempo (I)

Una variante de la técnica de información externa a priori es la combinación de información de corte transversal y de series de tiempo, conocida como mezcla de datos. Supóngase que deseamos estudiar la demanda de automóviles en los Estados Unidos y supóngase que se tiene información de series de tiempo sobre el número de autos vendidos, el precio promedio del auto y el ingreso del cosumidor. Supóngase además que


martes, 14 de octubre de 2014

Información a priori

Supóngase que se considera el modelo


Cómo se obtiene información a priori? Esta puede provenir de trabajo empírico anterior, en donde el problema de colinealidad resultó ser menos grave o  de la teoría relevante que soporta el campo de estudio. Por ejemplo, en la función de producción tipo Cobb-Douglas (7.10.1) si se espera que prevalezcan los rendimientos constantes a escala, entonces (β2 + β3) =1, en cuyo caso se puede efectuar la regresión (8.7.13), regresando la razón producto-trabajo sobre la razón capital-trabajo. Si existe colinealidad entre el trabajo y el capital, como generalmente es el caso en la mayor parte de la información muestral, dicha transformación puede reducir o eliminar el problema de colinealidad. Pero es preciso hacer una advertencia aquí con respecto a la imposición de esas restricciones a priori, "... puesto que en general se desea probar las predicciones a priori de la teoría económica en lugar de imponerlas simplemente sobre los datos para los cuales ellas pueden no ser ciertas" Sin embargo, se sabe, de la sección 8.7, cómo probar explícitamente la validez de tales restricciones.

lunes, 13 de octubre de 2014

Medidas remediales

Qué puede hacerse si la multicolinealidad es grave? Como en el caso de la detección, no hay guías infalibles porque la multicolinealidad es esencialmente un problema muestral. Sin embargo, se pueden ensayar las siguientes reglas prácticas, dependiendo su éxito de la gravedad del problema de colinealidad.

domingo, 12 de octubre de 2014

Factores de tolerancia y de inflación de varianza (III)

Para concluir la discusión de detección de la Multicolinealidad, se hace énfasis en que los diversos métodos que hemos estudiado son esencialmente "expediciones de pesca", ya que no se puede decir cuáles de ellos funcionan en una aplicación particular. Sin embargo, no se puede hacer mucho al respecto, puesto que la multicolinealidad es un problema especifico de una muestra dada sobre la cual el investigador puede no tener mucho control, especialmente si los datos son no experimentales por naturaleza como es el caso común que enfrentan los investigadores en las ciencias sociales.

Nuevamente, como una parodia de multicolinealidad, Goldberger cita diversas formas de detectar la micronumerosidad, tales como el desarrollo de valores críticos del tamaño de la muestra, n* tales que la micronumerosidad es un problema solamente si el tamaño real de la muestra, n, es más pequeño que n*. El punto de la parodia de Goldberger es enfatizar que el tamaño pequeño de la muestra y la falta de variabilidad en las variables explicativas pueden ocasionar problemas que son pro lo menos tan graves como aquellos debidos a la multicolinealidad.

sábado, 11 de octubre de 2014

Factores de tolerancia y de inflación de varianza (II)

Algunos autores utilizan, por consiguiente, el FIV como indicador de la multicolinealidad: Entre mayor es el valor del FIVj, mayor "problema" o colinealidad tiene la variable Xj. Pero que tan alto debe ser el FIV antes de que un regresor se convierta en un problema?  Como regla práctica, si el FIV de una variable superior a 10 (esto sucederá si Rj excede 0.90), se dice que esa variable es altamente colineal.

Otros autores utilizan la medida de tolerancia para detectar la multicolinealidad. Esta se define como:

El FIV (o tolerancia) como medida de colinealidad no está libre de crítica. Como lo indica (10.7.4), var (βi) depende de tres factores: σ², Σxi² y FIVj. Un FIV alto puede ser contrarrestado por un σ² bajo o una Σxi² alta. Para ponerlo de otra forma, un FIV alto no es condición necesaria ni suficiente para obtener varianzas y errores estándar altos. Por consiguiente, la alta multicolinealidad, como la mide un FIV alto, puede no necesariamente ocasionar errores estándar altos. En toda esta discusión, los términos alto y bajo son utilizados en un sentido relativo.

viernes, 10 de octubre de 2014

Factores de tolerancia y de inflación de varianza (I)

Para el modelo de regresión con k variables [Y, el intercepto y los (k-1) regresores], como hemos visto en (7.5.6), la varianza de un coeficiente de regresión parcial puede ser expresado como.
donde βi es el coeficiente de regresión (parcial) del regresor Xj, R²j es el R² en la regresion (auxiliar) de Xj sobre los restantes (k-2) regresores FIVj es el primer factor de inflación de varianza introducido en la sección 10.5. A medida que R²j aumenta hacia la unidad, es decir, a medida que aumenta la colinealidad Xj con los demás regresores, el FIV también aumenta y en el límite puede ser infinito.

jueves, 9 de octubre de 2014

Entonces se tiene esta regla práctica

Si k está entre 100 y 1000, existe una multicolinealidad que va desde moderada a fuerte, mientras que si éste excede a 1000, existe multicolinealidad severa. Alternativamente, si el IC(=√k) está entre 10 y 30, existe multicolinealidad entre moderada y fuerte y si excede 30, existe multicolinealidad severa.

Para el ejemplo ilustrativo, k = 3.0/0.00002422 o alrededor de 123,864 e IC √123864 = alrededor de 352; en consecuencia, tanto k como IC sugieren multicolinealidad severa. Claro está que k e IC pueden calcularse entre el máximo valor propio y cualquier otro valor propio, como se hace en el listado. (Nota: En el listado no se calcula explícitamente k, pero éste es simplemente IC elevado al cuadrado). A propósito, obsérvese que un valor propio bajo (en relación con el máximo valor propio) es generalmente una indicación de dependencias casi lineales en los datos.

Algunos autores consideran que el índice de condición es el mejor diagnóstico de multicolinealidad disponible. Sin embargo, esta opinión no es ampliamente aceptada. Entonces, el IC es solamente una regla práctica, quizá un poco más sofisticada. Para mayores detalles, el lector puede consultar las referencias.

miércoles, 8 de octubre de 2014

Valores propios e índice de condición

Si se examina el listado SAS de la función de producción Cobb-Douglas dada el apéndice 7A.7 se verá que SAS utiliza los valores propios y el índice de condición para diagnosticar multicolinealidad. No se analizará aquí el tema de los valores propios puesto que llevaría a involucrarse en temas de álgebra matricial que están por fuera del alcance de este libro. Sin embargo, partiendo de estos valores propios, se puede derivar lo que se conoce como número de condición k definido como:


martes, 7 de octubre de 2014

Regresiones auxiliares (II)

Sin embargo, este método no deja de tener sus desventajas ya que

... si la multicolinealidad comprende solamente unas pocas variables, de tal forma que las regresiones auxiliares no sufren de multicolinealidad extensa, los coeficientes estimados pueden revelar la naturaleza de la dependencia lineal entre los regresores. Desafortunadamente, si existen diversas asociaciones lineales complejas, este ejercicio de ajuste de ajuste de curva puede no tener gran valor puesto que será difícil identificar las interrelaciones separadas.

En lugar de probar formalmente todos los valores R² auxiliares, se puede adoptar la regla práctica de Klien que sugiere que la multicolinealidad puede ser un problema complicado solamente si el R² obtenido de una regresión auxiliar es mayor que el R² global, es decir, aquél obtenido de la regresión, ésta debe ser utilizada con buen criterio.

lunes, 6 de octubre de 2014

Regresiones auxiliares (I)

Puesto que la multicolinealidad surge debido a que uno o más de los regresores son combinaciones lineales exactas o aproximadas de los otros regresores, una forma de encontrar cuál variable X está relacionada con las otras variables X es efectuar la regresión de cada Xi, sobre las variables X restantes y calcular el R² correspondiente, que se designa R²i; cada una de estas regresiones se denomina regresión auxiliar, auxiliar a la regresión principal de Y sobre las X. Entonces, siguiendo la relación entre F y R² establecida en (8.5.11),la variable.

domingo, 5 de octubre de 2014

Examen de las correlaciones parciales

Debido al problema que se acaba de mencionar, cuando se basa en correlaciones de orden cero, Farrar y Glauber han sugerido  que se deben observar, en lugar de ellos, los coeficientes de correlación parcial. De esta forma, en la regresión de Y sobre X2, X3 y X4, si se encuentra que R²1.234 es muy elevado pero r²12.34, r²13.24 y r²14.23 son comparativamente bajos, esto puede sugerir  que las variables X2, X3 y X4 están altamente intercorrelacionadas y que por lo menos una de esta variables es superflua.

Aunque puede ser útil un estudio de correlaciones parciales, no ha garantía de que estas proporcionen una guía infalible sobre multicolinealidad, ya que  puede suceder que tanto el R² como todas las correlaciones parciales sean suficientemente altas. Sin embargo y tal vez más importante, C. Robert Wichers ha mostrado que la prueba de correlación parcial de Farrar-Glauber es ineficaz en el sentido de que una determinada correlación parcial puede ser compatible con diferentes patrones de multicolinealidad. La prueba Farrar-Glauber también ha sido criticada severamente por T. Krishna Kumar, John O'Hagan y Brendan McCabe.

sábado, 4 de octubre de 2014

Altas correlaciones entre parejas de regresores

Otra regla práctica que se sugiere utilizar consiste en observar el coeficiente de correlación de orden cero o entre dos regresores. Si éste es algo, digamos superior a 0.8, entonces la multicolinealidad es un problema grave. El problema con este criterio es que, aunque las altas correlaciones de orden cero pueden sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas por contar con la presencia de colinealidad en un determinado caso específico. Para plantear lo anterior en términos un poco técnicos, las correlaciones de orden cero elevadas son una condición suficiente pero necesaria para la existencia de multicolinealidad debida a que ésta puede existir, a pesar de que las correlaciones de orden cero o correlaciones simples sean comparativamente bajas (es decir, inferiores a 0.50). Para apreciar esta relación, supóngase que tenemos un modelo con cuatro variables:

Por consiguiente, en los modelos que involucran más de dos variables explicativas, la correlación simple o de orden cero  no proporcionará una guía infalible sobre la presencia de multicolinealidad. Claroestá que si solamente existen dos variables explicativas, entonces las correlaciones de orden cero serán suficientes.

viernes, 3 de octubre de 2014

Un R² elevado pero pocas razones t significativas

Como se mencionó anteriormente, éste es un síntoma "clásico" de multicolinealidad. Si el R² es alto, es decir, está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará la hipótesis de que los coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas t individuales mostrarán que ningún coeficiente parcial de pendiente, o muy pocos de ellos, son estadísticamente diferentes de cero. Lo anterior se demostró claramente en el ejemplo de consumo ingreso riqueza.

Aunque este diagnóstico es razonable, su desventaja es que "es demasiado fuerte, ene el sentido de que la multicolinealidad se considera dañina, únicamente cuando la totalidad de las influencias de las variables explicativas sobre Y no se pueden separar."

Estimación MCO ignorando la autocorrelación (II)


  1. Es probable que la varianza residual σ² = Σu²t/(n-2) subestime la verdadera  σ² .
  2. Como resultado, es probable que se sobreestime R²
  3. Aun si σ² no está subestimada, var(β2) puede subestimar var(β2)ARI [ecuación 12.2.6], su varianza bajo autocorrelación (de primer orden), aun cuando está última es ineficiente comparada con var(β2)^MCG
  4. Por consiguiente, las pruebas de significancia t y F usuales dejan de ser válidas y, de ser éstas aplicadas, es probable que conduzcan a conclusiones erróneas sobre la significancia estadística de los coeficientes de regresión estimados.

jueves, 2 de octubre de 2014

Detección de la multicolinealidad (II)

Puesto que la multicolinealidad es esencialmente un fenómeno de tipo muestral que surge de información principalmente no experimental, recopilada en la mayoría de las ciencias sociales, no se tiene un método único de detectarla o de medir su fuerza. Lo que se tiene en realidad son ciertas reglas prácticas, algunas informales y algunas formales, pero todas ellas reglas prácticas. Considérense a continuación algunas de éstas.

miércoles, 1 de octubre de 2014

Detección de la multicolinealidad (I)

Habiéndose estudiado la naturaleza  las consecuencias de la multicolinealidad, el interrogante natural es: Cómo puede conocerse la presencia de colinealidad en cualquier situación dada, especialmente en modelos que contienen más de dos variables explicativas? Aquí es útil tener en mente la advertencia de Kmenta:


  1. La multicolinealidad es un problema de grado y no de clase. La distinción importante no es entre la presencia y la ausencia de multicolinealidad, sino entre sus diferentes grados.
  2. Puesto que la multicolinealidad se refiere a la condición de las variables explicativas las cuales son no estocásticas por supuestos, ésta es una característica de la muestra  no de la población.
Por consiguiente, no es necesario "llevar a cabo pruebas sobre multicolinealidad" pero se puede, si se desea, medir su grado en cualquier muestra determinada.

martes, 30 de septiembre de 2014

Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (IV)

El ejemplo muestra en forma dramática lo que hace la multicolinealidad. El hecho de que la prueba F sea significativa pero los valores de t de X3 y X3 no sean significativos individualmente significa que las dos variables están altamente correlacionadas que es imposible aislara el impacto individual del ingreso o de la riqueza sobre el consumo. De hecho, si se efectúa la regresión de X3 sobre X2 se obtiene:


lunes, 29 de septiembre de 2014

Ejemplo ilustrativo: gastos de consumo en relación con el ingreso y la riqueza (III)

Es interesante observar este resultado desde un punto de vista geométrico (Véase figura 10.3) Con base en la regresión (10.6.1), se han establecido intervalos de confianza individuales al 95%  de confianza para β2 y β3 siguiendo el procedimiento usual estudiado en el capítulo 8. Como lo muestran estos intervalos, cada uno de ellos, en forma individual, incluye el valor de cero. Por tanto, individualmente se puede aceptar la hipótesis de que las dos pendientes parciales son cero. Pero cuando se establece el intervalo de confianza conjunta para probar la hipótesis de que β2= β3 = 0, esa hipótesis no puede aceptarse puesto que el intervalo de confianza conjunto, en realidad una elipse, no incluye el origen. Como ya se reiteró anteriormente, cuando la colinealidad es alta, no son confiables las pruebas sobre los regresores individuales; en tales casos, la prueba F globlal es la que mostrará si Y está relacionada con los diversos regresores.